I. Geschiedenis van de ontwikkeling van intelligente informatiesystemen

I. Geschiedenis van de ontwikkeling van intelligente informatiesystemen

Intelligente informatiesystemen in kennisbeheer

Invoering

Hoofddoel informatie Systemen in de economie is het de tijdige presentatie van de nodige informatie aan besluitvormers zodat ze adequate en effectieve oplossingen bij het managen van processen, middelen, financiële transacties, personeel of de organisatie als geheel. In het proces van ontwikkeling van informatietechnologieën, operationeel onderzoek en modelleringstechnologieën, evenals met de toename van consumenten van informatie en analytische ondersteuning van besluitvormers zelf, is de behoefte aan systemen die niet alleen informatie vertegenwoordigen, maar ook enige voorbereidende analyse ervan, in staat om wat advies en aanbevelingen te geven, de ontwikkeling van situaties te voorspellen, de meest veelbelovende alternatieve oplossingen te selecteren, d.w.z. ondersteuning van beslissingen van besluitvormers, die een aanzienlijk deel van routinematige operaties op zich nemen, evenals de functies van voorlopige analyse en beoordelingen.

Het Decision Support Information System (DSIS) verbindt de intellectuele middelen van een manager met de mogelijkheden en mogelijkheden van een computer om de kwaliteit van beslissingen te verbeteren. Deze systemen zijn ontworpen voor managers die managementbeslissingen nemen in de context van semigestructureerde en losjes gedefinieerde taken.

Zo leidde de verdere ontwikkeling van het ISPR tot de oprichting van een intellectueel informatie-ISS.

Intelligente informatietechnologieën (IIT) (Intellectuele informatietechnologie, IIT) zijn informatietechnologieën die een persoon helpen de analyse van de politieke, economische, sociale en technische situatie te versnellen, evenals de synthese van managementbeslissingen.

Het gebruik van IIT in de praktijk houdt in dat rekening wordt gehouden met de specifieke kenmerken van het probleemgebied, dat kan worden gekenmerkt door de volgende reeks kenmerken:

kwaliteit en efficiëntie van de besluitvorming;

vaagheid van doelen en institutionele grenzen;

de veelheid van onderwerpen die betrokken zijn bij het oplossen van het probleem;

· willekeur, fluctuatie en kwantisering van het gedrag van het medium;

een veelvoud van elkaar beïnvloedende factoren;

Zwakke formaliseerbaarheid, uniciteit, niet-stereotypische situaties;

latentie, verzwijging, impliciete informatie;

Afwijking in de uitvoering van plannen, het belang van kleine acties;

Paradoxale logica van beslissingen, enz.

IIT wordt gevormd tijdens het creëren van informatiesystemen en informatietechnologieën om de efficiëntie van kennisbeheer en besluitvorming te verbeteren in omstandigheden die verband houden met het ontstaan ​​van probleemsituaties. In dit geval wordt elke levens- of zakelijke situatie beschreven in de vorm van een cognitief model (cognitief schema, archetype, frame, enz.), dat vervolgens wordt gebruikt als basis voor het construeren en uitvoeren van modellering, inclusief computermodellering.

I. Geschiedenis van de ontwikkeling van intelligente informatiesystemen

De geschiedenis van Intelligent Information Systems (IIS) begint in het midden van de 20e eeuw, wat wordt geassocieerd met de ontwikkeling van kunstmatige intelligentie als een nieuwe wetenschappelijke richting, de opkomst van de term "kunstmatige intelligentie".

De voorwaarden voor de ontwikkeling van kunstmatige intelligentie in de USSR en Rusland verschenen al in de 19e eeuw, toen collegiaal raadslid Semyon Nikolayevich Korsakov (1787-1853) de taak op zich nam om de vermogens van de geest te versterken door de ontwikkeling van wetenschappelijke methoden en apparaten, in navolging van het moderne concept van kunstmatige intelligentie als een versterker van het natuurlijke. In 1832 publiceerde S. N. Korsakov een beschrijving van vijf mechanische apparaten die hij had uitgevonden, de zogenaamde "intelligente machines", voor de gedeeltelijke mechanisering van mentale activiteit bij zoek-, vergelijkings- en classificatietaken. Bij het ontwerp van zijn machines gebruikte Korsakov voor het eerst in de geschiedenis van de informatica geperforeerde kaarten, die voor hem een ​​soort kennisbank speelden, en de machines zelf waren in wezen de voorlopers van expertsystemen. "Intelligente machines" maakten het mogelijk om oplossingen te vinden voor bepaalde aandoeningen, bijvoorbeeld om de meest geschikte medicijnen te bepalen voor de symptomen van de ziekte die bij de patiënt werden waargenomen. In de USSR begon het werk op het gebied van kunstmatige intelligentie in de jaren zestig. Een aantal baanbrekende studies werden uitgevoerd aan de Universiteit van Moskou en de Academie van Wetenschappen, onder leiding van V. Pushkin en D. A. Pospelov. In 1964 werd het werk van de Leningrad-logicus S. Maslov "Een inverse methode voor het vaststellen van afleidbaarheid in de klassieke predikaatrekening" gepubliceerd, waarin voor het eerst een methode werd voorgesteld voor het automatisch zoeken naar bewijzen van stellingen in de predikaatrekening. In 1966 ontwikkelde VF Turchin de taal van recursieve functies Refal. Tot de jaren 70 in de USSR werd al het AI-onderzoek uitgevoerd in het kader van cybernetica. Volgens D.A. Pospelov waren de wetenschappen "informatica" en "cybernetica" in die tijd gemengd vanwege een aantal academische geschillen. Pas in de late jaren 1970 in de USSR begon te praten over de wetenschappelijke richting van "kunstmatige intelligentie" als een tak van de informatica. Tegelijkertijd werd de informatica zelf geboren, waarbij de voorloper "cybernetica" werd onderworpen. Eind jaren zeventig werd een woordenboek over kunstmatige intelligentie, een driedelig naslagwerk over kunstmatige intelligentie en een encyclopedisch woordenboek over informatica, waarin de secties "Cybernetica" en "Artificiële Intelligentie" samen met andere secties deel uitmaken van de informatica.

De geschiedenis van IIT begint halverwege de jaren zeventig en wordt geassocieerd met de gezamenlijke praktische toepassing van intelligente informatiesystemen, kunstmatige intelligentiesystemen, beslissingsondersteunende systemen en informatiesystemen. De geschiedenis van IIT wordt ook geassocieerd met de ontwikkeling van drie wetenschappelijke gebieden: computerfilosofie, computerpsychologie en geavanceerde computerwetenschap (Geavanceerde computerwetenschap) en wordt aangevuld met vooruitgang bij het creëren van:

1. situationele centra

2. informatie- en analysesystemen

3. hulpmiddelen voor evolutionair computergebruik en genetische algoritmen

4. ondersteuningssystemen voor mens-computercommunicatie op natuurlijke taal

5. cognitieve modellering

6. systemen voor automatische thematische categorisering van documenten

7. strategische planningssystemen

8. instrumenten voor technische en fundamentele analyse van financiële markten

9. kwaliteitsmanagementsystemen

10. beheersystemen voor intellectueel eigendom, enz.

Kunstmatige intelligentie als wetenschap is opgericht door drie generaties onderzoekers.

In tabel 1.1. belangrijke gebeurtenissen in de geschiedenis van AI en kennistechnologie worden gepresenteerd, te beginnen met het eerste werk van W. McCulloch en W. Pits in 1943 en tot huidige trends in de gecombineerde inspanningen van expertsystemen, fuzzy logic en neurale computing in moderne systemen, gebaseerd op kennis, in staat om berekeningen met woorden uit te voeren.

Tabel 1.1.

Een korte lijst van belangrijke gebeurtenissen in de geschiedenis van AI en kennisengineering

Periode ontwikkelingen
Geboorte van AI (1943-1956) - W. McCulloch en W. Pits: een logische calculus van ideeën die inherent zijn aan nerveuze activiteit, 1943. - A. Turing: Computermachine en intelligentie, 1950. - C. Shannon: Computerprogrammering voor schaakspel, 1950.
Opkomst van AI (1956-eind jaren zestig) - D. McCarthy: LISP is een programmeertaal voor kunstmatige intelligentie. - M. Cullian: Semantische netwerken voor kennisrepresentatie, 1966. - A. Newell en G. Simon: universele probleemoplosser (GPS), 1961. - M. Minsky: Structuren voor kennisrepresentatie (frames), 1975.
Ontdekking en ontwikkeling van expertsystemen (begin jaren 70 - midden jaren 80). - E. Feigenbaum, B. Buchanan et al. (Stanford University): DENDRAL Expert System - E. Feigenbaum, E. Shortleaf: MYCIN Expert System - Stanford Research Center: PROSPECTOR Expert System - A. Kolmeroe, R. Kowalski et al. (Frankrijk): Logische programmeertaal PROLOG.
Heropleving van kunstmatige neurale netwerken (vanaf 1965) - J. Hopfield: Neurale netwerken en fysica met opkomende collectieve computervaardigheden, 1982. - T. Kohonen: Zelforganiserende topologisch correcte kaarten, 1982. - D. Rumelhart en D. McClelland: gedistribueerde parallelle verwerking, 1986.
Evolutionair computergebruik (begin jaren 70) - I. Rechenberg: Evolutionaire strategieën - Optimalisatie technische systemen over de principes van biologische informatie, 1973. - J. Holland: Aanpassing in natuurlijke en kunstmatige systemen, 1975. - J. Koza: Genetische programmering: computerprogrammering door middel van natuurlijke selectie, 1992. - D. Vogel: Evolutionaire informatica - een nieuwe filosofie in machine-intelligentie, 1995.
Fuzzy sets en fuzzy logic (midden jaren 60 en later) - L. Zadeh: Fuzzy-sets, 1965. - L. Zadeh: Fuzzy-algoritmen, 1969. -E. Mamdani: Toepassing van vage logica in benaderend redeneren met behulp van taalkundige synthese, 1977. - M. Sugeno: Fuzzy-inferentie (Takagi-Sudgeno-algoritme), 1985
Computergebruik met woorden (eind jaren 80 en daarna) - A. Neigotsa: Expertsystemen en vage systemen, 1985. - B. Kosko: Neurale netwerken en vage systemen, 1992. - B. Kosko: Fuzzy denken, 1993. - R. Yager en L. Zade: vage sets, neurale netwerken en Soft Computing, 1994. - B. Kosko: Fuzzy Engineering, 1996. - L. Zadeh: Word Computing, 1996.

Historisch gezien verliepen de ontwikkelingen op het gebied van AI dus in twee hoofdrichtingen:

De eerste richting houdt verband met pogingen om intelligente machines te ontwikkelen door hun biologische prototype - het menselijk brein - te modelleren. Nu wordt deze richting nieuw leven ingeblazen op basis van de ontwikkeling van moderne hardware en software (microchips op basis van fuzzy logic, gedistribueerde multiprocessorsystemen, multi-agentsystemen, soft computing, genetische algoritmen en neurale netwerken, enz.).

De tweede richting houdt verband met de ontwikkeling van methoden, technieken, gespecialiseerde apparaten en programma's voor computers die de oplossing bieden voor complexe wiskundige en logische problemen die het mogelijk maken om individuele intellectuele acties van een persoon te automatiseren (op kennis gebaseerde systemen, expertsystemen, toegepaste intelligente systemen ).

Deze twee richtingen definiëren als het ware het minimale programma en het maximale programma, waartussen het gebied ligt van het huidige onderzoek en de ontwikkeling van AI-systemen. Werken aan de ontwikkeling van AI-software en -hardware worden in een apart gedeelte uitgelicht.


Gelijkaardige informatie.


Basisconcepten van kunstmatige intelligentie.

Het is nogal moeilijk om een ​​precieze definitie te geven van wat menselijke intelligentie is, omdat intelligentie een samensmelting is van vele vaardigheden op het gebied van het verwerken en presenteren van informatie. Intelligentie (intelligentie) komt van het Latijnse intellectus - wat geest, reden, rede betekent; menselijk denkvermogen. Met een hoge mate van zekerheid kan intelligentie het vermogen van de hersenen worden genoemd om (intellectuele) problemen op te lossen door het verwerven, onthouden en doelbewust transformeren van kennis in het proces van leren van ervaring en aanpassing aan verschillende omstandigheden.

Kunstmatige intelligentie (AI) is een verzameling wetenschappelijke disciplines die methoden bestuderen voor het oplossen van problemen van intellectuele (creatieve) aard met behulp van computers.
Kunstmatige intelligentie is een van de gebieden van de informatica, met als doel het ontwikkelen van hardware- en softwaretools waarmee een niet-programmeurgebruiker zijn eigen, traditioneel beschouwde intellectuele taken kan instellen en oplossen, door te communiceren met een computer in een beperkte subset van natuurlijke taal.

Kunstmatige intelligentiesystemen (AI) zijn computergebaseerde systemen die de oplossing van complexe intellectuele taken door een persoon simuleren.
Kennis: kennis is in het algemeen een in de praktijk beproefd resultaat van het kennen van de werkelijkheid, de juiste weerspiegeling daarvan in het menselijk denken, het bezit van ervaring en begrip die zowel subjectief als objectief correct zijn, op basis waarvan oordelen en conclusies die betrouwbaar genoeg lijken om als kennis te worden beschouwd. Daarom is de term kennis in de context van IT de informatie die aanwezig is bij de implementatie van intellectuele functies. Meestal zijn dit afwijkingen, trends, patronen en afhankelijkheden die in informatie worden aangetroffen, met andere woorden intelligente systemen zijn tegelijkertijd kennisverwerkende systemen.

Programma's voor kunstmatige intelligentie omvatten:



1. spelprogramma's (stochastisch, computer spelletjes);

2. natuurlijke taalprogramma's - machinevertaling, tekstgeneratie, spraakverwerking;

3. herkenningsprogramma's - herkenning van handschrift, afbeeldingen, kaarten;

4. programma's voor het maken en analyseren van grafiek, schilderkunst, muziekwerken.

De volgende gebieden van kunstmatige intelligentie worden onderscheiden:

1. expertsystemen;

2. neurale netwerken;

3. natuurlijke taalsystemen;

4. evolutionaire methoden en genetische algoritmen;

5. vage reeksen;

6. kennisextractiesystemen.

Geschiedenis van de ontwikkeling van kunstmatige intelligentie

Er zijn drie hoofdfasen in de ontwikkeling van AIS:

− 60-70. Dit zijn de jaren van het realiseren van de mogelijkheden van kunstmatige intelligentie en de vorming van een maatschappelijke orde ter ondersteuning van besluitvormings- en beheersprocessen. De wetenschap reageert op deze orde met het verschijnen van de eerste perceptrons (neurale netwerken), de ontwikkeling van methoden voor heuristische programmering en situationele controle. grote systemen(ontwikkeld in de USSR)

− 70-80. In dit stadium is men zich bewust van het belang van kennis voor het nemen van adequate beslissingen; expertsystemen verschijnen waarin het apparaat van vage wiskunde actief wordt gebruikt, modellen van plausibele gevolgtrekking en plausibele redenering worden ontwikkeld

− 80-90s. Er zijn geïntegreerde (hybride) modellen van kennisrepresentatie die intellecten combineren: zoeken, computationeel, logisch en figuratief.

De term kunstmatige intelligentie werd in 1956 voorgesteld op een seminar aan de Stanford University (VS).

Het idee om een ​​kunstmatige gelijkenis van de menselijke geest te creëren om complexe problemen op te lossen en het denkvermogen te simuleren, hangt al sinds de oudheid in de lucht. Het werd voor het eerst uitgedrukt door R. Lully, die in de 14e eeuw probeerde een machine te maken voor het oplossen van verschillende problemen op basis van een algemene classificatie van concepten.

De ontwikkeling van kunstmatige intelligentie als wetenschappelijke richting werd pas mogelijk na de creatie van computers. Dit gebeurde in de jaren 40 van de twintigste eeuw. Tegelijkertijd creëerde N. Wiener zijn fundamentele werken over een nieuwe wetenschap - cybernetica.

In 1954 begon het seminar "Automaten en denken" zijn werk aan de Staatsuniversiteit van Moskou onder leiding van professor A. A. Lyapunov. Aan dit seminarie namen vooraanstaande fysiologen, taalkundigen, psychologen en wiskundigen deel. Het is algemeen aanvaard dat het in die tijd was dat kunstmatige intelligentie in Rusland werd geboren.

Een belangrijke doorbraak in de praktische toepassingen van kunstmatige intelligentie vond plaats halverwege de jaren zeventig, toen de zoektocht naar een universeel denkend algoritme werd vervangen door het idee om de specifieke kennis van deskundige experts te modelleren.

In de Verenigde Staten verschenen de eerste commerciële op kennis gebaseerde systemen, of expertsystemen, een nieuwe benadering voor het oplossen van problemen met kunstmatige intelligentie: kennisrepresentatie. MYCIN en DENDRAL worden gecreëerd - klassieke expertsystemen voor geneeskunde en scheikunde.

In 1980-1990 werd actief onderzoek gedaan op het gebied van kennisrepresentatie, kennisrepresentatietalen en expertsystemen ontwikkeld. Sinds het midden van de jaren tachtig wordt kunstmatige intelligentie gecommercialiseerd. Jaarlijkse investeringen groeien, industriële expertsystemen worden gecreëerd.

Expertsystemen worden niet veel gebruikt in de praktische geneeskunde. Ze worden voornamelijk gebruikt als: onderdeel medische instrument-computersystemen. Dit is voornamelijk te wijten aan het feit dat echte leven het aantal mogelijke situaties en bijgevolg diagnostische regels bleek zo groot te zijn dat het systeem ofwel een grote hoeveelheid aanvullende informatie over de patiënt begint te vereisen, ofwel de nauwkeurigheid van de diagnose sterk afneemt.

Het is voorwaardelijk mogelijk om 7 stadia van de ontwikkeling van kunstmatige intelligentie te onderscheiden, die elk verband houden met een bepaald ontwikkelingsniveau van kunstmatige intelligentie en een paradigma dat in een bepaald systeem is geïmplementeerd.

paradigma - nieuw idee wiskundige beschrijving van de werking van kunstmatige-intelligentiesystemen.

Fase 1 (jaren 50) ( Neuronen en neurale netwerken )

Het wordt geassocieerd met het verschijnen van de eerste sequentiële machines, met zeer kleine, volgens de huidige normen, resourcemogelijkheden in termen van geheugen, snelheid en takenklassen die moeten worden opgelost. Dit waren problemen van puur computationele aard, waarvoor oplossingsschema's bekend waren en die in een formele taal beschreven kunnen worden. Ook aanpassingstaken behoren tot deze klasse.

Fase 2 (jaren 60) ( heuristisch zoeken)

De "intelligentie" van de machine werd aangevuld met mechanismen voor zoeken, sorteren, de eenvoudigste bewerkingen voor het generaliseren van informatie die niet afhankelijk zijn van de betekenis van de gegevens die worden verwerkt. Dit is een nieuw startpunt geworden in de ontwikkeling en het begrip van de taken van het automatiseren van menselijke activiteiten.

Fase 3 (jaren 70) ( kennisrepresentatie)

wetenschappers hebben het belang erkend kennis(naar volume en inhoud) voor de synthese van interessante algoritmen voor het oplossen van problemen. Dit betekende kennis waar wiskunde niet mee kon werken, d.w.z. ervaren kennis die niet strikt formeel van aard is en meestal in declaratieve vorm wordt beschreven. Dit is de kennis van specialisten op verschillende werkterreinen, artsen, chemici, onderzoekers, enz. Dergelijke kennis wordt expertkennis genoemd en daarom zijn systemen die werken op basis van expertkennis bekend geworden als adviessystemen of expertsystemen.

Fase 4 (jaren 80) ( leermachines)

De vierde fase van AI-ontwikkeling is een doorbraak geworden. Met de komst van expertsystemen begon de wereld fundamenteel nieuwe fase ontwikkeling van intelligente technologieën - het tijdperk van intelligente systemen - adviseurs die oplossingen voorstelden, deze rechtvaardigden, in staat waren om te leren en zich te ontwikkelen, met een persoon te communiceren in zijn gebruikelijke, zij het beperkte, natuurlijke taal.

Fase 5 (jaren 90) ( Geautomatiseerde bewerkingscentra)

De complicatie van communicatiesystemen en de op te lossen taken vereisten een kwalitatief nieuw niveau van "intelligentie"-voorziening software systemen, systemen zoals beveiliging tegen onbevoegde toegang, Informatiebeveiliging bronnen, bescherming tegen aanvallen, semantische analyse en zoeken naar informatie in netwerken, enz. En intelligente systemen zijn een nieuw paradigma geworden voor het creëren van allerlei soorten geavanceerde beveiligingssystemen. Ze stellen u in staat om flexibele omgevingen te creëren waarbinnen de oplossing van alle noodzakelijke taken wordt geboden.

Fase 6 (jaren 2000) ( Robotica )

Het toepassingsgebied van robots is vrij breed en strekt zich uit van autonome grasmaaiers en stofzuigers tot moderne modellen van militaire en ruimtetechnologie. Modellen zijn uitgerust met een navigatiesysteem en allerlei randsensoren.

Fase 7 (jaar 2008)( singulariteit )

De creatie van kunstmatige intelligentie en zelfreproducerende machines, de integratie van mensen met computers, of een aanzienlijke sprong in de mogelijkheden van het menselijk brein dankzij biotechnologie.

Volgens sommige voorspellingen kan de technologische singulariteit rond 2030 komen. Voorstanders van de theorie van technologische singulariteit zijn van mening dat als er een fundamenteel andere dan de menselijke geest (postmens) ontstaat, het verdere lot van de beschaving niet kan worden voorspeld op basis van menselijk (sociaal) gedrag.

Een korte geschiedenis van kunstmatige intelligentie

Belangrijkste onderzoeksgebieden op het gebied van kunstmatige intelligentie

Kennisrepresentatie en kennisinferentie

vage kennis

Toegepaste intelligente systemen

1.1. Een korte geschiedenis van kunstmatige intelligentie

1.1.1. achtergrond

Het idee om een ​​kunstmatige gelijkenis van een persoon te creëren om complexe problemen op te lossen en de menselijke geest te simuleren, hangt al sinds de oudheid in de lucht. Dus in het oude Egypte werd een "herlevend" mechanisch beeld van de god Amon gemaakt. In Homerus' Ilias smeedde de god Hephaestus mensachtige automaten. In de literatuur kwam dit idee vele malen terug: van Pygmalion's Galatea tot Papa Carlo's Pinocchio. De voorouder van kunstmatige intelligentie wordt echter beschouwd als de middeleeuwse Spaanse filosoof, wiskundige en dichter Raymond Lull, die in de 13e eeuw probeerde een mechanische machine te maken voor het oplossen van verschillende problemen, op basis van de algemene classificatie van concepten die hij ontwikkelde . In de 18e eeuw zetten Leibniz en Descartes dit idee onafhankelijk voort en stelden universele talen voor om alle wetenschappen te classificeren. Deze werken kunnen worden beschouwd als de eerste theoretische werken op het gebied van kunstmatige intelligentie. De definitieve geboorte van kunstmatige intelligentie als wetenschappelijke richting vond pas plaats na de creatie van computers in de jaren 40 van de twintigste eeuw. Tegelijkertijd creëerde Norbert Wiener zijn fundamentele werken over een nieuwe wetenschap - cybernetica.

De term "kunstmatige intelligentie" - AI - (AI - kunstmatige intelligentie) werd in 1956 voorgesteld op een seminar met dezelfde naam aan het Dartsmouth College (VS). Het seminar was gewijd aan de ontwikkeling van methoden voor het oplossen van logische in plaats van computationele problemen. BIJ de Engelse taal deze uitdrukking heeft niet die enigszins fantastische antropomorfe kleur die het kreeg in een nogal mislukte Russische vertaling. Het woord intelligentie betekent "het vermogen om redelijk te redeneren", en helemaal niet "intelligentie", waarvoor een term intellect bestaat.

Kort na de erkenning van kunstmatige intelligentie als een apart wetenschapsgebied, werd het verdeeld in twee gebieden: neurocybernetica en 'black box-cybernetica'. Deze gebieden ontwikkelen zich bijna onafhankelijk en verschillen aanzienlijk in zowel methodologie als technologie. En pas op dit moment zijn er merkbare tendensen om deze delen weer tot één geheel te verenigen.

kennis kan buiten de hersenen worden opgeslagen. Hun argumenten zijn:
  1. cognitie als een proces leent zich voor formalisering;
  2. intelligentie kan worden gemeten (intelligentiequotiënt IQ - intelligentiequotiënt 1 De term werd in wetenschappelijk gebruik geïntroduceerd door V. Stern (1911) volgens de rekenmethode van A. Binet (1903)., geheugencapaciteit, reactiviteit van de psyche, enz.);
  3. informatiematen (bit, byte, etc.) zijn van toepassing op kennis. Pessimisten geloven dat kunstmatige intelligentie niet in staat is om kennis op te slaan, omdat het slechts een imitatie is van denken. Pessimisten geloven dat het menselijk intellect uniek is, dat creativiteit niet geformaliseerd kan worden, dat de wereld heel en ondeelbaar is in discrete informatie, dat de beelden van het menselijk denken veel rijker zijn. logisch denken auto's, enz.

Wie gelijk heeft in dit geschil, zal de tijd leren. We merken alleen op dat het geheugen van de machine opslaat wat erin is geschreven, en dit kan niet alleen kennis zijn als de hoogste vorm van informatie, maar ook gewoon gegevens die kennis, desinformatie en informatie ruis(Zie "De geschiedenis van de ontwikkeling van de informatica. De ontwikkeling van ideeën over informatie. Op weg naar de informatiemaatschappij"). Om kennis uit de data te halen, moet een machine, net als een mens, een doel stellen (“wat wil ik weten?”). waardevolle informatie(Ze slaan tenslotte waarden op, en niet alles wat verschrikkelijk is). Kan kunstmatige intelligentie het formuleren van aanvaardbare doelen en het kunstmatig selecteren van waardevolle informatie voor deze doelen is een ander probleem in de theorie en praktijk van kunstmatige intelligentie. Terwijl dit werk door een persoon wordt gedaan - in expertsystemen, in robotprogrammering, in procesbesturingssystemen, enz. Gratis machines (zie hierboven) zullen dit werk zelf moeten doen. Tegelijkertijd kan het aangegeven probleem verergeren doordat in de netwerken waarvan machines kennis "downloaden", er veel "vuilnis" en destructieve virussen kunnen zijn.

4.4. De geschiedenis van de ontwikkeling van ideeën voor kunstmatige intelligentie en hun implementatie

Voor het eerst ontstonden de ideeën om kunstmatige intelligentie te creëren in de 17e eeuw. (B. Spinoza, R. Descartes, G.W. Leibniz en anderen). We hebben het over kunstmatige intelligentie, en niet over mechanische poppen, die toen al bekend waren. De grondleggers van de theorie van kunstmatige intelligentie waren natuurlijk optimisten - ze geloofden in de haalbaarheid van hun idee:

Volgens de psychologische wet van behoud (“de som van plezier en pijn is gelijk aan nul”) verschenen er onmiddellijk pessimisten (F. Bacon, J. Locke, enz.), die de optimisten uitlachten: “Oh, stop ermee! ”. Maar elk idee in de wetenschap, als het eenmaal is ontstaan, blijft leven, ondanks de obstakels.

Het idee van kunstmatige intelligentie begon pas in de tweede helft van de 20e eeuw echte kenmerken aan te nemen, vooral met de uitvinding van computers en 'intelligente robots'. Om het idee te implementeren, waren ook toegepaste ontwikkelingen nodig in wiskundige logica, programmeren, cognitieve psychologie, wiskundige taalkunde, neurofysiologie en andere disciplines die zich ontwikkelden in het cybernetische kanaal van de relatie tussen organismen en machines in termen van controle- en communicatiefuncties. De naam zelf kunstmatige intelligentie" ontstond aan het einde van de jaren 60 van de twintigste eeuw en in 1969 werd de Eerste Wereldconferentie over kunstmatige intelligentie gehouden (Washington, VS).

aanvankelijk kunstmatige intelligentie ontwikkeld in de zogenaamde analytisch (functioneel) richting waarin de machine de opdracht kreeg om privé uit te voeren intellectuele taken creatieve aard (spelletjes, vertaling van de ene taal naar de andere, schilderen, enz.).

later ontstond synthetisch (model) richting, volgens welke pogingen werden ondernomen om de creatieve activiteit van de hersenen in algemene zin te modelleren, "zonder in te ruilen" voor bepaalde taken. Uiteraard bleek deze richting moeilijker te implementeren dan de functionele richting. Het object van studie van de modelrichting was: metaprocedures menselijk denken. De meta-procedures van creativiteit zijn niet de procedures (functies) van intellectuele activiteit zelf, maar manieren om te creëren dergelijke procedures, manieren om een ​​nieuw soort intellectuele activiteit te leren. Op deze manieren is waarschijnlijk verborgen wat intellect kan worden genoemd. De aanwezigheid van meta-procedures van denken onderscheidt ware intelligentie van de schijnbare, daarom is de implementatie van meta-procedures van creativiteit door werktuigmachines bijna de hoofdtaak van de modeldirectie geworden. niet wat maar hoe uitvinden hoe een creatief probleem oplossen hoe nieuwe dingen (zelflerend) leren? - dit zijn de vragen die inherent zijn aan de implementatie van modellen van menselijk creatief denken.

In het kader van de modelrichting zijn hoofdzakelijk twee modellen van intelligentie ontwikkeld. Chronologisch de eerste labyrintisch een model dat gericht zoeken in een doolhof implementeert alternatieve manieren het oplossen van een probleem met een beoordeling van het succes na elke stap of vanuit het standpunt van het oplossen van het probleem als geheel. Met andere woorden, het labyrintmodel wordt gereduceerd tot opsomming opties(naar analogie met de opsomming van opties om het doolhof te verlaten). Succes (of falen) bij het kiezen van een of andere optie kan bij elke stap worden geëvalueerd (dat wil zeggen, onmiddellijk na de keuze), zonder het uiteindelijke resultaat van het oplossen van het probleem te voorzien, of, omgekeerd, de keuze van de optie bij elke stap kan worden gemaakt op basis van het eindresultaat. Laten we bijvoorbeeld schaken. Het is mogelijk om het resultaat van elke zet te evalueren door de onmiddellijke winst of het verlies na die zet (winst of verlies van stukken, het behalen van een positioneel voordeel, enz.) zonder na te denken over het einde van het spel. Met deze benadering is het duidelijk dat succes bij elke zet zal leiden tot het succes van het hele spel, tot overwinning. Maar dit is helemaal niet nodig. Het is immers mogelijk om de koning van de tegenstander in een paringsval te lokken door stukken op te offeren in een reeks zetten, waardoor het schijnbare positionele voordeel verloren gaat. Met deze aanpak betekenen gedeeltelijke successen bij elke zet niets in vergelijking met de laatste winnende zet - de aankondiging van schaakmat.

De eerste benadering in labyrintmodellering werd ontwikkeld in heuristische programmering, de tweede benadering is: dynamisch programmeren. Blijkbaar, dynamische benadering effectiever dan heuristiek als het gaat om schaken. Hoe dan ook, sterke schakers gebruikten, zonder het te weten, precies dynamische benadering tegen schaakprogramma's werken in heuristische modus, en versloegen met hun natuurlijke intelligentie het labyrint kunstmatige intelligentie. Maar dat was in de jaren 60 en 70 wel het geval. 20ste eeuw Sindsdien zijn de schaakprogramma's zo sterk verbeterd (onder meer door de introductie van een dynamische aanpak) dat ze nu met succes wereldkampioenen confronteren.

Maze-modellen zijn op grote schaal gebruikt, niet alleen bij het maken van schaakprogramma's, maar ook voor het programmeren van andere spellen, maar ook voor het bewijzen van wiskundige stellingen en in andere toepassingen.

In navolging van de labyrintmodellen van kunstmatige intelligentie, associatieve modellen. Associatie (van lat. associatie - verbinding) - de verbinding van psychologische representaties (vanwege eerdere ervaring), waardoor een representatie, die in de geest is verschenen, een andere representatie veroorzaakt (volgens het principe van gelijkenis, contiguïteit of tegenovergestelde). Nobelprijswinnaar Academicus I.P. Pavlov, die zijn bekende experimenten met honden uitvoerde, merkte op dat als de hond tijdens het eten de lamp aan ziet gaan, de hond, zodra de lamp aan was, maagsap begon af te scheiden, hoewel voedsel werd het niet aangeboden. De kern van deze geconditioneerde reflex is een associatie gebaseerd op het principe van nabijheid. De gelijkenis-associatie wordt beschreven in het verhaal van A.P. Tsjechov "achternaam paard". Associatie door tegengestelde kan worden beschreven door een logisch schema: als "niet A", dan "A". Als ik bijvoorbeeld overdag een witte kat zag, associeerde ik die meteen met een zwarte kat die 's ochtends de weg overstak.

In associatieve modellen wordt aangenomen dat de oplossing van een nieuw, onbekend probleem op de een of andere manier gebaseerd is op reeds bekende opgeloste problemen die vergelijkbaar zijn met de nieuwe, dus de methode voor het oplossen van een nieuw probleem is gebaseerd op het associatieve principe van gelijkenis (overeenkomst). Voor de implementatie ervan worden associatief zoeken in het geheugen, associatief logisch redeneren gebruikt met behulp van de methoden voor het oplossen van problemen die door de machine in een nieuwe situatie worden beheerst, enz. In moderne computers en intelligente robots is er: associatief geheugen. Associatieve modellen worden gebruikt in taken classificatie, patroonherkenning, leren die al gewone taken van informatiesystemen en -technologieën zijn geworden. Echter, de theorie van associatieve modellen tot de jaren 90. 20ste eeuw was afwezig en wordt nu aangemaakt.

Laten we de belangrijkste makers van kunstmatige intelligentie kort opsommen.

N. Wiener(wiskundige), UR Ashby(bioloog) - de grondleggers van cybernetica, die voor het eerst stelden dat machines slimmer dan mensen die de eerste aanzet gaf tot de ontwikkeling van de theorie van kunstmatige intelligentie.

W. McCulloch, W. Peets(fysiologen) - in 1943. stelde een formeel model van een neuron voor; grondleggers van neurocybernetica en het oorspronkelijke concept van het neurale netwerk.

A. Turing(wiskundige) - in 1937 vond hij een universele algoritmische "Turing-machine" uit; stelde een intellectuele "Turing-test" voor om te bepalen of een machine intelligent is in een vergelijkende dialoog ermee en een "redelijk persoon".

J. von Neumann(wiskundige) - een van de grondleggers van de speltheorie en de theorie van zelfreproducerende automaten, de architectuur van de eerste generaties computers.

M. Somalvico(cybernetisch) A. Azimov(biochemicus, schrijver) - de grondleggers van intellectuele robotica.

G. Simon, W. Reitman(psychologen) - auteurs en ontwikkelaars van de eerste intellectuele labyrint-modellen gebouwd op de principes van heuristisch programmeren.

R. Bellman(wiskundige), S.Yu. Maslov(logicus) - auteurs van een dynamische benadering van intellectuele labyrint-modellen (dynamisch programmeren, inverse proof-methode).

F. Rosenblatt(fysioloog), MM. bongard(natuurkundige) - pioniers van het probleem van patroonherkenning; ontwikkelaars van apparaten en modellen van herkenning en classificatie.

L. Zade, A.N. Kolmogorov, A.N. Tikhonov, MA Girshik(wiskundigen) - auteurs van wiskundige methoden voor het oplossen van slecht geformaliseerde problemen en besluitvorming onder onzekere omstandigheden.

N. Chomsky(wiskundige, filoloog) - de grondlegger van de wiskundige taalkunde.

LR Luria(psycholoog) - de grondlegger van de neuropsychologie, die de diepe mechanismen bestudeert cognitieve activiteit hersenen en andere intellectuele functies van de hersenen.

KE Shannon(communicatie ingenieur), RH Zaripov(wiskundige) - auteurs van de theorie en modellen van machinale synthese van muziek.

Bovenstaande lijst is verre van compleet. Op het gebied van kunstmatige intelligentie hebben niet alleen individuele specialisten gewerkt en zijn ze aan het werk, maar ook teams, laboratoria en instituten. De belangrijkste problemen die ze oplossen zijn:

  1. representatie van kennis;
  2. redeneren modelleren;
  3. intelligente interface "mens-machine", "machine-machine";
  4. geschikte activiteiten plannen;
  5. training en zelftraining van intelligente systemen;
  6. machine creativiteit;
  7. intelligente robots.

Voorwoord

Onlangs is het onderwerp kunstmatige intelligentie erg populair geworden. Maar wat is AI eigenlijk? Welke resultaten heeft het al geboekt en in welke richting zal het zich in de toekomst ontwikkelen? Er is veel controverse rond dit onderwerp. Ten eerste is het een goed idee om te verduidelijken wat we bedoelen met intelligentie.

Intelligentie omvat logica, zelfbewustzijn, leren, emotionele cognitie, creativiteit en het vermogen om te beslissen ander soort taken. Het komt zowel bij mensen als bij dieren voor. we zijn met vroege jaren aan het studeren de wereld, gedurende het hele leven leren we door vallen en opstaan ​​de nodige vaardigheden, doen we ervaring op. Dit is natuurlijke intelligentie.

Als we het hebben over kunstmatige intelligentie, bedoelen we een door mensen gemaakt 'slim' systeem dat leert met behulp van algoritmen. De kern van zijn werk zijn dezelfde methoden: onderzoek, opleiding, analyse, enz.

K Belangrijkste gebeurtenissen in de geschiedenis van AI

De geschiedenis van AI (of in ieder geval de discussie over AI) begon bijna honderd jaar geleden.

R Rossum Universele Robots (R.U.R)

In 1920 schreef de Tsjechische schrijver Karel Capek het sciencefictionstuk Rossumovi Univerz?ln? roboti" (de universele robots van Rossum). Het was in dit werk dat het woord 'robot' voor het eerst werd gebruikt, dat levende humanoïde klonen aanduidde. Volgens de plot hebben fabrieken in de verre toekomst geleerd kunstmatige mensen te produceren. Aanvankelijk werkten deze 'replicaten' in het belang van mensen, maar toen veroorzaakten ze een opstand die leidde tot het uitsterven van de mensheid. Sindsdien is het onderwerp AI enorm populair geworden in literatuur en film, die op hun beurt een grote impact hebben gehad op echt onderzoek.

Een Alan Turing

Engelse wiskundige, een van de pioniers op dit gebied computertechnologie Alan Turing heeft tijdens de Tweede Wereldoorlog een belangrijke bijdrage geleverd aan de ontwikkeling van cryptografie. Dankzij zijn onderzoek was het mogelijk om de code te ontcijferen van de Enigma-machine, die op grote schaal door nazi-Duitsland werd gebruikt om berichten te coderen en te verzenden. Een paar jaar na het einde van de Tweede Wereldoorlog deden zich belangrijke ontdekkingen voor op gebieden als neurologie, informatica en cybernetica, die de wetenschapper ertoe brachten een elektronisch brein te creëren.

Al snel stelde de wetenschapper een test voor, waarvan het doel is om de mogelijkheid van kunstmatig machinedenken dicht bij een persoon te bepalen. De essentie van deze test is als volgt: Een persoon (C) communiceert met één computer (A) en één persoon (B). Tijdens het gesprek moet hij bepalen met wie hij communiceert. De computer moet een persoon misleiden om de verkeerde keuze te maken. Alle testdeelnemers zien elkaar niet.

D Dartmouth Conference en de eerste "winter" van AI

In 1956 vond de allereerste conferentie over het onderwerp AI plaats, waar wetenschappers van toonaangevende technologische universiteiten USA en specialisten van IBM. Het evenement was van groot belang bij de vorming van een nieuwe wetenschap en markeerde het begin van grootschalig onderzoek op dit gebied. Toen waren alle deelnemers zeer optimistisch.

De jaren zestig begonnen, maar de vooruitgang bij het creëren van kunstmatige intelligentie ging niet vooruit, het enthousiasme begon af te nemen. De gemeenschap onderschatte de complexiteit van de taak, waardoor de optimistische voorspellingen van specialisten niet uitkwamen. Het gebrek aan vooruitzichten op dit gebied heeft de regeringen van het VK en de VS gedwongen te snijden in de financiering van onderzoek. Deze periode wordt beschouwd als de eerste "winter" van de AI.

E Expertsystemen (ES)

Na een lange stagnatie heeft AI zijn weg gevonden naar zogenaamde expertsystemen.

ES is een programma dat vragen kan beantwoorden of een probleem uit een specifiek gebied kan oplossen. Zo vervangen ze echte specialisten. ES bestaat uit twee subroutines. De eerste heet de kennisbank en bevat de nodige informatie op dit gebied. Het andere programma wordt de inference engine genoemd. Het past informatie uit de kennisbank toe in overeenstemming met de taak.

ES hebben hun toepassing gevonden in sectoren als economische prognoses, medisch onderzoek, diagnostiek van storingen in technische apparaten, enz. Een van de momenteel bekende ES is het WolframAlpha-project, opgericht om problemen op te lossen in wiskunde, natuurkunde, biologie, scheikunde en vele andere wetenschappen.

Eind jaren 80 en begin jaren 90, met de komst van de eerste desktop-pc's van Apple en IBM, begon de interesse van het publiek en investeerders in AI af te nemen. Een nieuwe winter is begonnen...

Diepblauw

Na jaren van ups en downs vond er een belangrijke gebeurtenis plaats voor AI: op 11 mei 1997 versloeg de Deep Blue-schaaksupercomputer, ontwikkeld door IBM, wereldkampioen schaken Garry Kasparov in een wedstrijd van zes wedstrijden met een score van 3? op 2?.

In Deep Blue was het zoeken door de boom met schaakzetten verdeeld in drie fasen. Allereerst verkende de hoofdprocessor de eerste niveaus van de schaakspelboom en verdeelde vervolgens de eindposities onder de hulpprocessors voor verdere verkenning. De hulpprocessors verdiepten de zoektocht naar nog een paar zetten en verdeelden vervolgens hun eindposities onder de schaakprocessors, die op hun beurt de laatste niveaus van de boom doorzochten. De Deep Blue-evaluatiefunctie is geïmplementeerd op hardwareniveau - schaakprocessors. In het ontwerp van de hardware-evaluatiefunctie zijn ongeveer 8.000 aanpasbare positiefuncties opgenomen. De waarden van individuele kenmerken werden gecombineerd tot een totaalscore, die vervolgens door Deep Blue werd gebruikt om de kwaliteit van de bekeken schaakposities te evalueren.

In 1997 stond Deep Blue op de 259e plaats qua vermogen (11,38 GFLOPS). Ter vergelijking: de snelste supercomputer heeft momenteel 93.015 GFLOPS.

eenentwintigste eeuw

In de afgelopen twee decennia is de interesse in AI exponentieel gegroeid. De markt voor AI-technologieën (hardware en software) heeft $ 8 miljard bereikt en zal volgens experts van IDC in 2020 groeien tot $ 47 miljard.

Dit wordt mogelijk gemaakt door de opkomst van snellere computers, de snelle ontwikkeling van machine learning-technologieën en big data.

Het gebruik van kunstmatige neurale netwerken heeft de uitvoering van taken zoals videobeeldverwerking, tekstanalyse, spraakherkenning vereenvoudigd en bestaande methoden voor het oplossen van problemen worden elk jaar verbeterd.

Deep Mind-projecten

In 2013 presenteerde DeepMind een project waarin ze AI trainden om zowel games te spelen voor de Atari-console als voor een persoon, en zelfs beter. Hiervoor werd een leermethode met diepe versterking gebruikt, waardoor het neurale netwerk het spel zelfstandig kon leren. Aan het begin van de training wist het systeem niets over de spelregels en gebruikte het alleen de pixelafbeelding van het spel en informatie over de ontvangen punten als invoer.

Daarnaast ontwikkelt DeepMind AI om complexere games zoals Starcraft 2 aan te leren. Deze realtime strategie is ook een van de meest populaire cyberdisciplines ter wereld. In tegenstelling tot klassieke videogames zijn hier veel meer mogelijke acties beschikbaar, weinig informatie over de tegenstander, het wordt noodzakelijk om tientallen mogelijke tactieken te analyseren. Op dit moment handelt de AI alleen eenvoudige minitaken af, zoals het maken van eenheden.

Om nog maar te zwijgen van een ander DeepMind-project genaamd AlphaGo. In oktober 2015 versloeg het systeem de Europese go-kampioen Fan Hui met een score van 5:0. Een jaar later in Zuid-Korea een nieuwe wedstrijd vond plaats, waar een van de beste spelers ter wereld, Lee Sedol, de tegenstander van AlphaGo werd. In totaal werden er vijf wedstrijden gespeeld, waarvan AlphaGo er slechts vier won. Ondanks hoog niveau toonde vaardigheden, maakte het programma nog een fout tijdens de vierde game. In 2017 is er een film over AlphaGo uitgebracht, die we aanraden om te bekijken. DeepMind heeft onlangs een nieuwe generatie AlphaGo Zero aangekondigd. Nu leert het programma door tegen zichzelf te spelen. Na drie dagen training versloeg AlphaGo Zero zijn vorige versie met een score van 100:0.

Conclusie

Tot nu toe zijn AI-systemen zeer gespecialiseerd, dat wil zeggen dat ze taken aankunnen beter dan een man alleen in specifieke gebieden (bijvoorbeeld Go spelen of gegevens analyseren). We zijn nog ver verwijderd van het creëren van een algemene (volwaardige) kunstmatige intelligentie die in staat zou zijn de menselijke geest volledig te vervangen en die in staat zou zijn tot elke intellectuele taak.

Het artikel is vertaald door Lev Alhazred

Steun het project ai-news met een roebel. Machines geloven in jou! >>

keer bekeken