I. Geschiedenis van de ontwikkeling van intelligente informatiesystemen

I. Geschiedenis van de ontwikkeling van intelligente informatiesystemen

Intelligente informatiesystemen in kennismanagement

Invoering

Belangrijkste doel informatie Systemen In de economie is dit de tijdige presentatie van de noodzakelijke informatie aan besluitvormers, zodat zij adequate beslissingen kunnen nemen effectieve oplossingen bij het beheren van processen, middelen, financiële transacties, personeel of de organisatie als geheel. Echter, in het ontwikkelingsproces informatie technologieën, operationeel onderzoek en modelleringstechnologieën, evenals met de toename van consumenten van informatie en analytische ondersteuning voor besluitvormers zelf, de behoefte aan systemen die niet alleen informatie presenteren, maar er ook een voorlopige analyse van uitvoeren, die in staat zijn enig advies te geven en aanbevelingen, en het voorspellen van de ontwikkeling van situaties steeds duidelijker is geworden, selecteert u de meest veelbelovende beslissingsalternatieven, d.w.z. ondersteunen de beslissingen van besluitvormers, waarbij ze een aanzienlijk deel van de routinematige handelingen op zich nemen, evenals de functies van voorlopige analyses en beoordelingen.

Een informatie(DSIS) verbindt de intellectuele hulpbronnen van een manager met de capaciteiten en mogelijkheden van een computer om de kwaliteit van beslissingen te verbeteren. Deze systemen zijn ontworpen voor managers die managementbeslissingen nemen in semi-gestructureerde en losjes gedefinieerde taken.

Dus, verdere ontwikkeling ISPR leidde tot de creatie van een intelligente informatie-DSS.

Intellectuele informatietechnologie (IIT) is informatietechnologie die een persoon helpt de analyse van de politieke, economische, sociale en technische situatie te versnellen, evenals de synthese van managementbeslissingen.

Het gebruik van IIT in de echte praktijk impliceert dat rekening wordt gehouden met de specifieke kenmerken van het probleemgebied, dat kan worden gekenmerkt door de volgende reeks kenmerken:

· kwaliteit en efficiëntie van de besluitvorming;

· onduidelijke doelstellingen en institutionele grenzen;

· veelheid aan onderwerpen die betrokken zijn bij het oplossen van het probleem;

· chaotisch, fluctuerend en gekwantificeerd gedrag van de omgeving;

· veelheid aan factoren die elkaar beïnvloeden;

· zwakke formaliseerbaarheid, uniciteit, niet-stereotypische situaties;

· latentie, geheimhouding, onduidelijkheid van informatie;

· afwijking in de uitvoering van plannen, de betekenis van kleine acties;

· paradoxale logica van beslissingen, etc.

IIT's worden gevormd bij het creëren van informatiesystemen en informatietechnologieën om de efficiëntie van kennisbeheer en besluitvorming te verbeteren in omstandigheden die verband houden met het ontstaan ​​van probleemsituaties. In dit geval wordt elke levens- of bedrijfssituatie beschreven in de vorm van een cognitief model (cognitief schema, archetype, frame, enz.), dat vervolgens wordt gebruikt als basis voor het construeren en uitvoeren van modellering, inclusief computermodellering.

I. Geschiedenis van de ontwikkeling van intelligente informatiesystemen

De geschiedenis van Intelligente Informatiesystemen (IIS) begint in het midden van de 20e eeuw, en wordt geassocieerd met de ontwikkeling van Kunstmatige Intelligentie als een nieuwe wetenschappelijke richting, de opkomst van de term ‘Kunstmatige Intelligentie’.

De voorwaarden voor de ontwikkeling van kunstmatige intelligentie in de USSR en Rusland verschenen al in de 19e eeuw, toen collegiaal adviseur Semyon Nikolajevitsj Korsakov (1787-1853) de taak oplegde om de vermogens van de geest te vergroten door de ontwikkeling van wetenschappelijke methoden en apparaten, in navolging van het moderne concept van kunstmatige intelligentie als versterker van natuurlijke intelligentie. In 1832 publiceerde S. N. Korsakov een beschrijving van vijf mechanische apparaten die hij had uitgevonden, de zogenaamde ‘intelligente machines’, voor gedeeltelijke mechanisatie van mentale activiteit bij taken als zoeken, vergelijken en classificeren. Bij het ontwerp van zijn machines gebruikte Korsakov voor het eerst in de geschiedenis van de informatica geperforeerde kaarten, die voor hem een ​​soort rol speelden als kennisbanken, en de machines zelf waren in wezen de voorlopers van expertsystemen. “Intelligente machines” maakten het mogelijk om oplossingen te vinden voor bepaalde aandoeningen, bijvoorbeeld om de meest geschikte medicijnen te bepalen op basis van de symptomen van een ziekte die bij een patiënt werd waargenomen. In de USSR begon het werk op het gebied van kunstmatige intelligentie in de jaren zestig. Een aantal baanbrekende onderzoeken onder leiding van V. Poesjkin en D.A. Pospelov werden uitgevoerd aan de Universiteit van Moskou en de Academie van Wetenschappen. In 1964 werd het werk van de Leningrad-logicus S. Maslov "De inverse methode voor het vaststellen van deducibiliteit in de klassieke predikaatrekening" gepubliceerd, waarin voor het eerst een methode werd voorgesteld voor het automatisch zoeken naar bewijzen van stellingen in de predikaatrekening. In 1966 ontwikkelde V.F. Turchin de recursieve functietaal Refal. Tot de jaren zeventig In de USSR werd al het AI-onderzoek uitgevoerd in het kader van de cybernetica. Volgens D.A. Pospelov waren de wetenschappen ‘informatica’ en ‘cybernetica’ in die tijd gemengd vanwege een aantal academische geschillen. Pas eind jaren zeventig begonnen ze in de USSR te praten over de wetenschappelijke richting 'kunstmatige intelligentie' als een tak van de informatica. Tegelijkertijd werd de computerwetenschap zelf geboren, waarbij de voorloper ‘cybernetica’ ondergeschikt werd gemaakt. Eind jaren zeventig ontstond het Woordenboek over kunstmatige intelligentie, een driedelig naslagwerk over kunstmatige intelligentie en encyclopedisch woordenboek in de informatica, waarin de secties “Cybernetica” en “Kunstmatige intelligentie” zijn opgenomen, samen met andere secties op het gebied van de informatica.

De geschiedenis van IIT begint halverwege de jaren zeventig en wordt geassocieerd met joint praktische toepassing intelligente informatiesystemen, kunstmatige intelligentiesystemen, beslissingsondersteunende systemen en informatiesystemen. De geschiedenis van IIT is ook verbonden met de ontwikkeling van drie wetenschappelijke richtingen: computerfilosofie, computerpsychologie en geavanceerde computerwetenschappen, en wordt aangevuld door vooruitgang bij het creëren van:

1. situatiecentra

2. informatie- en analytische systemen

3. hulpmiddelen voor evolutionaire berekeningen en genetische algoritmen

4. systemen ter ondersteuning van de communicatie tussen mens en computer natuurlijke taal

5. cognitieve modellering

6. systemen voor automatische thematische categorisering van documenten

7. strategische planningssystemen

8. instrumenten voor technische en fundamentele analyse van financiële markten

9. kwaliteitsmanagementsystemen

10. Beheersystemen voor intellectuele eigendom, enz.

Kunstmatige intelligentie als wetenschap is opgericht door drie generaties onderzoekers.

In Tabel 1.1. presenteert belangrijke gebeurtenissen in de geschiedenis van AI en kennistechnologie, vanaf het eerste werk van W. McCulloch en W. Peets in 1943 tot moderne trends in de gecombineerde inspanningen van expertsystemen, fuzzy logic en neuraal computergebruik moderne systemen, gebaseerd op kennis, in staat om berekeningen uit te voeren met woorden.

Tabel 1.1.

Een korte lijst van belangrijke gebeurtenissen in de geschiedenis van AI en kennistechnologie

Periode Evenementen
Geboorte van AI (1943-1956) - W. McCulloch en W. Peets: Logische analyse van ideeën die inherent zijn aan nerveuze activiteit, 1943. - A. Turing: Computermachine en intelligentie, 1950. - K. Shannon: Computerprogrammering voor schaakspel, 1950.
Opkomst van AI (1956-eind jaren zestig) - D. McCarthy: LISP is een programmeertaal voor kunstmatige intelligentie. - M. Kullian: Semantische netwerken voor kennisrepresentatie, 1966. - A. Newell en G. Simon: Universele probleemoplosser (GPS), 1961. - M. Minsky: Structuren voor het representeren van kennis (frames), 1975.
Ontdekking en ontwikkeling van expertsystemen (begin jaren zeventig - midden jaren tachtig). - E. Feigenbaum, B. Buckhanan et al. (Stanford University): DENDRAL-expertsysteem - E. Feigenbaum, E. Shortleaf: MYCIN-expertsysteem - Stanford Research Center: PROSPECTOR-expertsysteem - A. Colmeroe, R. Kowalski et al. (Frankrijk): Logische programmeertaal PROLOG.
Heropleving van kunstmatige neurale netwerken (vanaf 1965) - J. Hopfield: Neurale en fysieke netwerken met opkomende collectieve computermogelijkheden, 1982. - T. Kohonen: Zelforganiserende topologisch reguliere kaarten, 1982. - D. Rumelhart en D. McClelland: Gedistribueerde parallelle verwerking, 1986.
Evolutionaire berekeningen (begin jaren zeventig) - I. Rechenberg: Evolutionaire strategieën - optimalisatie technische systemen over principes van biologische informatie, 1973. - J. Holland: Aanpassing in natuurlijke en kunstmatige systemen, 1975. - J. Koza: Genetisch programmeren: computerprogrammering door middel van natuurlijke selectie, 1992. - D. Vogel: Evolutionaire berekeningen - een richting van nieuwe filosofie in machine-intelligentie, 1995.
Vage sets en vage logica (vanaf midden jaren zestig) - L. Zade: Fuzzy sets, 1965. - L. Zade: Fuzzy algoritmen, 1969. -E. Mamdani: Toepassing van vage logica bij benaderend redeneren met behulp van taalkundige synthese, 1977. - M. Sugeno: Vage logische gevolgtrekking (Takagi-Sugeno-algoritme), 1985
Computeren met woorden (eind jaren tachtig) - A. Neygotsa: Expertsystemen en fuzzy-systemen, 1985. - B. Kosko: Neurale netwerken en fuzzy-systemen, 1992. - B. Kosko: Fuzzy-denken, 1993. - R. Yager en L. Zadeh: fuzzy sets, neurale netwerken en soft computing, 1994. - B. Kosko: Fuzzy Engineering, 1996. - L. Zadeh: Computing with Words, 1996.

Historisch gezien hebben de ontwikkelingen op het gebied van AI zich dus in twee hoofdrichtingen voltrokken:

De eerste richting houdt verband met pogingen om intelligente machines te ontwikkelen door hun biologische prototype – het menselijk brein – te modelleren. Nu wordt dit gebied nieuw leven ingeblazen op basis van de ontwikkeling van moderne hardware en software (microchips gebaseerd op fuzzy logic, gedistribueerde multiprocessorsystemen, multi-agentsystemen, soft computing, genetische algoritmen en neurale netwerken, enz.).

De tweede richting houdt verband met de ontwikkeling van methoden, technieken, gespecialiseerde apparaten en programma's voor computers die oplossingen bieden voor complexe wiskundige en logische problemen die het mogelijk maken om individuele menselijke intellectuele handelingen te automatiseren (op kennis gebaseerde systemen, expertsystemen, toegepaste intelligente systemen ).

Deze twee richtingen definiëren als het ware het minimumprogramma en het maximumprogramma, waartussen het gebied van het hedendaagse onderzoek en de ontwikkeling van AI-systemen ligt. Het werk aan de ontwikkeling van AI-software en -hardware wordt toegewezen aan een apart gebied.


Gerelateerde informatie.


Basisconcepten van kunstmatige intelligentie.

Het is vrij moeilijk om een ​​exacte definitie te geven van wat menselijke intelligentie is, omdat intelligentie een samensmelting is van vele vaardigheden op het gebied van het verwerken en presenteren van informatie. Intelligentie komt van het Latijnse intellectus – wat geest, rede, geest betekent; menselijk denkvermogen. Met een hoge mate van zekerheid kan intelligentie het vermogen van de hersenen worden genoemd om (intellectuele) problemen op te lossen door kennis te verwerven, te onthouden en doelbewust te transformeren tijdens het leren van ervaringen en het aanpassen aan een verscheidenheid aan omstandigheden.

Kunstmatige intelligentie (AI) is een reeks wetenschappelijke disciplines die methoden bestuderen voor het oplossen van problemen van intellectuele (creatieve) aard met behulp van computers.
Kunstmatige intelligentie is een van de gebieden van de informatica, met als doel het ontwikkelen van hardware- en softwaretools waarmee een niet-programmeurgebruiker zijn eigen, traditioneel beschouwde intellectuele problemen kan instellen en oplossen, waarbij hij in een beperkte subset met een computer kan communiceren. van natuurlijke taal.

Kunstmatige intelligentiesystemen (AI) zijn computergebaseerde systemen die menselijke oplossingen voor complexe intellectuele problemen simuleren.
Kennis: in het algemeen is kennis een in de praktijk getest resultaat van kennis van de werkelijkheid, de correcte weerspiegeling ervan in het menselijk denken, het bezit van ervaring en begrip die zowel subjectief als objectief correct zijn, op basis waarvan men oordelen en conclusies kan bouwen die lijken betrouwbaar genoeg om als kennis te worden beschouwd. Daarom is de term kennis in de IT-context de informatie die aanwezig is bij de implementatie van intellectuele functies. Meestal zijn dit afwijkingen, trends, patronen en afhankelijkheden die in informatie voorkomen. Met andere woorden: intelligente systemen zijn tegelijkertijd kennisverwerkingssystemen.

Programma's voor kunstmatige intelligentie omvatten:



1. spelprogramma's(stochastisch, computer spelletjes);

2. natuurlijke taalprogramma's - automatische vertaling, tekstgeneratie, spraakverwerking;

3. herkenningsprogramma's - herkenning van handschriften, afbeeldingen, kaarten;

4. programma's voor het maken en analyseren van afbeeldingen, schilderijen en muziekwerken.

De volgende gebieden van kunstmatige intelligentie worden onderscheiden:

1. expertsystemen;

2. neurale netwerken;

3. natuurlijke taalsystemen;

4. evolutionaire methoden en genetische algoritmen;

5. vage sets;

6. systemen voor kennisextractie.

Geschiedenis van de ontwikkeling van kunstmatige intelligentie

Er kunnen drie hoofdfasen worden onderscheiden in de ontwikkeling van AIS:

− Jaren 60-70. Dit zijn de jaren van bewustzijn van de mogelijkheden van kunstmatige intelligentie en de vorming van een sociale orde ter ondersteuning van besluitvormings- en managementprocessen. De wetenschap reageert op deze orde met de opkomst van de eerste perceptrons (neurale netwerken), de ontwikkeling van heuristische programmeermethoden en situationeel management. grote systemen(ontwikkeld in de USSR)

− Jaren 70-80. In dit stadium is men zich bewust van het belang van kennis voor het nemen van adequate beslissingen; Er verschijnen expertsystemen, waarin het apparaat van de vage wiskunde actief wordt gebruikt, er worden modellen voor plausibele gevolgtrekkingen en plausibele redeneringen ontwikkeld

− Jaren 80-90. Geïntegreerde (hybride) modellen voor kennisrepresentatie zijn in opkomst, waarbij intelligentie wordt gecombineerd: zoeken, berekenen, logisch en figuurlijk.

De term kunstmatige intelligentie werd in 1956 voorgesteld tijdens een seminar aan de Stanford University (VS).

Het idee om een ​​kunstmatige gelijkenis van de menselijke geest te creëren om complexe problemen op te lossen en het denkvermogen te simuleren hangt al sinds de oudheid in de lucht. Het werd voor het eerst uitgedrukt door R. Lull, die in de 14e eeuw probeerde een machine te creëren voor het oplossen van verschillende problemen, gebaseerd op een universele classificatie van concepten.

De ontwikkeling van kunstmatige intelligentie als wetenschappelijke richting werd pas mogelijk na de creatie van computers. Dit gebeurde in de jaren 40 van de 20e eeuw. Tegelijkertijd creëerde N. Wiener zijn fundamentele werken over de nieuwe wetenschap van de cybernetica.

In 1954 begon aan de Staatsuniversiteit van Moskou, onder leiding van professor A. A. Lyapunov, het seminar "Automata and Thinking" zijn werk. Dit seminar werd bijgewoond door vooraanstaande fysiologen, taalkundigen, psychologen en wiskundigen. Het is algemeen aanvaard dat het in deze tijd was dat kunstmatige intelligentie in Rusland werd geboren.

Een belangrijke doorbraak in praktische toepassingen van kunstmatige intelligentie vond plaats halverwege de jaren zeventig van de twintigste eeuw, toen de zoektocht naar een universeel denkalgoritme werd vervangen door het idee om de specifieke kennis van deskundige specialisten te simuleren.

In de Verenigde Staten verschenen de eerste commerciële kennisgebaseerde systemen of expertsystemen; er verscheen een nieuwe benadering voor het oplossen van kunstmatige-intelligentieproblemen: kennisrepresentatie. MYCIN en DENDRAL werden gecreëerd - nu klassieke expertsystemen voor geneeskunde en scheikunde.

In de jaren 80-90 werd actief onderzoek gedaan op het gebied van kennisrepresentatie, werden kennisrepresentatietalen en expertsystemen ontwikkeld. Sinds het midden van de jaren tachtig is kunstmatige intelligentie gecommercialiseerd. De jaarlijkse kapitaalinvesteringen nemen toe, er worden industriële expertsystemen gecreëerd.

Expertsystemen worden in de praktische geneeskunde niet veel gebruikt. Ze worden voornamelijk gebruikt als bestanddeel medische instrumenten en computersystemen. Dit komt in de eerste plaats doordat in echte leven het aantal verschillende situaties en dienovereenkomstig de diagnostische regels bleken zo groot te zijn dat het systeem ofwel een grote hoeveelheid aanvullende informatie over de patiënt begint te vereisen, ofwel de nauwkeurigheid van de diagnose sterk afneemt.

Conventioneel kunnen we 7 fasen onderscheiden in de ontwikkeling van kunstmatige intelligentie, die elk verband houden met een bepaald ontwikkelingsniveau van kunstmatige intelligentie en een paradigma dat in een specifiek systeem is geïmplementeerd.

paradigma - nieuw idee wiskundige beschrijving van de werking van kunstmatige intelligentiesystemen.

Fase 1 (jaren '50) ( Neuronen en neurale netwerken )

Het wordt geassocieerd met de opkomst van de eerste sequentiële machines, met zeer kleine, naar huidige maatstaven, hulpbronnen in termen van geheugen, snelheid en soorten problemen die moeten worden opgelost. Dit waren problemen van puur computationele aard, waarvan de oplossingsschema's bekend waren en die in een of andere formele taal beschreven konden worden. Aanpassingstaken behoren ook tot deze klasse.

Fase 2 (60s) ( Heuristisch zoeken)

De ‘intelligentie’ van de machine heeft mechanismen toegevoegd voor het zoeken, sorteren en eenvoudige handelingen voor het samenvatten van informatie, onafhankelijk van de betekenis van de gegevens die worden verwerkt. Dit is een nieuw startpunt geworden in de ontwikkeling en het begrip van de taken van automatisering van menselijke activiteiten.

Fase 3 (jaren '70) ( Kennisrepresentatie)

wetenschappers hebben het belang ervan ingezien kennis(qua volume en inhoud) voor de synthese van interessante algoritmen voor het oplossen van problemen. Dit betekende kennis waar de wiskunde niet mee kon werken, d.w.z. experimentele kennis die niet strikt formeel van aard is en gewoonlijk in declaratieve vorm wordt beschreven. Dit is de kennis van specialisten op verschillende vakgebieden, artsen, chemici, onderzoekers, enz. Dergelijke kennis wordt expertkennis genoemd, en dienovereenkomstig worden systemen die op basis van expertkennis werken, adviessystemen of expertsystemen genoemd.

Fase 4 (jaren 80) ( Educatieve machines)

De vierde fase van de AI-ontwikkeling was een doorbraak. Met de komst van expertsystemen begon de wereld fundamenteel te veranderen nieuwe fase ontwikkeling van intelligente technologieën - het tijdperk van intelligente systemen - adviseurs die oplossingen aanboden, deze onderbouwden, in staat waren te leren en te ontwikkelen, met een persoon communiceerden in een vertrouwde, zij het beperkte, natuurlijke taal.

Fase 5 (jaren 90) ( Geautomatiseerde bewerkingscentra)

De toenemende complexiteit van communicatiesystemen en de taken die moesten worden opgelost vereisten een kwalitatief nieuw niveau van ‘intelligentie’ van degenen die dit leverden softwaresystemen, systemen zoals bescherming tegen ongeoorloofde toegang, Informatiebeveiliging bronnen, bescherming tegen aanvallen, semantische analyse en zoeken naar informatie in netwerken, enz. En intelligente systemen zijn een nieuw paradigma geworden voor het creëren van veelbelovende beveiligingssystemen van alle soorten. Hiermee kunt u flexibele omgevingen creëren waarin alle noodzakelijke taken worden opgelost.

Fase 6 (jaren 2000) ( Robotica )

De reikwijdte van robots is vrij breed en strekt zich uit van autonome grasmaaiers en stofzuigers tot moderne modellen van militaire en ruimtetechnologie. Modellen zijn uitgerust met een navigatiesysteem en allerlei randsensoren.

Fase 7 (jaar 2008)( Singulariteit )

De creatie van kunstmatige intelligentie en zichzelf replicerende machines, de integratie van mensen met computers, of een aanzienlijke sprongsgewijze toename van de mogelijkheden van het menselijk brein door middel van biotechnologie.

Volgens sommige voorspellingen zou de technologische singulariteit zich rond 2030 kunnen voordoen. Voorstanders van de theorie van technologische singulariteit geloven dat als er een fundamenteel andere geest dan de menselijke ontstaat (post-menselijk), toekomstig lot De beschaving kan niet worden voorspeld op basis van menselijk (sociaal) gedrag.

Een korte geschiedenis van kunstmatige intelligentie

Hoofdrichtingen van onderzoek op het gebied van kunstmatige intelligentie

Kennisrepresentatie en kennisinferentie

Vage kennis

Toegepaste intelligente systemen

1.1. Een korte geschiedenis van kunstmatige intelligentie

1.1.1. Achtergrond

Het idee om een ​​kunstmatige gelijkenis van een persoon te creëren om complexe problemen op te lossen en de menselijke geest te simuleren hangt al sinds de oudheid in de lucht. Zo werd in het oude Egypte een ‘tot leven gekomen’ mechanisch beeld van de god Amon gecreëerd. In de Ilias van Homerus smeedde de god Hephaestus mensachtige automaatwezens. Dit idee is vele malen uitgespeeld in de literatuur: van Pygmalion’s Galatea tot Pinocchio van paus Carlos. De grondlegger van de kunstmatige intelligentie wordt echter beschouwd als de middeleeuwse Spaanse filosoof, wiskundige en dichter Raymond Lull, die in de 13e eeuw probeerde een mechanische machine te creëren voor het oplossen van verschillende problemen, gebaseerd op de universele classificatie van concepten die hij ontwikkelde. In de achttiende eeuw zetten Leibniz en Descartes dit idee onafhankelijk voort en stelden universele talen voor voor de classificatie van alle wetenschappen. Deze werken kunnen worden beschouwd als de eerste theoretische werken op het gebied van kunstmatige intelligentie. De definitieve geboorte van kunstmatige intelligentie als wetenschappelijke richting vond pas plaats na de creatie van computers in de jaren veertig van de twintigste eeuw. Tegelijkertijd creëerde Norbert Wiener zijn fundamentele werken over de nieuwe wetenschap van de cybernetica.

De term ‘kunstmatige intelligentie’ – AI – (AI – kunstmatige intelligentie) werd in 1956 voorgesteld op een gelijknamig seminar aan het Dartsmouth College (VS). Het seminar was gewijd aan de ontwikkeling van methoden voor het oplossen van logische in plaats van computationele problemen. IN de Engelse taal deze zinsnede heeft niet die enigszins fantastische antropomorfe connotatie die zij kreeg in de nogal mislukte Russische vertaling. Het woord intelligentie betekent ‘het vermogen om intelligent te redeneren’, en helemaal niet ‘intelligentie’, waarvoor de term intellect bestaat.

Kort nadat kunstmatige intelligentie werd erkend als een afzonderlijk wetenschapsgebied, werd het in twee gebieden verdeeld: neurocybernetica en ‘black box cybernetica’. Deze gebieden ontwikkelen zich vrijwel onafhankelijk en verschillen aanzienlijk zowel qua methodologie als qua technologie. En pas nu worden trends merkbaar om deze delen weer tot één geheel te combineren.

Kennis kan buiten de hersenen worden opgeslagen. Hun argumenten zijn:
  1. cognitie als proces leent zich voor formalisering;
  2. intelligentie kan worden gemeten (intelligentiequotiënt IQ - intelligentiequotiënt 1 De term werd in wetenschappelijk gebruik geïntroduceerd door V. Stern (1911) volgens de berekeningsmethode van A. Binet (1903)., geheugencapaciteit, mentale reactiviteit, enz.);
  3. Informatiematen (bits, bytes, etc.) zijn van toepassing op kennis. Pessimisten geloven dat kunstmatige intelligentie niet in staat is kennis op te slaan, omdat het slechts een imitatie van het denken is. Pessimisten geloven dat de menselijke intelligentie uniek is, dat creativiteit niet kan worden geformaliseerd, dat de wereld heel is en ondeelbaar in afzonderlijke informatie, dat de beelden van het menselijk denken veel rijker zijn. logisch denken auto's, enz.

De tijd zal leren wie er gelijk heeft in dit geschil. Laten we alleen opmerken dat het geheugen van een machine opslaat wat erin is geschreven, en dit kan niet alleen kennis zijn als de hoogste vorm van informatie, maar ook eenvoudigweg gegevens die kennis, verkeerde informatie en informatie kunnen bevatten. informatie lawaai(Zie "Geschiedenis van de ontwikkeling van de informatica. Ontwikkeling van ideeën over informatie. Op weg naar de informatiemaatschappij"). Om kennis uit data te halen, moet een machine, net als een mens, een doel stellen (“wat wil ik weten?”) en op basis van dit doel selecteren waardevolle informatie(ze slaan tenslotte waardevolle spullen op, en niet zomaar iets). Zal hij daartoe in staat zijn kunstmatige intelligentie het formuleren van acceptabele doelen en het kunstmatig selecteren van waardevolle informatie voor deze doelen is een ander probleem in de theorie en praktijk van kunstmatige intelligentie. Terwijl dit werk door mensen wordt uitgevoerd – in expertsystemen, bij het programmeren van robots, in geautomatiseerde procesbesturingssystemen, enz. Vrije machines (zie hierboven) zullen dit werk zelf moeten doen. Tegelijkertijd kan het geïdentificeerde probleem verergerd worden door het feit dat de netwerken waarvan machines kennis “downloaden” een hoop “vuilnis” en destructieve virussen kunnen bevatten.

4.4. Geschiedenis van de ontwikkeling van kunstmatige intelligentie-ideeën en hun implementaties

Ideeën voor het creëren van kunstmatige intelligentie verschenen voor het eerst in de 17e eeuw. (B. Spinoza, R. Descartes, G.V. Leibniz, enz.). We hebben het specifiek over kunstmatige intelligentie, en niet over mechanische poppen, die toen al bekend waren. De grondleggers van de theorie van kunstmatige intelligentie waren uiteraard optimisten - zij geloofden in de haalbaarheid van hun idee:

Volgens de psychologische wet van behoud (“de som van plezier en pijn is nul”) verschenen er onmiddellijk pessimisten (F. Bacon, J. Locke, enz.), die de optimisten uitlachten: “Oh, kom op!” Maar elk idee in de wetenschap blijft, als het eenmaal is ontstaan, ondanks obstakels voortbestaan.

Het idee van kunstmatige intelligentie begon pas in de tweede helft van de 20e eeuw echte kenmerken te krijgen, vooral met de uitvinding van computers en ‘intelligente robots’. Om het idee te implementeren waren ook toegepaste ontwikkelingen nodig in de wiskundige logica, programmeren, cognitieve psychologie, wiskundige taalkunde, neurofysiologie en andere disciplines die zich ontwikkelden in de cybernetische richting van de relatie tussen organismen en machines in controle- en communicatiefuncties. De naam zelf" kunstmatige intelligentie" ontstond eind jaren zestig van de twintigste eeuw en in 1969 vond de Eerste Wereldconferentie over kunstmatige intelligentie plaats (Washington, VS).

In het begin kunstmatige intelligentie ontwikkeld in de zgn analytisch (functioneel) richting waarin de machine opdracht kreeg bepaalde werkzaamheden uit te voeren intellectuele taken creatieve aard (spellen, vertaling van de ene taal naar de andere, schilderen, enz.).

Later ontstond het synthetisch (model) een richting volgens welke pogingen werden ondernomen om de creatieve activiteit van de hersenen in algemene zin te modelleren, “zonder tijd te verspillen” aan specifieke taken. Uiteraard bleek deze richting moeilijker uitvoerbaar dan de functionele richting. Het object van studie van de modelrichting was metaprocedures menselijk denken. Metaprocedures van creativiteit zijn niet de procedures (functies) van intellectuele activiteit zelf, maar manieren om te creëren dergelijke procedures, manieren om een ​​nieuw soort intellectuele activiteit te leren. In deze methoden schuilt waarschijnlijk wat intelligentie genoemd kan worden. De aanwezigheid van meta-procedures van het denken onderscheidt echte intelligentie van schijnbare intelligentie, daarom is de implementatie van meta-procedures van creativiteit door machinale middelen bijna de hoofdtaak van de modelrichting geworden. Niet wat, maar Hoe jij bedenkt Hoe het oplossen van een creatief probleem Hoe Leer jij (zelf) nieuwe dingen? - dit zijn de vragen die inherent zijn aan de implementatie van modellen van menselijk creatief denken.

In het kader van de modelrichting zijn hoofdzakelijk twee intelligentiemodellen ontwikkeld. Chronologisch gezien was dat de eerste labyrintisch een model dat gericht zoeken in een doolhof implementeert alternatieve paden om een ​​probleem op te lossen met een beoordeling van het succes na elke stap of vanuit het standpunt van het oplossen van het probleem als geheel. Met andere woorden: het labyrintmodel komt neer op brute kracht mogelijke opties(naar analogie met het opsommen van opties om het doolhof te verlaten). Het succes (of falen) bij het kiezen van de ene of de andere optie kan bij elke stap (dat wil zeggen onmiddellijk na de keuze) worden beoordeeld, zonder het uiteindelijke resultaat van de oplossing van het probleem te voorzien, of, omgekeerd, de keuze van de optie bij elke stap kan worden beoordeeld. gemaakt op basis van het eindresultaat. Laten we bijvoorbeeld schaken nemen. U kunt het resultaat van elke zet beoordelen aan de hand van de onmiddellijke winst of het verlies na deze zet (stukken winnen of verliezen, positioneel voordeel behalen, enz.), zonder na te denken over het einde van het spel. Deze aanpak houdt in dat succes bij elke zet zal leiden tot het succes van het hele spel, tot de overwinning. Maar dit is helemaal niet nodig. Je kunt de koning van de tegenstander immers in een paringsval lokken door stukken in een reeks zetten op te offeren, waardoor het schijnbare positionele voordeel verloren gaat. Met deze aanpak betekenen gedeeltelijke successen bij elke zet niets vergeleken met de laatste winnende zet: de aankondiging van schaakmat.

De eerste benadering van labyrintmodellering werd ontwikkeld in heuristische programmering, de tweede benadering is binnen dynamisch programmeren. Blijkbaar dynamische aanpak effectiever dan heuristisch als het over schaken gaat. In ieder geval gebruikten sterke schakers, zonder het zelfs maar te beseffen, nauwkeurig dynamische aanpak tegen schaakprogramma's, werkend op een heuristische manier, en versloegen met hun natuurlijke intelligentie het labyrintische kunstmatige intelligentie. Maar dit was het geval in de jaren 60-70. XX eeuw Sindsdien zijn de schaakprogramma's zo sterk verbeterd (onder meer door de introductie van een dynamische aanpak) dat ze nu succesvol concurreren met wereldkampioenen.

Labyrintmodellen worden op grote schaal gebruikt, niet alleen om schaakprogramma's te maken, maar ook om andere spellen te programmeren, maar ook om wiskundige stellingen te bewijzen en in andere toepassingen.

In navolging van de labyrintische modellen van kunstmatige intelligentie, associatieve modellen. Associatie (van de Latijnse associatie - verbinding) is een verbinding van psychologische ideeën (als gevolg van eerdere ervaringen), waardoor één idee, dat in het bewustzijn verschijnt, een ander idee veroorzaakt (gebaseerd op het principe van gelijkenis, contiguïteit of oppositie). Bijvoorbeeld, Nobel laureaat Academicus I.P. Pavlov, die zijn beroemde experimenten met honden uitvoerde, merkte op dat als een hond tijdens het eten van voedsel een lamp ziet branden, de hond, zodra de lamp werd aangezet, maagsap begon af te scheiden, hoewel er geen voedsel werd aangeboden. ernaar. Deze geconditioneerde reflex is gebaseerd op associatie gebaseerd op het principe van contiguïteit. De associatie door gelijkenis wordt beschreven in het verhaal van A.P. Tsjechovs "paardennaam". Associatie daarentegen kan worden beschreven door een logisch diagram: als “niet A”, dan “A”. Als ik bijvoorbeeld overdag een witte kat zag, associeerde ik deze meteen met een zwarte kat die 's ochtends de weg overstak.

In associatieve modellen wordt aangenomen dat de oplossing voor een nieuw, onbekend probleem op de een of andere manier gebaseerd is op reeds bekende opgeloste problemen die vergelijkbaar zijn met het nieuwe probleem. Daarom is de methode voor het oplossen van een nieuw probleem gebaseerd op het associatieve principe van gelijkenis (similariteit). ). Om het te implementeren, wordt associatief zoeken in het geheugen en associatief logisch redeneren gebruikt, waarbij technieken worden gebruikt die door de machine worden beheerst om problemen in een nieuwe situatie op te lossen, enz. In moderne computers en intelligente robots is dat wel het geval associatief geheugen. Bij problemen worden associatieve modellen gebruikt classificatie, patroonherkenning, leren, die al gewone taken van informatiesystemen en -technologieën zijn geworden. Echter, de theorie van associatieve modellen tot de jaren 90. XX eeuw was afwezig en wordt nu pas gecreëerd.

Laten we kort de belangrijkste makers van kunstmatige intelligentie opsommen.

N. Wiener(wiskundige), U.R. Asby(bioloog) - de grondleggers van de cybernetica, die voor het eerst beweerden dat machines dat wel zouden kunnen zijn slimmer dan mensen, wat de eerste aanzet gaf tot de ontwikkeling van de theorie van kunstmatige intelligentie.

W. McCulloch, W. Peets(fysiologen) - in 1943 stelde een formeel model van een neuron voor; grondleggers van neurocybernetica en het oorspronkelijke concept van een neuraal netwerk.

A. Turing(wiskundige) - vond in 1937 de universele algoritmische "Turing-machine" uit; stelde een intellectuele ‘Turing-test’ voor om te bepalen of een machine intelligent is in een vergelijkende dialoog met zichzelf en een ‘redelijk persoon’.

J. von Neumann(wiskundige) - een van de grondleggers van de speltheorie en de theorie van zelfreproducerende automaten, de architectuur van de eerste generaties computers.

M. Somaliviko(cybernetica), A. Azimov(biochemicus, schrijver) - grondleggers van intelligente robotica.

G. Simon, W. Reitman(psychologen) - auteurs en ontwikkelaars van de eerste labyrintische intellectuele modellen gebouwd op de principes van heuristisch programmeren.

R. Bellman(wiskundige), S.Yu. Maslov(logicus) - auteurs van een dynamische benadering van labyrintische intellectuele modellen (dynamisch programmeren, inverse proof-methode).

F. Rosenblatt(fysioloog), MM. Bongard(natuurkundige) - pioniers van het probleem van patroonherkenning; ontwikkelaars van herkennings- en classificatieapparatuur en -modellen.

L. Zade, AN Kolmogorov, A.N. Tikhonov, M.A. Girshick(wiskundigen) - auteurs van wiskundige methoden voor het oplossen van slecht geformaliseerde problemen en besluitvorming in omstandigheden van onzekerheid.

N. Chomsky(wiskundige, filoloog) - grondlegger van de wiskundige taalkunde.

L.R. Luria(psycholoog) - grondlegger van de neuropsychologie, die diepe mechanismen bestudeert cognitieve activiteit hersenen en andere intellectuele functies van de hersenen.

K.E. Shannon(communicatie-ingenieur), R.H. Zaripov(wiskundige) - auteurs van de theorie en modellen van machinale synthese van muziek.

Bovenstaande lijst is verre van compleet. Niet alleen individuele specialisten, maar ook teams, laboratoria en instituten hebben en werken op het gebied van kunstmatige intelligentie. De belangrijkste problemen die ze oplossen:

  1. kennisrepresentatie;
  2. modelleren van redeneren;
  3. intelligente interface "mens-machine", "machine-machine";
  4. planning van geschikte activiteiten;
  5. training en zelfleren van intelligente systemen;
  6. machine-creativiteit;
  7. intelligente robots.

Voorwoord

De laatste tijd is het onderwerp kunstmatige intelligentie erg populair geworden. Maar wat is AI eigenlijk? Welke resultaten heeft het al geboekt en in welke richting zal het zich in de toekomst ontwikkelen? Er bestaat veel controverse rond dit onderwerp. Ten eerste is het een goed idee om duidelijk te maken wat we bedoelen met intelligentie.

Intelligentie omvat logica, zelfbewustzijn, leervermogen, emotionele cognitie, creativiteit en beslissingsvermogen verschillende soorten taken. Het is kenmerkend voor zowel mensen als dieren. Wij zijn mee vroege jaren aan het studeren de wereld Gedurende ons leven leren we met vallen en opstaan ​​de nodige vaardigheden en doen we ervaring op. Dit is natuurlijke intelligentie.

Als we het hebben over kunstmatige intelligentie, bedoelen we een door de mens gecreëerd ‘slim’ systeem dat leert met behulp van algoritmen. Zijn werk is gebaseerd op dezelfde methoden: onderzoek, training, analyse, enz.

Belangrijke gebeurtenissen in de geschiedenis van AI

De geschiedenis van AI (of in ieder geval de discussies over AI) begon bijna honderd jaar geleden.

R Rossum Universal Robots (R.U.R)

In 1920 schreef de Tsjechische schrijver Karel Capek het sciencefictiontoneelstuk “Rossumovi Univerz?ln?” roboti" (de universele robots van Rossum). Het was in dit werk dat het woord ‘robot’ voor het eerst werd gebruikt, wat levende mensachtige klonen betekende. In het verhaal hebben fabrieken in de verre toekomst geleerd kunstmatige mensen te produceren. Aanvankelijk werkten deze ‘replicanten’ ten behoeve van de mensen, maar daarna kwamen ze in opstand, wat leidde tot het uitsterven van de mensheid. Sindsdien is het onderwerp AI enorm populair geworden in de literatuur en de film, die op hun beurt een grote invloed hebben gehad op onderzoek in de echte wereld.

En Alan Turing

De Engelse wiskundige, een van de pioniers op het gebied van computertechnologie, Alan Turing, heeft tijdens de Tweede Wereldoorlog een belangrijke bijdrage geleverd aan de ontwikkeling van cryptografie. Dankzij zijn onderzoek was het mogelijk de code te ontcijferen Enigma-machines, veel gebruikt door nazi-Duitsland om berichten te coderen en te verzenden. Een paar jaar na het einde van de Tweede Wereldoorlog vonden belangrijke ontdekkingen plaats op gebieden als neurowetenschappen, informatica en cybernetica, wat de wetenschapper op het idee bracht een elektronisch brein te creëren.

Al snel stelde de wetenschapper een test voor, met als doel de mogelijkheid te bepalen dat kunstmatige machines dicht bij de mens denken. De essentie van deze test is als volgt: Een persoon (C) communiceert met één computer (A) en één persoon (B). Tijdens een gesprek moet hij bepalen met wie hij communiceert. De computer moet iemand misleiden zodat hij de verkeerde keuze maakt. Alle testdeelnemers kunnen elkaar niet zien.

D Dartmouth Conference en de eerste “winter” van AI

In 1956 werd de allereerste conferentie over AI gehouden, waaraan wetenschappers het voortouw namen technologische universiteiten VS en specialisten van IBM. De gebeurtenis was van groot belang bij de vorming van een nieuwe wetenschap en markeerde het begin van grootschalig onderzoek op dit gebied. Toen waren alle deelnemers extreem optimistisch.

De jaren zestig begonnen, maar de vooruitgang bij het creëren van kunstmatige intelligentie kwam niet vooruit en het enthousiasme begon af te nemen. De gemeenschap onderschatte de complexiteit van de taak, en als gevolg daarvan kwamen de optimistische voorspellingen van experts niet uit. Het gebrek aan vooruitzichten op dit gebied heeft de regeringen van Groot-Brittannië en de VS gedwongen te bezuinigen op de onderzoeksfinanciering. Deze periode wordt beschouwd als de eerste ‘winter’ van AI.

E Expertsystemen (ES)

Na een lange periode van stagnatie heeft AI zijn toepassing gevonden in zogenaamde expertsystemen.

Een ES is een programma dat vragen kan beantwoorden of een probleem op een specifiek gebied kan oplossen. Ze vervangen dus echte specialisten. De ES bestaat uit twee subroutines. De eerste heet de kennisbank en bevat de benodigde informatie op dit gebied. Het andere programma wordt de inferentie-engine genoemd. Het past informatie uit de kennisbank toe in overeenstemming met de taak die voorhanden is.

ES hebben hun toepassing gevonden in sectoren als economische prognoses, medisch onderzoek en diagnostiek van fouten in technische apparaten enz. Een van de momenteel bekende ES is het WolframAlpha-project, gemaakt om problemen in de wiskunde, natuurkunde, biologie, scheikunde en vele andere wetenschappen op te lossen.

Eind jaren tachtig en begin jaren negentig, met de komst van de eerste desktop-pc's van Apple en IBM, begon de belangstelling van het publiek en investeerders voor AI af te nemen. Een nieuwe “winter” is begonnen...

Diepblauw

Na vele jaren van ups en downs vond er een belangrijke gebeurtenis voor AI plaats: op 11 mei 1997 versloeg de schaaksupercomputer Deep Blue, ontwikkeld door IBM, wereldkampioen schaken Garry Kasparov in een wedstrijd van zes wedstrijden met een score van 3? op 2?.

In Deep Blue was het proces van het doorzoeken van een boom met schaakzetten verdeeld in drie fasen. Eerst verkende de hoofdprocessor de eerste niveaus van de schaakspelboom en verdeelde vervolgens de eindposities over de hulpprocessors voor verdere verkenning. De hulpprocessors verdiepten de zoektocht nog een paar zetten en verdeelden vervolgens hun eindposities onder de schaakprocessors, die op hun beurt naar de laatste niveaus van de boom zochten. De Deep Blue-evaluatiefunctie werd geïmplementeerd op hardwareniveau: schaakprocessors. Het ontwerp van de hardware-evaluatiefunctie omvatte ongeveer 8000 aanpasbare positiefuncties. De individuele kenmerkwaarden werden gecombineerd tot een totaalscore, die vervolgens door Deep Blue werd gebruikt om de kwaliteit van de bekeken schaakposities te evalueren.

In 1997 stond Deep Blue op de 259e plaats qua macht (11,38 GFLOPS). Ter vergelijking: de huidige snelste supercomputer heeft 93.015 GFLOPS.

XXI eeuw

De afgelopen twintig jaar is de belangstelling voor AI aanzienlijk gegroeid. De markt voor AI-technologie (hardware en software) heeft de $8 miljard bereikt en zal volgens experts van IDC in 2020 groeien tot $47 miljard.

Dit wordt mogelijk gemaakt door de opkomst van snellere computers en de snelle ontwikkeling van machine learning en big data-technologieën.

Het gebruik van kunstmatige neurale netwerken heeft taken zoals videoverwerking, tekstanalyse en spraakherkenning vereenvoudigd, en bestaande methoden voor het oplossen van problemen worden elk jaar verbeterd.

DeepMind-projecten

In 2013 presenteerde DeepMind zijn project waarin het AI trainde om games te spelen voor zowel de Atari-console als mensen, en zelfs nog beter. Hiervoor werd de methode van diepgaand versterkend leren gebruikt, waardoor het neurale netwerk het spel onafhankelijk kon bestuderen. Aan het begin van de training wist het systeem niets van de spelregels en gebruikte het alleen een pixelafbeelding van het spel en informatie over de ontvangen punten als invoer.

Daarnaast ontwikkelt DeepMind AI om complexere games zoals Starcraft 2 aan te leren. Ook dit real-time strategiespel is een van de populairste cyberdisciplines ter wereld. In tegenstelling tot klassieke videogames zijn er veel meer mogelijke acties beschikbaar, weinig informatie over de tegenstander en de noodzaak om tientallen mogelijke tactieken te analyseren. Op dit moment kan de AI alleen simpele minitaken aan, zoals het creëren van eenheden.

Het is onmogelijk om niet te spreken van een ander DeepMind-project genaamd AlphaGo. In oktober 2015 versloeg het systeem de Europese Go-kampioen Fan Hui met een score van 5:0. Een jaar later binnen Zuid-Korea Er vond een nieuwe wedstrijd plaats, waarin AlphaGo's tegenstander een van de beste spelers ter wereld was, Lee Sedol. In totaal werden vijf wedstrijden gespeeld, waarvan AlphaGo er slechts vier won. Ondanks hoog niveau gedemonstreerde vaardigheden, maakte het programma nog steeds een fout tijdens de vierde game. In 2017 is er een film over AlphaGo uitgebracht, die wij aanbevelen om te bekijken. DeepMind heeft onlangs de creatie aangekondigd van een nieuwe generatie AlphaGo Zero. Nu leert het programma door tegen zichzelf te spelen. Na drie dagen training versloeg AlphaGo Zero zijn vorige versie met een score van 100:0.

Conclusie

Tot nu toe zijn AI-systemen zeer gespecialiseerd, dat wil zeggen dat ze taken aankunnen beter dan de mens alleen op specifieke gebieden (bijvoorbeeld het spelen van Go of data-analyse). We zijn nog ver verwijderd van het creëren van een algemene (volwaardige) kunstmatige intelligentie die in staat zou zijn de menselijke geest volledig te vervangen en in staat zou zijn tot elke intellectuele taak.

Vertaalde het artikel van Lev Alhazred

Steun het ai-newsproject met roebels. Machines geloven in jou! >>

keer bekeken