TI ajalugu ja areng
Õpieesmärgid
Selles peatükis lõpuks oskate:
- Nimetada varaseid tehisintellekti süsteeme
- Mõista TI-süsteemide arendamise keerukust ja ebaõnnestumise põhjuseid
- Selgitada mõistet "TI talv"
- Ajaliselt järjestada olulisi TI-arenguetappide verstaposte
- Ära tunda praeguste TI-süsteemide edu aluseid
Tehisintellekti (TI) arengulugu on põnev teekond, mis peegeldab inimkonna unistusi, tehnoloogilisi saavutusi ja ulmelisi nägemusi, millest paljud on ajapikku reaalsuseks saanud. See ülevaade keskendub inimeste püüdlustele arendada masinaid, mis suudavad mõelda, õppida ja kohanduda sarnaselt inimeste mõistusega.
1950ndate aastate alguses kogunesid teadlased ja insenerid arutlema fundamentaalse küsimuse üle, mis tundus tollal justkui ulmelisena: kas masinad võiksid kunagi mõelda nagu inimesed? Tol ajal eksisteerisid küll masinad, mis täitsid spetsiifilisi funktsioone – teostasid arvutusi, sorteerisid andmeid ja trükkisid dokumente –, kuid visioon masinintellektist tundus sama kauge nagu kosmoselend Kuule. See ajahetk tähistab tehisintellekti sündi – ideed, mis on aastakümnete vältel arenenud ulmelistest spekulatsioonidest lahutamatuks osaks meie igapäevaelus.
Unistus masinate mõtlemisest: Alan Turingi revolutsiooniline idee
Tehisintellekti ajalugu algab sageli Alan Turingi nimega. Turing, geniaalne matemaatik ja krüptograaf, esitas 1950. aastal oma kuulsas essees "Computing Machinery and Intelligence" küsimuse: "Kas masinad suudavad mõelda?" Tema välja pakutud Turingi test – mille eesmärk oli hinnata masina võimet imiteerida inimlikku intelligentsust vestluse kaudu – oli esimene samm masinate ja inimeste intelligentsi võrdlemisel.
Turingi ideed polnud pelgalt teoreetilised. Teise maailmasõja ajal aitas ta Briti luurel ehitada masinat nimega Bombe, mis murdis sakslaste keerulise Enigma-koodi. See polnud küll veel tehisintellekt selle sõna tänapäevases tähenduses, kuid see oli oluline tõend selle kohta, et masinad suudavad teha midagi, mida seni peeti inimlike võimete pärusmaaks – lahendada keerulisi loogika probleeme.
Kuid Turingi unistus masinatest, mis suudavad mõelda, jäi aastakümneid vaid utoopiaks. Miks? Vastus peitub tehnoloogia ja teadmiste puuduses. Esimesed arvutid olid tohutult aeglased ja piiratud, võrreldes tänapäeva nutitelefonidega, mis suudavad sekunditega lahendada ülesandeid, milleks 1950ndate masinad vajasid päevi.
Dartmouthi konverents ja tehisintellekti mõiste
1956nda aasta suvel toimus Dartmouthi konverents USA-s, mida peetakse tehisintellekti ametlikuks sünnihetkeks. John McCarthy kutsus suveks kokku käputäie teadlasi ja matemaatikuid, et arutada, kuidas masinaid õpetada "mõtlema". Nad uskusid, et kasutades loogikat, matemaatikat ja algoritme, saab panna masinaid jäljendama iga intelligentsuse aspekti ja inimlikku õppimisvõimet.
McCarthy võttis kasutusele termini "tehisintellekt" (ingl. k Artificial Intelligence), ja nii algas uus ajastu. Konverentsil osalejad olid veendunud, et intelligentsed masinad on vaid mõne kümnendi kaugusel. Nii sai alguse uus ajastu, mis on kujundanud meie tänast ja tuleviku tehnoloogiat.
DEFINITSIOON: Tehisintellekt (artificial intelligence, AI) on informaatika valdkonna haru, mis käsitleb masinate (eelkõige arvutisüsteemide) võimet täita ülesandeid, mis tavapäraselt nõuavad inimlikku intelligentsust – näiteks taju, õppimist, probleemide lahendamist, keele mõistmist, otsustamist ja kohanemist uute olukordadega.
Millest selline enesekindlus ja vankumatu usk? Tegelikult olid selleks ajaks paljud TI-süsteemide eeldused ning iseõppivad algoritmid juba loodud. Näiteks, üks Dartmouthi konverentsil osaleja, Marvin Minsky oli juba viis aastat varem saanud valmis närvivõrke jäljendava masina SNARC - (Stochastic Neural Analog Reinforcement Calculator), mis oskas jäljendada labürindi läbimise õppimist, just nagu rotid õpivad laboris.
Konverentsile järgneval aastal 1957 arendas Frank Rosenblatt Cornelli aerodünaamika laboris välja pertseptroni - algoritmi, mis püüdis jäljendada ajus olevate neuronite tööd. Rosenblatt oli inspireeritud bioloogiast: ta teadis, et ajus olevad neuronid saadavad signaale edasi vastavalt sellele, kas sisend signaal ületab teatud läve. Pertseptron töötas sarnaselt: see võttis vastu sisendeid (näiteks pikslid pildilt), korrutas need kaaludega, liitis need kokku ja andis välja tulemuse – jah või ei. Kui vastus oli vale, kohandas ta kaalu – õppis.
Suured ootused tehisintellekti süsteemidele
1960ndad olid tehisintellekti ajaloo seisukohalt paradoksaalne kümnend – see algas suure optimismi ja utoopiliste ootustega, kuid lõppes suurte väljakutsete karmi reaalsusega.
Joseph Weizenbaumi loodud ELIZA (1964-1966) oli revolutsiooniline samm loomuliku keele töötlemises. Programm simuleeris psühhoterapeudi vestlust, kasutades lihtsat mustrite äratundmist ja teksti manipuleerimist. Kuigi ELIZA oli tehniliselt primitiivne, demonstreeris see esimest korda, kuidas arvuti saab luua veenva dialoogi inimesega.
1965ndal aastal loodi Stanfordi ülikoolis Dendral, mis aitas keemikutel tuvastada orgaaniliste ühendite struktuure, kasutades teadmistebaasi ja loogilisi reegleid. See oli üks esimesi süsteeme, mis suutis teatud valdkonnas ekspertidest paremini või vähemalt sama hästi lahendada praktilisi ülesandeid.
Lisaks tarkvaralistele edusammudele arenes 1960ndatel ka TI füüsiline pool – robootika. 1969. aastal arendasid Victor Scheinman ja tema kolleegid Stanfordis esimese arvutiga juhitava robotkäe, Stanford Arm’i. Samuti valmis umbes sel ajal esimene üldotstarbeline liikuv robot Shakey, kes suudab oma ümbrust tajuda ja selle üle arutleda.
Hakati mõistma "kombinatoorse plahvatuse" probleemi – paljud TI-ülesanded nõudsid nii suure hulga võimaluste läbivaatamist, et isegi kiireimad arvutid ei suutnud neid mõistliku ajaga lahendada (näiteks kui arvuti peaks malemängus analüüsima kõiki võimalikke käike 10 käigu sügavuselt, võtaks see tolleaegsete arvutitega aega mitu inimpõlve). See oli esimene märk sellest, et TI-probleemid võivad olla fundamentaalselt raskemad kui arvatud.
Projektid, mille tulemused ei vastanud ootustele:
Tehisintellekti talv
1970ndate alguses hakkasid nii USA kui ka Suurbritannia valitsused vähendama oma rahalist toetust TI-uurimisele. Selle põhjuseks oli pettumus varasemate lubaduste mittetäitumises ja oodatava praktilise kasu saavutamata jäämises. TI-uurijate esialgsed optimistlikud prognoosid luua inimtasemel intelligentsus mõne aastaga ei materialiseerinud. Sellist aeglasema aregu perioodi tuntakse kui "tehisintellekti talv" (AI Winter).
Näiteks USA kaitseministeeriumi agentuur DARPA, mis oli TI arendust oluliselt toetanud, hakkas 1970ndatel keskenduma praktilisematele ja kiiremini realiseeritavatele tehnoloogiatele. See muutis tehisintellekti uurivate teadlaste elu keerulisemaks, kuna rahastuse vähenemine tähendas, et paljud projektid tuli kas edasi lükata või lõpetada.
1970ndad olid ka aeg, mil kujunesid välja kaks vastandlikku leeri: optimistid, kes nägid tehisintellektis inimkonna päästerõngast, ja pessimistid, kes kartsid Terminaatori-laadset tulevikku. Professor Joseph Weizenbaum hoiatas juba 1976. aastal oma raamatus "Computer Power and Human Reason", et me ei tohiks usaldada masinatele otsuseid, mis nõuavad inimlikku mõistmist ja empaatiat.

Ekspertsüsteemide kuldaeg
Hoolimata raskustest ja skeptitsismist tehti 1970ndatel siiski mitmeid olulisi edusamme. Üks tuntumaid näiteid on MYCIN (arendatud Stanfordi ülikoolis, 1972–1977), mis aitas diagnoosida baktereid põhjustatud infektsioone ja soovitada antibiootikume. Peale ekspertsüsteemide arendamise jätkati ka loomuliku keele töötlemise ja masinõppe uuringutega. Esmakordselt hakati kasutama TI-d mängudes, näiteks male ja kabe, et testida algoritmide võimet strateegiliselt mõelda.
1970ndate lõpus toimus ka TI valdkonna teoreetiline areng, eriti masinõppe valdkonnas. Üks oluline saavutus oli nn pinnapealne järeldamine (ingl. k shallow reasoning), mida hakati kasutama ekspertsüsteemides, et teha keeruliste probleemide lahendamine lihtsamaks ja kiiremaks. Teine märkimisväärne näide on tagasilevi (backpropagation) algoritmi taasavastamine ja populariseerimine, mis on siiani üks põhilisi meetodeid närvivõrkude treenimiseks.
TI "võidurelvastumine"
Ajal, mil Ameerika ja Euroopa tehisintellekti arendamisest taandusid, tõusis Jaapan hoopis uue entusiasmiga valdkonna eestvedajaks. 1982. aastal käivitas Jaapani valitsus "Viienda põlvkonna arvutiprojekti" (Fifth Generation Computer Systems), mille eesmärk oli luua kõrgintellektuaalsed masinad, mis suudaksid inimkeelt mõista ning keerulisi probleeme lahendada. See projekt innustas ka teisi riike rohkem investeerima tehisintellekti uurimisse, kuigi tulemused jäid lõpuks tagasihoidlikeks.
1980ndatel hoidis TI arengut elus ekspertsüsteemide arendamine. Need olid programmid, mis suutsid teha otsuseid kindlates valdkondades, kasutades inimekspertide teadmisi. Näiteks XCON, süsteem, mis aitas Digital Equipment Corporationil arvutikomplekte kokku panna, säästis ettevõttele miljoneid dollareid aastas. See näitas, et tehisintellekt võib olla ka majanduslikult kasulik.
TÄHTIS VERSTAPOST: Saksamaa teadlase Ernst Dickmannsi loodud esimene isejuhtiv auto valmis 1986. aastal. Tegemist oli Mercedes Benz kaubikuga, millele oli paigaldatud arvutisüsteem ja keskkonnaandurid. See sõiduk sai sõita vaid tühjal teel, kus polnud teisi autosid ega liiklusvoogu. Kuigi see oli veel väga kaugel tänapäeval kujutletavatest tehisintellektiga autodest, oli Dickmannsi autol oluline roll edasise arengu suunas.
Järjekordne mõõnaperiood 80ndatel
Ekspertsüsteemid olid küll võimsad, kuid neil olid ka tõsised piirangud. Nad ei õppinud ise uusi teadmisi, nende arendamine oli kallis ja ajamahukas ning nad polnud eriti paindlikud. Kui sisendandmed või reeglid muutusid, tuli süsteemi uuesti ümber programmeerida.
Selle tagajärjel saabus 1980ndate lõpus nn teine TI talv – periood, mil huvi ja investeeringud tehisintellekti vastu taas taandusid. Firmad ja ülikoolid sulgesid TI-laboreid, rahastus vähenes ning tehisintellektist sai mõneks ajaks teaduslike püüdluste kõrvalharu.
Uued läbimurded internetiajastul
1990ndate aastate alguses oli TI kogukond alles toibumas eelmisel kümnendil purunenud lubadustest ja rahastuse kaotusest. Selle uue ajastu kõige ikoonilisem hetk saabus kahtlemata 1997. aasta mais, mil IBM-i superarvuti Deep Blue alistas kuulsas kuuepartiilises matšis valitseva malemaailmameistri Garri Kasparovi.
Kuigi Kasparov oli Deep Blue varasema versiooni aasta varem, 1996. aastal, veel võitnud, oli uus masin võimsam ja täiustatum. Deep Blue ei "mõelnud" nagu inimene; see suutis analüüsida 200 miljonit käiku sekundis, kasutades selleks spetsiaalset riistvara ja algoritme, et hinnata positsioonide väärtust. See oli pragmaatilise TI musternäide: selgelt piiritletud probleem, mis lahendati tohutu arvutusvõimsusega.
Lisaks ei saa alahinnata 1990. aastate suurima tehnoloogilise murrangu – interneti – mõju. Veebi plahvatuslik kasv lõi enneolematu koguse digitaalset andmestikku. Selline andmete küllus oli just see, mida statistilised masinõppe meetodid vajasid.
DEFINITSIOON: Suurandmed (ingl. k Big Data) - väga suured ja keerulised andmekogumid, mida ei saa tavaliste vahenditega mugavalt hoida, töödelda ega analüüsida. Nende eripäraks on suur maht, suur kiirus ja suur mitmekesisus – näiteks sotsiaalmeedia postitused, satelliidipildid või tuhandete sensorite andmed.
Varased otsingumootorid, nagu AltaVista, kasutasid keerukaid algoritme veebilehtede indekseerimiseks ja reastamiseks. Kümnendi lõpus, 1998. aastal, loodud Google'i PageRank algoritm oli samuti geniaalne näide rakenduslikust TI-st, mis suutis tuletada veebilehe olulisuse selle linkide struktuuri põhjal.
Suurandmed hoogustasid arengut
Uue millenniumi alguses oli tehisintellekt veel pigem kitsas valdkond, kuid see hakkas kiiresti muutuma. Arvutite võimsus kasvas hüppeliselt ja andmemahtude kättesaadavus tõi kaasa esimesed pikad sammud. Suured tehnoloogiafirmad nagu Google ja Microsoft panustasid massiivselt masinõppesse.
Samal ajal hakkasid populaarsust koguma soovitussüsteemid – näiteks Netflix ja Amazon kasutasid TI-d, et pakkuda sulle filme või tooteid, mis sulle võiksid meeldida. Kodudesse olid jõudnud Roomba autonoomsed robottolmuimejad.
Faktid ja aastaarvud millenniumi algusest tänaseni:
- 2002 – Roomba: Esimene edukas robot kodumajapidamistes.
- 2005 – DARPA kõrbesõit: robotauto läbib 200 km ilma juhita.
- 2006 – Amazon käivitas Amazon Web Services (AWS), mis lubas ettevõtetel rentida servereid ja salvestusruumi pilvest.
- 2010 – Esimene iphone, millel on virtuaalne assistent Siri.
- 2011 – IMB Watson võidab Kuldvillaku (Jeopardy) mälumängus inimesi.
- 2012 – Google’i tehisnärvivõrk, mis koosnes 16000-st arvutiprotsessorist , õppis kolma päevaga tuvastama Youtube’i videotest kasse.
- 2014 – Tuli koos Amazon Echo kõlariga saadavale virtuaalne assistent Alexa.
- 2016 – Google'i süvaõppe uurimisgrupp DeepMind võidab maailmameistrit Go mängus AlphaGo programmiga.
- 2017 – Sotsiaalne humanoidrobot Sophia saab Saudi Araabia kodakondsuse.
- 2018 – Google'i Duplex süsteem näitab võimekust broneerida inimese nimel koht restorani või juuksuris.
- 2020 – DeepMind'i projekt AlphaFold lahendas ühe bioloogia suurimatest väljakutsetest - valkude struktuuri täpne ennustamine.
- 2022 – ChatGPT (GPT-3.5) saab 100 miljonit kasutajat 2 kuuga – TI vestluskaaslane jõuab igasse koju.
- 2023 – Suured generatiivsed eeltreenitud keelemudelid (nt. GPT-4, Midjourney v6, Claude-3, Gemini, Llama-2) suudavad eksameid sooritada, pilte "vaadata" ja luua ning kohtus esindada – TI saab "keskkooli lõputunnistuse".
- 2024 – Euroopa AI Act kehtestab seadused, millega reguleeritakse TI kasutamist.
Kui 2020. aasta tõi COVID-19 pandeemia, kiirendas see paradoksaalselt tehisintellekti arengut. TI areng on olnud eriti märkimisväärne, kuna oleme jõudnud generatiivsete mudelite ajastusse. OpenAI poolt välja töötatud GPT-seeria (Generative Pre-trained Transformer) on olnud üks kõige olulisemaid arenguid.
Keelemudelite võidukäik
Tõeline plahvatus saabus 30. novembril 2022, kui OpenAI avalikustas ChatGPT. See ei olnud tehnoloogiliselt revolutsiooniline – põhines GPT-3.5 mudelil – kuid kasutajaliides oli nii intuitiivne, et tehisintellekt jõudis massidesse. Viie päevaga ületas kasutajate arv miljoni, kiireim kasv tehnoloogia ajaloos.
Samal ajal arenesid ka teised generatiivse tehisintellekti valdkonnad. Näiteks loodi pildigeneraatorid nagu DALL-E ja Stable Diffusion, mis suutsid luua realistlikke ja kunstipäraseid pilte, lähtudes vaid tekstilistest kirjeldustest. Need tööriistad on leidnud rakendust disaini, turunduse ja loomemajanduse valdkonnas.
Kokkuvõte
Tänapäeval elame ajastul, kus tehisintellekt on meie igapäevaelu lahutamatu osa. Siri ja Alexa vastavad meie küsimustele, iseliiklevad robotid toovad toitu koju ning tehisintellekt aitab arstidel diagnoosida haigusi. Samuti on TI-l tähtis roll energia optimeerimisel ja taastuvenergia integreerimisel.
Kuigi TI areng on olnud muljetavaldav, on sellega kaasnenud ka mitmeid väljakutseid. Eetilised küsimused, nagu andmete privaatsus, algoritmiline kallutatus ja töökohtade automatiseerimise mõju, on muutunud üha olulisemaks. Samuti on esile tõusnud vajadus tehisintellekti läbipaistvuse ja vastutuse tagamiseks, et vältida selle väärkasutust.
Kuigi praegu on TI rohkem tööriist kui iseseisev mõtleja, on teadlased ja filosoofid eri meelt selle üle, kas me peaksime püüdma luua masinat, mis on "inimestest targem". Ühelt poolt võib see lahendada inimkonna suurimad probleemid, kuid teisalt tekitab see eksistentsiaalseid küsimusi: mida tähendab olla inimene, kui masinad võivad saada meist targemaks?
Mõtlemise koht:
Miks olid ekspertsüsteemid oma olemuselt n.-ö. hukule määratud?
Millised tehnoloogilised võimekused on tänapäevaste TI-süsteemide edu aluseks?
Kas tehisintellekti mõiste loojate visioon on tänaseks täide läinud?