2018. május: jegyzet, orvostudomány, agykutatás, portré, csillagászat, tudomány, it, egyetem, ipari automatizálás, robotika, lézer, innováció, okostechnológia, energiagazdálkodás, zöldkörnyezet, hulladékgazdálkodás, kiállítás/konferencia, vízgazdálkodás, fenntarthatóság, mesterséges intelligencia, hálózatkutatás
2018. május 4.

Szerző:
B. Szabó Edina

Mesterséges intelligencia – jelen vagy jövő?

Ahogy a mesterségesintelligencia-rendszerek és az arra épülő megoldások beépülnek a mindennapjainkba, úgy vesszük át a témához kapcsolódó fogalmak angolos vagy úgy-ahogy magyarított verzióit. De vajon értjük is a tartalmukat, a meghatározásokat? Egyáltalán meg kell érteni azokat?


Amióta világ a világ, a fejlődés egyes szakaszaiban mindig jelen vannak a fejlesztők, kutatók, kérdezők, valamint az általánosságban vett társadalom, a felhasználók tömege, akiket a tudományos fejlődés szolgálni próbált-próbál, hogy kényelmet és haladást biztosítson számukra. Nem mindenki vágyik arra, hogy megértse az újdonságok működési elvét, így volt ez például a gőzgépek korában, aztán a telefonnal meg a számítógéppel is, de vitathatatlan, hogy a ma minket körülvevő eszközök megoldásait, folyamatait egy bizonyos szintig érdemes megismerni. Nem mindegy ugyanis, hogy kit (mit) milyen mélységben engedünk bepillantani az eszközeinkbe, és ezzel együtt az adatainkba, a szokásainkba – az életünkbe.

Hogy a rendkívül sokrétegű mesterséges intelligencia világának működési elveit valamelyest megértsük, Szabados Levente szenior mesterségesintelligencia-kutató, tanácsadó foglalja össze az alap­vető gondolatokat, egy kis MI gyorstalpalón keresztül.

– A mesterséges intelligenciával kapcsolatos fogalmak néha összevisszaságban bukkannak elő, de amiről feltétlenül beszélnünk érdemes az négy, egymással összefüggő kifejezés, ilyen maga a mesterséges intelligencia, a gépi tanulás, a statisztika és a deep learning (mély mesterséges neurális hálókkal való tanulás, adatbeágyazás). Emellett létezik egy kicsit humoros, de alapjaiban a lényeget jól megvilágító definíció a mesterséges intelligenciára: az MI az, amit tegnap még nem tudtunk. Ez valahol vicces, valahol nem, hiszen jelenleg valóban ott tartunk, hogy a gépi megértésnek, tanulásnak újabb és újabb területei alakulnak ki, vagy éppen kezdenek kialakulni, és azoknak éppen mindig a „cutting edge”, vagyis a legjobb, az élvonalba kerülő részét tekintjük igazán mesterséges intelligenciának, amit pedig megszokunk, az kicsit már unalmas „szoftverré” válik.

Természetesen adhatunk a fentinél pontosabb definíciót, amely megértésének alapja az, hogy általában intelligenciáról akkor beszélhetünk, ha van valami, amit tudunk, vagyis van egy tudáskomponens, és azt adott környezetben, kontextusban alkalmazzuk. Tehát ez alkalmazott tudás. Ennek nyilvánvalón van egyrészt egy tudás­leképező, másrészt pedig egy tanulás-, tudáselsajátítás része. Azért azt tudni kell, hogy az MI fejlődése akkor indult el, amikor maga az informatika, azaz az 1950-es években, vagyis érdemes tudatosítani, hogy a kettő indulása ugyanarra az időszakra tehető, sőt. Amikor Alan Turing matematikáról beszélt (az 1954-ben elhunyt brit matematikus a számítógép-tudomány egyik atyja, nagy hatással volt az algoritmus és a számítógépes adatfeldolgozás hivatalos koncepciójának kidolgozására – a szerk.), és papíron elméletet igazolt, ő az intelligenciáról gondolkodott. Vagyis ez egy elég régi vállalkozás…

Eleinte inkább tudásbázisokat, tudásleképezéseket, tudásreprezentációkat tekintettek az informatikában intelligens eszközöknek. Mindez az utóbbi körülbelül ötven évben eltolódott afelé, hogy inkább a tanuló, a valamilyen módon tudást elsajátítani képes rendszereket tekintjük intelligenseknek. Fontos itt megkülönböztetni azt, hogy bár sok tudást és viselkedési parancsot kódolhatunk az IT eszközökbe, de nyilván pont a fordítottját szeretnénk elérni, hogy az eszközadatok, példák, bejövő ingerekre adott válaszként belül valamilyen reprezentációt, leképezést hozzon létre, magától. Tehát a gépi tanulás egy kicsit pongyola megfogalmazása: az informatikai eszköz kellő mennyiségű adat prezentálása után és persze megfelelő emberi felügyelet mellett egy belső reprezentációt hoz létre a kapott adatról, azaz tanul belőle valamit, és ez alapján dönt vagy reagál.

Eleinte inkább tudásbázisokat, tudásleképezéseket, tudás­reprezentációkat tekintettek az informatikában intelligens eszközöknek. Mindez az utóbbi, körülbelül ötven évben el­toló­dott afelé, hogy inkább a tanuló, a valamilyen módon tudást elsajátítani képes rendszereket tekintjük intelligenseknek.

Mit tanulhat? Itt jön be a statisztika fogalma, hiszen alapvetően ebben az esetben az alapokat statisztikai összefüggések biztosítják. Vagyis azt mondhatjuk, hogy a gépi tanulás, mint alkalmazott és informatikailag alkalmazott statisztika, esetében igenis vannak statisztikai szabályszerűségek az adatban, és ezeket megpróbáljuk kinyerni, megtanulni. Ez elsőre egész jó megközelítés. Ha a gépi tanuláson belül valamilyen biológiai inspiráltságú vagy saját kognitív rendszerünk által inspirált megoldások felé megyünk, magyarul olyasmi módon próbáljuk tanítani a gépeket, ahogyan mi is tanulunk – persze ezt inkább metaforikusan értjük –, vagy amit a tanultak alapján közösen meg tudunk ragadni, akkor már a mesterséges intelligencia területére tévedünk. Ennek egy speciális altípusa, ami most nagyon népszerű, a deep learning.
Ami tulajdonképpen azt jelenti, hogy az emberi idegrendszeri tanulás egy nagyon távoli modellje alapján, de egy többrétegű, mély neurális architektúrával hajtunk végre gépi tanulást, és ettől válik mindez mesterséges intelligenciává. Ezen belül pedig – ahogy a kutatás, fejlődés halad előre –, egyre több technológia rakódik le, válik megszokottá, beépül, mondjuk, mint egy korallzátonyba, ahogy más tudományok esetében is.
Az az alap kognitív, magunkról való tudásunk, hogy ismételve vagy legalábbis gyakran, nagy számban megfigyelt ismétlődő mintázatokból tanulunk. Ez ugyan egy kicsit konzervatív elképzelés, de jó tudni, hogy a gépi tanulás most körülbelül itt tart. Ami ránk nézve pozitív, de kellemetlen a gépi tanulást illetően az az, hogy az ember nagyon kevés ismétlésből is kiválóan általánosít, ami kifejezetten nagy előny. Vagyis – ahogyan azt a folyamatos kutatások egyre-másra bizonyítják – emberként annyira mégsem ismétlünk sokszor… hiszen ha például egyszer figyelmeztetjük a gyereket, hogy meg fogja égetni a kezét, akkor maximum egyszer megégeti, és ezzel kész, általánosított is, valószínűleg nem fogja még tizenötször megégetni magát. Ez egy remek emberi készség – sőt, olyan képességünk is van adott esetben, hogy még meg sem égetjük magunkat, csupán átvesszük a figyelmeztető egyén reprezentációját arról, hogy az a valami forró, és fájni fog, ha hozzányúlok. Szóval az emberi képességek segítségével nagyon ergonomikus és nagyon jól tömörített formában sajátítunk el információt, szuperjó a külvilágról a reprezentációnk, míg a gépi tanulás esetében azt mondhatjuk egyelőre, hogy „Pistike még nem túl okos, de nagyon erős”… Vagyis nem sikerül igazán a gyors elsajátítás. Viszont mivel nagy mennyiségű adat áll rendelkezésünkre – már ha éppen rendelkezésünkre áll, és valaki abból kinyerte számunkra a használható adatokat, értékeket –, akkor nekikezdhetünk a tanításnak, sok ismétléssel, repetitív vagy memoriter módon.

Az ember nagyon kevés ismétlésből is kiválóan általánosít, ami kifejezetten nagy előny, míg a gépi tanulás esetében nem sikerül ez a gyors elsajátítás. A mesterséges intelligencia esetében ha nagy mennyiségű hasznos adat áll rendelkezésre, akkor kezdődhet a tanítás, sok ismétléssel, repetitív vagy memoriter módon.
Úgy tűnik, ma mindenbe bekerül a mesterséges intelligencia, nincs olyan terület, amiről ne hallottuk volna, hogy ilyen vagy olyan formában teszteljük ezt-azt az MI újdonságot. De a fentiek ismeretében hogyan tud beépülni egy folyamatosan változó valami, mondjuk, egy telefonba vagy egy gyártósori folyamatba?

– Ennek több aspektusa is van, beszéljünk kicsit ennek hátteréről, vagyis arról, hogy miért most épül be folyamatosan mindenhova; ezt azért érdemes átgondolni. Alapvetően három összetevőt kell megemlítenünk, az egyik talán nyilvánvaló. Körülbelül az 1980-as évek közepén indult el egy komoly áttöréshullám, akkor még elvont, elméleti szinten, amikor olyan újabb technológiákat hoztak létre, amelyekkel hatékonyan lehet rendszereket tanítani. Ez tulajdonképpen amolyan csendes forradalomként indult el, és nagy­jából a 2000-es évek elejére bukkant napvilágra, hogy a tudományos élet képviselőin kívül is kezdjen valakit érdekelni az, hogy ezek a megoldások bizony működnek, működhetnek. A másik komponens, hogy döbbenetesen megnőtt a képességünk az adatok feldolgozására, azaz a számítási kapacitás nem várt és meglepő módon Moore törvénye szerint fejlődik. (Moore-törvénynek nevezzük azt a tapasztalati megfigyelést a technológiai fejlődésben, amely szerint az integrált áramkörök összetettsége körülbelül 18 hónaponként megduplázódik – azaz egyre több és összetettebb folyamatok elvégzésére lesznek képesek – a szerk.) Magyarul: egyre nagyobb mennyiségű számítást tudunk elvégezni, amit ezek a modellek kifejezetten igényelnek is. Az világos, hogy az említett 1980-as évek közepén, bármilyen intellektuális áttörés mellett sem volt annyi számítási kapacitás, hogy ezt az áttörést igazán ki tudjuk használni. Végül a harmadik pillér az adat, azaz olyan mennyiségű és minőségű nyers adatnak kell rendelkezésre állnia, aminél már érdemes és látványos ilyen jellegű applikációkat létrehozni. Ha ez a három pillér megvan, akkor rögtön láthatóvá válik, hogy hogyan tud belépni a mesterséges intelligencia egy adott területre, ipari folyamatba.

Vegyünk egy rövid és konkrét példát. Egy gyártósori területen látszik, hogy az a tény, hogy a gyártósori működés minél több paraméterét nagyon költséghatékonyan tudjuk mérni és tárolni – vagyis ténylegesen vannak beépített szenzorok, és azokból folyamatosan érkező tömeges adatmennyiség –, annak egy alapvető, ki nem mondott előfeltevésnek kell lennie, hiszen egy bármilyen intelligens tanuló rendszernek valamiben meg kell találni a mintázatokat. Tehát kell, hogy legyen adat. Egy másik szempontból az is igaz, hogy mindezeket véges, belátható időn belül kell megemésztenie, vagyis ipari szempontból releváns válaszidővel kell teljesítenie. Hiszen lássuk be, ha a történések (leállás, gyártási hiba és így tovább) után három nappal később érkezik hibajelzés arról, hogy várhatóan történni fog valami, az nem igazán hasznos. Viszont ha képes olyan jellegű predikcióra, előrejelzésre, amely szerint „itt és itt valami meghibásodás várható”, és én ez alapján előre leállítom az adott gyártósort, nem várom meg, hogy a meghibásodás bekövetkezzen – az nagy valószínűséggel komoly költségmegtakarítással jár. Nyilván itt azért azt be kell látni, hogy az alapvetés az, hogy minden statisztikai rendszer valamilyen valószínűséggel fog jól működni, nem százszázalékosan. Így a nagy kérdés az, hogy ha már elég jól „bejósolja” nekem azt a rendszer, hogy mikor fog meghibásodni, akkor már érdemes leállítani a gyártósort, és megjavítani.

Ezek szerint a Big Datának, a nagy adattömegnek örülünk, hiszen nélküle nem tud tanulni az MI…

– Sőt, Big Data nélkül mindez el sem képzelhető. A mesterséges­intelligencia-rendszerekkel kapcsolatban most az egyik áttörő kutatás az, hogy hogyan érhető el az emberéhez hasonló gyors absztrahálás, vagyis hogy ne kelljen 5-10 millió példát mutatni valamire, míg végre az MI-nek is „leesik”, hogy miről is beszélünk. Ez még javában kutatási terület, a „one-shot learning”, vagyis mondjuk elsőre tanulás, szó szerint „egy lövésre tanulás”. Tulajdonképpen a Big Datának köszönhető az MI fejlődése…

Na persze az is igaz, attól, hogy egy „data big”, még nem biztos, hogy elegendő, hiszen lehet, hogy nagyon sok, de kétes minőségű adatom van. Ez elviekben szép és jó, de kicsit olyan, mint ha egy gyerekre rázúdítanánk rengeteg, teljesen ellenőrizetlen információt az életről, aminek ugye komoly következményei lennének. Tehát nyilván itt az adat minősége is fontos, két szempontból is. Az egyik a struktúra, vagyis ne legyen például hiányzó adat az adott pillanatban, a másik, hogy ne csússzanak szét az adatok, ne legyen a halmazban hamis adat, mérési vagy formátumhiba és így tovább. Ráadásul ma még csak egyfajta vezetett paradigmában tudunk mozogni, ami azt is jelenti, hogy ha meg szeretnénk tanítani az MI rendszerünket például arra, hogy sokféle állat fényképét felismerje, akkor bizony nemcsak úgy ömlesztve adjuk oda a sokféle állat fényképét, hanem mindegyikhez címkét kell rendelnünk: ezen a képen cica van, azon oroszlán, amazon meg tigris. Ezt a címkézési feladatot valakinek valahol el kell végeznie. Ez pedig elvezet ahhoz az igazsághoz, hogy a mesterséges intelligencia fejlesztésében azok a vállalatok rendelkeznek igazán nagy tőkével, amelyek döbbenetes mennyiségű, jó minőségű és címkézett adatot birtokolnak. Nem véletlen, hogy azok a nagyvállalatok – például a Facebook, Google –, amelyeknek mi a különböző tevékenységeinkkel, akcióinkkal valamilyen szinten zajos, ámde nagyon nagy mennyiségű címkézett adatot adunk, például lájkoljuk az oldalakat vagy megnézzük, vagy éppen nem nézzük meg a tartalmát, kattintunk vagy sem, döbbenetes mennyiségű, emberi viselkedést felmérő, azt leképező adatbázis keletkezik, méghozzá eleve címkézett módon. Ezért az sem véletlen, hogy ezek a cégek most a meghatározó alakjai az MI kutatásnak, értve ezen egyrészt azt, hogy a legtöbbet invesztálnak a területbe, egyúttal bevonzották magukhoz a legnagyobb tudósközösséget is.

Az említett cégek kutatólaborjai – merthogy több is van belőlük – kifejezetten meghatározó szereplők, itt érdemes még meg­említeni a Baidu, a kínai keresőmotort működtető cég kutatómunkáját, és persze fontos szereplők az olyan, tradicionálisan kutatást végzők, mint például az IBM, azzal együtt, hogy ők inkább a technológiai és hardvertudás felől közelítenek. A szűk nagyvállalati közeg mellett még a startup világ is említésre méltó, amely abból próbál tőkét kovácsolni, hogy pici, agilis kutatócsoportokként – egyelőre még – nagy áttörésre képesek, ami komoly értéket nyújthat nagyvállalati szempontból is.

Éppen hogy kezdjük megszokni az okoseszközöket, az érintőképernyő ajtós sütőt, az okosházakat, és aztán máris meg kellene szoknunk az MI adta új lehetőségeket… Meddig okos és honnan MI egy rendszer?

– Itt is két dolgot érdemes megvizsgálni. Az egyik, hogy tudtunk nélkül máris sok MI rendszert használunk. Nemhogy most már, hanem már egy ideje. Azt, hogy nekem egy értelmes kereső kérdésre a Google tökéletes választ ad, a mögött mesterséges intelligencia áll, hiszen nemcsak hogy megért, hanem véletlenül egészen jól érti, hogy mit írok be a keresőbe. Például beírom, hogy „the bank of the Thames”, akkor bizony érteni fogja, hogy én a Temze partjára gondoltam, nem pedig a nemzeti bank Temze parti épületére. Ami nyilvánvalóan egy elég erős lépés, lévén, hogy formailag, alakilag maga a beírt szöveg nem tartalmazott elegendő információt, hanem az egész kontextust kellett megértenie ahhoz, hogy számomra releváns találatot adjon, sőt engem, a szokásaimat, mint kontextust is meg kellett értenie…

Mindez csupán csak a közösségi felismerés világa: ó, hát itt van már egy olyan rendszer, amihez tudok beszélni és válaszol! És mivel az okoseszközök korát éljük éppen, abból már csak apró technológiai változások következnek. Technológiailag ez csupán annyi, hogy egy újabb területre sikerül majd beépíteni és a használatát megismertetni, elfogadtatni a felhasználókkal. Addig lesz okostechnológia, amíg az eszköz kommunikál, onnantól lesz MI, amikor a szokásokra, humán tapasztalatokra, interakciókra reagálva, az én emberi viselkedésem és kommunikációs struktúráim alapján automatikusan tesz meg valamit, mondjuk adott időben – például amikor általában elindulok haza – bekapcsolja a lakásomban a fűtést.

Amikor az eszköz kommunikál, okos technológiáról beszélünk, onnantól lesz MI, amikor a szokásokra, humán tapasztalatokra, interakciókra reagálva, az én emberi viselkedésem és kommunikációs struktúráim alapján automatikusan tesz meg valamit, mondjuk adott időben – például amikor általában elindulok haza – felkapcsolja a fűtést otthon.
Merre haladunk most? Mit szeretne látni a közeli jövőben MI fronton?

– Erre két, társadalmi és technológiai szempontú válaszom van. A technológiai válaszom az, hogy kevesebb adatból sokkal jobb absztrakciós képességgel működjön az MI, és ne csak szűken, egy-egy területen tudjon operálni, legyen hatékony, azaz hogy mindezt ne több gigawatt áram elfogyasztásával tegye, hanem új hardverekkel, célspecifikus alkalmazásokkal, optimálisan, töredékidő alatt.

A társadalmi meggondolás esetében a mit szeretnék és a mitől félek, erősen elválik. Amit szeretnék, az mindenképpen az, hogy valamilyen módon demokratikusan, minél több fél jusson hozzá ezekhez a képességekhez. Tehát az a képesség, hogy bármilyen eszközzel, nevezzük csodának, varázsdoboznak, bárminek, képes vagyok predikciókra, az egy olyan képesség, ami nagy hasznára válhat már az egyénnek is. Felelősségteljesebbé, felkészültebbé, és persze igen, kényelmesebbé válik az élete. Ez az, amit remélek. Amitől félek, az az, hogy ez a prediktív erő nagyon kevés kézben, és emiatt túlságosan monopol módon összpontosul majd. Ez egy nagyon komoly, közösségi értékrendi kérdés lesz előbb-utóbb, hogy mit tekintünk annak az egységnek, amibe a bizalmunkat vetjük, ami mindent tudhat rólunk. Az egyénekbe és a szabad, önálló döntéseikbe vagy a közösségbe és annak normatív képességébe. Erre filozófiai értelemben szerintem nincs válasz, az megint más kérdés, hogy majd a technológia ezeket a filozófiai kérdéseket kicsit beletörli az arcunkba.•

 
Innotéka