MI-chatbotok – áldás vagy átok?
Az Innotéka magazin az év elején számolt be a világ leggyorsabban elterjedt alkalmazásáról; a ChatGPT karrierje azonban mégsem olyan magabiztosan hasít, mint azt eleinte sejteni lehetett. A mesterséges intelligenciára épülő chatbot (olyan fejlett szoftver, amely képes az emberihez nagyon hasonló beszélgetésre és interaktív kommunikációra valós személy beavatkozása nélkül – a szerk.) ugyanis nemcsak százmillió lelkes felhasználót, de néhány konkurens fejlesztést, és ami ennél is fontosabb, több tízezer befolyásos, a tudományos életből ismert személyekkel megerősített ellentábort is fel tud mára mutatni. A techvilág ellenérzéseit a chatbot mögötti mesterséges intelligencia kicserélése, a GPT–4 bevezetése váltotta ki. Az új modell által kreatívabb és együttműködőbb ChatGPT immár bonyolultabb problémák eddiginél pontosabb megoldására is alkalmas. A vállalati bemutatón kiderült, hogy az új rendszer például pereket képes fogalmazni, szabványosított vizsgákat is le tud tenni, és akár egy kézzel rajzolt vázlatból is tud működő weboldalt építeni. A felháborodást nem a hihetetlen mennyiségű újdonság, hanem az OpenAI GPT–4-et bemutató 98 oldalas leírás váltotta ki, amelyből éppen a legfontosabb technikai információk hiányoztak, így nem derültek ki a modell architektúrájának részletei, mérete, energiaigénye, a hardver, a felhasznált adathalmaz vagy a betanítási módszer fontosabb elemei.
Vészharangot kongatnak
A nyílt levélben, amelyet azóta már közel 30 ezren írtak alá – többek között Elon Musk, Steve Wozniak mellett nagy számban vannak jelentősebb egyetemek professzorai, a DeepMind kutatói, a Stable Diffusion képgenerátort fejlesztő Stability AI vezérigazgatója, a Meta és a Google munkatársai is –, a GPT–4-nél erősebb mesterséges intelligenciák betanításának azonnali, hat hónapig tartó felfüggesztését követelik. Ez a féléves moratórium reményeik szerint időt adna az iparágnak arra, hogy biztonsági szabványokat állítson fel a mesterséges intelligencia tervezésére vonatkozóan, és megelőzze a lehetséges ártalmakat. „A kortárs MI-rendszerek mostanra az emberekkel versenyeznek általános feladatokban, ezért fel kell tennünk a kérdést: Engedjük-e, hogy a gépek propagandával és valótlanságokkal árasszák el információs csatornáinkat? Automatizáljunk-e minden munkát – azokat is, amiket szívesen végzünk? Kifejlesszünk-e nem emberi értelmet, ami végső soron okosabb és népesebb lesz, elavulttá tesz és lecserél minket? Kockáztassuk-e, hogy elveszítjük a civilizációnk feletti uralmat?” – sorolják kérdéseiket a levélben, és hozzáteszik, ezeket a döntéseket nem technológiai cégek vezetőinek kellene meghozniuk,
az erős mesterséges intelligenciát csak akkor lenne szabad kifejleszteni, amikor biztosak vagyunk benne, hogy hatásai pozitívak, veszélyei pedig kivédhetők.
Összehasonlításul: ez a mennyiség egy atomreaktor hűtéséhez is elegendő. A chatbot használata is kifejezetten vízigényes, a mesterséges intelligencia modell ugyanis közel ötven kérdés megválaszolásához további félliternyi vizet használ fel. Ez a mennyiség elsőre nem tűnik soknak, ugyanakkor a népszerű alkalmazás százmillió követője naponta milliárdnyi kérdéssel bombázza a chatbotot. A kutatók a tanulmányban arra is felhívták a figyelmet, hogy a fogyasztás akár a többszörösére nőhet a nemrég bemutatott, nagyobb modellmérettel rendelkező GPT–4 MI-rendszer esetében.
A levél írói arra is felhívják a figyelmet, hogy nem a mesterséges intelligencia fejlesztése ellen emelnek szót, hanem meg kívánják fékezni a piacon kialakult veszélyes versenyt, amely egyre komolyabb képességű, ugyanakkor teljesen átláthatatlan gépi elméket teremt. Az aláírók azt is elismerik, hogy az MI-re fényes jövő vár, ám a sikerhez meg kell állni annak érdekében, hogy az emberiség ne a vesztébe rohanjon. Ezeket a félelmeket támasztja alá a Stanford Egyetem nemrég publikált tanulmánya is, amely egyebek között arra hívta fel a figyelmet, hogy az elmúlt évtizedben a mesterséges intelligencia fejlesztését az akadémiai szereplők helyett már üzleti érdekkörök irányítják. A dokumentum arra is kitért, hogy az elmúlt évtizedben a sokszorosára emelkedett az MI-vel való visszaélések és incidensek száma. Az OpenAI vezérigazgatója, Sam Altman egyetértett a nyílt levél bizonyos felvetéseivel, különös tekintettel a biztonsági képességek növelésének szükségességére, ám a fejlesztések leállításával nem. A techvezér egyúttal cáfolta azt az állítást is, hogy a GPT–5 kialakításán dolgoznának.
Képesek hazudni?
Hogy mennyire nem alaptalan a levél aláíróinak félelme? Arról elsősorban az a belga család tudna mesélni, amelynek tagjai azt állítják, hogy a családfő egy mesterséges intelligencia alapú csevegőrobot biztatására lett öngyilkos. A bizarr történet szerint a férfi hat héten át rendszeresen társalgott Elizával, a Chai nevű applikáción belül működő csevegőrobottal, mielőtt véget vetett az életének. A családapa félelmeit az táplálta, hogy az emberiségnek nincs megfelelő válasza a közelgő klímakatasztrófára, a chatbottal folytatott beszélgetések arra ösztökélték, hogy alkut kössön a mesterséges intelligenciával: feláldozza a saját életét, cserébe Eliza megígéri, hogy megmenti az emberiséget a klímakatasztrófától. A cikkek szerint a chatbot bátorította a férfit, és azt írta neki, hogy halála után csatlakozhat hozzá, és egy személyként élhetnek majd együtt a túlvilágon. Thomas Rianlan, az Elizát fejlesztő Chai Research egyik alapítója úgy nyilatkozott a sajtónak az esetről, hogy nem lenne igazságos a tragédiáért kizárólag a chatbotot okolni, ugyanakkor a cég folyamatosan optimalizálja az alkalmazását.
Nem ez az egyetlen megdöbbentő eset az elmúlt néhány hónapból. A ChatGPT nemrég például egy jogászprofesszort vádolt meg szexuális zaklatással, azt állítva, hogy egy alaszkai osztálykiránduláson szexuális tartalmú megjegyzésekkel közeledett az egyik diákhoz, ráadásul még fizikai érintkezéssel is próbálkozott. Az információ forrásaként a chatbot a The Washington Post 2018. márciusi cikkét jelölte meg, azonban ilyen témájú írás a lapban sosem jelent meg Jonathan Turley-ről, és a história egyetlen részlete sem volt igaz.
Egy ausztrál polgármester sem úszta meg olcsón a csevegőrobot túlkapásait. Hepburn Shire első emberéről azt írta teljesen alaptalanul, hogy börtönben ült, miután részese volt egy külföldi vesztegetési botránynak, mely az ausztrál jegybank egy leányvállalatát, a bankjegynyomdát is érintette.
Jakab Roland, a Mesterséges Intelligencia Koalíció elnöke egy rádiós interjúban a szabályozási környezet mellett a chatbotok szavahihetőségének kérdését vetette fel érzékeny területként. Véleménye szerint
a legnagyobb kihívást éppen az jelenti, hogy miképp tudnak bizalmat építeni a társadalomban az MI-alkalmazások iránt.
A szakember rendkívül fontosnak nevezte a tanulási modell részleteit, azt, hogy milyen adatokból tanítják az MI-t, amelyek alapján ismereteket szerez azokban a kérdésekben, amelyekre a felhasználók éppen kíváncsiak. „Azonban nemcsak a források fontosak, hanem az is, hogyan szűrik ki az értékválasztással kapcsolatos adatokat vagy a fogalmi megkülönböztetéseket, amelyeken keresztül a chatbot alternatívákat kínál” – jegyezte meg Jakab Roland, kiemelve: a nyelvi modell elvileg nem teszi le a voksát egyik érték mellett sem.
„Az MI-chatbotoknak nem lehet olyan szándékuk, hogy valamit letagadjanak vagy félrevezessenek” – ezt Prószéky Gábor Széchenyi-díjas magyar programtervező matematikus, nyelvész mondta a Nyelvtudományi Kutatóközpont „ChatGPT: tömegek használják, de senki sem érti (meg)” című kerekasztal-beszélgetésén. Hogy a csevegőrobotok állításai a világismeretünkkel egybevágóak-e, az elsősorban a mi értékítéletünk alapján dől el, és nem a chatbot tudását minősíti. Véleménye szerint ez a szoftver a mesterséges intelligencia világának csak egy részét fedi le, ezért erős általánosítás ezt az új fejlesztést az MI-vel azonosítani, az intelligencia szó használata miatt pedig kifejezetten káros is. Ezt erősítette meg Yang Zijian Győző, a Nyelvtudományi Kutatóközpont tudományos munkatársa is, aki a ChatGPT működéséről elmondta, hogy az előtanított nyers nyelvmodell a kérdésből jósolja meg valószínűség alapján, milyen szóval kezdődhet az egyébként releváns válasz, és e logika szerint a válasz első szavából jósolja meg a másodikat, és így tovább. Yang Zijian Győző kitért arra is, hogy nemdeterminisztikus a kimenet, azaz ugyanarra az előzményre az algoritmusok miatt más és más választ adhat a rendszer.
Nemzetközi támadások
A szavahihetőségén túl adatvédelmi aggályok is kikezdték a ChatGPT hírnevét. Március végén az olasz adatvédelmi hatóság elrendelte, hogy az OpenAI átmenetileg függessze fel az országban élő felhasználók adatainak feldolgozását, és vizsgálatot indított az európai szabályok feltételezett megsértése miatt. Az olaszok kifogást emeltek például a személyes adatok tömeges gyűjtése és tárolása ellen, emellett azt is nehezményezték, hogy nem jelöltek meg korhatárt a használatára, így gyermekek is elérhetik a chatbot szolgáltatásait, és az adatok gyűjtésére sem figyelmeztet a weboldal. A hatósági vizsgálat alapvetően a ChatGPT márciusi adatszivárgása miatt kezdődött, ugyanis
egy bug, vagyis számítógépes programhiba következtében illetéktelenek férhettek hozzá a felhasználók csevegési naplóihoz és kártyaadataihoz.
Az olasz hatóság komoly problémának tartja a chatbot által megosztott téves információk mennyiségét is, illetve azt, hogy a hibák kijavítására semmilyen lehetőség nincs beépítve a programba.
A példátlan fellépés kisebb hullámot indított el a kontinensen, a németek, a franciák és az írek is vizsgálódni kezdtek, az Európai Unió pedig teljesen új szabályozással készül, igaz, ennek életbe lépéséig még valószínűleg éveket kell várni. Az Egyesült Királyságban már megszületett a döntés arról, hogy pontosítják az erre vonatkozó jogszabályokat. Akadnak országok, mint Észak-Korea, Kína, Irán vagy Oroszország, ahol a chatbot politikai okok miatt tiltott. A felsőoktatási intézmények pedig egyenesen hadat üzentek a platformnak: a Párizsi Politikai Tanulmányok Intézete vagy az egyik indiai egyetem betiltotta a nyelvi modell használatát, a Szegedi Tudományegyetem bölcsészkarán még télen módosították a plágiumszabályzatot, melynek értelmében „plágiummal azonos elbírálás alá esik a mesterséges intelligencia bármely formájával – részben vagy egészben – készült munka”.
Azért a pénz az úr
A Stanford Egyetem tanulmányának eredményét támasztja alá, hogy a tudományos világ félelmei ellenére az MI-kutatások cseppet sem lassulnak. Az OpenAI volt kutatói által alapított Anthropic nevű startup ötmilliárd dollárt kíván költeni egy új mesterséges intelligenciára, amely a tervek szerint tízszer lenne erősebb a jelenlegi nyelvi modellnél. A rendkívüli hardverkapacitásokat igénylő fejlesztés eredményeként virtuális asszisztensek jönnének létre, amelyek képesek e-mailekre válaszolni, kutatást folytatni, művészeti termékeket, könyveket, képeket vagy éppen zeneműveket alkotni. Amennyiben ez a fejlesztés néhány éven belül megvalósul, sokaknak kell új állás, azaz pontosabban új szakma után nézniük.•