MI-chatbotok – áldás vagy átok?

Az év elején a világsajtó még lelkesen ünnepelte az OpenAI nyelvi modelljét, tavasszal a techguruk már nyílt levélben követelték a mesterséges intelligen­ciák (MI) fejlesztésének fel­függesztését, Olaszország pedig adat­szivárog­ta­tásra hivat­kozva átmenetileg be is tiltotta a ChatGPT szolgáltatá­sát. Volt, aki öngyilkos lett a chatbottal való beszélgetés hatására, többeket pedig alap­ta­la­nul vádolt meg különböző bűn­cselekményekkel a nyelvi modell. Vajon szándékosan hazudik az alkalmazás, vagy egyszerűen csak téved? És mi alapján ad téves információkat?


Az Innotéka magazin az év elején számolt be a világ leg­gyorsabban elterjedt alkalmazásáról; a ChatGPT karrierje azonban mégsem olyan magabiztosan hasít, mint azt eleinte sejteni lehetett. A mesterséges intelligenciára épülő chatbot (olyan fejlett szoftver, amely képes az emberihez nagyon hasonló beszélgetésre és interaktív kommunikációra valós személy beavatkozása nélkül – a szerk.) ugyanis nemcsak százmillió lelkes felhasználót, de néhány konkurens fej­lesztést, és ami ennél is fontosabb, több tízezer befolyásos, a tudományos életből ismert személyekkel megerősített ellentábort is fel tud mára mutatni. A techvilág ellenérzéseit a chatbot mögötti mesterséges intelligencia kicserélése, a GPT–4 bevezetése váltotta ki. Az új modell által kreatívabb és együtt­működőbb ChatGPT immár bonyolultabb problémák eddiginél pontosabb megoldására is alkalmas. A vállalati bemutatón kiderült, hogy az új rendszer például pereket képes fogalmazni, szabványosított vizsgákat is le tud tenni, és akár egy kézzel rajzolt vázlatból is tud működő weboldalt építeni. A felháborodást nem a hihetetlen mennyiségű újdonság, hanem az OpenAI GPT–4-et bemutató 98 oldalas leírás váltotta ki, amelyből éppen a legfontosabb technikai információk hiányoztak, így nem derültek ki a modell architektúrá­jának részletei, mérete, energiaigénye, a hardver, a felhasznált adathalmaz vagy a betanítási módszer fontosabb elemei.

Vészharangot kongatnak

A nyílt levélben, amelyet azóta már közel 30 ezren írtak alá – többek között Elon Musk, Steve Wozniak mellett nagy számban vannak jelentősebb egyetemek professzorai, a DeepMind kutatói, a Stable Diffusion képgenerátort fejlesztő Stability AI vezérigazgatója, a Meta és a Google munkatársai is –, a GPT–4-nél erősebb mesterséges intelligenciák betanításának azonnali, hat hónapig tartó felfüggesztését követelik. Ez a féléves moratórium reményeik szerint időt adna az iparágnak arra, hogy biztonsági szabványokat állítson fel a mesterséges intelligencia tervezésére vonatkozóan, és megelőzze a lehetséges ártalmakat. „A kortárs MI-rendszerek mostanra az emberekkel versenyeznek általános feladatokban, ezért fel kell tennünk a kérdést: Engedjük-e, hogy a gépek propagandával és valótlanságokkal árasszák el információs csatornáinkat? Automatizáljunk-e minden munkát – azokat is, amiket szívesen végzünk? Kifejlesszünk-e nem emberi értelmet, ami végső soron okosabb és népesebb lesz, elavulttá tesz és lecserél minket? Kockáztassuk-e, hogy elveszítjük a civilizációnk feletti uralmat?” – sorolják kérdéseiket a levélben, és hozzáteszik, ezeket a döntéseket nem technológiai cégek vezetőinek kellene meghozniuk,

Szomjas chatbotok
Két amerikai egyetem – a University of Colorado Riverside és a University of Texas Arlington – külön kutatást szentelt a mesterséges intelligencia fejlesztése környezeti hatásainak vizsgálatára. A technológia nemcsak bőséges mennyiségű áramot igényel, hanem igen sok vizet is. A Making AI Less Thirsty (Az MI kevésbé szomjassá tétele) című tanulmány a többi között arra mutatott rá, hogy az OpenAI és a Google számítógépei csak a GPT–3 betanítása során mintegy 700 ezer liter vizet használtak az adatközpont hűtéséhez.

Összehasonlításul: ez a mennyiség egy atomreaktor hűtéséhez is elegendő. A chatbot használata is kifejezetten vízigényes, a mesterséges intelligencia modell ugyanis közel ötven kérdés megválaszolásához további félliternyi vizet használ fel. Ez a mennyiség elsőre nem tűnik soknak, ugyanakkor a népszerű alkalmazás százmillió követője naponta milliárdnyi kérdéssel bombázza a chatbotot. A kutatók a tanulmányban arra is felhívták a figyelmet, hogy a fogyasztás akár a többszörösére nőhet a nemrég bemutatott, nagyobb modell­mérettel rendelkező GPT–4 MI-rendszer esetében.

A levél írói arra is felhívják a figyelmet, hogy nem a mesterséges intelligencia fejlesztése ellen emelnek szót, hanem meg kívánják fékezni a piacon kialakult veszélyes versenyt, amely egyre komolyabb képességű, ugyanakkor teljesen átláthatatlan gépi elméket teremt. Az aláírók azt is elismerik, hogy az MI-re fényes jövő vár, ám a sikerhez meg kell állni annak érdekében, hogy az emberiség ne a vesztébe rohanjon. Ezeket a félelmeket támasztja alá a Stanford Egyetem nemrég publikált tanulmánya is, amely egyebek között arra hívta fel a figyelmet, hogy az elmúlt évtizedben a mesterséges intelligencia fejlesztését az akadémiai szereplők helyett már üzleti érdekkörök irányítják. A dokumentum arra is kitért, hogy az elmúlt évtizedben a sokszorosára emelkedett az MI-vel való visszaélések és incidensek száma. Az OpenAI vezérigazgatója, Sam Altman egyetértett a nyílt levél bizonyos felvetéseivel, különös tekintettel a biztonsági képességek növelésének szükségességére, ám a fejlesztések leállításával nem. A techvezér egyúttal cáfolta azt az állítást is, hogy a GPT–5 kialakításán dolgoznának.

Képesek hazudni?

Hogy mennyire nem alaptalan a levél aláíróinak félelme? Arról elsősorban az a belga család tudna mesélni, amelynek tagjai azt állítják, hogy a családfő egy mesterséges intelligencia alapú csevegőrobot biztatására lett öngyilkos. A bizarr történet szerint a férfi hat héten át rendszeresen társalgott Elizával, a Chai nevű applikáción belül működő csevegőrobottal, mielőtt véget vetett az életének. A családapa félelmeit az táplálta, hogy az emberiségnek nincs megfelelő válasza a közelgő klímakatasztrófára, a chatbottal folytatott beszélgetések arra ösztökélték, hogy alkut kössön a mesterséges intelligenciával: feláldozza a saját életét, cserébe Eliza megígéri, hogy megmenti az emberiséget a klímakatasztrófától. A cikkek szerint a chatbot bátorította a férfit, és azt írta neki, hogy halála után csatlakozhat hozzá, és egy személyként élhetnek majd együtt a túlvilágon. Thomas Rianlan, az Elizát fejlesztő Chai Research egyik alapítója úgy nyilatkozott a sajtónak az esetről, hogy nem lenne igazságos a tragédiáért kizárólag a chatbotot okolni, ugyanakkor a cég folyamatosan optimalizálja az alkalmazását.

Nem ez az egyetlen megdöbbentő eset az elmúlt néhány hónapból. A ChatGPT nemrég például egy jogászprofesszort vádolt meg szexuális zaklatással, azt állítva, hogy egy alaszkai osztálykiránduláson szexuális tartalmú megjegyzésekkel közeledett az egyik diákhoz, ráadásul még fizikai érintkezéssel is próbálkozott. Az információ forrásaként a chatbot a The Washington Post 2018. márciusi cikkét jelölte meg, azonban ilyen témájú írás a lapban sosem jelent meg Jonathan Turley-ről, és a história egyetlen részlete sem volt igaz.

Egy ausztrál polgármester sem úszta meg olcsón a csevegőrobot túlkapásait. Hepburn Shire első emberéről azt írta teljesen alaptalanul, hogy börtönben ült, miután részese volt egy külföldi vesztegetési botránynak, mely az ausztrál jegybank egy leányvállalatát, a bankjegynyomdát is érintette.

Jakab Roland, a Mesterséges Intelligencia Koalíció elnöke egy rádiós interjúban a szabályozási környezet mellett a chatbotok szavahihetőségének kérdését vetette fel érzékeny területként. Véleménye szerint

A szakember rendkívül fontosnak nevezte a tanulási modell részleteit, azt, hogy milyen adatokból tanítják az MI-t, amelyek alapján ismereteket szerez azokban a kérdésekben, amelyekre a felhasználók éppen kíváncsiak. „Azonban nemcsak a források fontosak, hanem az is, hogyan szűrik ki az értékválasztással kapcsolatos adatokat vagy a fogalmi megkülönböztetéseket, amelyeken keresztül a chatbot alternatívákat kínál” – jegyezte meg Jakab Roland, kiemelve: a nyelvi modell elvileg nem teszi le a voksát egyik érték mellett sem.

„Az MI-chatbotoknak nem lehet olyan szándékuk, hogy vala­mit letagadjanak vagy félre­vezessenek” – ezt Prószéky Gábor Szé­c­henyi-díjas magyar program­tervező matematikus, nyelvész mondta a Nyelv­tudományi Kutató­központ „ChatGPT: tömegek használják, de senki sem érti (meg)” című kerekasztal-beszélge­té­sén. Hogy a csevegő­robotok állításai a világ­ismeretünkkel egy­be­vágóak-e, az elsősorban a mi érték­ítéletünk alapján dől el, és nem a chatbot tudását minősíti. Véleménye szerint ez a szoftver a mesterséges intelligencia világának csak egy részét fedi le, ezért erős általánosítás ezt az új fejlesztést az MI-vel azonosítani, az intelligencia szó használata miatt pedig kifejezetten káros is. Ezt erősítette meg Yang Zijian Győző, a Nyelv­tudományi Kutató­központ tudományos munkatársa is, aki a ChatGPT működéséről elmondta, hogy az előtanított nyers nyelvmodell a kérdésből jósolja meg valószínűség alapján, milyen szóval kezdődhet az egyébként releváns válasz, és e logika szerint a válasz első szavából jósolja meg a másodikat, és így tovább. Yang Zijian Győző kitért arra is, hogy nem­determiniszti­kus a kimenet, azaz ugyanarra az előzményre az algoritmusok miatt más és más választ adhat a rendszer.

Nemzetközi támadások

A szavahihetőségén túl adatvédelmi aggályok is kikezdték a ChatGPT hírnevét. Március végén az olasz adatvédelmi hatóság elrendelte, hogy az OpenAI átmenetileg függessze fel az országban élő felhasználók adatainak feldolgozását, és vizsgálatot indított az európai szabályok feltételezett megsértése miatt. Az olaszok kifogást emeltek például a személyes adatok tömeges gyűjtése és tárolása ellen, emellett azt is nehezményezték, hogy nem je­löl­­tek meg korhatárt a használatára, így gyermekek is elérhetik a chat­bot szolgáltatásait, és az adatok gyűjtésére sem figyelmez­tet a weboldal. A hatósági vizsgálat alapvetően a ChatGPT már­ciusi adatszivárgása miatt kezdődött, ugyanis

Az olasz hatóság komoly problémának tartja a chatbot által megosztott téves információk mennyiségét is, illetve azt, hogy a hibák kijavítására semmilyen lehetőség nincs beépítve a programba.

A példátlan fellépés kisebb hullámot indított el a kontinensen, a németek, a franciák és az írek is vizsgálódni kezdtek, az Európai Unió pedig teljesen új szabályozással készül, igaz, ennek életbe lépéséig még valószínűleg éveket kell várni. Az Egyesült Királyságban már megszületett a döntés arról, hogy pontosítják az erre vonatkozó jogszabályokat. Akadnak országok, mint Észak-Korea, Kína, Irán vagy Oroszország, ahol a chatbot politikai okok miatt tiltott. A felsőoktatási intézmények pedig egyenesen hadat üzentek a platformnak: a Párizsi Politikai Tanulmányok Intézete vagy az egyik indiai egyetem betiltotta a nyelvi modell használatát, a Szegedi Tudományegyetem bölcsészkarán még télen módosították a plágiumszabályzatot, melynek értelmében „plágiummal azonos elbírálás alá esik a mesterséges intelligencia bármely formájával – részben vagy egészben – készült munka”.

Azért a pénz az úr

A Stanford Egyetem tanulmányának eredményét támasztja alá, hogy a tudományos világ félelmei ellenére az MI-kutatások cseppet sem lassulnak. Az OpenAI volt kutatói által alapított Anthropic nevű startup ötmilliárd dollárt kíván költeni egy új mesterséges intelligenciára, amely a tervek szerint tízszer lenne erősebb a jelenlegi nyelvi modellnél. A rendkívüli hardverkapacitásokat igénylő fejlesztés eredményeként virtuális asszisztensek jönnének létre, amelyek képesek e-mailekre válaszolni, kutatást folytatni, művészeti termékeket, könyveket, képeket vagy éppen zeneműveket alkotni. Amennyiben ez a fejlesztés néhány éven belül megvalósul, sokaknak kell új állás, azaz pontosabban új szakma után nézniük.•


 
Archívum
 2011  2012  2013  2014  2015  2016  2017  2018  2019  2020  2021  2022  2023  2024
Címkék

Innotéka