Egy karnyújtásnyira van a Skynet?

Egy karnyújtásnyira van a Skynet?

A Boston Dynamics amerikai tengerészgyalogság számára fejleszett felszerelésszállító robotját (LS3) tesztelik a 2014-es Rim of the Pacific hadgyakorlaton (forrés: Sarah Dietz/U. S. Marine Corps)

Támogassa a Magyar Hangot!

Legyen Ön is előfizetőnk, rendelje házhoz a Magyar Hangot! Ha más módon támogatná a lapot ebben a nehéz helyzetben, azt is megteheti (PayPal és bankkártya is)! Köszönjük! ELŐFIZETEK

Egyre többen aggódnak amiatt, hogy a mesterséges intelligencia mindinkább veszélyt jelenthet az emberiségre. S való igaz, sok minden realitássá vált, ami még húsz éve is tudományos fantasztikumnak számított. A brit védelmi minisztérium friss tanulmánya rámutat, mivel folyamatosan olcsóbb lesz ilyen intelligenciák fejlesztése, szélesebb körben tudnak hozzájutni, így a kibertámadásoknak is jobban ki lesz téve az emberiség. „A XXI. század elején a Skynet elnevezésű katonai-védelmi program öntudatra ébredt. Mivel az emberiséget veszélyesnek tartotta saját létezésére, ezért elhatározta, elsőként lecsap rá. A túlélők a nukleáris tüzet csak az ítélet napjaként emlegették, miközben új rémálommal, a gépek elleni háborúval szembesültek. A Skynet, hogy levadássza és kiiktassa az emberiséget, terminátorokat épített.” (Terminator: Megváltás)

Ismerős mondatok az immár harmincöt éve hódító Terminator-sagából, és valahogy azóta is nagyon sokan így képzelik el azt, ahogy egyszer majd a saját magunk által létrehozott, időközben rendkívül intelligenssé váló gépek megpróbálják átvenni a hatalmat az emberek fölött. S ugyan tudjuk, hogy az amúgy épp a napjainkra jósolt Skynet-manővertől még nagyon messze állunk, a technikai-tudományos fejlődés mégis mintha vészesen ebbe az irányba mutatna. Noha nincsenek az emberekre kísértetiesen hasonlító, attól első ránézésre és beszélgetésre nem megkülönböztethető androidok, viszont hosszú évek óta megy az úgynevezett mesterséges intelligencia (MI) fejlesztése – a témáról vannak felszíni sejtéseink, de a mélyére nemigen látunk. Talán azért, mert a fejlesztéseket elsősorban hadipari cégek vagy a nagy, informatikai multik végzik, ők pedig nem kötik az átlagember orrára, hol is tartanak éppen.

Pontosan mi is ez az MI, s vajon mit tudhatnak, mire lehetnek képesek és meddig jutottak el az „öntudatra ébredésben”? Külön érdemes hangsúlyozni, hogy itt elsősorban nem fizikai eszközökre kell gondolni – bár a Boston Dynamics főként a hadiparnak fejlesztett robotjai egyre jobbnak és precízebbnek tűnnek –, hanem olyan számítógépes programokra, különféle algoritmusokra, amelyek rendelkeznek némi önállósággal; netán hozhatnak már saját hatáskörben, emberi beavatkozás nélkül döntéseket is, miközben a megszerzett tapasztalataikkal önmaguktól képesek lehetnek a tanulásra, önfejlődésre. Ilyenek például a manapság intenzív tesztelés fázisában járó különféle önvezető gépjárművek (vagy épp pilóta nélküli repülőgépek, drónok) központi számítógépei, vagy olyan internetes programok, amelyek például azt figyelik, kit milyen személyre szabott hirdetésekkel érdemes bombázni. Ennek egy továbbgondolt változata az az állítólag már a Facebooknál bevetett algoritmus, amely egy szabályrendszer alapján moderálja, és akár le is tilthatja a felhasználók posztjait, és idővel a saját tapasztalatai segítségével egyre intelligensebben és szofisztikáltabban felismeri a „káros” tartalmakat. Jó kérdés persze, hogy valóban használnak-e már ilyen programokat. Ha igen, akkor akadnak még melléfogások, például a művészeti alkotások esetében. (Nemrég például a Delacroix A Szabadság vezeti a népet című festményét is letiltották egy rövid időre, mert pornográfiaként értelmezték a szabadság allegorikus alakjának, Marianne-nak fedetlen a keblét. Ami tényleg fedetlen, de semmiképp sem pornográf.)

De ilyen MI-nek számítanak egyébként az okostelefonok beépített, hangvezérléssel működő asszisztensei is, amely funkció például az új Windows operációs rendszerekben is megtalálható. Vagy ilyen, az amerikai Amazon netes bolthálózat fejlesztette okos házvezető, Alexa; amelynek egyik példánya furcsa „öntudatra ébredésével” került be nemrég a hírekbe, miután kérés nélkül felvett egy családi magánbeszélgetést, és azt elküldte egy ismerősüknek. A Microsoft is próbálkozott már ilyesmivel, egy 15-16 éves tini szintjére fejlesztett okosprogramjukat tanulási céllal engedték ki a Twitter közösségi portálra. Kísérletük hamar kudarcot vallott, miután az algoritmus profilját a kommentelők durva szövegekkel szétbombázták, a program Hitler-imádó, rasszista-szexista, durván káromkodó felhasználóvá vált, így a szoftveróriás gyorsan le is kapcsolta a hálóról. Ennél ügyesebb a Google mesterséges intelligenciája, az AlphaGo: az már képes volt legyőzni az embert a go játékban. A Facebook közben olyan MI-t dobott be, amely át tudja venni egy emberi játékos szerepét a Starcraft II. című számítógépes stratégiai játékban, miután az adott felhasználó kilép az online játék közben.

Van miért aggódni

Noha akadnak tehát már ügyes okosprogramok, a MI-fejlettség még messze áll a Skynettől, viszont többen – köztük a nemrég elhunyt ragyogó elméleti fizikus, Stephen Hawking; illetve épp az önműködő autókat, tehát egyfajta MI-t fejlesztő Tesla-vezér, Elon Musk is – arra figyelmeztetett, hogy ezek a próbálkozások valós veszélyeket rejtenek. Főleg, ha ezek az algoritmusok egy közös hálózaton képesek lesznek egymással kommunikálni, illetve, ne adj’ Isten, egymástól, emberi beavatkozás nélkül tanulni is. Ennek lehetőségére figyelmeztet egy friss tanulmányában a brit védelmi minisztérium is. A BBC által is ismertetett 76 oldalas, Emberek és gépek csapatmunkája című dokumentum elsősorban az intelligens harcászati eszközök (drónok, robotok) és a katonák harctéri együttműködésnek, hatékonyságának lehetőségeit vizsgálta, ám az MI kapcsán leírtak pár érdekes felvetést, ami nem túl biztató a jövőre nézve. Szerintük nagy gondot jelent, hogy több fejlesztő – így a Google a londoni székhelyű DeepMind kutatási programjában – is valós idejű számítógépes stratégiai játékokkal, például az előbb említett Starcrafttal edzi az algoritmusok problémamegoldó képességét.

A brit védelmi minisztérium szerint nagyon közel az a pillanat, amikor egy MI gyorsabban elsajátíthat egy feladatot, mint az ember. Azaz, egy gép gyorsabban tud komplex problémákat megoldani a szakértőknél, és előfordulhat, hogy ebben már nem tudják követni, megállítani. Ez pedig azért különösen problematikus, mert, mint írják, a fejlettségi szinttel fordítottan arányosan egyre olcsóbb lesz egy-egy ilyen algoritmus kifejlesztése, ami azzal járhat, hogy akár terrorszervezetek, vagy kisebb, ám katonai potenciáljukat fitogtató szakadár államok is képesek lesznek beszerezni és működtetni egy-egy ilyen rendszert. Így 2020-tól tartani kell átfogó – s egyre követhetetlenebb, akár a civil infrastruktúrát (például erőműveket, energiahálózatokat) is érintő – kibertámadásoktól. A helyzetet bonyolítja, hogy minél olcsóbb a fejlesztés, annál nehezebb jogilag szabályozni a használatot, arról nem beszélve, ha terrorcsoportok is hozzáférnek a technológiához. A dokumentum idézi a Center for a New American Security (CNAS) egyik vezető kutatójának ezzel kapcsolatos frappáns összegzését. A Robotika a csatamezőn című (Robotics on the Battlefield) munkájában Paul Scharre kifejtette: „A robotika forradalmának nyertesei nem azok lesznek, akik elsőként fejlesztik ki ezeket az eszközöket, vagy a legfejlettebb technológiával bírnak, hanem azok, akik mindezt a legügyesebben képesek lesznek használni.” A tanulmány ugyanis arra is felhívta a figyelmet, hogy mivel a fejlesztéseket főleg a magánszektorban, privát és nem katonai-védelmi cégek végzik, a hadseregben emiatt nő az ezzel kapcsolatos szaktudáshiány, ami ugyancsak veszélyeket rejt.

Többen nyugtatnak

Közben akadnak, akik nem látják ennyire borúsan a dolgokat. Steven Murdoch úgy véli, a kétségkívül egyre ügyesebb okosprogramok, önálló döntésekre is képes algoritmusok ellenére egy jó ideig még szükség lesz emberi irányításra és segítségre a mesterséges intelligenciáknak ahhoz, hogy átfogó hadászati műveleteket hajtsanak végre a digitális infrastruktúra ellen. „Látni kell, még azok a mesterséges intelligenciák sem túl kreatívak, összetett gondolkodásúak, amelyek képesek Starcrafttal vagy éppen góval játszani, mert egy összetett harcászati feladathoz képest egyszerű szabályrendszerben, ráadásul zárt közegben és lehetőségek között működnek” – állítja a University College London vezető informatikabiztonsági kutatója. Murdoch szerint a lopott technológia miatt sem kell hisztérikusan aggódni, mert ezek annyira specifikusak, és olyan szaktudást igényelnek, hogy mire arra egy terrorszervezet véletlenül meg is találná a megfelelő embert, addigra a meglopott cégnél képesek blokkolni, semlegesíteni vagy hatástalanítani az ellopott algoritmusokat. Ugyancsak a növekvő aggodalmat tompíthatja a Google friss bejelentése, ha ugyanis hihetünk a MI-fejlesztésben igen aktív internetes óriásnak, ők a témára kiadott irányelveikben a minap jelezték, nem kívánnak semmilyen harcászati célú, másoknak sérülést okozó fejlesztésben részt venni.

Abban egyébként nagyjából mindenki egyetért, hogy jogilag ideje lenne mind mélyebb részleteiben szabályozni a szektort, már csak a magán- és hadipari résztvevők jogosítványai, technológiákhoz való hozzáférése miatt is. A brit tanulmány például azt szorgalmazza, állítsanak fel, és tartsanak naprakészen egy olyan névjegyzéket, ahol szakterületenként vezetik a robotikában és MI-kutatásban, fejlesztésben és működtetésében jártas, nemzetbiztonsági szempontból átvilágított állampolgárokat, akiket bármilyen vészhelyzet esetén bármikor szolgálatba lehet majd állítani.

Ennek a cikknek a nyomtatott változata a Magyar Hang 5. számában jelent meg, 2018. június 15-én. Hetilapunkat keresse az újságárusoknál, vagy elektronikus formában a Digitalstandon!  Hozzászólna? Várjuk Facebook-oldalunkon.