galéria megtekintése

Féljünk az ostoba gyilkos robotoktól?

0 komment

Karafiáth Luca

Az érzelmektől vezérelt emberek a háború hevében gyakran hoznak rossz döntéseket, ami ártatlan civilek életébe kerülhet – nyilatkozta lapunknak Ronald Arkin. A Georgia Tech professzora szerint a robotok – az autonóm rendszerek – csökkenthetik a veszteséget. Mások szerint pont fordítva.

Az amerikai haditengerészet május eleje óta próbálgatja Kalifornia partjainál a 40 méter hosszú Sea Hunter képességeit. A hadihajó teljesen autonóm, azaz nincs legénysége. De folynak kísérletek robot vezérelte harckocsikkal, vadászbombázókkal és tüzérségi eszközökkel is.

Fotó: Reuters

A mesterséges intelligenciával rendelkező katonai technológia rohamos fejlődése sokakat megijeszt. A köztudatban olyan félelmek társulnak hozzá, mint az emberi munkaerőt kiszorító vagy egyenesen az emberek ellen forduló gyilkos robotok rémképe.

 

A világhírű tudós, Stephen Hawking vagy a milliárdos techguru, ­Elon Musk is arról beszél, hogy a mesterséges intelligencia helytelen felhasználása az emberiségre leselkedő legnagyobb fenyegetés.

Ronald Arkin
Ronald Arkin

Ronald Arkin, a Georgia Tech (Georgiai Műszaki Egyetem) mesterséges intelligenciával foglalkozó professzora ellenben azok közé tartozik, akik szerint a robotkatonák – más néven az autonóm harctéri fegyverrendszerek (LAWS) – bevetése végső soron humánusabb hadviseléshez vezethet. A lapunknak adott interjúban elmondta, abból indul ki, hogy a jelenlegi harctéri állapotok tarthatatlanok:

– Az érzelmektől vezérelt emberek a háború hevében gyakran rossz döntéseket hoznak, ami ártatlan civilek életébe kerülhet.

Ezzel szemben az autonóm rendszerek a nemzetközi humanitárius jog alapelveit követve hoznának lehetőség szerint a hús-vér katonáknál jobb, a lehető legkisebb járulékos veszteséggel járó döntéseket.

Ezzel Arkin azt állítja, hogy az ember eredendően alkalmatlan a genfi egyezmény előírásainak betartására, azt helyesebb lenne inkább a gépekre bízni. Az ellentábor képviselői azonban számos érvet sorakoztatnak fel a halálfélelemtől és az érzelmi befolyásolhatóságtól mentes robotok alkalmazása ellen.

Frank Sauer, a Nemzetközi Bizottság a Robotfegyverzet-korlátozásért kutatója a Népszabadságnak arról beszélt, naivnak tartja az embernél humánusabb robotkatonák gondolatát. – Először is, minden számítógépes rendszerben kódolva van a programhiba lehetősége. Ez igaz a telefonodra, a számítógépedre, és igaz lenne az autonóm harctéri fegyverrendszerekre is – figyelmeztetett.

Érvelésében kitért arra a morális dilemmára is, ami az emberi méltóság alapelve és az emberi élet kioltására képes gépek között feszül. Arról nem is beszélve, hogy ha egy autonóm rendszer hibát követne el, utóbb nehezen lehetne felelősségre vonni a gépet vagy programozóját.

Ez még nem a jövő hadszíntere: sanghaji játszótér páncélossal és robotokkal
Ez még nem a jövő hadszíntere: sanghaji játszótér páncélossal és robotokkal
Aly Song / Reuters

Az önálló döntés kérdése egyébként a vita központi eleme.

– A döntéshozói hatalom átruházása az auto­nóm rendszerekre nemcsak morálisan megkérdőjelezhető, de politikai és katonai értelemben is ostobaság lenne, mivel az algoritmusok interakciója sokszor teljesen kiszámíthatatlan

– fejtette ki Sauer. A hibás algoritmusok példájaként azt a két, egymást automatikusan túllicitáló Amazon.com-számítógépet hozta fel, amelyek végül 23 millió dollárban szabták meg egy könyv árát.

Frank Sauer
Frank Sauer

– Gondoljunk csak bele, milyen következménnyel járna egy hasonló jellegű hiba, ha az mondjuk egy amerikai és egy kínai autonóm fegyverrendszer kapcsolatba lépésekor történne meg! Az eszkaláció, sőt még a háború esélye is jelentősen megnőne – figyelmeztetett Sauer.

Abban viszont mindkét kutató és a tudományos közösség nagy része is egyetért, hogy a terminátorszerű robotoktól való félelem alaptalan. Sauer szerint a mesterséges intelligencia harcászati alkalmazásánál a legnagyobb veszély éppen a robotok korlátozott intelligenciájában rejlik. – Leegyszerűsítve a dolgot azt mondhatnánk, hogy ezek a rendszerek, habár mesterségesen intelligensek, valójában eléggé buták. Éppen ettől válnak olyan veszélyessé – magyarázta a kutató.

Az öntudatra ébredő mesterséges intelligencia tehát egyelőre utópia, a beprogramozott algoritmusok alapján önállóan döntő fegyverek hadba állításától viszont már csak pár lépésnyire vagyunk. A tudóstársadalom egyik része a technológia betiltásáért küzd, míg az Arkinhoz hasonlóan a technológia továbbfejlesztése mellett állók szerint a megoldás a szigorúan felügyelt fejlesztés – és egy moratórium bevezetése – lenne.

Bejelentkezés
Bejelentkezés Bejelentkezés Facebook azonosítóval

Regisztrálok E-mail aktiválás Jelszóemlékeztető

Tisztelt Olvasó!

A nol.hu a továbbiakban archívumként működik, a tartalma nem frissül, és az egyes írások nem kommentelhetőek.

Mediaworks Hungary Zrt.