galéria megtekintése

Robot, ne ölj!

2 komment


Palugyai István

Közel ezer tudós és műszaki szakember, köztük Stephen Hawking, Elon Musk vagy a híres nyelvész-filozófus, Noam Chomsky emelte fel a szavát nyílt levélben a gyilkos harci robotok betiltásáért. A hétfőn nyilvánosságra hozott levelet kedden ismertették a mesterséges intelligencia kutatásával foglalkozó Buenos Aires-i kongresszuson.

Valószínűleg sokan olvasták annak idején Isaac Asimov híres tételét a robotika három törvényéről. Az amerikai író sci-fi regényeiben a robotok híven követik ezeket, miszerint

Helios, az MIT csapat Atlas robotját a Boston Dynamics jegyzi, ez az egyik leghíresebb, fegyverekkel is felszerelhető prototípus
Helios, az MIT csapat Atlas robotját a Boston Dynamics jegyzi, ez az egyik leghíresebb, fegyverekkel is felszerelhető prototípus
Patrick T. Fallon / Reuters

„1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.

 

2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.

3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba."

S bár a mesterséges intelligencia kutatóinak zöme saját jövőbeli robotjait is úgy képzeli el, hogy ezekre érvényesek legyenek a törvények, a valóság nem ennyire rózsás. Az ember saját fajtársai elleni agressziója érdekében hajlamos elfeledkezni az idealista eszmékről.

A nonprofit Élet Jövője Intézet (Future of Life Institute) szervezésében született kezdeményezés aláírói a gyilkos hadászati robotok elleni fellépésükkel – mint kijelentik – egy katasztrófát szeretnének megelőzni. Az ilyen fegyverek bevetése elleni lépésekről a közelmúltban ENSZ-bizottságokban is tárgyaltak, és bizonyos típusok betiltása is szóba került.

A robotfegyverek hadba állításával az érzelmi alapon született döntéseket akarják minimalizálni a hadszíntéren a seregek szolgálatában álló fejlesztők – magyarázza a Christian Science Monitor. A drónok ellenzői azonban úgy látják, „a mesterséges intelligencia ilyen célú felhasználása káros az emberiségre".

Az amerikai hadászati robotika legismertebb műhelye, a DARPA versenyt hirdetett, melyen különböző pályákon kell akadályokat leküzdeni humanoid robotokkal. Itt éppen a Team WPI-CMU robotja szerencsétlenkedik a mászós pályán
Az amerikai hadászati robotika legismertebb műhelye, a DARPA versenyt hirdetett, melyen különböző pályákon kell akadályokat leküzdeni humanoid robotokkal. Itt éppen a Team WPI-CMU robotja szerencsétlenkedik a mászós pályán
Patrick T. Fallon / Reuters

A levelet aláírta az Apple-alapító Steve Wozniak, vagy a Google mesterséges intelligencia csoportját irányító Demis Hassabis is.

Stephen Hawking a harci robotokat már egy decemberi BBC-interjúban az emberiség végzetének nevezte. „A lassú biológiai evolúció korlátai miatt az ember nem képes versenyezni a mesterséges intelligenciával, mely a helyébe léphet” – jósolta a tudós.

Eric Horvitz, a Microsoft mesterséges intelligencia kutatásaiért felelős vezetője is aláírta a nyílt levelet, de egy internetre felrakott videóban védelembe vette a más – például egészségügyi – célú MI-kutatásokat. Ezeket szerinte egy általános tilalom hátráltatná.

Közszemlére tett Artemis hadászati drón Párizsban
Közszemlére tett Artemis hadászati drón Párizsban
Pascal Rossignol / Reuters

Majdani elterjedtségük miatt a „jövő Kalasnyikovjainak” tartott hadászati robotok ellen már januárban született egy nyílt levél Musk, Hawking, Bill Gates és Wozniak aláírásával. Akkor a mesterséges intelligencia csapdájára hívták fel a figyelmet. A gépek számos feladatot átvettek és átvesznek tőlünk, de még nem tekinthetők szuperintelligensnek: a fejlődés ütemét még kézben tartja az ember. Eljöhet azonban a pillanat, akár néhány évtizeden belül, amikor a mesterséges intelligencia már fenyegetést jelenthet. Felfegyverzett drónokat sok hadsereg szeretne: meglepik az ellenséget, olcsóbbak a vadászgépeknél, és ha lezuhannak, nincs emberi veszteség. A nyílt levél szerint ezek az eszközök ugyanakkor megkönnyíthetik nemzetek  destabilizálását, leigázását, bizonyos etnikai csoportok célzott kiirtását.

Drónokat tesztel a kínai hadsereg
Drónokat tesztel a kínai hadsereg
STRINGER / Reuters

A történelem jól mutatja, milyen nehéz egy ilyen tilalmat jelentéssel megtölteni. A biológiai és vegyi fegyvereket tiltó 1925-ös genfi jegyzőkönyvet például Japán és az USA csak a hetvenes évek végén írta alá, s ilyen fegyvereket azóta is alkalmaztak egyes hadseregek ellenségeik és civilek ellen.

P. W. Singer, a jövő háborúinak jól ismert kutatója már korábban kijelentette, hogy „a robotika bevezetése a háborúba éppolyan komoly – és önveszélyes! – lépés, mint az atombomba elkészítése volt, épp ezért nem ártana egy pillanatra megállni, és gondolkodni”. 

Bejelentkezés
Bejelentkezés Bejelentkezés Facebook azonosítóval

Regisztrálok E-mail aktiválás Jelszóemlékeztető

Tisztelt Olvasó!

A nol.hu a továbbiakban archívumként működik, a tartalma nem frissül, és az egyes írások nem kommentelhetőek.

Mediaworks Hungary Zrt.