2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba."
S bár a mesterséges intelligencia kutatóinak zöme saját jövőbeli robotjait is úgy képzeli el, hogy ezekre érvényesek legyenek a törvények, a valóság nem ennyire rózsás. Az ember saját fajtársai elleni agressziója érdekében hajlamos elfeledkezni az idealista eszmékről.
A nonprofit Élet Jövője Intézet (Future of Life Institute) szervezésében született kezdeményezés aláírói a gyilkos hadászati robotok elleni fellépésükkel – mint kijelentik – egy katasztrófát szeretnének megelőzni. Az ilyen fegyverek bevetése elleni lépésekről a közelmúltban ENSZ-bizottságokban is tárgyaltak, és bizonyos típusok betiltása is szóba került.
A robotfegyverek hadba állításával az érzelmi alapon született döntéseket akarják minimalizálni a hadszíntéren a seregek szolgálatában álló fejlesztők – magyarázza a Christian Science Monitor. A drónok ellenzői azonban úgy látják, „a mesterséges intelligencia ilyen célú felhasználása káros az emberiségre".
|
Az amerikai hadászati robotika legismertebb műhelye, a DARPA versenyt hirdetett, melyen különböző pályákon kell akadályokat leküzdeni humanoid robotokkal. Itt éppen a Team WPI-CMU robotja szerencsétlenkedik a mászós pályán Patrick T. Fallon / Reuters |
A levelet aláírta az Apple-alapító Steve Wozniak, vagy a Google mesterséges intelligencia csoportját irányító Demis Hassabis is.
Stephen Hawking a harci robotokat már egy decemberi BBC-interjúban az emberiség végzetének nevezte. „A lassú biológiai evolúció korlátai miatt az ember nem képes versenyezni a mesterséges intelligenciával, mely a helyébe léphet” – jósolta a tudós.
Eric Horvitz, a Microsoft mesterséges intelligencia kutatásaiért felelős vezetője is aláírta a nyílt levelet, de egy internetre felrakott videóban védelembe vette a más – például egészségügyi – célú MI-kutatásokat. Ezeket szerinte egy általános tilalom hátráltatná.
|
Közszemlére tett Artemis hadászati drón Párizsban Pascal Rossignol / Reuters |
Majdani elterjedtségük miatt a „jövő Kalasnyikovjainak” tartott hadászati robotok ellen már januárban született egy nyílt levél Musk, Hawking, Bill Gates és Wozniak aláírásával. Akkor a mesterséges intelligencia csapdájára hívták fel a figyelmet. A gépek számos feladatot átvettek és átvesznek tőlünk, de még nem tekinthetők szuperintelligensnek: a fejlődés ütemét még kézben tartja az ember. Eljöhet azonban a pillanat, akár néhány évtizeden belül, amikor a mesterséges intelligencia már fenyegetést jelenthet. Felfegyverzett drónokat sok hadsereg szeretne: meglepik az ellenséget, olcsóbbak a vadászgépeknél, és ha lezuhannak, nincs emberi veszteség. A nyílt levél szerint ezek az eszközök ugyanakkor megkönnyíthetik nemzetek destabilizálását, leigázását, bizonyos etnikai csoportok célzott kiirtását.
|
Drónokat tesztel a kínai hadsereg STRINGER / Reuters |
A történelem jól mutatja, milyen nehéz egy ilyen tilalmat jelentéssel megtölteni. A biológiai és vegyi fegyvereket tiltó 1925-ös genfi jegyzőkönyvet például Japán és az USA csak a hetvenes évek végén írta alá, s ilyen fegyvereket azóta is alkalmaztak egyes hadseregek ellenségeik és civilek ellen.
P. W. Singer, a jövő háborúinak jól ismert kutatója már korábban kijelentette, hogy „a robotika bevezetése a háborúba éppolyan komoly – és önveszélyes! – lépés, mint az atombomba elkészítése volt, épp ezért nem ártana egy pillanatra megállni, és gondolkodni”.
További tudományos híreink