Bojové Roboty: Zakázané Nelze Povolit

Obsah:

Bojové Roboty: Zakázané Nelze Povolit
Bojové Roboty: Zakázané Nelze Povolit

Video: Bojové Roboty: Zakázané Nelze Povolit

Video: Bojové Roboty: Zakázané Nelze Povolit
Video: НАПАЛ НА РОБОТА - ЗАЩИТА БАЗЫ В МАЙНКРАФТ 100% ТРОЛЛИНГ МУЛЬТИК ЛОВУШКИ 2024, Smět
Anonim

Odborníci se setkali v Ženevě, ale dohody nebylo možné dosáhnout: USA a Rusko zablokovaly veškerou práci. Možná je to jediný čas, kdy hegemoni fungují tak harmonicky.

Bojové roboty: zakázané nelze povolit
Bojové roboty: zakázané nelze povolit

Setkání odborníků ve formátu Úmluvy o nelidských zbraních skončilo v Ženevě, kde se rozhodovalo o osudu takzvaných bojových robotů - autonomních zbraní, které k porážce cílů používají umělou inteligenci. Nelze však dosáhnout žádných dohod. USA, Rusko, Jižní Korea, Izrael a Austrálie byly mezi menšinovými národy, kterým se podařilo blokovat sentiment směrem k úplnému zákazu zabijáckých robotů.

Ačkoli na světě stále neexistuje žádná funkční autonomní zbraň, technologie zůstává, abych tak řekl, humánní - lze ji vyvíjet a zkoumat. Je zajímavé, že Spojené státy a Rusko jsou podle Stockholmského institutu pro výzkum míru (SIPRI) na prvním místě v seznamu největších vývozců zbraní. Jižní Korea, Izrael a Austrálie v tomto žebříčku také nezaostávají - patří mezi 20 nejlepších hráčů na trhu.

A ačkoli Čína (pátý vývozce zbraní na světě, stálý člen Rady bezpečnosti OSN zastává zákaz bojových robotů), během jednání se jí nepodařilo vyladit váhy jejím směrem. Dnes 26 zemí otevřeně podporuje zákaz používání umělé inteligence ve válce. Jiní se vyhýbají jasné pozici) Francie a Německo (třetí a čtvrtý vývozce zbraní) nabízejí podepsání dokumentu, který by upevnil nadřazenost člověka nad umělou inteligencí, ale je pravděpodobnější na straně těch, kteří chtějí vyvíjet autonomní bojová vozidla.

"Je jistě zklamáním, že malá skupina vojenských gigantů dokáže zadržet vůli většiny," komentovala výsledek ženevských setkání Mary Verhem, koordinátorka Kampaně za zastavení robotů zabijáků.

Situace skutečně vypadá jako spiknutí ozbrojených monopolních magnátů, vzhledem k tomu, že USA a Rusko obvykle nemohou dosáhnout alespoň nějakého kompromisu v důležitých otázkách. Vezměte si ten syrský: Washington a Moskva si vzájemně blokovaly svá řešení poté, co letos na jaře použily v Sýrii chemické zbraně. Mimochodem, dusivé plyny a jiné toxické látky pro vojenské účely byly dříve zakázány Úmluvou o nelidských zbraních.

Další schůzka o osudu zabijáckých robotů se bude konat v Ženevě v listopadu.

Proč chtějí zakázat autonomní zbraně

Zastánci zákazu robotické války trvají na tom, že bojiště není místem pro umělou inteligenci. Podle jejich názoru představují tyto technologie obrovskou hrozbu. Přinejmenším dnes není jasné, jak bude stroj rozlišovat mezi bojovníky (těmi, kteří jsou přímo zapojeni do nepřátelských akcí) od nebojujících (personál vojenské služby, kteří mohou používat zbraně pouze k sebeobraně) a civilisty obecně. Existuje možnost, že dílo zabije zraněné a ty, kteří se vzdají, což je podle současných válečných pravidel zakázáno.

Co brání tomu, aby práce přerušila všechny strany konfliktu, dokonce i vlastníky těchto zbraní? Prvky umělé inteligence se již úspěšně používají ve vojenském vybavení, raketách; roboty láká k průzkumu, ale poslední slovo stále zůstává na lidech. Autonomní zbraně nebudou poslouchat rozkazy velitelů - proto jsou autonomní. Proto jsou vojenští generálové z různých zemí skeptičtí ohledně zavádění strojů do řad personálu.

A ještě jednou otevřenou otázkou je mezinárodní terorismus. Autonomní zbraňová technologie se může dostat do špatných rukou a může být nakonec hacknuta. Před rokem ruský prezident Vladimir Putin řekl, že vládcem světa bude ten, kdo se stane lídrem ve vývoji umělé inteligence. V případě autonomních zbraní se ten, kdo získá přístup k těmto technologiím, stane vládcem světa. A k tomu vlastně potřebujete pouze počítač a podvodníka, který projde bezpečnostními systémy. Mimochodem, Pentagon byl hacknut více než jednou. V důsledku toho nikdo nemůže poskytnout záruky, že autonomní zbraně zůstanou nedotknutelné.

Není také jasné, kdo bude právně odpovědný, pokud dojde k válečnému zločinu v důsledku fungování autonomního zbraňového systému. "Inženýr, programátor, výrobce nebo velitel, který použil zbraň?" Pokud odpovědnost nelze definovat tak, jak to vyžaduje mezinárodní humanitární právo, lze uznat rozmístění těchto systémů jako legální nebo eticky odůvodněné? “Konstatuje Mezinárodní výbor Červeného kříže.

Zajímavé je, že vědci také prosazovali zákaz bojových robotů. V červenci letošního roku podepsaly více než dva tisíce vědců, zejména tvůrce Tesly a SpaceX Elon Musk a spoluzakladatelé DeepMind, dokument, že nebudou vyvíjet smrtící autonomní zbraně. Google udělal totéž. Technický gigant se vzdal práce na projektu Pentagonu Maven. A v roce 2017 již řada vědců vyzvala OSN, aby zakázala vytváření zabijáckých robotů.

Mimochodem, otázka umělé inteligence ve válce se objevila na pořadu jednání OSN na konci roku 2013, ale od té doby se prakticky nic nezměnilo. Teprve letos byla zahájena setkání odborníků ve formátu Úmluvy o nelidských zbraních. To znamená, že trvalo více než čtyři roky, než přišlo do nějakého víceméně praktického letadla.

Proč nechtějí zakázat autonomní zbraně

Bez ohledu na to, jak znělo to zní, jsou závody ve zbrojení hlavním důvodem, proč nechtějí zakázat zabijácké roboty. Putin má pravdu: kdo získá autonomní zbraně jako první, ovládne svět. Oficiálně je tento důvod vyjádřen.

Hlavním argumentem odpůrců zákazu je nemožnost oddělení civilní umělé inteligence od armády. Stejně jako my nezakážeme kuchyňské nože jen proto, že je mohou teroristé používat. Ve skutečnosti je prakticky nemožné oddělit civilní vývoj umělé inteligence od armády. Nyní však mluvíme o zákazu této zbraně, která bude schopna nezávisle určovat a útočit na cíle. Může se jednat o projekt Maven, na kterém americké ministerstvo obrany pracuje ve spolupráci s Boozem Allenem Hamiltonem (Google smlouvu odmítl).

Vývojáři Maven chtějí naučit drony analyzovat obrázky, zejména ze satelitů a - potenciálně - identifikovat cíle útoku. Pentagon začal na projektu pracovat již v dubnu 2017 a doufal, že první pracovní algoritmy získá do konce roku. Ale díky demarši zaměstnanců Google se vývoj zpozdil. Od června tohoto roku mohl systém podle Gizmoda rozlišovat mezi elementárními objekty - auty, lidmi, ale v obtížných situacích se ukázal jako zcela bezvýznamný. Pokud bude přesto zákaz autonomních zbraní přijat na úrovni OSN, bude nutné projekt zrušit, zatímco Pentagon tvrdí, že jejich vývoj může zachránit životy, protože jej lze naprogramovat tak, aby fungoval přesněji a spolehlivěji ve srovnání s lidmi.

"Musíte pochopit, že mluvíme o technologii, že nemá vzorky, které by fungovaly. Myšlenka na takové systémy je stále velmi povrchní," poznamenal v předvečer setkání v Ženevě na ruském ministerstvu zahraničí. - Podle našeho názoru lze na autonomní zbraně použít mezinárodní právo, zejména humanitární sektor. Nepotřebují modernizaci ani adaptaci na systémy, které dosud neexistují. “

No, a ještě jeden skutečný, ale neznělý důvod, jsou peníze. Trh s vojenskými technologiemi umělé inteligence se dnes odhaduje na více než šest miliard dolarů. Ale do roku 2025 se toto číslo ztrojnásobí - na téměř 19 miliard, podle analytiků americké společnosti MarketsandMarkets. Pro největší vývozce zbraní je to dobrá motivace k blokování jakýchkoli omezení vývoje zabijáckých robotů.

Pokrok nelze zastavit

Zastánci zákazu autonomních zbraní poznamenávají, že technologie se vyvíjí velmi rychle a umělá inteligence se nakonec stane zbraní - otázkou času. V jejich slovech je logika. Umělá inteligence je nedílnou součástí čtvrté vědecké a technologické revoluce, která pokračuje nyní. Je třeba mít na paměti, že technický pokrok je tak či onak spojen s vojenskými operacemi. Třetí vědecká a technologická revoluce trvala až do poloviny 50. let 20. století, to znamená, že její vrchol spadl do období druhé světové války.

V roce 1949 přijala Ženeva Úmluvu o ochraně civilních osob v době války. V poválečném období rovněž doplnily IV Haagskou úmluvu z roku 1907, která stanovila pravidla pro vedení války. To znamená, že hrůzy druhé světové války se staly katalyzátorem tohoto procesu. Obránci lidských práv tedy nechtějí čekat na třetí světovou válku, aby ochránili lidstvo před autonomními zbraněmi. Proto trvají na tom, že je nyní nutné rozhodnout o osudu zabijáckých robotů.

Podle odborníků organizace Human Rights Watch je použití bojových robotů v rozporu s Martensovou deklarací - preambulí Haagské úmluvy o válečných právech a zvyklostech z roku 1899. Jinými slovy, vraždící roboti porušují zákony lidstva a požadavky veřejného povědomí (pozice byla potvrzena v IV Haagské úmluvě).

"Musíme spolupracovat na zavedení preventivního zákazu těchto zbraňových systémů dříve, než se rozšíří po celém světě," uvedla Bonnie Doherty, vedoucí výzkumná pracovnice ve zbrojním oddělení Human Rights Watch.

Zakázat zabijácké roboty tentokrát nefungovalo. Lze předpokládat, že schůzky v listopadu budou také neplodné. Je pravda, že téměř všechny země souhlasí - tuto technologii nelze dopustit gravitací a bojové roboty takový stop-jeřáb potřebují. Stále však není jasné, zda lidstvo bude mít čas to vytáhnout, když to bude potřeba.

Doporučuje: