fbpx

Vlády přispívají na roboty-zabijáky z prostého důvodu: mrtví vojáci k popularitě politiků zkrátka nepřispívají

Zveřejněno: 12. 11. 2018
Přečteno 1102x

Nedávno zesnulý fyzik Stephen Hawking se obával toho, že se umělá inteligence obrátí proti lidem, tedy svým tvůrcům, a vyhladí na Zemi veškerý život. Podle něj v určité etapě vývoje nemusíme umělou inteligenci stačit kontrolovat a její cíle pak mohou být zcela odlišné od těch našich. I my jsme nedávno psali o tom, že umělá inteligence nedodržuje zákony Isaaca Asimova. To, že by stroje v žádném případě neměly ublížit člověku, dávno neplatí. Tím méně, pokud se začneme bavit o moderních zbraních.

Související…

Roboti porušují zákony robotiky Isaaca Asimova. První zabíjel už v roce 1979Poslední vzkaz Stephena Hawkinga: Vznikne rasa superlidí, která nás zničíVětšinu současných profesí zvládnou roboti velice brzo líp než lidi

Příchod robotů, kteří budou zabíjet nepřátele na potkání, nehrozí. Problém je ovšem v tom, že technologické mocnosti spolu v současnosti podnikají něco jako malý závod ve zbrojení s velkými důsledky. Tvrdí to například plukovník Drew Cukor, absolvent prestižních vojenských a bezpečnostních univerzit a v současnosti také náčelník týmu AWCFT (Algorithmic Warfare Cross-Function Team), který v Pentagonu odpovídá za implementaci pokročilých technologií umělé inteligence (AI).

Investoři, ať už státní či soukromí, cítí obrovskou příležitost, a tak organizace, které se zabývají vývojem zařízení s AI, mohou počítat s jejich podporou, jejíž výše se počítá na miliardy dolarů.

Podle chůze  

Podle Drew Cukora je potřeba, aby lidská a umělá inteligence nejdříve co nejefektivněji dokázaly spolupracovat, žít v symbióze. Nemusí jít hned o bojové stroje, ale například o počítačové programy, které dokážou identifikovat pomocí rozboru nepředstavitelného počtu videí a fotografií hledanou osobu. Mnoho zemí se pokrokem v této oblasti nechlubí, aby politici nenarazili na mínění obhájců soukromí a lidských práv. Co je však opravdu reálné, představuje Čína, kde tyto hodnoty moc velkou cenu nemají.

Slova o tom, že člověk bude mít neustálou kontrolu, vypadají v kontextu vývoje inteligentních zbraní tak trochu jako nonsens.  

Zdejší společnost Watrix například vyvinula systém identifikace osob podle chůze a nainstalovala jej pro potřeby policie v Pekingu a Šanghaji. Není potřeba vidět sledované osobě do tváře a podle Huanga Yongzhena, šéfa společnosti, analýza pohybu funguje, i když se ji snaží dotyčný ošálit kulháním nebo poskakováním. O náročnosti systému, který je prý úspěšný z pětadevadesáti procent, svědčí i to, že podobné programy, jež identifikovaly osoby podle obličeje, potřebovaly nejen dobré osvětlení a ideální natočení obličeje, ale i to, aby se na prostor mezi zorničkami očí „vešlo“ alespoň sto pixelů.

AI ztrácí výhody

Ještě předtím, než na identifikovanou osobu, například dlouho hledaného teroristu, který má na svědomí stovky obětí, vypustíme robotického zabijáka, bude potřeba, aby se jeho program se svými algoritmy odvíjel nikoli automaticky, ale aby se dokázal učit. Proto také letos na jaře nechal Pentagon spustit projekt Maven. Výraz Maven údajně v hebrejštině znamená „Ten, který ví“ a takto pojmenovaný projekt má propojit umělou inteligenci různých zařízení tak, aby se od sebe navzájem mohly učit. Což zvládnou rychleji a efektivněji, než když jako učitel vystupuje člověk sám.

shutterstock 649198981

Armády roboty učí, aby se sami uměli rozhodovat. Proč by pak k rozhodování o zabíjení potřebovali člověka?


Plukovník Drew Cukor si také myslí, že veškerá činnost AI bude výsledkem zadání od operátora. K tomu bude ovšem potřeba vyvinout nová, přesnější a operativnější rozhraní mezi člověkem a technikou. Tím by ale umělá inteligence ztratila mnoho výhod, které spočívají například v rychlém rozhodování, takže slova o tom, že člověk bude mít neustálou kontrolu, vypadají v kontextu vývoje inteligentních zbraní tak trochu jako nonsens.  

Hrdina studené války

Kontroverzní šéf Tesly Elon Musk, jenž si o AI myslí své, už před časem varoval, že nekontrolovaná umělá inteligence by mohla vyvolat v dohledné době třetí světovou válku. Jak by to mohlo být snadné, dokládá incident ze září 1983, kdy jen chladná hlava a rozum důstojníka sovětské protivzdušné obrany Stanislava Petrova zabránily jaderné válce. Tento muž, nikdy pořádně nedoceněný, sloužil na vedení sovětského systému včasného varování před balistickými střelami. Počítače špatně vyhodnotily údaje satelitního systému, který nesprávně informoval o svém postavení, osvitu sluncem a rozmístění tehdejší oblačnosti.

To, že by bezmezná důvěra v umělou inteligenci mohla vést ke světové katastrofě, je také názor americké prestižní instituce RAND Corporation.

Petrov informaci o útoku čtyř balistických raket odmítl jako chybu systému, protože pozemní radary o chvíli později nic nehlásily a on sám si myslel, že případný útok ze strany USA by byl daleko masivnější než jen oznámených několik střel. To, že by bezmezná důvěra v umělou inteligenci mohla vést ke světové katastrofě, je také názor americké prestižní instituce RAND Corporation (RAND – Research ANd Development). Stát by se to mohlo ještě do roku 2040, a i když by tím prostředkem byl obrazně řečeno lidský prst na spoušti, byly by za ním nesprávně vyhodnocené informace umělé inteligence.

Stop Killer Robots

Využití umělé inteligence ve vojenství má z hlediska etiky mnoho odpůrců. V roce 2013 nastartovala kampaň Stop Killer Robots, která vyzývá všechny vlády světa, aby zabránily vývoji dronů a vozidel s umělou inteligencí. To je ovšem mírně řečeno naivní představa – jednak v tom, že zabíjet mohou pouze tyto typy zařízení, jednak v tom, že by je někdo poslechl. Roboti jsou ideálními bojovými stroji, protože největší hrozbou pro politiky zemí, které se pouštějí do konfliktů, je reakce potenciálních voličů na domácí scéně na ztráty na životech.

Konstruktéři roboty učí, jak se mají získávat zkušenosti, které později uplatní, tedy vlastně tak trochu „myslet“.

Nejde ale jen o útok, ale i o obranu. Zatímco voják na stráži může být unavený a jeho pozornost poklesne, automat bdí neustále. Jižní Korea například instalovala podél demilitarizovaného pásma automatická stanoviště, která dovedou rozeznat „nepřítele“ a zahájit proti němu palbu z pěchotních zbraní bez toho, aby bylo nutné schválení člověkem. To vyvolalo protesty v akademickém světě. Více než padesát předních vědců z oblasti informatiky podepsalo dopis vyzývající k bojkotu Korejského institutu pro vědu a techniku ​​(KAIST) a jeho partnera, výrobce zbrojních systémů Hanwha Systems.

Konstruktéři roboty učí, jak se mají získávat zkušenosti, které později uplatní, tedy vlastně tak trochu „myslet“. Moc přemýšlející voják je však noční můrou snad všech velitelů. Jak pak bude možné velet opravdu inteligentním strojům? S tím ovšem souvisejí další problémy, jež si zatím málokdo připouští. Nakolik je možné ponechat na robotech možnost volby rozhodnout se k nějakému fatálnímu zásahu? Odpověď by měla znít nikdy. Tedy zatím.

foto: Shutterstock, zdroj: BBC

Ivan Verner

Ivan Verner

Neúnavný, ale někdy svou neúnavností až únavný populizátor vědy a techniky.



Související články

Pokračováním v prohlížení těchto stránek souhlasíte s Podmínkami užití a Pravidly využití Cookies.