fbpx

Jde o přehnaný strach? Vybere si AI nás, nebo mravence?

Zveřejněno: 21. 3. 2018

„AI je větší riziko než Severní Korea!“ Podnikatel a vizionář Elon Musk opakovaně šokuje svět svými tweety a vyzývá k regulaci umělé inteligence. Oponovala mu řada expertů v čele s Markem Zuckerbergem, kteří to považují za snahu regulovat matematiku a jistou cestu ke zbrzdění přínosného vývoje. Na otázku jak zajistit, aby umělá inteligence byla skutečně bezpečná a dělala jen to, co člověk chce, a způsobem, jakým chce, ale zatím nemá odpověď nikdo.

Čtěte také:
Naučte se mlčet jako Elon Musk. Hlavně při jednání o platu.
Singularita: Až budou stroje chytřejší než my

 

Umělou inteligenci dnes používáme v řadě oblastí především pro tři základní úkoly: rozpoznání obrazu, rozpoznání a práci s řečí a k odvrácení bezpečnostních hrozeb. To je slabá umělá inteligence, zvládá jen jeden specifický úkol a je jen tak dobrá jako data, kterými ji nakrmíme. Cílem mnoha vědců je ale vytvořit obecnou umělou inteligenci, která by člověka překonala ve všech kognitivních úkonech. Ve všech případech a zejména v tom posledním je důležité, aby umělá inteligence dělala skutečně to, co chceme. Pokud klekne počítač, dá se to zvládnout, horší by bylo, kdyby se inteligence řídící naše auto rozhodla vjet do stromu, aby zachránila žáby, skákající přes cestu, protože jí algoritmus velel být šetrnou k životnímu prostředí.

Želva, nebo člověk? 

Umělá inteligence nám může pomoci v boji s nemocemi, s chudobou či válkami a může se stát nejlepším vynálezem lidstva, který kdy spatřil světlo světa. To, co ale takový superinteligentní systém, který se umí sám rozhodovat, udělá, zůstává záhadou a tedy i klíčovým problémem. Ondřej Vlček, CTO antivirové společnosti Avast, považuje za největší výzvu právě onu vysvětlitelnost. Proč se umělá inteligence rozhoduje způsobem, kterým se rozhoduje, proč upřednostní jedno řešení na úkor druhého? To nevíme.

Stejně tak jako nevíme, jak se rozhodne dosáhnout zadaného cíle. Co když zadání bude znít bohulibě, například zachování vzácného druhu mořských želv, a umělá inteligence se rozhodne srovnat se zemí vesnice na pobřeží, protože jí výpočty ukážou, že největší hrozbou jsou právě rybářské osady a odpadky, které vypouští do moře? Otázka tedy zní, jak zajistit, aby cíle a zejména způsob jejich dosažení, k němuž budeme používat umělou inteligenci, byly v souladu s našimi hodnotami a cíli.

auto auto

Auutomobily s autonomním řízením jsou otázkou pár příštích let. Nejsložitější bude legislativa. Kdo ponese odpovědnost v případě nehody? A jak se AI auta rozhodne, když mu před blatník vstoupí matka s kočárkem?

Pak je tady vývoj autonomních zbraní, to je zbraní, které vybírají cíl bez lidské intervence, pouze na základě předem definovaných ukazatelů. Jejich použití je podle mnoha expertů pouze několik let vzdáleno, a pokud některá z velmocí začne s vývojem zbraní založených na umělé inteligenci, závod v jejich vývoji je téměř nevyhnutelný. Čeká nás třetí vojenská revoluce po vynálezu střelného prachu a nukleárních zbraní?

Může být o to horší, že získání těchto zbraní by bylo relativně snadné, protože není závislé na drahých nerostných surovinách. Vyhlazení celého etnika by tak mohlo být jen otázkou dobrého naprogramování. „Někteří intelektuálové vytvářejí tlak, aby se AI ve zbrojení nepoužívala, já věřím, že to je spíš emoční než faktická záležitost. Neplatí, že člověk je etičtější než stroje, naopak umí být velmi brutální. Je možné, že odpovědnost ve spojení s přesností, kterou AI zvyšuje, naopak zabrání civilním obětem,“ myslí si profesor Michal Pěchouček z ČVUT.

Co chcete, ale ne jak chcete

Obecně umělá inteligence může být lidstvu nebezpečná ve dvou případech: V okamžiku, kdy ji naprogramujeme, aby dělala něco destruktivního. To je případ autonomních zbraní, které jsou vytvořeny, aby zabíjely, a v nesprávných rukou mohou způsobit nedozírné škody. Budou zkonstruovány tak, aby bylo pro nepřítele komplikované je jednoduše vypnout, a vytvářejí tak situaci, která by se lidem mohla vymknout z rukou.

rakety

Zbraně budou schopné zabíjet bez přímého angažmá člověka, zkrátka se do nich jen naprogramuje cíl.

Druhý případ je ten, kdy naprogramujeme umělou inteligenci, aby udělala něco přínosného, ale ona zvolí destruktivní přístup. Chcete se co nejrychleji dostat na letiště? Umělá inteligence vás tam dostane, ale nad vámi poletí policejní helikoptéra a vy budete od hlavy k patě pokryt zvratky. Umělá inteligence udělá přesně to, co chcete, ale ne jak to chcete.

Pravděpodobně nejste někdo, kdo by jen tak pro potěšení zašlapával mravence, ale pokud byste měli na starosti projekt vybudování nové silnice skrze les, kde se nachází pár mravenišť, mravenci mají pravděpodobně smůlu.

Jak dál píše na svých stránkách institut Future of Life, problémem obecné umělé inteligence není její možná zlovůle, ale její kompetence. Pravděpodobně nejste někdo, kdo by jen tak pro potěšení zašlapával mravence, ale pokud byste měli na starosti projekt vybudování nové silnice skrze les, kde se nachází pár mravenišť, mravenci mají pravděpodobně smůlu. Cílem bezpečnostních opatření kolem umělé inteligence tedy je, aby se lidstvo nikdy neocitlo v situaci mraveniště. Umělá inteligence má potenciál stát se inteligentnější než lidé, proto nedokážeme předpovědět, jak se zachová.

Na paměti je potřeba mít i to, že hacknout jde v principu vše, i jadernou elektrárnu. Jako varování může sloužit první úspěšný hack elektráren na Ukrajině v prosinci 2015. Více než dvě stě tisíc lidí zůstalo několik hodin bez elektrického proudu. Systémy umělé inteligence jsou stejně zranitelné. „Může zcela běžně docházet k situaci, kdy hacker vytvoří program s tím, že ví, že na jeho odhalení bude použita umělá inteligence, a nakrmí ji zcela záměrně jistým typem dat a bude od ní očekávat jistý způsob chování,“ přibližuje Ondřej Vlček.

Karty na stole

Největší technologická jména Silicon Valley v roce 2016 založila alianci Partnership on AI to Benefit People and Society. Ta chce ustavit celosvětové etické a společenské standardy ve výzkumu umělé inteligence. V únoru 2017 více než 2000 vůdčích osobností podepsalo 23 pravidel pro vývoj bezpečné AI. „Jak vypadá dobrá budoucnost?“ zeptal se tehdy Elon Musk. „Jsme buď na cestě k superinteligenci, nebo ke konci civilizace,“ dodal.

Dokument, který z konference vzešel, zdůrazňuje nutnost zajistit, aby systémy AI nebyly hacknutelné, dokázaly zdůvodnit své vlastní činy a jejich hodnoty byly identické s lidskými. Sám Musk založil a financuje také OpenAI, protože věří v otevřenost a předpokládá, že pokud budou mít přístup ke zdrojovému kódu umělé inteligence všichni, ztratí svůj potenciál konkurenční a bezpečnostní výhody. Kdokoliv a kdykoliv si bude moci ověřit, jak daný systém funguje, a manipulovatelnost uživatelů bude do jisté míry omezena.

Manipulace forever

Raketový vývoj umělé inteligence umožňujeme my všichni svými daty, která každou sekundu nahráváme do kyberprostoru. Zaznamenáváme vše, co si kde kdo řekne, vytváříme virtuální odrazy svých osobností, ať to chceme nebo ne. Je dobré si uvědomit, že Facebook či Google nám nenabízí své služby zdarma, proč taky? Platíme za ně daty, která slouží k vývoji AI, a o nich platí, že nad nimi ztrácíme kontrolu.

Jak řekl odborník na kybernetickou bezpečnost Vaibhav Garg pro New Yorker: „Jsou o nás sbírána ohromná množství dat, kterými pak krmíme algoritmy, na jejichž základě inteligentní systémy dělají předpovědi a učí se. Nemáme schopnost vědět, kdy jsou data sbírána, zajistit, že jsou správná, aktualizovat informace nebo poskytnout nezbytný kontext.“ O tomto riziku před dvaceti lety přemýšlel asi málokdo. Už se asi také nikdy v budoucnu nestane, že by nás někdo nemanipuloval. S personalizovaným vyhledáváním či doporučenými zprávami na sociálních sítích v čele.

 

Tipy redakce

Život ve městě zvyšuje riziko úzkostí. Co dělat, když se nechcete odstěhovat?

Život ve městě zvyšuje riziko úzkostí. Co dělat, když se nechcete odstěhovat?

„Talácel jsem se valícím davem, nikdo si mě nevšiml, nikdo na mě nepohlédl. Až...

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Flákač, budižkničemu, alkoholik, čórka. To jsou typické konotace, které si mnoho z...