fbpx

Umělá inteligence je pro lidstvo hrozbou. Ale ne takovou, jakou si nejspíš myslíte 1 fotografie
zdroj: Shutterstock

S nedávným bleskovým rozvojem ChatGPT a dalších systémů, založených na umělé inteligenci, se mezi odborníky i obyčejnými lidmi vyrojila řada obav ohledně toho, jak velkou katastrofu může pro lidstvo příchod AI znamenat.

Zveřejněno: 13. 7. 2023

Od ztráty pracovních míst až po vyhlazení celé lidské rasy se na internetu v posledních měsících rozpoutává jedna diskuze řešící negativní dopady umělé inteligence za druhou. Celá situace vyvrcholila letos v květnu, kdy organizace Center for AI Safety (CAIS) vydala doporučení, mířené na výzkum a propagaci AI.

Kancelářské sponky

„Zmírnění rizika vyhynutí v důsledku umělé inteligence by mělo být globální prioritou, vedle dalších rizik celospolečenského rozsahu, jako jsou pandemie a jaderná válka,“ stojí v květnovém prohlášení CAIS. Pod něj se podepsali kromě mnoha klíčových hráčů z oboru, včetně hlavounů společností OpenAI či Google, také dvojice Geoffrey Hinton a Yoshua Bengio. Právě tito dva jsou považováni za jakési kmotry umělé inteligence, což dodává celému varování potřebnou váhu. Jak moc jsou ale obavy na místě? A proč by vlastně měla AI jednat tak, aby zničila svého stvořitele? A co víc, jak by získala možnost se svobodně rozhodnout?

Deepfake videa se stávají skutečným problémem. Ve většině známých případů zatím sice slouží spíše k pobavení, ale jsou známy také případy, kdy byl tento formát využíván k trestné činnosti.

Jednu z potenciálních situací si můžeme ukázat na myšlenkovém experimentu, který zformuloval filozof Nick Bostrom z Oxfordské univerzity. Představte si, že je sestaven systém umělé inteligence, který dostane za úkol vyrobit co největší množství kancelářských sponek. Pokud by AI chtěla úkol doslova splnit, pak by při hledání surovin potřebných k jejich výrobě mohla vynaložit mimořádné úsilí, které by pro lidi bylo zničující. Tedy: aby získala více materiálu ke splnění úkolu, mohla by například ničit továrny nebo způsobovat automobilové nehody.

Dvě strany mince

To je ale stále jen jedna strana mince. My nicméně musíme předpokládat i takový vývoj událostí, kdy lidstvo bude mít umělou inteligenci plně pod kontrolou a nebude hrozit, že by v rámci plnění úkolu způsobovala škody svému okolí. Nebo že by dokonce nabyla vědomí vlastní existence a pokusila se lidstvo zničit.

Druhá strana mince tak reprezentuje zneužití AI člověkem, což je už v tuto chvíli mnohem realističtější a bohužel asi i nevyhnutelný scénář. Hackeři budou, přesněji řečeno už jsou, díky umělé inteligenci schopni napodobit k nerozeznání váš hlas, nebo dokonce vytvořit video, ve kterém budete vypadat i mluvit jako vy. Jenže to nebudete vy. Podobné záležitosti dnes můžete zaznamenat pod pojmem deep-fake. V tomto ohledu už teď víme, že se máme v online prostoru skutečně na co těšit.

Ať už ale budeme zvažovat rizika ze strany AI nebo člověka, který ji zneužívá ve svůj prospěch, základní princip zůstává stejný: AI je cizí inteligence, která je velice dobrá v dosahování zadaných úkolů, a tím pádem nebezpečná, protože její morální hodnoty se nemusí nutně shodovat s morálními hodnotami jejích tvůrců.

Reálný dopad

Ačkoliv některé obavy z umělé inteligence jsou bezpochyby oprávněné a na místě, existují zde už nějakou dobu a nijak výrazně zatím nepotvrdily teze jejich autorů. To ale neplatí zdaleka pro všechno. Jak už jsme nakousli, deep-fake videa se stávají skutečným problémem. Ve většině známých případů zatím sice slouží spíše k pobavení – třeba na streamovací platformě Twitch je možné sledovat debatu kandidátů na prezidenta Joea Bidena a Donalda Trumpa, kteří jeden druhého vhodnými hlasy na videu zasypávají všemožnými urážkami a vulgarismy – ale jsou známy také případy, kdy byl tento formát využíván k trestné činnosti.

 

 

Hlavní využití deep-fake videí neleží v parodujících prezidentských debatách nebo pornografických videích s vaší oblíbenou celebritou, ale v politice a okrádání lidí. Již se například objevily informace o tom, že ruské tajné služby se pokoušejí tuto technologii využívat v informační válce. A samozřejmě nejsou jediné. Lze si představit hned celou řadu nešťastných způsobů, jak takovou formu věrohodného napodobení různých politiků a světových lídrů zneužít.

Kyberzločinci navíc využívají klonování hlasu pomocí AI k dalším trestným činům, ať už se jedná o menší podvody, páchané na nic netušících obětech, nebo high-tech loupeže, mířené na velké technologické firmy. Víc než kdy dřív bude potřeba si v online prostoru dávat pozor na každý malý varovný signál, a ani to možná nebude stačit.

Srovnávání nesrovnatelného

Hrozba všudypřítomných kyberzločinců a umělé inteligence, pomalu si uvědomující svoji nadřazenost nad námi, se sice hezky vyjímá v titulcích všemožných článků skrz naskrz světovými informačními médii, nejedná se ale o nic jiného než už dobře známou hru na strach. Potenciální rizika AI jsou do jisté míry alespoň teoreticky nezpochybnitelná, nelze je však házet do jednoho pytle s jadernou válkou nebo pandemií, jak je uvedeno v již zmiňovaném prohlášení CAIS.

Umělá inteligence zatím ani zdaleka nezabila 7 milionů lidí (potvrzeno je k dnešnímu dni přesně nula úmrtí způsobených zavinění AI) po celém světě a nenarušila světovou ekonomiku na tři roky v takové míře, jakou nám předvedla pandemie. Stejně tak nevybombardovala Hirošimu a Nagasaki, aby způsobila nepředstavitelné utrpení milionům lidí a další miliony lidí neuvrhla do desítky let nekončícího strachu, způsobeného obavami z jaderné války.

AI zkrátka nezískala schopnost způsobit škodu takového rozsahu a ani nic nenaznačuje tomu, že by se tak mělo v blízké době stát. Scénář s kancelářskou sponkou a jemu podobné nejsou zatím nic jiného než science fiction a stávající aplikace umělé inteligence provádějí spíše konkrétní úkoly, než aby činily nějaké rozsáhlé úsudky a dokázaly ovlivnit dění kolem sebe. Nejenže současná technologie postrádá schopnost vícevrstvého úsudku, s kterou je v katastrofických scénářích třeba počítat, ale nemá ani autonomní přístup k dostatečným částem naší kritické infrastruktury.

Co může umělá inteligence určitě změnit, je způsob, kterým my lidé vnímáme sami sebe. Paradoxně to pak nemusí být umělá inteligence, co nás jako lidstvo zničí, ale naše obavy z ní.

Znovu: to neznamená, že bychom neměli zůstat ve střehu, vyvolávání paniky publikováním alarmujících a nepodložených prohlášení už ale na druhou stranu může způsobit reálné škody.

Síla strachu

Pokud se na celou záležitost podíváme co nejvíce objektivně, rizika spojená s užíváním umělé inteligence bezpochyby existují, ale spíše na filozofické rovině než na té skutečně apokalyptické. Co může umělá inteligence určitě změnit, je způsob, kterým my lidé vnímáme sami sebe. Paradoxně to pak nemusí být umělá inteligence, co nás jako lidstvo zničí, ale naše obavy z ní.

Umělá inteligence sama o sobě nebude hlavním aktérem konce světa tak, jak ho známe, ale může postupně způsobit eliminaci některých důležitých lidských dovedností. Jeden příklad za všechny: už nyní jsou některé AI systémy schopné za velice krátký čas vyprodukovat texty na vysokoškolské úrovni, což může posléze vést k oslabení pedagogů jako klíčového nástroje vzdělávání. Umíte si představit, jak bude vypadat společnost, kterou budou učit stroje, bez zapojení lidského faktoru?

To ale stále neznamená, že se bude jednat o apokalypsu, kterou nepřežijeme. Náš způsob fungování bude o tyto aspekty bez debaty ochuzen a svět možná opravdu bude za pár desítek let k nepoznání. To však nemění nic na tom, že všudypřítomné katastrofické scénáře s umělou inteligencí nejsou v tuto chvíli vůbec na místě.

Související…

Ředitel OpenAI: Umělá inteligence mění svého tvůrce. Máme trochu strach
Michal Švehla

foto: Shutterstock , zdroj: Autorský článek

Tipy redakce

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

„Talácel jsem se valícím davem, nikdo si mě nevšiml, nikdo na mě nepohlédl. Až...

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Flákač, budižkničemu, alkoholik, čórka. To jsou typické konotace, které si mnoho z...