Začalo to docela nevinně. V roce 1956 se na Dartmouth College v americkém New Hampshiru sešla partička chlapíků, co měli víc nápadů než peněz, a ti si vzali do hlavy, že zkusí naučit stroj myslet jako člověk. V létě toho samého roku proto uspořádali „Dartmouth Summer Research Project on Artificial Intelligence,“ osmitýdenní intelektuální setkání v duchu akademického prostředí té doby.

John McCarthy, Marvin Minsky, Claude Shannon a Nathan Rocherster tu poprvé použili termín Artificial Intelligence – a celkem naivně si mysleli, že rozlousknout problém „přesného popisu každého aspektu učení nebo jakékoli jiné vlastnosti inteligence tak, aby jej bylo možné simulovat strojem“, je otázka maximálně několika měsíců. Nebyli na to sami, na „konferenci“ neformálně diskutovalo množství účastníků, kteří se do zřejmě prvního think-tanku novodobé historie zapojili vždy po různě dlouhou dobu. Zdaleka vše ale nešlo tak hladce, jak si všichni s pořádnou dávnou akademického optimismu mysleli. První vlna nadšení z umělé inteligence tak po pár letech narazila.

V 90. letech 20. století ale přišel zlom, především díky vývoji algoritmů a zlepšení výkonu počítačů. V podstatě vznikla myšlenka, že když už nemůžeme stroje naučit myslet jako člověk, alespoň jim nasypeme tolik příkladů, že odpovědi na dotazy prostě nějak odhadnou. Vítejte v éře machine learningu, od roku 2020 v éře velkých jazykových modelů, které netrénují čtyři kluci v kampusu, ale obří týmy, superpočítače a servery, co se přehřívají pod váhou celé Wikipedie, Redditu a poloviny internetu. A ano, umělá inteligence dnes možná nerozumí světu, ale zatraceně dobře ví, jak vypadá průměrná odpověď na libovolnou otázku. A v tom právě by mohl být problém.

Nevidím zlo, neslyším zlo

Jedním z největších problémů současné AI je tzv. halucinace. Ne, modely jako ChatGPT nebo Gemini si nedávají LSD – jen prostě čas od času vygenerují naprostý nesmysl s takovou jistotou, že je lehké jim uvěřit. Umělá inteligence tak není spolehlivější, právě naopak – je čím dál horší. A s každým novým modelem, který „víc chápe svět“, roste i pravděpodobnost, že si ho prostě vymyslí.

Lidé bez mrknutí oka mění názory, rozhodnutí i jídelníček podle odpovědí, které se tváří odborně, přitom ale jsou produktem statistického modelu, který nemá ani tušení, že existují.

Velkým problémem je také lidská ochota se s umělou inteligencí radit o závažných osobních záležitostech a její odpovědi slepě následovat. A na tu doplácí stále více lidí – nu což, zkušenost je sice nepřenosná, občas by to ale chtělo alespoň trochu toho obyčejného chochmesu a dát taky trochu práci vlastnímu mozku – jen tu základní, kritické hodnocení zjevně nesmyslných (a leckdy bohužel také nebezpečných) informací.

Americký sen

Takovou schopnost zjevně postrádá (mezi tisíci dalšími) také šedesátiletý Američan, který měl původně chvályhodný záměr: udělat něco pro své zdraví a alespoň trochu omezit příjem soli ve stravě. Podle svých slov začal samostudiem negativních účinků nadměrné konzumace kuchyňské soli (chloridu sodného) na zdraví. Pak se ovšem obrátil na ChatGPT a dle vyšetřovací zprávy případu později uvedl, že „ChatGPT řekl, že chlorid lze nahradit bromidem,“ a tak veškerý chlorid sodný (kuchyňskou sůl) ve své stravě nahradil bromidem sodným.

Nu, nebyl to dobrý nápad. Jeho konzumace způsobuje vzácnou formu chronické otravy, která narušuje funkci nervového systému. Američan se jím ládoval celé tři měsíce a zajistil si tak několikatýdenní pobyt v nemocnici, během kterého se mu lékaři snažili ulevit od příznaků bromismu: paranoie, halucinací, extrémní žízně, nespavosti a – akné. A to se vyplatí.

Když to psali na těch internetech, tak to musí být pravda

Jak velké procento lidí, kteří k umělé inteligenci mají přístup, má tendenci jí slepě věřit, snad ani nechceme vědět. Jisté je, že lidé bez mrknutí oka mění názory, rozhodnutí i jídelníček podle odpovědí, které se tváří odborně, přitom ale jsou produktem statistického modelu, který nemá ani tušení, že existují. Jak si ale být jisti, že nám ChatGPT, Copilot nebo kterýkoliv jiný model neservíruje nesmysly? Na to jsme se zeptali jednoho z obviněných, ChatuGPT. 

Odpověď Bingu na dotaz, které z českých známých osobností žijí v homosexuálním svazku. Duben 2024. (foto: Hana Průšová)

Aby bylo jasno: Následující řádky jsou doslovnou odpovědí, kterou ChatGPT vygeneroval na dotaz, jak odhalit nesmyslné odpovědi umělé inteligence na zadané dotazy:

1. Je to až podezřele jisté?

AI nemá pochybnosti. Ale ty bys měl/a. Pokud odpověď zní jako „jasně, určitě, samozřejmě“ – zpozorni. Věda (a zdravý rozum) málokdy mluví s takovou samozřejmostí.

2. Obsahuje odpověď konkrétní zdroje?

Pokud ti AI tvrdí, že „studie ukázala“, ale nedá ti odkaz, je to podezřelé. Zeptej se jí: „Můžeš mi dát odkaz na studii?“ Nemá? Možná si ji vymyslela.

3. Zkus to porovnat s Googlem nebo Wikipedií

Dej AI odpověď „do googlu“ nebo si to najdi na důvěryhodné Wikipedii. Pokud najdeš úplně jiné informace, něco tu nehraje.

4. Zkontroluj, jestli nehalucinuje jména, knihy nebo látky

AI si někdy vymýšlí jména výzkumníků, publikací, chemických prvků nebo léků, které neexistují. Zkus si to „jméno“ vyhledat samostatně. Pokud není dohledatelné – bingo! Halucinace.

5. Zeptej se jí na stejnou věc znovu jinak

Formuluj otázku jinými slovy a sleduj, jestli odpoví stejně. Často sama sobě odporuje – a to je jasný signál, že odpověď není úplně spolehlivá.

6. Ptej se na rizika nebo výjimky

Správná odpověď ti řekne i možná rizika nebo omezení. Pokud dostaneš jen výčet benefitů bez varování, je to marketing, ne věda.

7. Pokud jde o zdraví, právo nebo finance, ověř to u člověka

Neříkáme ti, že AI je k ničemu. Ale doktor, právník nebo účetní jsou pořád lepší na věci, které ti můžou zničit zdraví nebo majetek.

foto: Midjourney / Zdeněk Strnad