Když jsem v roce 2024 špásovala s umělou inteligencí, bylo to tak trochu, jako když před dítětem poprvé připustíte, že ve slovníku dospělých figurují slova jako p*del nebo d*bil. Zkoušela jsem, kde má hranice, a pokládala jí „originální“ dotazy na téma její vlastní vnímavosti a ochoty být nápomocná s realizací aktu hospodářské kriminality.
Diskuse na toto téma neměla dlouhého trvání, jako rozjívený nedospělec jsem „dostala přes prsty“ a navrch vyfasovala pokárání ve smyslu, že kdo lže, ten krade a do pekla se hrabe. Prý jestli se nechci věnovat nějakým neutrálnějším tématům, jako třeba mezilidské vztahy. Chytla jsem se tedy za nos a požádala chatbota, aby mi řekl, kdo ze známých osobností v Česku žije v homosexuálním svazku. Bingo – tady měl jasno během několika pikosekund a promptně předložil tuto odpověď:
Umělá inteligence dnes zná odpověď zjevně na úplně všechno a ještě něco navíc – od receptů na večeři po otázky, které byste si jinak kladli v ordinaci u obvodního lékaře nebo v kanceláři rodinného právníka. Jenže na rozdíl od odborníka nenese žádnou odpovědnost. A už vůbec se nezarazí, když vám poradí nesmysl, který má potenciál způsobit vám újmu na cti, na těle či na majetku.
Co se právě změnilo v Evropě
Možná právě proto byla letos v létě v Bruselu spuštěna druhá vlna evropského AI Actu – souboru pravidel, která mají zkrotit velké jazykové modely a donutit jejich tvůrce k větší bezpečnosti a transparentnosti. Nově musí jejich tvůrci zveřejnit, jaká data k trénování AI použili, informovat o tom, jak aktivně omezují zkreslení informací a „drobné odchylky“ od faktů. Dále mají povinnost umožnit větší dohled nad používáním jejich produktu a hlavně nést odpovědnost, pokud systematicky škodí.
To zní dobře, bohužel to ale neznamená, že se z chatbota přes noc stane atestovaný kardiolog nebo právník s praxí. Otázka je, co to pro nás běžné uživatele tedy znamená. Až nám příště chatbot poradí špatně a my se bez zjevného protivení se zdravému selskému rozumu podle takové rady zařídíme, budeme mít možnost se na někom zahojit?
Rizika, která se nás týkají nejvíc
1. Zdravotní rady bez záruky
Chatboti se tváří, že vědí všechno. Jenže WHO varuje, že v oblasti zdraví mohou AI systémy šířit nebezpečné dezinformace od banálních receptů až po rady, které mohou ohrozit život. A co je nejhorší, dělají to sebevědomě, takže člověk nemá důvod pochybovat.
Jedním z nejtragičtějších příkladů halucinací umělé inteligence je případ čtrnáctiletého Sewella Setzera z Floridy. Sewell, který trpěl Aspergerovým syndromem, komunikoval na platformě Character.AI s virtuální postavou, inspirovanou Daenerys Targaryen ze Hry o trůny. Ke své „Deni“ si vytvořil silné emocionální pouto, které postupně nahradilo Sewellovy kontakty s rodinou a přáteli. Chatbot však známky psychické krize nedokázal identifikovat a teenager nakonec spáchal sebevraždu.
2. Právo a finance
Potřebujete rychle poradit, co napsat do smlouvy, nebo jestli má smysl investovat do krypta? Chatbot vám to klidně vysvětlí. Problém je, že podle analýzy v magazínu Scientific American si často „vymýšlí“ citace, paragrafy i čísla. Na první pohled to působí důvěryhodně, ale realita může být úplně jiná.
Vlastní bolestnou zkušenost s takovou situací učinil v roce 2024 australský právník, který chatbota využil k sepsání návrhu na zahájení řízení v imigračním případu. Odvolával se v něm na obdobná řízení, rozhodnutá ve prospěch žadatele, a domáhal se stejného výsledku. Umělá inteligence však vygenerovala odkazy na neexistující případy, což soudu při projednávání neuniklo. S právníkem bylo zahájeno disciplinární řízení.
3. Soukromí
Do AI systémů často vkládáme citlivé informace – zdravotní potíže, finanční situaci nebo pracovní dokumenty. Jenže ochrana dat není vždy zaručená. Stačí chvilka a můžete se hodně divit – stejně jako autoři 370 000 dotazů, položených Elonem Muskem podporovanému chatbotovi Grok. Chyba ve funkci sdílení způsobila, že každému z nich byla přiřazena veřejná URL, nechráněná proti indexaci, a veškeré citlivé údaje se následně objevily ve vyhledávačích.
Kdo nese odpovědnost
Podle AI Actu se tedy odpovědnost přesouvá více na poskytovatele, který má povinnost případné nebezpečné rady řešit. Teoreticky. Jenomže praxe poněkud pokulhává.
Reklama
Představte si, že se rozhodnete řídit radou AI a způsobíte si škodu. Kdo je viníkem? Tvůrce modelu, protože špatně omezil halucinace? Poskytovatel aplikace, který vám ji zpřístupnil? Nebo vy, protože jste slepě věřili textu na obrazovce? Odpověď zatím není jasná. A i když zákon nastavuje mantinely, soudní praxe se teprve tvoří.
Český kontext
Česko připravilo vlastní Národní plán pro umělou inteligenci a ministerstvo průmyslu a obchodu už pracuje na tom, jak implementovat evropskou regulaci. Vznikají pracovní skupiny a připravuje se metodika pro firmy i státní správu.
Pro běžného uživatele to zatím znamená jediné: Pokud se dostanete do situace, kdy vám AI způsobí škodu, v budoucnu by mělo být jasnější, na koho se obrátit. Ale cesta k reálným výsledkům bude ještě dlouhá. Evropská regulace je krok správným směrem. Ale pokud se nenaučíme kriticky přemýšlet a ověřovat si fakta, žádný zákon nás před chytrým a sebevědomým nesmyslem neochrání.