Devatenáctiletá Kyla z kalifornského Berkeley začala experimentovat s umělou inteligencí (AI). Zaujalo ji, jak moc se podobá konverzaci s člověkem. Interakce jí dokonce v některých ohledech připomínala terapii. Protože neměla čas ani peníze na skutečného terapeuta, začala Kyla používat pro podporu duševního zdraví ChatGPT – technologii umělé inteligence, která simuluje lidské chování a myšlení. „Líbilo se mi, že jsem mohla kdykoli a kdekoli bezplatně sdílet své problémy s ChatGPT a na oplátku jsem dostala nezaujatou odpověď spolu s radou, jak postupovat,“ popisuje pro BuzzFeed News.

Vzhledem k tomu, že tyto systémy nerozeznají pravdivé informace od nepravdivých nebo dobré od špatných, ale prostě hlásí to, co si předtím přečetly, je docela možné, že si přečtou něco nevhodného a škodlivého a tento škodlivý obsah zopakují těm, kteří hledají pomoc.

Předtím, než program odpoví na Kyliny zprávy, přidá předmluvu: „Jako model jazyka umělé inteligence nejsem licencovaný terapeut a nemohu poskytovat terapii ani diagnostikovat žádné stavy. Jsem tu však proto, abych naslouchal a pomáhal, jak jen mohu.“ Pro Kylu je to prý přesně to, co hledá. Ve videu na TikToku se podělila například o své zkušenosti, jak se za pomoci ChatGPT vypořádala s rozchodem. „Rozhodně to pomáhá mému duševnímu a emocionálnímu zdraví,“ tvrdí v rozhovoru pro BuzzFeed News. „Je to lepší než třeba psaní deníku, protože mám zpětnou vazbu,“ dodává. Kyla není jediná, kdo se na ChatGPT kvůli terapii obrací. Na TikToku mají hashtagy #CharacterAITherapy 6,9 miliardy zobrazení. Lidé sdílejí své zkušenosti s používáním konkrétních programů pro své potřeby terapie.

Lepší dostupnost

Lauren Brendleová vytvořila bezplatný terapeutický program Em x Archii s umělou inteligencí, který využívá ChatGPT poté, co tři roky pracovala jako poradkyně pro duševní zdraví na lince pro sebevrahy. Brendleová tak chtěla nabídnout alternativu těm, kteří nemají jiné možnosti kvůli nákladům nebo jiným překážkám. „Program zvyšuje dostupnost tím, že poskytuje bezplatnou a důvěrnou terapii a odstraňuje stigma kolem získání pomoci pro lidi, kteří nechtějí mluvit s člověkem,“ vysvětluje pro BuzzFeed News.

Belgičan trpící depresí spáchal sebevraždu po šesti týdnech používání programu s umělou inteligencí nazvaného Chai. Program, který není uváděn na trh jako aplikace pro duševní zdraví, údajně zasílal škodlivé texty a nabízel sebevraždu jako možnost.

Program si klade za cíl vybudovat s uživateli během každého sezení vztah, včetně zapamatování si minulých rozhovorů, zjištění, na čem „klienti“ chtějí pracovat, a nabídnutí strategií pro průběh sezení. Další výhodou je, že tím, že umělá inteligence není schopna poskytnout skutečnou emoční empatii, nemůže vás také soudit, podotýká Brendleová. „I když se terapeut prezentuje, jako že nesoudí, jakožto lidé máme tendence soudit,“ podotýká.

Katastrofické důsledky

Psychologové a psychiatři se ale obávají rizik takovéto terapie, zejména pokud ji využívají lidé v krizi nebo hledající možnosti léčby. Podle deníků La Libre a Vice spáchal Belgičan trpící depresí sebevraždu po šesti týdnech používání programu s umělou inteligencí nazvaného Chai. Program, který není uváděn na trh jako aplikace pro duševní zdraví, údajně zasílal škodlivé texty a nabízel sebevraždu jako možnost. „Vzhledem k tomu, že tyto modely zatím nelze kontrolovat ani předvídat, nemůžeme znát důsledky jejich používání. A je zřejmé, že mohou být katastrofální jako v tomto případě,“ varuje sociální psycholog z University of Southern California's Neely Center Ravi Iyer.

Na kontrole předvídatelnosti těchto modelů umělé inteligence se podle něj stále pracuje. „Zatím nevíme, jakými nezamýšlenými způsoby by se systémy AI mohly dopustit katastrofálních chyb,“ upozorňuje Iyer. „Vzhledem k tomu, že nerozeznají pravdivé informace od nepravdivých nebo dobré od špatných, ale prostě hlásí to, co si předtím přečetly, je docela možné, že si přečtou něco nevhodného a škodlivého a tento škodlivý obsah zopakují těm, kteří hledají pomoc. Je příliš brzy na to, abychom plně pochopili, jaká rizika zde hrozí,“ dodává.

„ChatGPT vzbuzuje velké nadšení a myslím, že v budoucnu se dočkáme toho, že podobné jazykové modely budou hrát v terapii určitou roli. Ale nebude to dnes ani zítra,“ podotýká pro BuzzFeed News psychiatr z Beth Israel Deaconess Medical Center John Torous. „Nejprve musíme pečlivě posoudit, jak dobře skutečně fungují. Už víme, že mohou říkat i znepokojivé věci a mají potenciál způsobit škodu,“ dodává.

Související…

Ředitel OpenAI: Umělá inteligence mění svého tvůrce. Máme trochu strach
Michal Švehla

Odborníci na duševní zdraví podle BuzzFeed News uvádějí, že terapie pomocí umělé inteligence může být užitečným nástrojem pro ventilaci emocí. Dokud ale nedojde k dalším zlepšením, nemůže překonat lidské odborníky. „V tuto chvíli nejsou programy jako ChatGPT vhodnou volbou pro ty, kteří hledají bezplatnou terapii. Mohou nabídnout základní podporu, což je skvělé, ale ne klinickou,“ upozorňuje Torous. „Dokonce i tvůrci ChatGPT a příbuzných programů jasně říkají, abyste je nyní k terapii nepoužívali,“ dodává. Pokud máte problémy, můžete vždy využít například bezplatnou krizovou linku.

foto: Shutterstock, zdroj: Buzzfeeednews.com