S rostoucí popularitou chatbotů postavených na umělé inteligenci (AI), jako jsou ChatGPT a Bard, vyjadřují odborníci obavy ohledně limitů jejich funkcí a toho, co bychom měli od umělé inteligence požadovat.

Velký zájem o tyto chatboty je snadné pochopit, když uvážíte jejich schopnost sebevědomě se vyjadřovat během milisekund od položení otázky a jejich ochotu odpovídat tak dlouho nebo tak málo, jak si přejete. Když se však jedná o konverzaci týkající se duševního zdraví člověka, rychle vyvstane etické dilema.

Problém netransparentnosti

Dr. Grant Blashki, praktický lékař, hlavní klinický poradce společnosti Beyond Blue a spolueditor knihy Artificial Intelligence, vysvětluje, že když umělá inteligence poskytuje rady a léčbu v oblasti duševního zdraví, hlavní riziko plyne z nedostatečného prověření. „Když se objeví nový lék nebo nějaký nový postup, prochází přísným testováním, než je zpřístupněn veřejnosti. To se v tomto případě ještě nestalo, do této chvíle jsme tuto technologii ještě neotestovali.“

Dr. Blashki také upozorňuje, že kolem velkých jazykových modelů panuje značná netransparentnost ohledně toho, na jakých datech byly vyškoleny a jaké potenciální zkreslení to může způsobit.

I nejvýznamnější světoví odborníci na umělou inteligenci uznávají, že pokud jde o tuto technologii a o to, k čemu bychom ji měli používat, je stále ještě brzy na to, aby nahradila lidské terapeuty.

„Zatím jsem k jejich potenciálu přiměřeně obezřetný. Nevíme dost o tom, na čem byly vyškoleny, nemáme žádné záruky ohledně ochrany dat. S tím je spojeno mnoho rizik,“ říká a dodává: „Velmi bych se obával o pacienty, kteří jsou už tak velmi zranitelní, a velmi bych váhal, zda by měli v tuto chvíli přecházet na velký jazykový model a řešit s ním své duševní zdraví. Můžete prozradit nejrůznější soukromé věci o svém duševním zdraví a není jasné, jak jsou tyto informace shromažďovány, spravovány nebo používány. Když člověk požádá o pomoc, je to zranitelný okamžik a je důležité, aby nedostal špatnou radu.“

Ačkoli vzniká trh s aplikacemi umělé inteligence, které využívají menší jazykové modely, aby své služby specificky přizpůsobily specifickým problémům, jako je duševní zdraví, i nejvýznamnější světoví odborníci na umělou inteligenci uznávají, že pokud jde o tuto technologii a o to, k čemu bychom ji měli používat, je stále ještě brzy na to, aby nahradila lidské terapeuty.

Rizik se obávají i sami vývojáři

V dubnu 2023 v otevřeném dopise, který podepsalo více než 1800 lidí, vyzvali technologičtí velikáni, mezi nimi generální ředitel společnosti Tesla Elon Musk, spoluzakladatel společnosti Apple Steve Wozniak a inženýři ze společností Amazon, Meta, Google a Microsoft, k šestiměsíční pauze ve výzkumu AI, aby bylo možné „vyvinout a zavést soubor společných bezpečnostních protokolů pro pokročilý návrh a vývoj AI, které by byly přísně kontrolovány a sledovány nezávislými externími odborníky“.

„Naše rady zakládáme na vědeckých důkazech, nejen na tom, co je populární. To znamená různé léky, psychologické přístupy, doplňkové přípravky. To se velmi liší od toho, když si všechno vyhledáme na internetu a pak to předkládáme, jako by to bylo vědecky podložené.“

Jinými slovy, i samotní tvůrci umělé inteligence si uvědomují její riziko, které může představovat ve světě bez zavedených ochranných zábran.

Jen o měsíc později, v květnu 2023, vyzvala k opatrnosti při využívání umělé inteligence i Světová zdravotnická organizace: „Je nezbytné pečlivě prozkoumat rizika při používání LLM (velkých jazykových modelů) ke zlepšení přístupu ke zdravotním informacím, jako nástroje na podporu rozhodování, nebo dokonce ke zvýšení diagnostických kapacit v prostředí s nedostatečnými zdroji.“

Existují bezpečnější cesty

Ačkoli není pochyb o tom, že umělá inteligence bude v budoucnu dále růst a s postupem času se bude dále vyvíjet, prozatím je stále extrémně brzy, a dokud se nepodaří vytvořit lepší model, je podle Blashkiho nezbytné, aby se lidé, kteří chtějí získat podporu pro své duševní zdraví, drželi tradiční cesty a obrátili se na jiného člověka, který jim pomůže.

„Naše rady zakládáme na vědeckých důkazech, nejen na tom, co je populární. To znamená různé léky, psychologické přístupy, doplňkové přípravky. To se velmi liší od toho, když si všechno vyhledáme na internetu, a pak to předkládáme, jako by to bylo vědecky podložené.“

Pro lidi, kteří nemohou nebo nechtějí mluvit s terapeutem tváří v tvář, Blashki poukazuje na další možnosti, jako je psaní online deníků, telefonické linky důvěry či online poradny.

Související…

Psychiatrii brzy ovládnou algoritmy. Váš další terapeut už bude možná chatbot
Zdeněk Strnad

foto: Shutterstock, zdroj: Body and Soul