fbpx

Algoritmy umělé inteligence mohou generovat text dostatečně přesvědčivý, aby běžného čtenáře oklamal. Potenciálně tak poskytují možnost hromadného vytváření falešných zpráv, recenzí a účtů na sociálních sítích. Naštěstí lze AI nyní také požívat k identifikaci falešného textu

Zveřejněno: 13. 8. 2019

Vědci z Harvardské univerzity a laboratoře MIT-IBM Watson AI Lab vyvinuli nový nástroj pro vyhledávání textů, které byly vytvořeny pomocí umělé inteligence. Nástroj dostal poetický název GLTR (Giant Language Model Test Room) a využívá toho, že generátory textu pracující s umělou inteligencí na rozdíl od skutečného významu slov a celých vět spoléhají na statistické vzorce, jež jsou obecně v textech obsažené. Jinými slovy, nástroj může zjistit, zda se slova, která v textu čtete, zdají příliš předvídatelná, než aby je napsal člověk.

Dezinformační kampaně se stále více automatizují a technologie potřebná k automatickému vytváření falešných textů a obrázků se velmi rychle vyvíjí. Nástroje poháněné umělou inteligencí, jako je právě GLTR, se mohou stát cennými zbraněmi ve snaze odhalovat fake news, deep fakes nebo třeba i boty na Twitteru.

Studenti byli schopni odhalit pouze polovinu umělých článků bez pomoci GLTR, pokud ale tento nástroj měli k dispozici, tak jejich úspěšnost stoupla na 72 %.

Vědci ze společnosti OpenAI nedávno představili algoritmus, který dokáže stvořit překvapivě realistické pasáže textu. Algoritmus využívající strojové učení nakrmili obrovským množstvím textů, a právě díky hrubé síle a množství dat se pak algoritmus naučil rozpoznávat statistické vzorce v používání slov. Tým z Harvardu potom na tomto nápadu postavil svůj nástroj a dal ho k dispozici veřejnosti, vyzkoušet si ho tedy může každý.

Předvídatelná spojení

GLTR zvýrazňuje slova, která se s určitou pravděpodobností objeví za předchozím slovem v textu. Jak je vidět na testovacích vzorcích, nejvíce předvídatelná slova jsou podbarvena zeleně, méně předvídatelná žlutě a červeně. Nejméně předvídatelná slova jsou pak fialová. Při testování na úryvcích textu napsaného pomocí algoritmu OpenAI bylo odhaleno mnoho předvídatelných slov, jinak řečeno celý text je podbarven zeleně a je zřejmé, že vznikl uměle. Naopak případy článků či vědeckých studií odhalují jistou originalitu a nepředvídatelnost, zastoupeny jsou v nich všechny barvy a nechybí ani nejvíce překvapivá fialová slova.

Vědci v prostředí GLTR provedli také další experiment. Požádali studenty Harvardu, aby identifikovali text generovaný umělou inteligencí. Nejprve bez tohoto nástroje a poté s jeho pomocí a zvýraznění slov barvami. Studenti byli schopni odhalit pouze polovinu umělých článků bez pomoci GLTR, pokud ale tento nástroj měli k dispozici, tak jejich úspěšnost stoupla na 72 %.

Související…

Dokonalé deepfakes? Systém dokáže opravit přeřeky i doplnit slova na videuEstonci zkoušejí nahradit soudce umělou inteligencí. Zatím je AI pod dohledemKdopak to volá? Umělá inteligence dokonale naklonuje váš hlas

foto: Shutterstock, zdroj: Technology Review

Tipy redakce

Jde ještě o klimatickou nouzi, nebo už paniku? 10 otázek a odpovědí o přehřívání Země

Jde ještě o klimatickou nouzi, nebo už paniku? 10 otázek a odpovědí o přehřívání...

Praha 7 vyhlásila v květnu stav klimatické nouze , jak ji (a nejen ji, ale celou...

Proč se krade i písek z pláže? Je to cenná komodita, která mizí stejně jako voda

Proč se krade i písek z pláže? Je to cenná komodita, která mizí stejně jako voda

Loni v létě zaplatil jeden britský turista na Sardinii pokutu 1 032 eur, když byl...

Twitter uživatelům ukazuje, co mají rádi za reklamu. A někdy je dost mimo

Twitter uživatelům ukazuje, co mají rádi za reklamu. A někdy je dost mimo

Inferred interests neboli „odvozené zájmy“ je název funkce sociální sítě Twitter,...

Pokračováním v prohlížení těchto stránek souhlasíte s Podmínkami užití a Pravidly využití Cookies.