fbpx

Holanďan Leon D. byl odhalen díky kostelnímu oknu. A hlavně díky umělé inteligenci. Ta se učí rozeznávat, jak vlastně v praxi vypadá zneužívání dětí

Zveřejněno: 18. 1. 2020

V Nizozemsku šlo o známý případ. Policie ale neměla dlouho nic kromě samotných obrázků. Na pornografických obrázcích Leona D. bylo (kromě jiného) vidět i okno neznámého kostela. Tohle okno bylo viditelné výhledem v zadní části místnosti bytu. Jenže co s tím? Nizozemští vědci napsali pro místní policii algoritmus, který využívá snímky z Google Earth. Umělá inteligence identifikovala kostel v malém městečku Den Bommel. A dům Leona D. byl přímo přes ulici.

Dětský algoritmus

Další rozsáhlý případ sexuálního zneužívání byl vyřešen díky výzkumným projektům na univerzitě v Amsterdamu, které vede Marcel Worring, ředitel institutu informatiky. Worring a jeho tým vyvinuli algoritmus, který dokáže na fotografiích rozpoznat objekty, jež se běžně vyskytují v sexuálních představách, které jsou spojené s dětmi. Algoritmus umí na obrázcích propojovat například postele nebo plyšové medvídky a samozřejmě děti samotné. Snímky, které by podle umělé inteligence mohly být dětskou pornografií, potom prohlédne vyšetřovatel a vyhodnotí, zda jde o planý poplach, nebo skutečné dětské porno. Díky tomuto algoritmu holandští policisté zadrželi Roberta M., který měl zneužít třiaosmdesát mladistvých.

Ve většině případů nemůže policie tyto snímky pro podobné experimenty s vědci sdílet, a to z pochopitelných důvodů ochrany osobních údajů.

Worringův systém je podobný tomu, který Google Photos používá ke kategorizaci například obrázků s kočkami, ovšem s jedním velkým rozdílem. Google má totiž nekonečnou sbírku snímků koček, kterými je algoritmus krmen a na jejichž základě se zdokonaluje. Naučit systém, jak vizuálně vypadá sexuální zneužívání dětí, by bylo samozřejmě nejjednodušší i v případě Worringova algoritmu. Jenže policie ve většině případů nemůže tyto snímky sdílet, a to z pochopitelných důvodů ochrany osobních údajů. Vědci, kteří na algoritmu v Amsterdamu pracují, byli prověřeni a s některými snímky s dětskou pornografií pracovat přece jen mohou. Dat je ale i tak málo a nejsou jednoznačná.

Jak „to“ rozeznat

Právě nejednoznačnost toho, co je ve skutečnosti považováno za zneužití dítěte, představuje pro Worringův tým velkou výzvu. „Když pornografické video zobrazuje malé dítě, systém nemá problém ho označit a upozornit nás,“ říká Worring. Ale například u sedmnáctiletých „dětí“ věk mnohdy správně neurčí ani člověk. Proto další algoritmus vědců na univerzitě v Amsterodamu překládá obrázky do textu. Textový popis je specifičtější, protože také vyjadřuje vztah mezi objekty na obrázku. Textové spojení „dítě na posteli“ umožňuje přesnější hledání než vizuální nástroj, který prohledává obrázky s dětmi a postelemi.

Technologie jsou k dispozici úřadům, ale jejich využití je poměrně problematické. Citlivá data totiž firma nesmí zpřístupnit třetím stranám.

Na svých platformách pro identifikaci obrázků pracují i technologičtí giganti, například IBM, Google nebo Facebook. Tyto platformy jsou často veřejné. Microsoft má technologii PhotoDNA, rovněž ta generuje textový popis obrázků, videí nebo zvukových souborů. Tyto popisy pak lze porovnávat s jiným obsahem a zjišťovat shody. Google spustil nástroj založený na umělé inteligenci, který porovnává nejen nový materiál s tím, který už byl popsán, ale také identifikuje nelegální materiál, který nebyl v minulosti označen, a objeví se v dosahu technologií Googlu. Obě technologie jsou k dispozici úřadům, ale jejich využití je poměrně problematické. Citlivá data totiž firmy nesmějí zpřístupnit třetím stranám.

Kde robot pomáhá

Nizozemská policie každopádně v roce 2017 identifikovala 130 obětí zobrazených na dětských pornografických fotkách. Počet případů roste, v roce 2012 policie evidovala 2000 údajných příznivců dětské pornografie, kteří ji nahrávali a stahovali z internetu, letos toto číslo dosáhne pravděpodobně už 30 000. Internet úplně změnil toto odvětví, před patnácti lety byla při raziích zabavována DVD s pár fotkami, dnes jde o disky s miliony souborů.

Marcel Worring upozorňuje na fakt, že kdekoliv jinde může být zapojení umělé inteligence rozporuplné, ale oblast analýzy dat při zneužívání dětí k robotizaci vybízí. Někdy rozhoduje čas a je rozdíl, jestli fotky zanalyzuje za tři dny člověk, nebo robot za minutu.

Související…

Jak vzniká online nenávist? Hejtři chtějí někam patřit a zneužívají anonymity
Markéta Pánková

foto: Shutterstock, zdroj: The Next Web

Tipy redakce

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

„Talácel jsem se valícím davem, nikdo si mě nevšiml, nikdo na mě nepohlédl. Až...

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Flákač, budižkničemu, alkoholik, čórka. To jsou typické konotace, které si mnoho z...