fbpx

Obrana proti deepfakes? Jak kvůli bezpečnosti anonymizovat lidi ve videích 1 fotografie
zdroj: Shutterstock

Umělá inteligence umí ve videích vygenerovat anonymní tváře, aby zachovala anonymitu těch, kteří nemají být poznáni

Zveřejněno: 18. 9. 2021

Nová technologie pro anonymizaci videí využívá sítě generative adversial networks (GAN) tak trochu v opačném gardu. Tentokrát nejde o vytváření deepfakes, tedy například falešných videí, ale naopak o skrytí skutečných lidí, kteří se vyskytují ve videích nebo na obrázcích a z různých důvodů nemají být poznáni.

Jak to funguje? Algoritmus extrahuje informace o výrazu obličeje tím, že najde polohu očí, uší, ramen a nosu. Poté pomocí sítě GAN, která se učila z databáze 1,5 milionu výrazů obličeje, vytvoří zcela novou tvář se stejným výrazem a přidá ji do původní fotografie či videa, přičemž zachová stejné pozadí. Výraz obličeje (i když jiného), který je mnohdy na videu či fotce to nejdůležitější, je do určité míry zachován.

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu.

Tuto technologii vyvinuli vědci z Norské technické univerzity a sami ji zatím označují za velmi experimentální. Funguje na mnoha typech fotografií a tváří, ale stále bojuje se situacemi, kdy je obličej částečně schovaný nebo natočený v určitých úhlech. Použití pro videa bude ještě potřebovat doladit.

Nejde o první pokus o pokročilejší anonymizaci obličejů pomocí umělé inteligence, v únorové studii vědci z University of Albany také použili hluboké učení k transplantaci klíčových prvků výrazů obličeje na někoho jiného. Tato metoda vyžadovala souhlas „dárce“, který tak poskytl svou tvář jako prostor pro projekci výrazů jiných lidí.

Deepfake pro dobro věci

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu. Tradiční techniky, jako je rozmazání nebo začernění obličeje, obnášejí risk, že budou neúplné, a tím pádem může být identita osoby prozrazena nebo zcela odstraní výraz v obličeji, často velmi důležitý pro kontext a vyznění videa či fotografie. Jelikož síť GAN vůbec nepoužívá původní tvář osoby, jsou jakákoliv rizika vyloučená.

Tento příklad využití technologií, které mohou sloužit i při vytváření falešných videí jako součást dezinformačních kampaní, ukazuje, že ne vždy musí být deepfakes použity těmi, kdo stojí na straně zla. Zatímco zmíněná studie byla omezena na vizuální média, ukazuje se, že sítě GAN lze použít také k anonymizaci hlasů.

Související…

Nebezpečí pro americké volby v roce 2020? Hlavně Instagram a WhatsApp
Jan Handl

foto: Shutterstock, zdroj: Technology Review

Tipy redakce

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Flákač, budižkničemu, alkoholik, čórka. To jsou typické konotace, které si mnoho z...

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

Ztraceni v pekle velkoměsta. Proč neumí naplňovat potřeby svých obyvatel?

„Talácel jsem se valícím davem, nikdo si mě nevšiml, nikdo na mě nepohlédl. Až...