fbpx

Umělá inteligence by mohla ve videích generovat anonymní tváře, aby zachovala soukromí těch, kteří nemají být poznáni

Zveřejněno: 26. 9. 2019

Nová technologie pro anonymizaci videí využívá sítě generative adversial networks (GAN) tak trochu v opačném gardu. Tentokrát nejde o vytváření deepfakes, tedy například falešných videí, ale naopak o skrytí skutečných lidí, kteří se vyskytují ve videích nebo na obrázcích a z různých důvodů nemají být poznáni.

Jak to funguje? Algoritmus extrahuje informace o výrazu obličeje tím, že najde polohu očí, uší, ramen a nosu. Poté pomocí sítě GAN, která se učila z databáze 1,5 milionu výrazů obličeje, vytvoří zcela novou tvář se stejným výrazem a přidá ji do původní fotografie či videa, přičemž zachová stejné pozadí. Výraz obličeje (i když jiného), který je mnohdy na videu či fotce to nejdůležitější, je do určité míry zachován.

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu.

Tuto technologii vyvinuli vědci z Norské technické univerzity a sami ji zatím označují za velmi experimentální. Funguje na mnoha typech fotografií a tváří, ale stále bojuje se situacemi, kdy je obličej částečně schovaný nebo natočený v určitých úhlech. Použití pro videa bude ještě potřebovat doladit.

fake foto

Jak to tedy funguje? U postavy, která má zůstat anonymní, prostě systém změní tvář, ale její výraz zůstane. Takže asi tak...

Nejde o první pokus o pokročilejší anonymizaci obličejů pomocí umělé inteligence, v únorové studii vědci z University of Albany také použili hluboké učení k transplantaci klíčových prvků výrazů obličeje na někoho jiného. Tato metoda vyžadovala souhlas „dárce“, který tak poskytl svou tvář jako prostor pro projekci výrazů jiných lidí.

Deepfake pro dobro věci

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu. Tradiční techniky, jako je rozmazání nebo začernění obličeje, obnášejí risk, že budou neúplné, a tím pádem může být identita osoby prozrazena nebo zcela odstraní výraz v obličeji, často velmi důležitý pro kontext a vyznění videa či fotografie. Jelikož síť GAN vůbec nepoužívá původní tvář osoby, jsou jakákoliv rizika vyloučená.

Tento příklad využití technologií, které mohou sloužit i při vytváření falešných videí jako součást dezinformačních kampaní, ukazuje, že ne vždy musí být deepfakes použity těmi, kdo stojí na straně zla. Zatímco zmíněná studie byla omezena na vizuální média, ukazuje se, že sítě GAN lze použít také k anonymizaci hlasů.

Související…

Nebezpečí pro americké volby v roce 2020? Hlavně Instagram a WhatsApp
Jan Handl

foto: Shutterstock, zdroj: Technology Review

Tipy redakce

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Nejtěžší bylo uvědomění, že nemám opravdu nic, říká bývalý bezdomovec

Flákač, budižkničemu, alkoholik, čórka. To jsou typické konotace, které si mnoho z...

Život ve městě zvyšuje riziko úzkostí. Co dělat, když se nechcete odstěhovat?

Život ve městě zvyšuje riziko úzkostí. Co dělat, když se nechcete odstěhovat?

„Talácel jsem se valícím davem, nikdo si mě nevšiml, nikdo na mě nepohlédl. Až...