fbpx
Flowee

Umělá inteligence by mohla ve videích generovat anonymní tváře, aby zachovala soukromí těch, kteří nemají být poznáni

Zveřejněno: 26. 9. 2019

Nová technologie pro anonymizaci videí využívá sítě generative adversial networks (GAN) tak trochu v opačném gardu. Tentokrát nejde o vytváření deepfakes, tedy například falešných videí, ale naopak o skrytí skutečných lidí, kteří se vyskytují ve videích nebo na obrázcích a z různých důvodů nemají být poznáni.

Jak to funguje? Algoritmus extrahuje informace o výrazu obličeje tím, že najde polohu očí, uší, ramen a nosu. Poté pomocí sítě GAN, která se učila z databáze 1,5 milionu výrazů obličeje, vytvoří zcela novou tvář se stejným výrazem a přidá ji do původní fotografie či videa, přičemž zachová stejné pozadí. Výraz obličeje (i když jiného), který je mnohdy na videu či fotce to nejdůležitější, je do určité míry zachován.

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu.

Tuto technologii vyvinuli vědci z Norské technické univerzity a sami ji zatím označují za velmi experimentální. Funguje na mnoha typech fotografií a tváří, ale stále bojuje se situacemi, kdy je obličej částečně schovaný nebo natočený v určitých úhlech. Použití pro videa bude ještě potřebovat doladit.

fake foto

Jak to tedy funguje? U postavy, která má zůstat anonymní, prostě systém změní tvář, ale její výraz zůstane. Takže asi tak...

Nejde o první pokus o pokročilejší anonymizaci obličejů pomocí umělé inteligence, v únorové studii vědci z University of Albany také použili hluboké učení k transplantaci klíčových prvků výrazů obličeje na někoho jiného. Tato metoda vyžadovala souhlas „dárce“, který tak poskytl svou tvář jako prostor pro projekci výrazů jiných lidí.

Deepfake pro dobro věci

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu. Tradiční techniky, jako je rozmazání nebo začernění obličeje, obnášejí risk, že budou neúplné, a tím pádem může být identita osoby prozrazena nebo zcela odstraní výraz v obličeji, často velmi důležitý pro kontext a vyznění videa či fotografie. Jelikož síť GAN vůbec nepoužívá původní tvář osoby, jsou jakákoliv rizika vyloučená.

Tento příklad využití technologií, které mohou sloužit i při vytváření falešných videí jako součást dezinformačních kampaní, ukazuje, že ne vždy musí být deepfakes použity těmi, kdo stojí na straně zla. Zatímco zmíněná studie byla omezena na vizuální média, ukazuje se, že sítě GAN lze použít také k anonymizaci hlasů.

Související…

Nebezpečí pro americké volby v roce 2020? Hlavně Instagram a WhatsAppNejvětší problém nastane, až lidé rezignují na pravdu, říká šéf ReportéruNový algoritmus dokáže rozpoznat, zda falešnou zprávu napsal algoritmus

foto: Shutterstock, zdroj: Technology Review

Tipy redakce

Alkoholismus se dá léčit i mírněji než abstinencí, říká psycholožka Marie Funke

Alkoholismus se dá léčit i mírněji než abstinencí, říká psycholožka Marie Funke

Možná jste si po propité silvestrovské noci dali jako spousta lidí následující...

Fotíte rádi? 99 procent fotek, které pořídíte, nikoho nezajímá. Vlastně ani vás

Fotíte rádi? 99 procent fotek, které pořídíte, nikoho nezajímá. Vlastně ani vás

Novinář Chris Taylor na serveru Mashable pregnantně vyjádřil stav , ve kterém se...

Vyrobí palivo budoucnosti slunce? Mohlo by, a to na bázi fotosyntézy

Vyrobí palivo budoucnosti slunce? Mohlo by, a to na bázi fotosyntézy

Alternativní zdroje energie jsou oblíbeným zaklínadlem současnosti. Problém je...

Pokračováním v prohlížení těchto stránek souhlasíte s Podmínkami užití a Pravidly využití Cookies.