fbpx
Flowee

Umělá inteligence by mohla ve videích generovat anonymní tváře, aby zachovala soukromí těch, kteří nemají být poznáni

Zveřejněno: 26. 9. 2019

Nová technologie pro anonymizaci videí využívá sítě generative adversial networks (GAN) tak trochu v opačném gardu. Tentokrát nejde o vytváření deepfakes, tedy například falešných videí, ale naopak o skrytí skutečných lidí, kteří se vyskytují ve videích nebo na obrázcích a z různých důvodů nemají být poznáni.

Jak to funguje? Algoritmus extrahuje informace o výrazu obličeje tím, že najde polohu očí, uší, ramen a nosu. Poté pomocí sítě GAN, která se učila z databáze 1,5 milionu výrazů obličeje, vytvoří zcela novou tvář se stejným výrazem a přidá ji do původní fotografie či videa, přičemž zachová stejné pozadí. Výraz obličeje (i když jiného), který je mnohdy na videu či fotce to nejdůležitější, je do určité míry zachován.

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu.

Tuto technologii vyvinuli vědci z Norské technické univerzity a sami ji zatím označují za velmi experimentální. Funguje na mnoha typech fotografií a tváří, ale stále bojuje se situacemi, kdy je obličej částečně schovaný nebo natočený v určitých úhlech. Použití pro videa bude ještě potřebovat doladit.

fake foto

Jak to tedy funguje? U postavy, která má zůstat anonymní, prostě systém změní tvář, ale její výraz zůstane. Takže asi tak...

Nejde o první pokus o pokročilejší anonymizaci obličejů pomocí umělé inteligence, v únorové studii vědci z University of Albany také použili hluboké učení k transplantaci klíčových prvků výrazů obličeje na někoho jiného. Tato metoda vyžadovala souhlas „dárce“, který tak poskytl svou tvář jako prostor pro projekci výrazů jiných lidí.

Deepfake pro dobro věci

Anonymizace obličeje je využívána k ochraně identity někoho, kdo je na fotografiích a záznamech například jako oznamovatel trestného činu. Tradiční techniky, jako je rozmazání nebo začernění obličeje, obnášejí risk, že budou neúplné, a tím pádem může být identita osoby prozrazena nebo zcela odstraní výraz v obličeji, často velmi důležitý pro kontext a vyznění videa či fotografie. Jelikož síť GAN vůbec nepoužívá původní tvář osoby, jsou jakákoliv rizika vyloučená.

Tento příklad využití technologií, které mohou sloužit i při vytváření falešných videí jako součást dezinformačních kampaní, ukazuje, že ne vždy musí být deepfakes použity těmi, kdo stojí na straně zla. Zatímco zmíněná studie byla omezena na vizuální média, ukazuje se, že sítě GAN lze použít také k anonymizaci hlasů.

Související…

Nebezpečí pro americké volby v roce 2020? Hlavně Instagram a WhatsAppNejvětší problém nastane, až lidé rezignují na pravdu, říká šéf ReportéruNový algoritmus dokáže rozpoznat, zda falešnou zprávu napsal algoritmus

foto: Shutterstock, zdroj: Technology Review

Tipy redakce

S Věrou Jourovou o tom, zda pravda a láska nakonec zvítězí i na internetu

S Věrou Jourovou o tom, zda pravda a láska nakonec zvítězí i na internetu

Také druhý ročník konference Dítě v síti zaštítila a nakonec také i navštívila...

Jak hvězdě Her o trůny sociální média pomohla k depresi

Jak hvězdě Her o trůny sociální média pomohla k depresi

Začalo to poměrně nevinně. Příjemné povídání dvou příjemných lidí. Situace se...

Je to nová planeta naší galaxie? Možná jde jen o černou díru

Je to nová planeta naší galaxie? Možná jde jen o černou díru

Aby nějaký astronom objevil novou planetu v naší sluneční soustavě, to je věc...

Pokračováním v prohlížení těchto stránek souhlasíte s Podmínkami užití a Pravidly využití Cookies.