Když Jessie Battaglia začala pro svého ročního syna hledat paní na hlídání, výpis z trestního rejstříku, recenze ostatních rodičů ani osobní pohovor jí nepřišly pro rozhodování dostatečné. Proto se obrátila na Predictim, online službu, která údajně používá „pokročilou umělou inteligenci“, aby vyhodnotila osobnost člověka na základě jeho příspěvků na Facebooku, Twitteru a Instagramu.

Jessie si nechala vyhodnotit sociální účty čtyřiadvacetileté ženy. Z analýzy vyšlo „velmi nízké riziko“ toho, že užívá drogy, ale o trochu vyšší pravděpodobnost (2 body z 5) vyšla pro šikanu, obtěžování, neuctivost a „špatný postoj“. Systém nedodal vysvětlení, na základě čeho tato rozhodnutí udělal. Battaglia, která předtím věřila, že si pečovatelku vybrala správně, začala i tak pochybovat. „Sociální média ukazují osobnost člověka. Tak proč měla dva body a ne jen jeden?“

Záhadné hodnocení

Predictim funguje na podobném principu jako desítky dalších systémů umělé inteligence (AI) po celém světě. Ty analyzují řeč, mimiku obličeje i účty na sociálních médiích a slibují, že odhalí na první pohled skryté aspekty osobnosti. Například technologická společnost Fama používá AI ke kontrole sociálních médií svých zaměstnanců, aby přišla na případné „toxické chování“ a následně upozornila vedení.

Kandidátům je doporučeno se během videorozhovoru usmívat, aby dosáhli co nejlepších výsledků.

Náborová společnost HireVue, která spolupracuje s firmami jako Geico, Hilton nebo Unilever, zase nabízí systém, který z videorozhovoru automaticky vyhodnotí kandidátův tón řeči, výběr slov a mimiku tváře, aby předpověděl jeho potenciál pro danou pozici. (Kandidátům je proto doporučeno se během videorozhovoru usmívat, aby dosáhli co nejlepších výsledků). Predictim a jemu podobné systémy fungují na základě záhadných algoritmů, které poskytují jen minimum informací o tom, jakým způsobem redukují vnitřní svět člověka na výpočet jeho potenciálních ctností či slabých stránek.

„Existuje tu bláznivá tendence využívat AI k tomu, aby dělala všemožné typy rozhodnutí, aniž bychom se ujistili, že je vhodné ji využívat i na lidské bytosti,“ upozorňuje pro Washington Post Jeff Chester, výkonný ředitel Centra pro digitální demokracii.

Je to jen „průvodce“

Ředitel a spoluzakladatel společnosti Predictim Sal Parsa se vyjádřil, že rodiče by měli brát hodnocení pouze jako průvodce výběrem, který „může i nemusí odrážet kandidátovy skutečné vlastnosti“.

Výsledky vygenerované počítačem slibují hluboký vhled do dlouhých let online aktivit uchazeče, jež jsou shrnuté do jednoduchého reportu.

Následně však dodal, že obecné riziko, že si člověk najme problematického či násilnického pečovatele, dělá z AI nezbytný nástroj pro každého rodiče, který chce, aby jeho dítě bylo v bezpečí. „Existují lidé, kteří mají duševní chorobu, nebo se prostě narodili zlí. Naším cílem je udělat cokoli, abychom je zastavili.“

Jak to funguje

Jeden rozbor z Predictimu začíná na ceně 24,99 dolaru a vyžaduje jméno pečovatele, emailovou adresu a jeho souhlas sdílet přístup k sociálním sítím. Tento požadavek může kandidát na pečovatele odmítnout, jeho šance na přijetí se tím však výrazně snižuje.


Představitelé společnosti říkají, že využívají algoritmy na zpracování jazyka a také software na rozpoznání obrázků známý jako „zrak počítače“, aby vyhodnotili účty na Facebooku, Twitteru i Instagramu. Výsledný rozbor zahrnuje několik kategorií včetně užívání drog, slušnosti, schopnosti pracovat s ostatními či „pozitivitu“. Výsledky dostává pouze rodič, který je pečovateli nemusí sdělovat.

Rodiče dostanou pouze vyhodnocení, ale už žádné specifické odkazy či detaily, které by mohli sami posoudit.

Rodiče by se samozřejmě mohli na sociální sítě podívat sami. Ale výsledky vygenerované počítačem slibují hluboký vhled do dlouhých let online aktivit uchazeče, jež jsou shrnuté do jednoduchého reportu, který je na první pohled opojně jednoduchým řešením pro jinak složitý výběr.

Kariéra závislá na AI?

Experti na techniku upozorňují na nedostatky systému jako takového, například na to, že vydělává na obavách rodičů. Navíc posudky osobnosti jsou pochybné kvality. Také zmiňují jeho náchylnost k nepřesnému vyložení obsahu sociálních sítí. Celé to navíc zhoršuje fakt, že rodiče dostanou pouze vyhodnocení, ale už žádné specifické odkazy či detaily, které by mohli sami posoudit. Jedna z matek, která dostala o vybraném pečovateli negativní výsledky, se například vyjádřila, že nebylo možné určit, zda software hodnotil starou hlášku z filmu, text písně nebo reálný status.

Něco, co algoritmus vyhodnotí jako „špatný přístup“, může být ve skutečnosti politické prohlášení nebo oprávněná kritika.

Jamie L. Williamsová, pracovnice neziskové organizace Electronic Frontier Foundation, souhlasí, že současné algoritmy používané k tomu, aby hodnotily význam slov a obrázků sdílených online, postrádají soudnost, kterou by měl běžný lidský čtenář. Dokonce i techničtí giganti, jako je Facebook, měly problémy vyvinout algoritmy, které by rozpoznaly rozdíl mezi nevinným komentářem a nenávistným napadáním.

„Mladí lidé mají své interní vtipy, jsou notoricky sarkastičtí. Něco, co algoritmus vyhodnotí jako ‚špatný přístup‘, může být ve skutečnosti politické prohlášení nebo oprávněná kritika,“ dodává Williamsová. Pokud systém vyhodnotí informaci špatně, což je evidentně pravděpodobné, rodič se to nikdy nedozví.

Související…

Jak umělá inteligence dokáže pomoct při identifikaci pedofilů
Jan Handl

Predictim se nyní připravuje na celonárodní expanzi a podle expertů je pravděpodobné, že jemu podobné hodnotící systémy budou v náborových společnostech stále častější, protože znamenají velkou úsporu času i peněz. Možná se tedy budeme muset připravit na budoucnost, kde naše pracovní zkušenosti budou mít pro potenciálního zaměstnavatele stejnou váhu jako příspěvky, které jsme před lety sdíleli na Facebooku. Pokud jste tedy zvyklí dávat na sociální sítě sarkastické poznámky, vtípky a ironický humor, připravte se na to, že umělá inteligence by je v budoucnu nemusela pochopit a jen na jejich základě vás vyhodnotit jako „nezaměstnatelné“.

foto: Shutterstock, zdroj: Washington Post