Facebook zveřejnil svou třetí zprávu Community Standards Enforcement Report. Firma nyní sleduje metriky pro devět kategorií napříč obrovským množstvím obsahu, které mu uživatelé svěřují: nahota a sexualita, šikana a obtěžování, nahota dětí a sexuální vykořisťování dětí, falešné účty, nenávistné projevy, regulované zboží, spam, globální teroristická propaganda a násilí, no a také grafický obsah.

„Máme odpovědnost za ochranu svobody projevu lidí ve všem, co děláme,“ řekl generální ředitel společnosti Facebook Mark Zuckerberg na setkání s novináři krátce po zveřejnění této nové komunitní zprávy. „Ale zároveň máme také odpovědnost za to, abychom lidi na Facebooku udrželi v bezpečí a zabránili tomu, aby se na našich službách někomu ubližovalo.“

Co ukázal report

O tom, jaké množství obsahu z jednotlivých problémových kategorií na Facebooku vlastně je, si uděláte představu, pokud se podíváte na klíčová data z reportu:

  • Facebook má 1,56 miliardy aktivních uživatelů denně a 2,38 miliardy aktivních uživatelů měsíčně. Společnost v 1. čtvrtletí roku 2019 zrušila 2,19 miliardy falešných účtů
  • Odhaduje se, že přibližně 5 % měsíčních aktivních účtů je falešných
  • V prvním čtvrtletí Facebook smazal 4 miliony nenávistných projevů

Dětská nahota, drogy, zbraně

Justin Osofsky, viceprezident Facebooku, na tiskové konferenci řekl, že se chystá pilotní program, ve kterém se někteří z kontrolorů obsahu zaměří na nenávistné projevy. Jenže nenávistné projevy nejsou úplně tím největším zlem, jak ostatně ukazují další data:

  • Během posledních tří čtvrtletí bylo na Facebooku zaznamenáno nejméně 21 milionů případů dětské nahoty a sexuálního vykořisťování
  • Facebook zjistil 900 000 příspěvků týkajících se prodeje drog, z nichž 83,3 % bylo objeveno díky proaktivnímu přístupu
  • Ve stejném období bylo objeveno 670 000 příspěvků ohledně prodeje zbraní, z čehož bylo proaktivně zjištěno 69,9 %

Neudělali jsme někde chybu?

Facebook uvádí, že když podnikne kroky, které se týkají závadnosti nějakého příspěvku, oznámí to osobě, která ho zveřejnila, a ve většině případů jí nabídne možnost říct, zda si myslí, že Facebook udělal chybu. Tím ostatně Facebook připouští, že jeho systémy na odhalování škodlivého obsahu nejsou dokonalé.

Umělá inteligence nikdy neodhalí 100 % problematických příspěvků.

„Náš rozpočet pro bezpečnost v roce 2019 je vyšší než celkový příjem společnosti v roce 2012,“ řekl Zuckerberg novinářům. Mluvčí Facebooku už dříve objasnil, že Zuckerberg odkazuje na finanční údaje za rok 2011, tehdy Facebook vykázal příjmy 3,7 miliardy dolarů.

Facebook také sleduje metriku „Proactive rate“, která má indikovat, kolik nežádoucího obsahu bylo detekováno jeho umělou inteligencí v určité kategorii ještě předtím, než to nahlásil některý z uživatelů. Firma uvedla, že nyní může aktivně detekovat 65 % obsahu, což je o 24 % víc než před rokem. Zuckerberg často nabízí jako všelék na masivní obsahový problém Facebooku umělou inteligenci, respektive automatickou detekci problémového obsahu. Mike Schroepfer, technologický šéf firmy, přitom v rozhovorech přiznává, že umělá inteligence nikdy neodhalí 100 procent problematických příspěvků.

Související…

Proč si nedáme říct? Stále používáme sítě, které z nás vysávají data
Kateřina Hájková

foto: Shutterstock, zdroj: BuzzFeed