Kак алгоритъмът на Facebook се затруднява да открие дезинформацията

Kак алгоритъмът на Facebook се затруднява да открие дезинформацията Снимка: Photo by Tim Bennett on Unsplash

Защо алгоритъмът на Facebook открива по-лесно публикации, свързани с голота, отколкото с дезинформация?

Много по-лесно е да се изгради AI (изкуствен интелект - бел. ред.) система, която може да открие женскo зърно, отколкото да се определи какво е езикова омраза.“ Основателят на Facebook Марк Зукърбърг направи този коментар през 2018 г., когато обсъждаше как компанията се справя със съдържание, което е счетено за неподходящо. Или, по отношение на Facebook, преценено, че нарушава общностните стандарти.


Технологията за изкуствен интелект на Facebook успява доста често да идентифицира голотата в мрежата. Между януари и март тази година Facebook премахна 39,5 милиона поста (вкл. снимки, видеа, и др.) за голота или сексуална активност на възрастни, а 99,2% от него беше премахнато автоматично, без потребител да съобщава за това.


Имаше 2,5 милиона жалби срещу премахването и 613 000 поста бяха възстановени. Но алгоритъмът не работи всеки път и AI има проблеми с исторически снимки и картини. Както Guardian Australia съобщи тази седмица, потребител бе временно премахнат за публикуването на изображение от 90-те години на XIX век на мъже аборигени във вериги в отговор на твърдението на австралийския премиер - от което впоследствие той се оттегли - че в Австралия е нямало робство.


Facebook призна, че блокирането на публикацията е грешка и я възстанови, но историята на Guardian за блокирането не бе публикувана.


Facebook вече използва AI, за да поправи платформата си за голота до момент, в който потребителите да обжалват малко решения, но когато става дума за омразна реч, дезинформация и друго съдържание, AI все още се разработва. Позицията на Зукърбърг за „зърното“ е, че за системите е много по-лесно да разпознават и блокират многократно изображение без човешка намеса, отколкото подобна AI система анализира текста на публикация или съобщение в контекст, за да определи, че е омразна реч.



Главните причини за притеснения относно разпространението на дезинформация се появиха покрай пандемията от коронавирус. През април компанията постави етикети за дезинформация на 50 милиона публикации, свързани с COVID-19, въз основа на проверки на факти от 7500 статии. Също така премахна 2,5 милиона продукта като маски за лице и дезинфектант за ръце от Marketplace от 1 март.

След като определено искане бъде проверено и се сметне за дезинформация, изображението, използвано в оригиналната публикация, се сканира, така че да се вземе в бъдеще, когато хората се опитат да го споделят. Към идентичните изображения има прикрепен етикет за проверка на факти, независимо дали тези изображения се свързват към статии или не.


Активистът и журналист Кори Доктроув повдигна въпроса тази седмица, че все по-често от Facebook се иска да поеме повече задачи за модериране на съдържанието, но това може да е грешна заявка. Толкова голяма платформа да се бори да определи какво е или не е подходящо съдържание в много култури, може би е по-добре да бъде намалена до по-малък мащаб, така че стандартите да съответстват на общностите, в които работи. Също така трябва да има прозрачен процес на преглед, който не изисква намеса от медиите или обществен натиск за премахване на нещо - или в този случай възстановяване на нещо, твърди той.

Още по темата във

facebook

Сподели тази статия в: