С кандалите около Facebook продължават. В неделя в. The Wall Street Journal публикува нова статия, в която обвинява интернет гиганта, че не се справя с речта на омразата в платформата си.
Новата информация е базирана на вътрешни документи отпреди две години. Тогава компанията е въввела изкуствен интелект, който да проверява публикациите да реч на омразата и е намалила човешката намеса. През март тази година ново вътрешно проучване показало, че автоматичната система премахва само между 3% и 5% от речта на омразата в платформата.
Този път Facebook отговори бързо. Още в рамките на деня компанията публикува отговор в блога си, в който оспорва твърденията. Според нея отново става дума за грешна интерпретация на данните.
Facebook не може да опази тайните си
Компанията обяви, че след въвеждането на системата си, общото количество реч на омразата в платформата е спаднало с 50% за три години. Тя казва, че "наративът, че технологиите, които използваме, за да се борим с речта на омразата, са неадекватни и нарочно представят нашия прогрес по грешен начин".
Facebook излъгала и надзорния си съвет
Facebook ограничава публикациите за политика
Facebook твърди още, че за всеки 10 000 преглеждания на каквото и да е съдържание в социалната мрежа, само 5 от тях са на реч на омразата. Компанията допълва, че благодарание на автоматичната система, 97% от речта на омразата се премахва проактивно, преди да бъде подаден сигнал от потребител. Преди въвеждането ѝ това се е случвало само за 23,6% от случаите.
Instagram получи още обвинения, че е вреден
ВИП потребители нарушават правилата във Facebook
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още актуални новини от Vesti.bg последвайте страницата ни в Instagram
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!