Модерация Facebook слабее на языках, кроме английского; обслуживает контент по-разному для мужчин и женщин; отключили антиэкстремистские гарантии против беспорядков в Капитолии; и его алгоритм плохо понимается даже внутри сборки © FT; Getty Images

Facebook борется со своим худшим кризисом со времен скандала с Cambridge Analytica после того, как информатор, обвинивший компанию в «прибыли важнее безопасности», пролил свет на ее внутреннюю работу через утечки тысяч страниц примечаний.

Документы были переданы регулирующим органам США и переданы Конгрессу в отредактированном виде юрисконсультом Фрэнсис Хоген. Консорциум новостных организаций, включая Financial Times, получил отредактированные версии, полученные Конгрессом.

Ранее в этом месяце Хауген засвидетельствовал в Конгрессе, что компания социальных сетей не делает достаточно для обеспечения безопасности своих 2,9 миллиарда пользователей, преуменьшая ущерб, который она может нанести обществу, и неоднократно вводила в заблуждение инвесторов и общественность. The Wall Street Journal также опубликовал серию статей под названием Файлы Facebook.

Вот четыре удивительных откровения в документах:

У Facebook огромная лингвистическая проблема

Facebook часто обвиняют в том, что он не модерирует язык вражды на своих англоязычных сайтах, но проблема намного хуже в странах, говорящих на других языках, даже после обещания инвестировать больше после того, как его обвинили в содействии геноциду в Бирме в 2017 году. .

В одном из документов от 2021 года содержится предостережение против очень небольшого числа модераторов контента на арабских диалектах, на которых говорят в Саудовской Аравии, Йемене и Ливии. Другое исследование, проведенное в Афганистане, где у Facebook 5 миллионов пользователей, показало, что даже страницы, объясняющие, как сообщить о ненавистнических высказываниях, были неправильно переведены.

Facebook выделила только 13% своего бюджета на разработку алгоритмов для обнаружения дезинформации за пределами США © Илана Панич-Линсман / The Washington Post / Getty

Неудачи произошли, несмотря на то, что в собственном исследовании Facebook некоторые страны были отмечены как «страны с высоким риском» из-за их хрупкого политического ландшафта и частоты высказываний ненависти.

Согласно одному из документов, в 2020 году компания потратила 87 процентов своего бюджета на разработку алгоритмов для обнаружения дезинформации в Соединенных Штатах по сравнению с 13 процентами в остальном мире.

Хауген сказал, что Facebook должен быть прозрачным в отношении своих ресурсов по странам и языкам.

Facebook часто не понимает, как работают его алгоритмы

Несколько документов показывают, что Facebook сбивает с толку свои собственные алгоритмы.

В одной записке от сентября 2019 года было обнаружено, что мужчины занимают на 64 процента больше политических должностей, чем женщины, «почти во всех странах», и эта проблема особенно остро стоит в странах Африки и Азии.

Хотя мужчины чаще подписываются на аккаунты с политическим контентом, в меморандуме говорится, что алгоритмы ранжирования каналов Facebook также сыграли значительную роль.

Facebook обнаружил, что «почти во всех странах» мужчины получают на 64% больше политических постов, чем женщины © Paul Morris / Bloomberg

В записке от июня 2020 года было обнаружено, что «практически гарантировано», что «основные системы Facebook демонстрируют системную предвзятость, основанную на расе затронутого пользователя».

Автор предположил, что, возможно, на рейтинг новостных лент больше влияют люди, которые делятся часто, чем люди, которые делятся и взаимодействуют реже, что может коррелировать с расой. Это приводит к тому, что содержание одних рас имеет приоритет над другими.

Поскольку ИИ потерпел неудачу, Facebook усложнил возможность сообщать о разжигании ненависти

Facebook давно заявлял, что его программы искусственного интеллекта могут обнаруживать и устранять разжигание ненависти и оскорбления, но файлы показывают его ограничения.

Согласно записке исследовательской группы от марта 2021 года, компания принимает меры только в отношении 3-5 процентов разжигающих ненависть высказываний и 0,6 процента материалов с насилием. Другое примечание предполагает, что оно никогда не может превышать 10–20 процентов, потому что ИИ «чрезвычайно сложно» понять контекст, в котором используется язык.

Несмотря на это, Facebook уже решил больше полагаться на ИИ и сократить деньги, которые он потратил на человеческую модерацию в 2019 году, когда дело доходит до языка вражды. В частности, компания затруднила подачу жалоб и обжалование решений, касающихся разжигания ненависти.

Facebook заявил, что «борясь с языком ненависти в Facebook, наша цель — снизить его распространенность, которая составляет столько, сколько люди на самом деле видят». Он добавил, что на язык вражды приходится всего 0,05 процента того, что воспринимают пользователи, и эта цифра снизилась на 50 процентов за последние три квартала.

Facebook позабавили, пока Капитолий горел

Документы раскрывают Facebook бороться, чтобы остановить взрыв языка вражды и дезинформация на его платформе вокруг беспорядков 6 января в Вашингтоне, вызвавшая внутренние беспорядки.

Facebook отключает экстренные меры защиты от высказываний ненависти от бунтов Капитолия в Вашингтоне, округ Колумбия, 6 января © Leah Mills / Reuters

Примечания показывают, что компания отключила некоторые меры предосторожности после выборов в ноябре 2020 года, чтобы повторно активировать некоторые из них, когда вспыхнет насилие. Одна внутренняя оценка показала, что быстрому внедрению мер препятствовало ожидание одобрения группы разработчиков политики.

Даже активные действия не принесли желаемого эффекта. В октябре 2020 года Facebook публично объявил о прекращении поддержки «групп граждан», которые обсуждают социальные и политические вопросы. Однако из-за технических трудностей с внедрением изменения 3 миллиона пользователей в США продолжали рекомендовать по крайней мере одну из 700 000 определенных гражданских групп ежедневно в период с середины октября 2020 года по середину января 2021 года, согласно одному исследованию.

Ответ фейсбука

Facebook отказался комментировать некоторые детали обвинений, заявив вместо этого, что прибыль не ставилась выше безопасности или благополучия людей, и что «правда в том, что мы инвестировали 13 миллиардов долларов, и у нас есть более 40 000 человек, которые выполняют одну работу. : безопасные люди. в Facebook ».

Получать включенные оповещения Facebook Inc когда будет опубликована новая история

Повторно использовать этот контент (Открывается в новом окне) ЗамечанияПерейти в раздел комментариев