Системы искусственного интеллекта (ИИ), которые Facebook использует для модерации в социальной сети, не способны эффективно определять и удалять контент с проявлениями ненависти и чрезмерной жестокости, сообщает газета The Wall Street Journal (WSJ) со ссылкой на позицию инженеров компании, отраженную в документах. Несмотря на это, уже в 2019 году компания сократила время, которое живые модераторы могут уделять на рассмотрение жалоб на такое содержимое, что привело к завышению роли ИИ в публичной статистике Facebook, отмечает WSJ.
Искусственный интеллект Facebook не способен с приемлемой уверенностью определять расистские высказывания и видео от лица зачинщиков стрельбы, отмечает WSJ. В одном из случаев ИИ не мог установить разницу между видео автокатастроф и петушиных боев, что на протяжении нескольких недель озадачивало инженеров. «Проблема в том, что мы не можем и, наверное, никогда не сможем получить модель, которая бы определяла даже большинство нарушений, особенно в чувствительных вопросах»,— приводит газета слова одного из сотрудников Facebook из отчета от середины 2019 года.
Сотрудники Facebook также отмечали проблемы при распознавании языка вражды на языках мира. В частности, в конце 2020 года компания рассматривала возможность создания такого фильтра для арабского языка. Однако у компании не было достаточного массива информации о различных диалектах, и она испытывала проблемы даже со стандартным арабским.