Контент о COVID-19 помешал Facebook сосредоточиться на модерации других вредоносных постов
Во время пандемии компании пришлось отправить сотрудников на удаленную работу и во многом положиться на технологии искусственного интеллекта. Это отразилось на модерации в соцсети
Во втором квартале 2020 г. социальная сеть Facebook больше модерировала публикации, связанные с коронавирусом, чем другой потенциально опасный контент. Об этом говорится в отчете на сайте компании.
В общей сложности во втором квартале Facebook модерировала потенциально опасный контент порядка 22,5 млн раз, тогда в первом квартале компания насчитала 9,6 млн случаев. Уточняется, что если повторная проверка не выявляла нарушений, то посты восстанавливались.
С апреля по июнь соцсеть приняла меры в отношении 911 тыс. материалов, связанных с суицидом и насилием, что составляет чуть более 50% от показателя предыдущего квартала. В Instagram также наблюдалось снижение с 1,3 млн единиц аналогичного контента, подвергшегося модерации в первом квартале, до 275 тыс. во втором.
В Facebook такие итоги связали с самоизоляцией. Поскольку компании пришлось отправить сотрудников работать из дома, она во многом положилась на технологии искусственного интеллекта. Facebook признает, что без человеческой модерации сейчас практически не обойтись.
«С меньшим количеством рецензентов мы приняли меры в отношении меньшего количества материалов в Facebook и Instagram, связанных с самоубийствами и членовредительством, а также контента с детской наготой и сексуальной эксплуатацией в Instagram», — отметил в блоге Гай Розен, вице-президент компании по вопросам неприкосновенности.
В Facebook заявили, что с 2021 г. планируют проводить независимый аудит своих решений, чтобы предоставлять общественности точные данные о вредоносном контенте.