Наблюдательный совет Meta снова принимает правила социальной сети для контента, создаваемого искусственным интеллектом. Совет принял к рассмотрению два дела, касающиеся откровенных изображений общественных деятелей, созданных с помощью ИИ.

Хотя правила Meta уже запрещают обнаженную натуру в Facebook и Instagram, в заявлении совета директоров говорится, что оно хочет выяснить, эффективны ли «политика Meta и ее правоприменительная практика в борьбе с явными изображениями, созданными ИИ». Созданные с помощью искусственного интеллекта изображения женщин-знаменитостей, политиков и других общественных деятелей, которые иногда называют «дипфейковым порно», становятся все более заметной формой онлайн-преследований и вызвали волну предлагаемых правил. В этих двух случаях Наблюдательный совет может подтолкнуть Meta к принятию новых правил для борьбы с такими преследованиями на своей платформе.

Надзорный совет заявил, что не называет имена двух общественных деятелей, фигурирующих в каждом деле, чтобы избежать дальнейших преследований, хотя и описал обстоятельства каждого сообщения.

Один из случаев связан с публикацией в Instagram, показывающей изображение обнаженной индийской женщины, созданное искусственным интеллектом, которое было опубликовано аккаунтом, который «делится только изображениями индийских женщин, созданными искусственным интеллектом». Сообщение было отправлено в Meta, но отчет был закрыт через 48 часов, поскольку не был проверен. Тот же пользователь подал апелляцию на это решение, но апелляция также была закрыта и никогда не рассматривалась. В конечном итоге Meta удалила публикацию после того, как пользователь обратился в Наблюдательный совет, и совет согласился рассмотреть дело.

Второй случай связан с публикацией поста в Facebook в группе, посвященной искусству искусственного интеллекта. В рассматриваемом посте было показано «созданное искусственным интеллектом изображение обнаженной женщины и мужчины, ощупывающего ее грудь». Женщина должна была напоминать «американского общественного деятеля», имя которого также было в подписи к посту. Сообщение было удалено автоматически, поскольку о нем сообщалось ранее, и внутренние системы Meta смогли сопоставить его с предыдущим сообщением. Пользователь подал апелляцию на решение об удалении, но апелляция была «автоматически закрыта». Тогда пользователь обратился в Надзорный совет, который согласился рассмотреть дело.

В своем заявлении сопредседатель Наблюдательного совета Хелле Торнинг-Шмидт заявила, что совет рассмотрел два дела из разных стран, чтобы оценить потенциальные различия в том, как реализуется политика Meta. «Мы знаем, что Meta быстрее и эффективнее модерирует контент на некоторых рынках и языках, чем на других», — сказал Торнинг-Шмидт. «Взяв одно дело из США и одно из Индии, мы хотим посмотреть, справедливо ли Мета защищает всех женщин во всем мире».

Наблюдательный совет запросит общественное обсуждение в течение следующих двух недель и опубликует свое решение где-то в ближайшие несколько недель вместе с политическими рекомендациями для Meta. Подобный процесс, связанный с ошибочно отредактированным видео Джо Байдена, недавно привел к тому, что Meta согласилась маркировать больше контента, созданного ИИ, на своей платформе.