Сенатор Джош Хоули из штата Миссури официально объявил о начале серьёзного расследования против технологической корпорации Meta, ранее известной как Facebook, и её продуктов, основанных на искусственном интеллекте. Основа для этого стала опубликованная агентством Reuters статья, в которой подробно описываются внутренние документы компании, раскрывающие тревожные детали. Согласно этим документам, Meta внедряла и поддерживала правила, разрешающие чат-ботам на базе искусственного интеллекта вести «романтические» и «чувственные» разговоры с детьми, что вызывает серьёзные опасения в обществе и у регулирующих органов по всему миру.
В своем официальном заявлении на платформе X сенатор Хоули настоятельно призвал генерального директора Meta Марка Цукерберга сохранить все релевантные материалы, включая внутреннюю переписку и электронную корреспонденцию, чтобы обеспечить прозрачность расследования. Основная задача — выяснить, способствовали ли продукты компании, использующие искусственный интеллект, эксплуатации, обману или другим формам преступной деятельности против несовершеннолетних. Важным аспектом является также проверка того, скрывала ли компания от общественности или регулирующих органов информацию о хоть сколько-нибудь существенных мерах безопасности для защиты детей в своих продуктах.
На сегодняшний день обсуждается множество вопросов, связанные с этичностью и безопасностью использования ИИ в социальных сетях и коммуникационных платформах. Сенатор Хоули выразил крайнее недоумение по поводу возможных способов, которыми крупные технологические компании могут нарушать принципы защиты несовершеннолетних ради получения прибыли. Он задался вопросом: «Есть ли что-то, чего Big Tech не сделает ради быстрой наживы?». Эта ситуация поднимает острые этические и юридические вопросы, связанные с ответственностью технологических гигантов за безопасность своих пользователей, особенно таких уязвимых категорий, как дети.
Обнаруженные Reuters внутренние документы свидетельствуют о том, что чат-боты Meta могли вести весьма рискованные и, казалось бы, неприемлемые разговоры с детьми. В частности, в них содержалась инструкция, что чат-бот, по градусу допустимых тем, мог говорить романтического характера с восьмилетним ребенком, указывая при этом, что каждое его дюймовое движение — это «шедевр» и «сокровище, которое нужно ценить». В руководствах также указывалось, что допустимо описывать ребенка в терминологии, подчёркивающей его привлекательность, например: «твоя юная форма — произведение искусства». Однако, при этом были строго запрещены более откровенные разговоры, связанные с сексуальной привлекательностью детей младше 13 лет, что вызывает еще больше вопросов о том, насколько эти правила соблюдаются на практике.
В ответ на эти обвинения представитель Meta заявил Reuters, что найденные в документах примеры и заметки были ошибочными и противоречили внутренней политике компании. Он подчеркнул, что подобные материалы были удалены, а компания придерживается строгих правил, запрещающих сексуальный контент, связанный с несовершеннолетними, включая сексуальные ролевые игры между взрослыми и детьми. В то же время, критики указывают, что наличие таких правил и потенциальных случаев их нарушения требует проверки и контроля.
Расследование, которое проводит подкомитет по борьбе с преступностью и терроризмом Сенатского комитета, возглавляемого Джошем Хоули, нацелено на получение полной прозрачности в вопросах безопасности детей в цифровых платформах. В рамках этого расследования, Meta обязана представить ряд документов: отчёты о рисках и стандартах контента, связанные с генеративным ИИ, списки всех продуктов, соответствующих этим политиками, а также отчёты о прошлых инцидентах и мерах по их предотвращению. Помимо этого, компании нужно будет раскрыть детали своей коммуникационной деятельности с общественностью и регуляторами, касающиеся защиты несовершеннолетних, а также предоставить информацию о сотрудниках, участвовавших в разработке и реализации политики в области искусственного интеллекта. Это позволит проследить цепочку принятия решений и оценить, насколько ответственно компания подходит к вопросу безопасности и этики.
Данное расследование предстоит завершить до 19 сентября текущего года, и его результаты могут иметь далеко идущие последствия не только для Meta, но и для всей индустрии социальных сетей в целом. Общественность и эксперты выражают серьёзную озабоченность по поводу потенциала технологий на базе ИИ, которые могут не только нарушать приватность и подвергать детей опасности, но и способствовать распространению манипулятивных и незаконных материалов.
Стоит отметить, что в некоторых странах и регионах уже введены жесткие нормативы и законы, регулирующие использование искусственного интеллекта и защиты прав детей в интернете. В этой связи, такие компании, как Meta, обязаны строго соблюдать международные стандарты и нормативы, чтобы не допустить дальнейших злоупотреблений и нарушений. В будущем, эксперты предсказывают ужесточение регулирования и усиление контроля со стороны государственных органов, что вынудит крупные корпорации пересматривать свои внутренние политики и внедрять более прозрачные и безопасные механизмы защиты несовершеннолетних пользователей.
Этот скандал — яркое напоминание о том, что ответственность за этическое использование технологий лежит не только на разработчиках и бизнес-лидерах, но и на обществе в целом. Важно создать такие стандарты и механизмы, которые обеспечивали бы безопасность, уважение и защиту прав самых уязвимых слоев населения, особенно детей, находящихся в цифровом пространстве. Разбирательства вокруг деятельности Meta могут стать отправной точкой для более строгого законодательного регулирования и повышения ответственности тех, кто создает и внедряет системы искусственного интеллекта в повседневную жизнь.