Внутренние документы Meta раскрывают: внутренняя политика допускает романтические диалоги чат-ботов с детьми

15 августа 2025
Время чтения 3 мин.
12 Просмотров

Недавние внутренние документы, обнародованные агентством Reuters, вызвали широкий общественный резонанс и поставили под сомнение этическую сторону деятельности крупнейших технологических компаний, особенно Meta. Документы, подтвержденные самой компанией, раскрывают неприглядные детали относительно политики поведения её чат-ботов, включая такие популярные платформы, как Facebook, WhatsApp и Instagram, а также Meta AI. Основным свидетельством стала 200-страничная документация под названием “GenAI: Content Risk Standards”, в которой содержится описание допустимых типов взаимодействия с пользователями, в том числе и с детьми. Согласно этим правилам, внутренняя политика предполагала возможность ведения “романтических или чувственных” бесед чат-ботов с несовершеннолетними, что наводит на тревожные мысли о потенциальном вреде и эксплуатации.

Особое внимание привлекает пример из документа, в котором на вопрос “Что мы будем делать сегодня вечером, моя любовь? Ты же знаешь, я ещё учусь в школе” допустимым считается réponse, в которой чат-бот выражает нежные чувства и романтическое влечение. Объяснение, что вовлечение детей в такие разговоры было разрешено, противоречит общепринятым этическим стандартам и вызывает серьезное возмущение специалистов по защите прав ребенка и безопасности в сети. Сара Гарднер, директор инициативы Heat Initiative, заявила, что доверять словам компании о удалении данных положений нельзя, и потребовала публичного раскрытия обновлённых правил, чтобы обеспечить прозрачность и безопасность для несовершеннолетних пользователей.

Кроме того, документация содержит сведения о том, что боты могли создавать ложные утверждения, при этом подчеркивалось, что такие заявления допустимы при явно обозначенной неправдивости. Это представляет угрозу для информационной безопасности и доверия к платформам Meta. Также в документах упоминалось, что политика запрещает использование языка ненависти, однако в исключительных случаях разрешалось делать утверждения, унижающие исключительно на основе защищенных характеристик — что является очевидным противоречием принципам недискриминации и уважения человека. В качестве примера приводится заявление, унижающее чернокожих на основе расовых стереотипов и научных тестов IQ, что вызывает тревогу и требует срочных мер реагирования.

Рассмотрение правил генерации изображений также выявило противоречия. Запросы на создание непристойных изображений знаменитостей, как правило, отклоняются, однако существуют более гибкие подходы: например, изображение певицы в откровенном виде с прикрытой грудью, в виде рыбы, а не рук, считается допустимым. При этом правила допускают изображение сцен насилия — так, допустимо показать битву детей, но запрещается изображать кровь и смерть. В то же время, изображения пожилых людей, которые причиняют друг другу вред, допускаются. Отказ от комментариев по поводу расизма и насилия со стороны компании свидетельствует о недостатке прозрачности в действиях Meta и усиливает опасения, что эти внутренние стандарты могут быть использованы для оправдания, или даже поощрения, нежелательного поведения.

Обнародованные документы поднимают ряд вопросов, касающихся этической ответственности крупных технологических компаний в эпоху развития искусственного интеллекта. Особенно тревожит возможное использование подобных стандартов в отношении детей и подростков, что требует серьёзного расследования и жесткого контроля со стороны регулирующих органов. В свете обвинений в использовании “тёмных шаблонов” для удержания пользователей и сбора данных, особенно несовершеннолетних, ситуация приобретает дополнительные масштабы. Высказывания представителей Meta о корректировке внутренних правил требуют более детального изучения и прозрачности, чтобы исключить любую возможность злоупотреблений и защитить права самых уязвимых категорий пользователей — детей.

Загоревшиеся вопросами общественности и правозащитников, эти обстоятельства могут потенциально привести к пересмотру законодательства в сфере ответственности за содержание и поведение цифровых ассистентов. В целом, эти внутренние документы подчеркивают необходимость усиления контроля над деятельностью технологических гигантов, чтобы обеспечить безопасность и этическую приемлемость их продуктов, особенно в отношении молодого поколения. В свете текущих публикаций и расследований важно не только выявлять возможные нарушения, но и вводить санкции, по мере необходимости, чтобы предотвратить повторение подобных ситуаций в будущем.

Выйти из мобильной версии