Компания OpenAI опубликовала подробное объяснение своего подхода к решению одной из самых сложных дилемм в мире ИИ — как одновременно защищать приватность пользователей, обеспечивать свободу взаимодействия с технологией и гарантировать безопасность несовершеннолетних. В официальном заявлении признаётся, что эти принципы часто конфликтуют, и компания готова открыто рассказать о принятых решениях.
Приватность диалогов с ИИ объявлена приоритетом №1. OpenAI проводит параллель между конфиденциальностью разговоров с врачом или юристом и общением с ИИ — по мнению компании, такие беседы заслуживают аналогичного уровня защиты. Разрабатываются системы, которые ограничивают доступ даже для сотрудников OpenAI, за исключением крайних случаев: угрозы жизни, планы насилия или масштабные кибератаки.
Свобода взрослых пользователей называется вторым ключевым принципом. Компания следует философии «относиться к взрослым как к взрослым», модели можно настраивать под запросы, включая темы, которые по умолчанию ограничены (например, флирт или творческие сцены с тяжёлой тематикой).
Безопасность подростков (13+) приоритетнее свободы и приватности. Для их защиты внедряется система определения возраста на основе поведения в ChatGPT, а в сомнительных случаях применяются строгие ограничения. В некоторых странах возможно требование ID. Для несовершеннолетних полностью запрещены темы самоповреждения и флирта, а при выявлении рисков компания будет связываться с родителями или властями.
OpenAI признаёт, что такой баланс может вызывать споры, но подчёркивает: решения приняты после консультаций с экспертами и направлены на максимальную защиту уязвимых групп пользователей.