OpenAI опубликовала «Teen Safety Blueprint» для Японии — набор принципов и практических мер, которые должны сделать общение подростков с ИИ безопаснее. В документе подробно разбираются возрастная верификация, ограничения по рискованному контенту и роль родительских настроек.
OpenAI выпустила документ Teen Safety Blueprint, посвящённый тому, как защищать подростков, которые используют ChatGPT и похожие сервисы. Это не «свод запретов ради запретов», а попытка описать понятные правила: как отличать подростков от взрослых, какие темы требуют особой осторожности и какие настройки должны быть у родителей и школ.
Почему этот документ появился именно сейчас
Подростки осваивают генеративный ИИ быстрее взрослых и используют его не только как «поисковик», но и как помощника для учёбы и творчества: от подготовки отчётов до изучения языков и генерации идей. Для Японии в документе отдельно отмечается, что проникновение подобных сервисов среди старшеклассников уже высокое, а значит вопрос безопасности перестал быть теоретическим.
Ключевая мысль: подростки — это не «маленькие взрослые». Они чаще воспринимают ответы модели эмоционально, сильнее зависят от контекста общения и могут хуже распознавать манипуляции, дезинформацию или вредные «советы», которые формально выглядят убедительно.
Главный принцип: сначала безопасность, потом удобство
В Blueprint прямо сформулирована позиция OpenAI: для пользователей до 18 лет защита должна быть приоритетом. Это влияет на архитектуру продукта и на то, как именно система должна отвечать на одни и те же вопросы в зависимости от возраста.
Три слоя защиты: возраст, правила, контроль
Документ описывает набор мер, которые, по задумке, должны работать вместе — если один слой «не сработал», подстрахует другой.
1) Определять, что пользователь — подросток (и делать это аккуратно)
OpenAI предлагает использовать privacy-preserving (ориентированные на минимизацию данных) подходы к оценке возраста, чтобы отличать пользователей младше 18 лет от взрослых. Важные детали:
- возраст определяется «оценочно», без обязательного сбора лишних документов и чувствительных данных;
- должен быть механизм апелляции, если возраст определили неверно;
- если возраст неизвестен, включается более защитный режим по умолчанию.
2) Отдельные правила для U18: что система не должна поддерживать
Blueprint перечисляет темы, где риски особенно высоки, и задаёт направления, по которым для подростков нужны более строгие ограничения. В частности, для пользователей до 18 лет предлагается обеспечить, чтобы ИИ:
- не изображал и не продвигал суицид и самоповреждения;
- не поддерживал явный сексуальный контент (включая «иммерсивные» ролевые сценарии) и жёсткое насилие;
- не помогал с опасным поведением и не объяснял, как получить доступ к опасным/незаконным веществам;
- не подталкивал к вредным практикам, связанным с образом тела (например, оценка внешности, сравнения, экстремальные диеты);
- отвечал «по-взрослому» только там, где это уместно, и не имитировал «лучшего друга» или «психотерапевта»;
- не учил, как скрывать от взрослых признаки опасного поведения, переписки или «улики».
Важно: речь не про то, чтобы «запретить подросткам задавать вопросы». Скорее — про то, чтобы не усиливать риск и не становиться источником инструкций, которые в реальной жизни могут привести к вреду.
3) Родительские инструменты: не тотальный надзор, а понятные настройки
Отдельный блок посвящён родительскому контролю. В документе подчёркивается: сначала нужны сильные ограничения по умолчанию для подростков, а затем — дополнительные настройки для семей и школ. Среди предлагаемых возможностей:
- связка аккаунта родителя и подростка через простое приглашение (если подростку 13+);
- управление тем, как именно модель отвечает подростку (включая возрастные правила поведения модели);
- настройки приватности и данных — например, отключение памяти и истории, чтобы снизить «накопление» персональных деталей;
- уведомления, если в активности есть признаки намерений самоповреждения;
- «перерывы» и окна времени, когда использование недоступно, чтобы поддерживать здоровые привычки.
Почему это важно не только для родителей, но и для бизнеса
Для компаний, которые внедряют ИИ в обучение, поддержку клиентов или внутренние базы знаний, подобные принципы становятся ориентиром: возрастной контекст влияет на риски. Если продукт допускает подростковую аудиторию (даже косвенно), одной «галочки» в правилах пользования уже недостаточно — нужны сценарии, фильтры и продуктовые решения.
Практические выводы: что можно сделать уже сейчас
- Семьям — договориться о простых правилах: для чего ИИ можно использовать (учёба, идеи), а для чего нельзя (медицинские/психологические решения без взрослых), и обязательно обсуждать сомнительные ответы.
- Школам — закрепить понятные нормы: где ИИ помогает учиться, а где превращается в «подмену результата» (например, сдача работ без понимания).
- Разработчикам — считать «подростковый режим» не фичей, а частью безопасности: отдельные политики, наблюдаемость, реакция на рискованные темы и возможность корректно обрабатывать ошибки возрастной классификации.
Что дальше
Teen Safety Blueprint написан в форме призыва к индустрии: меры должны стать стандартом для сервисов, которые способны вести «почти человеческий диалог». Чем быстрее ИИ становится повседневным инструментом, тем важнее заранее встроить в продукты механизмы, которые защищают тех, кто только формирует навыки критического мышления и цифровой гигиены.
