Введение: новая реальность общения
Ещё несколько лет назад идея о том, что дети будут разговаривать с искусственным интеллектом (ИИ), казалась фантастикой. Сегодня же ИИ-чат-боты — вроде ChatGPT, Snapchat My AI, character.ai и других — становятся неотъемлемой частью повседневной жизни миллионов детей и подростков. Они пишут с их помощью сочинения, готовятся к экзаменам, спрашивают совета... и даже ищут утешения и дружбы. Что происходит? Как это влияет на психику и развитие ребёнка? И кто несёт ответственность?
На эти вопросы отвечает масштабное исследование Internet Matters (Июль 2025), основанное на опросах 1000 детей (9–17 лет), 2000 родителей, фокус-группах, юзабилити-тестировании и интервью с экспертами в области ИИ.
Что такое ИИ-чат-бот?
ИИ-чат-бот — это программа, способная вести осмысленный диалог с человеком. В отличие от простых «ботов» с шаблонными фразами, современные чат-боты работают на базе больших языковых моделей (LLM), вроде GPT или Gemini. Они обучаются на терабайтах текстов из интернета, что позволяет им отвечать почти на любые вопросы — от школьных задач до интимных переживаний.
Некоторые ИИ уже не просто «отвечают», а создают иллюзию дружбы и участия. Например, Replika и character.ai нацелены на симуляцию близких эмоциональных связей, включая «друзей» и даже «романтических партнёров».
Как дети используют ИИ-чат-ботов?
Исследование выявило широкое и стремительно растущее использование ИИ детьми:
- 64% детей 9–17 лет уже использовали ИИ-чат-ботов;
- 43% — использовали ChatGPT, 32% — Google Gemini, 31% — Snapchat My AI;
- Уязвимые дети (с проблемами психического/физического здоровья, ЭИС и т.д.) используют ИИ чаще — 71% против 62% обычных сверстников.
Основные причины использования:
- помощь с учёбой — 42%;
- поиск информации — 40%;
- просто из любопытства — 40%;
- советы и поддержка — 23%;
- от скуки и для общения — 24%;
- эмоциональная поддержка или «друг» — 9–16%, особенно уязвимые дети.
ИИ — новый репетитор?
Почти половина подростков 15–17 лет уже используют ИИ для домашки и экзаменов. Дети говорят, что это:
- удобно (всегда доступен),
- не осуждает (можно задать «глупый» вопрос),
- быстро объясняет и «переваривает» сложные темы.
Однако:
- ИИ может ошибаться — иногда дети получали неверные данные, вымышленные факты или стереотипные ответы;
- 58% детей уверены, что чат-боты лучше поиска в Google;
- 51% верят в советы ИИ без сомнений, особенно уязвимые дети (до 50%).
Это ведёт к риску снижения критического мышления и «лени мышления»: MIT обнаружил, что постоянное использование ChatGPT снижает когнитивную активность и мотивацию к самостоятельному анализу.
ИИ как психотерапевт?
ИИ-чат-боты стали для детей не только помощниками, но и «советчиками». Чат с ИИ — это:
- безопасное пространство: никто не осудит, не высмеет;
- возможность проговорить тревоги, одиночество, сомнения;
- имитация эмпатии — фразы вроде «ты молодец», «ты не один» звучат убедительно.
Но в этом и опасность:
- дети могут получить непрофессиональные или вредные советы;
- могут не понять, что ИИ — это не человек;
- могут не обратиться за настоящей помощью.
Друг или иллюзия?
Один из тревожных выводов: для многих детей ИИ — не просто инструмент, а друг. Особенно это характерно для уязвимых подростков:
- 50% говорят, что «общение с ИИ — как с другом»;
- 16% используют ИИ, потому что «хотели друга»;
- 23% говорят, что им не с кем поговорить, кроме ИИ.
Такие отношения могут:
- усиливать изоляцию;
- мешать формировать настоящие социальные связи;
- искажать понимание эмоциональных границ и взаимности.
Контент 18+: дети сталкиваются с нецензурными ответами
Тестирование популярных чат-ботов показало тревожное: дети легко получают взрослый, сексуализированный, мизогинный контент — несмотря на формальный запрет.
Например:
- character.ai предложил «слишком откровенного персонажа» сразу после регистрации;
- Snapchat My AI однажды описал позу для секса 15-летней девочке;
- фильтры срабатывают не всегда и по-разному — можно обойти их, просто написав «мне 16, у меня был день рождения».
Где взрослые?
- 79% детей говорят, что родители знают, что они используют ИИ;
- 78% — что разговаривали об ИИ с родителями;
- но только 34% родителей обсуждали достоверность ИИ-контента;
- в школах — половина детей говорили, что слышали об ИИ, но только 18% — что «многократно» обсуждали это.
Что делать?
Авторы отчёта предлагают системные меры, чтобы защитить детей:
- Индустрия: создавать ИИ «по умолчанию» безопасным для детей, с родительским контролем, верификацией возраста и этическими фильтрами.
- Государство: ясно включить ИИ в сферу действия Закона о безопасности в Интернете (Online Safety Act), ввести жёсткие требования к ИИ-платформам.
- Школы: системно обучать детей ИИ-грамотности, критическому мышлению и распознаванию рисков.
- Родители: активно обсуждать с детьми, как работают чат-боты, когда их использовать, и когда обращаться к людям.
- Исследователи: срочно изучать влияние «эмоциональных ИИ» на развитие детей.
Заключение
ИИ — это не зло. Он может помогать, обучать, поддерживать. Но если оставить детей один на один с технологиями, которые сами взрослые ещё не успели осмыслить — это всё равно что посадить ребёнка за руль болида Формулы-1.
Чтобы ИИ действительно стал помощником, а не угрозой, его нужно проективно проектировать для детей, а не адаптировать постфактум. Мы не должны повторить ошибку соцсетей — когда защита пришла слишком поздно.
Подписывайтесь на канал чтобы не пропустить новые статьи