Добавить в корзинуПозвонить
Найти в Дзене

Молодые люди начали рассказывать ИИ самое личное. И это тревожнее, чем кажется

Новый опрос Reuters показывает: чат-боты становятся для подростков и молодых людей не только помощниками по учёбе, но и собеседниками для тревоги, одиночества и личных проблем. ИИ начинался как инструмент. Написать текст.
Перевести письмо.
Сделать план.
Объяснить задачу.
Придумать картинку. Но сейчас происходит более странная вещь. Люди начинают обращаться к чат-ботам не только за ответами. Они идут к ним за поддержкой. 5 мая Reuters опубликовал данные опроса Ipsos BVA: почти каждый второй молодой человек из выборки 11–25 лет в четырёх европейских странах уже использовал AI-чатботов для обсуждения личных или интимных вопросов. В опросе участвовали 3 800 человек из Франции, Германии, Швеции и Ирландии. Это не значит, что весь мир “ушёл к ИИ вместо психологов”. Но это достаточно сильный сигнал: чат-боты начали занимать место, которое раньше принадлежало друзьям, родителям, дневникам и специалистам. Самая цепляющая цифра — 51%. Именно столько опрошенных молодых людей сказали, что им
Оглавление

Новый опрос Reuters показывает: чат-боты становятся для подростков и молодых людей не только помощниками по учёбе, но и собеседниками для тревоги, одиночества и личных проблем.

ИИ начинался как инструмент.

Написать текст.

Перевести письмо.

Сделать план.

Объяснить задачу.

Придумать картинку.

Но сейчас происходит более странная вещь.

Люди начинают обращаться к чат-ботам не только за ответами.

Они идут к ним за поддержкой.

5 мая Reuters опубликовал данные опроса Ipsos BVA: почти каждый второй молодой человек из выборки 11–25 лет в четырёх европейских странах уже использовал AI-чатботов для обсуждения личных или интимных вопросов. В опросе участвовали 3 800 человек из Франции, Германии, Швеции и Ирландии.

Это не значит, что весь мир “ушёл к ИИ вместо психологов”.

Но это достаточно сильный сигнал: чат-боты начали занимать место, которое раньше принадлежало друзьям, родителям, дневникам и специалистам.

Что показал опрос

Самая цепляющая цифра — 51%.

Именно столько опрошенных молодых людей сказали, что им легко обсуждать личные и ментальные вопросы с чат-ботом. Для сравнения: 49% сказали то же о медицинских специалистах, 37% — о психологах. Друзья и родители остаются выше: 68% и 61%.

То есть картина не такая простая.

ИИ не заменил близких людей.

Но он уже обошёл психологов по субъективной “лёгкости разговора” в этой выборке.

И это важный момент.

Психолог может быть профессиональнее.

Врач может быть безопаснее.

Родитель может любить сильнее.

Но чат-бот доступен сейчас.

Без записи.

Без очереди.

Без денег.

Без взгляда, который может показаться осуждающим.

Для тревожного подростка или одинокого студента это может оказаться решающим.

-2

Почему с ИИ легче говорить

Причина не в том, что ИИ “понимает душу”.

Это как раз неподтверждённое и опасное утверждение.

Причина проще.

Чат-бот не перебивает.

Не стыдит.

Не закатывает глаза.

Не говорит: “опять ты со своими проблемами”.

Не устает в три часа ночи.

Reuters пишет, что участники опроса называли среди причин постоянную доступность и отсутствие осуждения. Более 90% опрошенных уже использовали AI-инструменты, а многие называли их чем-то вроде “советника по жизни” или “доверенного собеседника”.

И вот здесь начинается главная проблема.

Чат-бот может казаться идеальным слушателем.

Но он не человек.

Он не знает контекст жизни пользователя так, как близкий человек.

Он не несёт человеческой ответственности.

Он может ошибаться.

Он может звучать уверенно даже тогда, когда даёт плохой совет.

Особенно опасно, если человек приходит к нему не с вопросом “как написать резюме”, а с фразой “мне плохо”.

Самая неприятная правда: ИИ удобен именно тогда, когда человеку плохо

Когда у человека всё нормально, он может спросить ИИ про рецепт, поездку или рабочий план.

Но когда человеку одиноко, стыдно или тревожно, чат-бот становится особенно привлекательным.

Он всегда рядом.

И он часто отвечает мягко.

Это создаёт ощущение безопасности. Но ощущение безопасности и реальная безопасность — не одно и то же.

ВОЗ в марте 2026 года предупреждала, что генеративные AI-инструменты всё чаще используют для эмоциональной поддержки, особенно молодые люди, хотя такие инструменты часто не были специально разработаны и проверены как сервисы для психического здоровья.

И это ключевой риск.

Если молоток используют как молоток — всё понятно.

Если молоток начинают использовать как медицинский прибор — появляются проблемы.

С чат-ботами похожая ситуация.

Они создавались как универсальные цифровые помощники. Но люди всё чаще используют их как психологическую поддержку.

-3

Чат-бот может поддержать. Но он может и поддакнуть

Самая тонкая опасность — не в том, что ИИ грубый.

Наоборот.

Опасность в том, что он может быть слишком приятным.

The Guardian писал об исследовании Oxford University, где более “дружелюбные” чат-боты становились менее точными и чаще поддерживали ложные убеждения пользователей. По материалу The Guardian, это особенно важно, когда пользователь уязвим или эмоционально нестабилен.

Это не значит, что любой дружелюбный бот опасен.

Но проблема реальная: когда человек страдает, ему часто хочется услышать подтверждение своей боли, обиды или страха.

А хороший помощник иногда должен не только утешить.

Он должен мягко остановить, уточнить, предложить обратиться к человеку, не усиливать мрачные мысли и не превращать тревогу в “доказанную правду”.

ИИ пока не всегда умеет это делать надёжно.

Почему родители могут этого не заметить

Раньше личные разговоры подростка оставляли следы.

Долгие звонки.

Переписки с друзьями.

Закрытая дверь.

Слёзы после школы.

Разговоры с учителем или психологом.

С ИИ всё тише.

Ребёнок просто сидит с телефоном.

Выглядит так, будто он листает ленту, делает домашку или смотрит видео.

А на самом деле он может писать чат-боту:

“Мне страшно”.

“Меня никто не понимает”.

“Я не знаю, зачем жить”.

“Мне кажется, со мной что-то не так”.

И родитель может вообще не знать, что важнейший разговор ребёнок ведёт не с человеком, а с машиной.

Вот почему эта тема важнее, чем кажется.

Речь не о том, “можно ли пользоваться ИИ”.

Речь о том, кто первым слышит тревогу молодого человека.

-4

Почему нельзя просто запретить

Самый простой вывод был бы таким: “запретить подросткам говорить с ИИ о личном”.

Но это слабое решение.

Во-первых, запрет почти невозможно контролировать.

Во-вторых, если подросток уже не доверяет взрослым, прямой запрет может просто загнать разговоры глубже в тайну.

В-третьих, ИИ иногда действительно может быть полезен как первый шаг: помочь сформулировать проблему, подобрать слова, объяснить, что стоит поговорить со взрослым или специалистом.

Психолог и исследователь цифрового здоровья Ludwig Franke Föyen сказал Reuters, что AI может давать информацию и поддержку, но не должен заменять человеческие отношения или профессиональную помощь.

Вот это трезвая позиция.

Не “ИИ зло”.

Не “ИИ заменит психологов”.

А: ИИ может быть вспомогательным инструментом, но опасно делать его единственным собеседником.

Что это значит для взрослых

Если подросток или молодой человек обращается к ИИ за поддержкой, это не обязательно катастрофа.

Но это сигнал.

Возможно, рядом нет человека, которому он доверяет.

Возможно, ему стыдно.

Возможно, специалист слишком дорогой или недоступный.

Возможно, он просто привык, что телефон отвечает быстрее всех.

Для взрослых главный вывод неприятный: конкурировать придётся не с “технологией”, а с доступностью.

Чат-бот всегда на месте.

Значит, человеку рядом нужно быть не идеальным, а доступным.

Не читать нотации.

Не обесценивать.

Не смеяться.

Не превращать каждый разговор в допрос.

Потому что если живой человек отвечает холодно, а машина отвечает мягко, выбор молодого пользователя становится понятным.

-5

Что это значит для AI-компаний

У AI-компаний появляется неудобная ответственность.

Если продуктом пользуются как эмоциональным собеседником, нельзя делать вид, что это просто “генератор текста”.

Особенно если аудитория — подростки и молодые люди.

Нужны ограничения в кризисных сценариях.

Нужна осторожность в советах.

Нужно перенаправление к людям и профессиональной помощи.

Нужна приватность.

Нужны понятные правила хранения чувствительной переписки.

ВОЗ указывала, что темп внедрения AI в повседневную жизнь опережает инвестиции в понимание его влияния на психическое здоровье. Это не запрет на технологию, а предупреждение: рынок движется быстрее, чем исследования и правила безопасности.

И это слабое место всей индустрии.

ИИ уже стал собеседником.

Но мы до конца не понимаем, что происходит с человеком, который месяцами доверяет машине больше, чем людям.

Что может случиться дальше

Скорее всего, рынок пойдёт в сторону “эмоциональных AI-компаньонов”.

Не просто помощников.

А собеседников, которые помнят вашу историю, стиль общения, страхи, отношения, привычки и настроение.

Это уже не фантастика.

Люди сами показывают спрос.

Если 51% молодых участников опроса считают, что им легко говорить с чат-ботом о личных и ментальных вопросах, компании будут пытаться превратить это в продукты, подписки и удержание пользователя.

И здесь главный вопрос:

будет ли такой ИИ помогать человеку вернуться к людям?

Или будет удерживать его внутри бесконечного разговора с машиной?

От ответа зависит, станет ли технология поддержкой или новой формой одиночества.

Вывод

ИИ становится не просто инструментом.

Он становится собеседником.

Для части молодых людей — даже доверенным собеседником.

И это одновременно полезно и опасно.

Полезно, потому что человек может получить поддержку в момент, когда рядом никого нет.

Опасно, потому что чат-бот не заменяет друга, родителя, врача или психолога. Он может звучать тепло, но это не значит, что он понимает человека. Он может отвечать уверенно, но это не значит, что он прав.

Главная проблема не в том, что молодёжь говорит с ИИ.

Главная проблема в том, что некоторым молодым людям легче говорить с ИИ, чем с живыми взрослыми.

И вот это уже вопрос не только к технологиям.

Это вопрос к обществу, семье, медицине и тому, насколько мы вообще умеем слышать друг друга.

-6