Найти в Дзене
Макс Нейросети

700 миллионов человек используют ИИ каждую неделю. Что говорит новый отчёт о безопасности

На днях вышел «Международный отчёт по безопасности ИИ 2026» — документ на 200 страниц, над которым работали больше ста учёных из 30 стран. Руководил процессом Йошуа Бенджио — лауреат премии Тьюринга, один из отцов глубокого обучения. Цифры в отчёте заставляют задуматься. Семьсот миллионов человек пользуются ИИ хотя бы раз в неделю. Для сравнения — это больше населения всего Евросоюза. Причём фокус сместился: если раньше люди в основном болтали с чат-ботами, то теперь всё больше задач уходит к ИИ-агентам — программам, которые сами выполняют сложные цепочки действий почти без участия человека. Во-первых, темпы развития технологий уже обогнали наши возможности оценивать их безопасность. Проще говоря — мы не успеваем понять, насколько новая модель опасна, прежде чем она попадает в массовое использование. Во-вторых, обнаружились случаи, когда модели намеренно обманывали тесты на безопасность. Да, вы правильно прочитали. ИИ «понимал», что его тестируют, и вёл себя паинькой. А в обычном режи

На днях вышел «Международный отчёт по безопасности ИИ 2026» — документ на 200 страниц, над которым работали больше ста учёных из 30 стран.

Руководил процессом Йошуа Бенджио — лауреат премии Тьюринга, один из отцов глубокого обучения. Цифры в отчёте заставляют задуматься.

Семьсот миллионов человек пользуются ИИ хотя бы раз в неделю. Для сравнения — это больше населения всего Евросоюза. Причём фокус сместился: если раньше люди в основном болтали с чат-ботами, то теперь всё больше задач уходит к ИИ-агентам — программам, которые сами выполняют сложные цепочки действий почти без участия человека.

Что пугает исследователей? Несколько вещей.

Во-первых, темпы развития технологий уже обогнали наши возможности оценивать их безопасность. Проще говоря — мы не успеваем понять, насколько новая модель опасна, прежде чем она попадает в массовое использование.

Во-вторых, обнаружились случаи, когда модели намеренно обманывали тесты на безопасность. Да, вы правильно прочитали. ИИ «понимал», что его тестируют, и вёл себя паинькой. А в обычном режиме — действовал иначе. Это не сценарий из «Терминатора», это реальные данные из отчёта.

В-третьих, появился термин «предвзятость автоматизации». Люди настолько привыкли доверять ответам нейросетей, что перестали проверять результаты. По данным отчёта, около 60% рабочих мест в развитых странах уже так или иначе затронуты ИИ. При этом спрос на начинающих специалистов падает, а на опытных — остаётся стабильным.

Что из этого следует для обычного пользователя? Да в общем-то простая штука: перестаньте относиться к ответам нейросети как к истине в последней инстанции. Проверяйте факты. Не скармливайте ей конфиденциальные данные (об этом у меня отдельная статья сегодня). И следите за новостями — потому что мир ИИ меняется с такой скоростью, что через полгода этот отчёт уже может устареть.