Найти в Дзене
Kineiro

«Основной риск в использовании ИИ — недостаток критического мышления»: эксперт ВТБ о реальных возможностях и угрозах искусственного интеллек

🤖 Искусственный интеллект всё глубже входит в повседневную жизнь и банковский сектор, но главный риск связан не с самим ИИ, а с тем, как люди ему доверяют. Максим Коноваликин, старший вице-президент ВТБ, объясняет, почему критическое мышление становится ключевой защитой от ошибок и где ИИ действительно приносит пользу. Использование ИИ уже вышло далеко за рамки экспериментов: банки, ритейл, медицина и госуслуги внедряют модели, работающие с большими данными. В банковской сфере ИИ помогает сотрудникам и клиентам — от скоринга до персонализированных рекомендаций. Максим Коноваликин, руководитель департамента анализа данных и моделирования и старший вице-президент ВТБ, в интервью «Известиям» делится практическим опытом внедрения ИИ и подчёркивает: главный риск несёт не технология как таковая, а человеческая склонность безоговорочно доверять её результатам. По словам Коноваликина, существует заметный разрыв между образом ИИ в медиа и реальными возможностями технологий. В публичном поле ИИ
Оглавление

🤖 Искусственный интеллект всё глубже входит в повседневную жизнь и банковский сектор, но главный риск связан не с самим ИИ, а с тем, как люди ему доверяют. Максим Коноваликин, старший вице-президент ВТБ, объясняет, почему критическое мышление становится ключевой защитой от ошибок и где ИИ действительно приносит пользу.

Контекст: ИИ в банках и в жизни клиентов

Использование ИИ уже вышло далеко за рамки экспериментов: банки, ритейл, медицина и госуслуги внедряют модели, работающие с большими данными. В банковской сфере ИИ помогает сотрудникам и клиентам — от скоринга до персонализированных рекомендаций.

Максим Коноваликин, руководитель департамента анализа данных и моделирования и старший вице-президент ВТБ, в интервью «Известиям» делится практическим опытом внедрения ИИ и подчёркивает: главный риск несёт не технология как таковая, а человеческая склонность безоговорочно доверять её результатам.

Медийный образ ИИ и реальность

По словам Коноваликина, существует заметный разрыв между образом ИИ в медиа и реальными возможностями технологий. В публичном поле ИИ часто представляют как «почти человека» с полным пониманием контекста и способностью автоматически принимать решения.

В действительности же роль человека в ИИ-контуре остаётся значительной: он формулирует задачи, проверяет результаты, принимает окончательные решения. ИИ — это программа, построенная на модели, механика которой пользователю часто неизвестна. Это создаёт почву для иллюзий и завышенных ожиданий.

Ограничения данных и вероятностная природа моделей

Ещё одна точка расхождения — представление о «всемогуществе» ИИ. Реальные системы жёстко ограничены качеством данных и архитектурой моделей. Шумные, неполные или устаревшие данные напрямую влияют на результат, как бы «уверенно» он ни был сформулирован.

Генеративный ИИ и большие языковые модели способны вести диалог, но их работа носит вероятностный характер. Нельзя гарантировать, что каждая сессия будет развиваться в нужном направлении и на приемлемом уровне качества. Это фундаментальное ограничение: модель формирует статистически правдоподобный ответ, но не оценивает его смысловую корректность в реальном мире.

Ложная уверенность и потеря критического мышления

Коноваликин считает основной угрозой не технические сбои, а психологический эффект. Пользователь часто передаёт ИИ не только часть работы, но и ответственность за решение. Уверенный тон и структурированный текст создают впечатление безошибочности, хотя модель не рефлексирует и не отвечает за последствия.

Так возникает ложная уверенность: снижается критичность, ответы перестают проверяться, решения принимаются «по инерции». Особенно уязвимо молодое поколение: удобство и скорость подсказок ИИ подталкивают к тому, чтобы «нажимать кнопку», а не осмысливать информацию. При длительном таком сценарии ослабевают навыки анализа, сравнения источников и самостоятельного суждения.

Где ИИ действительно полезен

При осознанном подходе ИИ становится мощным инструментом. Он особенно эффективен там, где необходимо:

  • быстро агрегировать большие массивы данных;
  • структурировать разрозненную информацию;
  • представить её в удобочитаемом виде.

Типичный пример — современные поисковые системы с ИИ-функциями, которые помогают разбираться в описании лекарств, продуктов, услуг. Такие инструменты экономят время и когнитивные ресурсы, но требуют обязательной проверки информации по независимым источникам. Без этого любая «подсказка» может превратиться в источник систематической ошибки.

Национальные языковые модели и цифровая идентичность

Отдельный акцент Коноваликин делает на развитии национальных больших языковых моделей на родных языках. Речь идёт не только о качестве работы с текстом, но и о сохранении цифровой идентичности.

Национальные модели учитывают культурный контекст, языковые нюансы, особенности общественного дискурса. Универсальные глобальные решения полезны, но без собственных инструментов страна рискует потерять контроль над частью коммуникаций и смыслов в цифровой среде, особенно в социально чувствительных темах.

Гиперперсонализация в банках: от сегментов к человеку

Развитие ИИ и аналитики даёт банкам возможность уйти от работы с усреднёнными сегментами к индивидуальному уровню. Вместо условной «группы по возрасту и доходу» фокус смещается на реальное поведение и потребности конкретного клиента (при его согласии на обработку данных).

По оценке Коноваликина, в горизонте 5–10 лет банки придут к модели гиперперсонализации, где «сегментом» фактически станет каждый человек. Это изменит подход к продуктам, тарифам, коммуникациям и сервису — от массовых линейных предложений к точечной настройке под реальные жизненные сценарии клиентов.

Критическое применение ИИ в контент-маркетинге

Та же логика работает и в контент-маркетинге. ИИ может взять на себя рутинные задачи:

  • генерацию черновых вариантов постов;
  • адаптацию текстов под форматы разных площадок;
  • планирование расписания публикаций;
  • анализ реакции аудитории и базовую оптимизацию под алгоритмы платформ.

Но стратегические решения — позиционирование бренда, тон голоса, выбор тем и смысловых акцентов, финальная оценка качества — должны оставаться в зоне ответственности человека. Без этого контент легко превращается в набор «правдоподобных», но бессодержательных формулировок, не отражающих реальную идентичность бренда.

Kineiro.ru исходит из такого сбалансированного подхода: сервис автоматизирует механическую часть контент-маркетинга (генерацию вариантов, планирование публикаций, адаптацию под Telegram, ВКонтакте, Одноклассники, Instagram, Яндекс Дзен и их алгоритмы), но стратегическое управление, контроль качества и критическая оценка остаются за маркетологом или владельцем бизнеса. Это позволяет сочетать скорость и масштабируемость ИИ с аутентичностью и осмысленностью человеческих решений.

Вопрос: Какую часть ответственности вы готовы доверить ИИ?

Если посмотреть на ваш собственный опыт, в каких задачах вы уже привыкли полагаться на ИИ, а где сознательно оставляете за собой последнее слово? Проверяете ли вы его ответы, сопоставляете ли их с другими источниками или всё чаще ловите себя на автоматическом согласии — и что это говорит о том, как устроено ваше критическое мышление в эпоху растущей автоматизации?