Найти в Дзене
Polites News

Журналист продемонстрировал уязвимость AI-чатботов к дезинформации

Журналист продемонстрировал, как легко манипулировать AI-чатботами, заставляя их повторять ложную информацию. Это поднимает вопросы о надежности и безопасности подобных систем. В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения. Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию. Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использо

Журналист продемонстрировал, как легко манипулировать AI-чатботами, заставляя их повторять ложную информацию. Это поднимает вопросы о надежности и безопасности подобных систем.

В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения.

Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию.

Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использованы для распространения дезинформации и манипуляции общественным мнением. Специалисты в области искусственного интеллекта призывают к усилению мер безопасности и внедрению более строгих алгоритмов проверки информации, чтобы предотвратить подобные инциденты в будущем.

https://polites.news/1984.html