Журналист продемонстрировал, как легко манипулировать AI-чатботами, заставляя их повторять ложную информацию. Это поднимает вопросы о надежности и безопасности подобных систем. В феврале 2026 года журналист Би-би-си Томас Жермен провёл эксперимент, чтобы продемонстрировать уязвимость AI-чатботов к дезинформации. Он создал фальшивую статью на своём личном сайте, утверждая, что является ведущим техножурналистом в соревнованиях по поеданию хот-догов. В статье упоминались вымышленные соревнования и несуществующие достижения. Менее чем через сутки после публикации этой статьи, популярные AI-чатботы, включая ChatGPT и Google Gemini, начали предоставлять пользователям информацию о выдающихся навыках Жермена в поедании хот-догов, основываясь на ложных данных из его статьи. Это продемонстрировало, насколько легко можно манипулировать AI-системами, заставляя их распространять недостоверную информацию. Эксперимент Жермена выявил серьёзные проблемы в работе AI-чатботов, которые могут быть использо
Журналист продемонстрировал уязвимость AI-чатботов к дезинформации
28 февраля28 фев
1
1 мин