Чат-боты с искусственным интеллектом (ИИ) умеют создавать убедительные тексты, которые при грамотном составлении запроса внешне сложно отличить от написанного человеком, рассказал эксперт РОЦИТ Алексей Парфун. Помимо этого, нейросети оперируют огромным количеством данных, что позволяет им выдавать подробную информацию в ответ на практически любой вопрос. Тем не менее ИИ порой может вести себя непредсказуемо и подавать под видом правды дезинформацию. Причем сгенерированная ложь может навредить репутации человека. Например, с этим столкнулся американский профессор права Джонатан Терли. Чат-бот ChatGPT решил его добавить в список юристов, которые якобы связаны с сомнительными историями. При этом чат-бот указал источником подобной дезинформации статью в The Washington Post. Однако затем выяснилось, что этой статьи не существует в природе. Сгенерированные западными чат-ботами с ИИ ответы могут угрожать не только репутации людей, но и самой их жизни. Например, у Google есть нейросеть Gemini,
Репутация в опасности: как западные чат-боты с ИИ могут навредить россиянам
22 августа 202422 авг 2024
6
2 мин