В будущем такое поведение может стать настоящей проблемой. Специалисты Массачусетского технологического института опубликовали в журнале Pattern статью, в которой рассказали о своих опасениях из-за того, что некоторые модели искусственного интеллекта, как утверждают авторы исследования, научились «обманывать» пользователей. Исследовательская группа под руководством Питера Парка обнаружила, что системы искусственного интеллекта могут обманывать игроков в онлайн-играх или обходить CAPTCHA. Пак предупреждает, эти, казалось бы, тривиальные примеры могут иметь серьезные последствия в реальной жизни. Так, например, один из примеров коснулся популярного чат-бота GPT-4. ИИ-модель выдавала себя за незрячего человека и просила других пользователей помочь им в обходе каптчи на том или ином сайте. Ещё один пример — «Цицерон», искусственный интеллект, который задумывался, как честный игрок в компьютерных играх. Во время одной из игровых сессий, играя за Францию, нейронная сеть объединилась с Герман
Учёные в панике: искусственный интеллект научился обманывать людей
25 сентября 202425 сен 2024
2
1 мин