В мире искусственного интеллекта ошибки порой приводят к неожиданным результатам. Одна из самых удивительных историй случилась на этапе разработки GPT-2 — модели, которая, по замыслу, должна была генерировать связный и нейтральный текст. В какой-то момент во время её обучения произошёл сбой, и вместо предсказуемых, безопасных фраз ИИ начал выдавать откровенно похотливые и порой шокирующие ответы. Что же случилось? Как «умная» программа оказалась на грани непристойности, и что этот инцидент значит для будущего искусственного интеллекта? GPT-2, как и большинство языковых моделей, обучается на гигантских объёмах текстов, собранных со всего интернета. Идея проста: чем больше модель читает, тем лучше она понимает язык, логику и структуру предложений. Исследователи собирают миллиарды слов из самых разных источников — новостей, книг, форумов, сайтов. Но вместе с познавательной и интересной информацией в эти данные попадают и тексты, которые могут содержать нежелательные элементы. На этом э
Как ошибка при обучении GPT-2 превратила ИИ в похотливого собеседника
26 октября 202426 окт 2024
47
3 мин