Некоторое время назад эксперты и ученые в области машинного обучения заметили нечто странное в больших языковых моделях (LLM), таких как GPT-3 от OpenAI и LaMDA от Google: они необъяснимо хорошо справляются с задачами, для выполнения которых их специально не обучали. Это сложный вопрос и всего лишь один пример того, как может быть трудно, если не невозможно в большинстве случаев, объяснить, как модель ИИ достигает своих результатов в мельчайших деталях. В исследовании, опубликованном на arXiv, исследователи из Массачусетского технологического института, Стэнфордского университета и Google исследуют это “явно загадочное” явление, которое называется “in-context learning” (прим. обучение в контексте). Обычно для выполнения новой задачи большинство моделей машинного обучения необходимо переучивать на новые данные, процесс, который обычно может потребовать от исследователей ввода тысяч точек данных, чтобы получить желаемый результат — утомительное и трудоемкое занятие. Но благодаря обучению
Ученые сделали ошеломляющее открытие о том, как на самом деле работает ИИ
11 февраля 202311 фев 2023
2
3 мин