Последние несколько лет мы наблюдаем огромный бум технологий на базе искусственного интеллекта. LLM-модели (Large Language Models - Большие языковые модели), такие как GPT-4, Sonnet и o3, безусловно, произвели революцию в способах решения повседневных задач разработчиков. Однако иногда их ответы оказываются не просто странными, а абсолютно нереальными. Недавно Бен Гарсия рассказал забавную историю о том, как он случайно ввёл в заблуждение не один, а сразу несколько популярных LLM, включая OpenAI o3, Sonnet 3.7 и Sonnet 3.5. Однажды коллега Бена, который обычно занимается DevOps, подошёл к нему с проблемой в Rails-проекте. В его коде было что-то похожее на: User.includes(investments: -> { where(state: :draft) }) Выглядит знакомо, правда? Только вот есть одна проблема: такого синтаксиса не существует в ActiveRecord или каком-либо известном дополнении к Rails. «Откуда ты это взял?» — спросил его Бен. Оказалось, коллега просто доверился совету ChatGPT. Проверка истории диалога с ИИ показал
🤖🔥 Как я случайно научил ChatGPT галлюцинировать на примере Rails
2 марта 20252 мар 2025
1
3 мин