Вы когда-нибудь чувствовали себя обманутыми ChatGPT? Задавались вопросом, откуда берутся эти "факты", которые он так уверенно выдает? Новое исследование OpenAI проливает свет на эту темную сторону искусственного интеллекта, раскрывая шокирующую правду о "галлюцинациях" ИИ. 🤖➡️🤥 Согласно исследованию OpenAI, проблема кроется не только в некачественных данных обучения, но и в самой математической природе языковых моделей. Представьте, что нейросеть, как попугай, повторяет заученные фразы, не всегда понимая их смысл. 🦜 "Вероятность ошибки при генерации предложений как минимум в два раза выше, чем при ответе на вопрос 'да/нет'." – OpenAI Иными словами, чем сложнее задача, тем больше шансов, что ChatGPT "сочинит" ответ. OpenAI предлагает решение: позволить ИИ выражать неуверенность. Но представьте, что ChatGPT на каждый третий вопрос отвечает: "Я не знаю". 🤯 Много ли пользователей захотят работать с таким помощником? Перспектива: Чтобы отличить правду от лжи, ИИ потребуется больше вычи