Системы искусственного интеллекта (ИИ) всё чаще выдают неверную информацию, называемую галлюцинациями. Это происходит несмотря на рост их мощности. Новые системы рассуждений от OpenAI, Google и DeepSeek увеличивают число ошибок. Хотя их математические навыки улучшились, работа с фактами ухудшилась. Исследователи не могут объяснить причину. ИИ обучаются на больших объемах данных, но не способны различать правду и ложь. Они используют математические вероятности для выбора ответов, что приводит к ошибкам. Представители компаний признают, что галлюцинации неизбежны. Галлюцинации опасны для работы с важными данными, такими как судебные документы или медицинская информация. Они снижают ценность ИИ, который должен автоматизировать задачи. Тестирование показало, что галлюцинации у новейших систем OpenAI достигают 33-79%. Google и DeepSeek также столкнулись с ростом ошибок. Компании перешли к обучению с подкреплением, но этот метод работает нестабильно, особенно в сложных задачах. Боты часто де
The New York Times: Галлюцинации ИИ усиливаются и становятся всё чаще
7 мая 20257 мая 2025
40
~1 мин