В AI-сообществе разгорелись жаркие споры после заявления CEO Anthropic Дарио Амодеи о том, что большие языковые модели (LLM) могут галлюцинировать даже меньше, чем люди. Это заявление прозвучало на фоне запуска новой серии Claude 4, включающей модели Claude Opus 4 и Claude Sonnet 4, которые, по утверждению Anthropic, устанавливают новые стандарты в кодировании, продвинутом анализе и AI-агентах. Галлюцинации: Препятствие или ступень к AGI? "Галлюцинации" — это распространенная проблема в LLM, когда модели выдают неправдоподобную или неверную информацию, представляя её как факт. Ранее Anthropic сама приносила извинения за то, что Claude "галлюцинировал" и выдавал неверные цитаты в судебных документах. Однако Амодеи считает, что галлюцинации не являются непреодолимым препятствием на пути к AGI (Artificial General Intelligence). Он утверждает, что LLM могут галлюцинировать даже меньше, чем люди, и что не существует "жестких ограничений" для развития AI. AGI не за горами? Амодеи — один из с
Anthropic CEO: Большие языковые модели галлюцинируют меньше людей, Claude 4 устанавливает новые стандарты для AGI
23 мая 202523 мая 2025
2 мин