Парадоксальный факт: мы не до конца понимаем, как работают большие языковые модели (LLM). Мы спроектировали, создали и обучили их, но внутренние механизмы работы оставались загадкой. По крайней мере, до недавнего времени. Благодаря новому исследованию Anthropic, вдохновленному техниками сканирования мозга, удалось объяснить, почему чат-боты галлюцинируют и плохо справляются с числами. А в некоторых случаях даже лгут, чтобы соглашаться с пользователями. Не случайно — так задумано. .card { background-color: #ffffff; border-radius: 8px; border: 2px solid #d1d1d1; box-shadow: 0 4px 8px rgba(0, 0, 0, 0.1); margin: 5px 0; overflow: hidden; max-width: 100%; transition: transform 0.3s ease, box-shadow 0.3s ease; } .card:hover { transform: translateY(-5px); box-shadow: 0 10px 20px rgba(0, 0, 0, 0.15); } .card-content { padding: 24px; } .card-title { color: #333333; font-size: 22px; font-weight: 900; margin-top: 0;
Anthropic создал микроскоп для наблюдения за мыслями ИИ — затем начались странности
31 марта 202531 мар 2025
2 мин