Мы привыкли думать, что искусственный интеллект — это про точность. Один и тот же запрос = один и тот же ответ. Но всё оказалось куда интереснее. Даже если выставить температуру в ноль, чтобы убрать случайность, ChatGPT может давать разные ответы. И это не баг, а системная особенность. Учёные копнули глубже и выяснили, что дело не только в «шумных» GPU или округлениях в вычислениях. Главный фактор — batching, то есть как сервер обрабатывает запросы в потоке. Сегодня ваш вопрос попал в пачку из 10, завтра в пачку из 50 — и итоговый ответ уже другой. Для обычного пользователя это выглядит как «рандом», а для науки это катастрофа: нет стабильности = нет доверия. Решение оказалось радикальным: переписать базовые операции трансформеров так, чтобы они вели себя одинаково при любых условиях. Да, это медленнее на 20%, но зато стабильность железобетонная. Результат: 1000 одинаковых ответов подряд вместо десятков разных. Для обучения моделей это прорыв — исчезает риск «схлопывания» из-за непредс