Найти тему
1284 подписчика

Ребята из Тинькофф (Тбанк нынче) выпустили свою ИИ. Итоги сравнения впечатляют (на русском языке). Посмотреть можно по этой ссылке. Судя по параметрам модели длина контекста: 8192 - это мало для полноценной работы.


Мы потестируем, потом напишу впечатления. Но размер контекста расстраивает :( Все же для большинства задач чем он больше, тем лучше.

P.s. если вдруг вы не знали, то контекст, упрощенно говоря, это сколько можно кинуть нейронке на вход (в промте), чтобы получить анализ- результат. Чем больше контекст, тем лучше для работы...

Ребята из Тинькофф (Тбанк нынче) выпустили свою ИИ. Итоги сравнения впечатляют (на русском языке). Посмотреть можно по этой ссылке.
Около минуты