— председателя правления ВТБ Вадим Кулик. Он заявил, что ВТБ уже полгода работает на двух ядрах — на ядре китайской нейросети Qwen и на ядре российского «Яндекса». И модель «Яндекса», и модель «Сбера» пока еще уступают китайским Qwen или DeepSeek, сказал Вадим Кулик. «Более того, чем дальше мы с ними экспериментируем, тем больше мы понимаем, что они работают хуже, «мозгов» и информации там меньше, а скорость хуже, как это ни прискорбно», — рассказал Кулик. Он добавил, что создание языковой модели упирается в дороговизну (стартовый чек, по его оценке, - 50 млрд руб.) и наличие большого объема данных для обучения. Деньги 24 / Наши дайджесты: YT VK DZ RT MX ⬅️
Российские языковые модели искусственного интеллекта значительно уступают китайским, рассказал журналистам заместитель президента
8 апреля8 апр
16
~1 мин