🔥 Подобные VLM-модели (Vision Language Models) уже вовсю используют Google и TikTok. Внедрение такой «зрячей» нейросети делает поисковую выдачу точнее, умнее и подстраивается под пользователя. Первым технологию получило VK Видео — там уже ищут по смыслу роликов, а не только по названиям. Дальше подход масштабируют на другие сервисы. Бонус для разработки: VLM ещё и ускоряет создание новых функций поиска. Хорошая новость, ждём прорыва в качестве! ⚡️ 🤖 Ботоферма в деле!
AI VK внедряет мультимодальные модели в поиск — теперь алгоритмы понимают смысл видео и картинок, а не просто теги
20 февраля20 фев
~1 мин