Всего десять лет назад мы поражались, что компьютер научился отличать кошку от собаки. Сегодня ИИ — это ассистенты, которые в реальном времени понимают речь, видят глазами камеры и даже создают минутные видеоролики на основе одной фразы. Разбираемся, какие прорывы случились за последние два года, что они значат для бизнеса и обычных пользователей, а главное — куда нейросети движутся дальше. В мае 2024 г. OpenAI представила GPT-4o (о = omni) — первую массовую модель, которая одновременно «слышит» аудио, «видит» картинки и «говорит» текстом почти без задержек. Именно она лежит в основе сегодняшнего ChatGPT и жестикулирующих аватаров (Hello GPT-4o - OpenAI). Meta открыла коды Llama 3 (8B/70B параметров) и сделала их бесплатными даже для коммерции (Introducing Meta Llama 3: The most capable openly available LLM ...). В апреле 2025 добавился официальный API — теперь подключить модель можно «одной строкой» кода, что усилило конкуренцию с закрытыми платформами (Meta introduces Llama applic
Нейросети-2025: как ИИ превратился из «распознавания котиков» в генератор реальности
30 апреля 202530 апр 2025
1
3 мин