Последние три месяца я выступаю CTO в проекте по генеративным медитациям. Вот он, если интересно. Процесс выглядит так: 🔘 Выбираешь практику (каждая практика — это отдельный ИИ-агент) → 🔘 вводишь свой запрос (он фильтруется LLM-кой на предмет качества/запрещёнки) → 🔘 запрос анализируется и оценивается по множеству параметров → 🔘 LLM генерирует индивидуальную медитацию на основе заданной методологии → 🔘 ElevenLabs генерирует озвучку по множеству кусочков → 🔘 затем специальный хитрый алгоритм аккуратно склеивает аудио с нужными паузами и музыкой. На выходе получается весьма хорошо. Совсем глубоко раскрыть ноу-хау я не могу, но поделюсь важными находками, которые помогут многим в их проектах: 1. YandexGPT и GigaChat хуже расставляют ударения и окончания, чем зарубежный GPT. Даже на русском языке. Поэтому пока не стоит сильно надеяться на наши нейросетки — по крайней мере в таких задачах. 2. GPT-4.1 лучше всех «слушается» промпта, проверено. Почти идеально. Это проверял и в ИИ-саппор
Как сделать генеративную медитацию, и какие подводные камни в генерации голоса
14 июня 202514 июн 2025
2 мин