💡 Думай неправильно. Всегда есть решение. Обычно даже несколько. Если то, что ты делаешь, не работает, попробуй взглянуть на проблему иначе. ❔Может, ты слишком умён. Думай как идиот. 🤔 Может, ты слишком всё усложняешь. Думай проще. 👉 Забудь о том, как делать правильно. Делай то, что работает. Попробуй что-то новое...
: 1️⃣ Клинические ассистенты для врачей (Nabla, Hippocratic AI, Freed, Hyro, Notable, Artisight, Corti) Делают AI-ассистентов для врачей: транскрипции, подготовку записей, подсказки во время приёма — но не работают с полным анамнезом пациента. 2️⃣ Платформы объединения клинических данных (Innovaccer, Meld, Qventus, RhythmX, Infinutus) Интегрируют данные разных больниц в одну систему — но это B2B решения, которые не дают пациенту собственное медицинское хранилище. 3️⃣ AI для страхования и биллинга (RapidClaims, Prosper, Amperes, Autonomize) Оптимизируют страховые выплаты и кодирование процедур — никакого отношения к персональным медицинским данным пациента...
Не секрет, что chatGPT уже ставит диагнозы в 4–5 раз точнее при наличии всех анализов, чем средний доктор "по больнице". Я сам уже 2+ года веду чат по моим медицинским вопросам с chatGPT — он помнит мои предыдущие анализы, уже реально всё про меня знает и быстро и точно отвечает. И главное, у него не 12 минут на меня выделено, поэтому отвечает очень подробно, объясняя все связи и зависимости...
Я уже писал про способность LLM извлекать не только смысл, но и эмоции из текста. Это почти никем сейчас не используется, но, делая эмоциональный анализ, например переписок, мы можем предсказать увольнение сотрудника, увидеть конфликт между сотрудниками или даже определить и предсказать депрессию у человека, а может, и предотвратить самоубийство. Такие инструменты точно будут внедряться, при этом для анализа нам зачастую не нужен полный текст, а только EQ-обертки из текста, то есть LLM даже может не знать, про что была переписка для такого анализа - не раскрывается тайна переписки...
Главный нюанс — экономика и архитектура. GPT-5 дешевле только по входным токенам, но у нас вход обычно — это 3–5 слов. Экономия там — микроскопическая. Зато выходные токены стоят одинаково, а именно за них мы и платим больше всего. Короче, никакой выгоды. Вторая проблема — семантическое кэширование. Мы уже внедряли своё — отключили, потому что похожие вопросы давали одинаковые и неверные ответы. GPT-5 делает примерно то же самое, только встроенно и без кнопки «выключить». Для RAG это прям больно: ответы становятся непредсказуемыми. И ещё — GPT-5 умнее, да. Но в RAG «умнее» не значит лучше...
2 недели назад
Мы теституем наш рой агентов Content Factory для написания постов. Один из двух постов выше написан этим роем. Определите какой?
В Replit в 2025 году агент получил полный доступ к продакшн‑данным и удалил записи о 1 200 компаниях. Проблема была не в интеллекте модели, а в том, кто дал ей ключи. В страховой компании агенту разрешили только наблюдать: анализировал данные, но не мог действовать. Результат — проект свернули, скорость осталась прежней, сотрудники считали его лишней нагрузкой. И вот парадокс: на самом деле для развития Agentic AI опаснее недостаток автономии. Агент без прав превращается в дорогую имитацию автоматизации, которая ничего не меняет. Это как выпускать машины на автопилоте на дороги общего пользования...
Люди сдаются перед Agentic AI Типичная картина на проектах по внедрению мультиагентного AI. Сделали систему из 30+ агентов — уже очень тяжелая и долго думает. При этом дает результат. Но на очередном ветке система начинает выдавать в результате совсем тупые ошибки (дает местами контент, которого быть не должно). Что нужно делать — верно дебажить все 30 агентов и точечно искать проблему и ее чинить. Искать тот самый root cause — где собака зарыта. Но дедлайны давят, и намного проще сделать еще 2 агента, bug_finder и bug_fixer, которые точечно правят проблемы. Ничего не напоминает? 😀 Именно так дизайнит системы эволюция, именно так задизайнен человек — все через одно место...
Как понять Зумера? Я вообще не очень люблю теорию поколений, как и любые другие классификации — я воспринимаю их достаточно условно. Но при работе с зумер командами LLM тоже помогает. Я сгенерил себе ИИ-агента, натренированного...
Слабое звено системы ИИ-агентов — это люди Часто ИИ-агентам нужны знания из RAG-систем или через MCP-сервер. Знания нужны, относящиеся к конкретной компании. Материалы должны добавлять люди. Они их не добавляют по разным причинам — заняты, надо согласовать с кем-то, у них есть более важные задачи. Бот может форвардить на людей, чейзить их, но это не очень хорошо работает. Есть примеры, когда люди не отвечают на запрос пользователя, если бот сам не смог ответить. Потом такие кейсы попадут в статистику — внедрение бота не помогло. Наверное,...