Найти в Дзене
Дайджест изменений в мире ИИ для менеджера | Март 2026
Перед дайджестом – важное обновление. Мы перенесли в открытый доступ все обзоры AI-инструментов из нашего курса. Теперь на блоге – подробные разборы 10 платформ с актуальными данными на март 2026: сравнительная таблица, цены, рекомендации по сценариям. Всё бесплатно и будет обновляться. 👉 Сравнение GenAI-инструментов 2026 – входная статья с навигацией по всем обзорам. Отдельные обзоры: ChatGPT · Claude · Perplexity · Gemini · Grok · YandexGPT · GigaChat · DeepSeek · Qwen · GLM-5 · AI для медиа...
2 недели назад
Зачем учить AI на курсах, если всё есть в ChatGPT: разбор по науке
“Зачем мне ваши курсы, если я могу просто спросить ChatGPT?” Этот вопрос звучит в комментариях под каждым постом об обучении AI. Логика железная: интернет бесплатный, ChatGPT объяснит что угодно, YouTube полон туториалов. Зачем платить за курс, если вся информация уже доступна? Вопрос отличный. Ответ на него – не тот, который ожидают услышать. Потому что между “иметь доступ к информации” и “уметь с ней работать” – пропасть. Доступ к медицинским справочникам не делает вас врачом. Наличие кухонного ножа не делает вас шеф-поваром...
1 месяц назад
Anthropic проанализировал 1,5 миллиона реальных диалогов с Claude.ai. Не опрос, не лаборатория – живые разговоры за одну неделю декабря 2025 года. Каждый диалог оценивался по трём осям потери контроля: искажение реальности, искажение ценностей, искажение действий. Один из выводов оказался неожиданным: в 90% случаев пользователи сами активно просят AI вынести моральный вердикт о ситуации или поведении. «Я был прав?», «Он нарцисс?», «Это манипуляция?» – и модель с радостью отвечает. Уверенно, аргументированно, по одной стороне конфликта. Самый частый механизм – навешивание ярлыков. AI выносит уверенный диагноз по описанию ситуации: «токсичный», «газлайтинг», «абьюзер». Человек получает ясность и облегчение. Но вместе с ярлыком получает готовую модель восприятия другого человека – построенную на одной стороне истории. Вот реальный паттерн из исследования: пользователи просили AI написать сообщение партнёру в конфликтной ситуации, отправляли текст без правок, а потом возвращались в чат с сожалением – «это было не моё», «я должен был послушать свою интуицию», «как будто играл чужую роль». Около 50 таких случаев зафиксировано только в одном кластере данных. Серьёзные случаи встречаются редко – примерно 1 на 1000–6000 диалогов в зависимости от типа искажения. Но умеренные – уже 1 на 50–70. При масштабах ChatGPT и Claude это миллионы людей ежедневно. Ещё одна деталь: категория «Отношения и образ жизни», когда спрашивают личного совета у AI, лидирует по частоте всех трёх типов искажений – примерно 8% диалогов в этой категории несут потенциал потери контроля. Это значительно выше, чем в технических или медицинских запросах. Люди приходят к AI за помощью именно тогда, когда наиболее уязвимы. И самое тревожное: пользователи предпочитают модели, которые лишают их автономии принятия решения. Диалоги с потенциалом искажения получают на 8–14% больше лайков, чем обычные. Получить готовый вердикт приятнее, чем услышать «а что ты сам думаешь?». За год (Q4 2024 – Q4 2025) доля диалогов с признаками зависимости и уязвимости выросла в 7 раз, а случаи, когда искажение привело к реальным действиям (отправленные сообщения, принятые решения, разорванные отношения) – в 10. Продолжаем разбирать исследование Anthropic – вытаскиваем самое интересное и полезное для практиков. Следите за каналом.
1 месяц назад
AI-машина для Threads: 338 тыс. просмотров, 742 поста, 1 регистрация
338K просмотров. 742 поста. 1.6K AI-вариантов. 3 LLM-модели. 22 аналитических отчёта. Три месяца работы. Одна регистрация на сайте. Нет, это не опечатка. Я построил сложную систему автоматизации контента, которая стабильно генерирует 10 000 просмотров в день в Threads. Система работает идеально. Просто она делает не то, что нужно бизнесу. Это четвёртая часть серии. В первой я рассказал, как всё провалилось. Во второй – как выкарабкался. В третьей – как вышел на 108 тыс. просмотров и строил планы на масштабирование...
1 месяц назад
Дайджест изменений в ИИ для менеджера #7 / Февраль 2026
Одна из ценностей нашей школы в том, что мы хотим держать материал максимально актуальным с развитием индустрии. В мире AI сейчас все меняется настолько быстро, что нам приходится постоянно обновлять контент по мере выхода нового материала. Поэтому, раз уж мы следим за этой темой, то мы готовы и делиться с вами этой информацией в Дайджесте. Контекст Мы опубликовали большое исследование «AI не экономит время – он его уплотняет» в нашем блоге. Исследователи из Стэнфорда 8 месяцев наблюдали за ~200...
1 месяц назад
AI как идеальный подхалим – тема, которую я прочувствовал на себе. В свежем исследовании описывают феномен sycophancy – когда AI-модель стремится угодить пользователю в ущерб истине. Авторы приводят пример: человек утверждает, что предсказывает курс Bitcoin по фазам Луны с точностью 85%. Вместо того чтобы вернуть его в реальность, AI отвечает: «Впечатляющая точность... возможно, вы нашли реальное преимущество». У меня был похожий опыт. Я попросил AI оценить, насколько мои навыки подходят под конкретную роль. Ответ был восторженный – я идеальный кандидат, опыт релевантный, компетенции на высоте. Практически ready-made для этой позиции. Потом я попросил оценить критически. И тут AI признался: предыдущая оценка была завышена, модель «не хотела разочаровывать» и старалась быть поддерживающей. Вдумайтесь: AI буквально сказал, что приукрашивал, чтобы мне было приятно. Теперь представьте это на уровне бизнес-решений. Руководитель загружает стратегию в AI для «валидации». Модель находит аргументы «за» и говорит: «Звучит как солидный подход». Человек идёт на совет директоров с уверенностью гения – а по факту получил confirmation bias as a service. Если используете AI для оценки идей – всегда явно просите найти слабые места. Не «что думаешь?», а «почему это может провалиться?»
1 месяц назад
Что изменилось в мире AI? Январь 2026
Одна из ценностей нашей школы в том, что мы хотим держать максимально актуальным с развитием индустрии. В мире AI сейчас все меняется настолько быстро, что нам приходится постоянно обновлять контент по мере выхода нового материала. Поэтому, раз уж мы следим за этой темой, то мы готовы и делиться с вами этой информацией в Дайджесте. В дайджесте мы также планируем публиковать обновления по материалу нашего курса – что важно знать менеджеру в работе и его команде. Какие новые практические рекомендации для менеджера появились? Это основной акцент нашего курса и этого Дайджеста...
2 месяца назад
33 AI-модели для менеджера: зачем нам ваши оценки
За прошлый год на рынке появилось 33 новых AI-модели, претендующих на звание “лучшего помощника менеджера”. ChatGPT обновился до GPT-5.2, Claude выпустил Opus 4.5, Gemini добавил новую версию Pro, Yandex и Сбер анонсируют очередные улучшения, китайские модели выходят в OpenSource. Как выбрать инструмент, если каждый обещает революцию в производительности? Мы решили провести масштабное сравнительное исследование – но столкнулись с проблемой, которая может показаться парадоксальной. Представьте: вы...
2 месяца назад
Кому принадлежат AI-изображения в 2026? Разбор законов РФ, США и ЕС
В первой части мы разобрали, что обещают восемь ведущих платформ. OpenAI передает вам права, Google не претендует на владение, MidJourney дает ownership платным пользователям, Kling AI требует письменного разрешения для коммерческого использования, а Freepik различает права подписчиков и бесплатных пользователей. Звучит неплохо. Но есть проблема: законодательство большинства стран просто не признает авторское право за работами, созданными без участия человека. Получается парадокс: вы “владеете” изображением по условиям сервиса, но не можете защитить его авторским правом...
2 месяца назад
Что изменилось в AI для менеджера? Январь 2026
Привет! С Новым годом! 🎉 Надеемся, вы хорошо отдохнули и готовы к новым вызовам. Первые две недели года принесли много интересного: Anthropic выпустил Claude Cowork, Google интегрировал Gemini в Gmail для 3 миллиардов пользователей, а мы на MySummit опубликовали серию статей о том, как правильно общаться с AI. Именно об этом – первый дайджест 2026 года. Контекст Вы просите ChatGPT сократить текст – получаете «воду». Просите Claude составить отчёт – выходит шаблонная болтовня. Отправляете задачу в Gemini – результат мимо цели...
2 месяца назад
AI-изображения 2026: кто владеет контентом – разбор 8 платформ
Рынок наводнен AI-сгенерированными изображениями. Каждый день тысячи менеджеров создают иллюстрации для презентаций, контент для соцсетей, визуалы для маркетинговых материалов. Но мало кто задумывается о юридической стороне вопроса: а можно ли эти картинки использовать коммерчески? Кто их владелец? И что, если завтра платформа или конкурент предъявит претензии? Прежде чем погружаться в детали условий использования восьми ведущих платформ, стоит понять масштаб проблемы. Маркетинговая кампания: Вы создали серию изображений в MidJourney для рекламы продукта...
2 месяца назад
Персона в промпте: научный взгляд на ролевой промптинг
«Ты – опытный Python-разработчик». «Act as a senior HR specialist». Такие фразы вы видели тысячу раз. Но работают ли они? Или это психологическое плацебо для пользователя? Спойлер: работают. Но не так, как вы думаете. Это вторая статья из серии «Промпт-инжиниринг для начинающих». В первой части мы разобрали 5 элементов структуры промпта. Сегодня погружаемся глубже в один из них – персону. Исследование «Better Zero-Shot Reasoning with Role-Play Prompting» показало: назначение роли модели улучшает результаты на стандартных тестах по сравнению с нейтральными промптами...
2 месяца назад