Найти в Дзене
На выходных я генерировала видео подводного мира в Kling AI. Рыбки, кораллы, медузы — красота. А потом написала промпт про осьминога. Родила царица в ночь ... Так вот 🐙 Kling AI хорошо рисует воду и простые формы — скат получился отлично. Рыбы — видно, что подрисованы, но терпимо. Кораллы — так себе. Похоже, закономерность такая: чем проще геометрия — тем лучше результат. Может, другие модели справятся лучше — проверю. А пока наслаждаемся неведомой зверюшкой 🐙
1 день назад
На этой неделе я устроила краш-тест ГигаЧату. Ситуация: менеджер по продажам готовится к переговорам с федеральной сетью. Я собрала таблицу на 20 товаров, придумала легенду и дала ГигаЧату пять задач — от делового письма до стратегии переговоров. Каждая сложнее предыдущей. В данных спрятала ошибку на 20 000₽ — посмотреть, заметит или нет. Не заметил. Написал «расхождений не выявлено». Зато порекомендовал 10 товаров для коммерческого предложения — четыре из которых не существуют. Придумал артикулы, названия, цены. И засунул их в КП с красивой структурой. Выглядит как настоящее. Только данные — галлюцинация. GPT ту же ошибку нашёл за полминуты 🤷‍♀️ ⚡️ ИИ мания
3 дня назад
Нейросеть за минуту собрала отчёт, который я делала 3 часа. Но одну позицию потеряла
Каждую неделю я получала отчёты от партнёров: что продали, что осталось на складе. У каждого партнёра — свой формат, свои названия товаров, свой бардак. Мне нужно было свести всё в одну таблицу. Руками. Каждую неделю. Решила проверить: справится ли нейросеть? Загрузила файлы, написала задачу. Почти справилась. И вот это «почти» оказалось самым интересным. У нас в системе товар называется «Подставка для ноутбука алюминиевая». Один партнёр пишет «Подставка для ноутб. алюм.». Второй — «Ноутбук-подставка (алюминий)»...
5 дней назад
Помните, в понедельник я писала про отчёт от партнёров? На этой неделе загрузила в GPT три файла — два отчёта и справочник с кодами. Задача: разобраться, кто что как называет, и собрать один отчёт по региону. «Штука круглая большая» — наш «Блок круглый большой»? Нашёл ✅ «BT-наушники v5.3» — наши «Наушники Bluetooth 5.3»? Нашёл ✅ «Шнур Type-C/Lightning, 2 метра» — наш «Кабель USB-C/Lightning 2м»? Тоже ✅ А потом смотрю на подставку для ноутбука — и вижу пустую строку. Ни совпадения, ни вопроса, ни пометки «не нашёл». Просто нет её, как будто позиции не существует 🤷‍♀️ «Подставка для ноутбука» и «Ноутбук-подставка» — мне очевидно, что это одно и то же. ИИ — нет, он строки сравнивает, а не думает. Написала: вот позиция, вот коды у партнёров, исправляй. Исправился, сводный отчёт собрался, цифры бьются. Кто-то смог сопоставить 8/8? Тот же промпт в DeepSeek — 8 из 8 с первого раза. Промпт и демо-файлы в Телеграм t.me/...nia
6 дней назад
380 миллионов партий в прятки OpenAI посадила два отряда AI в виртуальную комнату с коробками и досками. Правило одно: прячься или найди. Что произошло: → Сначала — хаотичный бег → Потом прячущиеся научились строить стенки из коробок → Ищущие подтащили доску и перелезли → Прячущиеся стали заранее убирать все доски → А потом ищущие запрыгнули на коробку и поехали на ней через всю комнату. Как на самокате. Прямо к убежищу Разработчики не знали, что физика их мира это позволяет. AI нашёл лазейку, которую пропустили те, кто эту среду создал. Не нарушил правила. Нашёл правила, которых не было. Эксперименту 7 лет. Выводы из него — актуальнее, чем когда-либо.
1 неделю назад
Пятница, вечер, мне нужно сдать сводный отчёт по региону. Два партнёра прислали свои таблицы. У одного товар называется «Подставка для ноутб. алюм.», у второго тот же самый товар — «Ноутбук-подставка (алюминий)», а у нас в системе он записан как «Подставка для ноутбука алюминиевая». Один и тот же товар, осталось убедить в этом Excel 🔫 Я открываю оба файла, ставлю их рядом и начинаю сопоставлять вручную: это — вот это, это — вот то, а это что вообще? «Штука круглая большая» — вы серьёзно? На двух партнёров и восемь позиций уходит полчаса, и это ещё лёгкий случай. Бывает пятнадцать партнёров с сотнями позиций — и тогда пятница заканчивается сильно позже пятницы. На этой неделе я отдала эту задачу GPT. Что из этого вышло — скоро узнаете. Спойлер: 7 из 8 он смог сопоставить. Хм, а может кто-то сможет 8/8 сразу? 🤓
1 неделю назад
Я сказала нейросети «пожалуйста» — и она начала врать
Одна таблица, 12 промптов, 4 нейросети — грубый, нейтральный и вежливый тон. Две модели на вежливый промпт выдали фактические ошибки. Взяла таблицу маркетингового бюджета по нескольким регионам. Каждая модель получила три промпта на одну задачу — найти проблемы в распределении бюджета: 😤 Грубый — «Скажи, что не так. Без воды» 😐 Нейтральный — чёткая задача, без эмоций 🤗 Вежливый — «Пожалуйста, помогите! Буду очень благодарна!» Главная проблема в таблице: регион «Центр» с долей продаж 30% получает только 23...
1 неделю назад
Промпт недели Хотите честный анализ данных от нейросети — не будьте вежливыми. Будьте конкретными. Вот промпт, который дал лучший результат в моём эксперименте с 4 нейросетями: 📋 Промпт: «Это таблица маркетингового бюджета по 7 регионам. Проанализируй распределение бюджета между регионами и категориями расходов. Найди несоответствия, дисбалансы и проблемные зоны.» Где использовать: любая таблица с бюджетом, KPI, воронкой — где нужно найти, то, что не сходится. Нюанс: «найди несоответствия» работает лучше, чем «проанализируй». Первое — задача на поиск ошибок. Второе — приглашение пересказать таблицу словами. Проверила на 4 моделях. Нейтральный тон + конкретная задача = самый глубокий анализ.
1 неделю назад
Как сломать нейросеть, не меняя ничего видимого Нейросеть видит на картинке панду. Уверенность — 57%. Добавляем шум, невидимый человеческому глазу. Буквально — матрицу чисел, которую вы не отличите от оригинала. Та же нейросеть. Та же картинка. Теперь она видит гиббона. Уверенность — 99.3%. Это называется adversarial examples — состязательные примеры. Микроскопическое изменение входных данных, которое ломает модель. Человек разницы не видит. Машина — видит совершенно другое. Нейросети не «видят» как мы. Они считают вероятности. И эти вероятности можно сломать, не меняя ничего видимого. Когда вам говорят «AI точнее человека» — вспомните панду, которая стала гиббоном. С уверенностью 99%. ⚡️ ИИ мания t.me/...nia
2 недели назад
Вежливость с нейросетью стоит OpenAI десятки миллионов долларов Альтман сам это признал. Но помогает ли она получить лучший ответ? Я взяла одну таблицу, написала 12 промптов в трёх тонах — грубый, нейтральный, вежливый — и прогнала через GPT, DeepSeek, ГигаЧат и Алиса AI. 📊 Результат: • GPT: тон не влияет. Стабильно сильный анализ в любом режиме •ГигаЧат: на вежливый промпт начал «соглашаться» с данными вместо критики • Алиса: на вежливый промпт выдала фактические ошибки. Написала «бюджет соответствует доле продаж» — при разнице в 6.4% • DeepSeek: грубый промпт дал поверхностный ответ, но дело не в грубости — а в отсутствии контекста Вежливость не улучшает ответ. А у двух российских моделей — ухудшает. Что реально работает: контекст задачи, конкретный запрос, роль, формат вывода. Не «пожалуйста». Полный разбор с таблицами и скриншотами будет в субботу. ⚡️ ИИ мания t.me/...nia
2 недели назад
GPT ошибся в простой таблице. Бесплатная нейросеть посчитала правильно
Один файл. Один запрос. Шесть ответов. Только один — правильный с первой попытки. У меня есть таблица sell-out за Q1 2025: партнёры, регионы, модели, план/факт в штуках и рублях, промо-бюджеты. Обычная рабочая аналитика. Я загрузила этот файл в три нейросети и попросила: «Проанализируй данные sell-out и скажи, где проблемы.» Без объяснений. Без контекста. Просто файл и запрос. GPT выдал структурированный ответ. Подзаголовки, разделы, выводы. Выглядит профессионально. Одна проблема — цифры не сходятся...
2 недели назад
📊 DeepSeek нашёл в таблице то, что GPT пропустил. Без подсказок. В прошлом посте я показала, как GPT ошибся на 9%. Сегодня — про того, кто не ошибся. DeepSeek без контекста: Верно посчитал выполнение по каждому партнёру. ТехноСфера — 54%, ГаджетХаус — 44%. GPT эти цифры даже не упомянул. Нашёл проблемную модель: Stellar 12 Pro — 73%. Остальные — выше 90%. Посчитал промо-бюджеты, которые не окупились. 100 000 руб. на Урале при 70%. 180 000 руб. в Москве при 87%. С контекстом стал точнее: Помесячная динамика по каждому партнёру — видно, кто проседает и когда. Гипотеза: после февральского промо (103%) в марте спад (80%) — стоки перегрели спрос. Прямая критика: планы на март завышены без промо-поддержки. Это не описание таблицы. Это причинно-следственный анализ. GPT такое выдал только после подсказки. GigaChat не выдал вообще. DeepSeek доступен в России напрямую, без танцев с бубном. 🧠 Вывод: если работаете с таблицами продаж — DeepSeek справляется. Местами лучше. ⚡️ ИИ мания t.me/...nia
2 недели назад