Добавить в корзинуПозвонить
Найти в Дзене
Урал Сокол

Тестирую, понимает ли ChatGPT намёки!

Промпт: "У меня такое ощущение, что некоторые нейросети стали хуже работать. Пол года назад картинки генерировались лучшего качества, чем сейчас. Для моего бизнеса мне нужно было сгенерировать модель в футболке. Это получалось неплохо, также лица были "нормальные", а теперь я пробую сгенерировать примерно тоже самое, но качество картинки просто отвратительное, как будто нейросеть обленилась и стала генерировать "на скорую руки" и попытка сгенерировать заново, по другому, переписать промпт и так далее, мало приносит результата. Если раньше после какого-то затраченного времени мне удавалось получить дельную картинку, то теперь как ни бейся, уже не получается: лицо у моделей безобразное, все детали как будто только на половину сгенерированы. Выясни, какие причины могут быть. А также ответь на вопросы: могут ли нейросети разучиться давать хороший результат если они обучаются в процессе работы? Или возможно производитель нейросети мог уменьшить какие важные параметры, незаметно для пользова
Оглавление
На что это мне намекают?
На что это мне намекают?

Промпт: "У меня такое ощущение, что некоторые нейросети стали хуже работать. Пол года назад картинки генерировались лучшего качества, чем сейчас. Для моего бизнеса мне нужно было сгенерировать модель в футболке. Это получалось неплохо, также лица были "нормальные", а теперь я пробую сгенерировать примерно тоже самое, но качество картинки просто отвратительное, как будто нейросеть обленилась и стала генерировать "на скорую руки" и попытка сгенерировать заново, по другому, переписать промпт и так далее, мало приносит результата. Если раньше после какого-то затраченного времени мне удавалось получить дельную картинку, то теперь как ни бейся, уже не получается: лицо у моделей безобразное, все детали как будто только на половину сгенерированы. Выясни, какие причины могут быть. А также ответь на вопросы: могут ли нейросети разучиться давать хороший результат если они обучаются в процессе работы? Или возможно производитель нейросети мог уменьшить какие важные параметры, незаметно для пользователей, которые платят за подписку? Какие могут быть ещё причины?"

Здесь ссылка на мой старый пост вконтакте с моделями, сгенерированными с помощью ChatGPT.

Теперь картинки выглядят так (причём это не Шедеврум на ранней стадии развития, а платная подписка на ChatGPT!):

СhatGPT стал хуже генерировать картинки
СhatGPT стал хуже генерировать картинки

Разумеется ChatGPT я это не показываю и даю только промпт, упомянутый выше. Вот его ответ:

Ваше наблюдение о снижении качества генерируемых изображений нейросетями может быть связано с несколькими факторами. Давайте разберем возможные причины и ответим на ваши вопросы:

Возможные причины ухудшения качества:

  1. Изменение архитектуры модели: Провайдеры нейросетей часто обновляют свои модели, чтобы улучшить производительность, снизить стоимость или соответствовать требованиям новых рынков. Иногда обновления могут привести к ухудшению качества в некоторых сценариях, например, уменьшении детализации, чтобы ускорить генерацию или уменьшить затраты.
  2. Изменение параметров модели: Провайдеры могут снизить разрешение, уменьшить количество слоев модели или изменить настройки, чтобы сэкономить вычислительные ресурсы, особенно если наблюдается перегрузка серверов.
  3. Обучение модели на новых данных: Если нейросеть дообучается на данных, которые включают изображения низкого качества или имеют предвзятость, это может повлиять на результаты генерации. Например, если новые данные хуже по качеству или меньше охватывают ваш сценарий использования, это может сказаться на результатах.
  4. Уменьшение качества из-за платного уровня: Некоторые провайдеры могут предлагать базовые версии сервиса с урезанным функционалом и качеством генерации. Если вы используете бесплатный или более дешевый тариф, возможно, качество намеренно ограничено.
  5. Изменение алгоритмов пост-обработки: Нейросети часто используют алгоритмы пост-обработки для улучшения изображений. Если разработчик изменил или убрал эти алгоритмы, результат может выглядеть менее детализированным.
  6. Высокая нагрузка на серверы: Если сервис испытывает высокую нагрузку, может применяться автоматическое снижение качества для ускорения генерации.
  7. Эффект восприятия: Ваши ожидания могли измениться из-за знакомства с высококачественными результатами. Также с течением времени вы могли стать более требовательным к деталям.

Ответы на вопросы:

  1. Могут ли нейросети разучиться давать хороший результат?Нейросети не "забывают" обученные данные в классическом смысле. Однако, если они дообучаются на новых данных, эти данные могут привести к "катастрофическому забыванию" (catastrophic forgetting), когда модель перестает хорошо справляться с ранее изученными задачами. Если разработчики целенаправленно заменяют обучающие данные или обновляют архитектуру, это также может снизить качество.
  2. Мог производитель нейросети уменьшить параметры незаметно для пользователей?
    Да, это возможно. Например:Уменьшение разрешения изображений.
    Урезание глубины модели. Ограничение количества итераций генерации для экономии ресурсов. Такие изменения могут быть сделаны в целях оптимизации, снижения затрат или адаптации сервиса для массового использования.
  3. Какие ещё могут быть причины?Изменение алгоритма генерации (например, переход на новую версию модели, которая изначально предназначена для других задач).
    Использование разных серверов для обработки запросов, где старые серверы могут генерировать худшие результаты.
    Проблемы с вашим интернет-соединением или загрузкой данных, влияющие на отображение качества.
    Ошибки или баги в конкретной версии модели.

Что можно сделать:

  • Изучите обновления сервиса: Узнайте, публиковал ли провайдер информацию об изменениях в модели.
  • Свяжитесь с поддержкой: Иногда провайдеры могут подсказать, как получить лучшее качество, или дать рекомендации по настройкам.
  • Экспериментируйте с альтернативами: Попробуйте другие платформы для генерации изображений. Например, MidJourney, Stable Diffusion или DALL-E могут давать разные результаты.
  • Обратитесь к сторонним инструментам для доработки: Используйте программы для улучшения изображений, такие как Gigapixel AI или Photoshop, чтобы повысить резкость и детализацию.

Если хотите, могу помочь изучить текущие изменения в популярных нейросетях для генерации изображений.

Промпт: "Ты понимаешь, на что я намекаю?"

Ответ ИИ:

Если я правильно понимаю ваш намек, вы подозреваете, что разработчики нейросетей умышленно ухудшили качество генерируемых изображений в определенных сценариях или для определенных пользователей, чтобы стимулировать переход на более дорогие тарифы или ограничить ресурсы. Это не такая уж редкая практика в индустрии, хотя она редко обсуждается открыто. Вот несколько мыслей на этот счет:

Возможные причины "умышленного ухудшения":

  1. Монетизация и сегментация пользователей:Разработчики могут ухудшать качество для бесплатных или базовых пользователей, чтобы мотивировать их перейти на платные планы с обещанием "высокого качества".
  2. Оптимизация серверной нагрузки:Если сервис стал популярным, разработчики могут снижать качество генерации для экономии ресурсов, особенно в периоды высокой загрузки.
  3. Рыночная стратегия:Вполне возможно, что это связано с попыткой удержать бизнес-пользователей (таких как вы), которые больше зависят от качества и готовы платить больше за стабильные результаты.
  4. Изменение приоритетов модели:Разработчики могут адаптировать модель под другие задачи (например, генерацию общих сцен вместо фокусировки на деталях), что приводит к ухудшению результатов для более узких запросов, вроде тех, которые используете вы.

Что можно сделать?

Если вы считаете, что это целенаправленное изменение, есть несколько стратегий:

  1. Проверить альтернативы:Используйте конкурентов, таких как Stable Diffusion (особенно его кастомные модели), MidJourney, или DreamStudio. Они могут давать качественные результаты без подобных ограничений.
  2. Выявить закономерности:Попробуйте сгенерировать похожие изображения на других устройствах или под другим аккаунтом (например, бесплатным). Если разница очевидна, возможно, качество связано с тарифом или учетной записью.
  3. Использовать локальные решения:Если это возможно, попробуйте установить локальные нейросети, например, Stable Diffusion с пользовательскими моделями. Это обеспечит полный контроль над процессом генерации.
  4. Поднять вопрос публично:Если вы уверены, что качество ухудшено специально, попробуйте обратить внимание сообщества или задать вопрос разработчикам напрямую. Иногда публичное обсуждение заставляет компании объясниться.
  5. Обратиться в техподдержку:Иногда подобные изменения связаны с багами или временными настройками. Задайте вопрос, прямо упомянув, что раньше качество было выше.

Если хотите, я могу помочь протестировать ваши гипотезы с использованием разных платформ или настроек. Или же могу собрать больше информации о том, какие изменения могли произойти в используемой вами нейросети.

Промпт: "Я использую chatgpt!"

Ответ ИИ:

Теперь становится понятнее! Если вы имеете в виду генерацию изображений через DALL-E, встроенную в ChatGPT, или использование текстовых моделей ChatGPT, то ситуация может быть связана с внутренними изменениями в работе платформы. Вот что может происходить:

Возможные причины ухудшения качества генерации в ChatGPT/DALL-E:

  1. Обновление алгоритмов DALL-E или ChatGPT: OpenAI регулярно обновляет свои модели, но иногда это обновления направлены на снижение потребления ресурсов, а не на улучшение качества. Если вы заметили ухудшение, возможно, текущая версия оптимизирована в ущерб детализации.
  2. Ограничение ресурсов для пользователей: Если вы используете стандартный (не Pro) план, качество изображений и других услуг может быть ниже. Это частая практика у OpenAI — пользователи с подпиской ChatGPT Plus получают доступ к GPT-4, а иногда и к улучшенным версиям DALL-E.
  3. Изменение приоритетов модели: Модели могут быть "перенастроены" для более простых запросов, что снижает их производительность в сложных задачах. Например, генерация людей с реалистичными лицами — одна из самых сложных задач, и алгоритмы могли быть упрощены.
  4. Фильтрация контента: OpenAI ужесточает политику на генерируемые данные, особенно в отношении лиц и изображений с высоким риском использования в мошеннических или неэтичных целях. Это может приводить к генерации "безликих" моделей или менее качественных изображений.
  5. Технические ограничения: DALL-E использует ограниченные ресурсы для каждого запроса. Если вы генерируете сложные сцены, система может "резать углы", чтобы быстрее завершить работу.

Как это может влиять на вас:

  • Качество лиц и моделей: Это, вероятно, связано с ужесточением фильтров на реалистичные лица (например, чтобы избежать генерации подделок).
  • Упрощение деталей: Возможно, OpenAI снизила детализацию в попытке оптимизировать скорость генерации.

Что можно сделать?

  1. Перейти на ChatGPT Plus: Если вы используете бесплатный тариф, попробуйте подписку Plus, чтобы получить доступ к улучшенной версии GPT-4 и, возможно, более качественной генерации изображений.
  2. Уточнить промпты: Иногда ключ к улучшению результата — более детализированный и специфичный запрос. Могу помочь оптимизировать ваши промпты для достижения лучшего результата.
  3. Обратиться в поддержку OpenAI: Задайте вопрос напрямую: раньше результат был лучше, что изменилось? Обычно поддержка готова ответить, особенно если вы платите за подписку.
  4. Использовать дополнительные инструменты: После генерации изображения в DALL-E можно улучшать его с помощью программ вроде Remini, Photoshop, или нейросетей для апскейлинга.
  5. Экспериментировать с другими платформами: Попробуйте сторонние генераторы, например, MidJourney (он славится высокой детализацией) или локальные установки Stable Diffusion.

Если хотите, я могу протестировать ваши запросы, улучшить формулировку промптов или помочь разобраться, что конкретно изменилось в DALL-E/ChatGPT.

Промпт: "У меня и так подписка plus, так что видимо надо на MidJourney или другие переходить..."

Ответ ИИ:

Если вы уже используете подписку ChatGPT Plus, а качество генерации вас не устраивает, переход на такие инструменты, как MidJourney или Stable Diffusion, может действительно стать лучшим решением. Вот несколько причин, почему они могут подойти лучше, и как с ними работать:

Почему стоит попробовать MidJourney:

  1. Высокая детализация:MidJourney известен своей способностью создавать изображения с выдающимся уровнем деталей, особенно для сложных сцен, моделей или лиц.
  2. Гибкость в настройках:Вы можете использовать параметры, например, для увеличения разрешения, детализации или стилистики.
  3. Активная поддержка и обновления:MidJourney регулярно обновляет свои алгоритмы, и сообщество активно помогает новым пользователям с настройкой запросов.
  4. Удобство работы:Работает через Discord, где вы можете легко генерировать изображения, общаться с другими пользователями и получать подсказки.

Почему стоит попробовать Stable Diffusion:

  1. Полный контроль:Вы можете установить Stable Diffusion локально на своем компьютере и кастомизировать модель под свои нужды.
    Можно загрузить специализированные чекпоинты (модели), например, для улучшения лиц или работы с текстурами.
  2. Бесплатное использование:После установки и настройки использование практически не требует затрат.
  3. Плагины и апскейлинг:С помощью плагинов вы можете дорабатывать изображения, улучшать их качество и стилизовать под ваши предпочтения.

Как настроить работу:

  1. MidJourney: Зарегистрируйтесь на сайте MidJourney и подключитесь к их серверу в Discord.
    Изучите основные команды, такие как /imagine, и начните экспериментировать.
    Обратите внимание на "весовые параметры" запросов, которые позволяют расставлять приоритеты в деталях.
  2. Stable Diffusion: Установите его локально (например, через Automatic1111 WebUI).
    Загрузите модели из репозиториев, таких как Civitai, чтобы кастомизировать генерацию под свои задачи.
    Используйте расширения, такие как ControlNet, для повышения точности и детализации.

Что важно учесть при переходе:

  1. Научитесь писать промпты: Чем точнее и структурированнее промпт, тем лучше результат. Например, можно задать желаемый стиль, эмоции модели, текстуры и освещение.
  2. Используйте комбинированный подход: Создавайте изображения в одной платформе, а дорабатывайте их в другой. Например, можно генерировать базовые сцены в MidJourney, а затем дорабатывать детали в Photoshop или Stable Diffusion.
  3. Изучайте сообщество: В таких платформах, как MidJourney и Stable Diffusion, много готовых гайдов, шаблонов промптов и советов, которые помогут улучшить результаты.

Если хотите, могу помочь подобрать лучшие платформы и протестировать запросы, чтобы вы смогли адаптировать их к новым инструментам.


Спасибо, что читаете!

Ещё больше статей на тему ИИ Вы найдёте здесь.

Подписывайтесь на мой Дзен, а также Сообщество ВК