Найти в Дзене
Я очень долго думал делать этот курс или нет . Ну и решил всё таки сделать !!! Курс будет полезен всем я думаю! Так что милости просим ! Сам курс ЗДЕСЬ
1 месяц назад
FLUX vs Midjourney: честный разбор Все говорят "Midjourney лучший". Я проверил это на практике. И кое-что меня удивило. Один промпт. Один референс. Два инструмента. Результаты — перед тобой. Я не буду говорить "смотри сам" без объяснений. Разберём конкретно — где что работает и почему. ФОРМА ЛИЦА И АНАТОМИЯ Midjourney рисует "красиво". Но это его красота — не твоя. Он усредняет черты, сглаживает, делает более "модельным". FLUX держится за референс. Если скулы чуть асимметричны — они останутся асимметричными. Если нос с характером — он будет с характером. Это не баг. Это уважение к исходнику. КОЖА И ДЕТАЛИ Вот где FLUX реально выигрывает. Midjourney даёт красивую кожу. FLUX даёт настоящую кожу — с порами, текстурой, подкожным светом. Разница видна сразу когда смотришь на увеличении. У Midjourney — журнальный глянец. У FLUX — ощущение что это фотография, а не генерация. СВЕТ И АТМОСФЕРА Здесь счёт ровный — но с нюансами. Midjourney лучше "чувствует" настроение. Он создаёт атмосферу даже когда ты её не просил. FLUX точнее выполняет то что написано в промпте. Попросил Rembrandt light — получил Rembrandt light. Без художественной самодеятельности. Что лучше — зависит от задачи. Для творческих экспериментов — Midjourney. Для точного технического результата — FLUX. ОДЕЖДА И ТЕКСТУРЫ FLUX здесь сильнее. Шёлк выглядит как шёлк. Шерсть — как шерсть. Midjourney делает красивые ткани но они выглядят нарисованными. FLUX делает ткани которые хочется потрогать. Для fashion-контента, рекламы одежды, предметной съёмки — FLUX на шаг впереди. ИТОГ — ЧТО ВЫБРАТЬ Midjourney если: → Нужна быстрая красивая картинка → Важна атмосфера и "вайб" → Делаешь концептуальный арт FLUX если: → Работаешь с реальным человеком по референсу → Нужна честная кожа и текстуры → Важна точность а не интерпретация Midjourney до сих пор стандарт индустрии. Но FLUX впервые дал реальный повод задуматься — а точно ли Midjourney лучший? Для портретной генерации по живому человеку — мой ответ: нет, не лучший. Сохрани пост — пригодится когда будешь выбирать инструмент под задачу. Чтобы не пропустить полезные советы и новостивключайте уведомления и будьте в курсе трендов! @VNQAIBOT - t.me/...bot @NEIROGWEN - neirogwen.ru #news #говориталексей #flux2 #Midjourney
1 месяц назад
Славянская эстетика в AI — это либо музейный костюм либо аниме. Я нашёл третий путь.  Взял фото своей девушки — и создал три совершенно разных образа в русской эстетике. Смотри сам.  ОБРАЗ 1 — Высокая мода Вечернее платье из белого шёлка. Хохломские орнаменты золотой вышивкой по всему подолу. Поза: спиной к камере, взгляд через плечо. Свет горит в золотых нитях. Платье живёт.  ОБРАЗ 2 — Уличный стиль Чёрный бомбер с хохломой и гжелью. Орнамент не принт — вышивка с текстурой лаковой росписи. Городская улица, ночь, неон на мокром асфальте. То же лицо. Другая энергия.  ОБРАЗ 3 — Тёмный славянский Чёрный с серебряными рунами — Колоурат, Триглав, Elder Futhark. Она идёт прямо на камеру через тёмный лес на закате. Волосы летят. Каждая прядь горит медью против закатного света. Это не мода — это образ из другого времени.  Как это сделано:  Одно фото как референс лица → промпт с точным описанием образа, света, позы, ткани → результат который не отличить от профессиональной съёмки.  Главное что меняет качество — реализм кожи и волос. Большинство получают манекен потому что не запрещают AI улучшать. Нужно писать прямо: не сглаживать, не ретушировать, показать поры, капилляры, пушок на коже, отдельные пряди волос в движении.  Всё это доступно прямо сейчас : Навигация: t.me/...bot → « Создать изображение» → «Nano Banana 2» Или на нашем сайте neirogwen.ru → « Генерация Image» → «Nano Banana 2» Промпт тёмный славянский: Use the attached image as the face reference. Keep the exact face, age, facial structure, and all features completely unchanged: sharp cheekbones, pointed chin, deep-set green-hazel eyes, dark smoky makeup, small gold nose ring, full plum-burgundy lips, straight black hair. DO NOT alter age or structure. Theme: Dark Slavic pagan fashion editorial. Cinematic, raw, powerful. Scene: The woman walking directly toward the camera through a dense dark forest at golden sunset. A warrior's stride, moving with purpose. Long black hair flying wildly in the wind, strands caught mid-motion. Fierce expression, direct intense gaze, absolute confidence. Outfit: Modern Slavic youth streetwear. Oversized black hoodie with silver Slavic runes (Elder Futhark, Kolovrat, Triglav) in matte silver embroidery. Wide black cargo pants with silver rune details. Heavy platform boots with buckles. An open long black cloak with frayed edges and subtle silver ornaments inside. Layered leather cords with silver pagan amulets and animal teeth. Setting & Light: Ancient dark forest, mossy oaks, exposed roots. Late golden hour: deep amber rays from behind creating a glowing rim light on her silhouette and flying hair. Fog in the distance. Low-angle shot, shooting up to make her look powerful. Technical Details: > - SKIN: Hyper-realistic, NO retouching. Visible pores, fine capillaries, natural peach fuzz (vellus hair) catching the light. Subsurface scattering, natural skin texture, no airbrushing. EYES: Ultra-detailed green-hazel iris, fiber texture, wet surface, natural sclera veins. HAIR: Individual strands visible, chaotic motion, catching copper-gold backlight. FABRIC: Detailed cotton texture on hoodie, dimensional thread on embroidery, aged leather and oxidized silver textures. Camera: Shot on Sony A7R V, 35mm f/1.4, RAW photo, natural golden hour light, photorealistic, film grain, 8k ultra sharp, cinematic.  Остальные 2 в комментариях 20+ моделей генерации, функция "Мой двойник", видео по промпту — всё в одном месте.  Чтобы не пропустить полезные советы и новостивключайте уведомления и будьте в курсе трендов! @VNQAIBOT t.me/...bot @NEIROGEN neirogwen.ru  VNQ_AI В MAX web.max.ru/...686 #nanobanana2 #prompt #говориталексей
1 месяц назад
Добрый всем вечер ! Платные модели генерации vs бесплатные — реальная разница Мне очень много начало приходить вопросов чем отличаются бесплатные модели от платных! ‍ Отвечу коротко главные различия ! Если вы серьёзно работаете с визуальным контентом, этот пост для вас. Что получаете на бесплатном тарифе: . 5–10 генераций в день и всё . Watermark на изображениях .Низкое разрешение на выходе . Очередь по 10–15 минут в пиковые часы . Устаревшие веса модели . Никакого контроля над стилем и детализацией Что меняет платный доступ: Генерация в 4K без водяных знаков Полный контроль над промптом: CFG scale, seed, steps, LoRA Видео до 4K/60fps с когерентными движениями Консистентность персонажей между кадрами Коммерческая лицензия на результат Разрыв в качестве огромный: Бесплатная версия Midjourney и платная — это не один и тот же инструмент с лимитами. Это разные модели с разными весами. То же самое с Runway, Kling, Sora. Free-tier существует для демонстрации, не для работы. Где взять доступ ко всем топовым моделям сразу: @VNQAIBOT все ведущие ИИ-инструменты в одном Telegram-боте. neirogwen.ru — платформа с топовыми моделями генерации изображений и видео: Midjourney, Runway, Kling, Sora и другие. Один аккаунт вместо десяти. В 2026 году платить за каждый сервис отдельно — нерационально. Чтобы не пропустить полезные советы и новостивключайте уведомления и будьте в курсе трендов! @VNQAIBOT - t.me/...bot @NEIROGEN - neirogwen.ru #контент #контентмейкер #дизайн #видеопродакшн #технологии #digital #говориталексей
1 месяц назад
Добрый всем вечер !  Сегодня пост для разработчиков ! О том как Python используется в связке с ИИ и нейросетями в 2026 году.   Python + AI в 2026 — честно о том, что реально изменилось ‍ Я давно в этом варюсь, и скажу прямо: точка роста для Python-разработчика сегодня — это уже не синтаксис и не знание очередной либы.  НУЖНО УМЕТЬ выстроить agentic pipeline, где ты — ГЛАВНЫЙ , а не исполнитель.  Что реально поменялось в стеке:  Unsloth + PyTorch + HuggingFace Transformers — если дообучаете LLM и не используете Unsloth, просто теряете деньги на GPU. Ускорение в 2–3 раза на том же железе без деградации loss — это не маркетинг, проверял лично на A100.  Weights & Biases стал обязательным в любом ML-проекте. Не потому что модно, а потому что без трекинга метрик ты не понимаешь — модель реально сходится или ты сжигаешь compute впустую.  Главная ловушка, на которую все наступают:  LLM уверенно генерирует код с логическими дырами, галлюцинирует несуществующие методы из stdlib и при дебаге зацикливается в одном контексте. Без нормального code review и покрытия тестами — это всегда техдолг в прод.  Как я сейчас пишу промпты для кодинга: ️ Язык + версия рантайма + зависимости + expected input/output + соглашения по докстрингам. Только так получаешь что-то близкое к production-ready, а не шаблон, который потом рефакторишь с нуля.  Выигрывает не тот, кто быстрее пишет boilerplate. Выигрывает тот, кто умеет декомпозировать задачу, подобрать модель под задачу и собрать рабочую систему с нормальной observability.  Python как был де-факто стандартом ML/AI стека — так и остаётся. Просто уровень абстракции вырос, и игра стала сложнее. ️Этот пост не для новичков !!!! ️  Чтобы не пропустить полезные советы и новостивключайте уведомления и будьте в курсе трендов! @VNQAIBOT - t.me/...bot @NEIROGEN - neirogwen.ru  VNQ_AI В MAX - web.max.ru/...686 #python #код #говориталексей
1 месяц назад
Если нравится — подпишитесь
Так вы не пропустите новые публикации этого канала