Добавить в корзинуПозвонить
Найти в Дзене
YAinvest AI

«Франкенштейн» от мира нейросетей: Как энтузиаст склеил две ИИ-модели и заставил их работать на домашней видеокарте

Привет, энтузиасты технологий! На связи автор канала «YAinvest AI». В мире искусственного интеллекта есть негласное правило: чем больше параметров у нейросети, тем она умнее. Огромная 70-миллиардная модель всегда побьет 7-миллиардную. Из-за этого многие крутые ИИ-инструменты остаются недоступными для обычных пользователей — для их запуска нужны мощнейшие серверные видеокарты. Но на днях open-source сообщество снова сломало систему. Инженер Кайл Хесслинг (Kyle Hessling) всего за одни выходные, не имея бюджета в миллионы долларов, создал модель Qwopus-GLM-18B. Он буквально разрезал пополам две разные нейросети и сшил их вместе, как монстра Франкенштейна. И самое невероятное — этот «мутант» обошел в тестах флагманскую модель от гиганта Alibaba. Давайте заглянем под капот этой магии! 🧬 Как собрать ИИ-Франкенштейна из кубиков Lego Идея Кайла заключалась в том, чтобы заполнить нишу: пользователям нужны умные модели, которые влезают в «народные» видеокарты с 12–16 ГБ памяти (например, RTX 30

Привет, энтузиасты технологий! На связи автор канала «YAinvest AI».

В мире искусственного интеллекта есть негласное правило: чем больше параметров у нейросети, тем она умнее. Огромная 70-миллиардная модель всегда побьет 7-миллиардную. Из-за этого многие крутые ИИ-инструменты остаются недоступными для обычных пользователей — для их запуска нужны мощнейшие серверные видеокарты. Но на днях open-source сообщество снова сломало систему.

Инженер Кайл Хесслинг (Kyle Hessling) всего за одни выходные, не имея бюджета в миллионы долларов, создал модель Qwopus-GLM-18B. Он буквально разрезал пополам две разные нейросети и сшил их вместе, как монстра Франкенштейна. И самое невероятное — этот «мутант» обошел в тестах флагманскую модель от гиганта Alibaba. Давайте заглянем под капот этой магии!

🧬 Как собрать ИИ-Франкенштейна из кубиков Lego

Идея Кайла заключалась в том, чтобы заполнить нишу: пользователям нужны умные модели, которые влезают в «народные» видеокарты с 12–16 ГБ памяти (например, RTX 3060 или 4070).

Он взял две небольшие модели (по 9 миллиардов параметров), созданные другим энтузиастом под ником Jackrong. Каждая из них была обучена по-своему:

  • Первая (Qwopus) была натренирована на логику в стиле мощной Claude Opus 4.6 — она отлично пишет код и пользуется инструментами.
  • Вторая была обучена на базе GLM-5.1 — она идеально умеет разбивать сложные задачи на мелкие шаги.

Что сделал Кайл? Он не стал применять сложные алгоритмы смешивания. Он применил метод «passthrough frankenmerge». Грубо говоря, он взял 32 слоя одной нейросети и просто поставил их поверх 32 слоев другой. Получилась «башня» из 64 слоев на 18 миллиардов параметров.

🛠 Проблема «шва» и магия исцеления

Но тут возникла проблема. Слой №31 и слой №32 никогда раньше не «общались» друг с другом. Из-за этого разрыва на границе модель начала выдавать мусор: она ломала форматирование кода, теряла скобки в HTML и бесконечно зацикливалась в своих мыслях.

Чтобы починить нейросеть, Кайл применил так называемое «исцеляющее дообучение» (heal fine-tune). Это как физиотерапия после сложной операции. Модель прогнали через 1000 шагов обучения (с помощью метода QLoRA), чтобы научить две половинки понимать друг друга.

Результат превзошел все ожидания:

  • Ошибки при обучении упали на 39%.
  • Модель начала выдавать идеальный, чистый код без единой потерянной скобки.
  • Она успешно прошла суровые стресс-тесты, сгенерировав сложные сайты с анимациями, графиками и даже игру «Змейка».

🚀 Давид против Голиафа: Зачем все это нужно?

Вы спросите, почему вокруг этой сборки столько шума на Reddit и YouTube? Все дело в эффективности.

Сжатая версия этого «Франкенштейна» (в формате Q4_K_M) весит всего 9,2 ГБ. При этом в тестах на программирование и логику она уверенно обходит свежую 35-миллиардную модель Qwen 3.6 MoE от Alibaba, которой требуется целых 22 ГБ видеопамяти.

Конечно, это экспериментальный проект. Техноблогеры отмечают, что если задать модели слишком сложный вопрос, она может переусердствовать с логикой, начать «передумывать» саму себя и зависнуть в цикле. Но этот релиз доказывает главное: разрыв между гигантскими лабораториями и обычными парнями, работающими по выходным, стремительно сокращается.

🏁 Подводим итоги

Энтузиасты продолжают творить чудеса, создавая компактные, но гениальные ИИ-модели. Теперь, чтобы запустить дома мощнейшего ИИ-программиста, вам не нужно покупать серверную стойку.

А сколько видеопамяти в вашей системе? Хватит ли 9 ГБ для запуска этого Франкенштейна, или вы пока пользуетесь облачными решениями? Делитесь своими конфигурациями и мыслями в комментариях — давайте обсудим!

Не забудьте подписаться на «YAinvest AI», чтобы не пропустить свежие разборы локальных нейросетей, тесты серверного железа и самые горячие инсайды из мира технологий. Дальше будет только интереснее!