Добавить в корзинуПозвонить
Найти в Дзене
ИИнтеграция

Разочарование в GPT: ИИ крайне плох для сложного кода и n8n

«Последние несколько дней я работал с векторной памятью ИИ-консультанта. И поскольку у меня есть подписка GPT Plus, я использовал GPT-4o и GPT-4.5. И должен сказать, это было полное разочарование... Вчера я взялся писать скрипт на Python c помощью GPT, который разбивал бы текст из PDF-файла на чанки, формировал из них эмбеддинги и записывал их в векторную базу Pinecone. Но из-за криво написанного скрипта данные из базы подавались без самого главного — текстового содержимого чанка (того, с чем в первую очередь работает LLM при использовании векторной БД). GPT несколько десятков раз пытался исправить собственный код, но безуспешно. Я обратился к DeepSeek — он устранил ошибку со второго раза, а затем обратился к Claude 4 Sonnet — он улучшил код, добавив разбиение на чанки по смыслу, а не по количеству символов. Сегодня продолжил работу над ИИ-консультантом в n8n. Нужно было подключить базу данных SQL. Создал её на Supabase. GPT помог сформировать и заполнить таблицы. Но на этом его помощь
Единственное, что действительно хорошо умеет GPT - генерировать картинки
Единственное, что действительно хорошо умеет GPT - генерировать картинки

«Последние несколько дней я работал с векторной памятью ИИ-консультанта. И поскольку у меня есть подписка GPT Plus, я использовал GPT-4o и GPT-4.5. И должен сказать, это было полное разочарование...

Вчера я взялся писать скрипт на Python c помощью GPT, который разбивал бы текст из PDF-файла на чанки, формировал из них эмбеддинги и записывал их в векторную базу Pinecone. Но из-за криво написанного скрипта данные из базы подавались без самого главного — текстового содержимого чанка (того, с чем в первую очередь работает LLM при использовании векторной БД).

GPT несколько десятков раз пытался исправить собственный код, но безуспешно. Я обратился к DeepSeek — он устранил ошибку со второго раза, а затем обратился к Claude 4 Sonnet — он улучшил код, добавив разбиение на чанки по смыслу, а не по количеству символов.

Сегодня продолжил работу над ИИ-консультантом в n8n. Нужно было подключить базу данных SQL. Создал её на Supabase. GPT помог сформировать и заполнить таблицы. Но на этом его помощь закончилась. Собрав мне таблицы на Supabase, он начал рекомендовать мне построить цепочку с нодами PostgreSQL, которые, естественно, никак не получалось подключить к Supabase.

GPT пытался грамотно объяснить всё это, пока не столкнулся непосредственно с проблемой подключения: он просил меня зайти в настройки баз данных на Supabase, которых вообще не существует. Я по 10 раз отправлял ему в чат скриншоты, показывая, что того, о чём он говорит, нет в настройках таблиц на Supabase.

В итоге я решил проблему самостоятельно: суть заключалась в том, что нужно было использовать специальные ноды Supabase для работы с их API, а не стандартные ноды PostgreSQL. То есть GPT изначально дал неверные рекомендации и далее строил свои советы, исходя из них.

Я не тестировал другие LLM для создания рабочих процессов в n8n, но теперь придется, так как GPT для этого подходит крайне плохо, как и для сложного кода, в котором лучше использовать Claude 4 Sonnet. Он доступен бесплатно на официальном сайте Anthropic.