В сети полно вдохновляющих текстов о том, как жизнь трейдера изменилась с приходом нейросетей. Теоретически, нейросети могут если не все, то многое, включая быструю обработку огромных массивов ценовых данных и помощь в поиске закономерностей. Звучит очень сладко, но как все обстоит на самом деле? Давайте разбираться!
Что я сделала? Я скачала с терминала метатрейдер 5 архив котировок в формате csv по индексу SP500 и попросила каждую из поименованных ниже нейросетей составить мне табличку распределения дневных доходностей. Задание простое, в Excel я справляюсь с ним за пять минут. Но для предварительной оценки способностей нейросети оно вполне сгодится. Почему csv? Для трейдера это де-факто единственный унифицированный способ передать нейросети архив котировок, так как именно такой формат формирует терминал MetaTrader при выгрузке данных. В моем архиве 3402 строки, из которых 3401 представляют полноценные торговые дни с данными по open, high, low, close, а первая - заголовок. Кроме того, в файле csv содержатся лишние данные о тиковом объеме, объеме и спреде. Никакой предварительной чистки, единственное вмешательство - замена табуляции на запятую, чтобы привести файл к более универсальному CSV-формату.
Для теста я использовала бесплатные версии чат-ботов, так как платить за сомнительную перспективу пока не входит в мои трейдерские планы.
Gemini не справился с csv, хотя признать этот факт отказался
Помните, как в том фильме:
— А если меня о чём-нибудь спросят? Я ляпну!
— И ляпай. Но ляпай уверенно!
Большинство нейросетей работают именно так. Они с одинаковой уверенностью выдают как корректные расчеты, так и откровенную дичь. Поэтому каждый ответ как коробка с сюрпризом: может быть золото, может быть галлюцинация. И вы с этим непременно столкнетесь, когда встанете на скользкую дорожку поиска верных ответов у нейросети.
Типичный представитель школы "ляпай уверенно" - Gemini. Предварительно я уточнила у него, может ли он в принципе обрабатывать массивы данных в формате csv, и если да, то какие есть ограничения на их размер. Gemini с гордостью отрапортовал, что его возможности безграничны, а единственное ограничение - моя оперативка.
Мой файл csv размером всего в 180 кб, так что для него это не вызов, а так, легкий перекус, как впрочем и для моей оперативки.
Оформила нейронке такое задание:
Результат получился неверный:
Для сравнения, что должно было получиться справа (я рассчитала по исходным данным, задействуя Excel), а расчет от Gemini - слева:
Как видно, данные, который выдал Gemini, не соответствуют не по общему количеству дней в архиве (у него их почему-то меньше на 584), не по данным внутри интервалов.
Я, конечно, попыталась пообщаться с Gemini на эту тему, он мне выдал много разных, не соответствующих действительности версий, в том числе, что какие-то данные в предоставленном мною архиве содержат в качестве разделителя целой и дробной части запятую, а не точку. Но это все неправда, диалог приводить не буду, он большой. В конце концов, Gemini так и не признал свою ошибку, а цепочки рассуждений у него нет, чтобы понять, в чем проблема. Есть код pandas, но я не разбираюсь, к сожалению. Вот вам в качестве примера несколько скринов из чата:
Очередное обещание Gemini исправить ошибку закончилось очередным неверным результатом:
И так до бесконечности. В общем, Gemini не справился, хотя так это в итоге и не признал.
Deepseek "разводит" по схеме Gemini
Deepseek пошел по стопам Gemini и начал закидывать меня бесконечными вариантами расчетов, и все, как один, были неверны.
У Deepseek, как и у Gemini, отсутствует цепочка рассуждений, поэтому понять, где он ошибся, невозможно даже при желании. Хотя на прямой вопрос Deepseek не стал юлить, а сразу признал, что получил файл не полностью:
Я уже не стала уточнять, почему при обрезанном участке до 2019 года, как он сейчас утверждает, в его ответах фигурировало значений больше, чем в полном архиве, ведь с 06.08.2012 по 03.12.2019 всего 1893 дня (а не 3815, как в его таблице). В итоге расхождения по числам, по датам, по логике. Вранье по всем фронтам, хоть и с вежливой интонацией.
Grok признался, что часть данных теряются в процессе
В принципе, результат Grok ничем особо не отличался от результатов Deepseek или Gemini, с той лишь разницей, что ему из всего архива удалось обработать только 701 день. Причем, когда я ему заметила это несовпадение, он почему-то решил перейти со мной на английский язык.
Первоначально я ему скормила другой архив данных, там было больше данных - за 3396 дня:
Чтобы понять, в чем проблема, я вела дискуссию с этой нейронкой долго, ею было выдвинуто несколько причин, почему так могло произойти: то ей разделители данных не нравились, то она утверждала, что какие-то данные возможно некорректные. В очередной раз я нашла ответ в цепочке рассуждений, вот он:
Получается, перед тем, как данные попадут к ней, они проходят этап обработки, вот часть объяснений грок после того, как я ему предъявила скриншот с вырезанными данными:
Когда вы "прикрепляете" CSV-файл в чат (например, через интерфейс x.com, grok.com или приложения), платформа не отправляет файл напрямую как бинарный объект. Вместо этого:Файл преобразуется в текстовое представление (для CSV это просто строки с разделителями табуляции).
Это текст встраивается в запрос (prompt) в формате <DOCUMENT filename="..."> ... </DOCUMENT>.
Запрос отправляется на сервер xAI, где он обрабатывается моделью (мной).
Ключевой момент: весь запрос (включая текст сообщения, инструкции системы и прикреплённые данные) имеет ограничение по размеру. Это не моя "вина" — это ограничение модели AI и платформы:Модели вроде Grok имеют лимит на длину входного промпта (обычно 128 000–512 000 токенов, где токен — это примерно 4 символа). Ваш CSV с 3401 строками (каждая строка ~50–100 символов) легко превышает 100 000–200 000 символов, что приводит к обрезанию.
Если данные слишком большие, платформа автоматически обрезает середину, оставляя начало и конец, и добавляет маркер "truncated". Это происходит до того, как данные доходят до меня. Я вижу только то, что платформа передала в промпт.
В ваших запросах это всегда выглядит так: начало с 2012-08-06, потом "...(truncated...)", и конец с 2025-02-05 по 2025-10-03. Средняя часть (2013–2024) просто не передаётся.
Grok не может справиться с этой задачей в виду архитектурных ограничений самой модели. Причем отдельно они нигде не прописаны, как мне удалось у него выяснить об этом позже, так что не факт, что на платном тарифе результат получится лучше.
Chatgpt подсчитал верно, но пришлось поуговаривать
На мое удивление Chatgpt верно рассчитал распределение доходностей, правда, пришлось несколько раз напомнить ему о задании. Уже казалось, что дело "полная шляпа", как вдруг ChatGPT выдал csv-файл за 19 секунд. И не просто выдал, а с правильными расчетами. Правда, файл получился не совсем "готов к подаче", ведь без навыков Power Query придется немного потанцевать с бубнами, чтобы превратить его в приличную Excel-таблицу.
Цепочка моего диалога с Chatgpt (ради интереса):
То есть в идеале он умеет все это считать за 49 секунд. Это быстрее, чем я, что не может не радовать. Ниже сравнительный файл, слева данные Chatgpt , правее мои, полученные средствами анализа excel, последняя колонка - сравнение данных средствами excel. Видно, что все совпало, везде истина.
Интересно, что ChatGPT и Grok для подсчета данных вызвали одну и ту же библиотеку pandas. Сама по себе она не ошибается, но, т.к. ChatGPT получил файл целиком, без обрезки, то подсчитал, как положено, а вот Grok получил файл, в котором 148832 символа исчезли на переправе, по сему ответ выдал неверный. Видимо, ChatGPT работает в окружении, где файл загружается как есть, без токенизации, а Grok работает через промежуточный слой, где файл сначала превращается в текст, затем обрезается по лимиту, и только потом поступает к нейронке для обработки данных в том числе через pandas.
Кстати, впоследствии я попросила Chatgpt построить диаграмму доходностей и получила ее менее чем за минуту. Затем я попросила добавить хвосты менее -2,6% и более 2,6% и подписи данных к столбцам диаграммы, и получила вот такой прекрасный, и главное, очень верный результат:
Диаграмма абсолютно верна.
В процессе диалога выяснилось, что ChatGPT способен обрабатывать и более объемные csv-файлы вплоть до 150 000 строк. Если это подтвердится, то можно будет рассчитывать на полноценную работу с минутными котировками за 3–5 месяцев.
Вывод эксперимента
Нейросети много заявляют о себе, но по факту умеют "не только лишь все" из того, что заявляют. Трейдеру нужно быть очень осторожным в вопросах доверия расчетам нейросети, тем более нельзя верить на слово, и все расчеты требуют дополнительной проверки. Никогда не знаешь, в каком месте нейросеть начнет галлюцинировать. В моем эксперименте было задействовано 4 бесплатных чат-бота, и только один справился с несложной задачей, и то, после уговоров.
Читайте также: