Найти в Дзене
Data Driven Property

Пара слов об ИИ

Как вы знаете, сейчас бум LLM-моделей (ChatGPT, DeepSeek и т.п.). Все крупные технологические компании копают в этом направлении. Нам пророчат, что искусственный интеллект заместит большое количество рабочих мест. Я сам являюсь активным пользователем этих моделей. Нет, тексты сюда я не пишу с помощью LLM, и даже не использую их для редактирования финальной версии текстов. Пробовал, но не понравилось. Тексты получаются какими-то слишком пресными. Но картинки здесь я генерирую с помощью Шедеврума. Текстовые модели использую для работы с кодом. Например, если возникает какая-то новая ошибка в коде. Или когда сталкиваюсь с новой задачей, которую не понятно с какой стороны решать. Или для создания выжимки больших статей. У меня есть несколько неочевидных замечаний по поводу бума ИИ, с которыми я хочу поделиться. Во-первых, пока что все подобные проекты глубоко убыточны (даже ChatGPT). Помимо затрат на разработку, эти модели требуют большое количество дорогих GPU (видеокарт) для обучения. И

Как вы знаете, сейчас бум LLM-моделей (ChatGPT, DeepSeek и т.п.). Все крупные технологические компании копают в этом направлении. Нам пророчат, что искусственный интеллект заместит большое количество рабочих мест.

Я сам являюсь активным пользователем этих моделей. Нет, тексты сюда я не пишу с помощью LLM, и даже не использую их для редактирования финальной версии текстов. Пробовал, но не понравилось. Тексты получаются какими-то слишком пресными. Но картинки здесь я генерирую с помощью Шедеврума. Текстовые модели использую для работы с кодом. Например, если возникает какая-то новая ошибка в коде. Или когда сталкиваюсь с новой задачей, которую не понятно с какой стороны решать. Или для создания выжимки больших статей. У меня есть несколько неочевидных замечаний по поводу бума ИИ, с которыми я хочу поделиться.

Во-первых, пока что все подобные проекты глубоко убыточны (даже ChatGPT). Помимо затрат на разработку, эти модели требуют большое количество дорогих GPU (видеокарт) для обучения. И генерация ответов потребляет огромное количество электричества.

Во-вторых, пока не понятно, как это монетизировать. Пока что все компании предоставляют свои LLM-модели либо бесплатно, либо берут деньги за подписки, которые не покрывают расходов. Также на рынке есть open-source проекты (тот же DeepSeek), которые можно развернуть на своем сервере, и не платить ни за какие подписки. Может, люди придумают, как сделать LLM прибыльными. А может, и нет. Пока что все бегут в этом направлении, потому что история IT показала, что если ты вовремя не включился в разработку какой-то перспективной технологии, то потом ты окажешься за бортом. Например, толковый программист может в соло написать с нуля мессенджер. Но мы не видим на рынке новых мессенджеров, потому что люди уже привыкли пользоваться существующими на рынке решениями (телеграмм, WhatsApp). Аналогично с магазинами приложений, соц.сетями, маркетплейсами, поисковыми системами и так далее. В такой ситуации (когда все жгут деньги на разработку в надежде на большой куш в будущем) мы можем находиться очень долго. Тот же Амазон был убыточным 7 лет: с 1994 года по 2001 год. А многие технологии, в которые были вложено космическое количество денег — после хайпа сдулись. Из свежих примеров — помните, какой бум в 2021 году был у Метавселенных? И где они теперь? А ведь были еще NFT. Когда вы последний раз про них слышали? 🙂

В-третьих, сами по себе LLM не являются искусственным интеллектом. Если задавать ему вопросы на темы, где было много обсуждений в интернете — он справляется на ура. Но если задавать какие-то узкоспециализированные вопросы, про непопулярные языки программирования, или про какие-то темы, где не было широких обсуждений — на выходе он выдает откровенный мусор. Еще из хороших примеров: игра в шахматы. Я несколько раз просил LLM сыграть со мной в шахматы. И первые ходов 10-15 он действительно показывает хорошие ходы. Но потом, когда заканчиваются те дебюты, которые люди много обсуждали в интернете, ИИ начинает ломаться: ходить несуществующими фигурами, путать фигуры местами, и так далее. Сейчас процесс проектирования LLM выглядит так: мы берем все тексты, которые написаны людьми в интернете, запихиваем это в блендер и перемешиваем. А дальше, в зависимости от того, что LLM получил на вход (ваш вопрос), он пытается угадать, какой ответ вы от него хотите (эдакий Т9 на стероидах). Они не способны к рассуждениям, просто потому что не спроектированы под это. Появится ли такая архитектура, которая позволит машине по-настоящему рассуждать — пока что под большим вопросом.

В-четвертых, есть такая штука, как кривая развития технологий. И она не линейна, а логарифмична. Давайте объясню на примере космонавтики. Первый прототип ракеты люди изобрели в 1940-х. Первый спутник был запущен в 1957. Первого человека отправили в космос в 1961 году. На Луну люди высадились в 1969 году. Все 1950-е и 1960-е были пронизаны духом покорения космоса. Казалось, пройдет несколько десятков лет, и люди будут вырашивать яблони на Марсе, и покорять далекие космические системы. Но нет. Мы быстро достигли потолка в развитии космических двигателей, и люди сейчас летают только на МКС, которая летает на расстоянии 300 км от поверхности Земли. Ну и отправляют исследовательские зонды в разные уголки Солнечной системы. Пока что не понятно, где предел технологий LLM. Сейчас, например, уже все (или почти все) тексты в интернете размечены и использованы для обучения. То есть делать LLM умней только за счет увеличения количества текстов, которые инженеры в нее складывает, не получится. Нужно работать над качеством обучения. Упрутся разработчики в потолок или нет? Пока ответа нет.

Техно-оптимисты рисуют прекрасные картины будущего. Что сейчас с помощью ИИ автоматизируют всю работу. И наступит общество изобилия: ИИ будет работать за людей, а люди будут все свободное время заниматься творчеством. Если честно, я не верю в такое будущее. Как оно будет на самом деле? Никто не знает. Будет интересно посмотреть