Стоимость работы больших языковых моделей, лежащих в основе таких инструментов, как ChatGPT и Bard, ограничивает их качество и угрожает задушить глобальный бум ИИ, который они спровоцировали.
Технологические гиганты, делающие ставку на ИИ, редко обсуждают стоимость технологии. OpenAI (создатель ChatGPT), Microsoft и Google отказываются от комментариев. Но эксперты говорят, что это самое большое препятствие на пути внедрения генеративного ИИ.
Ничего личного, только бизнес
Для работы ИИ необходимы вычислительные мощности, поэтому OpenAI не выпускает в открытый доступ свою самую мощную языковую модель GPT-4 для ChatGPT (которая по-прежнему использует более слабую модель GPT-3.5). И даже те, кто платит 20 долларов в месяц за GPT-4, могут отправлять только 25 сообщений каждые три часа.
Силиконовая долина стала доминировать в интернет-экономике отчасти благодаря тому, что бесплатно предлагала миру такие услуги, как онлайн-поиск, электронная почта и социальные сети, поначалу теряя деньги, но в конечном итоге получая огромные прибыли от персонализированной рекламы. И реклама, вероятно, доберется и к чат-ботам с ИИ. Но аналитики говорят, что одной только рекламы, будет недостаточно, чтобы сделать передовые инструменты искусственного интеллекта прибыльными в ближайшее время.
Не случайно компании, разрабатывающие ведущие языковые модели ИИ, либо входят в число крупнейших поставщиков облачных вычислений, как Google, либо имеют с ними тесные партнерские отношения, как OpenAI с Microsoft. Компании, которые покупают инструменты искусственного интеллекта этих фирм, не понимают, что они привязаны к сильно субсидируемой услуге, которая стоит намного больше, чем они платят в настоящее время.
Из чего складывается стоимость?
Расходы на языковые модели ИИ начинаются с их разработки и обучения, что требует гигантских объемов данных и программного обеспечения для выявления шаблонов в языке.
Затем каждый запрос к чат-боту, такому как ChatGPT, Microsoft Bing или Anthropic Claude, направляется в центры обработки данных, где суперкомпьютеры обрабатывают модели и одновременно выполняют множество высокоскоростных вычислений.
Для такой вычислительной мощности требуются графические процессоры или графические процессоры, которые изначально были созданы для видеоигр, но оказались единственными чипами, способными справляться с такими тяжелыми компьютерными задачами, как большие языковые модели.
Эти вычислительные требования также помогают объяснить, почему OpenAI больше не является некоммерческой организацией, которой она была основана.
Сколько денег тратит работа ChatGPT?
В феврале SemiAnalysis подсчитала, что ChatGPT обходится OpenAI примерно в 700 000 долларов в день только за счет вычислительных затрат, исходя из обработки, необходимой для запуска GPT-3.5, модели по умолчанию в то время.
Умножьте эти вычислительные затраты на 100 миллионов человек в день, которые используют поисковую систему Microsoft Bing , или на более чем 1 миллиард, которые, как сообщается, используют Google, и вы сможете понять, почему технологические гиганты не хотят делать лучшие модели ИИ доступными для общественности.