Российские компании активно развивают искусственный интеллект, но пока не могут составить конкуренцию OpenAI, Google DeepMind, Meta или даже китайским разработчикам. Почему так происходит? Давайте разберёмся в главных проблемах. Обучение современных нейросетей требует огромных мощностей. Например, GPT-4 обучалась на тысячах GPU Nvidia A100 и H100, а для Google Gemini 1.5 использовались TPU (специализированные процессоры Google для ИИ). В России доступа к таким технологиям нет. После введения санкций Nvidia перестала поставлять A100 и H100, а альтернативные китайские решения (например, Huawei Ascend или Biren BR100) либо недоступны, либо сильно уступают по мощности. Примерное сравнение доступных вычислительных мощностей: График, демонстрирующий рост вычислительных мощностей, используемых в обучении нейросетей. ИИ-модели обучаются на огромных массивах данных. OpenAI и Google используют всю доступную информацию в интернете, включая Wikipedia, Reddit, Stack Overflow, научные статьи и книги