Добавить в корзинуПозвонить
Найти в Дзене
IT без лобби

Переговоры с OpenAI - в туалет только в сопровождении, бейджики сдать, никаких фирменных знаков и корпоративного стиля

Когда мы думаем об искусственном интеллекте и передовых технологиях, в голове часто возникает образ открытости, либерализма и демократии. Прозрачные офисы, свободный обмен идеями, дружелюбные команды, готовые к экспериментам и инновациям. Однако наш визит в офис OpenAI в Сан-Франциско с делегацией бизнес-школы ESCP показал, что реальность далека от этих романтических представлений. Вместо открытости мы увидели тотальную закрытость, секретность и строгость, сравнимую не то с уровнем оборонного сектора, не то с тюрьмой. ESCP — это не просто французская бизнес-школа, а глобальный (Франция, Германия, Италия, Испания, Британия и даже Польша с ОАЭ) образовательный центр, известный своими новаторскими подходами. В отличие от многих учреждений, которые с опаской относятся к ИИ, ESCP решила не бороться с этой технологией, а стать лидером в её интеграции. Студенты школы получают бесплатный доступ ко всем продуктам OpenAI, включая API (по предварительному запросу, но вполне реально). Это часть их
Оглавление

ИИ и технологии: мифы об открытости и реальность строгого контроля

Когда мы думаем об искусственном интеллекте и передовых технологиях, в голове часто возникает образ открытости, либерализма и демократии. Прозрачные офисы, свободный обмен идеями, дружелюбные команды, готовые к экспериментам и инновациям. Однако наш визит в офис OpenAI в Сан-Франциско с делегацией бизнес-школы ESCP показал, что реальность далека от этих романтических представлений. Вместо открытости мы увидели тотальную закрытость, секретность и строгость, сравнимую не то с уровнем оборонного сектора, не то с тюрьмой.

Как мы оказались в OpenAI?

ESCP — это не просто французская бизнес-школа, а глобальный (Франция, Германия, Италия, Испания, Британия и даже Польша с ОАЭ) образовательный центр, известный своими новаторскими подходами. В отличие от многих учреждений, которые с опаской относятся к ИИ, ESCP решила не бороться с этой технологией, а стать лидером в её интеграции. Студенты школы получают бесплатный доступ ко всем продуктам OpenAI, включая API (по предварительному запросу, но вполне реально). Это часть их стратегии по внедрению ИИ в образовательные процессы, от аналитики данных до разработки бизнес-решений.

В рамках сотрудничества с лидерами ИИ-индустрии делегация ESCP, в состав которой входил блок, отвечающий за взаимодействие с технологическими компаниями, отправилась в офис OpenAI в Калифорнии. Ожидания были высокими: передовая ИТ-компания, центр инноваций, атмосфера свободы и креативности. Но реальность оказалась совсем иной.

Закрытость на уровне оборонки

С первых шагов еще до входа в офис OpenAI стало ясно, что открытость здесь — не более чем миф (хотя собственно мне кажется и мифа то нет, сами себя они открытыми никогда и не представляли).

Никаких указателей о том, что это офис OpenAI нет ни снаружи здания, ни внутри. Самый обычный и даже достаточно бедный район Сан-Франциско, хотя и не так далеко от "отцов" - подразделения Microsoft AI, у которых, к слову также нет ни указателей, никаких вообще признаков наличия Microsoft в офисном здании (но это другая история).

Фотографировать внутри офиса OpenAI запрещено, за исключением специально отведённого пресс-волла, смарт-фоны проверяют. Покидать зону отдыха без сопровождения нельзя. Все бейджики выдаются строго под счёт, а после визита их нужно вернуть. Даже поход в туалет или за кофе - только в сопровождении с сотрудником OpenAI, который, к слову, терпеливо ждёт вас у двери, пока вы пописаете ;-). Контроль тотальный, и это не шутка: правила едины для всех, будь вы обладатель паспортов дружественных Франции, Германии, Италии, кошерного Израила или ненавистной России. Никаких исключений, никаких поблажек. Наручники, конечно, не надевают, но ощущение строгого надзора остаётся.

Сотрудники OpenAI - скрипты вместо знаний

Ещё больше удивило общение с бизнес-подразделением OpenAI. Казалось бы, сотрудники компании, стоящей за ChatGPT, должны быть экспертами в своих продуктах. Но на деле оказалось, что их знания ограничены. Например, они с трудом объясняли различия между LLM-моделями (вообще не смогли объяснить разницу между 4o и 3mini) или принципы ценообразования токенов. Презентации проводились строго по скриптам, а любые вопросы, выходящие за рамки заготовленных ответов игнорировались. Это создавало впечатление, что сотрудники скорее исполняют роль гидов, чем экспертов, способных глубоко погрузиться в тему. Не забываем про их ЗП... А это без малого >250к$/год.

Суровая реальность ИИ-индустрии

Визит в OpenAI показал, что передовые технологии — это не всегда про инновации, но и про силу, контроль, обусловленные связью с оборонкой и спецслужбами. Вместо ожидаемой открытости и гибкости мы увидели закрытую систему, где каждый шаг под контролем, а информация строго дозируется. Это не про демократию, а про чёткую иерархию и защиту интересов компании, а также тех, кто реально за ней стоит.

И всё же, несмотря на эту закрытость, сотрудничество с такими компаниями, как OpenAI, остаётся важным аспектом. Наверное когда-то давно и DARPA могла поражать инновационно мыслящих людей тем, что это прежде всего оборонное предприятие! Так что не надо иллюзий мир реально часто двигается вперед благодаря военным технологиям и жёсткости, как бы например мне это не нравилось, но это данность!

PS: попробуйте отгадать на сколько из следующих вопросов дали ответ представители OpenAI ;-)

Energy Consumption, Infrastructure Sustainability, and Risk

1. Given the rapidly increasing energy consumption of large AI models, how does OpenAI assess the long-term sustainability of its infrastructure? Are there internal estimates for when AI demand might begin to noticeably strain regional or national power grids?

2. Is OpenAI working on contingency plans for potential spikes in electricity prices or supply shortages? For example: Scenario planning for a 50–100% increase in energy costs, Real-time load balancing or AI throttling during peak grid usage.

3. Does OpenAI actively collaborate with energy providers or governments to ensure energy resilience in data center operations? Are dedicated renewable energy sources or direct grid agreements being considered?

4. How does OpenAI address the carbon footprint of its global AI infrastructure? Especially as models grow larger and are deployed across a wider number of inference endpoints.

5. Is there an internal roadmap for making AI systems more energy-efficient without compromising performance? For instance: Model compression and quantization, Hybrid inference (cloud + edge), Smarter request routing or dynamic model scaling.

6. In a worst-case scenario of energy rationing or geopolitical energy crises, how would OpenAI prioritize access or scale down services? Would it prioritize specific industries, geographies, or subscription tiers?

7. Has OpenAI considered disclosing energy usage statistics for transparency and accountability — similar to how cloud providers publish data center efficiency metrics (PUE, etc.)?

Political Risks, Global Governance, and Model Conflicts

1. How does OpenAI assess the political risks of global deployment, especially in environments where authoritarian or totalitarian regimes seek influence over AI models? As AI becomes embedded in daily decision-making, there’s a clear incentive for regimes to shape outputs for propaganda, censorship, or ideological alignment.

2. How will OpenAI handle conflicting demands from different governments regarding model behavior? For example: Country A requires the model to support a specific narrative, Country B prohibits that same narrative and demands the opposite. In such a case, how is consistency, safety, and neutrality maintained?

3. Is there a framework being developed to manage AI model “collisions” at the geopolitical level? Where different national instances of a model may diverge significantly — what’s the plan for transparency, explainability, and accountability?

4. Does OpenAI foresee a future where localized or siloed versions of AI models exist per region due to legal, cultural, or political constraints? And if so, how can this be aligned with the goal of responsible AI deployment and shared progress?

5. In a world trending toward deglobalization, what role will OpenAI play in preserving a shared cognitive infrastructure? Can AI remain a global commons — or will it inevitably fragment along national lines like the internet has?

6. How does OpenAI approach content moderation and model alignment in countries where human rights and freedom of expression are not respected? Is there a red line, or a set of non-negotiables, that OpenAI adheres to regardless of local pressure?

7. Is OpenAI exploring supranational or multilateral mechanisms to govern model behavior and resist state-level coercion? Similar to how international law or institutions attempt to provide consistency beyond borders.

Business Model and Monetization Strategy

1. Is OpenAI exploring contextual advertising embedded within AI-generated responses? For example, partner recommendations or product/service cards labeled as "Recommended" or “Partner Tip,” following models similar to Google or Bing.

2. Has OpenAI considered introducing video ads before delivering responses? Similar to YouTube's pre-roll ads: a 5–10 second video shown before the first answer in a session, skippable after 3–5 seconds, with potential rewards like a higher-quality or priority answer.

3. Is a freemium model under consideration or already in deployment? With tiers like: Free — limited queries, ads, video pre-rolls; Plus — ad-free, faster response; Pro — API access, custom models, priority queue.

4. Are affiliate or partner-based monetization methods being tested? For instance, CPA links embedded in responses based on the query category, or auto-promotion of partner content tied to user interest.

5. How does OpenAI approach ethical concerns around ad-based monetization? Are there systems in place to ensure full transparency, GDPR/CCPA compliance, and user control over cookies and data usage?

Media Storage and Content Management

1. Is OpenAI considering a “reverse storage” model where the platform manages user-uploaded media? For example: the user sends a photo or video → OpenAI classifies and distributes it across storage providers → builds a metadata map for future access.

2. Is there an initiative to create AI-generated media maps for personal photo/video archives? Automatically labeling images with tags, faces, locations, and objects to enable semantic search like “find my dog in Paris.”

3. Could OpenAI offer a cloud-agnostic API for intelligent media management? Acting as a personal AI layer between the user and cloud platforms (e.g., Dropbox, Google Drive, S3), handling search, indexing, and tagging?

Experiments and Customization

1. Which monetization formats does OpenAI see as most promising over the next 2–3 years — both for B2C and B2B? What is the current revenue distribution between subscriptions, API usage, and other channels?

2. Is it possible for university clubs, accelerators, or partner organizations to get early access to experiments — especially around freemium, ad integration, or embedded content?