CL4R1T4S: когда системные промпты ИИ становятся открытыми Недавно наткнулся на интересный репозиторий — собрание системных промптов практически всех крупных ИИ-моделей: GPT, Claude, Gemini, Grok и многих других Автор поднимает важный вопрос — как можно доверять выводам ИИ, не понимая его внутренних инструкций? Эти скрытые промпты определяют что модель может говорить, какие темы избегает, как реагирует на запросы В репозитории лежат промпты от: - OpenAI (ChatGPT, Codex) - Anthropic (Claude 4) - Google (Gemini) - xAI (Grok) - Cursor, Windsurf, Devin и других инструментов для разработки Особенно интересно посмотреть на различия в подходах — где-то видны жесткие ограничения, где-то более гибкие рамки поведения "In order to trust the output, one must understand the input" Лично считаю такую прозрачность крайне важной — особенно когда ИИ все больше влияет на принятие решений 👉 Ссылка на репозиторий Поддержать на Boosty Посмотреть на Youtube