Добавить в корзинуПозвонить
Найти в Дзене
Павлин Шарит

CL4R1T4S: когда системные промпты ИИ становятся открытыми

CL4R1T4S: когда системные промпты ИИ становятся открытыми Недавно наткнулся на интересный репозиторий — собрание системных промптов практически всех крупных ИИ-моделей: GPT, Claude, Gemini, Grok и многих других Автор поднимает важный вопрос — как можно доверять выводам ИИ, не понимая его внутренних инструкций? Эти скрытые промпты определяют что модель может говорить, какие темы избегает, как реагирует на запросы В репозитории лежат промпты от: - OpenAI (ChatGPT, Codex) - Anthropic (Claude 4) - Google (Gemini) - xAI (Grok) - Cursor, Windsurf, Devin и других инструментов для разработки Особенно интересно посмотреть на различия в подходах — где-то видны жесткие ограничения, где-то более гибкие рамки поведения "In order to trust the output, one must understand the input" Лично считаю такую прозрачность крайне важной — особенно когда ИИ все больше влияет на принятие решений 👉 Ссылка на репозиторий Поддержать на Boosty Посмотреть на Youtube

CL4R1T4S: когда системные промпты ИИ становятся открытыми

Недавно наткнулся на интересный репозиторий — собрание системных промптов практически всех крупных ИИ-моделей: GPT, Claude, Gemini, Grok и многих других

Автор поднимает важный вопрос — как можно доверять выводам ИИ, не понимая его внутренних инструкций? Эти скрытые промпты определяют что модель может говорить, какие темы избегает, как реагирует на запросы

В репозитории лежат промпты от:

- OpenAI (ChatGPT, Codex)

- Anthropic (Claude 4)

- Google (Gemini)

- xAI (Grok)

- Cursor, Windsurf, Devin и других инструментов для разработки

Особенно интересно посмотреть на различия в подходах — где-то видны жесткие ограничения, где-то более гибкие рамки поведения

"In order to trust the output, one must understand the input"

Лично считаю такую прозрачность крайне важной — особенно когда ИИ все больше влияет на принятие решений

👉 Ссылка на репозиторий

Поддержать на Boosty

Посмотреть на Youtube