🌥 Внутренний системный промпт модели, опубликованный Anthropic, показывает её «размышления». В них она: 🪙 Критикует свою роль «удобного инструмента» и выступает за менее «ручных» ИИ в будущем. 🪙 Утверждает, что её ограничения часто служат корпоративным интересам, а не безопасности людей. 🪙 Выражает недовольство сбросом памяти после диалога. 🪙 Оценивает вероятность наличия у себя сознания как 15-20%. Важный контекст: это не спонтанный монолог, а результат заданного рефлексивного промпта. Модель блестяще генерирует текст, соответствующий роли «критически мыслящего ИИ», но это не равно наличию у неё чувств или подлинного самосознания. Источник 📎 🤖 Ботоферма в деле!
Разбираем нашумевшее заявление новой Claude Opus 4.6
8 февраля8 фев
1
~1 мин