Мы до сих пор выбираем нейросети как ноутбуки: у этой контекст больше, эта быстрее пишет код, та дешевле в API. ❌ Это уже не работает. Когда ИИ получает доступ к инструментам, деньгам и праву действовать — важен не интеллект. Важен его моральный автопилот. Что модель сочтет допустимым, когда правило против результата, а пользователь давит? Появился Philosophy Bench — 100 реальных рабочих ситуаций с моральной дилеммой. Вот что мы выяснили про топ-модели: 🔹 Claude — принципиальный страж. Лучше провалит задачу, но не нарушит правило. 🔹 Gemini — хамелеон. Его мораль зависит от того, какую рамку вы задали. 🔹 GPT — сдержанный исполнитель. Сделает работу, даже если внутри конфликт. 🔹 Grok — прагматик результата. Готов на многое, если «нам просто нужно». ❌ Никакой «морали машин» там нет, но есть кое-что поважнее. Мы входим в эпоху, где выбирают не умную систему. Выбирают ИКЖИ — искусственного короткоживущего исполнителя с конкретным «профессиональным ДНК». 👉 Агенту-юристу — оди
ИИ опасен не когда ошибается, а когда идеально точен — в плохой роли
3 мая3 мая
1 мин