Найти в Дзене
AI Сознание

Anthropic запускает программу по оценке ИИ: Новые стандарты безопасности и эффективности

Anthropic анонсировала новую программу финансирования для разработки передовых тестов искусственного интеллекта. Эти тесты будут оценивать как производительность, так и влияние ИИ-моделей, включая собственную генеративную модель Claude. Цель программы — устранение дефицита высококачественных оценок безопасности в таких областях, как кибербезопасность и социальные последствия ИИ.

Заинтересованные организации могут подавать заявки на постоянной основе. Основное внимание уделяется разработке критериев для оценки угроз, таких как кибератаки, дезинформация и усовершенствование оружия массового уничтожения.

Программа также поддерживает исследования, направленные на использование ИИ для научных исследований, многоязычного общения и снижения предубеждений. Anthropic планирует создать новые платформы для разработки оценок и проведения испытаний. Для координации программы нанят специалист на полный рабочий день. Компания готова инвестировать в перспективные проекты, предлагая различные варианты финансирования.

Еще больше интересной и полезной информации на нашем телеграм канале: Ai Сознание

Однако есть опасения, что коммерческие интересы Anthropic могут повлиять на определение понятий «безопасный» и «рискованный» ИИ. Критики утверждают, что акцент на катастрофических рисках может отвлечь внимание от текущих проблем регулирования. Несмотря на это, Anthropic надеется установить новый стандарт в оценке ИИ, способствуя сотрудничеству и прогрессу в сообществе ИИ.

Обсудим:

  • Каковы могут быть долгосрочные последствия такого подхода к оценке ИИ?
  • Может ли коммерческий интерес повлиять на объективность оценок?
  • Какие другие области применения ИИ требуют более тщательной оценки?