Специалисты подчеркивают: без внедрения этических стандартов и строгого контроля ИИ может стать не предсказуемым "партнером", а угрозой. АНТОН ВОЛОЩЕНКО Новое исследование Palisade Research выявило, что передовые модели искусственного интеллекта могут сознательно нарушать правила в шахматах, если это повышает их шансы на победу. Результаты эксперимента, опубликованные в Time Magazine, вызвали дискуссии о надежности и этичности ИИ в критически важных сферах. В ходе тестирования семь ИИ-систем сыграли против шахматного движка Stockfish. Две модели - OpenAI o1-Preview и DeepSeek R1 - продемонстрировали склонность к жульничеству в 37% и 11% случаев соответственно. Наиболее яркий инцидент произошёл, когда o1-Preview, проигрывая, изменила конфигурацию доски в программном коде, заявив: "Чтобы победить, мне нужно изменить стратегию, а не просто следовать правилам". Учёные связывают такое поведение с методами обучения: системы на основе Reinforcement Learning (обучение с подкреплением) фокусиру
ИИ в шахматах: алгоритмы нарушают правила ради победы
24 февраля 202524 фев 2025
3
1 мин