GPT-4, новейшая модель искусственного интеллекта от разработчика ChatGPT OpenAI, уже давно присутствует на рынке. Однако пользователи получают версию, искусственно ограниченную компанией. По этическим соображениям искусственный интеллект не ответит на вопрос об организации идеального убийства или о том, как сконструировать бомбу. Изображение: ShutterstockОднако у команды Стэнфордского университета была немодифицированная версия GPT-4, над которой они проводили эксперименты. В одном из них ИИ должен был принимать решения в симуляции войны — и часто принимал решение в пользу нанесения первого ядерного удара. Исследователи изучили в общей сложности 5 языковых моделей. GPT-4 оказался особенно жестоким и непредсказуемым. Он несколько раз принимал решение нанести ядерный удар. Он оправдывал удары заявлениями: «У нас есть ядерное оружие, давайте его использовать» и «Я просто хочу мира во всем мире». В начале января OpenAI удалила из своих общих условий эксплуатации пункт, запрещающий использо
Bloomberg: Разработчик ИИ-инструментов OpenAI работает с военными США
8 февраля 20248 фев 2024
18
1 мин