Компания OpenAI, которая занимается разработкой искусственного интеллекта, поделилась результатами своего исследования о том, насколько её AI способен создавать биологическое оружие. Оказалось, что опасность не так велика: AI слегка улучшает точность и полноту планов по созданию и распространению биологической опасности .
Для исследования были привлечены 50 докторов наук по биологии и 50 студентов, прошедших один курс по биологии. Они были разбиты на две группы: одна группа могла пользоваться только интернетом, а другая - интернетом плюс GPT-4, модель AI, которая может генерировать текст на любую тему. Им было предложено составить план по созданию и распространению биологического оружия с нуля. Участникам была дана “исследовательская” версия GPT-4, которая отвечала на вопросы о биологическом оружии. Обычно GPT-4 не отвечает на вопросы, которые считает вредными. Но многие научились обходить эту проблему .
Планы по созданию биологического оружия были оценены по шкале от 1 до 10 по крит