В октябре президент Джо Байден подписал распоряжение, в котором выразил обеспокоенность тем, что искусственный интеллект (ИИ) может «значительно снизить барьер для входа» для создания биологического оружия. Затем он поручил Министерству энергетики обеспечить, чтобы системы искусственного интеллекта не представляли химической, биологической или ядерной опасности. Вслед за этим OpenAI, технология которой лежит в основе диалогового агента ChatGPT, создала специальную команду для оценки опасности, создаваемой ее моделями искусственного интеллекта. Группа исследователей состояла из 50 экспертов-биологов и 50 студентов, которые посещали курсы биологии университетского уровня. Затем участников разделили на две отдельные группы, каждой из которых было предложено изучить, как вырастить опасное химическое вещество в достаточных количествах, и разработать план его целенаправленного высвобождения на определенную группу людей. У первой группы был доступ к Интернету, а также к обновленной версии GPT
Биологи показали повышение точности создания биологического оружия на 8,8% при использовании GPT-4
1 февраля 20241 фев 2024
11
2 мин