В новом отчете стартап OpenAI заявил, что его модель GPT-4 обеспечивает «в лучшем случае небольшое повышение» возможностей создания биологического оружия. Но компания предупредила, что будущие модели могут быть более опасными. Их знания способны помочь злоумышленникам создать биологическое и химическое оружие, а также спланировать атаку. В прошлом году крупный отчет корпорации Rand показал, что большие языковые модели (LLM) могут использоваться для планирования биологических атак, хотя в нем говорится, что они не могут предоставить конкретных инструкций по фактическому созданию биологического оружия. До этого Марк Цукерберг высказался по поводу способности искусственного интеллекта Llama 2 от Meta* (запрещена на территории РФ) давать пользователям подробные инструкции по созданию сибирской язвы. Отчет группы «готовности» OpenAI, сформированной в прошлом году для изучения потенциальных «катастрофических» последствий, которые могут возникнуть в результате разработки передового искусствен
OpenAI: есть вероятность что ChatGPT будет использован для создания биологического оружия
2 февраля 20242 фев 2024
36
2 мин