Американская научно-исследовательская организация OpenAI, известная своими прорывными достижениями в области искусственного интеллекта (ИИ), в последнее время находится под сильным давлением общественности и экспертов по безопасности. Это связано с решением одного из ведущих исследователей компании Яна Лейке покинуть ее после того, как он заявил, что безопасность была отодвинута на второй план по сравнению с приоритетами компании.
В попытке восстановить уверенность в себе OpenAI объявила о формировании нового комитета по безопасности, который будет работать непосредственно под руководством генерального директора Сэма Альтмана и других высокопоставленных представителей компании. Этот комитет будет оценивать новые разработки и проекты OpenAI с точки зрения их потенциальной угрозы безопасности и защите пользовательских данных.
В то же время было объявлено о начале работы над новой моделью искусственного интеллекта, которая должна стать преемником популярного языкового модуля GPT-4. Эта новая модель уже вызвала значительный интерес у специалистов и общественности, поскольку считается одним из ключевых шагов на пути к созданию общего искусственного интеллекта (AGI).
Отмечается, что OpenAI продолжает уделять большое внимание безопасности своих продуктов, утверждая, что они являются лидерами не только по своим возможностям, но и с точки зрения безопасности. Однако это заявление вызывает сомнения у многих экспертов и наблюдателей, которые считают, что компании следует принять более решительные меры для защиты своих технологий и пользователей.
]]>