Найти тему
OVERCLOCKERS.RU

OpenAI может быть близок к прорыву в области ИИ, который может «угрожать человечеству»

Сэма Альтмана, исполнительного директора OpenAI, уволил совет директоров после их предупреждения от штатных исследователей о потенциально опасном открытии ИИ под названием Q* (произносится как Q-Star). Q* может радикально улучшить мышление ИИ и может рассматриваться как крупный прорыв в развитии общего ИИ, сообщает Reuters.

Одна из особенностей генеративного ИИ заключается в том, что он основывает свои ответы на информации, которую он ранее «изучил» (проанализировал, исследовал, проиндексировал и т. д.), поэтому чем больше данных попадает в модель, тем лучше она становится. Однако современные технологии искусственного интеллекта на самом деле не обладают когнитивными способностями и не могут обосновывать свои решения так, как это делают люди.

Q* считается значительным прорывом в области общего искусственного интеллекта (AGI), автономной системы, которая может обосновывать свои решения и, следовательно, конкурировать с людьми в различных задачах или даже дисциплинах. Говорят, что возможности Q* особенно заметны при решении математических задач, которые обычно определяются единственными правильными ответами, что указывает на значительный прогресс в рассуждениях и когнитивных способностях ИИ.

Модель ИИ продемонстрировала умение решать математические задачи на уровне, сравнимом с уровнем учеников начальной школы, что весьма важно. Такие достижения позволяют предположить, что Q* может иметь далеко идущие последствия и применения в различных областях, требующих рассуждений и принятия решений.

Однако появление Q* также вызвало обеспокоенность по поводу потенциальных рисков и этических последствий такой мощной технологии искусственного интеллекта. Исследователи и ученые в сообществе ИИ подняли тревогу по поводу опасностей, связанных с быстрым развитием возможностей ИИ, не до конца понимая их влияние. Разработка Q* могла бы стать центральной темой продолжающейся дискуссии в OpenAI о балансе между инновациями в области ИИ и ответственным развитием.

В результате несколько исследователей OpenAI написали правлению письмо, в котором подчеркнули открытие модели ИИ, которая, по их мнению, может представлять значительную угрозу человечеству. Говорят, что это письмо стало решающим фактором, приведшим к решению совета директоров уволить Альтмана, сославшись на отсутствие доверия к его руководству, несмотря на его вклад в компанию и область генеративного искусственного интеллекта. Но затем коллективная угроза увольнения со стороны более 700 сотрудников, которые проявили солидарность с Альтманом и подумывали о присоединении к Microsoft, заставила совет директоров изменить свое мнение относительно уволенного генерального директора.

OpenAI при обращении к агентству Reuters признала существование как проекта Q*, так и письма. Однако в компании воздержались от комментариев по поводу специфики ситуации и достоверности сообщений СМИ.