Найти в Дзене
Краснодарские Известия

Разработчики из OpenAI и Anthropic подали в отставку из-за рисков ИИ в США

Несколько высокопоставленных специалистов, занимавшихся разработкой систем искусственного интеллекта в крупнейших ИТ-компаниях США, приняли решение уйти с должностей. По данным портала Axios, которые приводит ТАСС, речь идет о сотрудниках OpenAI, Anthropic и ряда других научных центров, работающих на передовой искусственного интеллекта в Сан-Франциско. Как сообщается, причиной ухода стал глубокий внутренний конфликт между исследователями и руководством. Ученые опасаются, что развитие мощных ИИ-систем происходит слишком быстро, при этом достаточного внимания рискам не уделяется. Некоторые из них заявили, что ИИ может представлять «экзистенциальную угрозу для человечества». Компания Anthropic, которую возглавляют бывшие сотрудники OpenAI, недавно опубликовала отчет, в котором прямо говорится, что генерирующие ИИ могут использоваться для «создания химического оружия, планирования насилия и других опасных действий при полном отсутствии контроля со стороны человека.» Также в документе отраж

Ведущие эксперты покинули OpenAI и Anthropic, обвинив руководство в игнорировании рисков и стремительном внедрении ИИ.

Несколько высокопоставленных специалистов, занимавшихся разработкой систем искусственного интеллекта в крупнейших ИТ-компаниях США, приняли решение уйти с должностей. По данным портала Axios, которые приводит ТАСС, речь идет о сотрудниках OpenAI, Anthropic и ряда других научных центров, работающих на передовой искусственного интеллекта в Сан-Франциско.

Как сообщается, причиной ухода стал глубокий внутренний конфликт между исследователями и руководством. Ученые опасаются, что развитие мощных ИИ-систем происходит слишком быстро, при этом достаточного внимания рискам не уделяется. Некоторые из них заявили, что ИИ может представлять «экзистенциальную угрозу для человечества».

Компания Anthropic, которую возглавляют бывшие сотрудники OpenAI, недавно опубликовала отчет, в котором прямо говорится, что генерирующие ИИ могут использоваться для «создания химического оружия, планирования насилия и других опасных действий при полном отсутствии контроля со стороны человека.»

Также в документе отражен еще один тревожный момент: автономное поведение ИИ без участия пользователей — его последствия могут оказаться совершенно непредсказуемыми.

На фоне этой информации, как пишет The New York Times, инвесторы начали проявлять осторожность. Отмечается, что акции ряда ИТ-компаний, специализирующихся на программных решениях с ИИ, заметно снизились на Нью-Йоркской фондовой бирже. Причина — опасения, что нейросети уже в ближайшее время заменят платное ПО, вытеснив привычные программы и модели их использования.

Пока ни в OpenAI, ни в Anthropic официальных комментариев по поводу отставок и обвинений не дали. Но в профильном сообществе усиливается обеспокоенность — эксперты призывают усилить меры по контролю за ИИ и вести разработки с учетом глобальных рисков, которые такие технологии уже сейчас начинают нести.

«КИ» писали, нейросети начали проверять домашнее задание в школах Китая. По словам специалистов, такие решения позволяют «мгновенно оценивать знания учеников, выдавая точные результаты и снижая нагрузку на учителей».

Наталия Фатеева
Журналист