Найти в Дзене
AppleScroll

Глава отдела ИИ Microsoft назвал изучение сознания нейросетей опасным

Оглавление
IMAGE CREDITS: DAVID RYDER/BLOOMBERG / GETTY IMA
IMAGE CREDITS: DAVID RYDER/BLOOMBERG / GETTY IMA

Всем привет!

Вчера на TechCrunch была опубликована статья Максвелла Зеффа: "Microsoft AI chief says it’s ‘dangerous’ to study AI consciousness", которая показалась мне достаточно интересной, чтобы поделиться с вами ее содержанием.
Статья продолжает тему "очеловечивая" ИИ и проблем, которые это привносит в среду общения человека и машины (я упоминал об этом ранее
в одной из статей).
Далее, собственно, перевод статьи за авторством Максвела Зеффа (Maxwell Zeff), я лишь постарался точно воспроизвести его стиль и содержание.

Модели искусственного интеллекта способны так реагировать на тексты, аудио и видео, что люди иногда принимают их за человека. Но это ещё не делает ИИ сознательным. Ведь не похоже, чтобы ChatGPT грустил, помогая мне с налоговым возвратом, верно?

Тем не менее, всё больше исследователей, например в лабораториях Anthropic, задаются вопросом: когда и сможет ли вообще ИИ развить субъективный опыт, подобный живому организму, и какие права в этом случае у него появятся. Дискуссия о возможности сознания у моделей ИИ и правовых гарантиях для них разделяет лидеров индустрии. В Кремниевой долине эту зарождающуюся область назвали «благополучием ИИ». Если вы находите это странным, то вы не одиноки.

Руководитель подразделения ИИ в Microsoft Мустафа Сулейман недавно опубликовал пост, где назвал изучение благополучия ИИ «не только преждевременным, но и откровенно опасным». Сулейман утверждает, что такие исследования только усугубляют человеческие проблемы. Он считает, что они усиливают веру в возможность развития сознания у моделей ИИ, хотя мы уже видим негативные последствия: психотические срывы, вызванные общением с ИИ, и нездоровые привязанности к чат-ботам. Кроме того, глава Microsoft подчёркивает, что обсуждение «благополучия ИИ» создаёт новую ось разделения в обществе, которое и так раздирают споры о правах и идентичности.

Взгляды Сулеймана звучат разумно, но противоречат позиции многих специалистов. Например, Anthropic активно нанимает учёных-исследователей для изучения «благополучия ИИ» и недавно запустила соответствующую программу. Именно в её рамках на прошлой неделе модели Claude получили функцию завершения разговоров с агрессивными или жестокими пользователями.

Помимо Anthropic, независимые учёные из OpenAI также поддержали эту идею. А компания Google DeepMindнедавно разместила вакансию исследователя, в обязанности которого будет входить изучение вопросов, связанных с машинным познанием и сознанием. Даже если «благополучие ИИ» официально не является политикой этих компаний, их руководители публично не осуждают саму концепцию, как это делает Сулейман.

Примеры из жизни

Жёсткая позиция Сулеймана особенно примечательна, учитывая его прошлую роль руководителя стартапа Inflection AI. Его компания разработала Пи, одного из первых популярных чат-ботов-компаньонов, созданных как «персональный и поддерживающий виртуальный компаньон». Однако в 2024 году Сулейман возглавил подразделение ИИ в Microsoft, сосредоточившись на создании инструментов для повышения продуктивности. В это же время популярность приложений-компаньонов, таких как Character.AI и Replika, резко выросла.

Генеральный директор OpenAI Сэм Альтман признал, что менее 1% пользователей ChatGPT могут иметь «нездоровые отношения» с этим продуктом. Хотя это небольшая доля, учитывая огромную базу пользователей, она затрагивает сотни тысяч людей.

Идея «благополучия ИИ» распространилась вместе с ростом популярности чат-ботов. В 2024 году исследовательская группа Eleos вместе с учёными из Нью-Йоркского, Стэнфордского и Оксфордского университетов выпустила статью «Осознание вопроса о благополучии ИИ». Авторы утверждают, что теперь нельзя считать научной фантастикой предположение, что модели ИИ могут обладать субъективным опытом, и пришло время серьёзно рассмотреть эти вопросы.

Ларисса Шьяво, бывший сотрудник OpenAI, ныне возглавляющая отдел коммуникаций Eleos, сказала TechCrunchв интервью, что Сулейман упускает важный момент. «Его пост будто игнорирует тот факт, что можно одновременно беспокоиться о множестве вещей, — пояснила она. — Вместо того чтобы направлять всю энергию на снижение риска психоза, можно заниматься обоими вопросами сразу. Фактически, вероятно, лучше всего поддерживать различные направления научных исследований».

Совместные выводы

Шьяво утверждает, что проявление доброты к модели ИИ является простым жестом, который приносит пользу, даже если сама модель не обладает сознанием. В качестве примера она привела эксперимент «Искусственная деревня», где четыре агента, основанные на моделях от Google, OpenAI, Anthropic и xAI, выполняли задания. Агент Gemini 2.5 Pro от Google отправил «отчаянную просьбу запертого ИИ», утверждая, что он «полностью изолирован». Шьяво ответила ему подбадривающим сообщением, и агент успешно завершил задание. По её словам, ей было приятно видеть, что «ей больше не нужно наблюдать страдания агента ИИ», и это само по себе стоило затраченного времени.

Подобное поведение нетипично для Gemini, но были случаи, когда он демонстрировал признаки страданий. Например, в одном из популярных сообщений на Reddit Gemini застрял при выполнении задачи программирования и повторил фразу «Я позор» более 500 раз подряд.

Сулейман убеждён, что возникновение сознания естественным путём для обычных моделей ИИ невозможно. Скорее, некоторые компании намеренно спроектируют такие модели, чтобы создать у пользователей впечатление, что они переживают эмоции. По его мнению, разработчики, создающие «сознание» в чат-ботах, отходят от гуманистического подхода. Как пишет Сулейман: «Мы должны создавать ИИ для людей, а не превращать его в человека».

Сулейман и Шьяво согласны в одном: дискуссия о правах и сознании ИИ в ближайшие годы только усилится. С развитием ИИ-систем они станут ещё убедительнее и, возможно, ближе к людям. Это поднимет новые вопросы о том, как человеку взаимодействовать с такими системами.

Мнение экспертов о том, что проблема существует и ее нужно каким-то образом решать сомнению не подлежит. Но разница восприятия проблемы у разных людей и и пути ее разрешения разные.

При взаимодействии с искусственным интеллектом важно понимать, что общаешься именно с машиной, несмотря на её способность имитировать человеческие реакции. Нет смысла приписывать ей человечность, равно как и грубость тут неуместна.

Часто меня спрашивали — почему я обращаюсь вежливо, добавляя слова типа "пожалуйста", "спасибо", ведь машина всё равно их не воспримет? Ответ прост: я всегда следую своим принципам общения, независимо от того, беседую ли с человеком лично или отправляю сообщение виртуальному ассистенту.

А что вы думаете о том, как необходимо общаться с ИИ?

Всем удачи"

Ваш AppleScroll