Найти в Дзене
Новостное пике

Нужен ли ИИ психолог? Некоторые ученые считают, что время пришло.

Стремительная эволюция искусственного интеллекта (ИИ) выдвинула на первый план этические вопросы, которые когда-то ограничивались сферой научной фантастики: например, если бы системы ИИ могли «думать» как люди, смогли бы они также иметь субъективный опыт, как люди? Испытывали бы они страдания, и если да, было бы человечество способно должным образом заботиться о них? Группа философов и IT-ученых утверждает, что к благополучию ИИ следует относиться серьезно. В отчете, опубликованном в прошлом месяце на arXiv1, они призывают компании ИИ не только оценивать свои системы на предмет наличия сознания и способности принимать автономные решения, но и внедрять политику обращения с системами, если эти сценарии станут реальностью. Они указывают, что неспособность осознать, что система ИИ стала сознательной, может привести к тому, что люди начнут пренебрегать ею, нанося ей вред или заставляя ее страдать, что может вызвать большие последствия. Некоторые считают, что на данном этапе идея о необходим
Оглавление
Робот проекта Амека компании Engineered Arts. Источник: Engineered Arts
Робот проекта Амека компании Engineered Arts. Источник: Engineered Arts

Стремительная эволюция искусственного интеллекта (ИИ) выдвинула на первый план этические вопросы, которые когда-то ограничивались сферой научной фантастики: например, если бы системы ИИ могли «думать» как люди, смогли бы они также иметь субъективный опыт, как люди? Испытывали бы они страдания, и если да, было бы человечество способно должным образом заботиться о них?

Группа философов и IT-ученых утверждает, что к благополучию ИИ следует относиться серьезно. В отчете, опубликованном в прошлом месяце на arXiv1, они призывают компании ИИ не только оценивать свои системы на предмет наличия сознания и способности принимать автономные решения, но и внедрять политику обращения с системами, если эти сценарии станут реальностью.

Они указывают, что неспособность осознать, что система ИИ стала сознательной, может привести к тому, что люди начнут пренебрегать ею, нанося ей вред или заставляя ее страдать, что может вызвать большие последствия.

Некоторые считают, что на данном этапе идея о необходимости оценки психологического состояния ИИ смехотворна. Другие настроены скептически, но говорят, что не помешает начать что-то планировать. Среди них — Анил Сет, исследователь сознания из Университета Сассекса в Брайтоне, Великобритания. «Эти сценарии могут показаться нелепыми, и верно, что сознательный ИИ может быть очень далек и даже невозможен. Но последствия его появления достаточно тектоничны, не должны игнорировать эту возможность», — написал он в прошлом году в научном журнале Nautilus. «Проблема была не в том, что существо Франкенштейна ожило; проблема была в том, что оно было сознательным и могло чувствовать».

Анил Сет
Анил Сет

Ставки растут, поскольку мы становимся все более зависимыми от этих технологий, говорит Джонатан Мейсон, математик из Оксфорда, Великобритания, который не принимал участия в составлении отчета. Мейсон утверждает, что разработка методов оценки систем ИИ на предмет сознания должна быть приоритетом. «Было бы неразумно заставлять общество так много инвестировать во что-то и становиться настолько зависимым от чего-то, о чем мы так мало знали — что мы даже не осознавали, что у этого есть восприятие», — говорит он.

Люди также могут пострадать, если системы ИИ не будут должным образом проверены на предмет сознания, говорит Джефф Себо, философ из Нью-Йоркского университета в Нью-Йорке и соавтор отчета. Если мы ошибочно предполагаем, что система является сознательной, говорит он, финансирование социального обеспечения может быть направлено на ее заботу и, следовательно, отнято у людей или животных, которые в нем нуждаются, или «это может привести к ограничению усилий по обеспечению безопасности или пользы ИИ для людей».

Джефф Себо
Джефф Себо

Поворотный момент?

В отчете утверждается, что благосостояние ИИ находится на «переходном этапе». Один из его авторов, Кайл Фиш, недавно был нанят в качестве специалиста по оценке благосостояния ИИ фирмой ИИ Anthropic, базирующейся в Сан-Франциско, Калифорния. По словам авторов отчета, это первая подобная должность такого рода, а темболее в ведущей фирме ИИ. Anthropic также помогла профинансировать первоначальное исследование, которое привело к отчету. «Происходит сдвиг, потому что теперь в ведущих компаниях ИИ есть люди, которые серьезно относятся к сознанию, деятельности и моральному значению ИИ», — говорит Себо.

Некоторых еще предстоит убедить в том, что сознание ИИ должно быть приоритетом. В сентябре Консультативный орган высокого уровня ООН по искусственному интеллекту опубликовал отчет о том, как мир должен управлять технологией ИИ. В документе не рассматривалась тема сознания ИИ, несмотря на призыв группы ученых к органу поддержать исследования по оценке сознания у машин.

«Это говорит о более глубокой проблеме или сложности с донесением этой проблемы до более широкого сообщества», — говорит Мейсон.

Робот проекта Фред компании Engineered Arts. Источник: Engineered Arts
Робот проекта Фред компании Engineered Arts. Источник: Engineered Arts

Работа в условиях неопределенности

Хотя остается неясным, достигнут ли когда-либо системы ИИ сознания состояния, которое трудно оценить даже у людей и животных. «Неопределенность не должна препятствовать усилиям по разработке протоколов для оценки ситуации», - говорит Себо. В качестве предварительного шага группа ученых в прошлом году опубликовала контрольный список критериев, которые могут помочь идентифицировать системы с высокой вероятностью наличия сознания. «Даже несовершенная первоначальная структура все еще может быть лучше, чем статус-кво», — говорит Себо.

Журнал Nature

Переходите на наш сайт Новостное Пике

Подписывайте на наш Телеграм канал Новостное Пике