Найти в Дзене
DigEd

OpenAI тестирует свою силу убеждения

Фото-иллюстрация: Сотрудники Staff; Getty Изображения
Фото-иллюстрация: Сотрудники Staff; Getty Изображения

Автор Уилл Найт

Сэм Альтман рекламирует способность ИИ влиять на поведение людей. Его компания также борется с рисками.

На этой неделе Сэм Альтман, генеральный директор OpenAI, и Арианна Хаффингтон, основатель и генеральный директор медицинской компании Thrive Global, опубликовали в Time статью, рекламирующую Thrive AI, стартап, поддерживаемый Thrive и Startup Fund OpenAI.

-2

В статье предполагается, что ИИ может оказать огромное положительное влияние на общественное здравоохранение, убеждая людей вести более здоровый образ жизни.

Альтман и Хаффингтон пишут, что Thrive AI работает над созданием «полностью интегрированного персонального тренера на основе искусственного интеллекта, который в режиме реального времени предлагает уникальные для вас подсказки и рекомендации, которые позволят вам изменить свое повседневное поведение, чтобы улучшить свое здоровье».

Их видение придает позитивный оттенок тому, что вполне может оказаться одним из самых обоюдоострых сторон ИИ. Модели ИИ уже умеют убеждать людей, и мы не знаем, насколько более могущественными они могут стать по мере продвижения и получения доступа к большему количеству личных данных.

Александр Мэдри, профессор Массачусетского технологического института, находящийся в творческом отпуске, возглавляет команду OpenAI под названием Preparedness («Подготовленность»), которая работает над этой самой проблемой.

«Одним из направлений работы в рамках программы Preparedness является убеждение», — сказал Мэдри WIRED в майском интервью. «По сути, вы думаете, в какой степени вы можете использовать эти модели как способ убеждения людей».

Мэдри говорит, что его побудил присоединиться к OpenAI замечательный потенциал языковых моделей и потому, что риски, которые они представляют, почти не изучены. «Науки буквально почти нет», — говорит он. «Это послужило толчком для усилий по обеспечению готовности».

Убедительность — ключевой элемент таких программ, как ChatGPT, и один из ингредиентов, делающих таких чат-ботов такими привлекательными. Языковые модели обучаются человеческому письму и диалогу, которые содержат бесчисленные риторические и убедительные приемы и провокации. Модели также обычно настраиваются так, чтобы отклоняться от высказываний, которые пользователи находят более убедительными.

Исследование, опубликованное в апреле компанией Anthropic, конкурентом, основанным изгнанниками OpenAI, предполагает, что языковые модели стали лучше убеждать людей по мере того, как они росли в размерах и усложнялись.

-3

В ходе этого исследования добровольцам дали заявление, а затем увидели, как аргумент, сгенерированный ИИ, меняет их мнение о нем.

Работа OpenAI распространяется на анализ ИИ в разговоре с пользователями, что может обеспечить большую убедительность. Мэдри говорит, что работа проводится на согласившихся добровольцах, и на данный момент отказывается раскрывать результаты. Но он говорит, что убедительная сила языковых моделей глубока. «Как люди, у нас есть такая «слабость»: если что-то общается с нами на естественном языке [мы думаем об этом так, как будто] это человек», — говорит он, намекая на антропоморфизм, который может сделать чат-ботов более реалистичными и убедительными.

В статье Time утверждается, что потенциальная польза убедительного ИИ для здоровья потребует надежных юридических гарантий, поскольку модели могут иметь доступ к очень большому количеству личной информации. «Политикам необходимо создать нормативно-правовую среду, которая будет способствовать инновациям в области искусственного интеллекта, сохраняя при этом конфиденциальность», — пишут Альтман и Хаффингтон.

Это не все, что придется учитывать политикам. Также может быть крайне важно взвесить, как все более убедительные алгоритмы могут быть использованы не по назначению. Алгоритмы искусственного интеллекта могут усилить резонанс дезинформации или создать особенно убедительные фишинговые схемы. Их также можно использовать для рекламы товаров.

Мэдри говорит, что ключевой вопрос, который еще предстоит изучить OpenAI и другим, заключается в том, насколько более убедительными или принудительными могут оказаться программы искусственного интеллекта, которые взаимодействуют с пользователями в течение длительных периодов времени. Ряд компаний уже предлагают чат-ботов, которые играют роли романтических партнеров и других персонажей. Подружки с искусственным интеллектом становятся все более популярными — некоторые даже созданы, чтобы кричать на вас, — но насколько захватывающими и убедительными являются эти боты, по большей части неизвестно.

-4

Ажиотаж и шумиха, вызванные ChatGPT после его выпуска в ноябре 2022 года, привели к тому, что OpenAI, сторонние исследователи и многие политики сосредоточились на более гипотетическом вопросе о том, сможет ли ИИ когда-нибудь восстать против своих создателей.

Мэдри говорит, что это рискует игнорировать более тонкие опасности, исходящие от скупых алгоритмов. «Я беспокоюсь, что они сосредоточатся на неправильных вопросах», — говорит Мэдри о работе политиков на данный момент. «В каком-то смысле все говорят: «О да, мы справляемся с этим, потому что говорим об этом», хотя на самом деле мы говорим не о том, что нужно».

Источник