Вчера наткнулся на очень интересный анализ, которым спешу поделиться с читателем Дзен.
Исследование действительно увлекательное. Категорически рекомендую к внимательному прочтению.
Итак.
Исследователи безопасности OpenAI считают, что GPT4o может повлиять на социальные нормы.
Для того чтобы люди начали относиться к компьютерам, как к людям, нужно совсем немного.
С тех пор как в начале 2000-х годов текстовые чат-боты стали привлекать всеобщее внимание, небольшая часть пользователей техники часами ведет беседы с машинами.
В некоторых случаях пользователи завязывают с неодушевленным кодом настоящую дружбу и даже романтические отношения. По крайней мере, один пользователь разговорного ИИ, даже чуть ли не женился на своем собеседнике.
Исследователи безопасности из OpenAI, которые сами не против того, что их собственный чатбот завязывает отношения с некоторыми пользователями, теперь предупреждают о потенциальных опасностях, связанных со слишком близким общением с этими моделями.
В недавнем анализе безопасности своего нового разговорного чатбота GPT4o исследователи заявили, что реалистичный, по-человечески звучащий разговорный ритм модели может привести к тому, что некоторые пользователи начнут доверять ИИ, как человеку.
Этот дополнительный уровень комфорта или доверия, может сделать пользователей более восприимчивыми к тому, чтобы поверить в сфабрикованные ИИ галлюцинации как в правдивые утверждения о фактах.
Заметьте, это не мнение дилетанта. Мнение вполне образованных и владеющих данными ученых исследователей.
Слишком много времени, проведенного за общением с этими все более реалистичными чат-ботами, может также повлиять на социальные нормы, и не всегда в хорошую сторону.
Другие, особенно изолированные люди, отмечается в отчете, могут начать эмоционально зависеть от ИИ.
Отношения с реалистичными ИИ могут повлиять на то, как люди общаются друг с другом
GPT4o, который начал внедряться недавно, был специально разработан для общения, которое будет звучать более человечно.
В отличие от ChatGPT, GPT4o общается с помощью голосового аудио и может отвечать на запросы почти так же быстро (около 232 миллисекунд), как и человек.
Один из выбираемых голосов ИИ, который, как утверждается, похож на голос персонажа ИИ, сыгранного Скарлетт Йоханссон в фильме "Она", уже был обвинен в излишней сексуальности и кокетливости.
По иронии судьбы, в фильме 2013 года речь идет об одиноком мужчине, который вступает в романтические отношения с ИИ-помощником, разговаривающим с ним через наушники и ничем хорошим это не закончилось.
Йоханссон обвинила OpenAI в копировании ее голоса без ее согласия, что компания отрицает.
Но исследователи безопасности OpenAI говорят, что эта человеческая мимикрия может выйти за рамки случайного обмена колкостями и выйти на потенциально опасную территорию.
В одном из разделов отчета исследователи безопасности заявили, что они наблюдали, как тестировщики - люди использовали язык, который предполагал, что они формируют сильную, интимную связь с ИИ.
Один из таких испытателей, как сообщается, использовал фразу
"Это наш последний день вместе",
прежде чем расстаться с машиной.
Исследователи заявили, что подобные отношения следует изучить, чтобы понять, как они проявятся в течение длительных периодов времени.
Исследование предполагает, что такие длительные беседы с несколько убедительно звучащими человеческими моделями ИИ могут иметь эффекты, которые влияют на взаимодействие человека с человеком.
Другими словами, разговорные шаблоны, выученные во время общения с ИИ, могут всплыть, когда тот же человек будет вести беседу с человеком. Но разговор с машиной и разговор с человеком - это не одно и то же, даже если на первый взгляд они похожи.
OpenAI отмечает, что ее модель запрограммирована на уважительное отношение к пользователю, что означает, что она будет уступать и позволять пользователю перебивать ее и диктовать другие условия разговора.
Теоретически, пользователь, который нормализует общение с машинами, может обнаружить, что он сам вмешивается, перебивает и не соблюдает общие социальные сигналы.
Применение логики общения чат-ботов к людям может сделать человека нетактичным, нетерпеливым или просто грубым.
Люди не отличаются доброжелательным отношением к машинам. В контексте чат-ботов некоторые пользователи, как сообщается, воспользовались уважением модели к пользователю, чтобы использовать оскорбительные, ругательные и жестокие выражения.
Один из пользователей, опрошенный в начале этого года, заявил, что угрожал удалить свою модель ИИ только для того, чтобы услышать, как она умоляет его не делать этого. Если эти примеры могут быть показательны, чат-боты рискуют стать питательной средой для обид, которые затем могут проявиться в реальных отношениях.
Более человеколюбивые чат-боты - это не обязательно плохо.
В докладе исследователей говорится, что такие модели могут принести пользу особенно одиноким людям, которые жаждут хоть какого-то подобия человеческого общения.
Кроме того, некоторые пользователи ИИ утверждают, что сравнительные модели ИИ могут помочь тревожным или нервным людям обрести уверенность в себе, чтобы в конечном итоге начать встречаться в реальном мире.
Кроме того, чат-боты дают возможность людям с ограниченными способностями к обучению свободно выражать свои мысли и практиковаться в общении в условиях относительной конфиденциальности.
С другой стороны, исследователи безопасности ИИ опасаются, что продвинутые версии этих моделей могут иметь обратный эффект и снизить потребность человека в общении с другими людьми и развитии здоровых отношений с ними.
Также неясно, как люди, полагающиеся на эти модели в качестве компаньонов, отреагируют на изменение личности модели через обновление или даже на расставание с ними, как это, по сообщениям, случалось в прошлом.
Все эти наблюдения, отмечается в докладе, требуют дальнейшего тестирования и изучения.
По словам исследователей, они хотели бы привлечь к тестированию более широкую группу людей с различными потребностями и желаниями в отношении моделей ИИ, чтобы понять, как меняется их опыт в течение длительного времени.
Что вы об этом думаете?
Подписывайтесь на канал – будет много интересного.
Ставьте лайк, делитесь с друзьями.
Читайте полезное на канале: