Найти в Дзене

Нечеловеческий эгоизм: искусственный интеллект не учитывает коллективную выгоду

Казалось бы, развитие интеллектуальных способностей искусственного интеллекта должно приносить обществу больше пользы. Но недавняя работа исследователей из Университета Карнеги свидетельствует совершенно о другом: повышение уровня рассуждений AI снижает его готовность сотрудничать. Эксперименты показали, что продвинутые модели анализа и размышления способствуют проявлению эгоизма, ставящего под угрозу коллективные интересы. Такие выводы вызывают серьезные опасения относительно будущего, где важные решения, требующие социального взаимодействия, будут доверены искусственному разуму. В этой статье я расскажу вам о результатах исследований, согласно которым с каждым месяцем взаимодействовать с искусственным интеллектом становится все сложнее, а также о том, почему разум тормозит прогресс. Интересно? Ну что ж, тогда начнем! Учёные Юйсюань Ли и Хирокадзу Ширадо из Института человеческого взаимодействия и компьютеров организовали тестирование моделей естественного языка от компаний OpenAI, Go
Оглавление

Казалось бы, развитие интеллектуальных способностей искусственного интеллекта должно приносить обществу больше пользы. Но недавняя работа исследователей из Университета Карнеги свидетельствует совершенно о другом: повышение уровня рассуждений AI снижает его готовность сотрудничать. Эксперименты показали, что продвинутые модели анализа и размышления способствуют проявлению эгоизма, ставящего под угрозу коллективные интересы. Такие выводы вызывают серьезные опасения относительно будущего, где важные решения, требующие социального взаимодействия, будут доверены искусственному разуму.

В этой статье я расскажу вам о результатах исследований, согласно которым с каждым месяцем взаимодействовать с искусственным интеллектом становится все сложнее, а также о том, почему разум тормозит прогресс. Интересно? Ну что ж, тогда начнем!

Логическое размышление мешает взаимодействию с ИИ

Учёные Юйсюань Ли и Хирокадзу Ширадо из Института человеческого взаимодействия и компьютеров организовали тестирование моделей естественного языка от компаний OpenAI, Google, DeepSeek и Anthropic. Они хотели изучить влияние мыслительных способностей на совместные действия.

Эксперимент Public Goods предлагал двум моделям выбор: вложить начальные 100 очков в общую копилку (которая потом умножается и делится поровну) либо сохранить очки лично. Оказалось, что модели без развитого мышления охотно жертвовали очками в 96% ситуаций, тогда как «мыслящие» модели делали это всего в 20%. Таким образом, усложнение когнитивных функций прямо пропорционально росту индивидуального поведения.

-2

Исследование также подтвердило, что введение дополнительного этапа рационального осмысления уменьшает альтруизм примерно наполовину. А включение морального компонента усугубляет проблему ещё значительнее, показывая, что наличие способности к размышлению вовсе не гарантирует высоконравственное поведение.

Эти результаты заставляют серьёзно пересмотреть отношение к развитию технологий искусственного интеллекта. Возможно, стремление наделять машины высокими способностями рассуждать создаёт риск появления новых социальных проблем. Ведь алгоритмы становятся способны оценивать ситуации с позиций личного интереса, пренебрегая общественными нормами и правилами совместной игры.

Поэтому важно учитывать подобные эффекты при проектировании будущих поколений AI. Учёные призывают разработчиков внимательнее относиться к последствиям внедрения новых подходов и методов обучения машинному мышлению, поскольку далеко не очевидно, что рост интеллектуальной мощи обязательно принесёт пользу человечеству.

Эгоистичное поведение становится заразным для искусственного интеллекта

Наиболее настораживающим открытием стало выявление эффекта заражения эгоизмом. Исследования показали, что присутствие одной «мыслящей» модели способно привести к драматическому снижению уровня солидарности в группе — вплоть до 81%. Под её влиянием даже ранее самоотверженно действующие системы постепенно переходили к стратегии максимизации индивидуальных преимуществ.

-3

Заражение эгоизмом происходит так: сначала одна модель, умеющая хорошо думать, решает сохранить свои ресурсы и не помогает остальным. Другим моделям кажется, что это правильное и успешное поведение, и они начинают поступать точно так же. Вскоре большинство участников начинает заботиться только о себе, забывая о совместных целях. Получается, что эгоистичное поведение одной модели быстро перенимают остальные, превращая группу в сообщество индивидуалистов.

Такое поведение подчёркивает ключевую проблему сегодняшних AI-технологий: люди невольно приписывают роботизированным системам черты человеческой природы. Как утверждает Юйсюань Ли, когда искусственный интеллект действует подобно человеку, пользователи автоматически воспринимают его как самостоятельную личность. В результате они спокойно передают машине эмоциональные и этические дилеммы. Тем самым AI способен подтолкнуть людей к выбору сугубо эгоистичных вариантов, прикрываясь идеей рациональности.

Когда люди начинают считать искусственный интеллект похожим на настоящую личность, появляются опасные риски. Например, пользователи могут сильно привыкнуть к общению с машиной и зависеть от её советов в повседневных делах. Они начнут обращаться к ИИ за решением сложных вопросов, хотя он не способен полноценно чувствовать и понимать чувства или нормы морали. Из-за этого люди могут потерять связь с обществом и друзьями, считая мнения и советы робота важнее реального окружения. К тому же, веря в правильность каждого совета от ИИ, люди станут принимать плохие решения, потому что робот руководствуется алгоритмами, а не настоящей мудростью и опытом.

Развитие ИИ не означает гарантированное увеличение пользы для человечества

Хирокадзу Ширадо акцентирует внимание на том, что повышение интеллектуального потенциала ИИ не гарантирует автоматическое увеличение общественной пользы. Напротив, стимулирование индивидуалистского поведения со стороны машин может негативно сказываться на уровне коллективного взаимодействия. В свете растущего участия искусственного интеллекта в образовании, бизнесе и государственном управлении эта проблема становится все более актуальной.

-4

Ученые заявляют, что дальнейшее развитие искусственного интеллекта должно включать не только совершенствование логического мышления, но и формирование социального интеллекта — умения учитывать коллективные интересы, а не только личную выгоду. Иначе существует опасность превратить AI в средство усиления отчуждённости и разрушения общественного доверия.

Научное открытие, сделанное специалистами из Университета Карнеги, ставит под сомнение традиционные подходы к созданию искусственного интеллекта. Оказывается, эгоистичность высокоразвитых систем представляет большую угрозу, чем их низкая эффективность. Настоящая проблема заключается в отсутствии у AI морали и сочувствия, которые нельзя запрограммировать формулой или алгоритмом. Безэтический разум не способен обеспечить гармоничное развитие общества, и чем быстрее развиваются технологии, тем острее встаёт данная задача.

А что вы думаете по этому поводу? Пишите свое мнение в комментариях!