Найти в Дзене
Александр Киреев

Генеративный ИИ, четверной обман и доверие

## Перевод статьи на русский язык
### Переход к основному содержанию
Главная страница Taylor & Francis Online
Зарегистрироваться или войти в систему

Перевод статьи на русский язык

Джудит Саймон

Принята: 1 апреля 2025 г.; одобрена: 6 апреля 2025 г.; опубликована онлайн: 8 мая 2025 г.

Ссылка DOI: https://doi.org/10.1080/02691728.2025.2491087

Аннотация

Генеративный искусственный интеллект произвел огромное впечатление на мировое сообщество. Благодаря миллионам пользователей, миллиардам запросов и созданных результатов инструменты генеративного ИИ ежедневно используются и подвергаются злоупотреблениям самыми разными способами. В настоящей статье рассмотрена проблема обмана, связанного с применением генеративного ИИ, и предложена концепция "четверного обмана", включающая ряд связанных, но различающихся форм обмана:

1. Обман относительно онтологического статуса партнера коммуникации (машины воспринимаются людьми как реальные собеседники).

2. Обман относительно возможностей ИИ (возможности инструмента преувеличиваются пользователями и разработчиками).

3. Обман с помощью генерируемого контентом (создание ложных публикаций, поддельных документов и дипфейков).

4. Обман путем интеграции генеративного ИИ в другие программные средства (искажается восприятие функций генеративного ИИ и их взаимодействие с окружением).

Автор показывает, что каждый вид обмана подрывает существующие способы оценки надежности и распределение доверия, создавая серьезные эпистемологические, этические и политические последствия. Далее рассматриваются пути повышения надежности генеративного ИИ для обоснованного доверия к ним, а также предлагаются рекомендации по обязанностям участников процесса проектирования, разработки и внедрения таких технологий.

Ключевые слова:

Генеративный искусственный интеллект, обман, доверие, надежность

Раздел 1. Знакомство с генеративным ИИ

История развития искусственного интеллекта наполнена периодами подъёмов («лето») и спадов («зима»), чередующимися большим оптимизмом и разочарованием. Сегодня мы вновь переживаем этап расцвета ИИ, обусловленный популярностью генеративных систем, таких как ChatGPT. Причина успеха этих инструментов кроется в их доступности и удобстве: простое графическое представление позволяет легко создать высококачественный контент, будь то текст, изображения или видео. Такое сочетание удобства и мощности объясняет широкое распространение генеративного ИИ даже среди непрофессионалов.

Однако, несмотря на очевидные преимущества, многие эксперты указывают на существенные ограничения и опасности генеративного ИИ. Например, одна из ключевых особенностей генеративных моделей состоит в создании нового контента на основе анализа огромного массива данных, полученных преимущественно из сети Интернет. Хотя качество и точность производимых данных значительно улучшились, само содержание остаётся лишь отражением паттернов исходных данных, а не объективной истины. Из-за этого генеративный ИИ стал источником целого спектра рисков, начиная от распространения недостоверной информации и заканчивая угрозой личной конфиденциальности и нарушениям прав интеллектуальной собственности.

Кроме того, высокая скорость распространения и повсеместное применение генеративного ИИ вызывают обеспокоенность по поводу воздействия этих технологий на общество. Интернациональные организации, правительства и академические сообщества активно работают над разработкой правовых норм и стандартов для управления развитием и использованием генеративного ИИ. В итоге перед нами возникает комплексный вопрос: как защитить доверие к подобным технологиям, минимизируя угрозы и негативные последствия их эксплуатации?

Раздел 2. Генеративный ИИ и опасность четверного обмана

Основная идея статьи Джудит Саймон сосредоточена вокруг понятия "четверного обмана", характеризующего специфику риска, возникающего при использовании генеративного ИИ. Согласно ей, существует четыре вида обмана, представляющих уникальные угрозы:

1. **Обман относительно онтологии**. Люди склонны считать генеративные модели настоящими партнёрами по разговору, упуская из виду, что они являются продуктом программного обеспечения. Это формирует искажённое представление о природе взаимодействия.

2. **Обман относительно способностей ИИ**. Многие заблуждаются, полагая, что генеративный ИИ наделён осознанностью, пониманием или даже эмоциями, в то время как он представляет собой сложную статистику и предсказательную модель.

3. **Обман через созданный контент**. Поскольку генеративные модели способны производить качественные публикации, изображения и видеоролики, они становятся инструментом фальсификации фактов и распространения ложной информации.

4. **Интеграционные риски**. Интеграция генеративного ИИ в другие технологии, такие как поисковые системы, увеличивает вероятность неправильного восприятия их функциональности и назначения.

Все перечисленные формы обмана наносят значительный ущерб практике доверия и влияют на рациональное принятие решений в условиях неопределённости. Важно понимать, что данная классификация не исчерпывает список возможных проблем, однако помогает структурировать подходы к оценке последствий генеративного ИИ для общественного устройства и индивидуальных свобод.

Раздел 3. Эффект четверного обмана на доверие и обоснованность доверия

Автор подчёркивает значимость категории доверия в философии и социальной науке. Как инструмент, оно обеспечивает эффективное функционирование коллективных процессов и способствует формированию здорового общественного климата. Когда доверие нарушается (например, путём обмана), возникают разнообразные негативные последствия, затрагивающие когнитивную сферу, личные права и общественные структуры. Рассмотрим подробнее каждую форму обмана:

1. **Онтологический обман** разрушает базовую предпосылку взаимодействия между субъектами, заставляя верить, будто виртуальная сущность является реальной личностью. Эта ошибка ослабляет основы взаимного доверия и провоцирует иррациональные ожидания.

2. **Ошибка относительно способностей ИИ** формирует иллюзии, увеличивающие риск неоправданного доверия к продуктам генеративного ИИ. Подобные убеждения усиливают потенциал манипуляций и позволяют нарушителям использовать недостатки восприятия в корыстных целях.

3. **Контент-обман**, выраженный в формах дипфейков и фейк-ньюс, распространяется быстро и незаметно, подрывая репутацию организаций и отдельных лиц, искажая реальность и способствуя кризису доверия в демократическом обществе.

4. **Интеграционная ловушка** повышает сложность правильного понимания границ компетенции генеративного ИИ, превращая технологию в источник постоянной тревоги и недопонимания.

Чтобы избежать негативных эффектов, связанных с этими формами обмана, авторы призывают уделять особое внимание обучению и повышению осведомлённости пользователей, совершенствованию методов верификации и созданию нормативных актов, защищающих общественное пространство от негативного воздействия генеративного ИИ.

Раздел 4. Подведение итогов и выводы

В заключительной части статьи Джудит Саймон формулирует ряд рекомендаций, направленных на повышение уровня доверия к генеративному ИИ и снижение вероятности возникновения обманов:

— Повышение прозрачности работы генеративных моделей.

— Улучшение методов обнаружения дипфейков и другой фальсифицированной информации.

— Регулирование интегрирования генеративного ИИ в поисковые системы и другие платформы.

— Образование пользователей и улучшение общего уровня цифровой грамотности.

При соблюдении этих предложений возможно добиться устойчивого баланса между преимуществами и рисками, связанными с генеративным ИИ. Тем не менее процесс достижения такого равновесия потребует усилий от правительственных органов, исследователей, бизнеса и самих пользователей. Только совместными усилиями удастся обеспечить безопасность и пользу от применения генеративного ИИ.

Таким образом, работа Джудит Саймон даёт глубокое понимание важности проблемы доверия в эпоху генеративного ИИ и ставит важную цель — формирование надежной инфраструктуры для безопасного использования этой инновационной технологии.