Google и ChatGPT тайно превращают вас в заложника собственных убеждений
Исследование с участием 10 000 человек, опубликованное в PNAS, выявило тревожную закономерность: поисковые системы и ИИ-чаты неосознанно создают «невидимую цензуру», формируя параллельные информационные реальности.
Как работает ловушка:
Человек формулирует запросы, отражающие его убеждения. Сторонник атомной энергии ищет «преимущества АЭС», противник — «опасность радиации». Алгоритмы Google и ChatGPT, стремясь к релевантности, усиливают эту предвзятость, показывая информацию, которая подтверждает исходные взгляды.
Результат: замкнутый круг самоподтверждения. Люди получают узкоспециализированные данные, ещё больше укрепляясь в своём мнении, даже если оно изначально было односторонним.
Последствия: рост социальной поляризации и упрощение сложных вопросов до чёрно-белых схем. Люди с разными взглядами буквально существуют в параллельных информационных мирах.
Решение: исследователи предлагают «расширенный поиск» с альтернативными точками зрения и модификацию ИИ-алгоритмов для более сбалансированных ответов. Эксперименты показали: люди положительно оценивают такие результаты, считая их объективнее.
Ваш информационный пузырь крепче, чем кажется 🫧
PS Вот чтобы вы не попадали в пузырь в этом канале Нейрокот публикует случайные новости из разных областей в 9:30 и интересную новость из мира ИИ в 13:40.
Так что если не хотите жить в пузыре - читайте наш канал. Ну и друзьям рассказывайте.
#ИнформационныеПузыри #Google #ChatGPT #ИИ #Алгоритмы