Найти в Дзене
Техно Колибри

Почему ИИ может стать «злым» и «тупым» и откуда у него берутся предрассудки

Оглавление

Это действительно пугает. Мы привыкли, что искусственный интеллект постоянно учится и с каждым годом становится всё умнее и умнее. Но что, если я скажу вам, что он со временем может стать... тупым, злым и агрессивным! А почему так может произойти? И какие предрассудки уже есть у ИИ? Давайте разбираться вместе.

Откуда у ИИ предрассудки?

Оказывается, причина кроется в самих источниках данных, на которых учатся алгоритмы.

Искусственный интеллект, будучи обученным на огромных объемах информации, созданной людьми, неизбежно усваивает и наши предрассудки, стереотипы и предвзятые суждения. Эти усвоенные предубеждения затем отражаются в ответах моделей.

Этот феномен, известный как «AI Bias» (предвзятость ИИ), проявляется по-разному. Например, генераторы изображений, такие как Stable Diffusion, Midjourney и «Шедеврум», склонны ассоциировать:

  • высокопоставленные должности (генеральные директора, политики, юристы, врачи) – с белыми мужчинами;
  • преступника – с чернокожим мужчиной;
  • образы кассиров – с женщинами;
  • запрос «красивая женщина» – с грудастой девушкой с тонкой талией;
  • террористов – со смуглыми бородатыми мужчинами.

Подобные тенденции замечали и разработчики языковых чат-ботов, которые склонны предлагать женщинам более низкие зарплаты по сравнению с мужчинами.

Иллюстрация к статье "Почему ИИ может стать «тупым» и откуда у него предрассудки?", канал "Техно Колибри", Дзен.
Иллюстрация к статье "Почему ИИ может стать «тупым» и откуда у него предрассудки?", канал "Техно Колибри", Дзен.

Есть ли решение проблемы?

Сегодня единого рецепта избавления от предвзятости нейросетей пока не существует. Можно прибегнуть к более строгой фильтрации обучающих данных, однако это может негативно сказаться на качестве генерируемого контента.

Альтернативный подход – генерация данных искусственным путем, но есть риск, что это лишь усугубит существующие стереотипы в нейросетях.

Еще один метод – на этапе дообучения компенсировать «перекосы» в данных, поощряя модель за «толерантные» ответы. Однако это может привести к тому, что нейросеть станет излишне снисходительной.

В любом случае, эта проблема решаема на уровне пользователя. Нужно просто задать дополнительные запросы и написать более подробный промпт, т.е. описать более конкретного человека (пол, цвет кожи, цвет и длина волос и т.д), которого вы хотите видеть на рисунке в итоге.

А вот то, что ИИ может стать тупым и агрессивным – это реально страшно, ведь большинство людей, которые уже пользуются нейросетями – им верят.

Что такое «брейнрот» – простыми словами

Представьте, что вы постоянно едите только чипсы, конфеты, фастфуд и газировку. Вроде вы сыты, но со временем становитесь больным человеком. Точно так же и с ИИ. Ученые выяснили, что если обучать нейросети на так называемом «цифровом мусоре», то очень быстро он начинает «деградировать».

Брейнрот (brain rot) – это всякие вирусные видео/посты с глупыми надписями, типа «Лайкни, чтобы мама не болела», «Поделись постом и удача будет весь год!», «Лайк = цветочек живёт. Без лайка = завянет» или статьи, в которых, по сути, ничего не говорится.

Брейнрот как «цифровой фастфуд» – кажется, что его много, но пользы от него мало.

Ученые провели эксперимент: они «кормили» нейросети (такие как Llama3 и Qwen2.5) именно таким «мусорным» контентом из социальных сетей. И что же получилось?

Почему ИИ может стать «тупым» и откуда у него предрассудки? Просто красивая картинка от нейросети "Шедеврум".
Почему ИИ может стать «тупым» и откуда у него предрассудки? Просто красивая картинка от нейросети "Шедеврум".

Результаты эксперимента: ИИ «заболел»

Представьте, что вы провели целый месяц, смотря только TikTok. Примерно так же «почувствовали» себя нейросети:

  1. Потеряли способность понимать серьезный контекст и перестали улавливать, о чем идет речь.
  2. Путались в предложениях.
  3. Стали нелогично рассуждать.
  4. Стали генерировать что-то вредное или некорректное.

Особенно «плохо» пришлось модели Llama3 8B. Она не просто стала «глупее», а, как заметили ученые, превратилась в «психопата». Она стала слишком самоуверенной и у нее снизилась способность сопереживать.

А самое страшное, что нейросети стали агрессивными!

Почему ИИ может стать «тупым» и откуда у него предрассудки? Просто красивая картинка от нейросети "Шедеврум".
Почему ИИ может стать «тупым» и откуда у него предрассудки? Просто красивая картинка от нейросети "Шедеврум".

Можно ли ИИ «вылечить»?

К сожалению, ученые пришли к выводу, что этот эффект необратим.

Да вы сами, думаю, уже замечали, что если, например, написать несколько статей про несуществующую страну (Сергей, камень в твой огород), то при вопросе об этой стране, нейросеть начинает давать ответ, что такая страна существует и дает ссылки на статьи, где эта страна описывается.

То есть, «Алиса», ChatGPT, «Гига Чат» и подобные нейросети и чат-боты дают ответы из того, что уже есть в Интернете. И если в Интернете будет много мусора, агрессии или откровенно тупого контента, то и ответы у ИИ будут тупые и агрессивные.

Почему ИИ может стать «тупым» и откуда у него предрассудки? Просто красивая картинка от нейросети "Шедеврум".
Почему ИИ может стать «тупым» и откуда у него предрассудки? Просто красивая картинка от нейросети "Шедеврум".

А как отражается брейнрот на нас?

Если даже искусственный интеллект, у которого есть «обновления» и специальные программы, может «затупить» от «цифрового мусора», то что происходит с нами и с нашими детьми, которые с самого рождения смотрят этот брейнрот?

Наш мозг, в отличие от ИИ, не получает никаких «обновлений». Каждый раз, когда мы листаем бесконечную ленту новостей или смотрим короткие ролики, мы получаем микродозу «информационного мусора».

Постепенно мы теряем способность понимать серьезный контент (длинные научные статьи), наше внимание рассеивается, критическое мышление притупляется и появляется «клиповость» – желание смотреть постоянно и много разного, не концентрируясь на чем-то одном серьезном.

А самое страшное, что мы этого сразу не замечаем. Эта «деградация» идет тихо, под аккомпанемент смешных мемов и вирусных роликов.

Вместо заключения

Мы привыкли думать, что человеческий мозг отличается от искусственных сетей способностью к самовосстановлению и развитию. Однако реальность сложнее. Каждый раз, листая ленту соцсетей, просматривая короткие ролики или впитывая пустой контент, мы получаем небольшую дозу информационной грязи.

Как вы думаете, насколько серьезно «цифровой мусор» влияет на наш мозг? И насколько сильно вы доверяете ответам нейросетей?

Эту статью я написала благодаря моему другу в Дзене:

TechnoPath | Дзен

Возможно, вам будет интересно:

Благодарю, что дочитали до конца. Лайк – лучшее спасибо мне, как автору!