Есть ли в Дзене хоть один автор, у которого не ограничивали бы публикацию по ошибке? Думаю, нет. Каждый столкнулся с этим явлением. Можно, конечно, привычно обвинить Дзен в непрофессионализме, а можно посмотреть на вещи шире. Давайте так и сделаем, мы ж ничего не потеряем, в конце концов.
Итак, алгоритм – это программа. Даже искусственный интеллект – это программа, то есть жёстко заданные параметры. Обучаясь, программа всего лишь классифицирует данные и сравнивает с ранее сохранённой информацией. И всё. Машины пока не способны перейти на высший уровень мышления – выстроить связи, чтобы из информации получилось знание. Так и застряли в матрицах данных: равно – не равно.
Поэтому алгоритмы часто совершают ошибки – видят объект, сопоставляют с имеющейся информацией и принимают неверное решение.
Например, отправляют в 18+ кулинарную статью с ощипанной тушкой курицы. Или описание концерта, где на фото можно разглядеть фривольные очертания тени от микрофона. Реальные случаи из Дзена, кстати.
Google отличился ещё фееричнее и масштабнее: в 2015 году выяснилось, что в поиске по изображениям его алгоритмы по запросу горилла выдают и фотографии очень темнокожих людей. Гугл быстренько признал и замял оплошность, исключив из поискового картиночного лексикона слова горилла, шимпанзе и мартышка.
It-гиганту чертовски повезло, что тогда ещё не слыхали о движении BLM, правда?
Но дело расистских алгоритмов Гугла продолжил Твиттер, впридачу досыпав ещё и эйджизма с сексизмом.
Открылось это дело в 2020 году.
В Twitter встроена функция обрезки изображений, чтобы прикреплённые к посту картинки красиво и информативно отображались в ленте.
Колин Мэдленд, аспирант Университета Виктории, заметил, что на фото с изображением людей двух рас алгоритм Зума всегда выбирает белого и делает его центром отображения.
Эстафету проверок подхватили другие пользователи.
Выяснилось вот что: если на фото имелся молодой стройный европеоид, а ещё лучше – европеоидка, ИИ Твиттера прекрасно справлялся с заданием, оставляя для обзора лицо по центру. А вот монголоиды и негроиды успехом у алгоритма почему-то не пользовались. Иногда он вообще не распознавал людей других рас и скрывал их из ленты. Все любят молодых и красивых европеек, даже роботы. Под раздачу почему-то попали и собаки. Наверное, их породное разнообразие ставит машины в тупик.
Twitter вначале отпирался, но под давлением общественности вынужден был пообещать вознаграждение за научное подтверждение некорректности работы его ИИ.
Конкурс закончился буквально на днях.
Студент швейцарского университета EFPL Богдан Кулинич получил 3 500 долларов за то, что обосновал предвзятость алгоритма Твиттера.
Исследователь генерировал в специальной программе идентичные изображения человеческих лиц и варьировал их пол, возраст и расу, потом загружал полученное в Twitter. В ходе эксперимента сформировалась твёрдая доказательная база: алгоритмы явно фокусировались на более молодых, узких и светлых лицах, игнорируя те, что старше, шире или темнее.
Руководитель команды по этике ИИ Twitter Рамман Чоудхури вынужден был признать, что для обучения алгоритмов программисты использовали картинки с моделями, которые сами считали красивыми. Эта вкусовщина послужила основой для перекосов в работе и последующему крупному недовольству пользователей. Теперь, очевидно, Твиттеру придётся переобучать свои машины, а это и долго, и дорого, согласитесь.
Несомненно, ошибочные ограничения изображений в Дзене – тоже результат недоработок в обучении. На старте проекта искусственный интеллект тренировали все желающие, теперь это ответственное мероприятие доверено работникам Толоки. Пока что жалоб на расизм, сексизм и эйджизм алгоритмов Дзена я не видела, что уже само по себе означает его достаточно хорошие навыки в распознавании изображений.
Но ещё раз подчеркну – сравнить не значит проанализировать. Ошибки есть и ещё будут. Возможно, со временем алгоритмы начнут идентифицировать любой контент не хуже человека, а пока нам остаётся только ждать и утешать себя школьной присказкой На ошибках учатся.