По словам экспертов, когда люди, создающие видимость надежности ИИ, сами доверяют ему меньше всего, это показывает, что стремление к заработку преобладает над стремлением к безопасности родных и близких.
Пишет CNN:
Криста Павлоски помнит решающий момент, сформировавший её мнение об этике искусственного интеллекта . Работая специалистом по ИИ на Amazon Mechanical Turk — торговой площадке, позволяющей компаниям нанимать сотрудников для выполнения таких задач, как ввод данных или сопоставление подсказок ИИ с его результатами, — Павлоски занимается модерацией и оценкой качества текстов, изображений и видео, сгенерированных ИИ, а также проверкой фактов.
Примерно два года назад, работая из дома за обеденным столом, она взялась за работу, маркируя твиты как расистские, так и нерасистские. Когда ей показали твит со словами «Послушайте, как поёт лунный сверчок», она чуть не нажала кнопку «нет», прежде чем решила проверить значение слова «mooncricket», которое, к её удивлению, оказалось расистским оскорблением в адрес чернокожих американцев.
После многих лет наблюдений за внутренней работой моделей искусственного интеллекта Павлоски решила больше не использовать продукты генеративного искусственного интеллекта лично и посоветовала своей семье держаться от них подальше.
«В моём доме этому категорически запрещено», — сказала Павлоски, имея в виду, что она не позволяет своей дочери-подростку пользоваться такими инструментами, как ChatGPT . А людей, с которыми она общается в обычной жизни, она не советует спрашивать у ИИ о том, в чём они хорошо разбираются. Павлоски сказала, что каждый раз, когда она видит меню с новыми задачами на сайте Mechanical Turk, она спрашивает себя, не могут ли её действия каким-либо образом быть использованы во вред другим людям, — и часто, по её словам, ответ оказывается положительным.
В заявлении Amazon говорится, что работники могут по своему усмотрению выбирать задачи для выполнения и проверять детали задачи перед её принятием. Согласно Amazon, заказчики самостоятельно устанавливают детали каждой задачи, такие как выделенное время, оплата и уровень инструкций.
«Amazon Mechanical Turk — это торговая площадка, которая связывает компании и исследователей (так называемых заказчиков) с работниками для выполнения онлайн-задач, таких как маркировка изображений, заполнение опросов, расшифровка текста или проверка результатов ИИ», — заявила Монтана Маклахлан, представитель Amazon.
Павлоски не одинока. Десяток специалистов по оценке ИИ , которые проверяют ответы ИИ на точность и обоснованность, рассказали газете Guardian, что, узнав о принципах работы чат-ботов и генераторов изображений и о том, насколько ошибочными могут быть их результаты, они начали призывать своих друзей и родственников вообще не использовать генеративный ИИ — или, по крайней мере, стараться научить своих близких пользоваться им осторожно. Эти специалисты работают с различными моделями ИИ: Gemini от Google, Grok Илона Маска, другими популярными моделями, а также несколькими менее известными или менее масштабными ботами.
Одна из сотрудниц, оценщик ИИ в Google , которая оценивает ответы, генерируемые в разделе «Обзоры ИИ» Google Поиска, рассказала, что старается использовать ИИ как можно реже, если вообще использует. Подход компании к ответам ИИ на вопросы о здоровье, в частности, заставил её задуматься, сказала она, попросив не называть её имени из-за опасений профессионального преследования. Она рассказала, что наблюдала, как её коллеги некритично оценивали ответы ИИ на медицинские вопросы, и ей самой было поручено оценивать такие вопросы, несмотря на отсутствие медицинской подготовки.
Дома она запретила своей 10-летней дочери пользоваться чат-ботами. «Сначала ей нужно научиться критически мыслить, иначе она не сможет оценить качество результата», — сказал оценщик.
«Рейтинги — лишь один из множества агрегированных показателей, которые помогают нам оценить эффективность работы наших систем, но не оказывают прямого влияния на наши алгоритмы или модели», — говорится в заявлении Google. «Мы также используем ряд надежных средств защиты для предоставления высококачественной информации в наших продуктах».
Наблюдатели за ботами бьют тревогу
Эти люди — часть глобальной команды из десятков тысяч человек, которые помогают чат-ботам звучать более человечно. Проверяя ответы ИИ, они также делают всё возможное, чтобы чат-бот не выдавал неточную или вредоносную информацию.
Однако эксперты считают, что когда люди, которые заставляют ИИ казаться заслуживающим доверия, на самом деле доверяют ему меньше всего, это сигнал о гораздо более серьезной проблеме.
«Это показывает, что, вероятно, существуют стимулы к расширению и масштабированию, а не к медленной, тщательной проверке, и что отзывы оценщиков игнорируются», — сказал Алекс Махадеван, директор MediaWise в Poynter, программе по медиаграмотности. «Таким образом, когда мы увидим финальную [версию] чат-бота, мы можем ожидать тех же ошибок, с которыми они сталкиваются. Это не сулит ничего хорошего для аудитории, которая всё чаще обращается к магистрам права за новостями и информацией».
Специалисты по ИИ заявили, что не доверяют моделям, с которыми работают, из-за постоянного акцента на быстром выполнении заказов в ущерб качеству. Брук Хансен, специалист по ИИ на Amazon Mechanical Turk, объяснила, что, хотя она не испытывает недоверия к концепции генеративного ИИ, она также не доверяет компаниям, которые разрабатывают и внедряют эти инструменты. Для неё самым важным поворотным моментом стало осознание того, насколько мало поддержки получают люди, обучающие эти системы.
«От нас ждут, что мы поможем улучшить модель, но нам часто дают расплывчатые или неполные инструкции, минимальное обучение и нереалистичные сроки выполнения задач», — сказал Хансен, работающий с данными с 2010 года и участвовавший в обучении некоторых из самых популярных моделей искусственного интеллекта в Кремниевой долине. «Если у сотрудников нет необходимой информации, ресурсов и времени, как результаты могут быть безопасными, точными или этичными? Для меня этот разрыв между тем, что от нас ожидают, и тем, что нам фактически дают для выполнения работы, — явный признак того, что компании ставят скорость и прибыль выше ответственности и качества».
Эксперты утверждают, что одним из главных недостатков генеративного ИИ является предоставление ложной информации уверенным тоном, а не отсутствие ответа, когда его нет. Аудит 10 ведущих моделей генеративного ИИ, включая ChatGPT, Gemini и Meta's AI, проведённый некоммерческой организацией NewsGuard, занимающейся медиаграмотностью, показал, что уровень отсутствия ответа у чат-ботов снизился с 31% в августе 2024 года до 0% в августе 2025 года. В то же время, по данным NewsGuard, вероятность повторения ложной информации чат-ботами почти удвоилась — с 18% до 35% . Ни одна из компаний не ответила на запрос NewsGuard о комментарии.
«Я бы не доверяла никаким фактам, которые [бот] предлагает, не проверив их лично – они просто ненадёжны», – сказала другая оценщица Google AI, пожелавшая остаться анонимной в связи с соглашением о неразглашении, подписанным ею с компанией-подрядчиком. Она предостерегает людей от использования этого инструмента и повторяет точку зрения другого оценщика о том, что людям с поверхностными знаниями приходится отвечать на медицинские вопросы, а также на деликатные этические вопросы. «Это не этичный робот. Это просто робот».
Уведомление о конфиденциальности: Информационные бюллетени могут содержать информацию о благотворительных организациях, онлайн-рекламе и контенте, финансируемом сторонними организациями. Если у вас нет учётной записи, мы создадим для вас гостевую учётную запись на сайте theguardian.com для отправки этой рассылки. Вы можете пройти полную регистрацию в любое время. Подробнее об использовании ваших данных см. в нашей Политике конфиденциальности . Мы используем Google reCaptcha для защиты нашего веб-сайта, и на него распространяются Политика конфиденциальности и Условия обслуживания Google .
Другой оценщик ИИ, начавший свой путь с оценки ответов на продукты Google в начале 2024 года, начал чувствовать, что не может доверять ИИ примерно через шесть месяцев работы. Ему было поручено поставить модель в тупик, то есть задать ИИ Google различные вопросы, которые выявили бы её ограничения или слабые стороны. Имея диплом по истории, этот сотрудник задавал модели исторические вопросы для выполнения этой задачи.
«Я спрашивал об истории палестинского народа, и он не давал мне ответа, как бы я ни перефразировал вопрос», — вспоминает этот сотрудник, пожелавший остаться анонимным, подписав соглашение о неразглашении. «Когда я спрашивал об истории Израиля, он без проблем давал мне очень подробный обзор. Мы сообщили об этом, но в Google, похоже, никому до этого не было дела». Когда его спросили конкретно об описанной оценщиком ситуации, Google не сделала никакого заявления.
Для этого сотрудника Google самая большая проблема в обучении ИИ — это обратная связь, которую дают оценщики, подобные ему, ИИ-моделям. «Увидев, насколько плохи данные, которые якобы используются для обучения модели, я понял, что её абсолютно невозможно корректно обучить таким образом», — сказал он. Он использовал термин «мусор на входе — мусор на выходе» — принцип в компьютерном программировании, который гласит, что если ввести в техническую систему неверные или неполные данные, то и на выходе будут те же недостатки.
Оценщик избегает использования генеративного ИИ, а также «посоветовал всем членам семьи и друзьям не покупать новые телефоны со встроенным ИИ, по возможности избегать автоматических обновлений, которые добавляют интеграцию ИИ, и не сообщать ИИ ничего личного», — сказал он.
Хрупкий, не футуристический
Всякий раз, когда в социальном разговоре затрагивается тема ИИ, Хансен напоминает людям, что ИИ — это не магия, — объясняя, что за ним стоит армия невидимых рабочих, что информация ненадежна и насколько она вредна для окружающей среды .
«Как только вы увидите, как эти системы создаются на скорую руку — предвзятость, сжатые сроки, постоянные компромиссы — вы перестаёте считать ИИ чем-то футуристичным и начинаете считать его хрупким», — сказал Адио Диника, изучающий труд, стоящий за ИИ в Исследовательском институте распределённого ИИ, о людях, работающих за кулисами. «По моему опыту, именно люди, не понимающие ИИ, всегда им очарованы».
Специалисты по ИИ, говорившие с Guardian, заявили, что берут на себя ответственность делать более осознанный выбор и повышать осведомленность о своей деятельности, особо подчеркивая мысль о том, что ИИ, по словам Хансен, «независимо от того, что в него вложено, а то, что в него вложено, не всегда является самой лучшей информацией». В мае она и Павлоски выступили с докладом на весенней конференции Ассоциации школьных советов Мичигана. В зале, полном членов школьных советов и администраторов со всего штата, они говорили об этических и экологических аспектах искусственного интеллекта, надеясь спровоцировать дискуссию.
«Многие участники были шокированы тем, что узнали, поскольку большинство из них никогда не слышали о человеческом труде или воздействии на окружающую среду, которое оказывает искусственный интеллект», — сказал Хансен. «Некоторые были благодарны за эту информацию, в то время как другие заняли оборонительную позицию или были разочарованы, обвиняя нас в том, что мы „смертельно мрачно“ относимся к технологиям, которые они считали захватывающими и полными потенциала».
Павлоски сравнивает этику ИИ с этикой текстильной промышленности: когда люди не знали, как производится дешёвая одежда, они были рады найти лучшее предложение и сэкономить немного денег. Но когда истории о потогонных фабриках стали достоянием общественности, у потребителей появился выбор, и они поняли, что должны задавать вопросы. Она считает, что то же самое относится и к ИИ.
«Откуда берутся ваши данные? Основана ли эта модель на нарушении авторских прав? Получали ли работники справедливую компенсацию за свой труд?» — сказала она. «Мы только начинаем задавать эти вопросы, поэтому в большинстве случаев широкая общественность не имеет доступа к правде, но, как и в текстильной промышленности, если мы продолжим спрашивать и настаивать, перемены возможны».