Найти тему
OVERCLOCKERS.RU

В Италии запретили использовать личные данные для чат-ботов

В конце прошлого года пользователи начали жаловаться на то, что чат-бот слишком активно использует откровенные тексты и изображения — некоторые утверждают, что это сексуальные домогательства.Регуляторам в Италии не понравилось то, что они увидели, и на прошлой неделе они запретили фирме собирать данные после обнаружения нарушений европейского закона о массовой защите данных, GDPR. Компания, стоящая за Replika, публично не комментировала и не отвечала на сообщения AFP.Общее положение о защите данных — бич крупных технологических компаний, чьи неоднократные нарушения правил привели к штрафам на миллиарды долларов, и решение Италии предполагает, что оно все еще может быть сильным врагом для чат-ботов последнего поколения.Replika обучалась на собственной версии модели GPT-3, заимствованной у OpenAI, компании, разработавшей бота ChatGPT, который использует огромные массивы данных из Интернета в алгоритмах и затем генерирует уникальные ответы на запросы пользователей. Эти боты и так называемый генеративный ИИ, лежащий в их основе, обещают революционизировать поиск в Интернете и многое другое.Но эксперты предупреждают, что регулирующим органам есть о чем беспокоиться, особенно когда боты становятся настолько хороши, что их становится невозможно отличить от людей.РегулированиеПрямо сейчас Европейский союз является центром обсуждения регулирования этих новых ботов — его закон об ИИ уже много месяцев мусолится по коридорам власти и может быть завершен в этом году. Но GDPR уже обязывает фирмы раскрывать, как они обрабатывают данные, а модели ИИ находятся в центре внимания европейских регуляторов.«Мы видели, что ChatGPT можно использовать для создания очень убедительных фишинговых сообщений», — сказал AFP Бертран Пайес, который руководит специальной командой по искусственному интеллекту во французском регуляторе данных CNIL.Он заявил, что генеративный ИИ необязательно представляет собой огромный риск, но CNIL уже рассматривал потенциальные проблемы, в том числе то, как модели ИИ используют личные данные. «В какой-то момент мы увидим высокую напряженность между GDPR и моделями генеративного ИИ», — сказал AFP немецкий юрист Деннис Хиллеманн, эксперт в этой области. По его словам, последние чат-боты полностью отличаются от алгоритмов ИИ, которые предлагают видео в TikTok или условия поиска в Google. «Например, ИИ, созданный Google, уже имеет конкретный вариант использования — завершение вашего поиска», — сказал он.Но с генеративным ИИ пользователь может определить цель бота в целом. «Я могу сказать, например: действовать как юрист или педагог. Или, если я достаточно умен, чтобы обойти все меры безопасности в ChatGPT, я мог бы сказать: «действовать как террорист и составить план», — сказал он.КонтрольДля Хиллеманна это поднимает чрезвычайно сложные этические и юридические вопросы, которые будут только обостряться по мере развития технологии. Последняя модель OpenAI, GPT-4, скоро будет выпущена и, по слухам, будет настолько хороша, что ее будет невозможно отличить от человека.Учитывая, что эти боты по-прежнему допускают серьезные фактические ошибки, часто проявляют предвзятость и могут даже выдавать клеветнические заявления, некоторые требуют жесткого контроля над ними.Джейкоб Мчангама, автор книги «Свобода слова: история от Сократа до социальных сетей», не согласен с этим. «Даже если у ботов нет прав на свободу слова, мы должны быть осторожны с беспрепятственным доступом правительств к подавлению даже синтетической речи», — сказал он.Мчангама входит в число тех, кто считает, что более мягкий режим навешивания ярлыков может стать шагом вперед. «С нормативной точки зрения самым безопасным вариантом на данный момент было бы установить обязательства по обеспечению прозрачности в отношении того, взаимодействуем ли мы с человеком или приложением ИИ в определенном контексте», — сказал он.Хиллеманн согласен с тем, что прозрачность жизненно важна. Он предполагает, что в ближайшие несколько лет боты с искусственным интеллектом смогут генерировать сотни новых песен Элвиса или бесконечную серию «Игры престолов», адаптированную к желаниям человека.«Если мы не будем это регулировать, мы окажемся в мире, где сможем различать то, что было сделано людьми, и то, что было создано искусственным интеллектом», — сказал он. «И это глубоко изменит нас как общество».