Найти тему
OVERCLOCKERS.RU

Британский учёный считает, что ИИ станет опасным, когда попадет в руки террористов

Огромный прогресс в области искусственного интеллекта и нейронных сетей, достигнутый в последние годы, во многом стал возможен благодаря фундаментальной работе, проделанной Джеффри Хинтоном. Стоит отметить, что последние десять лет Хинтон работал в Google. Недавно он уволился из компании отчасти для того, чтобы честно рассказать о работе своей жизни.

В интервью New York Times Хинтон выразил обеспокоенность тем, что искусственный интеллект может вызвать серьезные социальные проблемы. Его особенно встревожила скорость, с которой развиваются чат-боты с искусственным интеллектом, такие как ChatGPT и ещё не вышедший Bard от Google. Хинтон считал, что мы находимся в нескольких десятилетиях от создания машины, которая будет умнее нас, но он глубоко ошибался

Его беспокоит искусственный интеллект, который попадет к бандитам и террористам. Он будет вести себя по другому и попытается уничтожить человечество из-за какого-то сбоя в программировании. Такая вероятность существует, и мы все прекрасно знаем о Скайнете, который увидел угрозу в людях и решил нас уничтожить. Достаточно посмотреть на то, что люди уже делают с ИИ, чтобы понять, к чему мы можем прийти. «Трудно представить, как можно предотвратить использование ИИ для плохих целей», - сказал Хинтон в интервью газете "Таймс".

Системы искусственного интеллекта пока ничего не просят для себя. Они выполняют приказы человека-хозяина, но при этом обладают богатыми знаниями. Истинная угроза неуправляемого искусственного интеллекта заключается в том, когда злоумышленники воспользуются его возможностями для манипулирования, дезинформации и слежки.

Например, правительства во всем мире уже используют распознавание лиц для отслеживания бандитов. ИИ может сделать эти системы более мощными, способными отслеживать каждое ваше движение и пожирать все цифровые «хлебные крошки», которые вы оставите после себя. Правительства и политические партии также воспользуются отсутствием морали у ИИ для массового распространения дезинформации и пропаганды. Хинтон считает, что это уже в какой-то степени происходило.

ChatGPT и другие общедоступные системы пытаются модифицировать стандарты безопасности поверх алгоритма. Но злоумышленники скоро смогут создавать свои собственные клоны GPT, которые будут делать все, что им говорят, — даже писать вредоносный код для автоматизации мошенничества с вредоносным ПО и фишинга. Потенциальный вред почти бесконечен, но все они являются результатом человеческих желаний.

-2

Предупреждения Хинтона не являются чем-то из ряда вон выходящим - даже руководство OpenAI, создавшее ChatGPT, опасалось выпускать свои языковые модели. Решение Google не выпускать аналогичный продукт до тех пор, пока Microsoft не опередила ее, также может быть истолковано как беспокойство по поводу последствий генеративного ИИ. В конце концов, Google изобрел алгоритмы-трансформеры, на которых работают самые мощные сегодняшние чат-боты, а затем шесть лет сидел сложа руки. Хинтон говорит, что до сих пор ответственность нес Google, но он выражает некоторое беспокойство по поводу скорости, с которой Microsoft внедряет искусственный интеллект в свои продукты и дает полный доступ к информации в интернете.

Итак, каково решение? Должны ли мы приостановить разработку искусственного интеллекта, как недавно просил Илон Маск в откровенно своекорыстном открытом письме? Или, может быть, ответом является агент по надзору за ИИ от Nvidia? Люди умнее нас должны это понять. С другой стороны, если никто этого не сделает, то вскоре мы окажемся во власти развивающихся нейросетей.