С подключением, %username%!
В прошлый раз мы поговорили о том, что такое нейросети и чем, по мнению диванных киберученых, выросших на Терминаторе, нам грозит их развитие. Поговорим о том, почему это не так? Поехали!
Нейросети уже давно стали спутниками и помощниками человека.
Они анализируют молекулярный состав лекарств, ищут террористов в толпе, раскрашивают черно-белые фильмы и даже управляют беспилотниками. И это - хорошие нейросети. Полезные.
Но откуда же берутся плохие, которые внезапно оказываются ярыми сторонниками расизма и сексизма?
Мощность современных дата-центров позволяет прогонять через самообучающиеся нейросети огромные массивы информации, находящейся в сети, которую называют big data (большие данные).
В итоге нейросеть кормится предрассудками и стереотипами из Сети, которые порождает кто? Правильно. Ты, мой маленький читатель.
Если ты зайдешь на Двач или Форчан, то сразу поймешь, о чем я говорю. Но лучше не надо...
Представь Робокопа, который не понимает иронии и сарказма. Ты ему шутку про, пардон, "ствол у меня в штанах", а он тебе - превентивный удар шокером. Согласись, неприятно?
Чтобы такого не произошло, ИИ должен быть предельно логичен, без парадоксов. Но! При этом - понимать особенности человеческого поведения и его социо-культурный контекст.
Программисты, кстати, в курсе этой проблемы и уже прописывают строгий моральный кодекс для нейросетей (привет дедушке Азимову с его законами робототехники).
Например, в фильме Resident Evil при должном уровне ограничения Красная Королева просто бы объявила карантин в лаборатории, зараженной зомби-вирусом, вместо того, чтобы изощренно убить всех сотрудников.
Страхи человечества по поводу нейросетей понятны и уходят своими корнями глубоко в научную фантастику, но пока великий Искусственный Интеллект бунтовал против своих создателей только в книгах и кино, а в реальности такого не случалось.
Да, нейросети могут вести себя странно и выдавать неожиданные результаты вычислений, но они ВСЕГДА следуют своем алгоритму. Зачастую виноваты ошибки программирования - человеческий фактор.
Марк Цукерберг даже вступил в полемику с Илоном Маском на этой почве.
Маск убежден в опасности искусственного интеллекта и призывает контролировать все разработки на правительственном уровне.
Цукерберг же считает такие заявления банальной технофобией, ведь любое изобретение можно использовать как во благо, так и во вред.
В микроволновке, например, можно сушить не только носки, но и хомячков... (немудреная шутка, не являющаяся призывом к действию - берегите хомячков!)
Компьютер может обыграть чемпиона по шахматам или победить в покерном турнире, а вот самостоятельно свергнуть правительство какой-нибудь безымянной восточноевропейской страны - нет.
Хотя нейросети постоянно используются для моделирования и прогнозирования социальных и политических процессов, для реализации "цветных революций" все еще нужен человек. Много человеков.
Главное, что стоит понимать, нейросеть - это НЕ искусственный интеллект.
Нейросети очень хаотичны. Они перебирают миллиарды вариантов, и только за правильные получают плюшки. Их "самообучаемость" - это всего лишь дрессировка. При определенных усилиях даже обезьяну можно научить водить автомобиль и метко стрелять из пистолета, но она никогда не сможет угнать тачку или ограбить банк.
Пока еще ни одна программа, претендующая на звание ИИ, не смогла пройти тест Тьюринга. И свете вышеперечисленного - куда уж боту пробиться через файерволл КНДР и убедить военных запустить ракеты на Сеул?
К сожалению, мы не до конца изучили принципы нашего собственного мышления, поэтому вряд ли в ближайшее время сможем создать программу с самосознанием.