У “нашего всего” — технологии глубокого обучения нейронных сетей, которая ближе всего сейчас находится к тому “чему-то”, что мы понимаем под искусственным интеллектом, всегда была одна проблема. Она работала как черный ящик. Мы знаем, какие данные подсунули ей на входе, какие получили на выходе, но почему именно эти данные на выходе — не ясно. Вообще говоря, это было очень антропоморфным свойством нейронных сетей: психологически сближало нас) И отдаляло технологию deeplearning от “обычного детерминированного программирования”. Ведь все помнят знаменитую картину с Уиллом Смитом “- Робот не может написать симфонию // — А ты можешь?”, ведь мы, люди, тоже далеко не всегда можем объяснить свои действия.Но это было и проблемой. Прежде всего, проблемой двоерия и лишь усиливало страхи перед ИИ. Ведь эволюционно в нас зашито больше всего бояться себеподобных (из школьного учебника биологии — внутривидовая конкуренция более сильная). Был, например, кейс программы “SKYNET” АНБ США (не спрашивайте
“Наше все” подросло и поумнело, и, конечно, здесь замешан алкоголь
20 сентября 201820 сен 2018
15
2 мин