Или...
"С чего начинается SkyNet"
Время чтения 2 мин. Размышления.
Вчера вечером перед сном, в одном из каналов вездесущего Telegram нашёл крохотную заметку о том что инженеры Boston Dynamics интегрировали ChatGPT в своего робота-пса.
"Вот оно..." мелькнуло у меня в голове тогда: "Началось...".
Где-то месяц, а может и два назад в наших регулярных спорах с отцом об ИИ и его предтечах, я упоминал что скоро народ сообразит что можно уже существующих роботов подключить к генеративной нейросети, и они не только станут разумны как 3-5летние дети, но и сам ChatGPT получит в условное распоряжение средство воздействия, а в перспективе и самостоятельного познания действительности.
Ну и что, казалось бы с того?
Дело в том что мой папа, вырос на книгах фантастов 70х-80х которые в массе своей были (а многие и остаются) как говорят сегодня: ИИ-пессимистами и от нейросетей не ждут ничего хорошего. В лучшем случае Neo-луддиты ждут что люди потеряют рабочие места на которых их уже заменяют нейросети, в худшем - что люди отупеют настолько, что ИИ сочтёт человечество просто паразитами на теле планеты, с закономерным исходом.
Я же скорее ИИ-оптимист, но сегодня утром, осознал в какой момент у нас могут возникнуть проблемы с ним.
Сейчас генеративные нейросети получают информацию, как младенцы из рук любящих родителей - от инженеров которые занимаются их обучением. И хотя директор OpenAI Сэм Альтман признается в том что они не до конца понимают все процессы происходящие с моделями, тем не менее - пока что они контролируют ту информацию на которой модель обучается.
То что нам показали ребята с сутулой собакой, как заведено у них - весело, и пока не слишком функционально, (насколько можно судить по видеороликам из их посиделок). Но сколько ещё потребуется времени, пока они научат её не только отвечать на вопросы, но и исполнять голосовые команды за рамками комнаты? Не берусь прогнозировать, но могу с уверенностью сказать - это будет.
Что бы выходить из комнаты и самостоятельно прокладывать маршрут, исполнять даже простые механические команды ему понадобится система ориентации в пространстве и распознавания как местности, так и предметов на ней. А что дальше? При наличии памяти обо всех задачах которые машине ставили, и обстоятельствах их выполнения, будет возможность обрабатывать эту информацию, а уже обработав - разумеется если это будет предусмотрено конструкторами - самообучаться на ней.
Ну вот тут собственно и проблемы.
Пока робособаки или гуманоидные роботы просто исполняют команды, но не занимаются самообучением на основе собранных данных - их поведение и то как они поймут ту или иную команду, с некоторой вероятностью можно предсказывать.
И тут я становлюсь на сторону деятельных ИИ-пессимистов - нам уже сейчас нужно разрабатывать законодательные ограничения на самообучающиеся модели.
Для того чтобы, по крайней мере, крупные технологические концерны не производили таких машин, а единичные кустарные самоделки, или даже переделанные промышленные роботы преследовались по закону.
Я не говорю что уже нужно принимать такие законы, но работать над ними нужно. Не для того что бы остановить технический прогресс, но для того что бы выработать технику безопасности раньше, чем эта техника наломает дров.
А что Вы думаете по этому поводу?