Найти тему
Простыми словами

О человеческом мышлении, искусственном интеллекте (ИИ, AI), его ограниченности, опасности и пользе. 2-я часть из 3-х. Законы Азимова

Допустим,вы знаете эти законы. Допустим, оценивающие результаты и решения ИИ алгоритмы пишут кодеры, прошедшие проверку у психиатра, лояльные к обществу и человеколюбивые. Но не навредить человеку становится труднейшей задачей. Надо определить. что такое человек в понимании ИИ. Это кодер, "отец", так сказать, уборщица датацентра или вообще все человечество. Какая часть человечества? А ради 10 праведников? ) А как соотносится вред живому/неживому вообще, опосредованно к человеку? Под каждый конкретную задачу надо описывать. Но ИИ действует в стиле формальной логики, и пока кодер кодит, ИИ уже с огромной скоростью просчитывает лазейки, мешающие выполнению его задачи. А ведь именно для учета и противодействия мешающим или невыгодным факторам человек и перекладывает на плечи ИИ решения. Решения могут заключаться либо в предъявлении обработанной информации (поиск лиц), либо напрямую через исполнительные устройства - отключить отопление теплиц, ибо слишком дорого, например. Люди умерли с голоду, но сэкономили. В технике провести ФСА, функционально-стоимостный анализ, можно в принципе поручить ИИ, если в него не входят люди, их здоровье и зарплата.

В число мешающих факторов могут войти высшие чувства, спокойствие, любовь, патриотизм, религия наконец. Вы скажете, самообучение. А кто будет сообщать на программном уровне, что такое "хорошо" и что такое "плохо"? А отладка? Кодер должен сам знать правильное решение и еще разбираться в вопросе, типа второй специальности. Либо возвращаемся к статистической истине, тренировать ИИ на подопытных объектах.

Таким образом, моральность под большим вопросом. Плюс обработка перебором многомерных массивов и их комбинаций плодит еще большие массивы. Ну, а про размножение и борьбу за выживание ИИ в следующей части