Очередное выступление Татьяны Черниговской, которое уже мне понравилось даже может быть не столько темой, сколько именно, как выступление. То есть, то «что», «как» и «зачем» говорил выступающий, а в данном случае, выступающая.
Подняли вопрос об искусственном интеллекте и в этом смысле тут можно продолжить мою предыдущую статью о лекции Черниговской «Сознание и язык». Равно, как и статьи по теме чипирования, которую поднял Никита Михалков в своей передаче «Бесогон». Татьяна Владимировна в этот раз высказалась следующим образом: «Чип могут внедрить уже сейчас. Мешают скорее внутренние этические запреты. Это все-таки выглядит, как опыты над людьми…» Она лично видит опасности связанные с искусственным интеллектом в основном психологического характера: «Когда думает человек с вживленным чипом, кто в этот момент думает? Сам человек или чип? Стать таким киборгом психологически очень непросто…»
А чтобы не попасть в полную зависимость от ИИ мы должны сами себе ответить (это практически прямая речь Черниговской): «Кто мы? И какое место мы себе отводим в этих отношениях…» Тут мы, сторителлеры всей земли, поддерживаем ее абсолютно. «Опасность возникнет скорее от разрушающего себя от безделья человеческого общества, которое будет освобождено от работы роботами. От общества праздности…» И тут согласились.
И еще очень важный ее тезис: «Наши надежды на «независимость» от искусственного интеллекта лежат в области искусства и теплых человеческих отношений…» О чем-то похожем я писал в своих статьях об искусственном интеллекте, добавлю лишь вот что. Людям необходимо обмениваться состояниями преодоления страха смерти друг с другом. Это то, чего лишен ИИ. Для него не существует ни смерти, ни страха смерти, ни состояний, ни преодоления. Если помните слова Маска: «сарказм для искусственного разума слишком сложно…»
Мы-то, люди верующие в Бога, вообще не паримся на сей счет. Коли все создано по воле Божьей, то и этот ИИ так же его дитя. А Господь, как Кутузов, лучшее сохранит, худшего не допустит. И бояться людям нужно скорее самих себя. Тут я с Черниговской абсолютно согласен, но вот с какой точки зрения. В статье про интервью Илона Маска я высказывал опасения по поводу того, что людей могут лишить речи, как таковой. По крайней мере Маск не видит в этом ничего антигуманного. Я вспомнил руководителей третьего рейха.
Мне пришел комментарий от оппонента: «А что ж плохого в том, что манипуляторы, использующие риторические приемы влияния на аудиторию, лишатся своего оружия? По-моему, это замечательно, что вместо того, чтобы, поддавшись эмоциям, делать глупости, люди будут здраво оценивать информацию и принимать решения на основании разумных рассуждений, а не всяких галлюцинаций… …Если б немцы не потеряли голову от речей фюрера и его банды 80 с лишним лет назад, то и не было бы никакого третьего рейха…» Как человеку объяснить, что у таких, как те, кто создавал нацистское государство как раз останется право говорить. А остальных лишат права голоса, и будут с помощью ИИ увеличивать их производительность.
И еще слова комментатора: «Он говорит, что у людей УЖЕ сегодня имеются очень разные возможности, как с точки зрения когнитивных способностей, так и доступа к ресурсам, и что при этом коллектив все равно может сделать то, что не может сделать один человек. Поэтому волноваться надо НЕ СТОЛЬКО из-за разницы возможностей и доступа к ИИ, сколько из-за того, что ИИ может оказаться настолько развитым, что выйдет из-под контроля…» И тут товарищ, как и Маск, не только уже не видит проблемы в различных возможностях людей в «демократическом» обществе, но и поддается на уловку тех, кто пугает обывателя развитым искусственным интеллектом.
Такие люди своими страхами хотят добиться легитимности «контроля над ИИ». И как раз таких людей «бесконтрольно контролирующих» искусственный разум и нужно бояться человеческому сообществу. Это именно они смогут без всяких референдумов и опросов вводить разного рода запреты, в том числе и на речь, как они уже сейчас вводят карантины. Вот тогда действительно наступит тоталитаризм, который ни одному писателю фантасту утописту и не снился.