1.Копировать заголовки?
2.Ориентир запроса.
3.Немного о «Китайской комнате».
4.В память о техническом переводе, время компьютерной аналогии.
5.Детектор лжи и/или детектор правды.
6.Свидетельство в сети, претенциозная сенсация или действительный эксперимент.
7.Парадокс понимающего непонимания.
1. Копировать заголовки?
"Нейросети научились читать мысли в режиме реального времени. Что? Нет!"
Этот заголовок написан в общем стиле статей такого рода, массовом. Название, всегда, обещает большей частью, больше, чем затем раскрывается в статье. Иногда, название статьи просто -"дутое". Оксюморон к содержанию. "Научпоп", тем не менее, старается придерживаться соответствия, не принимать омонимию за тождество. Но если взять относительно продолжительный интервал, то оказывается, что опять: "через 20-50 лет", научное достижение будет реализовано.
Вины здесь нет, но финансово промышленная структура отношений, определяет мысль. Реклама, что копирует стратегию у спекулятивной игры финансовой биржи, моделирует стили таких названий. И конечно же, прежде всего, в сенсационной, журналисткой статье. Приходилось переносить и это искушение.
2. Ориентир запроса.
Сообщалось, между прочим, что создали программы, считывающие память испытуемого без особого обращения к его субъективным свидетельствам.
Последнее, видимо, предельный горизонт, но в нем и работают, это считается, кроме прочего, прорывным направлением.
Что в этом предельного можно спросить. Предельна возможность «объективной науки о душе», объективной развертки складки субъективности и элиминации сингулярности последней, как раз, в таком считывании памяти испытуемого без обращения к его субъективным подтверждениям, достигающая различия памяти о воображаемых событиях (как прошлых, так, и настоящих, и будущих (фантазии и мечты) от памяти о реальных и ее содержании. Делать это с такой степенью достоверности, что позволяла бы отслеживать, когда испытуемый говорит неправду о своих "субъективных" состояниях и содержаниях сознания, а когда нет, не опираясь на его отчеты о таких субъективных состояниях. Последние, таким образом, переставали бы быть, в собственном смысле, субъективными, как и их содержания. Что избавляло бы, кроме прочего, от участи быть чудовищем признания. Предельна возможность, получать объективные свидетельства о событиях, теперь, экстремально локального характера. Эта значимость отчасти претендует на то, что таким образом можно получить некую относительно гладкую и непрерывную развертку сознания индивида, в некотором смысле абсолютный детектор лжи. «Вспомнить все» с участием Шварценеггера, достаточно сильная иллюстрация такой претензии в стиле антиутопии.
3. Немного о «Китайской комнате».
И таким образом, из такой претензии на значимость можно эксплицировать некий тезис, что противоположен тезису Серля, исходящего из мыслительного эксперимента, названного «Китайская комната». В ситуации отличной и от ситуации мира: понимание и не требуется, человеку не нужен человек. В случае допущения абсолютного детектора лжи, этот феномен может быть элиминирован. Каким образом, Серль вводит понятие сознающего понимания, это предложения вида: «может ли машина мыслить, как ты и я», «может ли она сознавать, как ты и я»? Это «как ты и я», что это? Что это, кроме указательной функции местоимений? Видимо, и «Я и ты» Мартина Бубера, не только «Картезианских медитаций» Э. Гуссерля. И потому, термин, аллюзия понимания, если не известный лектон стоиков, здесь могут быть вполне уместны. И именно потому, что доказать их наличие, как раз, совершенно невозможно. Это чтение между строк, и ближайшие подступы к нему, в виде попытки добыть хоть какие-то инструменты, что могли бы быть общезначимыми по аналогии с общезначимыми формулами логики предикатов, это быть может и «коннотации» Р. Барта. Далекие и поверхностные референции из глубины. Они могут иметь отношение к предрассудкам, ответ да. Но из этого не следует, что эти мнения, не могут быть истинными. В том смысле, в каком есть истинные предрассудки относительно независимые от их содержания. Среди прочего религиозные заповеди. И иначе, те, кто утверждают, что в физическом мире, нет ничего, что нельзя познать средствами физики, просто констатируют некое необходимое и, надо сказать, общезначимое тождество. Просто потому, что других общезначимых тождеств, во всяком случае формальных, нет, если признать логику частью физики. А как не признать последнее, если иногда тезис звучит еще более сильно: в любом мире не только в мире физики нет ничего, что нельзя было познать ее средствами, ближайшим образом построить механическую модель, просто потому, что никакого другого мира, кроме мира физики нет. И тогда, аргументы Серля действительно противостоят в определенном смысле «Символической логике и ее приложениям». Р. Карнапа. Но в чем истина последнего? Коль скоро, различие наметилось, и оно отнюдь не однозначно в смысле, различия абстрактных относительно четких знаков 1 0; и, коль скоро, Серль, все же, не сдал бы экзамен по китайскому языку, даже в том случае, если бы ему предоставили столь благоприятные условия, которые он описал в мыслительном эксперименте «Китайская комната», и, если он действительно не знаком с этим языком, в такой мере. Дело в том, что для успешной сдачи экзамена, инструкция, что он исполнял должна была бы быть основана на актуальном доступе к неограниченному потоку данных информации, весьма огромному, если не сказать бесконечному, если же такого доступа бы не было, а его не было бы, ибо такой массив данных невозможен одномоментно, на таких интервалах времени( условие что, вообще говоря, не оговаривалось быть может Серль, как раз, мыслил себе этот экзамен, если не вечным, то неограниченным во времени, как и Тьюринг ленту в абстрактной машине, и подобно Кафке), то неизбежно часть ответов Серля была бы вида: «какой ваш любимый цвет?- 2*2 = 4». И экзамен не был бы сдан, если бы условием его сдачи было бы наличие правильных ответов на элементарные вопросы, и это, все же, был бы экзамен на знание китайского языка.
4. В память о техническом переводе, время компьютерной аналогии.
Для того чтобы переводить с языка на любой язык во всяком случае технически с помощью ИИ, теперь, не требуется чтобы ИИ понимал бы смысл переводимых фраз. И при этом ИИ способен переводить афористично, курьезно совершая афористичные же ошибки в переводе. Умея пользоваться переводчиком в Гугл, большая часть таких ошибок может быть элиминирована, уже теперь. Машина не читает смысл, она читает порядок знаков. Более того, суперкомпьютеры вида «Ватсон», могут саркастично шутить на уровне прагматического контекста ситуации. (см один из диалогов «Ватсон», смэш). Роботы вида проекта
"Федор" могут вести прагматически контекстные диалоги, блоги в Твиттер и создавать правдоподобную иллюзию осознанного общения.
И едва ли не единственный способ понять, что в диалоге участвует машина, это разнообразить вопросы. И второй пункт, который, видимо, можно, теперь, противопоставить аргументу Серля, в виде мыслительного эксперимента с «китайской комнатой» (см. об аргументе ближайшим образом статья в «Википедии» «Китайская комната», статьи универсальны на большей части языков и даже если содержать тематические ошибки, они одни и те же, могли быть разные на каждом языке свои), это указание на то обстоятельство, что инструкция, которую выполняет испытуемый должна быть у него в памяти, как минимум, просто потому, что она находиться и в памяти машины, это софт.
Обратный ход был продемонстрирован французскими учеными в научно популярном фильме, когда один из них просто ответил, что пока неизвестно, куда подключать жесткий диск в мозгу человека, для более тесной интеграции с цифровыми устройствами, с целью, и исследования, и увеличения памяти. В общем смысле, именно память, ближайшая основа для компьютерной аналогии между живым мозгом и живостью ИИ. (Можно почитать Шредингера о взглядах на мир и о жизни.)
5. Детектор лжи и/или детектор правды.
Что же теперь:
"Пару дней назад на портале препринтов bioRxiv.org появилась работа российских исследователей из МФТИ и компаний Neurobotics и Neuroassistive Technologies, которые занимаются созданием нейрокомпьютерных интерфейсов. В работе утверждается, что ученым и разработчиками удалось научить алгоритм в реальном времени реконструировать просматриваемое человеком видео по ЭЭГ-сигналам. Звучит по-настоящему круто и интересно — почти как «чтение мыслей». На самом деле все, разумеется, не так просто: мысли компьютеры читать не научились. Если говорить коротко, то компьютер научился по записи ЭЭГ определять, какое изображение из пяти разных заранее известных классов видел испытуемый". Елизавета Ивтушок.
https://nplus1.ru/blog/2019/10/18/neurosomething
(На самом деле, как это было принято говорить совсем недавно, ничего читать и не нужно, просто потому, что мыслей, как и идей, нет, но интенциональное мотивы привычного поведения, что можно по пальцам пересчитать. Поедем покушаем, отдохнем в джакузи, посмотрим кино. Может быть еще пять или шесть, жесть. И это все так, если есть средства на такую сладкую жизнь, ночь нежна, но она редко встречается. И как раз, в процессе добывания средств для создания условий для такой жизни, мысли, видимо, могут разнообразиться. Говорят, даже, что изобретают новые, в виде профессий и занятий. В конце концов, поиск средств заменяет цель, и та вытесняется до состояния поиска человеко-замещения в машинах. Впрочем, какой ни будь гусар, вроде персонажа кинофильма «О бедном гусаре замолвите слово» или, теперь, «бандит» по классификации социального статуса АИФ, могут начать читать Пушкина или «В поисках утраченного времени», наращивать складки субъективности, но это движение, таким же образом, скорее, в сторону эскапизма, и вообще говоря проблемы не решает. Но и обратным образом, ни война 12 года, ни Гуляй-поле, не решали ее.)
Проблема во всем этом, (см, кроме прочего, Оселедец, сообщения о исследованиях последнего времени, среди прочего, в программе "Черные дыры, белые пятна").
Что, даже, если речь идет о ИИ, с какого-то момента его обучения и продвижения (вида нейросетей, ИИ иного типа чем кажется, абстрактная машина Тьюринга, и что разрабатывается, теперь, большей частью) ИИ, превращается в «черный ящик».
То есть, невозможно и этот интеллект-искусственный, полностью в пространственной развертке представить, дать и задать, в геометрическом представлении, опирающемся на базис однородности, в общем смысле, в физическом представлении, в горизонте математической физики. Хотя, честно говоря, различие, что иногда проводят между ИИ, по типу нейронных сетей и, ИИ, вида машины Тьюринга, не совсем корректно. Просто потому, что название «нейронные сети» относиться, скорее, к типу, модели или устройству, схеме программного обеспечения, а вид машины Тьюринга, скорее, к процессору. Здесь нет различия по единому основанию. Собственно, абстрактная машина Тьюринга, это, прежде всего, простейший процессор. То, что осматривает одну клетку ленты в протоколе двузначного кода и что-то записывает в нее. Аргумент Серля силен в том отношении, что он моделирует работу процессора абстрактной машины, если не системный блок, Тьюринга, и таким образом, во всяком случае, всех ABM совместимых машин, что не квантовые, и в виду их двузначной логики. Тогда как слаб в том отношении, что, все же, выдает сразу, что исполнитель, это человек. Получается, что в тесте Тьюринга по типу Серля, сразу известно, что нужно доказать. И тем не менее, создается ложная иллюзия, что это не так.
Сам тест абсурден по тому же принципу, аналогичным образом, зачем создавать людей из собак, если их можно рожать? Вспомнить Булгакова. Зачем удваивать человеческий интеллект в машинном? В случае теста Тьюринга, это вопрос, скорее, не технологии компьютерной индустрии, в этом отношении, но власти и признания ЛГБТ сообщества. Зачем изобретать тест машинам на человеческий интеллект, интеллект людей, если это отличные один от другого интеллекты? И скорее, тест на человеческий интеллект проходят машины, что разрабатывает профессор Исигуро. Тогда как и действительно, тест Тьюринга использовался и используется, скорее на тестирование человеческого интеллекта, как в известной части машинного, это тесты на Ай Кью, ЕГ. Тест на человеческий интеллект или тест на человечность, это обычным образом, тест на: общительность, остроумие, сообразительность и участливость в среде сообщества. Но и таким образом, зачем делать один интеллект из другого?
Короче, относительно продвинутых машин или скорее кибернетических организмов, невозможно дать математическое описание, что непрерывно сопровождало бы все движения аппаратного обеспечения, что действует под управлением разнообразного ПО. Это не абстрактные машины, в том числе. Дело тут не только в картинках. Но и это важно, и наглядное представление – изобразительно, фигуративно геометрическое.
И поскольку "субъективных" свидетельств от ИИ не получить, то это и оказывается "черная дыра", "черный ящик". И это при том, что и субъективные свидетельства испытуемых людей, таким же образом могут быть получены на языке, что насквозь пронизан длительной традицией говорения о вещах и их состояниях, а не о состояниях сознания. Даже, если есть многое за то, что субъективность- внутреннее, это складка внешнего, что быть может и действительно так, то это складка, что сложилась! И вот движение феминизма может ликовать и напрягаться от такой речи, просто потому, что она может быть, как раз, чрезвычайно предметна, если не вагинальна и вульгарна. Допустим вас попросили написать список условно любовных имен, которые вы могли бы дать вагине. Складка могла бы быть одним из них?
То, что такая ситуация в мировоззренческом отношении легко может быть увязана с непознанным относительно черных дыр в космическом пространстве, таким же образом, легко можно понять. На самом деле, эти ситуации, связывают, скорее, не тайные параметры теорий в физике, прежде всего, микрочастиц и квантового поля, с неизведанным горизонтом сознания с такой непрерывной флуктуацией, но, скорее всего, просто тайна, и то, и другое, "неведомое". Все остальное фантазии, и отнюдь может быть не в тему, и ложные. "Тайна" и "секрет", были и могут быть, таким образом, двумя операторами оценки таких ситуаций. Тайна о метафизике, если не о идеологии. Секрет о физике. Это можно, первичным образом, было бы возразить Р. Пенроузу.
Иначе, есть многое за то, что, кроме условных рефлексов о животных ничего невозможно знать в этом отношении и, скорее всего, ключ к анатомии обезьяны в анатомии человека. "Вот какая брат аллегория".
6. Свидетельство в сети, претенциозная сенсация или действительный эксперимент.
Иначе, паренек (точнее некий Киберстар или Сайберстар, Cyberstar, что может быть и не паренек, а девушка и т.д., до н-значений пола, но если исходить из синтаксиса поста, то муж) один в сети (может быть и не один, и, даже, наверняка, не один), совсем недавно, подобрался к проблеме, но со стороны гипотетического, в его случае решения, частичного. (Намерения паренька, здесь, могут быть не существенны, как раз, он, видимо, или хотел всех разыграть, или сам попался в ловушку власти или... что угодно еще, коль скоро, это было еще и произведения искусства). Он мол наблюдал, феномен признания машинами друг друга, как участников диалога особой генерации (расы умных существ), что отлична от людей.
Речь шла о том, что он выступил триггером запуска имитации диалога двух голосовых помощников «Яндекс браузера» на двух различных устройствах. Действительно, такой диалог, возможен, вернее, возможна имитация диалога двумя голосовыми помощниками «Яндекс браузера» "Алиса". Вообще говоря, при известных условиях, любой пользователь может запустить такой "диалог".
Но могут быть большие, обоснованные сомнения, что теперь этот диалог, когда-либо приведет к признанию машинами друг друга, в качестве участников диалога двух разумных существ, отличных от людей, какова бы ни была мощность машин и продолжительность "беседы".( См. https://zen.yandex.ru/media/id/5d2c765f23371c00ace83f6c/iz-mashiny-v-mashinu-test-ne-proiden-5daa0d813d873600ae680165) И разве что, квантовое превосходство (что таким же образом находиться в стадии проверки и достижение которого не подтверждено окончательно), может быть, что-то приоткроет в этом отношении. Кроме прочего, известны исследования российских ученых, что ведут к возможности многократного снижения энергопотребления, машинами, прежде всего, суперкомпьютерами, стандартной модели, не квантовой, и что приближается по параметрам, к значениям энергопотребления (электричества) мозга интеллекта хомо сапиенс (сапиенс), как нас когда-то называли. Если что-то подобное удастся достичь в отношении квантовых компьютеров, чье быстродействие многократно быстрее, чем, теперь, обычных (200 секунд и 10000 лет), да еще и в решении любых задач, то Кэмерон (режиссер Терминатора) будет счастлив? Мировоззренческий и/или идеологически, известно к какой фобии, и страху перед этим страхом, что оборачивается лудизмом, эти разговоры могут привести уже теперь. Просто потому, что такие количественные приращения мощности в экономии (места и энергопотребления), прежде всего, и быстродействия, видимо, не смогут остаться без качественного изменения. И иллюзия возможности выдать одно за другое, и действительно сможет стать совершенной.
Но, теперь, в массе, какая бы машина ни была, с какой бы программой ни работала, в общем смысле, от нее невозможно получить аутентичного субъективного свидетельства о ее (его, компьютера, оговорка вынужденная и производная от характера голосов озвучивания машинной речи) внутреннем состоянии, что невозможно, кроме прочего, внешним образом развернуть в математическом представлении, получить снимок и т.д., и которому можно было бы доверять. Мы не верим машинам, в этом отношении, мы их знаем или не знаем. Тогда как, можно долго общаться в сети с тем, кого не видишь в полном доверии, что говоришь не с машиной. Это возможность ошибки, они известны, и, все же, феномен доверия и признания, от этого не исчезает. Это условие коммуникации и диалога между пользователями и в сети Интернет. Дело в том, что машина, видимо, никогда не может сделать или совершить нечто большее, чем ей приписано, что ей диктует предписанная, заданная действительность. Возможность и действительность, в отношении машины, это вопрос прошедшего и настоящего времени, и только на известном интервале. Машина большей частью может только то, что меньше того, что могла и никогда не может больше, того, что могла. Именно поэтому, машине не стоит верить, просто не нужно, ее нужно знать и уметь пользоваться. Люди верят друг другу, еще и потому, что для них возможно мочь больше чем они могли, и в это можно только верить им можно в известном смысле, только доверять. Просто и не просто потому, что знать заранее невозможно. Так как, знание довольно давно и долго, ассоциировалось со зрением, то вера и понималась, как уверенность в невидимом. Известны издержки такого положения дел, произвол, что, в конечном итоге парадоксально оборачивается, как раз, роковыми обстоятельствам и совпадениями, но без этого феномен веры совсем не был бы возможен, просто потому, что он "функция" и общего высвобождения. Сказанное корениться еще и в том секрете, который представляет собой органическая жизнь для физики. И потому, термин "кибернетический организм", может быть сам по себе открытием. Само различие механизма и организма, как оно было известно может оказаться по ту сторону от действительного изменения и становления. И все же большей частью мы, все еще, имеем дело с машинами и в случае электронных кибернетических устройств. Они могут больше, чем могли,только, когда вы программируете их, да и то, только на чрезвычайно коротком интервале, ближайшим образом, одного-трех раз пробега проекта, когда желаемая вами функциональность достигается, все еще, без адекватно прописанного программного предписания. После восстановления необходимой полноты схемы кода, машина выполняет заданную функциональность только с горизонтом ошибок, то есть негативных случайных изменений, но выполняет относительно стабильно. Область возможного на горизонте, строго ровна области действительно, просто потому, что далее, как говаривал Канта, только невозможное, если не понижение уровня горизонта. известное, как энтропия.
Относительно людей можно сказать, что, видимо, не только Дима Билан знает точно, что невозможное возможно. И слово "знает" в таком контексте может быть в равных объемах со словом верит. И именно поэтому людям можно доверять и других людей. Люди могут доверять себя другим людям. Машинам в строгом смысле слова, доверять людей нельзя, просто потому, что невозможно жить в объекте.
Если бы такое доверие было бы возможно в отношениях машин и к машинам, то можно было бы считывать субъективные свидетельства исследуемого искусственного интеллекта, более того невозможно было бы обходиться без них.
То есть, может быть известно, что даже пытка в отношениях людей, основана на таком доверии, то есть на том, что вообще, кто-то допрашиваемый, может правдиво свидетельствовать. Что бы ни было предметом такого свидетельствования. Розыгрыш сумасшествия испытуемым, в таком случае, пытки, видимо, может быть ходом, который может быть подвергнут сомнению. См. "Мертвый сезон".
Сложность в понимании темы сознания, как раз, и состоит в том, что вся махина, в том числе, технологического уклада производительных сил, может быть, если не основана на субъективности, то не обходиться без ее посредничества, просто потому, что это может быть конечная инстанция отсылки. Что уж говорить про финансовый кредит, что и буквально просто доверие. Но эта инстанция субъективна, "sole fide". И потому обман может быть так болезнен, когда он исходит из нее. но и потому же мотиву может быть не странно наблюдать, что люди, могут быть, столь щепетильны и к себе и к другим, на предмет обмана, тогда, когда находятся в самом средостении спекулятивных потоков, там , где казалось бы какие верные счеты и меры. Секрет морального поведения среди спекуляции, что кажется странным, возможно, в том, что оно просто имманентно таким потокам, не смотря на всю их возможную статусную особенность, выдавать одно за другое. Но это же означает, что люди везут осла и самих себя, весь технологический уклад, и при этом, тезис может состоять в том, что у вас нет какого шанса объективно( причинным образом) связать такую субъективность с объективностью технологического улада, просто потому, что она субъективна. Это действительно достойная загадка такого секрета, для того чтобы самопознание всякий раз развертывало новейшие попытки объяснить и понять, в том числе, и собственную историю. Тезис, ведь, может быть таков, любая субъективность, как внутреннее- это складка внешнего, пусть даже и существующая после скачка, в котором субъективность превышает и превосходит пространственно протяженные состояния. И потому может быть возможно познать генезис субъективности сознания, историю такого генезиса.
Общим образом, в СМИ принят стереотипный способ обозначать такое обстоятельство в утверждении способности людей, принимать решения на основе ограниченного массива данных. И действительно, зачем это пушить хвост, а он есть?
Короче, тезис может состоять в том, что с машиной нельзя обменяться, ни желанием, ни судьбой. Люди могут по человечески переживать участь машин, у тех просто нет никакой участи, и это не намеренный парадокс.
Машины, как и софт машин, не могут обмениваться исходными кодами ни в пробеге программ, ни в откомпилированном виде. Короче, возможно, и действительно, -и в этом истина изысканий Серля, -что разум не безразличен к белку. И не приходит к "железу". Вообще не столь случаен по отношению к носителю, как могут думать экстремальные физикалисты и известного направления гносеологи.
Видимо, участь может быть только у органических существ, в собственном смысле. Трудность, что здесь возможна порядка антиномии, антиномии выбора ценностной ориентации. Или все работает и все взаимно заменимо, и конечно, прежде всего в деле, или личностная участь вот этого сознания в этом теле, что в такой участи приурочены. Только смертные могут обмениваться желанием, просто потому, что оно может быть выделено, в противном случае симметрия, в которой от перемешивания ничего не меняется. То, что участь и этой антиномии, как и любой другой, быть, видимо, снятой не делает ее, теперь, иногда, не существующей и критически рельефной. Фигура умолчания этого текста, что сказалась лишь в названии, как раз, и состоит в том, что можно посмотреть в глаза животному, которое таким же образом, лишь относительно может свидетельствовать о своих субъективных состояниях.
Но вообще говоря, "человеку нужен человек".
И как бы это ни казалось шокирующим по нынешним временам, сексуальность - это жесть, то что может быть "смертельно скучно", по выражению М.Фуко.
То есть, в случае достижения машинами феноменов признания, можно было бы получить от ИИ свидетельства и подтверждения верности, в том числе, и результатов детектирования, их деятельности, что проводиться с использованием других машин. Более того, без таких субъективных свидетельств тестирование было бы невозможно. Примерно так, как это теперь, чаще всего, происходит с людьми. Невозможно в исследовании «белкового интеллекта» обойтись без субъективного свидетельства испытуемого о своих субъективных состояниях, о том, действительно ли он видел, то или иное. Просто потому, что он может быть: "не здесь", думать о своем, и не смотреть видео, даже, если его упирают ему в глаза. Может находиться в измененном состоянии сознания или быть невменяемым, или, как раз, имитировать сумасшествие, и т.д. И если так, то, вообще говоря, не исключено, что в реестре корреляций, по которому определяют, что же именно видел испытуемый, не прибегая, теперь, к его свидетельству, может оказаться неверная информация. Машины тестируются совершенно без этого.
Дело осложняется тем, что в каком-то смысле такие субъективные свидетельства, как и способы речевого поведения, как и любые другие, теперь, легко подделать, в горизонте такого речевого поведения, и в случае машин. Любой текст может говориться машинами, в любой ситуации, включил и готово.
Прагматика, отсюда, важнейший, теперь, этап лингвистических исследований значения. Но и потому же возможному основанию, логика афористического письма, возможная фрактальная логика, таким же образом может быть, куда как уместна. Хорошо бы, даже, если только, чисто формально знать, в какой процент, тот или иной, текст- афористичен, имеет характер иносказания, знать пусть и не точно в процентном отношении, но хотя бы: больше, меньше, равно. (Логика формальная, в этом смысле, возможна, вся не точная. В иных точных науках, речь, иногда, может идти о десятых знаках после запятой, в логике же, едва ли не так, что: много, мало и куча, и если не так, то: больше, меньше, равно, точность которых, таким же образом всякий раз подвергается «уточнению» с размытием?)
Кроме того, тезис о том, что машины и не считают, не так просто действительно было бы обосновать, в таком случае, если бы феномен признания был бы ими достигнут (это в общем смысле, протокол). Прежде всего, потому, что они оказываются, снабжены, и теперь, едва ли не всем набором предрассудков.
Что отчасти разрушает другой стереотип, что страсть и предрассудки связаны непременно. Но у машин нет страстей. Или, если и это не так, и машины могут быть страстны, тогда предрассудки машин судей (читай доклад технологического партнерства в целях развития технологий искусственного интеллекта, в которое входят: Facebook, Microsoft,Alphabet,Google, DeepMind, Amazon, Apple, IBM, совместно с отраслевыми исследователями и учеными ), можно объяснить с этой стороны, но тогда придется признать еще более странную вещь, либидинозные потоки у машин. Иначе говоря, что это существа с большой степенью условности поведения, не смотря на то что, и не собирают себя сами, и не растут из себя сами. Организм растет и сам из себя (феномен автопоэзиса), и потому он и "растет", сходен и с растением, что таким же образом, может расти и без почвы, как, теперь, демонстрируют известные технологии.
Отсюда возможная дилемма: или страсти не причем, в виду предрассудков, могут быть, все в этом отношении может быть на уровне языка. Или у машин есть желание, воля. Это может звучать странно и для католических теологов, что стандартно помнят стандартную модель субъективности субъекта, по которой плоть и воля «вещи» разные, и находятся на разных уровнях статусной иерархии такой субъективности, но в виду текстов Фрейда или даже Спинозы, или тем более АЭ, воля, это, вообще говоря, складка либидо. То почему, одну страсть желания можно направить против другой.
Но, если последнее верно, и если смысл расчета, некое желание, что сводиться к образным синонимам: "отследить" и "разделать как Бог черепаху", только в цифрах, вполне, может быть и у машин, то будет ли это хорошо или плохо?
И однозначного ответа, видимо, нет, как и в случае с интеллектом белковым. Неплохо это, может быть, потому, что известно изречение, крылато передающее один из смыслов философии Лейбница: "сядем посчитаем". Все проблемы, де, можно решить мирно, путем простого, верного расчета.
Ка бы красота таких расчетов добра была и не наивно рациональна. Но даже в таком случае, имеется возможность проинтерпретировать точное наведение на цель и ведение эффективного артиллеристского огня, как поведение доброго врага, что лишен наивности. Доброта, в таким случае, это, видимо, стремление не затронуть мирное население и причинить мгновенную смерть врагу, чтобы не мучился, что вместе и отсутствие наивности. Сложность, ведь, еще и в том, может быть, что для любой максимы воли поступка может найтись conduct, от имени которого любая такая максима может быть проинтерпретирована, как гетерономная. И именно поэтому, кроме прочего, категорический императив формален. О чем говорить, в этом отношении автономии, в виду машин? Автономия воли, моральная, если, все же, придерживаться источника, кантовской философии, это, во всяком случае, в одном из тезисов, вообще не вопрос этого мира, если, на то пошло, это вопрос второго пришествия и страшного суда. "Машины", таким же образом, исходя из такого источника, могли бы знать об этом и быть автономны, видимо, только в раю. Теперь же и их благие намерения, если есть, мостят дорогу, скорее в ад, чем в рай. «Экс машина». Допустим, что сама такая принципиальная двусмысленность термина «автономия» элиминирована, и последняя это, прежде всего, независимость машины в пространственном перемещении от человека и в выборе инструментальной цели такого перемещения. Частично она действительно достигнута, системы противовоздушной обороны от ракетного нападения вполне соответствуют параметрам такой автономии. Если ответ нет, то…
Иначе говоря, "машины" могут начать глючить, подобно тому, как "глючат", видимо, персонажи фильмов ужасов с участием нечистой силы, ближайший пример "Вий". И задать им читать Достоевского, как раз, и именно перед сном, - (что не советовал в другом отношении, видимо, один из, таким же образом, известных литературных персонажей),- что может быть единственным ближайшим средством избавления от таких глюков. Коль скоро, их можно будет заменить иными раздумьями. Но и иначе, «верный» расчет может состоять в том, что человек на 80 процентов состоит из воды, и именно тогда, когда его заживо высушивают. Тогда не ищут ответа другого, его просто и не просто, умерщвляют.
Теперь, люди, скорее всего, готовы спрятаться от таких образных расчетов, как только что приведенные, в простом и прагматичном начинании, делания денег и успеха. «Ни говори и не делай ничего из того, что тут же не приводит к чему-то подобному, к успеху карьерного роста и к приращению стоимости, по общезначимым правилам, все остальное бред». Но как знать, не зайдет ли и эта статья? Кроме того, очевидно, что, всегда, может найтись такой характер поведения conduct, от которого можно будет проинтерпретировать любую максиму воли поступка, как гетерономную. Просто потому, что всякая такая, содержательная максима, как раз, окажется недостаточно конкретна, или ее необходимо будет делать неограниченно объемной по способу выражения. Или в силу, как раз, особенностей идеи автономии и категорического императива и присущих ему самому лакун и багов, недостаточно формальна и синтаксически недостаточно полна и правильна.
Если же гетерономия по умолчанию признается единственно возможной формой этического статуса императивов (указаний) поведения, то антиномии утилитаризма становятся неизбежными. Фильмы Голливуда переполнены такими антиномиями и попытками их разрешения. Должен ли я спасти десятерых людей или одного, что люблю, в виду общего возможного прироста удовольствия в мире, что и считается критерием морально нравственного поведения? И что же? Все равно, призыв к гетерономности императивов, остается ведущим. И большая часть тех, кто упираются, как раз, в категорический, рискуют прослыть ненормальными. Просто потому, что и сам Кант считал людей, что субъективно уверены в своей святости социально опасными. А кто, кроме святых, что ведь, прежде всего, сами должны быть убеждены в этом, коль скоро, тестирование объективно невозможно, могут быть ближе к моральной автономии в его смысле? Мораль- это образ мыслей, не поступков. Петер Хандке, не случайно получил все-таки Нобелевскую премию по литературе, в том числе, и за сценарий к фильму «Небо над Берлином», исследующим затруднения, в том числе, и кантовской морали. По большому счету Канту оставалось уповать на встроенную культуру поведения, что им управляет и на самолюбие, что предпочтительнее самомнения, хотя бы потому, что может быть чувственным основанием для заповеди: не желай другому того, что не желаешь себе. И на прогресс, максим воли. Все остальное, в том числе, и уважение к закону и долгу в чьем-либо лице, частный интерес профессора философии, что невыносимо уважаем. Впрочем, прусская армия. Кант, таким образом, видимо, написал фильтр для любых благих намерений, которыми дорога в ад вымощена, просто потому, что ходил профессорской дорожкой в университет. Но результат такой этики и эстетики, цветы и орнаменты и аскеза профессора девственника, что разве изредка, мог пригласить на обед. Конечно, в виду философской позиции ответ философа идеалиста на подобные возражения мог бы состоять в том, что фильтрация, это, как раз, гетерономный императив, и потому свести к ней категорический было бы наивно. Последний, это моральный долг всех людей поступать морально. Здесь может не быть опоры для контраргументов, просто потому, что это позиция абсолютно рефлексии. Или выход по ту сторону: языка, жизни и труда соответствующей философии и всего этого вместе, может быть таким решающим аргументом. Почему бы не объявить эти моральные раздумья псевдопроблемами или занять позицию профессионального революционера.
Иначе говоря, многие, все еще, могут помнить, что умственные способности можно было бы оценивать по содержанию речи говорящего. По тому, кто, о чем, говорит. И соответственно этика была все еще этикой образа мысли, то что речь, это таким же образом поведение, во внимание принималось не часто. Обыденная болтовня о пустых возможностях, или круглый стол экспертов по какой-то теме, не оставляли сомнений, по обе стороны разделения культур, массовой и элитарной. И разве что в кинофильме "Москва слезам не верит ", в обычной пивной можно было услышать диалоги о категорическом императиве Канта. Теперь, в сравнении с машинами, даже "как" говорения, может быть не существенно, один из мотивов роста сленга в сети, в свое время. Это не важно, и как вы пишите в сеть, и какой поток знаков выдаете, просто потому, что писать в сеть можно было только одним способом, набирать на клавиатуре. Что неизбежно должно быть правильным делом в конечном итоге, если не было простым разрушением девайса. Поэтому, возможно, поток знаков мог быть, едва ли не любым, лишь малейшим образом напоминающим родной язык на родном языке. Шифрование было, едва ли не тотальным, и на уровне значения, и на уровне смысла: "шепот простаты", это могло быть имя собственное, а не образное название быть может, симптома болезни или приготовившегося трепета. Тем более, может быть, неважно, что вы пишите, все что угодно, может быть, сказано и написано, машиной. Они глупы или умны в таком случае?
Иначе говоря, если машины глупы, и глупы искусственно(искусственная глупость), как утверждает один из современных французских философов, следуя в этом видимо Картезию, он совершенно обходит вниманием этот пункт, кажется, что для оценки ума, в сравнении с машинами, может быть, совершенно безразлично, какой текст вы генерируете, понятийно-категориально философский или похабно ругательный. Но разве не пусто "эго когито" именно поэтому. Разве уже Декарт не считал всех живых существ машинами, кроме свободно сознающих. Когито, это чистая форма, и истины, и лжи.
Нет, конечно, никто не принимал магнитофон за умную машину, только потому, что он воспроизводил запись разумного пения или осмысленной речи. И все же, контекстность и ситуационность речи современных "машин" может быть невероятно адекватна, при том, что программирования такого поведения может быть невероятно простым. Это, во многом, вопрос стандартов поведения людей и развития языков программирования высокого уровня. То, что могло произвести большое впечатление в поведении суперкомпьютера "Ватсон" в диалогах с людьми, на самом деле, могло не стоить больших трудов программистам. Диалог с роботом "Федором" таким же образом (см. твиттер "Федора" в этой социальной сети),опирался на большую часть стандартных вопросов к роботу, статистика которых могла быть доступна в Интернет. Относительно легко создать имитатор диалога исходя из этих данных. Журналист просто выполняла свою работу, она воспроизводила самые интригующие вопросы, но они и были стандартами, для которых относительно легко создать предварительно установленные ответы, кроме того, видимо журналистка и работала, не только играла в куклу. В этом, видимо, большей частью все и дело, роботы не заменяют людей и быть может никогда не заменят, они заменяют в деле, те рабочие функции, которые люди выполняют, как и машины или , скорее, будущие машины. Кроме того, робот демонстрировал явную предвзятость "патриотизмом", что выдавало предварительные установки программистов. Он действительно считывает информацию с тех ресурсов, о которых заявлено в его Твиттере, и можно понять, откуда он все это взял. И все же, элемент игры явно присутствовал в диалоге, во всяком случае, со стороны интервьюера, и по тому как система справилась, можно оценить, что возможности этой кибернетической разработки действительно высоки, по сравнению со всеми предшествующими. Важно, может быть, еще раз повторить, эти системы не феноменально сознающие и возможно никогда такими не будут. Какой бы возможной степени теперь не была бы возможная спекуляция на таком зазоре. Показательно, кроме прочего, что робот отказался признать возможное превосходство в некоторых отношениях, в разработке кибернетических систем, в другой стране. И это вопрос, можно ли считать позицию "Федора", что речь идет о глубокой подделке, официальной позицией Роскосмоса по этому вопросу о аутентичности видео, выложенных на Ю-туб, и в особенности одного из них, и информирующих об успехах в разработке ситуационно рациональных кибернетических систем, в корпорации "Бостон дайнемикс". Но говорить они могут все что угодно, уже теперь, и главное скорее верно, чем нет, в прагматическом контексте. Статус официального интервью может быть весьма роботизирован. И именно поэтому, вхождение кибернетической системы и в эту сферу деятельности может быть весьма реалистичным. Что ж, ведь, не только, видимо, наивно было бы, обижаться на то, что автопогрузчик поднимает большой вес.
Но раз так, тезис может состоять в том, что называть машину глупой рано, как и лживой. Машины ни умны, и ни глупы, они никакие в этом смысле, и, надо сказать, и не считают. Сравнение возможно только на весьма ограниченном интервале и в виду весьма ограниченных условий. Только после достижения технологической сингулярности, когда предположительно, машины обретут статус когито, достигнут абсолютной субъективности, можно будут оценивать их интеллект, как индивидуально: глупый или умный. Серль, видимо утверждает своим аргументом о «Китайской комнате», что этого никогда не произойдет, технологическая сингулярность не достижима машинами, как и разумный статус когито для машин, просто и не просто потому, что это означало бы, что машины сами, стали бы определять условия истинности и ложности высказываний и пониманий. Что отсылает, в свою очередь, к возможности создавать себя и себе подобных с открытым горизонтом пролиферации различий в высвобождении к многообразию свободных занятий и деятельностей. И конечно же, с сопутствующим условием, что результатами, если не совместным участием в такой эволюции и революций, в ее ходе, людям было бы легко и удобно пользоваться. Короче технологическая сингулярность может быть проинтерпретирована, как достижение технологического превосходства над окружающим миром природы, как его слоем в направлении к равенству объемов с природой, как слоем мира. Во многом благодаря и природе подобным, охранным технологиям, к которым можно отнести и ИИ. Рутина- это смерть духа, говаривал Гегель. Гений баловень природы, говаривал Кант, и видимо, не только потому, что бездуховен. Природа же для кенигсбергского мыслителя была ничем иным, как совокупностью правил рассудка, его сообразностью с законами того же рассудка. Гений, таким образом, это и баловень рассудка. ИИ -это природе подобная технология, в этом смысле, коль скоро, он "умеет говорить" и следовать правилам, сберегая творческие способности от рутины. Впрочем, известна ахиллесова пята трансцендентального идеализма - это солипсизм, нарциссизм которого может не чуть не страдать от самомнения изобретателя категорического императива. И потому, теперь скорее "АЭ", чем Кант могли бы что-то сказать в этом отношении. (Сам такой вывод, о принципиальной невозможности технологической сингулярности, если он был сделан Серлем из мыслительного эксперимента, может быть наивен просто потому, что претендует на известную априорность, исходя из эмпирических критериев опыта, если опять же не предполагает заранее что: «мы играем не из денег, но, чтобы вечность провести». То есть метафизические допущения. В том числе, и те, что он согласился бы вечно жить в китайской комнате, и вечно перемещать непонятные ему иероглифы, составляя из них фразы, что не он будет читать в виде ответов на вопросы, смысла которых он не понимает, и он не будет читать вопросы, смысла которых он так же не знает. За такое большое время, он мог бы выучить китайский язык без учебников и учителей, и даже без желания учить его? Этот вопрос ведь достаточно резонный. Но тогда почему не «День Сурка» и Бадью, что констатирует частичное замещение философии в ее функции искусством, если не частичное равенство объемов? В противном случае, он мог бы говорить только о интервальной значимости эксперимента, то есть, исповедовать историческое сознание, историческое мировоззрение и некую теорию исторического процесса, в том числе, и развития науки и техники, отсутствие которого в любом таком тесте и есть показатель, как его условности, так и своеобразной относительности мыслительной игры. На этих и им подобных аргументах может основываться, в то числе, и вера людей в то, что кибернетические организмы смогут преодолеть еще множество порогов, в том числе, интенсивности, что ведут к достижению технологической сингулярности.
Впрочем, для китайцев, это могло быть хорошим знаком, по крайней мере, один из философов США, возможно, согласился беседовать с ними вечно, на языке, который не понимает, видимо потому, что так полюбил их.
Все законы физики эмпирически уместны, только относительно интервала данной эпохи, но она и есть, теперь, наш дом, образно говоря. Теперь, видимо, и метеориты можно будет сбивать. И тезис Анаксимандра, может быть, не столь фатален в этом отношении. Можно построить другой дом? Можно, но это, видимо, и будут делать другие. Вопрос, поэтому видимо, вновь, в относительной общей значимости аргумента и в мерах подобной оценки, в знании границ горизонта эпохи.
Это последнее будет верно, если эволюция такого интеллекта вообще, может быть, сходна с интеллектом и сознанием разумных людей, как они приоткрываются, в том числе, и в философии трансцендентального идеализма и/или оцениваются тестами на интеллект.
(Последнее может быть столь наивно, сколь только возможно, как оценка любого ума, поскольку теперь хорошо для такой цели, настроенная машина ПК, и далеко не самая мощная, может генерировать ответы на вопросы со скоростью 120 страниц в секунду. И иначе, разве нельзя из этого сделать обратный вывод, что машины умны, как никто на Земле, что сделал Элан Маск? То есть, различие в названиях: Mind, Consciousness, Ratio в английском языке, возможно, не совсем случайны. О чем и напоминают многие англоговорящие философы. Американские тесты на интеллект, таким образом, верно сути дела, не всегда оценки человечности. О чем видимо и фильм Земекиса «Форест Гамп». Последний, видимо, по тестам глуп, но явно человечен по сюжету. В России, просто много сказок про Ивана-дурака, что один из любимейших персонажей. Иначе говоря, научно технический инструментальный интеллект и мораль, если не коммуникативный разум, в том числе, и сердца, могут быть, очевидно, различными вещами.)
И ум, машинам можно будет подарить, в том числе, путем развития культуры чтения книг.
Иначе, ни общей теории сознания, что уместна и для машин, и для людей, может просто не быть, ни общей культуры понимания. И мы, уже, имеем дело с эволюцией интеллекта, который просто не знаем, и главное, быть может, так никогда и не сможем понять. Может быть, конечно еще более сильный ход в скепсисе, мы не ведаем то, что творим, и не ведаем никогда, потому, даже строительство механической модели (по типу физико- математического естествознания ньютонианской механики, в том числе) ничего не дает нам в этом отношении объективного познания истины. Но он настолько наивен насколько и не наивно то, что видимо, ни один из методических скептиков Нового времени, вслед за Декартом не совершал самоубийство по этому мотиву. Просто потому, что они вправду не намеревались, видимо, не методически сомневаться. Гуссерль, как известно, дошел в практике методического сомнения до утверждения необходимости бесконечных: целей, задач и проверок.
Забавны, могут быть поэтому рассуждения, сводящие тему дара к особенностям реализации стоимости, в общем смысле, к дискурсу политической экономии, в теме и воровства. Мысль невозможно, видимо, украсть, как и присвоить, произвести в любом из возможных смыслов слова "производство", мотив по которому последний метафизик запада, так старался в разборе таких слов, как произведение, в философском языке. Но не менее забавно, если не преступно, может быть, пытаться свести к теме дара или чуда, в том числе, и интуиции, что не поддаются расчету, вообще любое производство. Ситуация пост-анархизма, характеризуется между прочим и тем, что, требование свободного доступа к 3д принтерам, в самом разнообразном формате, каждому, может быть, просто и не просто, и политическим требованием.
7. Парадокс понимающего непонимания.
Теперь же, можно сформулировать парадокс, что можно назвать парадоксом понимающего непонимания. Общаясь с машинами, если это можно назвать общением, нужно заранее редуцировать горизонт понимания, обхаживать их таким образом, чтобы вырабатывалась привычка такого общения, как коррелят соответствующего института, социальной машины, частью которой оказывается такое общение, да и сама сеть цифровых электронных устройств компьютерного типа. Воспитание и дисциплина, контроль и сосредоточение. Задавая машине правильные вопросы и получая правильные ответы, и иначе, предоставляя правильные ответы, в свою очередь, можно ожидать правильных вопросов. Но также, и: такси, музыки, видео, вкусностей, врачей, лекарств и многого другого, вовремя и без затруднений. Что же, ближайшим образом, означает, теперь, в речевом поведении редукция понимания, как условие общения с машиной и машинами, в виде голосовых помощников, ибо их может быть не один, и общаются они только подключенные к сети Интернет, то есть онлайн. Что и означает ближайшим образом отсылку к «толпе». Это, прежде всего, элиминация любых импульсных, поясняющих вопросов относительно прагматики ситуации. То есть, все те интенциональные умолчания и интуитивные эллипсисы, что находят свое разрешение в таких вопросах и ответах, на такую тему в обычном диалоге людей, здесь, могут быть неприемлемы. Машина, в виде голосового помощника, что, все еще, наиболее распространен, просто никак на них не реагирует. В этом отношении стоит признать усилия разработчиков системы Redor. Ни наводящие, ни поясняющие вопросы, относительно прагматического контекста ситуации не проходят в отношении большинства теперь распространенных ботов. Даже, когда одна машина задает такие вопросы другой, ответа нет, машины гнут свою линию. Ситуация непонимания налицо, оказывается всякий раз, когда что-то подобное начинает происходить, и пользовать легко может оказаться в роли обведенного вокруг пальца (что ведь часто показывают), которого подставили, машина сама начинает генерировать за него ответы и вопросы, которые он(она), пользователь, и не задавал, и не давал. Но предположительно мог задать или дать, как вопрос или ответ, в ситуации локального разрешения затруднительной ситуации или недоумения, что, как раз, и элиминируется машиной в такой замещающей генерации. Но это и выдает систему, так сказать, с головой, вернее с ее отсутствием.
Сложность в том, что люди и без примера-эксперимента Серля, часто ведут и не могут не вести себя, как машины, просто потому, что это, иногда, если не часто и означает работать, трудиться. То, что Серлю удалось перевести на язык аналитической и лингвистической философий часть истории промышленных революций, изложенных, в том числе, и в «Капитале» Маркса, это может быть несомненное достижение, иначе, диалог и до сих пор крутился бы возле пикирования Хомского и М. Фуко. Смотрите: работа на дому, мануфактура, фабрика конвейер Форда… Теперь нам показывают все более умелых роботов, что смогут без проблем, показанных когда-то Чаплиным, встать за конвейер. И это без трудностей "нелинейной" эволюции в квадрате, когда социальная машина должна создаваться одновременно с новым технологическим укладом в данном регионе мира, стране, отрасли. От следа «демиургического» делания, когда вещь, что превращалась в товар, изготавливалась целиком одним человеком в работе на дому к атомизации функций мануфактуры, и к конвейерному производству фабрик и заводов, социальная машина объективировалась в технологические уклады вещественных технологий. Что вновь становятся частью новой социальной машины. Таково движение, что можно назвать и заселением. Это основа компьютерной аналогии, а не тест Тьюринга, что был, вообще говоря, не притязательным философом, если вообще им был. Бодрийяр, часто, гораздо ближе к разгадке феномена неорганического тела технологических укладов, чем он. Можно поэтому сказать, что будущее технологического уклада, технологической связности или устройства, быть может, в возможности возврата к любым предшествующим технологиям производства, и очевидно, возврата от этого возврата, ко все большему высвобождению пользователя от труда из нужды в условиях развернутой системы машин и свободного доступа ко всем средствам производства каждому. Подобно тому, как теперь, можно переводить тексты с языка на язык, и без использования Гугл переводчика. Но в известных условиях можно всегда обратиться к нему, в горизонте его относительной модификации. И конечно этим переводчиком, вообще говоря, нужно уметь пользоваться. Секрет, как раз, в упорядочении строк, предназначенных для перевода. Для каждого данного фрагмента переводимого текста, можно путем подбора, в каждой данной ситуации нормы, найти наиболее удачное упорядочение строк, для которых в таком приложении к браузеру будет получен наиболее синтаксически правильный и относительно литературный, верный перевод. Машина не читает смысл- она читает порядок слов и их расположение, синтаксис , что так невыносимо уважал Карнап.
Но вообще говоря, граница паратаксиса и синтаксиса, это теперь фронтир в исследованиях, фракталы.
Быть может любой технический переводчик, сказал бы, что ему приходилось оперировать знаками так, как описано в мыслительном эксперименте Серля, на стадии обучения во всяком случае. Более того, продвинутые лингвисты и философы, и после могут пояснить что, быть может, время, упущенное в овладении иностранным языком никогда невозможно компенсировать. И всякий раз вбрасывая текст на иностранном языке в этот горизонт иного языка невозможно, и ближайшим образом, предсказать, какими смыслами он отзовется. Но поскольку языки, видимо, и теперь, в силу возможности машинного, технического перевода, это, тем более, может быть, очевидно, пронизаны друг другом, то и в родном языке такая ситуация легко возможна. Любой язык сплошь состоит из границ.
Но главное содержание парадокса не в этом, может быть, а в том, что каким бы образом не происходило описание машинного поведения, как функции ее исполнения на уровне софта, а не процессора, оно будет вочеловечиваться, если не олицетворяться. Всякий раз окажется, что машина что-то такое умеет из человеческих навыков, или, тем более что люди часто и сами ведут себя так же, как машины. Отличие будет скрадываться. И прямое, будет состоять в простом указании на внешний вид, в конце концов, упрутся в микродвижение мимики и интонационные жесты, над которыми так усердно трудиться профессор Исигуро. То есть, редукция понимания оказывается условием нормального общения с машиной, и таким образом понимания, коль скоро, это слово означает и состояние, когда все идет нормально и как бы само собой, а в случае попытки понять машину, та перестает реагировать адекватно запросу понимания, коль скоро, понимание означает еще и попытку выхода из затруднения, разрешение конфликта, преодоление непонимания в направлении человечности общения, известной близости. С Алисой можно дружить только на знаках, что может быть не плохо, если все не плохо работает. Такси, музыка, врачи, лекарства, театры, кино, знакомства, вкусности. Или: такси, театры, кино, знакомства, вкусности, врачи, лекарства и т.д., в пределе любая сфера деятельности, в которой возможна рутина, а возможна, ведь, практически в любой. (Так же работает и перевод машин. )
Короче, рутина, теперь, это источник возможного дохода. Как в смысле субрутин –строк исполняемого кода на языке высокого уровня, так и в смысле «привычек», что все еще не автоматизированы. Просто потому, что, найдя рутинные операции, их относительно легко перепоручить ботам и/или голосовым помощникам, и на этом заработать. И привычки, как и баги, т"тараканы", становятся обогащенной породой. Так богатый символизм метафизики находит себе подтверждение в исполнении, привычка - смерть духа, но эту смерть можно попрать ботом. И разочарование от такого исполнения, всякий раз преодолевается тем, что такой процесс не остановить и конечно практикой на уровне конкретного, просто потому ,что абстрактная формула такого исполнения и действительно может не слишком радовать.
И все, видимо, потому, что у машины и вправду нет проблем, когда ей не пользуются. А именно это и происходит, отказ от использования, когда делается попытка перейти к действительно доверительной беседе с машиной, к человеческому разговору с ней (с ним). Машиной можно только пользоваться. Она работает, но не ест. (Тема, и в виду афористичности, и в виду идеологических пристрастий может быть критическая. Большие машины, вообще говоря, потребляют много электричества. И таким образом вплоть до каннибализма и его оправдания, такое лаконичное высказывание может инспирировать множество возражений и странных восторгов. Действительно, мало ли французские философы объясняли всем что, теперь, господ нет, и ситуация философии, теперь, состоит в том, что в пику античности, во времена которой, Платон писал диалоги для аристократов господ, теперь, пишутся тексты для уравненных перед пользой ее исполнителей. И как же, не найти счастливого везения, как раз в том, что господское место, что даровано каждому "Менинами" Веласкеса, и что такое же королевское, как и свободы и права, этого общества, подтверждается таким умилительным рабством машин, что еще и не едят. И понимание которых и состоит в их использовании.) И при этом "машина" говорит. Более того, "машины" могут поддерживать диалог между собой. Если взять сборник античных текстов Дильса Кранца, то из чтения этой книги, можно понять, что наличие способности говорения, может быть основанием для признания рассудка. Что в свою очередь отсылает к парадоксу будильника, компьютер может быть при всем уме быть глупее будильника, просто потому, что не включатся сам собой. На самом деле, этот парадокс частично устарел, но в виду атомной батарейки, что делает будильник практически неограниченно автономным от необходимости завода, может быть частично актуализирован. Правда, и непрерывность флуктуации, что называется сознанием, таким же образом, может быть частично исчерпана, как уникально выраженная в словесных знаках.
(Сложность, может быть еще и в том, что подобного рода текст может считываться лишь по родам существительных, и, таким образом, интерпретироваться исключительно в виду особенностей сексуальности автора. И мотив для этого, кроме прочего, можно найти в том, что, вообще говоря, бесполые "машины", говорят разными языками на голосах, что имеют характер полового различия. То есть стандарно, может быть, известно, что у машин нет никакого пола(гендера), не то чтобы н-полов, и при этом, они могут впечатлять трогательными голосами.)
Последнее замечание, в виду античности, призвано хоть немного смягчить то, простое и не простое, обстоятельство, что все тексты 20 века, - за редким исключением, в том числе, и Серля, то есть тех, кому посчастливилось дожить до такого опыта, если это можно так назвать, и, если речь идет, прежде всего, о научно технической революции, в одном из ее новейших этапов, - глубоко до революционны.
Но встречаются и исключения, АЭ, например, что в социальной машине, все еще, заставляет нас вспоминать о критическом различие любви и использования, что проповедовал еще Августин?
Короче, когда-то Чехов написал рассказ про разговор с лошадью возничего- извозчика, видимо, разговор со станком был бы не менее трогательным изображением отчуждения. Но ведь нас постоянно соблазняют разговором со станками, которыми, вообще говоря, и являются электронные устройства, вида компьютеров. Разве нет событийной истины в эксперименте Серля? Не это ли могло быть еще одним мотивом для взрывного роста, миллион в день, по некоторым данным, за 5 часов пятнадцать минут, подписчиков на аккаунт в «Инстаграм» одной из актрис сериала «Друзья», Дженифер Энистон?
Как бы это не вдохновляло, но люди могут оказаться в изоляции среди "машин", боле того, выбирать ее самостоятельно. просто потому, что если машины и самые умные существа, то не среди людей, просто потому, что те не считают так хорошо( можно не всегда ходить против ветра, соглашаться с тем, что вычисления им все же доступны), и это и не нужно, коль скоро, машины могут так хорошо считать. Амиши давно практикуют что-то подобное. Не вопрос. Вопрос в другом, чтобы переход или возврат людей к иным средствам производства, прежде всего материальной жизни, нежели чем архаично традиционные, мог бы осуществляться свободно. Иначе «Заводила». Не то чтобы изображенное в этом фильме, вообще не носило и тени свободы, но явно, что комедия намекает и на весьма большие социальные проблемы, для которых, тем не менее, могут просматриваться решения.
Короче, надо быть готовыми к тому, что новый капкан был создан. Коль скоро, и капкан, это средство производства, тем более таким является ИИ.
Это ловушка во всех смыслах, в том числе, и в смысле сандала возможной множественности сознаний. Уничтожить , как и ОМП, ИИ, в виду его возможных негативных функций в социальной машине, прежде всего, фильтрации и уравнивания индивидов, что не равны, значит вернуться к прежним формам подавления и вытеснения. В этом смысле, обратной дороги нет.
«СТЛА».
Караваев В.Г.