В 2018 году было явно признано, что в некоторых алгоритмах машинного обучения были обнаружены признаки дискриминации, по расовому и половому признакам. И это конечно гораздо круче, чем открытое признание простого и не простого обстоятельства: крупные Медиа компании используют роботизированную журналистику, видимо для покрытия рисков от многообразия текущей рутины. То, что такое признание похоже на хорошую мину
при плохой игре, можно пояснить, тем не менее, простым и не простым обстоятельством, что все алгоритмы машинного обучения, как и любой язык программирования, включают в себя такие элементы, что не могу не привести к дискриминации по тому или иному признаку, просто и не просто потому, что машины не знают симметрии, равенства, братства и свободы, наконец. Это всегда различие: 01, что иерархично и потому дискриминационно. Все остальное уловки программистов, что машины могут "обойти", словно обходятся и любые иные уловки. Симметрия- это идея. Идея- это симметрия. У машин такого рода идей нет, и быть не может. Что же, диалог журналиста и ученого может все время балансировать на грани противоречия, в том числе, и формального, в виду такой разницы, кроме прочего, и между общим и частным, высказыванием.
Стоит ли развивать военные алгоритмы, или страх перед ними, это что- то близкое к паранойе, ведь они могут быть оборонительными? Стоит ли прививать машинам мораль, коль скоро, она может быть и натуралистической, и потому, даже та машина, что стреляет только после попадания в нее пули, сможет, до того: "чинарик выплюнуть, и выстрелить в упор?"
Если машины плохо вычленяют причинно-следственные связи, стоило ли специально вводить запреты на разработку военных алгоритмов? Коль скоро те, в основном инструментально ориентированы на цель, что сама таким образом инструментальна, и как раз, хорошо могут быть настроены на вычисление причинно-следственных связей, в инструментальном на цель, их расчете.
И что вообще с различием целе-инструментальной рациональности и коммуникативной, и так ли близок к регрессу теоретик Хабермас, как о нем иногда отзываются?
Цензура присущая академическому дискурсу, до сих пор, часто, не дает высказать прямо, что непосредственным источником распространения и поддержки, скажем сексистских инвестиций может быть и является – порно, если ни легкомысленные сайты. Впрочем, как и любых иных. Фракталы господствуют в этом горизонте. В известном смысле, может не быть более машинного, и одновременно более человеческого поведения, чем то, которое демонстрируется на легкомысленных сайтах. Аскеза стремиться нивелировать этот горизонт полностью, как если бы кроме однозначных шкал, например, целочисленных значений не существовало бы дробных и/или фрактальных. Какие только расы и прежде всего художественные, ни встречаются там, впрочем, бывает и много монотонности. Важно то, что ни порно производит себя. И потому быть может когда-либо окажется возможным свободное отношение и к этому виду искусства, коль скоро, оно уже в известном смысле возможно.
Что же, когда нам говорят, что автокодировщик, это машина алгоритма, что похоже шифрует данные, после чего, декодер их расшифровывает, и при этом говорят о том, что этот процесс кодирования является «превращением необработанной информации в абстрактное представление», в котором семантические связи, де, наиболее проявлены, и из которого исходные данные восстанавливаются, в первоначальном виде декодером, то это может быть забавно. Превращение предложения на естественном языке в формулу логики высказываний может быть таким кодированием? Очевидно нет, но абстрактным представлением, что проявляет формально логические связи, и в этом смысле формально логическую семантику, да. И что, в таком случае, возврат информации может быть получен, ни в виде всех возможных вариантов такого возврата? То есть то, что раздел криптографии использовался при усовершенствовании обучения нейронных сетей, таким же образом может быть фигура умолчания.
И таким образом, как минимум три из них могут быть вскрыты, коль скоро, они могут быть так не сокрыты, в исходном тексте диалога журналиста с ученым. Оружие, порно и шифрование. Забавно. И последовательность может быть верно такой же. Сначала то, что отсылает к игре инстинктов, их динамике, затем то что призвано все это скрыть, зашифровать.
И ради чего? Оказывается, ради производительности! Производительности, которую не ожидали! Кажется, насколько банально. Верно, но не банальным, до сих пор остается уровень производительности машинного перевода, что был получен ко времени, и после 2016 года. Или, коль скоро, речь зашла о близком, даже 2016 Word может быть теперь, медляк в виду редактирования и производства текста в сравнении с One Note, и прорыв 365-го, может компенсировать это, разве что тем, простым и не простым обстоятельством, что производство текста в нем гораздо ближе к обмену, чем где-либо еще, коль скоро, оно осуществляется прямо в сети. Тем не менее, приложение One Note из Microsoft Store, синхронизируется быстро и легко с любым устройством и таким же приложением в Windows. Это, как если бы одной ручкой или карандашом, можно было бы писать в нескольких тетрадках практически одновременно, и/ или с промежутком времени необходимым для открытия иной тетради.
Может быть автор сочиняет за объект, может быть, но в таком случае, почему бы объекту не быть в большей мере однозначным, просто и не просто, признав фрактальные многообразия кроме прочего, более тонкие шкалы, но зато близкие для все проникающих производств и распределений!
Впрочем, хорошо может быть то, что ученый признает, что истоки его интереса к искусственным нейронным сетям и ИИ, восходят к увлечению научной фантастикой и когда-то языком Basic, на котором можно было быстрее и проще, начать реализовывать исследовательские фантазии в этой области, да и просто- научиться программировать.
Может быть это и есть социо-культурные истоки стремления разработать категориальные формы, для новейших нейронных сетей? Может быть, но скорее технократия, то что по ту сторону добра и зла, и Айзика Азимова. Следует перестать быть всегда идеалистами, и в этом смысле, коль скоро, номинализм, в той или иной форме, уже неизбежен. Электронно-цифровая машина, что пишет статьи на любую тему, чем не мечта любого редактора, издателя и правообладателя газеты, инвестора? И никаких скандалов, в стиле «Утреннего шоу». Но поди же ты. Нет, действительно можно ли создать правильные алгоритмы, если действительные учителя, так «неправильно», могут быть предвзяты?
Впрочем, тексты Азимова, и действительно до сих пор можно использовать, как генератор, близких к автономному, императивов в морали.
Но двойной захват и двойной капкан, могут быть, тут как тут: за или против Бэйзика, за или против Терминатора?
И действительно, разве не тернистый путь освоения сложного, а не простого, языка программирования, это очистительная жертва, перед получением настоящего знания- теории?
И конечно, в пользу такого воззрения может быть опасение перед созданием роботов убийц, и их разработкой. Но не надо питать иллюзии, страх и этих людей в этом случае, это скорее страх перед новой гильотиной, перед массовой резней, отстрелом нобилитета золотого миллиарда. Так как нобилитета по большому счету нет, то это страх этого миллиарда перед самим собой. Но гильотина до сих пор существует и ее эффективная функциональность может быть, как и ранее высока, да и гильотину, в виде игрушечного театрального реквизита, иногда показывают в музыкальных клипах. Почему бы, так же легко не забыть про роботов убийц, что могут быть созданы, и уже существуют?
Фейк или не фейк?
На грани суеверия, но все-таки, что выдали «СТЛА», машины автоматической настройки и автоматического подбора в браузере, после написания статей о Нейролинк? Маркетинг, крайне косвенно и с большой долей случая, независимых переменных, переходов от сайта к сайту, но все же, по теории вероятности, видимо, далеко не нулевым образом.
Торговля. Агрессивные маркетинговые стратегии и Нейролинк. Запретом, ведь ничего не решишь. И потом, как еще избавиться от кризиса перепроизводства, если ни стандартизировав поведение, и заранее зная, сколько кому следует, и что кому положено? Так что, и в этом случае, запрет на агрессивную рекламу и маркетинг, в особенности в отношении детей, скорее мотивируется стремлением наращивать риски, ради прибыли, значимости доходного занятия, пусть бы и опасность регресса, от всемирно исторического значения капитала, что может быть и всем плох, таким же образом могла бы засчитываться.
Да, действительно, может быть здравый смысл в том, что опасения перед ИИ далеки от реальности, что под рукой, скорее ПК все еще достаточно тупой инструмент не только для того, чтобы сотрудничать, но и воевать, бастовать или действительно вредить.
Таким же образом как скорее мифом, все еще может быть рекурсивное, циклическое улучшение, благодаря которому машины смогут стать технологическим добрым богом для людей, не убивать их, но делать сверх человеками, просто сохраняя рост населения народов. Это ведь иллюзия, что правило: «нет производительного труда на собственника средств производства - нет потребления рабочего, и/ или тех, кто такими собственниками не является, давно устарело. Статистика голода в Африке, на относительно больших статистических масштабах, свидетельствует о том, что это правило сохраняет свою силу.
Может быть, но опасения Илона Маска продиктованы, возможно, и тем простым и не простым обстоятельством, что суперкомпьютер Тесла, обучает программы, что становятся алгоритмами автономного вождения, и более того, быть может, создает такие программы глубокого обучения. Разделение труда остается властью по преимуществу. Что кроме прочего препятствует свободе распространения информации, и правильности оценок. Теория и практика, остаются разделены пропастью, как производство и обмен.
Короче, разрабатывается возможно ни автономный ИИ, но возможность использовать ИИ, как можно продуктивнее, и как можно дальше от его автономии, фильтрация алгоритмов запуска и остановки по требованию, вот что по-видимому происходит, и при этом с наивысшей производительностью, как такой фильтрации, так и алгоритмического исполнения. Но что если посмотреть на дело совсем иначе, один интеллект совершенствует другой, в то время, когда тот изменяет первый? Теперь, и на уровне ввода вывода?
Что бы сказал этот ученый теперь после пяти лет, прошедших с 2018, года, напряженной, надо думать, работы и параллельных достижений? Но вообще говоря и тогда он мог бы сказать, что машины- железные, и возможно, разум не безразличен к белку! И в виду тупика развития чипов и транзисторов, в направлении уменьшения, гибридные технологии могут быть выходом. Коль скоро, это и на тот момент могло быть, куда как очевидно. И сказать это, не дожидаясь события создания цифро-биологического интерфейса ввода вывода.
Короче, проблема даже не в роботах убийцах, но в свободном доступе к средствам производства таких роботов. Такие роботы не делают себя, как и гильотина, или порно. В известном смысле, их изготавливает социальная машина. И от того, какова она может быть, зависит то, могут ли они вообще производиться, и если да, то использоваться. И что же можно услышать о такой машине от ученого? Ближайшим образом – это право, ближайшим образом, закон и запрет, это все от ученого. Но почему бы ему не поделиться особенностями научных стартапов, и тем, что твориться в лабораториях? Коль скоро, все может быть аватаром фабрики, то какие из них наиболее годятся для научного производства и теории?
Любой терминал- это палка о двух концах, не только дверь двуликого Януса. Возможно, гибриды смогут быть большими друзьями, - во что конечно может мало вериться, в особенности, в виду сериала «Война миров», - чем просто железные «братья» по полку, коль скоро, их пришествие, и прибытие в полки, не остановить, как и прогресс, и дело идет, скорее, о том, насколько удаться опередить такое прибытие, еще более новыми технологиями, в том числе, и действительно свободного доступа.
«СТЛА»
Караваев В.Г.