Машины становятся умнее. Они достигли точки, когда они учатся самостоятельно и принимают свои собственные решения. Последствия могут быть совершенно причудливыми. Есть машины, которые мечтают, читают слова в мозгах людей и превращаются в мастеров искусства.
Темных навыков достаточно, чтобы заставить любого носить устройство против ИИ, которое разрабатывается. Некоторые системы ИИ демонстрируют признаки психических заболеваний и предрассудков, в то время как другие слишком опасны для публикации.
Deepfakes
В 2019 году на YouTube было выпущено видео . На ней были показаны разные ролики знаменитой Моны Лизы . Только на этот раз картина была тревожно живой. На нем было видно, как женщина двигала головой и оглядывалась, и ее губы двигались в безмолвном разговоре.
Мона Лиза выглядела как кинозвезда делать интервью , чем холст. Это классический пример глубокого подделки. Эти живые портреты созданы сверточными нейронными сетями.
Этот вид ИИ обрабатывает визуальную информацию аналогично человеческому мозгу. Потребовалась тяжелая работа, чтобы научить ИИ сложности человеческого лица, чтобы оно могло превратить неподвижное изображение в реалистичное видео.
Сначала система должна была узнать, как ведут себя черты лица, что было нелегким делом. Как объяснил один ученый, трехмерная модель головы имеет «десятки миллионов параметров».
ИИ также собирал информацию с трех живых моделей для создания клипов. Вот почему женщина узнаваема как Мона Лиза , но каждая из них сохранила следы личностей моделей.
AI предвзято
Кредит фотографии: Живая Наука
Борьба с предрассудками жесткая. Спросите любого, кто когда-либо испытывал дискриминацию, основанную на его теле или убеждениях. Еще один слой этого зла недавно возник в форме ИИ.
Несколько лет назад троллям в Твиттере понадобилось менее 24 часов, чтобы превратить нового чат-бота Microsoft Тея в неонациста. Тем не менее, исследование показало, что тролли не единственная причина, по которой искусственный интеллект теребит свой нос у женщин и пожилых людей. Нейронные сети учат предвзятость от человеческого языка при обработке информации с веб-сайтов.
Недавно ученые разработали тест связывания слов для GloVe (глобальные векторы для представления слов). Этот ИИ широко используется в задачах представления слов. В конце эксперимента даже исследователи были удивлены. [2]
Они нашли все смещения, которые они могли бы проверить в GloVe. Среди прочего, оно ассоциировалось с негативными именами афроамериканцев и стариков и больше связывало женщин с семейными условиями, чем с карьерой.
Дело в том, что общество часто дает определенным группам больше горя - и системы ИИ справляются с этим. Разница в том, что люди понимают справедливость и могут не дискриминировать кого-либо; компьютеры не могут.
Он спит как человек
Кредит фотографии: sciencealert.com
Сон улучшает познание и освежает организм. Есть также доказательства того, что дремота позволяет нейронам удалять ненужные воспоминания, сделанные в течение дня. Это крайне важно для здоровья мозга и, возможно, почему сон повышает познание.
В 2019 году ученые запрограммировали способность спать в ANN (искусственная нейронная сеть), названная сетью Хопфилда. Вдохновленный мозгом спящего млекопитающего , сеть ANN «проснулась», находясь в сети и спала в автономном режиме.
Выход в автономный режим не означал, что ИИ был выключен. Математически реализованные модели сна человека давали ему нечто похожее на REM (быстрое движение глаз) и медленный сон. Считается, что REM хранит важные воспоминания, а медленная фаза сокращает ненужные.
Невероятно, но ANN также, казалось, мечтал. Находясь в автономном режиме, он просматривал все, что узнал в тот день, и проснулся с большим объемом памяти. Когда ANN не позволяли вздремнуть, он был похож на человека, лишенного сна - его способность к обучению значительно снижалась. Это открытие может однажды сделать сон обязательным для всех систем искусственного интеллекта.
Anti-AI AI
Кредит фотографии: sciencealert.com
Технология быстро развивается, и самый мрачный прогноз касается нашего существования, которому угрожает мошеннический ИИ. Не просто искусственный интеллект, а исключительно мощные и саморазвивающиеся системы.
В 2017 году австралийским исследователям потребовалось всего пять дней, чтобы разработать устройство против ИИ. Он был направлен на решение проблемы, с которой люди уже сталкиваются - ИИ, притворяющийся реальным человеком. Носимый прототип был разработан, чтобы предупредить своего владельца, если встречается искусственный самозванец.
Он изучал синтетические голоса и опирался на Google Tensorflow, программное обеспечение машинного обучения. При использовании прототип захватывает все присутствующие голоса и отправляет его в Tensorflow.
При обнаружении человека устройство ничего не делает. Однако, если динамик синтетический, система фактически посылает холод по позвоночнику. Его создатели решили, что «вы говорите с предупреждением о клоне» должно быть тонким. Вместо звукового сигнала или гудка термоэлектрический элемент охлаждает заднюю часть шеи.
Ай-Да
Кредит фотографии: Телеграф
Робот по имени Ай-Да является любимой на арт-сцене и, возможно, проклятием борющихся художников повсюду. Он производит сложные картины , скульптуры и эскизы. Что примечательно, так это то, что машина обучает себя все более изощренным способам творчества.
Работы Ай-Да, основанные в Оксфорде, в нише абстрагирования от рассеянного света заслуживают особого внимания. На самом деле они равняются картинам, созданным лучшими художниками-абстрактниками современности.
У машины тоже есть другие навыки. Он говорит, ходит, держит кисть и карандаш. Это также первый AI, который проводит художественную выставку. Части были описаны как «навязчиво красивые» с темами, которые включают политику и дань знаменитости.
Ай-Да «родился» в 2017 году. ИИ был заказан куратором по искусству Айданом Меллером. Чтобы построить робота, он обратился к робототехнической фирме в Корнуолле и инженерам в Лидсе. Последний разработал руку, которую ИИ использует с таким блеском. Интересно, что даже те, кто ближе к машине, не могут предсказать ее истинную производительность или то, что она создаст дальше.
Прогнозирование лица из голосовых клипов
Кредит фотографии: sciencealert.com
В будущем может стать невозможным сделать анонимный телефонный звонок. Есть система ИИ, которая слушает короткую запись чьего-то голоса и затем предсказывает, как человек выглядит.
ИИ обучался в Массачусетском технологическом институте (MIT), изучая онлайн-видео, чтобы научиться рисовать лица, основанные только на голосах . Результаты реконструкции были грубыми, но определенно показали сходство с живыми людьми. На самом деле они были настолько похожи, что это делало команду MIT неудобной.
Как и во многих технологиях, существовал риск того, что искусственный интеллект может стать инструментом злоупотребления. Например, лицо, проводящее телефонное интервью, может быть подвергнуто дискриминации на основании его внешности. Однако, с другой стороны, этот ИИ мог бы помочь правоохранительным органам собирать фотографии сталкеров, совершающих угрожающие звонки, или похитителей с помощью выкупа.
MIT планирует придерживаться этического подхода к обучению и будущему внедрению системы ИИ.
Норманн
Кредит фотографии: Живая Наука
В MIT Media Lab есть нейронная сеть, в отличие от любой другой. Система AI, вызываемая Норманом, вызывает беспокойство. На этот раз речь идет не о том, что он может развязать в государственном секторе. Вместо этого «разум» Нормана наполнился мрачными мыслями. Они совершенно ужасные и жестокие.
Исследователи столкнулись с этой причудой, когда они представили ИИ тесты чернильных пятен. Психологи используют их, чтобы узнать больше о психике пациента. Когда один чернильный пузырь был показан другим сетям ИИ, они соответственно увидели птицу и самолет. Норман увидел человека, которого застрелили из машины. Он был ручным по сравнению с другим чернильным пятном, которое Норман описал как человека, которого затягивают в машину для теста.
Ненормальное поведение было уподоблено психическому заболеванию. Ученые даже рискнули назвать его «психотическим». Однако то, что привело ИИ в заблуждение, могло помочь ему вернуться на правильный путь. Чем больше информации получают нейронные сети, тем больше они совершенствуют свой независимый выбор. Массачусетский технологический институт открыл для общественности опрос чернильных пятен, надеясь, что Норман исправится, извлекая уроки из человеческих реакций.
AI читает мысли
Кредит фотографии: Живая Наука
В 2018 году три разных исследования научили ИИ превращать мозговые волны в слова . Для этого электроды должны были быть подключены непосредственно к мозгу. По этическим соображениям это невозможно сделать со здоровыми пациентами.
Ученые получили разрешение от добровольцев с мозгами, уже выставленными по несвязанным хирургическим причинам. В то время как некоторые слушали аудиофайлы, а другие читали вслух, компьютер записывал их мозговые волны.
Первое исследование позволило ИИ переварить данные с помощью «глубокого обучения». Это описывает компьютер, решающий проблему практически без человеческого контроля. После того, как он преобразовал электрические сигналы мозга через синтезатор голоса, слова были узнаваемы примерно в 75% случаев.
Во втором исследовании для обучения ИИ использовалась смесь паттернов, созданных стрельбой из нейронов и речевых звуков. Полученные аудиофайлы имели четкость записи с микрофона.
В третьем исследовании использовался другой подход - анализ области мозга, которая превращает речь в движения мышц. Слушатели умели понимать слова ИИ в 83% случаев.
AI слишком опасен для публики
Кредит фотографии: sciencealert.com
Его зовут скучно. Однако GPT-2 считается настолько опасным, что его разработчики отказались выпустить полную версию для широкой публики. GPT-2 - это система прогнозирования языка. Это может звучать так же скучно, как и его имя, но в чужих руках этот ИИ может быть разрушительным.
GPT-2 был разработан для генерации оригинального текста на основе письменного примера. Хотя синтетический материал ИИ не всегда был идеальным, большую часть времени он был слишком аутентичным. Он может генерировать правдоподобные новости, писать эссе о гражданской войне и создавать свою собственную историю с героями Толкина « Властелин колец» . Все, что было нужно, - это подсказка человека, и искусственные соки будут течь.
OpenAI, некоммерческая группа, которая породила этот продвинутый AI, заявила в 2019 году, что только ограниченная версия появится в продаже. Организация опасалась, что система может усугубить фальшивую новостную эпидемию, использовать людей в социальных сетях и выдавать себя за реальных людей.
AI превращается в самосознание
Кредит фотографии: newscientist.com
Искусственные сети демонстрируют передовые способности, но самоосознание - важная черта человека, в которой ИИ постоянно терпел неудачу. В 2015 году эта граница размыта. Нью-йоркская лаборатория робототехники провела испытания трех готовых роботов Nao.
Крошечным гуманоидам сказали, что таблетка заставила их замолчать. Никто не получал никаких лекарств, но два были отключены кнопкой, нажимаемой человеком. Роботы должны были выяснить, кто из них еще может говорить, задача, с которой они не справились. Эта неудача была разработана, потому что все модели Nao пытались сказать: «Я не знаю».
Только тогда один робот обнаружил, что он все еще может говорить. Робот воскликнул: «Извините, теперь я знаю! Я смог доказать, что мне не давали таблетку.
Он прошел испытание, которое оказалось не так просто, как кажется. Нао должен был понять вопрос человека: «Какую таблетку ты получил?» Услышав саму фразу: «Я не знаю», он должен был понять, что ответ пришел от самого себя, и что он высказал свое собственное понимание не получаю никаких таблеток.
Это был первый раз, когда ИИ удалось создать так называемую головоломку мудрецов, предназначенную для проверки самосознания