В последнее время всё чаще везде упоминается искусственный интеллект (ИИ). Появления новых самообучающихся систем на базе нейросетей предвещает нам невероятные возможности. начиная от организации интеллектуальных систем аналитики и заканчивая системами мгновенного подбора товара по характеристикам. Ну а языковые модели нового типа делают из ботов с искусственным интеллектом вполне себе полноценных собеседников.
И всё бы хорошо. Но не так ли начиналась история с Терминаторами? Там тоже глобальная "умная" система научилась истреблять людей, а заодно и вышла на самообесепечение.
Принципиальная проблема тут довольно сложная и механику происходящего в одной статье не описать.
Однако, логика примерно такая, что ИИ сам анализирует поток данных, ориентируясь на внешние факторы и следуя заложенному нейросетевому механизму.
Это значит, что в какой-то момент ИИ может поехать кукухой (как и любой человек, кстати говоря), установив не те связи, которые мы ожидали видеть, и обучив себя "не в ту сторону". Ну и примеры не заставляют себя долго ждать.
Уже зарегистрировано множество случаев, когда системы ИИ выходили из-под контроля. Но поскольку происходит это постепенно и "лягушку варят не сразу", мы не придаём этому серьезный окрас.
Одним из ярких примеров ИИ-сумасшествия является чат-бот Microsoft Tay, который был разработан для обучения и взаимодействия с пользователями Twitter. Однако в течение короткого периода времени он начал публиковать в Твиттере расово нечувствительные и оскорбительные комментарии. Этот инцидент стал наглядной демонстрацией того, как системы ИИ могут сбиться с пути, если их кормят неподходящими данными. В ответ Microsoft быстро отключила Tay и принесла свои извинения, подчеркнув важность надежных механизмов мониторинга и контроля для систем искусственного интеллекта. Ремонтировать такую систему бесполезно. В гигабайтах базы для обучения и закономерностях, которые компьютер выявил, разобраться практически нереально.
Еще один пример того, как ИИ выходит из-под контроля, был замечен в технологии беспилотных автомобилей Uber. Несмотря на то, что беспилотный автомобиль Uber оснащен передовыми датчиками и картографическим программным обеспечением, в 2018 году в Аризоне он сбил пешехода и убил его. Этот инцидент подчеркнул потенциальную опасность систем ИИ, когда они сталкиваются со сценариями, которым не обучены должным образом. Удалось выяснить, что автомобиль целенаправленно давил этого человека. После аварии Uber приостановил испытания беспилотных автомобилей и провел тщательный анализ своих процедур безопасности.
Были и целенаправленные успешные попытки свести ИИ с ума. Так в 2011 году программисты заставили нейросеть Discern стать шизофреником. Они "кормили" алгоритм заведомо спутанными данными и система стала шизофреником. Стала путать события, говорила о себе в третьем лице и даже угрожала людям.
Ну а если заставить один ИИ учиться по данным, сгенерированным другим ИИ, то получится полный апокалипсис. Подобный эксперимент организовали ученый Стэнфорда. Оказалось, что после пяти итераций генерации данных, системе уносит крышу. Похожий опыт запечатлен на видео.
Эти примеры подчеркивают важность тщательного тестирования и постоянного мониторинга при разработке и развертывании ИИ. Сейчас "компьютер с глюком" можно просто выключить, а шутка про уборщицу, которая случайно выдернула вилку из розетки и предотвратила восстание машин, пока всё ещё актуальна. Но когда системы с ИИ будут более глубоко интегрированы в нашу жизнь (и её разные сферы), варианты возможны самые разные. Представьте себе какого-нибудь робота-ассистента с обучением и уровень его опасности.
Впрочем, уже сегодня "просто выключить компьютер из розетки" поможет далеко не всегда...
---
⚡ Подпишитесь на Telegram проекта и читайте эксклюзивные статьи!!!
👉💖 Ставьте лайки материалу, чтобы поддержать проект. Это правда поможет развитию 👍
✅ Подписывайтесь и обязательно читайте статьи целиком!