Найти тему
Герман Геншин

Что такое регулирование ИИ? Кто должен регулировать ИИ?

Оглавление

Общественность по-разному относится к ИИ: одни считают, что машины полностью заменят человека, другие утверждают, что ИИ — это причуда. Однако все сходятся в одном: ИИ нуждается в более строгом контроле.

Несмотря на важность регулирования ИИ, оно отходит на второй план по сравнению с обучением. Разработчики настолько одержимы идеей создания следующей крупнейшей модели ИИ, что променяли кибербезопасность на быстрое развитие. Вопрос не в том, нужно ли регулировать ИИ, а в том, какой орган управления, обладающий достаточным финансированием, кадровыми ресурсами и технологическим потенциалом, возьмет на себя эту инициативу.

Итак, кто должен регулировать ИИ?

В этой статье:

Государственные органы

-2

Различные люди, от потребителей до лидеров технологического сектора, надеются, что регулированием ИИ займется государство. Финансируемые государством учреждения обладают необходимыми для этого ресурсами. Даже Элон Маск и Сэм Альтман, два основных участника гонки ИИ, считают, что некоторые проблемы конфиденциальности, связанные с ИИ, слишком опасны, чтобы органы управления могли их игнорировать.

Государство должно сосредоточиться на защите частной жизни и гражданских свобод своих избирателей, если оно возьмет на себя регулирование ИИ. Киберпреступники продолжают находить способы использования систем искусственного интеллекта в своих схемах. Люди, не разбирающиеся в искусственном интеллекте, могут быть легко обмануты синтезированными голосами, поддельными видеороликами и профилями ботов в Интернете.

Однако одна из основных проблем, связанных с государственным регулированием ИИ, заключается в том, что оно может непроизвольно затормозить инновации. ИИ — сложная, развивающаяся технология. Если чиновники, контролирующие внедрение, разработку и обучение, не понимают, как работает ИИ, они могут принимать преждевременные и неэффективные решения.

Разработчики ИИ, технологические компании и лаборатории

-3

Учитывая потенциальные препятствия, которые могут возникнуть в результате государственного контроля над ИИ, многие предпочитают, чтобы регулированием занимались технологические компании. По их мнению, разработчики должны нести ответственность за выпускаемые ими технологии. Саморегулирование позволит им стимулировать инновации и сосредоточиться на эффективном развитии этих систем.

Кроме того, глубокое понимание искусственного интеллекта поможет им принимать справедливые и обоснованные решения, в которых приоритет отдается безопасности пользователей без ущерба для функциональности. Как и в случае с любой другой технологией, отраслевой опыт позволяет оптимизировать контроль. Если поручить неподготовленным чиновникам регулировать технологии, в которых они почти не разбираются, то это может принести больше проблем, чем пользы.

В качестве примера можно привести слушания в Сенате США 2018 года, посвященные законам о конфиденциальности данных Facebook. В этом докладе The Washington Post можно увидеть, что многие законодатели не знают основных функций Facebook. Поэтому, если Сенат США не создаст отдельный департамент, состоящий из специалистов по технологиям, они, скорее всего, не будут иметь достаточной квалификации для регулирования такой передовой и постоянно меняющейся системы, как искусственный интеллект.

Однако главная проблема саморегулирования технологических компаний заключается в том, что теневые корпорации могут злоупотреблять своей властью. В отсутствие вмешательства третьей стороны они могут делать все, что им заблагорассудится.

Конечные пользователи

-4

Некоторые опасаются, что государственные и частные структуры будут злоупотреблять системами искусственного интеллекта. Они не уверены в том, что несколько руководящих органов получат полный контроль над столь мощными технологиями, тем более что ИИ продолжает развиваться. В итоге они могут начать борьбу за полномочия, а не работать над эффективным регулированием.

Чтобы снизить эти риски, скептики считают, что конечные пользователи должны иметь право свободно использовать модели ИИ по своему усмотрению. По их мнению, государственные органы должны вмешиваться только тогда, когда пользователи ИИ нарушают закон. Это амбициозная цель, но она технически может быть достигнута, если разработчики ИИ с открытым исходным кодом будут доминировать на рынке.

Тем не менее, такая установка ставит в невыгодное положение людей, не обладающих техническими знаниями. Пользователи сами устанавливают ограничения в своих системах, но, к сожалению, не у всех есть для этого ресурсы.

Убирать с рынка проприетарные модели также недальновидно. Распространение моделей ИИ с открытым исходным кодом имеет ряд положительных и отрицательных последствий; для некоторых минусы перевешивают плюсы.

Другие организации, играющие роль в регулировании ИИ

Несмотря на то что регулирование ИИ будет осуществляться крупными организациями, есть и другие структуры, играющие важную роль:

-5

Средства массовой информации играют важнейшую роль в формировании общественного мнения об ИИ. Они сообщают о развитии отрасли, рассказывают о новых инструментах, привлекают внимание к вредному использованию ИИ и берут интервью у экспертов по соответствующим проблемам.

Большинство фактов, которые конечные пользователи знают об ИИ, в основном поступают из СМИ. Публикация ложных данных, будь то намеренно или нет, нанесет непоправимый ущерб — нельзя недооценивать скорость распространения дезинформации.

Несколько некоммерческих организаций занимаются защитой частной жизни и гражданских свобод пользователей ИИ. Они просвещают общественность с помощью бесплатных ресурсов, выступают за новую политику, сотрудничают с государственными чиновниками и высказывают свои опасения.

Единственная проблема НКО заключается в том, что они обычно испытывают нехватку ресурсов. Поскольку они не связаны с государством, то в своей повседневной деятельности полагаются на частные просьбы и пожертвования. К сожалению, лишь немногие организации получают достаточное финансирование.

Ассоциации технологической отрасли, ориентированные на ИИ, могут представлять права и интересы общества. Как и НКО, они работают с законодателями, представляют интересы заинтересованных лиц, выступают за справедливую политику и привлекают внимание к конкретным проблемам.

Однако разница заключается в том, что они часто связаны с частными компаниями. Их члены по-прежнему занимаются привлечением клиентов, но, как правило, они получают достаточное финансирование от своих головных организаций при условии, что они добиваются результатов.

-6

Хотя ИИ сопряжен с рядом рисков, по своей сути он нейтрален. Все предубеждения, проблемы с конфиденциальностью, ошибки в системе безопасности и потенциальные киберпреступления исходят от человека, поэтому сам по себе ИИ не вызывает опасений.

Однако мало кто уже понимает, как работают современные модели ИИ. Ошибочные представления искажают восприятие ИИ людьми, увековечивая необоснованные страхи, например, что ИИ захватит человечество или украдет рабочие места.

Академические институты могли бы восполнить эти пробелы в образовании за счет доступных ресурсов. Пока еще не так много научных работ, посвященных современным LLM и NLP-системам. Общественность сможет более ответственно использовать ИИ и бороться с киберпреступлениями, если будет полностью понимать, как он работает

Правоохранительным органам следует ожидать увеличения числа кибератак с использованием ИИ. С распространением генеративных моделей мошенники могут быстро синтезировать голоса, генерировать поддельные изображения, выуживать персональную информацию (PII) и даже создавать совершенно новые личности.

Большинство агентств не приспособлены для борьбы с такими преступлениями. Они должны инвестировать в новые системы и обучать своих сотрудников современным киберпреступлениям, иначе им будет сложно поймать этих мошенников.

Будущее регулирования ИИ

Учитывая быстрое развитие ИИ, вряд ли его сможет контролировать один управляющий орган. Да, технологические лидеры будут обладать большей властью, чем потребители, но различные организации должны сотрудничать, чтобы управлять рисками ИИ, не препятствуя прогрессу. Лучше всего установить меры контроля уже сейчас, пока искусственный интеллект общего назначения (ИОН) еще является далекой целью.

При этом регулирование ИИ столь же отдаленно, как и AGI. Пока же пользователи должны соблюдать правила безопасности, чтобы противостоять угрозам, создаваемым ИИ. Такие полезные привычки, как ограничение круга лиц, с которыми вы общаетесь в Интернете, и обеспечение безопасности вашей цифровой информации, уже помогают в этом.

По новым правилам Дзена свежие материалы показываются в первую очередь подписчикам, которые реагируют на публикации. Поэтому не забывайте подписаться, поставить лайк и оставить комментарий, так вы будете первым узнавать о всех новых статьях на нашем канале!