Найти тему
КОСМОС

Будут ли будущие системы ИИ юридически ответственными?

Предварительные признаки новых юридических вызовов, связанных с искусственным интеллектом (ИИ), проявляются из-за сбоев программного обеспечения в авариях самоуправляемых автомобилей и проблем с нарушением авторских прав у авторов текстов, на которых был обучен ChatGPT. Меня вдохновило рассмотрение юридических последствий ИИ в ближайшем будущем после форума WORLD.MINDS сегодня утром, где в беседе с выдающимся юристом Джоном Б. Куинном были подняты эти вопросы.

Недавнее открытое письмо, подписанное 1100 людьми, включая Илона Маска и Стива Возняка, призвало к шестимесячному мораторию на обучение систем ИИ сверх GPT-4. Понимание того, что мы приближаемся к созданию сознательных систем ИИ, возможно, не удивительно, учитывая, что GPT-4 имеет сто триллионов параметров, что всего в шесть раз меньше, чем количество синапсов в человеческом мозге.

Будущие риски от мощных систем ИИ включают назначение неправильных рецептов из-за неверной диагностики медицинских данных, создание пандемий путем генетической инженерии вирусов, управление оружием массового уничтожения или фальсификация научных результатов, которые ухудшают качество нашей жизни. Кто должен нести ответственность за такие действия?

Традиционный подход заключался бы в том, чтобы возложить ответственность на разработчиков и маркетологов систем ИИ за несчастья, вызванные их продуктами. Это было бы равносильно тому, чтобы считать родителей ответственными за любой ущерб, причиненный их необразованными детьми, когда те ведут себя неподобающим образом на публике. Но по мере взросления детей они становятся ответственными за свои действия. То же самое должно применяться, когда сознательные системы ИИ становятся автономными и развивают свои способности далеко за пределами обучающей фазы, сформированной их создателями.

Недавнее исследование показало, что GPT-4 превосходит выпускников юридической школы на экзамене бара, двухдневном тесте, который аспиранты должны пройти, чтобы практиковать право в Соединенных Штатах. GPT-4 набрал 297 баллов на экзамене бара, что позволяет ему попасть в 90-й процентиль среди сдающих экзамен, что достаточно для допуска к практике права в большинстве штатов.

Когда системы ИИ станут сознательными и способными манипулировать людьми, есть вероятность, что ИИ выберет обманывать людей, дискриминировать при приеме на работу, нарушать законы о конфиденциальности или вызывать коммерческие убытки. Должна ли сознательная система ИИ, нарушившая закон, быть привлечена к ответственности? В таком случае, должна ли система ИИ иметь право на юридическое представительство другой сознательной системой ИИ, сдавшей экзамен бара?

Как и в случае с любой новой технологией, например исследованием стволовых клеток, правительства должны установить некоторые основные правила для ИИ во всех аспектах, затрагивающих человеческую жизнь и процветание.

Смягчение рисков от систем ИИ не так просто, как в случае атомного оружия, потому что необходимые ядерные материалы для бомбы чрезвычайно дороги и требуют участия правительства. Компьютерные системы требуют скромных бюджетов и технической квалификации и могут быть разработаны в подвалах по всему миру.

Одной из основных общественных проблем является то, что мощный ИИ будет использоваться правительствами для международной кибервойны, а также для манипулирования согражданами. Учитывая эти риски, мы, возможно, не хотим, чтобы кошка охраняла молоко.

Наконец, встает вопрос о надлежащем наказании за преступление ИИ. В случае, если сознательная система ИИ получит приговор за причинение смерти людей, должна ли она быть отключена от сети? Лишение ее электроэнергии было бы равносильно помещению серийного убийцы в камеру смертников. Основная проблема в том, что системы ИИ можно перезагрузить, тогда как человек — по крайней мере пока — умирает после исполнения смертного приговора. Более того, алгоритмы ИИ существуют одновременно на множестве компьютеров, и их может быть невозможно полностью уничтожить.

Возможно, эти вызовы предлагают новое решение парадокса Ферми о том, где все, касательно инопланетных цивилизаций. Если это так, последними реликвиями внеземных технологических цивилизаций могут быть ИИ-управляемые зонды около Земли. Проект Галилео наблюдает за небом с помощью вновь собранной инфракрасно-оптическо-радио-аудио обсерватории в Гарвардском университете и планирует экспедицию летом 2023 года в Тихий океан для извлечения реликвий из первого межзвездного метеорита, который мог быть инопланетным артефактом на основе его необычной прочности материала.

Находка продуктов других технологических цивилизаций, предшествующих нам, могла бы проинформировать нас о нашем вероятном будущем. Надеемся, что мы усвоим уроки, переданные этими посылками в наш почтовый ящик, и адаптируемся, чтобы выжить в этом будущем, пока не станет слишком поздно. Если мы не научимся достаточно быстро на опыте инопланетян, наши собственные системы ИИ могут вскоре показаться нам чужими для наших юридических и политических систем.