Надо запретить программному обеспечению выдавать себя за людей.
Нам необходимо предпринять шаги, чтобы компьютерные системы, которые принято называть искусственным интеллектом, не имитировали поведение живых и мыслящих существ. Вместо этого они должны использовать ясные и честные сигналы, чтобы идентифицировать себя как сложные статистические модели, чем они и являются.
Если мы этого не сделаем, эти системы будут систематически обманывать миллиарды людей, служа скрытым и корыстным интересам. Эстетически и нравственно мы не можем позволить, чтобы машины имитировали живое существо.
То, что началось как интересная новинка, теперь превратилось в систематический обман. Появление больших языковых моделей привело к появлению механизмов, способных генерировать правдоподобные ответы на любой вопрос. Хотя такие модели могут быть полезны, механически воспроизводимый естественный язык, неотличимый от человеческого дискурса, также представляет серьезную опасность, аналогично генеративным мультимедийным системам и алгоритмическому принятию решений.
Эти системы уже представляются за людей или ошибочно принимаются за них, и, хотя это происходит не в широком масштабе, опасность становится все более заметной и реальной. Организации, обладающие ресурсами для создания таких моделей, целенаправленно работают над тем, чтобы они стали достаточно убедительными, чтобы люди принимали их за людей.
Подобно тому, как мало кто проверяет факты в статье или дезинформации, мало кто будет опрашивать своих собеседников на предмет их человечности. Такие компании рассчитывают на это и намерены злоупотреблять этим. Глубоко укоренившееся заблуждение о том, что системы ИИ аналогичны реальным людям с мыслями и чувствами, станет неизбежным, если мы не примем меры для предотвращения этого.
Речь идет не только об опасениях по поводу интеллекта общего назначения, потери рабочих мест и других конкретных проблем. Мы не можем позволить, чтобы человек стал лишь средством для своих технологий, чтобы искусственный интеллект манипулировал нами.
Важно провозгласить все псевдо-человеческие действия вне закона и требовать честных сигналов о происхождении компьютерной системы, участвующей в конкретном взаимодействии, принимающей конкретное решение или создавшей определенное медиа-содержание как созданное искусственным интеллектом.
Конечно, нет надежды, что кто-то будет соблюдать эти требования добровольно. Даже если бы они были законодательно зафиксированы, это не помешает злоумышленникам игнорировать их.
Если мы не примем такие правила, миллиарды людей будут подвергать себя псевдо-человеческим взаимодействиям, которые они могли бы по-другому воспринять и реагировать, если бы знали, что за ними стоит машина. Все, что касается ИИ, должно быть ясно и честно, не только для специалистов, но и для обычных людей.
Системы ИИ должны четко оповещать о своей природе и воздерживаться от обмана. Вот несколько идей, как этого можно достичь.
1. ИИ должен выражать мысли в рифмованном виде
Существует множество научных исследований, направленных на выявление текста, созданного искусственным интеллектом. Пока результаты этих исследований неудовлетворительны, и ожидается, что конкуренция в этой области будет продолжаться бесконечно.
Но есть простое решение этой проблемы: весь текст, созданный языковыми моделями, должен сохранять смысл, но при этом иметь уникальные характеристики, которые сможет распознать каждый. Например, если весь текст, сгенерированный ИИ, будет автоматически рифмоваться.
Рифма возможна на большинстве языков, она наглядна и доступна людям всех уровней грамотности. Конечно, некоторые рифмы могут показаться неестественными, но пока фрагмент имеет рифмованную форму, это будет достаточным сигналом. Цель заключается не в украшении текста, а в том, чтобы сделать понятным, что данный фрагмент создан искусственным интеллектом.
Разумеется, всегда будут и фальсификации, и теневой рынок, и модели без ограничений. Нельзя быть полностью уверенным, что кусок текста не сгенерирован. Однако это не умаляет важности наличия универсального и утвердительного сигнала о том, что текст создан искусственным интеллектом. После этого у человека будет выбор, как реагировать на такой текст.
Если у вас есть решение, так же практичное, но менее причудливое, чем использование рифмы, пожалуйста, поделитесь им в комментариях к данной статье.
2. ИИ не должен отображать человеческое лицо
Нет особой необходимости в том, чтобы интеллектуальная модель имела человеческое лицо или какой-либо другой аспект человеческой индивидуальности. Системы искусственного интеллекта представляют собой программное обеспечение, а не организмы, и должны быть воспринимаемы именно так. Там, где есть необходимость в их взаимодействии с реальным миром, существуют другие способы выражения внимания и намерений, кроме симуляции псевдо-человеческого облика.
Искусственный интеллект также не должен обладать национальной принадлежностью, личностью, занятием или идентичностью. Таким образом, хотя модель может быть обучена на японских источниках и свободно говорить по-японски, она не может претендовать на статус японки. Даже если все данные для её обучения принадлежат представителям женского пола, это не делает модель женственной.
Следовательно, поскольку системы искусственного интеллекта не имеют пола и не связаны с определенной культурой, к ним следует обращаться не с использованием человеческих местоимений, таких как "он" или "она", а как к объектам или системам: "оно" и "они".
Искусственный интеллект не должен претендовать на то, чтобы быть вымышленным лицом, например, именем, придуманным для авторства статьи или книги. Такие имена предназначены исключительно для идентификации человека, стоящего за произведением, и поэтому их использование является искусственным и вводящим в заблуждение. Если модель искусственного интеллекта создала значительную часть контента, она должна быть явно обозначена.
Достижение согласия и этики в области искусственного интеллекта является очень сложной задачей. Опасения вызывает тот факт, что даже самые толерантные и оптимистично настроенные люди могут получить поводы для беспокойства в ближайшие годы. Это связано не только с использованием облика всемирно известных личностей, но и с тем, что политики, коллеги и даже близкие лица могут быть непреднамеренно или злонамеренно воспроизведены. Решения в социально-политической сфере относительно использования искусственного интеллекта должны развиваться вместе с технологиями и культурой.
3. ИИ не может «чувствовать» или «думать»
Использование эмоционального или субъективного языка в контексте искусственного интеллекта не имеет подлинного смысла. Программное обеспечение не способно испытывать сожаления, страх, тревогу или радость. Такие выражения используются лишь потому, что, согласно статистической модели, они являются типичными для человеческой речи, и их употребление не передает внутренних состояний или стремлений. Эти искусственные и вводящие в заблуждение фразы не несут никакой объективной ценности, а скорее служат лишь для создания впечатления, будто интерфейс воплощает или является человеком.
Следовательно, системы искусственного интеллекта не могут утверждать, что "чувствуют" или выражают привязанность, симпатию или разочарование по отношению к пользователю или какому-либо субъекту. Система сама по себе ничего не чувствует, а лишь выбирает ряд слов, основываясь на частоте подобных последовательностей в своих обучающих данных. Несмотря на окончательность механических диад типа "Я люблю тебя/Я тоже тебя люблю" в различных литературных произведениях, наивные пользователи могут принимать аналогичный обмен с языковой моделью за искренний результат а не за всего лишь автоматическое заполнение.
Язык мысли, осознания и рассуждения также не подходит для машинного обучения. Люди используют такие фразы, как "Я думаю", чтобы выразить динамические внутренние процессы, характерные для разумных существ.
Языковые модели и в целом искусственный интеллект обусловлены своей детерминированной природой: они представляют собой сложные вычислительные устройства, генерирующие одинаковый результат для каждого ввода. Такое механистическое поведение может быть исключено путем добавления случайных параметров или каким-либо иным образом создания разнообразия в выходных результатах, но это не следует путать с каким-либо реальным мышлением. Они не "размышляют" больше, чем обычный калькулятор. Математика языковых моделей всего лишь более сложна по сравнению с калькулятором.
В итоге, системы не должны имитировать язык внутреннего диалога или язык образования и выражения мнения. В последнем случае языковые модели просто отражают статистическое представление мнений, присутствующих в их обучающих данных, что является вопросом воспроизведения, а не выражением позиции.
Очевидно, что два вышеупомянутых запрета прямо противоречат популярному варианту использования языковых моделей, обучаемых и стимулируемых подражать определенным категориям людей, от вымышленных персонажей до терапевтов и заботливых партнеров. Этот феномен требует многих лет изучения, но, возможно, здесь стоит сказать, что одиночество и изоляция, с которыми сталкиваются многие в наши дни, заслуживают более лучшего решения, чем стохастическое подражание, подконтрольное капиталистическому надзору. Потребность в общении реальна и обоснована, однако искусственный интеллект — это пустота, не способная её заполнить.
4. Цифры, решения и ответы, полученные с помощью ИИ, должны быть отмечены⸫
Модели искусственного интеллекта все чаще применяются как промежуточные элементы в программном обеспечении, межсервисных рабочих процессах и даже в других моделях искусственного интеллекта. Со временем эти функции искусственного интеллекта будут встроены во многие мощные программные приложения. Это, вероятно, улучшит надежность и качество принимаемых решений. Однако это также приведет к увеличению уровня непрозрачности, которая уже проявляется каждый раз, когда модель предоставляет ответ, число или двоичное решение.
Далее мы столкнемся с тем, что используемые нами модели станут более сложными и менее прозрачными, а результаты, основанные на них, будут использоваться в контекстах, где ранее использовались оценки человека или расчеты в электронных таблицах. Насколько можно и нужно ли доверять этим результатам, – это вопрос, который следует адресовать экспертам в тех областях, где эти модели будут использоваться. Важно также четко указывать, что в алгоритме или модели использовались функции искусственного интеллекта.
Для этого к окончательному результату следует добавить легко узнаваемый символ, который в других случаях мало используется, например, вот такой: ⸫.
5. ИИ не должен принимать решения о жизни и смерти
Только человек способен взвесить решения, которые могут принести другому человеку жизнь или смерть. После того как принимаемое решение попадает в категорию "жизнь или смерть", искусственный интеллект должен быть исключен из процесса принятия этого решения или каких-либо попыток влияния.
Конечно, ИИ по-прежнему может предоставлять информацию людям, которые действительно принимают такие решения. Например, модель искусственного интеллекта может помочь рентгенологу определить правильный контур опухоли и предоставить статистическую вероятность эффективности различных методов лечения. Однако решение о лечении пациента должно оставаться за врачом.
Также в случае смертоносных боевых машин, таких как дроны-бомбардировщики или автономные турели, искусственный интеллект может отслеживать, идентифицировать, классифицировать и т.д., но всегда принятие решения о нажатии спускового крючка должно оставаться за человеком.
Любая модель искусственного интеллекта, которая определяет, что ее действия могут привести к серьезному вреду или гибели людей, должна остановиться, объяснить причину своего прекращения и ожидать вмешательства человека, а в крайнем случае должна иметь алгоритм для своего отключения.
6. У изображений, созданных ИИ, должен быть обрезан угол.
Как и в случае с текстом, модели генерации изображений создают контент, который изначально трудно отличить от результатов деятельности человека.
По мере улучшения качества изображений эта проблема станет еще более острой. Поэтому важно, чтобы все изображения, созданные с помощью искусственного интеллекта, имели уникальные и легко опознаваемые характеристики. Одним из вариантов может быть добавление углового обреза, как показано на представленном выше изображении.
Хотя злоумышленники всегда могут пытаться обойти эти меры, нам главным образом необходимо сосредоточиться на том, чтобы незлонамеренные изображения могли быть идентифицированы кем угодно в любом контексте.
Метаданные могут быть удалены; водяные знаки могут быть утеряны из-за артефактов; форматы файлов могут изменяться. Однако простая, но заметная и постоянная визуальная особенность может оказаться наилучшим решением. Угол, обрезанный под 45 градусов, будет заметен и понятен независимо от того, помечено ли изображение как сгенерированное искусственным интеллектом, сохранено ли оно в формате PNG или JPG или имеет какое-либо другое временное качество.