Проблемные аспекты внедрения искусственного интеллекта в уголовное судопроизводство
Технологии искусственного интеллекта (ИИ) все более интегрируются в нашу повседневность. Они перестали быть частью научной фантастики и стали неотъемлемой частью государственного управления, правоприменения, техники и культуры. Цифровизация различных областей человеческой деятельности стала неизбежной по множеству причин. Это следствие прогресса в науке и технике, а также естественного перехода общества и государства к новой ориентации. Все чаще люди поддерживают цифровизацию, и у этой позиции есть множество обоснованных аргументов. Подобные изменения коснулись также уголовного процесса.
Актуальность данной темы исследования выражена активным развитием новых технологией и их внедрением в большинство сфер деятельности человека, в том числе, и в правовую.
Проблематика заключается в корректном использования, вышеуказанных технологий, в их целесообразности, а также существующих недоработках, которые смогут привести к негативным последствиям.
Определение искусственного интеллекта в Концепции развития искусственного интеллекта в Российской Федерации, изложенное в Указе Президента РФ от 10.10.2019 N 490, описывает его как комплекс технологических решений, способных имитировать когнитивные функции человека, включая самообучение и поиск решений без заранее заданного алгоритма, и получать при выполнении задач результаты, сравнимые, как минимум, с интеллектуальной деятельностью человека. Стратегия развития искусственного интеллекта на период до 2030 года дает нам понять, что Российская Федерация стремится внедрить компьютерные системы во всех сферах общества.
Последние прогнозы о внедрении искусственного интеллекта, достигшие своего пика из-за популяризации бота ChatGPT, привели к проведению исследований, посвященных эффективности использования искусственного интеллекта в судебной и уголовной практике. Однако оказалось, что преимущества искусственного интеллекта в криминалистике не так очевидны. Небезопасное внедрение искусственного интеллекта в сферу правосудия может вызвать серьезные проблемы и привести к возникновению новых, труднообнаружимых ошибок. Чтобы понять причины возникновения таких ошибок, необходимо обратить внимание на них уже сейчас, до масштабного внедрения искусственного интеллекта. Эти новые риски не связаны непосредственно с алгоритмами искусственного интеллекта или качеством обучения моделей искусственного интеллекта. Эксперты в области информационных технологий считают, что главное - построение эффективных систем. Однако результаты исследований показывают, что главные новые ошибки делает человек, который всё равно остаётся ключевым участником процесса расследования. В отличие от моделей искусственного интеллекта, человек получает образование через социализацию, которая подвержена влиянию его психологических особенностей. Новые риски настолько важны, что многие разработчики уже приостановили внедрение своих моделей искусственного интеллекта в криминалистическую практику, продолжая искать более эффективные способы взаимодействия между человеком и машиной. Кроме того, законодатели препятствуют внедрению новых разработок искусственного интеллекта из-за опасений нецелевого использования искусственного интеллекта и утечки технологий в криминальную сферу.
По мнению В.В. Момотова, искусственный интеллект не может и не должен вершить правосудие, так как система искусственного интеллекта неспособна проникнуть в глубину человеческой психики и оценивать обстоятельства дела с точки зрения не только формальной логики, но и эмоционального фактора. Он считает, что морально-этические нормы общества и эмпатия играют важную роль в уголовном судопроизводстве, и искусственный интеллект, лишенный этих характеристик, не сможет принять решение, учитывая все аспекты дела. Относительно данной позиции можно прийти к мнению о важности психики человека в уголовном судопроизводстве, поскольку при вынесении решения судья должен не только следовать букве закона, но и рассматривать обвиняемого как личность, опираясь на морально-этические нормы общества.
Действительно, данная составляющая может привести к повторному пересмотру решения искусственного интеллекта человеком, что не упростит и не разгрузит уголовные суды, а наоборот, создаст им дополнительную нагрузку. Например, в п. д, ч. 1 ст. 61 Уголовного Кодекса РФ содержится обстоятельство, смягчающее наказание «совершение преступления в силу стечения тяжелых жизненных обстоятельств либо по мотиву сострадания», машина не cможет принять эти сведения во внимание, так как не обладает эмпатией. Вместе с тем, автор признает, что вопрос о возможности создания искусственных систем, обладающих самосознанием и способных к рефлексии, требует дальнейшей теоретической разработки.
Также стоит отметить разработку искусственного интеллекта (ИИ), способного создавать портреты людей на основе их описания. В декабре 2022 года двое португальских разработчиков, Artur Fortunato и Filipe Reynaud, участвовали в хакатоне, посвященном ИИ. Они представили прототип программы для художника-криминалиста, которая на основе введенных описаний создавала эскиз портрета. Идея была высоко оценена среди криминалистов, так как программа могла стать полезным инструментом в поиске подозреваемых на основе показаний свидетелей во время расследования. На данный момент стандартным методом для этой цели все еще является использование бумаги и карандаша в руках художника-криминалиста. Более продвинутый подход включает графическую программу и набор слайдов, где свидетелям задают вопросы о внешности нарушителя, а художник подбирает подходящие элементы и создает фотопортрет на основе отдельных деталей лица. Однако авторы программы в последующем интервью изданию Motherboard заявили, что полноценное внедрение Forensic Sketch AI-rtist откладывается по причинам, не связанным с техническими аспектами, несмотря на полную готовность программы.
По словам Дженнифер Линч, директора по судебно-правовым вопросам компании Electronic Frontier Foundation, основным вызовом при использовании ИИ для создания фотороботов является учет особенностей человеческой памяти. По мнению эксперта, память подвержена определенным предубеждениям и имеет свои слабости. "ИИ не может решить проблемы, связанные с особенностями человеческой психологии, а предложенная программа Forensic Sketch AI-rtist, скорее всего, только усугубит эти проблемы". Внедрение данной технологии также вызвало этические споры.
Создание фотореалистичных изображений ошибочно с помощью искусственного интеллекта уже не в первый раз становится известным. Например, в осеннем случае 2022 года полиция Эдмонтона опубликовала фоторобот подозреваемого в сексуальном преступлении, используя ДНК-тест из базы данных. Полиция рассматривает этот метод как достаточно надежный и поэтому публично распространила фотографию подозреваемого.
В заключение, искусственный интеллект бесспорно полезный и эффективный инструмент, который может упростить и ускорить различные процессы. Его преимущества включают скорость, возможность работы с большими базами данных и отсутствие ошибок (в будущем). Однако, в настоящее время он все еще является "сырым" и его использование может вызвать серьезные проблемы. ИИ должен быть введен очень осторожно и под полным контролем человека, особенно в правовой сфере, где принимаются решения, связанные с дальнейшей судьбой людей. По нашему мнению, ИИ является полезным инструментом в руках человека, позволяющим ему выполнять работу быстрее, проще и качественнее, но никогда не может заменить человека. Кроме того, необходимо иметь нормативную базу, которая регулирует, по крайней мере, деятельность ИИ, а также устанавливает ответственность в случае ошибки.