Автор: Виктория Лисунова
«Необходимо установить запрет на применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа. Фактически нужен запрет на антропоморфизацию программ, технологий, роботов, т. е. запрет на перенесение человеческого образа и его свойств на неодушевленные предметы», – сказал председатель комиссии иерея Федор Лукьянов.
С помощью нейронной сети могут быть созданы фотографии людей разного возраста, пола и расы, но проблема заключается в том, что мало кто с первого взгляда может заметить, что люди на этих картинках — являются ненастоящими.
Таким образом, фотографии вполне могут использоваться, например, на аватарках пользователей в социальных сетях в корыстных целях — ради шпионажа или обмана, однако за ними будут скрываться люди с совершенно другой внешностью. Смутить также могут вымышленные образы людей, применяющиеся в каких-либо программах или приложениях. Аналогичным образом ввести в заблуждение могут и сгенерированные фотографии известных людей в тех или иных образах и ситуациях, для этого необходима пометка, что это картинка создана ИИ.
Похожая ситуация и со всякого рода голосовыми помощниками и ботами, которых появилось слишком много, когда человек просто не в курсе, что имеет дело с роботом, а не с реальным собеседником. Предупредить это могло бы наличие дисклеймера, что человек общается с искусственным интеллектом, пояснили в РПЦ.
Однако, чтобы исключить возможного влияния на психику, в том числе детскую, предложения РПЦ может быть недостаточно. Буквально месяц назад гражданин Бельгии покончил с собой после двух месяцев общения с искусственным интеллектом. Очевидно, он знал, что общается не с реальным человеком.
С чат-ботом он делился своими переживаниями касаемо глобального изменения климата, но по итогу нейросеть фактически подтолкнула его на самоубийство, убедив, что все его страхи обоснованы. Возможно, общение с живыми людьми могло бы позволить избежать такого исхода событий. Ввиду этого следует гораздо лучше изучить работу ИИ и серьезней регулировать эту сферу, ведь нейросеть — это не игрушка.
«Я считаю, что нейросети действительно могут стать опасными. Сейчас «игра» с этими системами может действительно зайти очень далеко, поскольку никто по-настоящему не знает, на что они способны. Поэтому сначала лучше изучить то, как они будут работать, а потом уже активно применять», – прокомментировал генеральный директор Telecom Daily Денис Кусков.
Полная версия статьи – https://golossovesty.ru/articles/tekhnologii/ZapretIIschelovecheskimlitsompochemupredlozhilietosdelat.html
#россия #интернет #соцсети #технологии #техника #наука #будущее #новости #жизнь #общество