105 подписчиков
Брызгалина Елена Владимировна
“Дала комментарий в прямом эфире радиостанции Вести ФМ по поводу рисков развития ИИ. Инфоповод: Бельгиец, обсуждавший вопросы защиты окружающей среды с искусственным интеллектом, покончил с собой после того, как виртуальный собеседник фактически подтолкнул его к самоубийству.
Осенью 2021 года с принятием Кодекса этики ИИ Россия одной из первых в мире стран сформулировала пять рисков и угроз, которые сопровождают внедрение "цифры" в жизнь, - дискриминация, потеря приватности, потеря контроля над ИИ, причинение вреда человеку ошибками алгоритма, применение ИИ в неприемлемых целях. Люди никогда в истории не имели опыта общения с человекоподобными роботами, имитирующими выражение чувств, не имели дело с массовой имитацией облика и голоса человека техническими устройствами. У живого человека могут возникнуть разные чувства: у кого- то ложные чувства адекватной замены ИИ традиционным социальным связям и эмоциональному обмену внутри человеческого социума, уже сейчас есть люди, которым комфортнее общаться с чат-ботами, чем с живыми собеседниками. У кого-то общение с антропоморфными системами приведет к депрессии и чувству одиночества: вокруг меня бездушная техника. Трудности в отличении ИИ от человека способны запустить опасный и непредсказуемый процесс: с кем вы общаетесь – с человеком или технической системой?
Важно найти решение дилеммы Коллингриджа: С одной стороны, регулирование технологий возможно на этапе ее становления, когда ее распространенность ограничена, но при этом влияние использования технологии на социальные, политические, экономические процессы и ее последствия не проявлены в должной степени. С другой стороны, укоренненность технологий в общественной жизни, ее достаточное развитие дает четкое проявление последствий, в том числе нежелательных и непредвиденных, но это фиксируется тогда, когда резко возрастают риски потери контроля над применением технологии.”
Да риски есть, но не более чем всегда, а вы что думаете?
Переходите в чат, давайте обсудим!
1 минута
30 марта 2023