Найти в Дзене

Наводя порядок в браузере после очередной рабочей недели обнаружил интересную вкладку с новостью «Евросоюз запретил распознавание эмоций с

Наводя порядок в браузере после очередной рабочей недели обнаружил интересную вкладку с новостью «Евросоюз запретил распознавание эмоций с помощью нейросетей» Считают это «неприемлемыми ИИ-технологиями». В статье ссылаются на риски государственного уровня и собирается штрафовать компании на 36кк$ или 7% от оборота. Как считаете, действительно это непремелемо? Наверно, если автоматизировать принятие решений на основе распознанных эмоций - это действительно звучит диковато. Хотя об этом был какой-то эпизод Черного зеркала. С другой стороны: а если это: - делается без коммерческой выгоды? - делает человек? - делается для обеспечение безопасности общества (например выявления психически неуравновещенных людей или планирующих теракты) - делается для безопасности людей (Распознавание суицидников в местах, где часто происходят самоубийства типа мостов, железных дорог и т.д.) Причем не надо принимать решения - надо обратить внимание сотрудников и сделать запись для будущего анализа. Но вот е

Наводя порядок в браузере после очередной рабочей недели обнаружил интересную вкладку с новостью «Евросоюз запретил распознавание эмоций с помощью нейросетей»

Считают это «неприемлемыми ИИ-технологиями». В статье ссылаются на риски государственного уровня и собирается штрафовать компании на 36кк$ или 7% от оборота.

Как считаете, действительно это непремелемо? Наверно, если автоматизировать принятие решений на основе распознанных эмоций - это действительно звучит диковато. Хотя об этом был какой-то эпизод Черного зеркала.

С другой стороны: а если это:

- делается без коммерческой выгоды?

- делает человек?

- делается для обеспечение безопасности общества (например выявления психически неуравновещенных людей или планирующих теракты)

- делается для безопасности людей (Распознавание суицидников в местах, где часто происходят самоубийства типа мостов, железных дорог и т.д.)

Причем не надо принимать решения - надо обратить внимание сотрудников и сделать запись для будущего анализа.

Но вот если такая база утечет…..

Итого вопрос: как считаете, оправдано ли действие, описанное в статье? Можете сами привести примеры, где использование ИИ неприемлемо? Что в образовании с этим вопросом?

UPD: В следующем посте показал создание иллюстрации для этого сообщения - алгоритм и разные результаты.