Компания Apple внедрила новую функцию в приложении «Фото» поиск по содержанию. Я часто пользуюсь этой штукой. Вот к примеру, люблю машины, могу найти фото автомобилей.
Система работает очень хорошо (но у Google как по мне лучше: там даже выдает видео, где кто-то произнёс слово «машина»). Однако прогресс не стоит на месте и Apple усовершенствуют эту функцию. Если верить профессору криптографии из Университета Джона Хопкинса Мэттью Грину, следующий этап — запуск системы обнаружения CSAM. Эта аббревиатура расшифровывается как Child Sexual Abuse Material, то есть ИИ, разработанный Apple, будет искать детскую порнографию и другие моменты сексуального насилия над детьми.
Точно так же, как этот инструмент находит гитары на фотографиях и видеозаписях, система будет находить объекты и сцены, являющиеся объектом CSAM.
По мнению эксперта, внедрение этой системы может стать ошибкой. Только потому, что современные ИИ дают большое количество ложных срабатываний. Например, в том же поиске по гитарам я нашёл фотографии пары людей. Суть в том, что на фотографии может быть что угодно. ИИ может это воспринять как контент с сексуальным насилием над ребёнком.
Тут в дело вступает человек. Он сидит со стороны Apple и проверяет фотографии, на которые указала система обнаружения.
Теоретически Apple может дать доступ к системе правительствам, чтобы они сами могли анализировать контент. Но Мэттью Грин задаётся вопросом: представьте, что будет, если доступ получит авторитарное правительство во главе с тираном?
По данным профессора, Apple запустит систему обнаружения CSAM в ближайшие дни.
Источник информации: https://wylsa.com/apple-nauchit-ii-vyyavlyat-sluchai-zhestokogo-obrashheniya-s-detmi-na-fotografiyah-v-iphone/