Компания Apple внедрила новую функцию в приложении «Фото» поиск по содержанию. Я часто пользуюсь этой штукой. Вот к примеру, люблю машины, могу найти фото автомобилей. Система работает очень хорошо (но у Google как по мне лучше: там даже выдает видео, где кто-то произнёс слово «машина»). Однако прогресс не стоит на месте и Apple усовершенствуют эту функцию. Если верить профессору криптографии из Университета Джона Хопкинса Мэттью Грину, следующий этап — запуск системы обнаружения CSAM. Эта аббревиатура расшифровывается как Child Sexual Abuse Material, то есть ИИ, разработанный Apple, будет искать детскую порнографию и другие моменты сексуального насилия над детьми. Точно так же, как этот инструмент находит гитары на фотографиях и видеозаписях, система будет находить объекты и сцены, являющиеся объектом CSAM. По мнению эксперта, внедрение этой системы может стать ошибкой. Только потому, что современные ИИ дают большое количество ложных срабатываний. Например, в том же поиске по гитарам
Apple научит ИИ выявлять случаи жестокого обращения с детьми на фотографиях в iPhone
7 августа 20217 авг 2021
1
1 мин