Недавно было проведено исследование, которое показало, что искусственный интеллект (ИИ), управляющий автопилотом автомобиля, либо интерпретирующий ваши рентгеновские снимки, может быть более «доверчивым», чем считалось ранее. Вы можете вносить всевозможные изменения в знак остановки, и ИИ, обученный распознавать знаки остановки, все равно будет знать, что это знак остановки. Однако, если у ИИ есть уязвимость, и злоумышленник знает об этой уязвимости, злоумышленник может ей воспользоваться и вызвать аварию. Исследователи из Университета штата Северная Каролина создали специально ПО – QuadAttacK, который проник в четыре широко используемые «нейронные сети», выявив их «ахиллесовы пяты». Если у вас есть обученная система ИИ и вы тестируете ее на чистых данных, система ИИ будет вести себя так, как прогнозируется. QuadAttacK наблюдает за этими операциями и изучает, как ИИ принимает решения, связанные с данными, что позволяет ему определить, как можно манипулировать данными, чтобы обмануть ИИ
Автопилот автомобиля и медицинские ИИ-системы легче обмануть, чем вы думаете
6 декабря 20236 дек 2023
4
1 мин