Google сообщил сегодня, что злоумышленники массово отправляют промпты к Gemini — иногда более 100 000 запросов подряд — в попытке клонировать AI-чат-бота. По мере того, как технологические компании соревнуются в разработке и запуске всё более мощных моделей искусственного интеллекта, их интеллектуальная собственность становится всё более доступной для публики и уязвимой к подобным атакам. Google назвал эти атаки «model extraction» (извлечением модели) — процесс, который Medium определяет так: «Атакующий дистиллирует знания из вашей дорогой модели в новую, более дешёвую модель, которую он контролирует». Это становится растущей угрозой для крупных AI-компаний, которые тратят миллиарды долларов на обучение своих моделей, но не имеют достаточных методов защиты своей интеллектуальной собственности. «Допустим, ваша языковая модель обучена на 100 годах секретных знаний о том, как вы ведёте торговлю, — сказал Джон Халтквист, главный аналитик Google Threat Intelligence Group, в интервью NBC Ne