Машинным обучением сегодня никого не удивишь — это понятие максимально прочно вошло в нашу жизнь. Если кратко, то речь о том, что искусственный интеллект «обучается» не напрямую, а за счёт применения решений множества сходных задач. Любая технологическая компания, которая использует персональные данные для машинного обучения, будет уверять, что эти данные находятся в полной сохранности, и их можно удалить в любой момент. Но так ли это?
Каждая система «обучается» для конкретной цели: распознавание лиц, и/или эмоций, построение различных физико-математических моделей, предсказание последствий тех или иных действий и так далее. Так вот, когда речь заходит о базах данных людей, встаёт интересный вопрос — а сможет ли машина «разучиться»? Получится ли вызвать избирательную амнезию в программном обеспечении искусственного интеллекта, чтобы удалить все следы конкретного человека или точки данных из системы машинного обучения, не влияя на её производительность?
Интуитивно эта проблема понятна любому человеку, но «машинная амнезия» на самом деле требует развития некоторых новых идей в компьютерной науке.
Компании тратят миллионы долларов на алгоритмы машинного обучения, чтобы распознавать лица, отпечатки пальцев или ранжировать посты в социальных сетях для реализации таргетированной рекламы, но после обучения систему не так легко изменить. Более того, её и понять-то непросто, ведь «думает» она совсем не как человек.
Именно поэтому, необходимость устранения конкретного узла данных чаще всего требует перестройки системы буквально с самого начала, что, понятное дело, невероятно дорого. Потому-то вопрос «машинной амнезии» сегодня встал так остро.
Как правило, если система обучилась на каких-либо данных, их удаление приводит к её сбою. В последние годы разрабатываются новые методы обучения с применением кластеризации данных, которые в перспективе помогут избежать таких проблем, но пока это всё слишком сыро. К тому же, как быть компаниям, которые уже потратили огромные средства на обучение имеющихся систем по старым принципам?
Потребуется виртуозная техническая работа, прежде чем технологические компании смогут фактически реализовать машинное отучение, способное обеспечить пользователям настоящий контроль за теми данными о себе, которыми они решили поделиться. Но даже если машины научаться «забывать, не ломая себе мозг», это совершенно не будет означать, что отдельно взятому человеку можно будет не переживать за сохранность данных о себе.
Возможность удаления личных данных из сети — не менее интересный вопрос. Взять хотя бы тот факт, что вы можете быть нигде не зарегистрированы, а данные о вас у той или иной компании, использующей Big Data, всё равно, скорее всего, есть — достаточно один раз засветиться на камеру наблюдения или на фотке с друзьями.
Вот вам немного цифровой паранойи с утра.
1. Один из вариантов «машинного разучивания», предложенный в 2019 году.
2. А это совсем свежее исследование на данную тему.
3. И ещё одно.
Подписывайтесь на S&F, канал в Telegram и чат для дискуссий на научные темы.