Приватность давно отошла на задний план — её вытеснили бесчувственные нейросети, которые хотят узнать о вас всё, защитить, вылечить и сделать счастливыми.
Предотвращает преступления
Искусственный интеллект в США анализирует социальные сети, чтобы заранее узнавать про акты терроризма и массовые убийства.
Почти каждый террорист публикует пост с намерениями или фотографии с оружием за несколько дней до преступления. Искусственный интеллект применяют, чтобы вовремя это засечь.
У IBM есть подразделение Tactical Institute, чья система использует суперкомпьютер IBM Watson и встроенный в него ИИ, чтобы искать в Twitter подозрительные сообщения. Если такие находят, их отправляют на анализ — вся процедура занимает несколько минут.
Анализ Twitter уже предотвратил 14 массовых убийств в американских школах.
Помогает людям с депрессией
ИИ умеет находить в соцсетях людей с депрессией. Одно из решений проверяет фотографии пользователя — если большинство из них серые, размытые, безэмоциональные или в плохом разрешении, это признак депрессии. Плохой знак, если на фото нет других людей.
Facebook тем временем создал систему, которая проверяет сообщения и посты в группах. Если в них высказываются суицидальные мысли, об этом узнают модераторы сообществ. Они смогут вовремя помочь человеку — например, предложат обратиться к психологу.
Предупреждает о болезнях
Если анализировать посты человека в соцсетях, можно предупредить его до того, как он получит инфаркт или заболеет сахарным диабетом.
Вместе с врачами дата-саентисты создали систему, которая по словам-маркерам определяет, насколько пользователи Facebook рискуют столкнуться с болезнью сердца.
Кроме того, учёные сделали «карту благополучия» США — она показывает, как уровень экономики, социальное развитие, депрессия, сердечные заболевания, диабет и безработица меняются от штата к штату.
Определяет экстремизм и депрессию в России
В России тоже существуют похожие проекты. Например, «ВКонтакте» сделал сервис, который проверяет фотографии и предупреждает, что на них есть что-то опасное или противоправное. Система автоматически отмечает изображения как «опасные», «безопасные» или «умеренно опасные». Опасные автоматически блокируют, хотя финальное решение остаётся за модераторами.
Кроме того, алгоритмы нейросетей замечают и суицидальные оттенки. Пользователю, который загрузит такое фото, предлагают помощь от психологов из фонда «Твоя территория».
Есть и отдельная система борьбы с преступностью — она называется «Георгий Победоносец». Нейросеть собирает контент из «Одноклассников», «ВКонтакте», Facebook, Instagram, Telegram и проверяет, нет ли там пропаганды наркотиков и призывов к суициду, экстремизму. Если «Георгий Победоносец» что-то находит, об этом узнаёт специальный сотрудник. Если он решает, что нейросеть не ошиблась, сведения попадают в полицию.
Разработчики системы говорят, что алгоритмы работают на общедоступном контенте: комментариях, постах, записях в группах, лайках и хештегах. У нейросети нет доступа к личным сообщениям.