Признаюсь, я очень люблю ИИ. С детства мечтала о друге роботе и светлом будущем в стиле Стар Трек. И пусть я не разделяю всеобщей паники и ненависти по отношению к нейросетям, есть несколько проектов, которые вызывают настоящую тревогу и опасения.
PimEyes - найдутся все
Сервис продвинутого поиска с системой распознавания лиц многих напугал не на шутку. За 29.99$ в месяц можно загрузить фото любого человека и найти всю информацию о нем в открытых источниках.
В базе данных PimEyes уже более 2 миллиардов лиц. На вопрос о потенциальных сталкерах и их жертвах, владелец ответил, что если кого-то убили из пистолета, это не вина того, кто этот пистолет изготовил.
А в официальном обращении обозначено, что PimEyes не несет юридической ответственности за любое нарушение пользователем условий сайта или неправомерное использование результатов поиска, включая преследование.
Конечно, разработчики блокируют пользователей с подозрительной активностью (возможных преследователей-психопатов), но сервис все равно пугает. А еще владелец — гражданин Грузии и сильно не любит Россию 💀
Rewind AI - ваша жизнь в сети на перемотке
Приложение обещает хранить все, что вы слышали, видели и говорили (совсем как в эпизоде Черного Зеркала), правда чип в мозг пока не вживляют, ограничиваясь историей поиска, переписки и разговоров по интернету.
Создатели используют уникальный алгоритм сжатия, позволяющий хранить огромные массивы данных, и потенциально — записать всю вашу жизнь.
Записи хранятся локально, пользователи смогут их удалять или приостанавливать слежку за собой.
Все это звучит вполне неплохо, учитывая сколько важной информации наш мозг успевает забывать, но представьте что эти данные попадут в руки злоумышленников, правоохранительных органов или ревнивого бывшего партнера? Это будет похуже, чем неочищенная история в браузере.
Особое мнение от Stable Diffusion
Вы когда-нибудь задумывались о том, чтобы нарушить закон? Чисто гипотетически? У вас бывали темные, постыдные, потенциально опасные идеи? Не боитесь понести наказание за преступление, которого не совершали? Если так, то у меня для вас плохие новости.
Японские ученые научились генерировать мысли людей с помощью нейросети Stable Diffusion. Испытуемых подключали к фМРТ, показывали им фотографии и сканировали активность нейронов. Из полученных данных нейросеть сгенерировала изображения. И результаты действительно впечатляют.
Если технология продолжит развиваться, вероятно ее начнут использовать в правоохранительной и судебной системе, в качестве замены детектору лжи и словесным показаниям свидетелей. И тут можно вспомнить про идею превентивного правосудия из антиутопий. В обозримом будущем, когда все мы обзаведемся компьютерным чипом вместо смартфона, такое сканирование можно будет проводить удаленно. И злоумышленников будут задерживать еще до совершения преступления. Мир, конечно, станет безопаснее, но какой ценой?
В этот список можно было бы добавить создание дипфейков на моделях Stable Diffusion, которые запускаются локально и не проходят никакой цензуры. Да и способности языковых моделей к социальному инженерингу улучшаются с каждым днем, а искусственные голоса уже почти не отличимы от настоящих, что дает большой простор для мошенников и аферистов.
Но всем этим люди занимались и без нейросетей, и к подобным опасностям мы давно привыкли. А вот новые угрозы вполне могут застать врасплох.
Если от этих новостей вы сильно загрустили или встревожились, вот вам набор милых открыток с Ктулху
Или можете пообщаться с психологом из CharacterAI