52 подписчика
Не опять, а снова! Нейросети постоянно врут людям 🥸
Исследователи из Иллинойского технологического института обнаружили, что дезинформация, создаваемая большими языковыми моделями, представляет серьезную угрозу, превосходя даже человеческую. Их исследование будет представлено на международной конференции.
Основная проблема заключается в том, что LLM-модели активно распространяют сомнительный контент. Например, уже обнаружено более 670 сайтов, генерирующих новости с минимальным участием человека и создающих ложные нарративы с использованием ИИ.
Авторы работы выделяют 4 стратегии создания дезинформации LLM и призывают к совместным усилиям в борьбе с этой угрозой для безопасности в интернете и общественного доверия.
Источник
Около минуты
31 января 2024