Исследователи обнаружили уязвимость искусственного интеллекта к манипуляциям через недостоверную информацию. СОНЯ АЛЕКСАНДРОВА Исследователи из Нью-Йоркского университета провели эксперимент, результаты которого вызвали серьёзную обеспокоенность в научном сообществе. Они изучали уязвимость систем искусственного интеллекта (ИИ) перед внедрением недостоверной информации в обучающие материалы. Результаты исследования опубликованы в журнале Nature. Специалисты провели ряд экспериментов с масштабными языковыми моделями (LLM), применяемыми в разных сферах, включая медицину. В ходе исследований выяснилось, что даже незначительное количество некорректных данных - всего 0,001% - может привести к тому, что нейросети начнут выдавать неправильные результаты. Крайне тревожным результатом стало повышение уровня дезинформации до 0,01%, что привело к увеличению числа неправильных ответов до 10%. Это говорит о том, что даже незначительное количество ложных данных может значительно снизить качество отве
Новое открытие учёных: ИИ можно манипулировать с помощью "отравленных" данных
10 января 202510 янв 2025
32
1 мин