В последние годы нейросети стремительно развиваются, демонстрируя впечатляющие результаты в различных областях, от обработки естественного языка до создания изображений. Однако, как предупреждают эксперты, чрезмерное доверие к этим моделям может быть сопряжено с серьезными рисками, пишут РИА Новости.
Руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов подчеркивает, что нейросети все еще несовершенны и часто допускают ошибки. В критических ситуациях такие ошибки могут иметь серьезные последствия.
«Сейчас пользователь может столкнуться с ситуацией, когда устройство говорит на понятном языке, красивыми словами, уверенным тоном, но сама предоставляемая информация искажена или неверна», – говорит Тушканов.
Эта проблема называется чрезмерной зависимостью (overreliance), когда люди начинают излишне полагаться на нейросети как на помощников и инструменты для оптимизации процессов. Однако, поскольку эти модели являются вероятностными алгоритмами, они могут имитировать человеческую речь и текст, но при этом предоставлять неверную фактическую информацию. Такие ситуации называются галлюцинациями.
«И чем более точными и полезными становятся нейросети, тем больше мы будем их использовать, но всегда надо помнить о том, что они могут и будут ошибаться, слишком им доверять – это главный риск», – предупреждает Тушканов.
Например, если нейросеть предложит несуществующий фильм, это не представляет особой опасности. Но если она поставит неверный диагноз по симптомам, это может быть очень опасно.
По мнению Тушканова, полностью доверять искусственному интеллекту вряд ли будет возможно. Большие языковые модели генерируют текст, но не обладают пониманием или способностью к логическому выводу. Они не могут гарантировать точность и достоверность информации.
Пока любая большая языковая модель генерирует текст, а не мыслит, то есть не способна к дедукции, индукции, абстракции, она выдает текст на основе вероятности, и надо всегда помнить о том, что этот текст может быть неверным, заключает эксперт.
Поэтому важно критически относиться к информации, предоставляемой нейросетями, и всегда подвергать ее проверке из надежных источников. Чрезмерное доверие к этим моделям может привести к серьезным ошибкам и даже опасным последствиям.