Найти тему
Readovka.news

Эксперт рассказал, что доверять нейросетям опасно

Midjourney
Midjourney

В последние годы нейросети стремительно развиваются, демонстрируя впечатляющие результаты в различных областях, от обработки естественного языка до создания изображений. Однако, как предупреждают эксперты, чрезмерное доверие к этим моделям может быть сопряжено с серьезными рисками, пишут РИА Новости.

Руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов подчеркивает, что нейросети все еще несовершенны и часто допускают ошибки. В критических ситуациях такие ошибки могут иметь серьезные последствия.

musavat.biz
musavat.biz
«Сейчас пользователь может столкнуться с ситуацией, когда устройство говорит на понятном языке, красивыми словами, уверенным тоном, но сама предоставляемая информация искажена или неверна», – говорит Тушканов.

Эта проблема называется чрезмерной зависимостью (overreliance), когда люди начинают излишне полагаться на нейросети как на помощников и инструменты для оптимизации процессов. Однако, поскольку эти модели являются вероятностными алгоритмами, они могут имитировать человеческую речь и текст, но при этом предоставлять неверную фактическую информацию. Такие ситуации называются галлюцинациями.

«И чем более точными и полезными становятся нейросети, тем больше мы будем их использовать, но всегда надо помнить о том, что они могут и будут ошибаться, слишком им доверять – это главный риск», – предупреждает Тушканов.

Например, если нейросеть предложит несуществующий фильм, это не представляет особой опасности. Но если она поставит неверный диагноз по симптомам, это может быть очень опасно.

rentgen-doma.ru
rentgen-doma.ru

По мнению Тушканова, полностью доверять искусственному интеллекту вряд ли будет возможно. Большие языковые модели генерируют текст, но не обладают пониманием или способностью к логическому выводу. Они не могут гарантировать точность и достоверность информации.

Пока любая большая языковая модель генерирует текст, а не мыслит, то есть не способна к дедукции, индукции, абстракции, она выдает текст на основе вероятности, и надо всегда помнить о том, что этот текст может быть неверным, заключает эксперт.

bogatyr.club
bogatyr.club

Поэтому важно критически относиться к информации, предоставляемой нейросетями, и всегда подвергать ее проверке из надежных источников. Чрезмерное доверие к этим моделям может привести к серьезным ошибкам и даже опасным последствиям.