Доля информации, сгенерированной GPT-подобными инструментами, неуклонно растёт. Что произойдёт, когда допущенные ИИ ошибки и искажения станут основой для обучения последующих моделей и заполонят умы людей? Отвечают экс топ-менеджер IBM Сергей Карелов и специалист в области инженерии безопасности Росс Андерсон.
Чем обеспокоены исследователи?
До недавних пор большая часть сведений в интернете создавалась людьми, и именно на человеческих данных обучались первые генеративные модели. Но всё изменилось с приходом LLM в массовое пользование. Уже сейчас генеративные ИИ популярны у людей разных специальностей; они стали удобным помощником в множестве рабочих и бытовых задач. В результате, по оценкам экспертов, в ближайшем будущем значительная доля веб-контента начнёт формироваться за авторством нейросетей. Речь не только о тексте, но и о картинках, видео, числовых данных и так далее.
Проблема заключается в потенциальных необратимых дефектах и искажении восприятия реальности, причём как новыми языковыми моделями, так и людьми. «Результатом может стать колоссальный урон для безопасности бизнеса, а также для интеллекта человечества», — предупреждает Росс Андерсон, член Королевской инженерной академии и профессор персональной кафедры безопасности и компьютерной лаборатории Кембриджского университета.
ChatGPT и аналогичные инструменты могут ошибаться или даже выдавать абсолютно неверную информацию, не подтверждаемую никакими источниками. Явление называют галлюцинациями, избавиться от которых полностью пока не удаётся. Учёные прогнозируют, что плоды деятельности актуальных GPT-моделей всё в большей мере будут становиться материалом для обучения последующих поколений ИИ. Ошибки, внесённые их предшественниками, приведут к дальнейшим неточностям. Применение таких сведений несёт угрозы как для бизнеса, так и когнитивной безопасности обычных пользователей.
Нарастающая вредоносность заполнения интернета чушью будет проявляться многообразно. Люди станут неумолимо глупеть, а в обществе усилится интеллектуальная слепота. Будет сложнее отличить правду от лжи, поэтому начнутся проблемы с критическим мышлением. Под влиянием этого процесса представления людей о мире окажутся всё более кривыми.
Сергей Карелов, эксперт в области ИИ и автор канала «Малоизвестное интересное»
Можно ли это предотвратить?
Описанную выше перспективу стоит воспринимать как предупреждение, а не приговор. Способы улучшить ситуацию существуют, утверждает группа исследователей во главе с Россом Андерсоном.
Необходимо сформировать копию исходных данных, созданных человеком, и не допустить примешивания в неё информации от LLM.
Второй шаг заключается в задействовании новых рукотворных сведений для обучения последующих ИИ-моделей. Важными задачами остаются повышение качества контента, выдаваемого чат-ботами, их тщательное тестирование, а также разработка политики оценки точности генерируемых результатов.
Осознание рисков и ограничений больших языковых моделей — вопрос, который должен находится в приоритете как у правительств, так и у простых граждан, подытоживают эксперты.