Добавить в корзинуПозвонить
Найти в Дзене
DigiNews

Выяснилось, что ChatGPT использует данные, созданные искусственным интеллектом

Последняя модель ChatGPT, GPT-5.2, использует Grokipedia Илона Маска как источник, что вызывает опасения по поводу рекурсивного распространения галлюцинаций и непроверенной информации. Эксперты предупреждают о риске «коллапса модели» и цифрового фольклора из-за цитирования ИИ другими ИИ. В новейшей модели ChatGPT, GPT-5.2, обнаружен источник данных — Grokipedia, полностью сгенерированная искусственным интеллектом альтернатива Википедии от xAI. Как сообщает The Guardian, большая языковая модель (LLM) иногда использовала эту онлайн-энциклопедию, созданную ИИ Илона Маска, для получения информации по нечастым темам, таким как иранская политика или детали о британском историке сэре Ричарде Эвансе. Подобные вопросы поднимались несколько лет назад в контексте обучения ИИ: некоторые эксперты утверждали, что обучение моделей на данных, сгенерированных самим ИИ, приведёт к деградации качества и явлению, известному как «коллапс модели». И хотя цитирование данных, созданных ИИ, отличается от их ис

Последняя модель ChatGPT, GPT-5.2, использует Grokipedia Илона Маска как источник, что вызывает опасения по поводу рекурсивного распространения галлюцинаций и непроверенной информации. Эксперты предупреждают о риске «коллапса модели» и цифрового фольклора из-за цитирования ИИ другими ИИ.

В новейшей модели ChatGPT, GPT-5.2, обнаружен источник данных — Grokipedia, полностью сгенерированная искусственным интеллектом альтернатива Википедии от xAI. Как сообщает The Guardian, большая языковая модель (LLM) иногда использовала эту онлайн-энциклопедию, созданную ИИ Илона Маска, для получения информации по нечастым темам, таким как иранская политика или детали о британском историке сэре Ричарде Эвансе. Подобные вопросы поднимались несколько лет назад в контексте обучения ИИ: некоторые эксперты утверждали, что обучение моделей на данных, сгенерированных самим ИИ, приведёт к деградации качества и явлению, известному как «коллапс модели». И хотя цитирование данных, созданных ИИ, отличается от их использования для обучения, это всё равно создаёт риски для пользователей, полагающихся на ИИ в исследованиях.

Самая большая проблема заключается в том, что модели ИИ склонны к «галлюцинациям» — выдумыванию неверной информации. Например, компания Anthropic пыталась управлять бизнесом с помощью своего ИИ «Клавдий» (подробно об этом пишет Tom’s Hardware), где ИИ неоднократно галлюцинировал, заявляя даже о личной доставке напитков. Генеральный директор Nvidia Дженсен Хуанг в 2024 году признал, что решение этой проблемы всё ещё «в нескольких годах пути» и требует значительно больших вычислительных мощностей (признание Хуанга). Кроме того, многие пользователи уверены, что ChatGPT и другие LLM предоставляют точную информацию, лишь немногие проверяют реальные источники, использованные для ответа на конкретный вопрос. Следовательно, повторение ChatGPT заявлений Grok может быть проблематичным, особенно учитывая, что Grokipedia не модерируется напрямую людьми. Она полностью сгенерирована ИИ, и пользователи могут только запрашивать изменения контента, но не писать или редактировать статьи напрямую.

Использование одного ИИ в качестве источника порождает рекурсивную петлю, и в итоге мы можем прийти к тому, что LLM будут ссылаться друг на друга на непроверенный контент. Это сродни распространению слухов и историй среди людей, где источником служит фраза «это кто-то другой сказал». Это приводит к эффекту иллюзорной правды, когда ложная информация многими воспринимается как верная, поскольку она многократно повторяется. Человеческое общество было наполнено мифами и легендами, передававшимися веками через поколения. Однако, поскольку ИИ обрабатывает огромные объёмы данных бесконечно быстрее людей, использование ИИ-источников рискует спровоцировать распространение цифрового фольклора с каждым запросом, вводимым в LLM.

Что ещё более тревожно, так это то, что различные стороны уже используют эту уязвимость. Поступали сообщения о «груминге LLM», при этом The Guardian отмечает, что некоторые пропагандистские сети «наращивают огромные объёмы дезинформации, стремясь внедрить ложь в модели ИИ». Это вызвало обеспокоенность в США: например, Gemini от Google, по сообщениям, в 2024 году повторял официальную линию Коммунистической партии Китая. Кажется, на данный момент эта проблема решена, но если LLM начнут ссылаться на другие неаудированные и не проверенные источники, сгенерированные ИИ, это станет новым риском, за которым необходимо следить.

Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.

Автор – Jowi Morales

Оригинал статьи