Найти тему
OVERCLOCKERS.RU

Твиты, написанные ИИ на основе GPT-3, оказались убедительнее постов реальных людей

Ученые из Цюрихского университета смогли доказать, что языковая модель OpenAI GPT-3 умеет более грамотно распространять дезинформацию, если сравнивать её с человеком. Об этом было написано в зарубежных научных СМИ.

В исследовании приняло участия порядка 700 человек. Суть эксперимента заключалась в том, чтобы отличить, где приведена ложь, а где – правда. Также добровольцы проверялись на предмет того, могут ли они отличить написанное человеком и нейросетью. Ученые выбрали целый ряд актуальных тематик, среди которых присутствовали перемены климата, вакцинация, лечение рака гомеопатией и т.д.

GPT-3 смог удивить всех. Он предоставлял информацию в наиболее удобном формате, если сравнивать с публикациями реальных людей. Но ученые подметили и другой немаловажный нюанс, который может стать проблемой – это генерация ложной информации. Участники эксперимента не смогли достоверно определить, что написано нейросетью, а что – человеком.

Сведения, создаваемые GPT-3, будут крайне полезными в кризисных ситуациях. К примеру, когда до людей требуется донести информацию максимально кратко, емко, без травмирующих нюансов. Но языковой моделью могут воспользоваться и злоумышленники. Нейросеть слишком качественно формирует ложные сведения. Это может нести огромную опасность, особенно в моменты, когда объявлен режим ЧС.

Исследователи уже сейчас «бьют тревогу». Они обратились к политикам с просьбой принять правила, предназначенные для предотвращения использования GPT-3 во вред человечеству. Также они просят, чтобы ИИ применяли максимально ответственно.

📃 Читайте далее на сайте