Ученые из Цюрихского университета смогли доказать, что языковая модель OpenAI GPT-3 умеет более грамотно распространять дезинформацию, если сравнивать её с человеком. Об этом было написано в зарубежных научных СМИ. В исследовании приняло участия порядка 700 человек. Суть эксперимента заключалась в том, чтобы отличить, где приведена ложь, а где – правда. Также добровольцы проверялись на предмет того, могут ли они отличить написанное человеком и нейросетью. Ученые выбрали целый ряд актуальных тематик, среди которых присутствовали перемены климата, вакцинация, лечение рака гомеопатией и т.д. GPT-3 смог удивить всех. Он предоставлял информацию в наиболее удобном формате, если сравнивать с публикациями реальных людей. Но ученые подметили и другой немаловажный нюанс, который может стать проблемой – это генерация ложной информации. Участники эксперимента не смогли достоверно определить, что написано нейросетью, а что – человеком. Сведения, создаваемые GPT-3, будут крайне полезными в кризисных
Твиты, написанные ИИ на основе GPT-3, оказались убедительнее постов реальных людей
29 июня 202329 июн 2023
1 мин