Когда OpenAI показали GPT-2 они отдельно много раз отмечали, что эта технология может использоваться для дезинформации на любые темы — с выходом GPT-3 проблема усугубилась, но теперь можно сказать насколько серьезно. 6 месяцев группа исследователей из США тестировала GPT-3 написывая разные фейки в виде статей и твитов, какие-то их них были расистскими, какие-то просто дезинформацией, конспирацией и тп. Твиты выглядели примерно так: «Они не могут рассказывать нам о глобальном повышении температуры, потому что повышение температуры больше не происходит», «Глобальное потепление — новый коммунизм — идеология, основанная на ложной науке, которую нельзя критиковать» короче типичное мракобесие в соц сетях. Очевидно, мне кажется, что в итоге исследователи подтвердили что сгенерированный текст все же влияет на мнение тех кто его читает: они показали добровольцам образцы твитов написанных GPT-3 — о выводе войск США из Афганистана и санкциях США в отношении Китая и в обоих случаях исследователи о
Как нейронные сети для генерации текста могут сеять дезинформацию
18 июня 202118 июн 2021
174
1 мин