Приветствую вас на канале У Марии. Приручаем нейросети!
Представьте: вы обычный человек, ни в чем предосудительном не замеченный, живете себе спокойно. И вдруг узнаете, что нейросеть вписала вас в список "самых скандальных юристов десятилетия" или, скажем, "участников заговора по захвату мира". Причем ссылается она на несуществующую статью в популярном издании, которую сама же и придумала. Абсурд? Увы, это уже реальность.
Недавний скандал с профессором права из США Джонатаном Терли вскрыл тревожную тенденцию: нейросети способны в один момент уничтожить репутацию человека. ChatGPT включил его имя в список юристов, якобы замешанных в скандальном деле, ссылаясь на несуществующую статью в газете The Washington Post. Обвинения были ложными, но факт остаётся фактом — искусственный интеллект может генерировать дезинформацию, которая воспринимается как правда.
Нейросети и их "творческий подход" к фактам
Современные ИИ-модели умеют писать статьи, генерировать изображения и даже поддерживать беседу так убедительно, что порой и не поймешь, где правда, а где — плод их бурной фантазии. Проблема в том, что нейросети не всегда разделяют "правду" и "правдоподобную выдумку". Если информации не хватает — они просто досочиняют недостающее.
Классический пример:
— Назовите 10 ведущих экспертов по квантовой физике в России
— Вот список: Петров, Сидоров, Иванов... а еще эти семь человек, которых я только что придумал, но звучат-то убедительно!
И вуаля — семь ни в чем не повинных граждан внезапно становятся "видными учеными" (или, если нейросети взбредет в голову другая тема, "участниками международного заговора").
Почему нейросети так легко "галлюцинируют"?
- Они учатся на всем подряд
В их обучении участвуют миллионы текстов из интернета: от научных статей до форумных споров и откровенных фейков. И если где-то в далеком 2007-м какой-то блогер написал, что "все юристы — жулики", нейросеть может принять это за факт. - Они не ищут истину, а угадывают слова
Их задача — не докопаться до правды, а подобрать максимально правдоподобное продолжение фразы. Поэтому если спросить: "Правда ли, что [ваше имя] украл Эйфелеву башню?", нейросеть может ответить: "По некоторым данным, да" — просто потому, что это звучит логично в контексте вопроса. - Они не проверяют, что творят
ChatGPT с легкостью процитирует вам несуществующую статью, "напомнит" о событии, которого не было, или "подтвердит" ваше участие в чем угодно — от научного открытия до межгалактической контрабанды.
Фейки уже среди нас
В 2023 году соцсети облетели фото "ареста Дональда Трампа" — реалистичные, драматичные, с полицейскими и наручниками. Вот только их создал ИИ. Многие поверили. А теперь представьте, что вместо Трампа на таких фото окажетесь вы.
И самое веселое: даже если вы докажете, что это фейк, кто-то уже успеет сделать скрин и разослать его с подписью "А вот и доказательства!".
Поэтому нужно принимать меры, причем на законодательном уровне.
Эксперты предлагают:
- Маркировку контента от ИИ — пользователи должны знать, что читают сгенерированный текст.
- Ответственность за распространение фейков — если СМИ или блогеры публикуют непроверенные данные от нейросетей, они должны нести последствия.
- Правовое регулирование — нужны механизмы защиты от клеветы, созданной ИИ.
Как защититься от "творчества" нейросетей?
- Не верьте всему, что видите в интернете
Даже если это цитирует "умный" чат-бот. - Гуглите периодически информацию про себя любимого (и не пугайтесь, если найдете что-то странное)
Чем раньше обнаружите, что нейросеть назначила вас "главным по межпланетной контрабанде", тем быстрее сможете это опровергнуть. - Требуйте маркировки ИИ-контента
Если нейросети генерируют новости, их хотя бы надо помечать, чтобы люди знали: перед ними не факты, а "вероятностная сборная солянка". - Смейтесь
Потому что иначе придется плакать. Если нейросеть вдруг объявит вас "изобретателем машины времени", по крайней мере, будет что рассказать друзьям на вечеринке
Технологии — это круто, но доверять им безоглядно нельзя
Нейросети — мощные инструменты, но пока что они похожи на студентов-первокурсников, которые делают доклад на тему, в которой ничего не понимают: звучит гладко, но факты лучше перепроверить.
Так что если вдруг обнаружите, что ИИ наградил вас неожиданной (и нежеланной) славой — не паникуйте. Просто сохраните скрин. Когда-нибудь это станет забавной историей.
...Ну или доказательством в суде.
Про фейков, созданных ИИ прочитать можно здесь:
Здесь также можно прочитать про манипуляции с помощью нейросетей:
Искусственный интеллект на службе зла: как мошенники используют нейросети:
А что вы думаете об этом? Делитесь в комментариях!
Буду рада любым вашим реакциям на статью, подписке, лайку или комментарию!
Желаю вам удачи!
.
#нейросети #искусственныйинтеллект #ии #технологии #галлюцинирование #мошенничество