Сегодня перед человечеством остро стоит проблема замусоривания планеты. Экологи бьют тревогу и предрекают скорую гибель нашего шарика, если мы ничего не изменим!
Давайте поддержим экологов и вернемся к нашим баранам нейросетям, и поговорим о проблеме замусоривания цифрового медийного пространства!
Да, такая проблема тоже существует, и тоже может потенциально привести к катастрофе не меньших масштабов! Понимаете о чем речь?
Люди такие существа, что где бы мы не находились – в реальном мире или в виртуальном, мы привыкли оставлять после себя тонны (или терабайты) мусора! Мы даже космическое пространство возле Земли, захламили, так называемым, космическим мусором! Эх, вот бы выбросить это все в какую-нибудь черную дыру, правда?
Вы скажете: «В чем проблема? Нажимаем «Delete» и все, нет проблемы! Это же цифровой мир, тут мусор можно выкинуть просто в никуда! И даже черная дыра никакая не понадобится!»
Да! Но, многие из нас так делают? Вспомните сейчас свои компьютеры, телефоны – у всех информация аккуратненько разложена по папочкам? Такие названия папок как «Мусор», «Перебрать», «Не удалять!» - вам ни о чем не говорят?
Но это только цветочки, банальная человеческая лень. Настоящая проблема кроется в том, что многие люди умышленно генерируют ложную мусорную информацию, так называемые фейки, и распространяют это в сети. И так было еще за долго до того, как нейронные сети стали мейнстримом! А с появлением нейросетей последнего поколения, таких как ChatGPT или Midjourney, проблема только многократно усилилась.
К чему это все? Такая длинная подводка… Просто хочется донести суть, что это именно люди привыкли мусорить. В реальном или цифровом мире, ответственность за замусоривание лежит исключительно на людях!
В последнее время действительно очень много шума вокруг нейронных сетей. Кто-то восхищается этими технологиями, а кто-то пытается их запретить. Причины у всех разные. Например, нейросети
- захватят мир и уничтожат людей (или, как минимум, лишат их свободы);
- лишат многих работы;
- создадут кучу фейков и будет практически невозможно определить, где истинная информация, а где ложная.
По первой проблеме, скажем так: это бред! И все. Больше, в рамках данной статьи, говорить об этом не будем. Обсудим как-нибудь потом.
По второй проблеме - да, это правда! Но человечество в своей истории переживало уже не мало таких революций, когда технологии вытесняли из привычной жизни ручной труд. И это переживем. Нужно быть гибким, уметь адаптироваться. Но и не об этом сейчас.
В этой статье хотелось бы затронуть третью обозначенную проблему, как нам кажется, самую серьезную и реальную на данный момент!
В самом деле, при помощи нейронных сетей генерируется очень большое количество различного цифрового мусора и фейков, начиная от изображений с кривыми пальцами и заканчивая откровенными подставами в виде ареста Трампа или переодетого Папы Римского.
В принципе, можно рассмотреть два случая.
Первый - это когда мусорная или ошибочная информация публикуется случайно (не нарочно).
Вот вам гипотетическая ситуация. Все же знают, что такое роутер?
Допустим, молодого IT-специалиста попросили написать инструкцию для определенной модели роутера. А специалист попался ленивый и использовал для написания инструкции ChatGPT, не особо то и проверяя, что там выдает искусственный интеллект, на практике.
А ChatGPT взял да "накосячил" при написании текста, скажем, "придумал" какую-нибудь настройку, которой в данной модели роутера не существует. Причем выглядеть это будет очень правдоподобно и реалистично. Просто во множестве других роутеров такая настройка, допустим, действительно имеется. Ведь ChatGPT не "понимает" информацию и не проверяет ее, он просто оперирует вероятностями, подражая тем текстам, на которых он был обучен.
И смотрите в чем фишка! Опытный IT-специалист, гуру, так сказать, изучая данную инструкцию, не сразу поймет, что там ошибка! Действительно, он же (гуру) видел подобных инструкций сотни (впрочем как и ChatGPT) и в них эта настройка точно имела место быть! Но вот конкретно в этой модели роутера - оно не работает!
Кто виноват? Кто не проверил? Кто целиком и полностью доверился ChatGPT?
Вот вам реальная ситуация из жизни, где ChatGPT "косячит" подобным образом:
А вот примеры того, как "косячат" нейросети, создающие изображения:
А вот здесь мы пытаемся объяснить почему нейросети вообще "косячат":
Или вот другая ситуация.
Студент бездумно использовал ChatGPT для написания дипломной работы, скажем по физике или по химии. Работа получилась очень правдоподобной, но ошибочной! Затем студент показывает ее своему научному руководителю, который изучает работу не очень внимательно, т.к. большая загруженность, усталость и т.п. Все мы люди.
А теперь представьте, что будет, если такая дипломная работа ленивого студента, одобренная замученным научным руководителем и комиссией, которой "лишь бы пожрать", попадет в Интернет, в банк данных хороших работ.
Ведь на этой работе затем будет обучаться следующее поколение студентов и следующее поколение нейронных сетей!!! И к чему это в конечном счете приведет, можно только с ужасом гадать!
Но чья это вина? Неужели ChatGPT? Или разработчиков искусственного интеллекта, которые создали такое ужасное чудо, которое позволяет себе косячить? А может быть, таки того самого студента, который поленился все проверить и перепроверить, ну или его научного руководителя тоже?
Поймите, у нейронных сетей такая суть. Они не могут давать точный на 100% ответ. Именно в этом их отличие от классических алгоритмов! В нейронные сети не загружают информацию и они не ищут ее в интернете. Нейронные сети в буквальном смысле обучаются, настраивая веса своих нейронных связей, примерно подобно тому, как это происходит в мозгу живых организмов.
Если вы прочитали книгу, то вы сможете сделать ее пересказ... своими словами. Но вы вряд ли сможете процитировать всю книгу дословно! Более того, вы можете додумать некоторые вещи, пересказать их по-своему, возможно даже с искажением того смысла, который автор закладывал изначально.
Да, люди тоже ошибаются, как и нейросети! Вернее, нейросети - как люди! 😄 Только, в отличии от людей, нейросети не обладают сознанием и не могут критически относится к своим ответам! Это просто бездушные математические модели! И всю ответственность должен брать на себя именно человек!!! Вот как-то так...
Таким образом, нейронная сеть - это не просто продвинутый поисковик, это совершенно другое. И это нужно осознавать.
Нейронная сеть - это инструмент. Очень серьезный инструмент! И, как при работе с любым серьезным инструментом, тут тоже необходимо соблюдать определенную "технику безопасности"! А желательно еще пройти инструктаж и сдать квалификационный экзамен! 😉
Если хотите более подробно узнать о принципах работы нейронных сетей - присоединяйтесь к нашему циклу обучающих статей:
Второй случай - это когда "нехорошие люди" специально создают заведомо лживый контент!
Ну здесь все более-менее понятно. Формально это даже нарушение закона! Только разве это остановит нас в погоне за прибылями?
Такой контент создавался и до нейронных сетей и будет создаваться всегда! Нейросети лишь усугубили ситуацию, облегчив мошенникам работу и увеличив количество этих самых фейков.
Ситуация тут тоже тяжелая, но разница все же есть. Подобные фейки, как правило, направлены на социальную инженерию. Пока они не затрагивают науку. Ну, если не брать во внимание плоскоземельщиков 😄. Соответственно подобная информация не должна попасть в обучающие выборки для будущих версий нейронных сетей. Хотя, кто знает... кто знает...
В любом случае, отличить правду от лжи становится все труднее и труднее!
В связи с этим, очень важно знать, как именно работают нейросети и где, чаще всего, и какие именно ошибки они совершают. Поэтому подписывайтесь на наш канал, тут вы узнаете это и много еще всего интересного про искусственный интеллект!
Итак, мы готовы подвести итог.
Из всего вышесказанного можно сделать вывод, что нейронные сети не могут нести ответственность за происходящее. Они не виноваты в том, что люди не умеют или не хотят правильно ими пользоваться! Нейросети не генерируют контент самостоятельно, без указки человека, и не выкладывают его в сеть! Поэтому человек и только человек должен нести ответственность за свои поступки и за то каким образом он использует нейронные сети!
Стоит ли запрещать нейронные сети? Да нет, конечно! Никто же не собирается запрещать автомобили, потому что они являются средством повышенной опасности и потому что в ДТП постоянно погибает очень много людей! Нет, люди выработали определенные правила дорожного движения и прежде чем получить право на управление автомобилем, вы обязаны сдать экзамен на знание этих самых ПДД. Почему бы подобным образом не поступить и с нейронными сетями?
Ведь нейронные сети - это такой замечательный инструмент, который при правильном его использовании, позволяет очень сильно облегчить жизнь людей!!! А от нас требуется всего лишь быть благоразумными и не "косячить" самим! 😉
В заключении, хочется привести вам примеры работ искусственного интеллекта, чтобы вы осознали всю мощь и весь потенциал этого замечательного, но очень опасного инструмента!
А на последок, вот вам красивая девушка из нейросети!
Ах, да! Это был эксперимент! 😜 Сколько секунд прошло, прежде чем вы обратили внимание на то, что тут что-то не так с пальцами на руке девушки?
Вот! Это пример того, как порой сложно с первого взгляда рассмотреть или найти ошибки, допущенные нейронными сетями!
В общем, не надо мусорить, ни в реальном мире, ни в виртуальном! Используйте нейросети разумно! Если согласны - с вас лайк! 😉