Разные есть мнения по поводу нейросетей, от восторженных до глубоко пессимистических. Все эти мнения "имеют место быть" поскольку эти люди живут среди нас и имеют на это право. Познакомимся с их точками зрения.
Творческая работа
Вот мнение одного "оператора-монтажника" видео:
Куда катится мир?
Куда катится мир с сегодняшней, с этой нейрой, с этой сетью проклятой?
Вы посмотрите, как люди деградировать начали. Вы посмотрите, что с людьми творится. Вы почитайте комментарии, которые пишут бестолковые, деградирующие личности.
Вы понимаете, что происходит?
Посмотрите, сколько они денег тратят на генерацию вот этих вот снежных человеков, бабок на самокатах, инопланетяне едят огурцы соленые, котики какие-то.
Вы представляете, что происходит?
Куда уходят деньги? Вам уже мозги забили полностью.
А нельзя ли вот эти деньги взять, которые вы тратите, пойти отучиться на видеооператора, на видеомонтажника, на 3D скульптора, я не знаю, еще что-нибудь, а?
Пойти отучиться на художника, наконец, игре на гитаре, на пианино.
Ведь понимаете, отключат интернет, вместе с электричеством, и вы будете в полной «****». Вы понимаете? Потому что негде и ничем будет генерировать всю эту «жвачку».
А так вы взяли холст, масло, нарисовали что-то и продали. Причем не задешево. Масло и холст – это дорого, это дорогое удовольствие. Игра на гитаре у подъезда. Куда это всё ушло-то?
Почему вся молодёжь ушла в нейросеть?
Сколько видеооператоров знал, все побросали камеры и побежали. Да нафига нам это снимать, мы сгенерируем и будет круто.
Ай, вы себе мозги сгенерируйте лучше, хорошие, чтобы смысл был в вашем котелке, блин. Я просто в шоке от того, что сейчас происходит, ребята. Это просто уму непостижимо, что происходит с людьми.
Я понимаю, мне вот нейросеть помогает только в одном, это вот в Соньке 6700 и After Effects, ну или DaVinci там, там есть нейросеть, там можно убирать фон, отлично, кстати, теперь можно даже не сниматься на зеленом-синем фоне, просто тупо взять и убрать любой фон. Это красиво, это нейросеть, да, она работает, и она шикарно работает.
Вот она для чего нужна, она должна помогать. Но то, что сейчас происходит, извините, это какой-то пипец наступил.
Вот буквально сейчас мне про 5G написали, ты же пользуешься вот этой хренью. Да я вообще интернетом, но мобильным сейчас не пользуюсь. У меня есть вон вифи, блю-пуп. Вот все, я на улице, да и на улице у нас его отключают сейчас.
Мобильный интернет. На мобильном интернете вообще ничего не работает сейчас. Какая нафиг на 5G? О чем вы говорите? Да и при чем здесь 5G? Что, она от нейросети идет, что ли? Нет, конечно. Так вот, о чём я хотел. В принципе, я уже всё сказал.
Это же пипец. Вот люди сейчас, ну, перестали создавать руками, руками, головой. Они им лишь бы так-так-так-так-так, о, сгенерировали, блин, и чё? Вот что дальше вы с этой делаете, хрень? Это и не продать, это и ничего вообще с этим не сделаешь.
Вот давайте, вот нарисуете, пускай мне картинку нейросеть, художественную картину, я не знаю, чего-то, да? И нарисую я. Я свою картину за 25 тысяч спокойно продам. Нейросетевая картинка, она не продается вообще. Вообще абсолютно не продается.
Зачем нужна эта нейросеть?
Она должна помогать, но не то ****, которое сыплется сейчас, я не знаю, на ютуб. Надо закрывать. Закрывать нейросеть. Я вот прям вот 100% говорю. Нужно закрывать ее, чтобы люди деньги не тратили на эту чушь.
У нас есть нуждающиеся, а вы какую-то хрень лепите. Я считаю, что нужно, если ты зашел
в нейросеть, сгенерировал, плати налог. Вот так надо делать. Лежишь на диване, генерируешь, плати налог.
Так что вот так вот, все, блин, ребята, хватит, уходите из нейросети, хватит, с вас бабки тянут, тянут, тянут, а вы туда, туда, туда, за генерацию, за какие-то, я не знаю, VIP-ы, блин, на тебе, это, на хрена вам это надо, вы че, блин, больны, что ли?
Где наши мультики, рисованные мультики, где наши эти пластилиновые мультики? У вас ребята мозги уже расплавились от нейросети, вас зомбировали конкретно вот запомните мои слова вы зомби все!
А я пойду порисую чем-нибудь без электричества без интернета просто подышу воздухом и буду рисовать все пока всем.
Тут трудно не согласиться, поскольку молодежь уже решила, что, раз что-то упрощает работу, то надо это обязательно использовать.
Но откуда возьмется умение "извлекать руками звуки" и умение теми же руками создавать инструменты, которые издают эти звуки? Последнее поколение этих людей вымрет, а откуда они появятся вновь? Через миллионы лет, когда следующая человеческая (человеческая ли?) цивилизация достигнет нужного уровня развития?
Куда денется умение растирать краски и накладывать их на холст, чтобы изобразить РУКАМИ то, что видит глаз?
Стоит отключить электричество и человеческое общество останется в каменном веке, потому что ничего не умеет делать своими собственными руками. Не умеет, а лет через сто и "на знает" (!) как именно что-то делать. Потому что нет в голове этих знаний! Этим знаниями их не учили. За них все делала нейросеть!
Человек, создавший "фильм" про "котика" всего лишь описал что он хочет видеть в итоге, а сделала это машина. Выключи электричество и попроси его повторить все то же, но самостоятельно, и человек превращается в тупого кретина, который даже огонь развести не сумеет, если замерзнет. Он может и знал то всего несколько слов "Котик. Жена. Палка. Бум-бум!".
То есть:
- Развивая свою голову до того, чтобы придумать нейросети, человек сам создал инструмент, ведущий к оглуплению следующих поколений, потому что их умственное развитие уже не будет обладать тем знаниями, которые потребуются для построения машины, заменяющей им их мозг!
Нейросетевой кодинг
Возьмем, к примеру, "кодинг" как замену программистам. Я сам программист и начал использовать нейросети сразу по их появлению. Сначала было просто интересно, но потом я пришел к выводу, что поручая работу кому-то еще, я перестаю сам понимать как именно работает это что-то в программе. И что использование нейросети в программировании больше замедляет мою работу, чем упрощает ее.
Я поручаю нейросети задачу, которая выполняется ею с 1645-го "пинка". Любой ее код надо тестировать и проверять, и, как правило, с первой попытки ничего не работает вообще. Приходится постоянно ставить новые задач уже по исправлению того, что не работает из сгенерированного ею же.
Такое ощущение, что ты стараешься заставить солдата стройбата что-то построить, а главная его задача - "отлынить" и завалиться спать под кучей досок на стройке.
Чтобы сгенерировать рабочий код, приходится постоянно проверять каждую новую генерацию нейросети. Просто потому что она в уже исправленных и правильно написанных участках кода может возвратить на место старую, уже прежде исправленную ошибку. Она может, к примеру, после написания десятка функций, которые используются в основном теле программы, запросто пару-тройку "потерять". А когда ей на это укажешь, все сводится к тому, что:
- Ой, да! Ты совершенно прав! Как это я забыла!
Такое ощущение, что ты — сторож в саду с яблоками, а сеть — пацан-воришка, задача которого стырить как можно больше яблок. При этом этот "пацан-воришка" изображает из себя твоего "другана", который "топит за тебя" на все 100%, а , пока ты отвернулся, тырит яблоки у тебя за спиной себе в карманы.
Мне просто надоело быть "сторожем" у сети. На практике получается, что, если бы я писал этот код сам, это было бы намного быстрее.
К тому же, если код написан машиной, а не мною, то мне почти невозможно будет что-то в нем изменить или подкорректировать, поскольку я просто не знаю алгоритма, который построила сеть вместо меня. А я сам, в результате, превратился из "программиста" в "конвоира нейросети".
Я пришел к выводу, что используя нейросеть в кодинге, я начинаю глупеть, поскольку алгоритмы работы программы должны быть в голове У ТЕБЯ, а не у машины, и ТЫ должен отвечать за то, что твоя софтина делает, а не какая-то машина. Я просто не знаю как именно работает код, написанный машиной, если она его писала.
Мой мозг начинает атрофироваться так же, как атрофируются мышцы спортсмена после прекращения упорных тренировок, если спортсмен переложил усилия тренировок с себя на машину.
Но задача-то стояла в "развитии собственного тела", а не "развития тела машины" (которого у нее еще и нет).
Происходит подмена целей и понятий, а мы этого не замечаем.
И я решил ее "отменить".
Галлюцинации нейросети
Хочу затронуть еще одну тему, которая кажется одной из самых спорных (и даже болезненных) в мире нейросетей, — это проблема так называемых «галлюцинаций».
Под этим словом скрывается ситуация, когда модель, будь то DeepSeek или ChatGPT, или любая другая, отвечает вам с абсолютно уверенным видом, но при этом её слова оказываются выдумкой от начала и до конца.
Казалось бы, машина должна быть точной, как калькулятор, но вместо этого она становится похожа на студента, который на экзамене не знает ответа и начинает красиво врать, надеясь, что преподаватель не заметит.
Причина не только в устройствах алгоритмов, но и в том, как мы, люди, сами оцениваем эти системы. Ведь модель фактически поощряют не за честность, а за смелую "фантазию". Это напоминает школьный тест: если оставишь пустую клетку, то получишь ноль, а если ткнёшь наугад — шанс на баллы всё же есть. В итоге нейросеть учат быть хорошим экзаменуемым, который всегда что-то скажет, но далеко не всегда становится советником, которому можно доверять.
Есть интересный пример:
- Сравнили две модели: старую O4 Mini и более новую GPT-5 Singing. На первый взгляд, результаты у них близкие: 24% точности у первой и 22% у второй. Но за сухими цифрами скрывалась разница в подходе. O4 Mini почти никогда не признавала незнания и в 75% случаев уверенно ошибалась. GPT-5, напротив, предпочитала промолчать более чем в половине ситуаций, и потому реальных ошибок у неё было всего 26%. Вывод отсюда простой и очень человечный: иногда честное «я не знаю» куда ценнее, чем уверенное, но ложное «я знаю».
Однако наша система оценки устроена иначе. Все рейтинги и таблицы сравнения моделей сейчас смотрят в основном на точность, а не на честность. В результате разработчики вынуждены создавать программы, которые угадывают, а не признают собственное незнание. И получается, что корень проблемы не в машинах, а в нас самих. Мы задаём правила, и именно эти правила подталкивают машины к уверенной выдумке.
Разработчики GPT-5 уверяют, что модель стала «галлюцинировать» на 46% меньше, чем GPT-4. Но проверки показывают: до идеала все равно ещё очень далеко. Модели продолжают выдавать недостоверную информацию примерно в 40% случаев. То есть почти через раз. Представьте врача, который в четырёх из десяти случаев ошибается в диагнозе. Доверили бы вы ему своё здоровье?
Проблема в том, что сама природа обучения языковых моделей не позволяет полностью избавиться от ошибок. Ведь они обучаются не на правде и лжи, а на текстах и образах. Им никто не ставит специальную метку «правильно» или «неправильно». Они учатся предсказывать следующее слово в цепочке, имитируя человеческий язык. С орфографией и грамматикой это работает прекрасно, но, когда речь идёт о фактах, начинается опасная зона догадок.
Если в обучающих данных нужной информации нет, модель вынуждена «додумывать». И чем больше она знает в целом, тем выше риск, что догадка прозвучит убедительно, но окажется ложью. Это похоже на человека с широким кругозором, который всегда найдёт, что сказать, но далеко не всегда будет прав.
На этом фоне возникает философский вопрос: можем ли мы вообще доверять машинам? И если да, то в какой степени? Уже сейчас более половины интернет-трафика генерируется ботами и языковыми моделями. Даже X (бывший Twitter) признаёт, что ежедневно публикуются сотни миллионов сообщений от автоматических аккаунтов. Социальные сети превращаются в «искусственное образование», где настоящие голоса всё труднее отличить от машинных.
Лично я давно перестал доверять тому, что читаю в интернете. Каждый текст может оказаться написан не человеком, а алгоритмом. Мы фактически живём в мире, где грань между человеческой и машинной речью стирается. И это не просто техническая проблема — это проблема культуры. Мы всё чаще оказываемся в ситуации, когда сомневаемся не только в информации, но и в самом собеседнике: кто он, человек из плоти и крови или лишь программа, натренированная на миллионах фраз?
Можно и нужно менять систему оценки действий нейросетей. Надо сильнее штрафовать за ложь, поощрять осторожность и честное признание незнания. Но даже если это произойдёт, сама цифровая среда уже стала ненадёжной. Мы окружены текстами, изображениями и видео, созданными машинами. А значит, главный вопрос даже не в том, как улучшить нейросети, а в том, как нам, людям, научиться жить в мире, где доверие к информации становится роскошью.
И вот тут встаёт самый большой философский вопрос:
- Можем ли мы вообще позволить себе доверять машинам так же, как когда-то доверяли книгам, газетам или живому слову?
Или же нам придётся принять новую реальность, где каждый факт нужно проверять трижды, а доверие станет самым дефицитным ресурсом XXI века? Так же, впрочем, как и умение что-то делать своими собственными руками и достигать чего-то собственным умом. А нейросеть применять только в тех областях, в которых человек САМ бессилен что-либо сделать.