Найти в Дзене
Prompt_Дзен

Почему нейросети – это не страшно

Только 2,5% людей сходу принимают все новинки и тут же бросаются их использовать. Ещё около 13,5% почти сразу следуют за ними. Итого первопроходцев среди нас – процентов 16. Остальные присоединяются постепенно. Одна из причин такой осторожности – страх. Кто не боялся, стал жертвой естественного отбора ¯\_(ツ)_/¯ Поэтому привычка опасаться непонятного глубоко засела в генах потомства благоразумных и осторожных 8) Так и повелось. Сначала люди боялись огня, потом хеттских колесниц, потом – паровых автомобилей, потом – самолётов… Нейросети – это новейшее изобретение. Разумеется, как и всякое технологичное новшество, они тоже вызывают трепет. По факту же боязнь искусственного интеллекта и нейросетей – не более чем отголоски полной опасностей жизни наших предков. А нам, людям 21 века, робеть перед технологиями не пристало 8) Предлагаю разобраться с популярными переживаниями. Это один из главных страхов. Мы не понимаем, кто — или что? — с нами общается. Даже разработчики признают, что не всегд
Оглавление

Только 2,5% людей сходу принимают все новинки и тут же бросаются их использовать. Ещё около 13,5% почти сразу следуют за ними. Итого первопроходцев среди нас – процентов 16. Остальные присоединяются постепенно.

Одна из причин такой осторожности – страх. Кто не боялся, стал жертвой естественного отбора ¯\_(ツ)_/¯ Поэтому привычка опасаться непонятного глубоко засела в генах потомства благоразумных и осторожных 8) Так и повелось. Сначала люди боялись огня, потом хеттских колесниц, потом – паровых автомобилей, потом – самолётов…

Нейросети – это новейшее изобретение. Разумеется, как и всякое технологичное новшество, они тоже вызывают трепет.

По факту же боязнь искусственного интеллекта и нейросетей – не более чем отголоски полной опасностей жизни наших предков. А нам, людям 21 века, робеть перед технологиями не пристало 8)

Изображение собаки сгененировано нейросетью Kandinsky
Изображение собаки сгененировано нейросетью Kandinsky

Предлагаю разобраться с популярными переживаниями.

Фобия № 1: «Кто вообще отвечает на мои вопросы?»

Это один из главных страхов. Мы не понимаем, кто — или что? — с нами общается. Даже разработчики признают, что не всегда понимают, как нейросети генерируют то или иное решение. Для обывателей же нейросети – это абсолютно непонятный «чёрный ящик», что, разумеется, вызывает недоверие и подозрения.

Однако нужно просто понять и принять, что за самыми «человекообразными» ответами всегда стоúт лишь алгоритм, обученный на больших объёмах данных. В нём нет личности или скрытых мотивов — только программный код, ориентированный на логику и задачи. Чем быстрее мы осознáем это, тем меньше останется причин для страха.

Фобия № 2: Потеря работы

Люди боятся, что нейросети заменят их на рабочих местах, особенно в сферах, где требуется рутинная работа или обработка данных.

На самом деле, как и любая другая технология, искусственный интеллект закрывает одни двери, но тут же открывает другие. Развитие нейросетей создало условия для появления новых профессий и создания новых рабочих мест. Например, появилась новая, обожаемая мною профессия – промпт-инженер 8)

Да, использование новых технологий требует профильного образования. Здравомыслящие государства и компании вкладываются в программы переобучения работников, чтобы они могли адаптироваться к изменениям на рынке труда. И в России уже есть федеральные программы переподготовки. Ну а если по каким-то причинам вы не попадаете на обучение от службы занятости или работодателя, учитесь сами. В сети полно бесплатной информации. Например, подпишитесь на мой канал 8)

Фобия № 3: Утрата контроля над технологиями

Многие тревожатся, что развитие технологий выйдет из-под контроля и закончится созданием автономных систем, способных принимать решения без участия человека.

Да, люди сегодня, как никогда, близки к созданию сильного искусственного интеллекта, то есть такого, который сумеет сравниться с человеческим. Но пока до этого ещё есть время.

Эксперты же и чиновники без дела не сидят:

  • Создают системы регулирования и стандарты. Введение строгих правил разработки и применения нейросетевых технологий поможет предотвратить бесконтрольное развитие и злоупотребления. Во всяком случае, в других сферах это помогает 8)
  • Стараются обеспечить прозрачность и объяснимость разработки и ведут просветительскую работу. Распространение информации об алгоритмах нейросетей и о том, как ими принимаются решения, повышает доверие к ИИ.

Фобия № 4: Угроза утечки конфиденциальных сведений и личных данных

Нейросети могут собирать и анализировать огромные объёмы персональных данных, что вызывает справедливые опасения. Примеров слива информации и ее неправомерного использования масса.

Этой проблемой чиновники и разработчики тоже уже озаботились. Одни постоянно улучшают методы шифрования и анонимизации данных, а другие вводят законы о защите личной информации.

Но даже самая лучшая охрана со стороны не сравнится с заботой граждан о собственной безопасности. Как бы ни хотелось поговорить с нейросетью совсем уж по душам, лучше не рассказывать о себе слишком много. Даже те крошечные обрывки сведений, которые мы невольно отдаём в процессе общения, позволяют нейросети делать очень даже точные выводы относительно нас, нашей личности и места нашего проживания. Фраза «Болтун – находка для шпиона» актуальна как никогда!

Фобия № 5: Кибератаки и взломы

Многие опасаются, что нейросеть, получив доступ к смартфону или компьютеру, взломает его. И наоборот, что нейросети сами могут стать объектами атак хакеров, которые вытрясут из них всю пользовательскую информацию.

И снова да. Злоумышленники могут воспользоваться нейросетями для совершения преступлений. И опять у этой борьбы два фланга:

  • Частные компании и государства вкладываются в исследования и разработку средств защиты от киберугроз и в обучение специалистов по информационной безопасности. Кроме того, расширяется международное сотрудничество. Страны и организации объединяются для борьбы с киберпреступностью, потому что это – общая угроза для всего человечества.
  • Ну а со стороны обычного человека спасение лишь одно – не ходить по подозрительным сайтам, не давать лишних разрешений любопытным программам, не открывать файлы из странных писем и не выбалтывать нейросетям собственные секреты и корпоративные тайны 8)

Фобия № 6: Этические проблемы

Вопрос, кто будет отвечать за ошибки или неправильные решения, принятые нейросетью, волнует многих. С этим поступают так:

  • Нейросетям закладывают чёткие этические принципы. Те, кто уже работал с нейросетями, знают – не все ответы можно получить. Есть темы, которые нейросети категорически отказываются обсуждать.
-2
-3
  • Кроме этических ограничений, для устранения галлюцинаций и ошибок применяют механизмы аудита и мониторинга.
  • И, естественно, часть нагрузки лежит на пользователях. Например, в любом чате с генеративной нейросетью имеется оповещение, что ответы могут не соответствовать действительности. Задача юзера — провести факт-чекинг результатов выдачи и взять на себя отвественность за достоверность сгенерированных материалов:

Итак, надеюсь, мне удалось обозначить, что генеративные нейросети не так страшны, как кажутся на первый взгляд.

Секрет в том, чтобы воспринимать их как полезный инструмент, а не как «-инатор» доктора Фуфелшмертца. Нейросети — всего лишь быстрый способ находить идеи, создавать черновики и систематизировать информацию, но уникальные мысли, стиль и экспертность всегда остаются за нами.

Ещё по теме: