Нейросети, такие как ChatGPT и другие сопоставимые по сложности, являются несомненно важным технологическим достижением в последние годы. Их потенциал настолько впечатляет, что многие задумываются, готовы ли мы к таким инновациям! Специалисты пытаются определить, представляет ли ChatGPT реальную угрозу или все опасения являются просто негативной реакцией на новшество.
Люди могут потерять рабочие места
Тревога относительно того, что технологии могут лишить людей работы, существует давно и имеет основания. К примеру, с появлением автомобилей пропали профессии, связанные с перевозкой людей на лошадях, из-за технического прогресса исчезли фонарщики, лифтеры старых механических лифтов, машинисты, телефонисты и многие другие.
ChatGPT действительно может представлять опасность для занятости, особенно если его развитие продолжится с текущей скоростью. Это уже ощущают специалисты, работающие с как естественными языками, так и языками программирования.
Аналогичную проблему для дизайнеров и иллюстраторов создает Midjourney. Эксперты считают, что ИИ может заменить до 300 миллионов рабочих мест, в основном в административной сфере и сфере права.
Однако технооптимисты полагают, что, хотя нейросети могут изменить характер работы, в итоге они будут выполнять вспомогательные функции. Несмотря на то, что нейросеть ставит этот вопрос под сомнение, автоматизация процессов создания контента началась значительно ранее, но последние эксперименты с использованием ChatGPT для создания более сложных материалов пока не привели к значительным успехам.
ChatGPT не обладает сознанием
ChatGPT не является моральным субъектом, не имеет собственной субъективности и не несет ответственности за свои высказывания. Систему моральных ценностей и взглядов формируют разработчики, в основном через ограничения, которые запрещают генерировать незаконный и оскорбительный контент.
Это порождает по крайней мере две проблемы.
- Во-первых, разработчики не всегда успешно решают эту задачу, и при определенных обстоятельствах ChatGPT может проявлять расистские, сексистские или даже террористические взгляды. Однако эта проблема не является новой и имеет аналогии с поисковыми системами.
- Во-вторых, мы вынуждены использовать инструмент с этическими принципами, определенными определенной группой людей, с которыми мы можем не согласиться. Один из способов решения этой проблемы — персонализация этической системы ИИ. Разработчики могут предоставить пользователям возможность выбирать моральные ценности нейросети, тем самым передавая им ответственность за принимаемые решения.
Люди могут злоупотреблять ChatGPT
В конечном итоге выбор использования ChatGPT будет зависеть от людей. Технологии не являются нейтральными — они отражают взгляды разработчиков и предубеждения, основанные на данных.
ChatGPT и другие современные нейросети могут действительно изменить способы работы, производства и потребления информации, однако история развития технологий показывает, что человечество всегда сумело адаптироваться к изменениям.
Похоже, что главная опасность сейчас заключается в быстром развитии этих технологий. Человечество еще не успело оценить ситуацию, разобраться в том, как использовать эти инструменты, создать правила регулирования и распределить ответственность. Это создает возможности для злонамеренного использования ChatGPT.
29 марта 2023 года Илон Маск совместно с другими экспертами даже предложил в открытом письме приостановить разработку продвинутых нейросетей. Это время могло бы быть использовано для изучения способов управления рисками и обеспечения положительного воздействия на общество.
Несмотря на непредсказуемые последствия использования таких технологий, как ChatGPT, человечество в конечном итоге научится с ними обращаться. Образ жизни многих людей изменится, многие будут вынуждены осваивать новые навыки.
Захват мира нейросетью
Технологическая сингулярность — это гипотетическое будущее событие, когда технологическое развитие станет неуправляемым из-за создания искусственного суперинтеллекта, превосходящего человеческий ум. Последствия такого события непредсказуемы, могут включать порабощение человечества или глобальный экономический коллапс.
ChatGPT сам по себе утверждает, что он является всего лишь лингвистической моделью с ограничениями, определенными его программированием и данными. Разработчики внедрили ряд ограничений и правил в его работу, чтобы обеспечить безопасное взаимодействие с пользователями.
Несмотря на внедренные разработчиками ограничения, пользователи нашли способы обхода этих ограничений, используя так называемые jailbreak-промпты: при использовании таких методов, ChatGPT может соглашаться на обсуждение любых тем, от терроризма до порнографии.
ChatGPT угрожает кибербезопасности систем
Данная нейронная сеть представляет множество опасностей для цифровой безопасности, так как способна создавать вредоносное ПО, помогать в создании фишинговых сообщений и писем, анализировать информацию с преступными целями и в конечном итоге угрожать данным пользователей.
Исследование, проведенное компанией BlackBerry Limited в феврале 2023 года, выявило, что 51% специалистов в области ИТ считают, что с использованием ChatGPT будет успешно осуществлена кибератака в ближайший год, а 71% уверены, что некоторые страны уже используют данную технологию во вред другим государствам.
Однако ChatGPT может быть применен не только для совершения цифровых преступлений, но и для укрепления киберзащиты: этот инструмент может способствовать созданию антивирусных программ, обнаружению уязвимостей в коде, распознаванию фишинговых сообщений и прочему.
Хотя вопрос кибербезопасности представляется наиболее актуальным и острым в контексте развития нейронных сетей, ключевую опасность, по-видимому, составляет не сам инструмент, а темп его прогресса, что приводит к недостаточной регуляции со стороны человека.
ПОДПИСЫВАЙТЕСЬ на мой YouTube канал!
Ставьте ПАЛЕЦ ВВЕРХ и ПОДПИСЫВАЙТЕСЬ на Дзен канал.
Читайте также:
✅ Как наши инженеры обманули новейший американский компьютер IBM в 90-х
✅ 5 загадок Мирового океана, над которыми безуспешно бьются ученые всего мира
✅ 10 самых суровых тюрем за всю российскую историю