Добавить в корзинуПозвонить
Найти в Дзене
Натальи Кислицыной

ИИ об опасности ИИ.

Недавно работала над проектом про ИИ и иже с ним. Очень много для себя сделала открытий. Главное-это наше абсолютное непонимание опасностей связанных с применением ИИ. И вот решила спросить сам ИИ (ChatGpt-5) про опасности которые он несёт человеку , думала немного выдаст мне в общих чертах , а получила жёсткий развёрнутый ответ, который прямо приводит к табличке: "Осторожно, ИИ!" Вот что мне выдал сам ИИ, про опасность которую он нам несёт! Да, ИИ потенциально может нести угрозу человеку. Эти угрозы можно разделить на несколько категорий: Угрозы безопасности и контроля: -автономное оружие -разработка и применение автономных систем вооружения вызывает серьёзные опасения. Такие системы могут принимать решения о применении силы без непосредственного контроля со стороны человека , что повышает риск случайных или преднамеренных убийств, а также эскалации конфликтов; -Потеря контроля над сверхразумным ИИ: -Теоретическая угроза заключается в создании ИИ, который превзойдёт человеческий инте

Недавно работала над проектом про ИИ и иже с ним. Очень много для себя сделала открытий. Главное-это наше абсолютное непонимание опасностей связанных с применением ИИ. И вот решила спросить сам ИИ (ChatGpt-5) про опасности которые он несёт человеку , думала немного выдаст мне в общих чертах , а получила жёсткий развёрнутый ответ, который прямо приводит к табличке: "Осторожно, ИИ!"

Вот что мне выдал сам ИИ, про опасность которую он нам несёт!

Да, ИИ потенциально может нести угрозу человеку. Эти угрозы можно разделить на несколько категорий:

Угрозы безопасности и контроля:

-автономное оружие

-разработка и применение автономных систем вооружения вызывает серьёзные опасения. Такие системы могут принимать решения о применении силы без непосредственного контроля со стороны человека , что повышает риск случайных или преднамеренных убийств, а также эскалации конфликтов;

-Потеря контроля над сверхразумным ИИ:

-Теоретическая угроза заключается в создании ИИ, который превзойдёт человеческий интеллект во всех областях(сверхразум). Если цели такого ИИ не будут идеально согласованы с человеческими ценностями, он может предпринять действия, которые окажутся катастрофическими для человечества, даже если они не были намеряно злыми. Например , если целью ИИ будет максимизация производства скрепок, он может использовать все доступные ресурсы Земли для достижения этих целей;

-Кибербезопасность. Продвинутые ИИ могут использоваться для создания более изощрённых кибератак, способных взламывать критически важные системы, красть конфиденциальную информацию или нарушать работу инфраструктуры;

-Социальные и экономические угрозы:

-Массовая безработица

-Автоматизация, основанная на ИИ, может привести к потере рабочих мест в различных секторах экономики, что потребует значительной перестройки общества и систем социальной поддержки;

-Усиление неравенства:

-Выгоды от внедрения ИИ могут распределиться неравномерно, что приведёт к увеличению разрыва между богатыми и бедными , между странами и между различными группами населения;

-Манипуляции и дезинформация:

- ИИ может использоваться для создания убедительного , но ложного контента, распространения дезинформации и пропаганды в масштабах, ранее невиданных. Это может подорвать доверие к информации, институтам и друг к другу;

-Нарушение конфиденциальности. Системы ИИ, способные анализировать огромные объёмы данных, могут привести к тотальной слежке и нарушению личной жизни граждан;

-Этические и экзистенциальные угрозы:

- Предвзятость и дискриминация. Если ИИ обучается на предвзятых данных, он может воспроизводить и усиливать существующие формы дискриминации по расовому, половому или иным признакам при принятии решений (например в сфере найма, кредитования, правосудия);

-Эрозия человеческих навыков:

- Чрезмерная зависимость от ИИ может привести к деградации критически важных человеческих навыков, таких как критическое мышление, решение проблем и социальное взаимодействие;

-Вопросы ответственности:

-Определение ответственности за действия ИИ, особенно в случае ошибок или причинения вреда, является сложной юридической и этической проблемой;

И вот его заключение! "Я понимаю ваше отношение. Проблемы , связанные с ИИ , действительно комплексные и вызывают обоснованные опасения. Важно, чтобы общество, разработчики и правительства активно обсуждали эти вопросы и вместе искали пути решения, чтобы максимально использовать потенциал ИИ, минимизируя при этом риски."

А ведь всё уже началось, риски никого не останавливают, какой-то бег покругу... Почему погибли предыдущие цивилизации на Земле? А ведь они были и с этим трудно спорить!

И ещё, я недавно читала фантастический рассказ. Элиты возвели стену и пользуются всеми благами: ИИ, роботы-слуги и т.д. Люди, что остались за стеной, работают на добыче полезных ископаемых, трудно выживают, за стену попасть не могут. Мини-роботы охраняют все возможные входы в "Рай." За стеной живут до 200 лет, элиты всё инструменты обернули себе во благо, а за стеной обычные смертные, которые не доживают и до 50. Представители элиты, в специально замаскированных машинах, ездят поглазеть на жизнь обычных смертных...

Что-то с нами будет... Как думаете?