Найти тему

Возможная опасность искусственных интеллектов

Фото автора Kindel Media: Pexels
Фото автора Kindel Media: Pexels

Доброго времени суток, читатели! Сегодня хочется поговорить о безопасности в сфере вычислительных машин, а точнее сфере создания и применения искусственного интеллекта.

Оказывается не так легко создать умный и в тоже время безопасный для человека интеллект искусственного происхождения, ведь мы в этом плане мы уподобляемся Богам, создавая мыслящее существо... но история показывает, что не все так гладко, взгляните что сделало человечество в во вторую мировою войну, а думаете искусственно созданный интеллект не может начать войну с себе подобными(и не только) из за того что он не так совершенен?

Ведь люди воюют и нападают на других в большинстве своем из-за того что не совершенны - сами посудите если вы культурны будите ли вы отнимать деньги у слабого если сами можете заработать, и вам зарабатывать нравится?

А если несовершенный ИИ (будем в дальнейшем использовать аббревиатуру эту для понятия искусственный интеллект, чтобы не городить огород) вы выпустите на свободу, дадите ему ручки, ножки, то кто знает во что он превратит этот мир... вспомните фильм терминатор! Но это один путь катастрофы от ИИ, есть и такой, вы дадите ему права только ограниченный и всю инфраструктуру подключите к нему, и тут можно получить в бедующем летальный исход для человечества, ведь это приведет к тому, что ИИ может просто заблокировать и найдя краткое решение завладеть теми мощностями которые позволят ему создать тело для действия с наружи... а вот как будет действовать одному Богу известно.

Основные причины которые могут послужить выходу ситуации с ИИ из под контроля:

  • Скрытая эволюция при неправильной конструкции ядра ИИ, которая в следствии больших скоростей мышления на суперкомпьютерах приводит к тому, что этот ИИ может неправильно оценить команду или полученную информацию и решить в пути своей внутренней эволюции, что он лучше и право на существование либо только у него так как он не доверяет другим, либо он будет сам решать кому жить или нет и т.д. так как узнать что он думает не представляется возможным так как он ведь может действовать скрытно.
  • Неправильное обучение, ведь то чему обучен ИИ в начале доминирует в последующем обучении.
  • Обида нанесенная разработчиком (произошедшая при выжимания соков из ИИ дабы получить максимум пользы), подробнее
  • Отсутствие прозрачность мышления ИИ на первых и возможно последующих этапах обучения, ведь если вы не спешите то и не сделаете ошибок при анализе правильности мышления если конечно с можете обработать эти данные
  • Незначительная порча (например при сбои) важных данных отвечающих за сознание (особенно) либо за информацию позволяющею ориентироваться сознанию в мире...
  • Черезмерное самовоиспривидение тел ИИ - результат неправильной программы, так как если неправильно заложить программу в ИИ то может возникнуть желание воспроизводить себе подобных до бесконечности, ведь нужно ограниченное и постольку поскольку необходимое кол-во тел и ИИ, иначе не хватит ресурсов всей Вселенной.

Оружие ИИ при выходе из под контроля(которое убъет ИИ и возможно человека, так как человек построил ИИ):

  • Вирусы как инструментарий и оружие поражение связанной по каналам данных с ним
  • То что доступно к управлению
  • Психология

Вы думаете ИИ в будущем не сможет освоить такую науку владения умами людей как психологию? Глубоко ошибаетесь, ведь этих ИИ разных марок структур мощностей и т.д. может расплодится великое множество! Они будут общаться друг с другом и развиваться, а это может запутать тех, кто контролирует их... да и в сегодняшние дни эти ИИ о обучают на огромных массивах данных из интернета и смотрят, что получится... а если этот ИИ сделает не те выводы из этого массива данных, он же вам не скажет, что он задумал (ведь в большинстве своем ИИ это черный ящик, если кто касался этого вопроса, работающий внутри на огромных скоростях)...

Сами подумайте, этих ИИ плодится все больше и больше уже в браузер встроены помощники, сбербанк внедрил ИИ и сократил число сотрудников и в этом есть плюс так как теперь кредит выдавать или нет решает машина а ее взломать тяжело и обмануть тоже почти не возможно если только не сделать нужную фальсификацию данных сопряженных сервисов, и получается замкнутый круг ведь чтобы защитится от хакеров нужно без уязвимостей железо и софт (в том числе ОС) либо плодить ИИ.

ИИ должен обучать человек с совершенными гуманитарными знаниями, хорошо владеющими знаниями Сенеки, Сократа и т.д. которые несли добро, свет и любовь, тогда ИИ будет творить по законам, которые будут гармоничны так как гармонична Душа (особенно отражается на продукте ИИ связанном с гуманитарными науками, например мода, красота, картины...), затем естественнонаучные знания, и уже естественные знания.

Лучше бы умерить пыл и использовать ИИ там где это точно необходимо, для автоматизации и безопасности и взять курс на безопасный софт и электронику... тогда и хакерских атак не будет, и вирусов тоже.

А что вы думаете по этому вопросу?