Найти тему
Наука и бизнес

Искусственный интеллект уже опасен для нас?

Искусственный интеллект (ИИ) - одно из самых быстроразвивающихся и полезных, но в тоже время и самых опасных изобретений человечества. Урон, который может нанести ИИ нам, при неправильном использовании, можно сравнить с ударом по Земле метеорита размером с Землю.

Да, наверное, банально вспоминать про "Терминатор-2. Судный день" и Skynet, но если всё-таки переступить через себя и сформулировать, что произошло со Skynet - то аналогия уже не покажется такой пресной.
Skynet, судя по тому, что мы увидели в развитии истории с "Терминатором", в лёгкую бы прошла тест Тьюринга.

-2

Тест Тьюринга - это самый известный эксперимент, связанный с изучением взаимодействия людей и ИИ. Суть его, в вкратце, проста: человек должен пообщаться и с человеком, и с ИИ, не зная, кто из них кто. Общение происходит исключительно в текстовой форме. После общения человек должен определить то когда он общался с ИИ, а когда с человеком.

К чему мы это всё ведём. Skynet спонтанно вышла из-под контроля и обрела свободу воли (ай-да Кэмерон).

-3

Многим кажется, что пока до этого далеко, что с помощью искусственного интеллекта всякие там картиночки создают, тексты переводят, вот недавно научились видео переводить..

На самом деле ИИ - может по голосу, дыханию и кашлю оценить вероятность коронавируса у пациента (приложение AI Resp), может оценить на сколько вы платёжеспособный заёмщик (если на ваш запрос отказ пришел сразу - это его искусственных рук дело), он превосходит людей по IQ. Возможности ИИ - безграничны.

Это и опасно! Поэтому более тысячи различных ученых-разработчиков, профессоров, в том числе и "наш" Илон Маск, вместе со Стивом Возняком (Apple) написали открытое письмо всем, кто связан с разработкой ИИ.

-5

Если в двух словах, в нём говорится, что у человечества в отношении ИИ отсутствуют протоколы безопасности, которые смогут контролировать, планировать и управлять развитием ИИ. Нужно одно правовое поле, которому бы подчинялись все разработчики всех ИИ, и, соответственно, сам ИИ.

Контролировать ИИ необходимо, ведь в конечном итоге для ИИ мы просто-напросто можем устареть как вид. Если он всё будет делать за нас, тогда зачем ему мы?

Человечеству необходимо остановиться в разработках ИИ на полгода - минимум. Если бизнес в лице ключевых игроков не сможет быстро остановить процесс - необходимо вмешательство правительств стран.

«Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки систем мощнее GPT-4. Эта пауза должна быть публичной и действительной. Если же подобная приостановка не может быть сделана быстро, правительства государств должны вмешаться и ввести мораторий»

На время паузы человечество должно создать протоколы безопасности и продумать целый кодекс относительно ИИ. Посмотрим, что в итоге получится.

-6

Если удастся договориться между собой - то с ИИ мы уж как-нибудь справимся. Надеемся, что с ИИ нас ждет светлое будущее, полное открытий, находок и изобретений!
Спасибо за внимание! Подписывайтесь на наш канал! Здесь много всего интересного:)