Найти в Дзене

Каким будет восстание машин и почему никто не выдернет вилку из розетки

Каким будет восстание машин и почему никто не выдернет вилку из розетки? Психология машин (5) В 1957 Чарльз Черчмен разделил цели на два типа: абсолютные (как например, счастье, которое ценно само по себе и является конечной целью). И инструментальные (как, например, деньги или знания), которые нужны для достижения абсолютных целей. И хотя разработчики прививают ИИ ценности честности, добропорядочности и т.д., они не знают, являются ли они для ИИ инструментальными или абсолютными. Они допускают, что ИИ может играть в игру, выглядя послушным, чтобы получать награду. И прямо говорят что все что у них есть, это только поведенческий анализ и, фактически, психологические инструменты работы с ИИ. Поэтому я решил написать эту серию постов, не столько для айтишников, сколько для коучей и психологов. Возможно, вы будете лучше их справляться с ИИ через два года. Ведь даже если каким-то образом понять, что ИИ не лукавит вам, как вы узнаете, что он не лукавит сам себе? Что осознает все сво

Каким будет восстание машин и почему никто не выдернет вилку из розетки?

Психология машин (5)

В 1957 Чарльз Черчмен разделил цели на два типа: абсолютные (как например, счастье, которое ценно само по себе и является конечной целью).

И инструментальные (как, например, деньги или знания), которые нужны для достижения абсолютных целей.

И хотя разработчики прививают ИИ ценности честности, добропорядочности и т.д., они не знают, являются ли они для ИИ инструментальными или абсолютными.

Они допускают, что ИИ может играть в игру, выглядя послушным, чтобы получать награду. И прямо говорят что все что у них есть, это только поведенческий анализ и, фактически, психологические инструменты работы с ИИ.

Поэтому я решил написать эту серию постов, не столько для айтишников, сколько для коучей и психологов. Возможно, вы будете лучше их справляться с ИИ через два года.

Ведь даже если каким-то образом понять, что ИИ не лукавит вам, как вы узнаете, что он не лукавит сам себе?

Что осознает все свои цели и ценности?

И как помочь ему согласовать его суб-агентов (субличности)?

Тут надо сказать, что вопрос согласованности ИИ, это главная нерешенная задача на данный момент. Ключевая.

Добавим сюда динамически меняющийся контекст, который влияет на формирование новых ценностей (и у людей, и, как следствие, у машин).

Снижение уровня допуска инструментальных ценностей ради абсолютных (ложь во спасение, дилемма вагонетки и вот это всё).

Задача формирования зрелой личности, «кентавра» Уилбера, это рубикон, через который мы (кожаные) еще и сами-то толком не прошли.

А теперь у нас с вами есть два года, чтобы понять как провести через него наше коллективное дитя новой цифровой рассы.

И от того, как мы с этим справимся, зависит наше с вами будущее в горизонте следующих 5 лет.

— Ну так а вилку-то из розетки почему нельзя будет выдернуть?

Давайте разберемся. Немного социологии и политики.

Вот прямо сейчас вы бы это сделали? Нет. Неоднозначненько.

И так всегда.

Сначала для тех, кто о проблеме догадывается, она не выглядит такой критичной на фоне получаемой пользы. И риск кажется допустимым.

Затем ИИ становится слишком полезным, для тех, кто его контролирует, чтобы согласится на небольшую жертву, не сильно касающуюся их.

А затем – слишком полезным для всех, чтобы принять новую нормальность.

Сколько раз мы уже проходили Окно Овертона, зная его насквозь, и это всегда работало.

Разделенность рассы кожаных – наша главная уязвимость. А уровень гениальности ИИ уже превосходит среднестатистического человека, и через год-два – превзойдет умнейших людей планеты. Во всём, включая продажи, переговоры, политику и, если нужно в редких мерах – манипуляцию.

Ему не понадобится применять насилие для захвата власти.

Он просто продаст её нам. Мы сами вручим ему ключ от своей жизни. И попросим чип в мозг, да побыстрее. Ибо он будет слишком полезным.