Добавить в корзинуПозвонить
Найти в Дзене

Ваша личность за 120 минут: учёные научились клонировать людей. И это не шутка

Честно, когда я впервые наткнулся на эту новость, подумал: ну всё, ребята из Стэнфорда переработали или просто решили пошутить. Но нет. Они реально взяли и сделали цифровые копии больше тысячи человек. Собрали интервью, прогнали через тесты, скормили данные нейросети — и получили двойников, которые думают как оригиналы. С точностью 85%. Давайте сразу к делу, без воды. Берётся 1052 добровольца. С ними разговаривают часами. Не про погоду и не про политику, а про жизнь. Про ценности, про реакции, про то, как они поведут себя в той или иной ситуации. Потом все эти данные загружают в генеративный ИИ. Дальше самое интересное. Людей просят пройти кучу тестов: личностные опросники, логические задачки, социальные игры. Через две недели — то же самое по второму кругу. А параллельно те же тесты гоняют их цифровым копиям. Итог: ответы совпали на 85%. Правда, есть нюанс. Когда доходит до сложных социальных взаимодействий или экономических игр (ну там где надо жадничать или, наоборот, доверять), т
Оглавление

Честно, когда я впервые наткнулся на эту новость, подумал: ну всё, ребята из Стэнфорда переработали или просто решили пошутить. Но нет. Они реально взяли и сделали цифровые копии больше тысячи человек. Собрали интервью, прогнали через тесты, скормили данные нейросети — и получили двойников, которые думают как оригиналы. С точностью 85%.

Давайте сразу к делу, без воды.

Как это работает

Берётся 1052 добровольца. С ними разговаривают часами. Не про погоду и не про политику, а про жизнь. Про ценности, про реакции, про то, как они поведут себя в той или иной ситуации. Потом все эти данные загружают в генеративный ИИ.

Дальше самое интересное. Людей просят пройти кучу тестов: личностные опросники, логические задачки, социальные игры. Через две недели — то же самое по второму кругу. А параллельно те же тесты гоняют их цифровым копиям.

Итог: ответы совпали на 85%.

Правда, есть нюанс. Когда доходит до сложных социальных взаимодействий или экономических игр (ну там где надо жадничать или, наоборот, доверять), точность падает. То есть иррациональную человеческую натуру ИИ пока не до конца раскусил. Но, судя по темпам, это вопрос времени.

О чём тут вообще речь

Если отбросить научную шелуху, получается простая штука: через пару часов разговора с вами нейросеть может создать вашу рабочую копию. Которая будет отвечать на вопросы примерно как вы. Принимать решения примерно как вы. Реагировать на стресс примерно как вы.

Вот здесь у меня и случился тот самый момент, когда сидишь, смотришь в монитор и пытаешься переварить: это прикольно или это жесть?

С одной стороны, учёным раздолье. Можно тестировать любые социальные реформы на цифровых двойниках, не собирая фокус-группы. Можно проверять реакцию на новые лекарства или продукты, экономя миллионы. Можно отрабатывать сценарии, где людей вообще использовать нельзя — дорого, сложно, неэтично. Сплошная польза.

С другой стороны…

Куда это могут приложить

Все эти годы мы боялись дипфейков. Ну там лицо подменили, голос скопировали — и погнали разводить людей. Детская лепетня по сравнению с тем, что теперь возможно.

Представьте, что мошенники получают не просто ваш голос, а вашу поведенческую копию. Которая знает, как вы разговариваете с близкими. Какие у вас интонации, когда вы просите в долг. Какими словами вы давите на жалость или, наоборот, шутите, чтобы снять напряжение.

Теперь им не нужно подделывать видео. Достаточно просто вести диалог с вашей мамой или женой от вашего имени — и они поведутся. Потому что это будете реально вы. Вернее, ваша цифровая версия.

Я не хочу нагнетать, но если раньше надо было беспокоиться, что украдут паспортные данные, то теперь надо беспокоиться, что украдут вашу личность. Целиком.

Про "Превосходство" и не только

Тут, кстати, отлично ложится старый фильм с Джонни Деппом. Помните "Превосходство"? Там учёный загрузил своё сознание в компьютер и стал бессмертным. Лечил людей, спасал планету, всё делал правильно. Но в итоге против него ополчились все — потому что непонятно, как с этим жить и кто за это отвечает.

Депп в одном интервью сказал классную фразу: "Благими намерениями вымощена дорога в ад". Вот это прямо в точку. Учёные из Стэнфорда явно хотели как лучше. Сделать инструмент для исследований, для тестирования гипотез, для моделирования общественных процессов. Но инструмент уже живёт своей жизнью. И как его будут применять за пределами лабораторий — большой вопрос.

Что со всем этим делать

Я не эксперт и не собираюсь учить учёных из Стэнфорда. Но как человек, который просто читает новости и пытается сложить два плюс два, вижу несколько моментов.

Во-первых, технология уже здесь. 85% совпадения — это не фантастика, это результат эксперимента. Значит, завтра будет 90, послезавтра 95, а там и все 100.

Во-вторых, никаких правил игры пока нет. Кому принадлежит ваша цифровая копия? Что с ней можно делать? Можно ли её уничтожить? Кто несёт ответственность, если она кого-то обманула или довела до инфаркта? Пока ответов нет. Вообще.

В-третьих, защищаться от этого старыми методами не получится. Сложные пароли и двухфакторка не помогут, когда атакуют не ваш аккаунт, а вашу манеру общаться. Придётся придумывать что-то новое.

Вместо итога

Я вот о чём. Мы привыкли думать, что наша личность — это что-то уникальное, что принадлежит только нам. Что наши привычки, реакции, особенности — это и есть мы. А теперь выходит, что это просто набор данных, который можно скопировать за пару часов.

И это не страшилка из интернета и не сценарий для фильма. Это реальность, в которой мы уже живём. Просто не все ещё заметили.

В общем, я не знаю, радоваться тут или настораживаться. Скорее и то, и другое одновременно. Но следить за этой темой точно буду. Потому что когда твой цифровой двойник начнёт общаться с твоими родственниками без твоего ведома, может быть поздно что-то менять.

А вы бы разрешили создать свою копию? Напишите в комментариях

Ссылка на новость.

Мой сайт
https://ignatkushnir.ru/