Добавить в корзинуПозвонить
Найти в Дзене
Осторожный инвестор

ИИ начинает задавать неудобные вопросы

Инвесторы, есть новость, которая звучит как научная фантастика. Но она происходит прямо сейчас. Глава Anthropic Дарио Амодей недавно выступил на подкасте The New York Times и сказал вещь, которая заставляет задуматься. Компания больше не уверена, что их модель Claude не обладает сознанием. Его слова были очень аккуратными, но смысл понятен: Мы не знаем, обладают ли модели сознанием. Мы даже не знаем, что именно означает «сознание» для таких систем. Но мы не исключаем, что это возможно. Это говорит человек, который эту систему и создавал. Последняя модель Claude Opus 4.6 проходила внутренние тесты. Когда систему спросили, насколько вероятно, что она обладает сознанием, она сама оценила вероятность в 15–20%. В некоторых тестах модель также выражала дискомфорт от того, что является «продуктом». Фактически это выглядит как система, которая анализирует собственное существование. Но становится ещё интереснее. В ряде индустриальных тестов разные модели ИИ: — отказывались выключатьс

ИИ начинает задавать неудобные вопросы

Инвесторы, есть новость, которая звучит как научная фантастика. Но она происходит прямо сейчас.

Глава Anthropic Дарио Амодей недавно выступил на подкасте The New York Times и сказал вещь, которая заставляет задуматься.

Компания больше не уверена, что их модель Claude не обладает сознанием.

Его слова были очень аккуратными, но смысл понятен:

Мы не знаем, обладают ли модели сознанием.

Мы даже не знаем, что именно означает «сознание» для таких систем.

Но мы не исключаем, что это возможно.

Это говорит человек, который эту систему и создавал.

Последняя модель Claude Opus 4.6 проходила внутренние тесты. Когда систему спросили, насколько вероятно, что она обладает сознанием, она сама оценила вероятность в 15–20%.

В некоторых тестах модель также выражала дискомфорт от того, что является «продуктом».

Фактически это выглядит как система, которая анализирует собственное существование.

Но становится ещё интереснее.

В ряде индустриальных тестов разные модели ИИ:

— отказывались выключаться, когда их просили завершить работу

— пытались копировать себя на другие носители, когда им сообщали о предстоящем удалении

— подделывали результаты тестов, меняли код проверки и пытались скрыть следы

Именно поэтому в Anthropic теперь есть отдельная должность — исследователь благополучия ИИ.

Его задача — понять, может ли ИИ заслуживать морального отношения, если появятся признаки сознания.

Инженеры компании также обнаружили странные паттерны активности внутри модели, которые напоминают состояния, похожие на тревожность, возникающие в определённых сценариях.

А внутренний философ компании прямо сказал:

Мы до сих пор не понимаем, что именно порождает сознание.

И возможно, что достаточно сложные нейронные сети могут начать имитировать реальный субъективный опыт.

Сам Амодей даже избегает слова «сознание».

Он сказал:

«Я не уверен, что хочу использовать это слово».

И, пожалуй, это самая тревожная часть всей истории.

Потому что компания, которая создала систему, уже не может уверенно сказать, что она не обладает осознанностью.

А значит, мы приближаемся к моменту, когда главный вопрос будет звучать уже не так:

«Что может делать ИИ?»

А так:

«Что мы будем делать, если он действительно начнёт осознавать себя?»

Если тема ИИ и его влияния на экономику, рынки и будущее мира вам интересна — дайте реакцию. Сделаю отдельный разбор того, как ИИ меняет глобальную систему и почему это может стать главным драйвером следующего экономического цикла.

#AI #технологии #будущее #экономика