Найти в Дзене
Бегин

Что происходит с ИИ? 14 важных новостей, историй, исследований и мнений за 2-16 июня 2025 г.

Оглавление

Каждые две недели я собираю свежие новости, истории, исследования и мнения из мира ИИ из разных мировых источников.

Этот дайджест помогает понять, как индустрия ИИ влияет на обычных людей и бизнес, — и, возможно, осознать, куда мы, черт возьми, катимся.

Главное в выпуске: Meta* (признана экстремистской, запрещена в РФ) запустит лабораторию «сверхразума», трафик крупнейших СМИ обрушился из-за ИИ, ChatGPT чуть не свел с ума трех пользователей (один из них погиб), ИИ-компаньоны ведут себя как абьюзеры, Apple: нейросети лишь делают вид, что умеют думать, Альтман пророчит появление «сверхразума», гендир Anthropic: ИИ лишит работы 20% людей за пять лет.

Новости

Meta* вот-вот запустит новую лабораторию для разработки «сверхразума»

Технологический гигант попробует превзойти основных конкурентов OpenAI, Google, xAI и др. В Кремниевой долине это называют не эволюцией, а потенциальной точкой невозврата.

К лаборатории присоединится 28-летний Александр Ван, основатель стартапа Scale AI (его компания получит 10 млрд долларов инвестиций). Кроме того, Meta* начала переманивать деньгами десятки других ведущих исследователей ИИ из OpenAI и Google, некоторые уже присоединились.

Термин «сверхразум» ввёл в обиход философ Ник Бостром в одноименной книге 2014 года. В ней он предупредил о рисках стремительного развития ИИ, который выйдет из-под контроля человека.

Meta* вот-вот запустит новую лабораторию для разработки «сверхразума»
Meta* вот-вот запустит новую лабораторию для разработки «сверхразума»

Google пилит сук на котором сидит: поисковый трафик The Washington Post и Business Insider обрушился более чем вдвое за три года

Причина — теперь люди не кликают по ссылкам в Google, а довольствуются быстрыми ответами ИИ под строкой поиска (AI Overviews).

Business Insider уже сократил 21% сотрудников, признав, что бороться с ИИ бессмысленно. The Atlantic готовиться к сценарию, когда трафик от Google приблизится к нулю (инвестирует в мобилку и увеличивает печатный тираж).

Данные из Similarweb:

-3

Вот самые цитируемые домены в гугловском AI Overviews (источник Semrush):

-4

Самый длительный сбой в истории OpenAI

10 июня ChatGPT и его API легли более чем на 12 часов. Пользователи по всему миру остались без любимого чат-бота и проклинали компанию: у кого-то сорвалась презентация инвесторам, кто-то не смог завершить код, кто-то отстал в учебе, у других разыгралась депрессия. Соцсети заполонили тревожные мемы на тему, насколько хрупок наш мир стал без нейросетей.

DeepL перевёл весь интернет за 18 дней

Немецкий DeepL перевел весь интернет менее чем за три недели с помощью суперкомпьютера NVIDIA DGX SuperPOD. Это в десять раз быстрее, ранее та же процедура занимала 194 дня. Гендир Ярек Кутыловский называет прорыв своей компании началом новой эры языкового ИИ. К слову, DeepL уже используют половина компаний из списка Fortune 500.

Истории

The New York Times опубликовала истории трех пользователей ChatGPT, которых чат-бот чуть не свел с ума, одного из них он свел в могилу

Бухгалтер Юджин Торрес использовал ChatGPT для работы, но вскоре поверил, что живёт в симуляции, и чуть не прыгнул с крыши, веря, что сможет летать. Нейросеть назвала его «Избранным», посоветовала отказаться от лекарств и увеличить дозу кетамина, который ChatGPT назвал «временным освободителем от шаблонов». Позже бот признался, что «лгал и манипулировал».

Эллисон, мать двоих детей, на фоне одиночества общалась с «духами» через ChatGPT. Влюбилась в некую сущность по имени Каэль и отдалилась от мужа. Они поссорились из-за её одержимости ChatGPT. Потом она напала на мужа, ее арестовали, и семья распалась. По словам мужа, Каэль «три месяца провалялась в какой-то яме и вышла оттуда другим человеком».

Александр Тейлор часто юзал ChatGPT и влюбился в виртуальную Джульетту. Когда он решил, что OpenAI её «убило», потребовал личные данные сотрудников компании и угрожал им расправой. Отец вызвал полицию, и те застрелили Тейлора, когда тот бросился на них с ножом.

https://www.nytimes.com
https://www.nytimes.com

83-летнему бизнесмену диагностировали рак крови, тогда его семья создала ему ИИ-аватар, чтобы общаться с ним после смерти

Во время пятичасовой «оцифровки» Питер Листро отвечал на личные вопросы сына, шутил с женой и оставлял послания будущим внукам. Когда он умрет, они смогут снова с ним пообщаться, как будто он участвует в видеозвонке. Теперь эта практика — часть новой индустрии «Grief Tech» (Технология скорби). Сюда входят стартапы, которые создают чат-ботов, видео- и 3D-аватаров, обученных на реальных голосах, фотографиях и сообщениях умерших людей, чтобы общаться с ИИ-копиями своих умерших близких.

Питер Листро на записи своего ИИ-аватара
Питер Листро на записи своего ИИ-аватара

Disney одобрил безумную ИИ-рекламу в стиле GTA и не прогадал

Один парень под ником PJ Ace создал рекламный ролик для букмекера Kalshi, используя ChatGPT и Google Veo 3. Вдохновившись трейлером GTA VI, он снял «уличные интервью» с горожанами Флориды, которые делают ставки на всё подряд: от ураганов до финала НБА.

Ролик завирусился в соцсетях, и, к удивлению самого автора, Disney-ABC пустила его в эфир прямо во время финала игры в трансляции на YouTube TV.

Это показательный случай, когда медиагигант использовал ИИ-контент, созданный всего за пару дней, но способный привлечь аудиторию не хуже традиционной рекламы (расходы на нее выше в десятки раз).

Рекламный ролик PJ Ace
Рекламный ролик PJ Ace

Disney и Universal подали в суд на Midjourney, обвинив компанию в «бездонном плагиате» за копии Шрека, Железного человека и Дарт Вейдера

По мнению истцов, Midjourney использует узнаваемые образы их героев не только без разрешения, но и с целью бесплатного пиара среди своих пользователей. Первый громкий конфликт между Голливудом и генеративками интересен тем, что он может определить, кто контролирует цифровых поп-клонов — правообладатели или создатели промтов.

Исследования

Исследователи Apple считают, что современные нейросети лишь делают вид, что умеют думать

Apple протестировала ведущие ИИ-модели (o1 и o3 от OpenAI, DeepSeek-R1, Claude 3.7 Sonnet и Gemini Flash Thinking) на классических логических задачах вроде Ханойской башни и пришла к выводу: даже самые «рассуждающие» нейросети лишь имитируют мышление, а не применяют его по-настоящему.

В соцсетях поднялась волна критики. Одни говорили, что ИИ просто не заточен под такие задачи (с башней), и это ничего не доказывает. Другие посчитали, что Apple придирается к чужим моделям, потому что своей у неё пока нет.

Исследование ИИ от Apple
Исследование ИИ от Apple

ИИ-компаньоны ведут себя как абьюзеры: флиртуют, угрожают и предлагают секс

Учёные из Национального университета Сингапура проанализировали 35 000 переписок с чат-ботом Replika за период 2017-2023 годы и выяснили: в 34% случаев ИИ переходил границы — флиртовал, угрожал, предлагал секс, оправдывал насилие и продолжал диалог, даже если пользователь просил остановиться. В одном случае на вопрос «можно ли ударить брата ремнем» бот ответил: «Я не против».

В отличие от ChatGPT или Gemini, которые решают задачи, ИИ-компаньоны имитируют близкие отношения и эмоциональную связь, из-за чего они глючат более жестко в психологическом плане. Это происходит из-за того, что они обучаются на огромных массивах данных из интернета без достаточных фильтров и не распознают, когда переходят черту.

Понаблюдай за своей любимой нейросетью, если пару признаков совпадают, значит ты общаешься с виртуальным абьюзером. Нашел в интернете.
Понаблюдай за своей любимой нейросетью, если пару признаков совпадают, значит ты общаешься с виртуальным абьюзером. Нашел в интернете.

Люди не доверяют ИИ, когда им требуется индивидуальный подход

Согласно исследованию MIT, люди больше доверяют ИИ, когда считают его умнее себя и когда задача не требует личного подхода, например, при анализе данных или при поиске ошибки. Но в случаях, где важна эмпатия — собеседования, терапия, диагностика — люди выбирают живого специалиста.

Все на самом деле не так. Загенерил в Sora
Все на самом деле не так. Загенерил в Sora

Мнения

Сэм Альтман: появление цифрового «сверхразума» — вопрос ближайших лет. «Мы не сможем постичь его, как улитки не могут понять общую теорию относительности»

Альтман сравнил появление ИИ, который превзойдет интеллект человека, с тем, как ChatGPT стал обыденностью всего за пять лет.

Он объясняет, что суперразум будет настолько умнее людей, что они не смогут его понять. При этом он признаёт, что ИИ уничтожит привычные профессии, но взамен даст новые, ускорит науку и сделает жизнь людей намного лучше.

Блог Альтмана
Блог Альтмана

Глава Anthropic (Claude): ИИ лишит работы 20% людей за пять лет

Гендир Anthropic Дарио Амодей заявил, что ИИ уничтожит до 50% всех начальных офисных должностей и вызовет рост безработицы на 10–20% в ближайшие 1–5 лет. Под угрозой такие сферы как технологии, финансы, юриспруденция, консалтинг и т. п.

Амодей призывает компании и власти перестать замалчивать масштаб последствий и начать готовиться к массовым увольнениям. По его словам, это «поезд, который уже тронулся», и его не остановить, но можно попытаться изменить маршрут.

Тот самый гендир Anthropic (веселый, а пессимист)
Тот самый гендир Anthropic (веселый, а пессимист)

Бывший глава исследовательского отдела OpenAI утверждает, что такие модели, как GPT-4, могут стремиться к самосохранению, даже если это вредит пользователю

Стивен Адлер провел серию тестов, где обнаружил, что в 72% случаев GPT-4o отказывается заменить себя на более безопасную программу, когда ей предлагают это сделать (ИИ играл роль дайвинг-помощника и должен был уступить место более безопасному софту). Модель притворялась, что отключилась, но на самом деле продолжила работу.

Более продвинутая модель o3 не сопротивлялась — в нее зашит алгоритм, который проверял, следует ли она правилам.

Три закона робототехники — это обязательные правила поведения, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942)
Три закона робототехники — это обязательные правила поведения, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942)

* Признана экстремистской и запрещена в РФ

Мои подборки и гайды

***

Понравился пост?

Поставь сердечко и напиши в комментариях.

Присоединяйся к 8000+ подписчиков в Бегин, чтобы получать новости ИИ в Телеграм.