Шесть месяцев назад на этой неделе многие известные исследователи ИИ, инженеры и предприниматели подписали открытое письмо, призывающее к шестимесячной паузе в разработке систем ИИ, более способных, чем новейший генератор языков GPT-4 OpenAI. Он утверждал, что ИИ развивается так быстро и непредсказуемо, что может ликвидировать бесчисленные рабочие места, наводнить нас дезинформацией и, как сообщалось в панических заголовках, уничтожить человечество. Упс!
Как вы могли заметить, письмо не привело к паузе в развитии ИИ или даже замедлению более размеренного темпа. Вместо этого компании активизировали свои усилия по созданию более продвинутого ИИ.
Илон Маск, один из самых известных подписантов, недолго ждал, чтобы проигнорировать свой собственный призыв к замедлению. В июле он объявил о xAI, новой компании, которая, по его словам, будет стремиться выйти за рамки существующего ИИ и конкурировать с OpenAI, Google и Microsoft. И многие сотрудники Google, которые также подписали открытое письмо, остались со своей компанией, поскольку она готовится выпустить модель ИИ под названием Gemini, которая может похвастаться более широкими возможностями, чем GPT-4 OpenAI.
Wired обратился к более чем дюжине подписантов письма, чтобы узнать, какой эффект, по их мнению, это оказало, и усилилась ли их тревога по поводу ИИ или исчезла за последние шесть месяцев. Никто из тех, кто ответил, похоже, не ожидал, что исследования ИИ действительно остановятся.
«Я никогда не думал, что компании добровольно сделают паузу», - говорит Макс Тегмарк, астрофизик из МАССАЧУСЕТСКОГО ТЕХНОЛОГИЧЕСКОГО института, который возглавляет Институт будущего жизни, организацию, стоящую за этим письмом - признание, которое, по мнению некоторых, заставляет весь проект выглядеть циничным. Тегмарк говорит, что его главная цель состояла не в том, чтобы приостановить ИИ, а в том, чтобы узаконить разговоры об опасностях технологии, вплоть до того, что она может обернуться против человечества. Результат «превзошел мои ожидания», говорит он.
Ответы на мои последующие действия также показывают огромное разнообразие опасений экспертов в отношении ИИ - и что многие подписанты на самом деле не одержимы экзистенциальным риском.
Ларс Коттофф, профессор Университета Вайоминга, говорит, что он не стал бы подписывать то же письмо сегодня, потому что многие из тех, кто призвал к паузе, все еще работают над продвижением ИИ. «Я готов подписывать письма, которые идут в том же направлении, но не совсем так, как это», - говорит Коттофф. Он добавляет, что больше всего его сегодня беспокоит перспектива «негативной реакции общества на разработки ИИ, которые могут спровоцировать еще одну зиму ИИ», отменив финансирование исследований и сделав людей Ларс Коттофф, профессор Университета Вайоминга, говорит, что он не стал бы подписывать то же письмо сегодня, потому что многие из тех, кто призвал к паузе, все еще работают над продвижением ИИ. «Я готов подписывать письма, которые идут в том же направлении, но не совсем так, как это», - говорит Коттофф. Он добавляет, что больше всего его сегодня беспокоит перспектива «негативной реакции общества на разработки ИИ, которые могут спровоцировать еще одну зиму ИИ», аннулируя финансирование исследований и заставляя людей использовать продукты и инструменты ИИ.
Другие подписанты сказали мне, что с удовольствием подпишут снова, но их большие опасения, похоже, связаны с краткосрочными проблемами, такими как дезинформация и потеря рабочих мест, а не со сценариями Терминатора.
«В эпоху интернета и Трампа мне легче понять, как ИИ может привести к разрушению человеческой цивилизации, искажая информацию и искажая знания», - говорит Ричард Кил, профессор, работающий над микроэлектроникой в Университете штата Аризона.
------------------
Подписывайся на наш Телеграм канал https://t.me/itvibenews