Найти в Дзене
Логово ИИ

ИИ-пчелы против ИИ-меда.

Почему люди, продвигавшие искусственный интеллект, теперь подписывают манифесты о конце света? Всего за два месяца тысячи экспертов призвали приостановить работу ИИ. Еще в марте более 30 000 человек во главе с Илоном Маском и Стивом Возняком призвали приостановить исследования в области ИИ на шесть месяцев. Затем Джеффри Хинтон — ушел из Google, потому что “опасается, что ИИ нанесет серьезный вред”. Вскоре Сэм Альтман — генеральный директор OpenAI, компании, создавшей ChatGPT, заявил, что «все может пойти очень плохо». Вся эта внезапная озабоченность вызывает несколько вопросов. 1. Что конкретно нужно регулировать? Трудно регулировать то, чего мы до сих пор не понимаем. Один из обладателей премии Тьюринга, Янн ЛеКун так высказался про шумиху, вызванную ИИ: «Сверхчеловеческий ИИ далеко не первый в списке экзистенциальных рисков. Во многом потому, что его пока не существует. Пока у нас не будет базовой конструкции даже для ИИ хотя бы собачьего уровня (не говоря уже о человеческом), обсу

Почему люди, продвигавшие искусственный интеллект, теперь подписывают манифесты о конце света?

Всего за два месяца тысячи экспертов призвали приостановить работу ИИ. Еще в марте более 30 000 человек во главе с Илоном Маском и Стивом Возняком призвали приостановить исследования в области ИИ на шесть месяцев. Затем Джеффри Хинтон — ушел из Google, потому что “опасается, что ИИ нанесет серьезный вред”. Вскоре Сэм Альтман — генеральный директор OpenAI, компании, создавшей ChatGPT, заявил, что «все может пойти очень плохо».

Вся эта внезапная озабоченность вызывает несколько вопросов.

1. Что конкретно нужно регулировать?

Трудно регулировать то, чего мы до сих пор не понимаем. Один из обладателей премии Тьюринга, Янн ЛеКун так высказался про шумиху, вызванную ИИ: «Сверхчеловеческий ИИ далеко не первый в списке экзистенциальных рисков. Во многом потому, что его пока не существует. Пока у нас не будет базовой конструкции даже для ИИ хотя бы собачьего уровня (не говоря уже о человеческом), обсуждать, как сделать его безопасным, преждевременно».

Да и сам Сэм Альтман считает, что для того, чтобы произошел настоящий скачок в возможностях ИИ, должны произойти вещи, о которых мы в настоящее время не имеем представления.

2. Почему так много манифестов?

Если в марте был манифест, зачем нам еще один? Отличие короткого майского манифеста в том, что он подписан лидерами отрасли — Альтманом (OpenAi), Хассабисом (Google), Амодеем (Anthropic) и Хинтоном (ранее Google), — которые не подписали первый манифест, призывавший к мораторий на разработку программ ИИ. Очевидно, что эти компании не хотят приостанавливать свои исследования. Остальные подписавшиеся составляют небольшую часть тех, кто уже поддержал первоначальный мартовский манифест, в который входит более 31 000 человек.

3. Все это дымовая завеса?

Вопросы этики искусственного интеллекта (касаемо тех же дипфейков) поднимаются уже не первый и не второй год. Форсирование обсуждений со стороны технологических гигантов гарантирует, что с ними проконсультируются, когда придет время предлагать законопроекты. Если законодатели сочтут эти модели ИИ непонятными, им потребуется помощь экспертов внутри компаний для их регулирования. Таким образом, одно из возможных объяснений манифестов заключается в том, что крупные технологические компании, такие как OpenAI, предпочитают, чтобы политики сконцентрировались на обсуждении наиболее драматичных сценариях конца света, а не сосредотачивались на законах, которые могут усложнить экспансию крупных фирм ИИ прямо здесь, в настоящем.

Наряду со всеми этими предположениями мы не должны игнорировать наиболее явную причину поддержки этих манифестов: искренне верить в то, что искусственный интеллект представляет собой экзистенциальную опасность. Мы должны учитывать возможность того, что подписавшие — хотя у многих из них есть очевидные экономические интересы — искренне опасаются конца света, вызванного неумелым управлением ИИ.

А как считаете вы?