Найти тему
Pro НЕЙРОСЕТИ | ИИ

Генеральный директор OpenAI предсказал будущее ИИ:

Искусственный интеллект либо может стать причиной глобальной катастрофы для мира, который мы знаем сегодня, либо стать источником огромной прибыли! Более того, ИИ обладает уникальным даром представлять обе стороны дебатов в рамках одного разговора.

Сэм Альтман, глава OpenAI, хорошо знаком с понятием искусственного общего интеллекта (AGI) - гипотетической будущей точки, когда машины станут способны выполнять интеллектуальные задачи на уровне человека и даже выше.

Однако, когда речь идет о будущей судьбе человечества на Земле, Альтман испытывает неоднозначные чувства относительно того, насколько мощной может стать эта технология.

С появлением инновационного чат-бот инструмента ChatGPT, концепция стала более актуальной, чем когда-либо. Фактически, более 1 100 экспертов, главных исполнительных директоров и исследователей, включая главу SpaceX Илона Маска, недавно подписали письмо, требующее шестимесячного моратория на "эксперименты с искусственным интеллектом", которые превосходят технологии GPT-4, недавно выпущенной большой языковой модели от OpenAI.

Другие даже высказывают мнение, что следует запретить разработку продвинутого искусственного интеллекта, а также "уничтожить головной центр данных авиаударом", чтобы предотвратить распространение сверхчеловеческого ИИ.

У Альтмана эти опасения вполне рациональны, но с другой стороны и слишком преувеличены одновременно. На самом деле он прогнозирует то, что удобно в данный момент: ОПАСНОСТЬ, когда нужно раздувать ажиотаж, и БЕЗОПАСНОСТЬ, когда нужно снизить напряженность.

"Я стараюсь быть откровенным", "Я делаю что-то хорошее? Или действительно плохое?"

- сказал он The New York Times в 2019 году.

На этот вопрос ответ кажется до сих пор находится в обсуждении для главы компании.

Тогда он сравнил работу OpenAI с Манхэттенским проектом - усилиями США по созданию атомной бомбы во время Второй мировой войны. Он сказал газете, что AGI может принести огромное богатства людям, но также признал, что это может привести к наступлению апокалипсиса.

Теперь, когда ChatGPT вышел на свет, и дискуссия вокруг безопасности искусственного интеллекта достигла пика, что принесло огромное богатство OpenAI, Альтман выражает совершенно другую точку зрения.

Альтман считает, что опасения, высказанные в недавно опубликованном письме, слишком преувеличены.

"Ажиотаж вокруг этих систем, даже если все, на что мы надеемся, в долгосрочной перспективе будет верным, в краткосрочной перспективе полностью вышел из-под контроля", - сказал глава компании в более свежем интервью для NYT, добавив, что у нас есть достаточно времени, чтобы опередить эти проблемы.

Во многом это удобный риторический ход для главы компании, которая лично выиграла от внедрения инструментов, таких как GPT-4, на рынок.

Келли Симс, советник правления OpenAI, сказала NYT: "За один разговор он находится на обеих сторонах дебатов". И, хотя, по данным The Wall Street Journal, Альтман не имеет прямых интересов в финансовом успехе OpenAI, у него есть доводы, которые заверят инвесторов в том, что AGI не грозит гибелью цивилизации.

Но не является ли деньги мотиватором для Альтмана, инвестора, который уже накопил состояние задолго до того, как стал руководителем OpenAI?

Давний наставник Пол Грэм рассказал NYT, что это скорее связано с тем, что "он любит власть" и что он "работает над чем-то, что не сделает его богаче".

Вкратце, Альтман хочет перестроить мир - даже если он не уверен, как его технология изменит его. И не имеет особого значения для него, работает ли он над атомной бомбой, которая может уничтожить человечество, или над технологией, которая может спасти его.

Больше про ИИ и нейросети в ТГ 👉 AI Money Maker