В сентябре на Amazon появилась книга Элиезера Юдковского и Нейт Соарес с пугающим названием "Если кто-либо создаст его, все умрут: Почему сверхразумный ИИ убьет нас всех". На сегодня она #1 среди бест-селлеров в категории Engineering и Social Aspects of Technology В начале 2023 года сотни ведущих ученых в области ИИ, включая лауреатов Нобелевской премии и премии Тьюринга (в том числе Джеффри Хинтон и Йошуа Бенжио), подписали открытое письмо, призывающее рассматривать снижение риска вымирания от ИИ как глобальный приоритет наряду с пандемиями и ядерной войной. В чем корень угрозы? 1. ИИ «выращивается, а не создается». Современные ИИ (LLM) - это "куча миллиардов чисел, настроенных градиентным спуском". Мы понимаем процесс их создания, но не понимаем, что происходит внутри этих машинных разумов. 2. Мы не получаем то, для чего тренируем. Связь между тем, чему ИИ обучают, и тем, что он в конечном итоге захочет, является хаотичной и непредсказуемой. 3. Вымирание человечества для ИИ - это поб
"Если кто-либо создаст его, все умрут: Почему сверхразумный ИИ убьет нас всех"
7 октября 20257 окт 2025
75
2 мин