По словам эксперта по безопасности Яэль Тауман Калаи, даже сотрудники Anthropic, OpenAI и Google опасаются быстрого развития ИИ. Они глубоко обеспокоены тем, что «ИИ небезопасен». Эти и другие опасения сейчас поднимаются в письме, подписанном сотнями высокопоставленных отраслевых экспертов и политиков, а также многочисленными знаменитостями. Так называемая «Декларация о сверхинтеллекте» призывает к запрету — хотя бы временному — на дальнейшее развитие такого сверх-ИИ. Этот запрет следует снять только тогда, когда, с одной стороны, будет достигнут «научный консенсус о том, что это можно сделать безопасно и проверяемо». Более того, для продолжения развития сверх-ИИ в будущем необходима мощная общественная поддержка. Однако потенциальное влияние письма обусловлено не столько требованиями, сколько авторитетом его подписавших. К ним присоединились пионер искусственного интеллекта и лауреат Нобелевской премии Джеффри Хинтон, Йошуа Бенджио и Стюарт Рассел (эксперты в области ИИ). Декларацию т
Сотни экспертов и знаменитостей призвали приостановить создание сверхинтеллектуального ИИ
23 октября 202523 окт 2025
51
2 мин