Моё инфополе разделилось на два, местами пересекающихся лагеря. ↪ Первый — ИИ нас всех (почти всех) уничтожит, совсем скоро: Харрари, Юдковский, Маск, десятки влиятельных мыслителей и деятелей современности требуют остановить разработку любых ИИ-систем сравнимых по мощности и потенциалом с GPT4. Как минимум на 6 месяцев, чтобы разобраться, как такие разработки контролировать и снизить риски. Прогноз по AGI — искусственного интеллекту общего назначения сместился с 2030 до 2025 года. ИИ может угрожать выживанию человечества, Юдковский (эксперт по ИИ) призывает срочно действовать, например, взрывать датацентры,которые не подчиняются. Десятки профессий могут быть заменены ИИ на 80 – 100%. ↪ Второй — ИИ это будущее, настал "iPhone момент", масса возможностей, что приведут нас к прогрессу, мир за 5-10 лет снова кардинально поменяется (в лучшую сторону для большинства). Экстремумы слишком редко сбываются. Я не эксперт по экзистенциальным рискам и светлому будущему, поэтому делюсь тем, как ра