“Мы не знаем, что это такое… если бы мы знали, что это такое…”
DeepMind (Google) выпустили 145 страниц о рисках продвинутого ИИ (AGI).
Смысл: мы разрабатываем системы, поведение которых не всегда понимаем. Это может обернуться проблемами.
4 типа угроз: — человек использует ИИ во вред
— ИИ выполняет задачу «по-своему»
— обычная ошибка в коде с масштабными последствиями
— взаимодействие разных ИИ-систем = системный хаос
На заметку информатикам:
— отличный повод для обсуждения с 9–11 классами
— темы: этика, ответственность, алгоритмическое мышление
— подходит для проектов, эссе, дебатов
— реальные кейсы по архитектуре, интерпретируемости, безопасности систем
Можно брать цитаты из отчёта и разбирать прямо на уроках — полезно, современно, вызывает интерес.