Прогресс в области искусственного интеллекта породил опасения, что ИИ может превзойти своих создателей, приведя к потенциальным угрозам. Мустафа Сулейман, один из создателей подразделения Google по ИИ, DeepMind, высказал мнение о том, как минимизировать риски. По его словам, ключевым шагом может стать ограничение возможности ИИ к самообновлению.
Сулейман считает, что такие функции ИИ могут потребовать строгого контроля и даже лицензирования, подобно обращению с опасными веществами. Кроме того, он подчеркнул важность установления границ в использовании персональных данных. Эти границы должны регулироваться на всех этапах - от создания кода до взаимодействия с другими системами и людьми.
Защита приватности, избегание предвзятости, улучшение систем распознавания лиц и оптимизация модерации контента на основе ИИ - все это примеры актуальных вопросов в сфере ИИ, на которые следует сосредоточиться.