Автор Вишал Майни
Для новичков в области искусственного интеллекта расстановка приоритетов среди бесконечных ресурсов ИИ может быть огромной проблемой. Этот список пытается решить именно такую проблему: это тщательно отобранная подборка ресурсов, позволяющих быстро освоить ключевые темы исследований в области искусственного интеллекта и их долгосрочные последствия.
Список разделен на разделы «80/20» с несколькими высоко приоритетными ссылками для получения максимальной ценности с минимальными затратами времени и разделами «глубокого погружения» для дальнейшего изучения.
Читатели не должны быть техническими или иметь опыт работы в области искусственного интеллекта. Список может представлять особый интерес для тех, кто рассматривает возможность входа в область исследований ИИ или смежные области, будь то в технических или нетехнических ролях.
Этот список охватывает высокоуровневый контекст («Что такое интеллект и что значит его воссоздания в машинах?»), технические основы («Как работает узкий ИИ сегодня, и каковы некоторые из предпочтительных технических подходов к общему ИИ?»), соображения безопасности («Что потребуется для того, чтобы ИИ за пределами человеческого уровня был безопасным и действовал в соответствии с человеческими предпочтениями?») и стратегические вопросы («Как мы можем координировать свои действия для получения положительных результатов от передового ИИ?»).
Чтобы извлечь максимальную пользу из этих ресурсов, подумайте об активном чтении. Напишите краткое изложение основных понятий и выводов, к которым вы можете обратиться позже (см .: техника Фейнмана). Потратьте некоторое время на критический анализ идей. Что имеет для вас интуитивный смысл, а что нет? Какова ваша критика представленных идей? Как концепции сочетаются друг с другом?
1. Intelligence - Интеллект
Что такое интеллект, и как мы можем воссоздать его в машинах? Почему сейчас? Три составляющих прогресса ИИ - вычисления, данные и алгоритмы.
80/20
- The AI Revolution: The Road to Superintelligence — Tim Urban (Wait But Why), 2015 - Революция ИИ: Дорога к суперинтеллекту - Тим Урбан (Подождать, но почему), 2015
- Superintelligence: Paths, Dangers, Strategies, Ch. 1–3 — Nick Bostrom, 2014 Суперинтеллект: Пути, Опасности, Стратегии, Гл. 1–3 - Ник Бостром, 2014
- The Power of Self-Learning Systems (video) — Demis Hassabis, 2019 - Сила самообучающихся систем (видео) - Демис Хассабис, 2019
- How to get empowered, not overpowered, by AI (video) — Max Tegmark, 2018 - Как получить силу, а не одолеть ИИ (видео) - Макс Тегмарк, 2018
- Can we rule out near-term AGI? (video) — Greg Brockman, 2018 - Можем ли мы исключить Общий ИИ в ближайшем будущем? (видео) - Грег Брокман, 2018
- AI and Compute — OpenAI, 2019 - ИИ и вычисления - OpenAI, 2019
Глубокое погружение
- Computing machinery and intelligence — Alan Turing, 1950 - Вычислительная техника и разум - Алан Тьюринг, 1950
- Machine Super Intelligence — Shane Legg, 2008 - Машинный Супер Интеллект - Шейн Легг, 2008
- Reframing Superintelligence — Eric Drexler, 2019 - Переосмысливание суперинтеллекта - Эрик Дрекслер, 2019
- AlphaGo (documentary) — DeepMind, 2017 - АльфаГо (документальный фильм) - DeepMind, 2017
- The Measure of All Minds: Evaluating Natural and Artificial Intelligence — José Hernández-Orallo, 2017 - Мера всех умов: оценивание естественного и искусственного интеллекта - Хосе Эрнандес-Оралло, 2017
2. Machine Learning - машинное обучение
Позволяя машинам учиться самим. Умение делать прогнозы и определять закономерности с учетом различных видов данных (контролируемое, неконтролируемое и обучение с подкреплением). Демистификация целевой функции.
80/20
- Machine Learning for Humans, Parts 1–3 — Vishal Maini & Samer Sabri, 2017 - Машинное обучение для людей, части 1–3 - Вишал Маиниi & Сэймер Сабриi, 2017
Глубокое погружение
- Introduction to Statistical Learning, Chapters 1–3 — Gareth James et al., 2013 - Введение в статистическое обучение, главы 1–3 - Гарет Джеймс и др., 2013
- AI for Everyone (nine-hour Coursera course) — Andrew Ng, 2019 - AI для всех (девятичасовой курс Coursera) - Эндрю Нг, 2019
- The Best Machine Learning Resources — Vishal Maini & Samer Sabri, 2017 - Лучшие ресурсы машинного обучения - Vishal Maini & Samer Sabri, 2017
3. Deep Learning - Глубокое обучение
Научиться прогнозировать результат на основе входных данных; черпая вдохновение из мозга. Глядя внутрь черного ящика глубоких нейронных сетей. Кто является котом и почему? Как мы представляем мир вокруг нас численно (в виде сенсорного «ввода» или данных) и используем математику, чтобы понять это? Общие архитектуры.
80/20
- Machine Learning for Humans, Part 4: Neural Networks & Deep Learning — Vishal Maini & Samer Sabri, 2017 - Машинное обучение для людей, часть 4: Нейронные сети и глубокое обучение - Вишал Майни и Самер Сабри, 2017
- Neural Networks Demystified — YouTube series - Нейронные сети демистифицированные - серия YouTube
- But what *is* a Neural Network? | Deep learning, chapter 1 (video) –3Blue1Brown, 2017 - Но что такое нейронная сеть? | Глубокое обучение, глава 1 (видео) –Blue1Brown, 2017
Глубокое погружение
- Neural networks and deep learning — Michael Nielsen, 2015 - Нейронные сети и глубокое обучение - Майкл Нильсен, 2015
- Deep Learning Book — Ian Goodfellow, Yoshua Bengio, and Aaron Courville, 2016 - Книга по глубокому обучению - Йен Гудфеллоу, Йошуа Бенжио и Аарон Курвиль, 2016
- TensorFlow Neural Network Playground - Игровая площадка нейросети TensorFlow
- The building blocks of interpretability — Chris Olah, 2018 Строительные блоки интерпретируемости - Крис Олах, 2018
- How do neural and symbolic technologies mesh? — Eric Drexler, 2018 - Как сочетаются нейронные и символические технологии? - Эрик Дрекслер, 2018
- Deep Learning Papers Reading Roadmap — Flood Sung, 2018 - Дорожная карта для чтения статей по Глубокому обучению - Флуд Санг, 2018
4. Deep Reinforcement Learning - глубокое обучение с подкреплением
Искусственные агенты учатся за вознаграждение. Ценностные функции. Изучение и использование. Достижение сверхчеловеческой производительности в сложных играх. Ключевые прорывы.
80/20
- Reinforcement Learning: An Introduction — Chapter 1 — Rich Sutton & Andrew Barto, 2017 - Обучение с подкреплением: Введение - Глава 1 - Рич Саттон и Эндрю Барто, 2017
- Machine Learning for Humans, Part 5: Reinforcement Learning — Vishal Maini & Samer Sabri, 2017 - Машинное обучение для людей, часть 5: Обучение с подкреплением - Вишал Майни и Самер Сабри, 2017
- An intro to Reinforcement Learning (with otters) - Monica Dinculescu, 2018 - Введение в Обучения с подкреплением (с выдрами) - Моника Динкулеску, 2018
- NIPS 2017 Keynote: Deep RL Symposium — AlphaZero (video) — Dave Silver, 2017 - Дейв Сильвер, 2017
- AlphaGo Zero — How and Why it Works — Tim Wheeler, 2017 - AlphaGo Zero - как и почему это работает - Тим Уилер, 2017
Глубокое погружение
- Reinforcement Learning: An Introduction - Обучения с подкреплением: Введение
- Deep Q-network (DQN) — Mnih et al., 2015 - Глубокая Q-сеть (DQN) - Мних и др.., 2015
- Deep Reinforcement Learning: Pong from Pixels — Andrej Karpathy, 2016 - Глубокое Обучение с подкреплением: Понг из пикселей - Андрей Карпати, 2016
- Spinning Up in Deep RL — OpenAI, 2018
- The Long-Term of AI and Temporal Difference Learning — Richard Sutton, 2017- Долгосрочное обучение искусственному интеллекту и разнице во времени - Ричард Саттон, 2017
5. Safety & Alignment - Безопасность и регулирование
Как мы можем гарантировать, что высокопроизводительные и общие системы искусственного интеллекта надежно понимают, чего мы хотим, и помогают нам получить это? Режимы выявления и упреждения потенциального отказа. Введение в спецификацию, надежность и страхование гарантии.
80/20
- Building safe artificial intelligence: specification, robustness, and assurance — DeepMind safety team, 2018 - Создание безопасного искусственного интеллекта: спецификация, надежность и страхование - Команда по безопасности DeepMind, 2018
- Superintelligence: Paths, Dangers, Strategies , Ch. 7–10 & 12–13. — Nick Bostrom, 2014 - Суперинтеллект: Пути, Опасности, Стратегии, Гл. 7–10 и 12–13. - Ник Бостром, 2014
- Benefits & Risks of Artificial Intelligence — Future of Life Institute, 2016 - Преимущества и риски искусственного интеллекта - Институт будущего жизни, 2016
- Potential Risks from Advanced Artificial Intelligence: The Philanthropic Opportunity — Open Philanthropy, 2015 - Потенциальные риски от передового искусственного интеллекта: филантропическая возможность - открытая благотворительность, 2015
- Faulty Reward Functions in the Wild — OpenAI, 2016 - Неисправные функции вознаграждения в дикой природе - OpenAI, 2016
Глубокое погружение
- Takeoff speeds — Paul Christiano, 2018 - Скорость взлета - Пол Кристиано, 2018
- Concrete problems in AI safety — OpenAI, 2016 - Конкретные проблемы безопасности ИИ - OpenAI, 2016
- Scalable agent alignment via reward modeling — Leike et al., 2018 - регулирование масштабируемого агента посредством моделирования вознаграждения - Лейке и др., 2018
- Reframing Superintelligence: Comprehensive AI Services as General Intelligence — Eric Drexler, 2019 - Переосмысление суперинтеллекта: всеобъемлющие услуги ИИ как общий интеллект - Эрик Дрекслер, 2019
- Fairness, privacy, security & verification resources — Andrew Trask, 2019 - Ресурсы справедливости, конфиденциальности, безопасности и верификации - Эндрю Траск, 2019
- Towards Robust and Verified AI — DeepMind, 2019 - На пути к надежному и верифицированному ИИ - DeepMind, 2019
- An Overview of Technical AI Alignment (podcast) — Lucas Perry & Rohin Shah, 2019 - Обзор технического регулирования ИИ (подкаст) - Лукас Перри & Рохин Шах, 2019
- AI safety resources — Victoria Krakovna, 2018 - Ресурсы безопасности ИИ - Виктория Краковна, 2018
6. Strategy & Governance - Стратегия и Организация управления
Ближайшие и долгосрочные стратегические проблемы и возможности, представленные ИИ. Введение в проблему управления ИИ: проблема разработки глобальных норм, политики и институтов для наилучшего обеспечения выгодного развития и использования передового ИИ.
80/20
- AI governance research agenda — Allan Dafoe, 2018 - Программа исследований управления ИИ - Аллан Дефо, 2018
- 80,000 Hours: Guide to working in AI policy and strategy — Miles Brundage, 2017 - 80 000 часов: руководство по работе в области политики и стратегии в ИИ - Майлс Брандейдж, 2017
- The Malicious Use of Artificial Intelligence — Forecasting, Prevention, and Mitigation - Вредоносное использование искусственного интеллекта - прогнозирование, предотвращение и смягчение последствий
- Asilomar AI Principles — Future of Life Institute, 2017 - Принципы ИИ Асиломар - Институт будущего жизни, 2017
- Positively shaping the development of artificial intelligence — Robert Wiblin, 2017 - Позитивное формирование развития искусственного интеллекта - Роберт Виблин, 2017
- Move 37, or how AI can change the world — George Zarkadakis, 2016 - Ход 37 или как ИИ может изменить мир - Джордж Заркадакис, 2016
Глубокое погружение
- Bridging near- and long-term concerns about AI - Stephen Cave & Seán S. ÓhÉigeartaigh, 2019 - Преодоление краткосрочных и долгосрочных опасений по поводу ИИ - Стивен Кейв и Шон С. Эгейтаре, 2019 г.
- Deciphering China’s AI Dream — Jeff Ding, 2018 - Расшифровка китайской мечты ИИ - Джефф Динг, 2018
- Communication on Artificial Intelligence — European Commission 2018 Сообщение об искусственном интеллекте - Европейская комиссия 2018
- Preparing for the Future of Artificial Intelligence — The White House, National Science and Technology Council, Committee on Technology, 2016 Подготовка к будущему искусственного интеллекта - Белый дом, Национальный научно-технологический совет, Комитет по технологии, 2016
- AI and the Economy — NBER Working Paper, Jason Furman & Robert Seamans, 2018 - ИИ и экономика - рабочий документ NBER, Джейсон Фурман и Роберт Симанс, 2018
- AI Aftermath Scenarios — Future of Life Institute - Сценарии Последствия А.И. - Институт будущего жизни
- Superintelligence: Paths, Dangers, Strategies, Ch. 14–15 — Nick Bostrom, 2014 - Суперинтеллект: Пути, Опасности, Стратегии, Гл. 14–15 - Ник Бостром, 2014
- The Vulnerable World Hypothesis — Nick Bostrom, 2018 - Гипотеза Уязвимого Мира - Ник Бостром, 2018
- Strategic Implications of Openness in AI Development — Nick Bostrom, 2017 - Стратегические последствия открытости в развитии ИИ - Ник Бостром, 2017
- Information Hazards: A Typology of Potential Harms from Knowledge — Nick Bostrom, 2011 - Информационные опасности: типология потенциального вреда от знаний - Ник Бостром, 2011
- Astronomical Waste: The Opportunity Cost of Delayed Technological Development — Nick Bostrom, 2003 - Астрономические отходы: издержки упущенной выгоды отложенного технологического развития - Ник Бостром, 2003
- Thinking About Risks From AI: Accidents, Misuse and Structure — Zwetsloot, Remco and Dafoe (2019) - Думая о рисках от ИИ: несчастные случаи, неправильное использование и структура - Звитслут, Ремко и Дафу (2019)