Автор: Константин Кичинский, Technical Evangelist в Microsoft
Telegram: https://t.me/quantumquintum
Blog: https://outofline.ru/
Всем привет! Очередная (уже третья) подборка новостей и статей из моего Telegram-канала Quantum Quintum (https://t.me/quantumquintum).
Artificial Intelligence
AI и кибер-безопасность
Про применение машинного обучения в задачах борьбы с кибер-угрозами. Команда Windows Defender рассказывает, как боролись с новым трояном Emotet (и заодно, как устроена многослойная защита с применением ML-моделей на клиенте и в облаке). https://cloudblogs.microsoft.com/microsoftsecure/2018/02/14/how-artificial-intelligence-stopped-an-emotet-outbreak/
Работа с аудио
1. Про генерацию музыки с помощью Azure ML. Erika Menezes рассказывает, как построить LSTM (Long Short-Term Memory) модель для генерации медиа-файлов и выстроить вокруг этого окружение для экспериментирования.
* Текстовая статья: https://blogs.technet.microsoft.com/machinelearning/2017/12/06/music-generation-with-azure-machine-learning/
* Видео #1 (про генерацию музыки и модель сети): https://channel9.msdn.com/Shows/AI-Show/Deep-Learning-for-Music-Generation
* Видео #2 (про извлечение фич из midi-файла и создание midi-файлов из выхода модели): https://channel9.msdn.com/Shows/AI-Show/Deep-Learning-for-Music-Generation-The-Code
* Исходный код: https://github.com/Azure/MachineLearning-MusicGeneration
2. Как на счет обработки audio-информации (например, команд) в браузере? Boris Smus из Google рассказывает, как на базе библиотеки deeplearn.js (от команды Google Brain) построить CNN для обработки аудио-команд: от извлечения фич на базе WebAudio API до хранения обученной модели в IndexedDB.
* Статья #1 (про извлечение фич и генерацию спектрограмм): https://towardsdatascience.com/audio-features-for-web-based-ml-555776733bae
* Статья #2 (про обучение и распознавание команд): https://towardsdatascience.com/web-based-voice-command-recognition-58a9bb1ec8db
* Исходный код: https://github.com/google/web-audio-recognition/tree/master/audio-features
AI в медицине
1. Обработка ультразвуковых снимков с помощь AI. Ребята из Стенфорда рассказывают, как обрабатывать ультразвуковые сними (УЗИ) с помощью сверточных сеточек (CNN). И также приводят несколько открытых вопросов: от наличия размеченных данных (точнее отсутствия больших датасетов), — поэтому сейчас много акцента на transfer learning, — до обработки видео-информации. Отдельный вопрос - работа с dopler-снимками, в которых учитывается динамика потоков крови. https://medium.com/stanford-ai-for-healthcare/sound-the-alarm-deep-learning-ultrasound-scans-eb05ad430e98
2. Заменит ли AI радиологов? В 2016 Джефри Хилтон (крестный отец нейронных сетей) сказал, что "мы должны перестать учиться новых радиологов". Hugh Harvey рассказывает в Towards Data Science, почему AI не отменяет эту профессию (вопреки громким заголовкам) и почему такое мнение опасно (чуда не будет, а людей больше не станет). Хаг приводит такие три основные причины:
1) Сведение работы радиолога к анализу картинок — существенное искажение действительности. Анализ снимков — лишь маленький кусок деятельности специалиста, в самом упрощенном виде включающей: взаимодействие с пациентом, анализ истории, принятие решений о снимках, типах снимков, расписании, автоматическом или ручном снятии снимков, анализ снимков (в том числе с применение алгоритмов), постановка диагноза, консультация с другими врачами и сообщение результатов пациенту.
2) Человек несет конечную ответственность. Очевидный факт: кто-то должен нести юридическую ответственность за принятие решений. Мы пока далеки от правового регулирования ИИ в медицине.
3) Повышение продуктивности будет повышать спрос. Хаг приводит пример коммерческих авиаперевозок в UK: несмотря на автоматизацию все, чего можно, в том числе в смысле управления самолетами, и с явным фокусом на повышение надежности и безопасности, это не только не приводит к уменьшению числа пилотов, но и наоборот их количество растет по мере роста спроса и удешевления перевозок. Если радиология будет дешевле и надежнее, нужно будет больше людей, которые ее проводят.
http://news.mit.edu/2018/chip-neural-networks-battery-powered-devices-0214О чем лучше думать вместо замены специалистов: как ИИ и автоматизация могут помочь разгрузить их от рутинных операций, повысить продуктивность, надежность решений и т.п.?
https://towardsdatascience.com/why-ai-will-not-replace-radiologists-c7736f2c7d80
Персоналии в ИИ
1. Слышали разные фамилии, как гуру ИИ, крестных отцов ИИ и т.п.? Немножко легкого выходного чтения про машинное обучение: Towards Data Science рассказывает, кто есть кто в мире ML. https://towardsdatascience.com/the-whos-who-of-machine-learning-and-why-you-should-know-them-9cefbbc84f07
2. В продолжение темы важных людей в мире AI - наткнулся на подборку "25 инфлюенсеров в мире AI, которых стоит фоловить в триттере в 2018". https://www.disruptordaily.com/top-25-influencers-follow-twitter-2018/
Подумал, что фоловить всех по одному не очень удобно, поэтому вот вам готовый список, на который можно подписаться в твиттере. Я его слегка расширил :) https://twitter.com/quantumquintum/lists/ai-to-follow
Специализированные чипсеты
Про специализированные чипы - пара новостей от MIT с разницей в один день (оба проекта, отмечу, аспирантские!):
1. Энергоэффективное шифрование для интернета вещей. Шифрование в сетях общего пользование становится нормой, но обработка информации, в основном, делается на софтверном уровне. Это не очень хорошо подходит для задач IoT с повсеместными вычислениями, сенсорами в полях, зданиях и т.п., так как нужно экономить энергию, хотя шифровать информацию по-прежнему надо.
Исследователи MIT спроектировали новый специализированный чип для работы с публичными ключами на аппаратном уровне, потребляющий в 400 раз меньше энергии по сравнению с софтверной реализацией, в 10 раз меньше памяти и работающий в 500 раз быстрее. http://news.mit.edu/2018/energy-efficient-encryption-internet-of-things-0213
p.s. Тут нельзя не вспомнить анекдот про букву S (Security) в слове IoT. Дешевое шифрование для интернета вещей — это хорошо.
2. Энергоэффективное вычисление алгоритмов на нейронных сетях. Второе исследование - в похожем русле, но с другим акцентом. Решаемая задача - сделать расчет нейронных сетей достаточно эффективным, чтобы это можно было делать на мобильных устройствах, не опасаясь сожрать всю батарейку. (На всякий случай, ребята из MIT — не единственные, кто об этом думает. Я уже писал о подобных проектах от крупных компаний.)
Основная идея — сделать на аппаратном уровне распараллеленную операцию скалярного умножения векторов (фактически, операцию свертки, как основную в расчете тензоров), снижая тем самым перегон данных между памятью и процессором. В результате - существенное ускорение (в 5-7 раз) и снижение энергопотребления (на 94-95%).
http://news.mit.edu/2018/chip-neural-networks-battery-powered-devices-0214
3. Amazon начинает производство собственных чипсетов. В общем, похоже (и это супер-логично), что Amazon тоже выходит на рынок кастомных AI-чипсетов, причем с фокусом на конечные устройства (Echo), чтобы улучшить качество и скорость работы голосового помощника (Alexa).
The Verge, отмечает, что это особенно интересно не только на фоне других игроков, которые этой темой уже занимаются в контексте конечных устройств (Apple, Google и т.п.), но и на фоне Intel и NVidea, которые явно делают одну из ставок на нишу AI, а в ней оказывается слишком много сильных игроков.
https://www.theverge.com/2018/2/12/17004734/amazon-custom-alexa-echo-ai-chips-smart-speaker
Cognitive Computing
1. В чем разница между "cognitive computing" и "artificial intelligence"? Мы обычно рассматриваем первое, как подмножество второго, но так ли это? Ronald van Loon побеседовал с Dmitri Tcherevik (CTO, Progress) на эту и смежну тему и делится инсайтами. Хотя это две близкие области с общим пересечением в инструментарии (те же нейронные сети, например), решаемые задачи и способы применения разные:— Cognitive Computing пытается симулировать или дополнить человеческие когнитивные возможности, оставляя за человеком принятие решения.— Artificial Intelligence не пытается моделировать человеческое мышление, он просто использует наилучшие подходящие алгоритмы, чтобы заменить человека или снизить человеческий фактор.
Сценарии для когнитивных вычислений в различных индустриях:
* Пользовательский сервис. Дополнительный интеллектуальный слой для помощи клиентам, фактически цифровые помощники для помощи с выбором, автоматизации процессов, сглаживания обучения и т.п. Самое очевидное — всевозможные чатботы.
* Здравоохранение. Забота о здоровье, — пишет Рональд, — очевидно, не бизнес со 100% эффективностью, так как есть множество отклонений от "идеальных процессов". Машинная прослойка может делать первичную обработку информации и предварительные выводы, как данные для лечащих врачей.
* Индустриальный IoT. Мы научились накапливать и обрабатывать много данных. Один из следующих шагов — использование аналитики для работы с аномалиями, но это позволяет выцепить только 20% проблем и сделать соответствующие воздействия на систему. Остальные 80% — это по-прежнему зона для улучшений. Когнитивное обнаружение аномалий — это шаг в сторону этих 80%.
---Тут я должен сделать некоторое отступление от пересказа. Первое: кажется, сам термин "cognitive anomaly detection" — это изобретение то ли IBM, то ли Progress. Во всяком случае, именно они появляются первыми в поиске по этой фразе. Второе, я посмотрел, что именно они имеют в виду и в чем отличие от того же "predictive maintenance".
Добавка слова "cognitive" означает, что мы пытаемся выйти в зону "когда процесс поломки начинается" или "появились первые сигналы от сенсоров", и это происходит еще до того, как классическая модель получает *достаточно* данных от сенсоров для этого. Чтобы продвинуться в эту зону, нужно переходить на мета-обучение (по сравнению с классическим подходом построения и обучения предиктивной модели).
Подробнее:
#1. Cм. запись вебинара - https://www.youtube.com/watch?v=AwLXCeOjj1c, с 34 минуты.
#2. См. статью на эту тему (и картинки в ней) - https://www.thedigitaltransformationpeople.com/channels/enabling-technologies/how-industrial-iot-is-influenced-by-cognitive-anomaly-detection/
---
https://www.linkedin.com/pulse/cognitive-computing-moving-from-hype-deployment-ronald-van-loon/
2. Телеметрия для ботов. В ботах и автоматизации колл-центров есть такой вопрос: как лучше переключать человека (клиента) с робота на оператора? Понятно, что как лучше — это зависит от конкретного сценария, а вот как это все начать измерять и отслеживать, это вполне прикладной и обобщенный вопрос. Тут вот наши коллеги делятся, как построить такой бэкенд и дашборды на базе Application Insights: https://www.microsoft.com/developerblog/2018/02/05/human-handoff-dashboard/
Про эффективные организации
Немножко отстраненного от технологий (на первый взгляд) чтива про организацию рабочих мест. Adam Grant (автор Originals, Option B и Give and Take) рассказывает об общих чертах высоко функциональных организаций:
1. Такие организации "одержимы" помощью сотрудникам в развитии самосознания и осознания других. Вместо того, чтобы загонять сотрудников в рамки инструкций и норм, они инвестируют в понимание сотрудниками собственных и чужих слабых и сильных сторон.
2. Большинство таких организаций оказываются более гибкими в смысле иерархии. Например, обычно вы ожидаете, что решение по встрече принимает человек с самой высокой должностью в компании, а тут разные люди отвечают за принятие разных решений. То есть не только "авторитетное" лицо.
3. В таких организациях слово "семья" слышишь намного чаще. Причем не в смысле именно классической "семейности", а в смысле чувства принадлежности к сообществу и заботы о других. "Кто-то прикроет мою спину, я могу поспорить с кем-то, но он все равно пойдет со мной перекусить."
p.s. Интервью по ссылке выше появилось в преддверии запуска подкаста WorkLife на TED как раз про разные команды, рабочие места и т.п. (с 28 февраля, на английском - https://www.ted.com/read/ted-podcasts/worklife). Пишу в том числе для себя, чтобы не забыть. :)