Найти тему
taratutenko.ru

«Пограничные компьютеры» для «оцифровки всей нашей жизни»

Оглавление

Стремительно развивающаяся современная тенденция «оцифровки всей нашей жизни» для анализа и повышения эффективности большинства аспектов жизнедеятельности цивилизации порождает новые подходы к вычислительным мощностям – развиваются «пограничные вычисления».

Как эффективно обработать зеттабайты данных?

Умное промышленное производство, умные дома, умные вещи – почти весь современный мир непрерывно генерирует огромный поток информации. Интеллектуальные датчики круглосуточно и без выходных ежесекундно контролируют большинство современных производственных процессов, а половину строек постоянно снимают летающие дроны. И все эти масштабные данные непрерывно собираются и анализируются, при этом данные по объектам становятся все «тяжелее», вследствие развития устройств мониторинга и увеличивающегося качества видеоматериалов. Эксперты почти едины в своем мнении – уже через пару лет к Интернету вещей (IoT) будет подключено более десяти миллиардов устройств.

«К 2020 году к IoT будет подключено 15 млрд интеллектуальных устройств, которые будут собирать много данных – около 11 зеттабайт. Это означает, что в мире будет вдвое больше устройств, чем людей», – рассказывает Дейв Лорелло (Dave Laurello), генеральный директор Straus Technologies.

Для справки, 1 зеттабайт – это 10 в 21-й степени байтов. Еще совсем недавно считалось, что все данные можно загрузить в вычислительное облако и анализировать удаленно. Но стремительно увеличивающееся количество интеллектуальных устройств просто не позволяет быстро и эффективно обрабатывать такой большой объем данных в облаке. Уже сейчас недостаточно пропускной способности сетей, возникают проблемы с безопасностью данных при передаче, растет стоимость вычислений и, самое главное, для анализа в режиме реального времени – облако не может обеспечить достаточную скорость. На сегодняшний день начался неизбежный рост периферийных вычислительных мощностей, которые позволяют локально обрабатывать и анализировать большие массивы данных.

«В ближайшие года 40-60% сгенерированных данных будут обрабатываться локально, что приведет к впечатляющему росту количества периферийных компьютеров» – так оценивает тенденции Дейв Лорелло.

Относительно новая концепция «периферийных вычислений» (edge computing) предполагает большое количество «пограничных компьютеров», работающих в непосредственной близости от источников данных. Хорошей иллюстрацией работы реальных «пограничных компьютеров» могут служить, например, автономные беспилотные транспортные средства, в которых для безопасности и оперативности сотни процессоров работают локально на основе реальных данных о дорожной обстановке.

-2

Edge computing – это не принципиально новая прорывная технология, а следствие стремительно увеличивающегося потока данных. Неизбежные задержки при анализе, которые возникают при использовании облачных технологий, выводят на передний край «пограничные компьютеры», которые обеспечивают необходимый результат «прямо здесь и сейчас».

Почему это так важно

Для эффективной обработки десятков зеттабайт данных уже в ближайшие годы потребуется множество надежных и хорошо защищенных «пограничных компьютеров». Эти устройства будут востребованы во всех сферах человеческой жизнедеятельности – от умных домашних вещей и автомобилей до промышленных предприятий и коммуникаций.

Специализированные периферийные компьютеры будут работать на промышленных объектах, в газотранспортных системах, на стройках, на заводах по очистке сточных вод. Эти устройства будут простыми в развертывании, защищенными и автономными, они позволят значительно сократить количество людей, занимающихся рутинным трудом по контролю за сбором показаний различных устройств мониторинга.

Искусственны интеллект, позволяющий принимать сложные решения в реальном времени, все еще находится на стадии развития, но уже в ближайшее десятилетие на многих промышленных объектах вместо многих сотен сотрудников – останется только несколько десятков.

Источник...

-3