DOI: 10.22184/2070-8963.2022.107.7.76.79
Получив 20 лет назад концепцию Cloud Computing, телеком подошел к универсальной формуле: канал связи + виртуальное обслуживание в ЦОДе. Однако благополучно "почивать на облаках" не получилось: в быстро меняющемся мире замаячили новые тренды и появились новые барьеры. Пропускная способность оказалась не бесконечной, а даже относительно небольшие задержки распространения сигнала − вечностью. Информацию теперь надо обрабатывать ближе к ее источнику, а в центр передавать результат. Именно в этом и заключаются концепции туманных и периферийных вычислений, которые так органично будут отныне дополнять сферу Cloud Computing.
Получив 20 лет назад концепцию Cloud Computing, телеком подошел к универсальной формуле: канал связи + виртуальное обслуживание в ЦОДе. Однако благополучно "почивать на облаках" не получилось: в быстро меняющемся мире замаячили новые тренды и появились новые барьеры. Пропускная способность оказалась не бесконечной, а даже относительно небольшие задержки распространения сигнала − вечностью. Информацию теперь надо обрабатывать ближе к ее источнику, а в центр передавать результат. Именно в этом и заключаются концепции туманных и периферийных вычислений, которые так органично будут отныне дополнять сферу Cloud Computing.
ГДЕ
вычислять будем?
А.Голышко, к.т.н., ведущий аналитик АО "НПО РусБИТех" / race07@inbox.ru
УДК 654.029, DOI: 10.22184/2070-8963.2022.107.7.76.79
Получив 20 лет назад концепцию Cloud Computing, телеком подошел к универсальной формуле: канал связи + виртуальное обслуживание в ЦОДе. Однако благополучно "почивать на облаках" не получилось: в быстро меняющемся мире замаячили новые тренды и появились новые барьеры. Пропускная способность оказалась не бесконечной, а даже относительно небольшие задержки распространения сигнала − вечностью. Информацию теперь надо обрабатывать ближе к ее источнику, а в центр передавать результат. Именно в этом и заключаются концепции туманных и периферийных вычислений, которые так органично будут отныне дополнять сферу Cloud Computing.
Жизнь коротка, скорость необходима, чтобы достичь
желаемого в ограниченное время, которым мы располагаем.
Соичиро Хонда
В сентябре 2019 года на проходившей в Бельгии конференции Open Networking Summit руководитель сетевых проектов Linux Foundation Арпит Джошипура заявил, что Edge Computing или периферийные (еще вариант − граничные) вычисления станут важнее облачных к 2025 году. Он имел в виду компьютерные ресурсы и технологии хранения данных, которые находятся друг от друга на расстоянии, при котором передача информации занимает 5–20 мс. По словам Арпита Джошипуры, Edge Computing может стать открытой средой, способной беспроблемно взаимодействовать с другими устройствами и средами. Она должна быть независимой от оборудования, кремния, облака или операционной системы. Так на горизонте появилась еще одна технология из "заоблачного" пула.
Согласно оценкам McKinsey, объем мирового рынка оборудования для периферийных вычислений к 2025 году составит 175–215 млрд. Эксперты прогнозируют, что к тому времени в мире будет насчитываться больше 15 млн устройств с возможностью обработки информации и других IoT-устройств, которые будут генерировать по меньшей мере 10 000 ЗБ данных.
Еще сравнительно недавно универсальная схема предоставления услуг связи упростилась до набора из канала связи с необходимой пропускной способностью и ЦОДа, где программным образом формируются всевозможные сетевые конфигурации для генерации требуемых услуг в рамках технологий SDN/NFV (Software Defined Networks / Network Function Virtualization). Аналогично выглядит концепция облачных вычислений (Cloud Computing), предусматривающая удаленное хранение и обработку данных в "облаках", в которые начали превращаться как ЦОДы, так и корпоративные серверы. В начале 2000-х резкое увеличение надежности и пропускной способности каналов связи позволило централизовать обработку информации, создав крупные ЦОДы.
Сегодня облачными вычислениями уже никого не удивишь – они стабильно развиваются и завоевали рынок. Однако по мере развития новых "тяжелых" сервисов, требующих больших объемов информационного обмена, а также услуг, требующих минимальных задержек (к примеру, передача видео в реальном времени), выяснилось, что излишняя централизация всего и вся вредна. Иначе говоря, срочная информация слишком долго обрабатывается, и это начинает не устраивать все большее количество потребителей.
Не стоит забывать и о сетях мобильной связи 5G, где минимальным задержкам уделено самое серьезное внимание, поскольку речь идет о критичной к задержкам инфраструктуре Интернета вещей и промышленного Интернета вещей (IoT/IIoT), а также сервисам дополненной и виртуальной реальности (AR/VR). Поэтому становятся важными вычисления вне расположенного где-то далеко облака, происходящие гораздо ближе к краю сети, а еще лучше − в самих точках получения информации, в приложениях, где требуется обработка данных в реальном масштабе времени.
Таким образом, при всей универсальности инфраструктура Cloud Computing получается отнюдь не дешевой, и на уровне доступа в ней может формироваться значительная задержка в передаче данных от клиента к ЦОДу и обратно, что в современном цифровом мире отнюдь не приветствуется. Вот так "маятник" качнулся в обратную сторону, и когда обработка информации стала процессом, доступным на "местах", началось перераспределение функций обработки на периферию информационных систем.
Уменьшить задержку, обеспечивая работу в реальном времени, можно, приблизив место обработки информации непосредственно к пользователю. Так появились так называемые туманные вычисления (Fog Сomputing) − технология, благодаря которой хранение и обработка данных происходят в локальной сети между конечным устройством и ЦОД. Весь этот "туман", в отличие от "облака", находится ближе к пользователям, что особенно важно для таких IoT-устройств, как, например, всевозможные датчики в беспилотных автомобилях (в частности, лидары) или на сложном промышленном производстве. В целом Fog Computing "заточены" под межмашинное взаимодействие и применяться могут в любой отрасли, где оно имеет место в "Индустрии 4.0".
В общем виде Fog Computing − это децентрализованная система, которая фильтрует информацию, поступающую в ЦОД. Локальные серверы обрабатывают данные и отправляют в дата-центр только самые важные, а "облако" частично разгружается. Минусы тоже есть: децентрализованные сети менее надежны, чем сети больших ЦОДов.
Однако Fog Computing помогают решить проблемы с данными промышленных роботов. Ведь значительная их часть нужна только в месте работы робота, поэтому их обработку эффективнее и целесообразнее производить здесь же. Дроны, которые исследуют земной ландшафт в различных целях (охрана, сельское хозяйство, контроль трубопроводов и ЛЭП и пр.), также генерируют огромное количество данных, которые нужны в течение лишь очень короткого времени. Передача этих данных в какой-нибудь центральный ЦОД бывает весьма затратна и часто технически (в чисто телекоммуникационном смысле) невозможна, а ожидание команд из центра − это дополнительные задержки.
Собственно, от подобных устройств требуется только лишь распознавание воспринимаемых машинным зрением изображений, сбор значимых данных и посылка этих данных тем людям, которым эти данные нужны в данный момент времени. Как правило, "туман" состоит из микрооблаков, микро-ЦОДов, отдельных серверов, вынесенных из центрального ЦОДа на периферию, поближе к источникам данных.
Кстати о "периферии". Еще ближе к пользователю находятся Edge Computing. Это технология обработки и хранения данных непосредственно на конечном устройстве. При этом получается минимально возможная задержка в передаче данных, а сами данные могут обрабатываться даже в отсутствие подключения к интернету, что в последнее неспокойное время не менее ценно. А если нет интернета, то нет и сопутствующих проблем с безопасностью, поскольку вся обрабатываемая информация остается на оконечном устройстве. Впрочем, в качестве оконечного оборудования придется купить и настроить соответствующие устройства, а также привлечь специалистов.
Что же касается специалистов, то это не просто владельцы каких-нибудь оконечных абонентских устройств, а соответствующий класс пользователей специфической иерархической ИТ-инфраструктуры, при котором вычислительные ресурсы частично перемещаются из ядра (ЦОДа) на периферию и располагаются в непосредственной близости от места создания первичных "сырых" данных для их первичной обработки перед передачей вышестоящему вычислительному узлу.
Сбор и анализ данных проводится не в централизованной вычислительной среде (ЦОД), а там, где непосредственно происходит генерация потоков данных. В частности, для организации системы видеофиксации самое важное − понять, кто перед видеокамерой и что именно делает (этим занимается оборудование для предварительной обработки видеоинформации), после чего полученный результат (номер автомобиля, идентифицированная личность и т. п.) отправляется заказчику (к примеру, соответствующим спецслужбам).
Итак, целью Еdge Computing является перенос обрабатывающего приложения или точки обеспечения общей функциональности ближе к источнику действия: туда, где технология распределенных систем взаимодействует с физическим миром. В целом методология Edge/Fog Computing − это обеспечение близости к оконечным устройствам, географическое распределение вычислительных мощностей и поддержка мобильности. Такой подход позволяет снизить нагрузку на сеть и ЦОД, уменьшает задержки в обслуживании и улучшает качество сервисов. Средства Edge Computing не нуждаются в контакте с каким-либо централизованным облаком, хотя и могут взаимодействовать с ним при необходимости.
Таким образом, облачные вычисления работают на "больших данных" в централизованных точках консолидации информации, в то время как периферийные вычисления работают на "мгновенных данных", то есть на текущих данных, генерируемых датчиками или другими контролируемыми системами. Иначе говоря, Edge Computing помогает "переварить" и "отскладировать" сгенерированную гору информации.
Источниками данных Еdge Computing служат сами обрабатывающие цифровые устройства (причем не обязательно находящиеся в одной локации), которые затем передают (или не передают) обработанные и систематизированные пакеты данных в точку центрального накопления, и если Сloud Computing −
это, скорее, статистика и бизнес-обеспечение процессов, то Edge/Fog Computing ближе к обеспечению нужд АСУ ТП.
Если говорить о технологиях автоматизации, то, начиная с производственных цехов и заканчивая логистической цепочкой и самим сердцем предприятия, IoT уже соединяет различные точки с интеллектуальными датчиками. В свою очередь, IIoT предоставляет информацию для управления бизнес-процессами, проведения технического обслуживания, инвентаризации и транспортировки продукции. Однако простого наращивания возможностей сетевого подключения и организации потоков данных часто недостаточно, чтобы, к примеру, по-настоящему использовать потенциал цифровой трансформации. В частности, для получения конкурентных преимуществ производственным предприятиям необходимо полностью интегрировать промышленную автоматизацию, и тогда они получат возможность преобразовывать данные, собранные в среде IoT, в ценную аналитическую информацию, чтобы обеспечить более быстрое, точное и экономичное принятие решений. Но для этого они должны перенести вычислительные мощности на границу сети – на ее периферию.
Кстати, преимущества тех или иных вычислений можно определять с точки зрения эксплуатации оборудования и ПО. В частности, средний срок службы сервера в облачных ЦОДах составляет около двух лет. Для бизнес-приложений, которые генерируют большое количество данных, столь частый апгрейд оборудования не только сложен технически, но и дорог. Вместо инвестиций департаментам ИТ-компаний и организаций приходится все время заниматься поддержанием соответствия своей ИТ-системы текущим требованиям бизнеса. На границе сети в небольших распределенных ЦОДах, как указывают специалисты, компоненты серверной инфраструктуры могут служить до восьми лет. Исследования показывают, что решения, основанные только на централизованном облаке (Cloud), требуют гораздо больших инвестиций, чем базирующиеся на гибридной архитектуре Cloud+Fog или Cloud+Edge.
Еdge Сomputing характеризуются целым рядом преимуществ и потенциальных возможностей:
они позволяют анализировать и фильтровать данные ближе к источникам информации, и в облако отправляются только релевантные данные;
задержка в производственном процессе (сбой на конвейере) может быть критически важной, и малое время отклика, измеряемое в миллисекундах, критично для обеспечения безопасности ответственных и точных операций, поэтому ждать результата от облачной платформы IoT – это слишком долго;
если это необходимо, конфиденциальные данные можно обрабатывать на месте, где они защищены от прямых сетевых подключений, что обеспечивает более высокий уровень контроля над безопасностью и конфиденциальностью информации;
уменьшаются требования к емкости облачных хранилищ данных и пропускной способности сети, сокращаются соответствующие затраты, поскольку вместо отправки в облако большой объем данных с датчиков можно обрабатывать непосредственно на периферии.
Некоторые зарубежные специалисты считают, что вообще организация вычислительных ресурсов будет двигаться в направлении оконечных устройств – таких, как управляющие щиты турбин, системы управления летательными аппаратами или беспилотными автомобилями. Подобные устройства сгенерируют большую часть трафика IoT. Это будет означать то, что уже вроде бы установившийся процесс облачной обработки данных будет двигаться в обратном направлении, к Edge Computing.
Периферийные службы приложений уменьшают объемы данных, которые необходимо переместить при обработке, снижают последующий трафик и расстояния, которые должны пройти данные в процессе обработки. Edge Computing использует преимущества близости к физическим объектам, а также минимизирует взаимный обмен данными между элементами обслуживаемой системы. Это обеспечивает более высокую надежность и снижает затраты на передачу информации.
Что поделаешь: технологии развиваются, их доступность увеличивается, вычислительные способности и интеллект оконечных сетевых устройств растут стремительно. Достаточно хотя бы вспомнить, какие мобильные телефоны были в руках пользователей в начале века и какие сегодня.
Впрочем, у Edge Computing имеются и слабые стороны: недостаточная интероперабельность протокольного стека и отсутствие стандартизации. Как следствие, на сегодняшний день устройства и приложения, которые работают на границе сети, представляют из себя набор автономных Edge-экосистем. Имеющееся разнообразие интерфейсов и отсутствие промышленных стандартов пока отодвигают дату их "окончательной победы" над Cloud Computing, потому что лишают устройства и приложения возможности взаимодействовать друг с другом.
Впрочем, инженерам еще есть над чем поработать, чтобы совершить интеграцию IoT и периферийных устройств. К тому же Edge и Fog Сomputing, по сути, являются не чем иным, как дополнением и расширением Cloud, и каждая из них решает свои задачи, отнюдь не связанные с "победой" над Cloud. Как и Cloud, Edge Сomputing использует виртуализацию сетевых ресурсов, поскольку на периферии, в граничных узлах присутствуют программно-аппаратные комплексы от самых разных поставщиков, и именно виртуальные машины и контейнеры могут поддерживать работу в различных средах.
Как правило, архитектура систем Edge Computing трехуровневая: Cloud Computing − Fog Computing − Edge Computing. Если бы архитектура была двухуровневой, ядру ИТ-системы пришлось бы оперировать слишком большим количеством входных потоков данных и контролировать бесперебойность работы всех устройств, что весьма непросто. Итак, данные собираются на краю сети, если собирающее их устройство обладает собственным интеллектом – проходят там первичную обработку, если нет – пересылаются в оборудование "туманного" слоя. Тот обрабатывает данные и принимает на их основе решения. Какие-то данные ("сырые" или агрегированные) отправляются "в центр" на хранение. Иногда составляющие архитектуры обозначаются по-другому: промежуточный уровень именуется Edge, а граничный – End Point, но суть от этого не меняется.
Разумеется, отсутствие постоянного доступа к интернету по кабелю может препятствовать осуществлению Cloud, однако существование других вариантов сетевого подключения (к примеру, беспроводного) позволяют обеспечить гибкость вычислений от периферии до облака. В частности, сети 5G обеспечивают и высокую пропускную способность, и связь с низким уровнем задержек для быстрой передачи данных и предоставления сервисов с периферии. Поэтому наряду с Edge Сomputing совершенно логично существуют и мобильные периферийные вычисления (MEC − Mobile Edge Computing) как область пересечения периферии беспроводной сети и периферии инфраструктуры (фиксированной связи) там, где интернет из сетей мобильной и фиксированной связи имеет точки обмена трафиком.
На практике MEC означает взаимосвязь между Edge Computing и мобильной связью в самом широком смысле, включая камеры наблюдения, телемедицину, видеостриминг и IoT/IIoT, игры (в том числе AR/VR), подключенные транспортные средства (включая беспилотники) и многое другое. В результате базовая концепция периферийных вычислений постоянно эволюционирует: не успел еще прижиться термин MEC в расшифровке "мобильные периферийные вычисления", как ему на смену приходит MEC в более широком смысле "периферийные вычисления с множественным доступом" (Multi-Access Edge Computing). MEC – это также система стандартов, разработанная ETSI (около 6 лет назад ETSI сменил термин "мобильный" на "множественный доступ", чтобы отразить резкое увеличение количества подключенных устройств и приложений, потому что речь уже идет не просто о смартфоне).
MEC решает ту же задачу, что и в целом Edge Computing − перемещение большего количества вычислительных функций как можно ближе к тому месту, где генерируются данные и где принимаются решения, чтобы обеспечить более быстрое и эффективное реагирование. Ожидается, что это откроет новые виды деятельности, требующие низкой задержки и/или высокой пропускной способности. Ну, как и в сетях 5G. Специалисты уже определяют MEC, как "периферийный сервер в телекоммуникационной среде, включая 5G".
Собственно, MEC – это кульминация перехода всего и вся в Cloud, после чего Cloud, в свою очередь, приближается ко всему остальному, что не может не радовать всех имеющих к этому отношение. Давайте и мы порадуемся вместе с ними. ■
вычислять будем?
А.Голышко, к.т.н., ведущий аналитик АО "НПО РусБИТех" / race07@inbox.ru
УДК 654.029, DOI: 10.22184/2070-8963.2022.107.7.76.79
Получив 20 лет назад концепцию Cloud Computing, телеком подошел к универсальной формуле: канал связи + виртуальное обслуживание в ЦОДе. Однако благополучно "почивать на облаках" не получилось: в быстро меняющемся мире замаячили новые тренды и появились новые барьеры. Пропускная способность оказалась не бесконечной, а даже относительно небольшие задержки распространения сигнала − вечностью. Информацию теперь надо обрабатывать ближе к ее источнику, а в центр передавать результат. Именно в этом и заключаются концепции туманных и периферийных вычислений, которые так органично будут отныне дополнять сферу Cloud Computing.
Жизнь коротка, скорость необходима, чтобы достичь
желаемого в ограниченное время, которым мы располагаем.
Соичиро Хонда
В сентябре 2019 года на проходившей в Бельгии конференции Open Networking Summit руководитель сетевых проектов Linux Foundation Арпит Джошипура заявил, что Edge Computing или периферийные (еще вариант − граничные) вычисления станут важнее облачных к 2025 году. Он имел в виду компьютерные ресурсы и технологии хранения данных, которые находятся друг от друга на расстоянии, при котором передача информации занимает 5–20 мс. По словам Арпита Джошипуры, Edge Computing может стать открытой средой, способной беспроблемно взаимодействовать с другими устройствами и средами. Она должна быть независимой от оборудования, кремния, облака или операционной системы. Так на горизонте появилась еще одна технология из "заоблачного" пула.
Согласно оценкам McKinsey, объем мирового рынка оборудования для периферийных вычислений к 2025 году составит 175–215 млрд. Эксперты прогнозируют, что к тому времени в мире будет насчитываться больше 15 млн устройств с возможностью обработки информации и других IoT-устройств, которые будут генерировать по меньшей мере 10 000 ЗБ данных.
Еще сравнительно недавно универсальная схема предоставления услуг связи упростилась до набора из канала связи с необходимой пропускной способностью и ЦОДа, где программным образом формируются всевозможные сетевые конфигурации для генерации требуемых услуг в рамках технологий SDN/NFV (Software Defined Networks / Network Function Virtualization). Аналогично выглядит концепция облачных вычислений (Cloud Computing), предусматривающая удаленное хранение и обработку данных в "облаках", в которые начали превращаться как ЦОДы, так и корпоративные серверы. В начале 2000-х резкое увеличение надежности и пропускной способности каналов связи позволило централизовать обработку информации, создав крупные ЦОДы.
Сегодня облачными вычислениями уже никого не удивишь – они стабильно развиваются и завоевали рынок. Однако по мере развития новых "тяжелых" сервисов, требующих больших объемов информационного обмена, а также услуг, требующих минимальных задержек (к примеру, передача видео в реальном времени), выяснилось, что излишняя централизация всего и вся вредна. Иначе говоря, срочная информация слишком долго обрабатывается, и это начинает не устраивать все большее количество потребителей.
Не стоит забывать и о сетях мобильной связи 5G, где минимальным задержкам уделено самое серьезное внимание, поскольку речь идет о критичной к задержкам инфраструктуре Интернета вещей и промышленного Интернета вещей (IoT/IIoT), а также сервисам дополненной и виртуальной реальности (AR/VR). Поэтому становятся важными вычисления вне расположенного где-то далеко облака, происходящие гораздо ближе к краю сети, а еще лучше − в самих точках получения информации, в приложениях, где требуется обработка данных в реальном масштабе времени.
Таким образом, при всей универсальности инфраструктура Cloud Computing получается отнюдь не дешевой, и на уровне доступа в ней может формироваться значительная задержка в передаче данных от клиента к ЦОДу и обратно, что в современном цифровом мире отнюдь не приветствуется. Вот так "маятник" качнулся в обратную сторону, и когда обработка информации стала процессом, доступным на "местах", началось перераспределение функций обработки на периферию информационных систем.
Уменьшить задержку, обеспечивая работу в реальном времени, можно, приблизив место обработки информации непосредственно к пользователю. Так появились так называемые туманные вычисления (Fog Сomputing) − технология, благодаря которой хранение и обработка данных происходят в локальной сети между конечным устройством и ЦОД. Весь этот "туман", в отличие от "облака", находится ближе к пользователям, что особенно важно для таких IoT-устройств, как, например, всевозможные датчики в беспилотных автомобилях (в частности, лидары) или на сложном промышленном производстве. В целом Fog Computing "заточены" под межмашинное взаимодействие и применяться могут в любой отрасли, где оно имеет место в "Индустрии 4.0".
В общем виде Fog Computing − это децентрализованная система, которая фильтрует информацию, поступающую в ЦОД. Локальные серверы обрабатывают данные и отправляют в дата-центр только самые важные, а "облако" частично разгружается. Минусы тоже есть: децентрализованные сети менее надежны, чем сети больших ЦОДов.
Однако Fog Computing помогают решить проблемы с данными промышленных роботов. Ведь значительная их часть нужна только в месте работы робота, поэтому их обработку эффективнее и целесообразнее производить здесь же. Дроны, которые исследуют земной ландшафт в различных целях (охрана, сельское хозяйство, контроль трубопроводов и ЛЭП и пр.), также генерируют огромное количество данных, которые нужны в течение лишь очень короткого времени. Передача этих данных в какой-нибудь центральный ЦОД бывает весьма затратна и часто технически (в чисто телекоммуникационном смысле) невозможна, а ожидание команд из центра − это дополнительные задержки.
Собственно, от подобных устройств требуется только лишь распознавание воспринимаемых машинным зрением изображений, сбор значимых данных и посылка этих данных тем людям, которым эти данные нужны в данный момент времени. Как правило, "туман" состоит из микрооблаков, микро-ЦОДов, отдельных серверов, вынесенных из центрального ЦОДа на периферию, поближе к источникам данных.
Кстати о "периферии". Еще ближе к пользователю находятся Edge Computing. Это технология обработки и хранения данных непосредственно на конечном устройстве. При этом получается минимально возможная задержка в передаче данных, а сами данные могут обрабатываться даже в отсутствие подключения к интернету, что в последнее неспокойное время не менее ценно. А если нет интернета, то нет и сопутствующих проблем с безопасностью, поскольку вся обрабатываемая информация остается на оконечном устройстве. Впрочем, в качестве оконечного оборудования придется купить и настроить соответствующие устройства, а также привлечь специалистов.
Что же касается специалистов, то это не просто владельцы каких-нибудь оконечных абонентских устройств, а соответствующий класс пользователей специфической иерархической ИТ-инфраструктуры, при котором вычислительные ресурсы частично перемещаются из ядра (ЦОДа) на периферию и располагаются в непосредственной близости от места создания первичных "сырых" данных для их первичной обработки перед передачей вышестоящему вычислительному узлу.
Сбор и анализ данных проводится не в централизованной вычислительной среде (ЦОД), а там, где непосредственно происходит генерация потоков данных. В частности, для организации системы видеофиксации самое важное − понять, кто перед видеокамерой и что именно делает (этим занимается оборудование для предварительной обработки видеоинформации), после чего полученный результат (номер автомобиля, идентифицированная личность и т. п.) отправляется заказчику (к примеру, соответствующим спецслужбам).
Итак, целью Еdge Computing является перенос обрабатывающего приложения или точки обеспечения общей функциональности ближе к источнику действия: туда, где технология распределенных систем взаимодействует с физическим миром. В целом методология Edge/Fog Computing − это обеспечение близости к оконечным устройствам, географическое распределение вычислительных мощностей и поддержка мобильности. Такой подход позволяет снизить нагрузку на сеть и ЦОД, уменьшает задержки в обслуживании и улучшает качество сервисов. Средства Edge Computing не нуждаются в контакте с каким-либо централизованным облаком, хотя и могут взаимодействовать с ним при необходимости.
Таким образом, облачные вычисления работают на "больших данных" в централизованных точках консолидации информации, в то время как периферийные вычисления работают на "мгновенных данных", то есть на текущих данных, генерируемых датчиками или другими контролируемыми системами. Иначе говоря, Edge Computing помогает "переварить" и "отскладировать" сгенерированную гору информации.
Источниками данных Еdge Computing служат сами обрабатывающие цифровые устройства (причем не обязательно находящиеся в одной локации), которые затем передают (или не передают) обработанные и систематизированные пакеты данных в точку центрального накопления, и если Сloud Computing −
это, скорее, статистика и бизнес-обеспечение процессов, то Edge/Fog Computing ближе к обеспечению нужд АСУ ТП.
Если говорить о технологиях автоматизации, то, начиная с производственных цехов и заканчивая логистической цепочкой и самим сердцем предприятия, IoT уже соединяет различные точки с интеллектуальными датчиками. В свою очередь, IIoT предоставляет информацию для управления бизнес-процессами, проведения технического обслуживания, инвентаризации и транспортировки продукции. Однако простого наращивания возможностей сетевого подключения и организации потоков данных часто недостаточно, чтобы, к примеру, по-настоящему использовать потенциал цифровой трансформации. В частности, для получения конкурентных преимуществ производственным предприятиям необходимо полностью интегрировать промышленную автоматизацию, и тогда они получат возможность преобразовывать данные, собранные в среде IoT, в ценную аналитическую информацию, чтобы обеспечить более быстрое, точное и экономичное принятие решений. Но для этого они должны перенести вычислительные мощности на границу сети – на ее периферию.
Кстати, преимущества тех или иных вычислений можно определять с точки зрения эксплуатации оборудования и ПО. В частности, средний срок службы сервера в облачных ЦОДах составляет около двух лет. Для бизнес-приложений, которые генерируют большое количество данных, столь частый апгрейд оборудования не только сложен технически, но и дорог. Вместо инвестиций департаментам ИТ-компаний и организаций приходится все время заниматься поддержанием соответствия своей ИТ-системы текущим требованиям бизнеса. На границе сети в небольших распределенных ЦОДах, как указывают специалисты, компоненты серверной инфраструктуры могут служить до восьми лет. Исследования показывают, что решения, основанные только на централизованном облаке (Cloud), требуют гораздо больших инвестиций, чем базирующиеся на гибридной архитектуре Cloud+Fog или Cloud+Edge.
Еdge Сomputing характеризуются целым рядом преимуществ и потенциальных возможностей:
они позволяют анализировать и фильтровать данные ближе к источникам информации, и в облако отправляются только релевантные данные;
задержка в производственном процессе (сбой на конвейере) может быть критически важной, и малое время отклика, измеряемое в миллисекундах, критично для обеспечения безопасности ответственных и точных операций, поэтому ждать результата от облачной платформы IoT – это слишком долго;
если это необходимо, конфиденциальные данные можно обрабатывать на месте, где они защищены от прямых сетевых подключений, что обеспечивает более высокий уровень контроля над безопасностью и конфиденциальностью информации;
уменьшаются требования к емкости облачных хранилищ данных и пропускной способности сети, сокращаются соответствующие затраты, поскольку вместо отправки в облако большой объем данных с датчиков можно обрабатывать непосредственно на периферии.
Некоторые зарубежные специалисты считают, что вообще организация вычислительных ресурсов будет двигаться в направлении оконечных устройств – таких, как управляющие щиты турбин, системы управления летательными аппаратами или беспилотными автомобилями. Подобные устройства сгенерируют большую часть трафика IoT. Это будет означать то, что уже вроде бы установившийся процесс облачной обработки данных будет двигаться в обратном направлении, к Edge Computing.
Периферийные службы приложений уменьшают объемы данных, которые необходимо переместить при обработке, снижают последующий трафик и расстояния, которые должны пройти данные в процессе обработки. Edge Computing использует преимущества близости к физическим объектам, а также минимизирует взаимный обмен данными между элементами обслуживаемой системы. Это обеспечивает более высокую надежность и снижает затраты на передачу информации.
Что поделаешь: технологии развиваются, их доступность увеличивается, вычислительные способности и интеллект оконечных сетевых устройств растут стремительно. Достаточно хотя бы вспомнить, какие мобильные телефоны были в руках пользователей в начале века и какие сегодня.
Впрочем, у Edge Computing имеются и слабые стороны: недостаточная интероперабельность протокольного стека и отсутствие стандартизации. Как следствие, на сегодняшний день устройства и приложения, которые работают на границе сети, представляют из себя набор автономных Edge-экосистем. Имеющееся разнообразие интерфейсов и отсутствие промышленных стандартов пока отодвигают дату их "окончательной победы" над Cloud Computing, потому что лишают устройства и приложения возможности взаимодействовать друг с другом.
Впрочем, инженерам еще есть над чем поработать, чтобы совершить интеграцию IoT и периферийных устройств. К тому же Edge и Fog Сomputing, по сути, являются не чем иным, как дополнением и расширением Cloud, и каждая из них решает свои задачи, отнюдь не связанные с "победой" над Cloud. Как и Cloud, Edge Сomputing использует виртуализацию сетевых ресурсов, поскольку на периферии, в граничных узлах присутствуют программно-аппаратные комплексы от самых разных поставщиков, и именно виртуальные машины и контейнеры могут поддерживать работу в различных средах.
Как правило, архитектура систем Edge Computing трехуровневая: Cloud Computing − Fog Computing − Edge Computing. Если бы архитектура была двухуровневой, ядру ИТ-системы пришлось бы оперировать слишком большим количеством входных потоков данных и контролировать бесперебойность работы всех устройств, что весьма непросто. Итак, данные собираются на краю сети, если собирающее их устройство обладает собственным интеллектом – проходят там первичную обработку, если нет – пересылаются в оборудование "туманного" слоя. Тот обрабатывает данные и принимает на их основе решения. Какие-то данные ("сырые" или агрегированные) отправляются "в центр" на хранение. Иногда составляющие архитектуры обозначаются по-другому: промежуточный уровень именуется Edge, а граничный – End Point, но суть от этого не меняется.
Разумеется, отсутствие постоянного доступа к интернету по кабелю может препятствовать осуществлению Cloud, однако существование других вариантов сетевого подключения (к примеру, беспроводного) позволяют обеспечить гибкость вычислений от периферии до облака. В частности, сети 5G обеспечивают и высокую пропускную способность, и связь с низким уровнем задержек для быстрой передачи данных и предоставления сервисов с периферии. Поэтому наряду с Edge Сomputing совершенно логично существуют и мобильные периферийные вычисления (MEC − Mobile Edge Computing) как область пересечения периферии беспроводной сети и периферии инфраструктуры (фиксированной связи) там, где интернет из сетей мобильной и фиксированной связи имеет точки обмена трафиком.
На практике MEC означает взаимосвязь между Edge Computing и мобильной связью в самом широком смысле, включая камеры наблюдения, телемедицину, видеостриминг и IoT/IIoT, игры (в том числе AR/VR), подключенные транспортные средства (включая беспилотники) и многое другое. В результате базовая концепция периферийных вычислений постоянно эволюционирует: не успел еще прижиться термин MEC в расшифровке "мобильные периферийные вычисления", как ему на смену приходит MEC в более широком смысле "периферийные вычисления с множественным доступом" (Multi-Access Edge Computing). MEC – это также система стандартов, разработанная ETSI (около 6 лет назад ETSI сменил термин "мобильный" на "множественный доступ", чтобы отразить резкое увеличение количества подключенных устройств и приложений, потому что речь уже идет не просто о смартфоне).
MEC решает ту же задачу, что и в целом Edge Computing − перемещение большего количества вычислительных функций как можно ближе к тому месту, где генерируются данные и где принимаются решения, чтобы обеспечить более быстрое и эффективное реагирование. Ожидается, что это откроет новые виды деятельности, требующие низкой задержки и/или высокой пропускной способности. Ну, как и в сетях 5G. Специалисты уже определяют MEC, как "периферийный сервер в телекоммуникационной среде, включая 5G".
Собственно, MEC – это кульминация перехода всего и вся в Cloud, после чего Cloud, в свою очередь, приближается ко всему остальному, что не может не радовать всех имеющих к этому отношение. Давайте и мы порадуемся вместе с ними. ■
Отзывы читателей