Схема. На пути к программно-конфигурируемым сетям

Время, тренды, вызовы

Стремительное развитие информационно-коммутационных технологий (ИКГ) столь высоко и привычно, что мы его уже практически не замечаем, благосклонно воспринимая все новшества. Многие ещё помнят, какими были сотовые телефоны 10—15 лет назад. Помнится, у одного коллеги, когда он выталкивал машину из грязи возле своей дачи, «трапецевидная» Motorola упала прямо под колесо и, будучи очищенной от грязи, продолжила работать. С тех пор сменилось несколько поколений телефонов и их функциональность, а также наши представления об их потребительской ценности. Сегодня уже чуть ли не половину рынка заняли смартфоны (правда, дорога у той дачи изменений не претерпела, но это всё же традиция).

Если бы рядовому пользователю 1996 года показали, как обращается со смартфоном или планшетом современный ребёнок, он бы не всё сразу и понял. И не во всё поверил. Ну, в самом деле, пальцы порхают, буквально раздвигая на экране тучи, информация крутится, изображение — супер, кино, видеоролики, весь мир на ладони и это практически везде. Дошло до того, что малые дети, подходя к окну, порой совершают характерные движения пальцами, пытаясь изменить масштаб изображения. Музыкальная индустрия пытается оправиться от «нокаута» со стороны сетевых музыкальных магазинов и Интернета. Попутно «настоящие» фотоаппараты и видеокамеры перешли в разряд профессиональной аппаратуры в стиле «ретро», а всё остальное умеет делать даже самый обычный телефон. Появились телевизоры без антенного входа (в нём уже нет надобности), они узнают своих хозяев, а те управляют ими с помощью жестов. И, согласитесь, каких-то 15 лет назад никому в голову не приходило, что вскоре Интернет будет определять каждый наш шаг, что Интернет во многом заменит чиновников, что количество пользователей в Сети будет исчисляться миллиардами, а в исторически короткие сроки обещает увеличиться до десяти миллиардов с возможностью управления любыми устройствами. А на подходе — невиданные прежде возможности виртуализации как сетей связи, так и собственной жизни, креативного интерактивного контента и сопутствующих угроз информационной безопасности. И за всем этим стоит развитие инфо-коммуникационной инфраструктуры, которое, как выясняется, не беспредельно и не всегда эффективно.

Итак, современные информационные и телекоммуникационные технологии работают на фундаменте, заложенном полвека назад. Ведь вот уже более десяти лет в основе всей современной ИКТ отрасли лежат компьютерные сети. Но теперь их архитектура перестала удовлетворять потребностям бизнеса, операторов, провайдеров, владельцев центров обработки данных (ЦОД) и пр. Они не выдерживают объёмов передаваемой информации, не решают всех проблем чрезвычайно быстро растущего трафика, виртуализации и информационной безопасности. К примеру, по прогнозам компании Ericsson в период 2012—2018 гг. ожидается увеличение трафика в 12 раз (до 13…14 тыс. пета-байт). В 2017 г. доступ к LTE-сетям будет примерно у половины населения Земли. К концу 2018 г. число мобильных подключений увеличится до 9,3 млрд (без учёта М2М подключений). Во многом этот рост будет обусловлен широким распространением смартфонов и растущей популярностью различных видеосервисов.

В целом пропускная способность каналов связи приближается к насыщению не столько в силу отставания в создании новых каналов, но и из-за существующих методов и средств управления трафиком в ИКТ сетях. В частности, мобильные сети сегодня сталкиваются с двумя вызовами:
— увеличение вычислительной мощности мобильных терминалов и вычислительной ёмкости работающих в них приложений, что, в свою очередь, ведёт к увеличению требований к пропускной способности сети (и даже если вся обработка будет производиться где-нибудь в «облаке», это не отменит высоких требований к пропускной способности радиоканала, а то и увеличит её);
— одновременно   эффективность использования радиоспектра в технологиях LTE/LTE-A приближается к физическим   границам,   указанным   ещё Шенноном, и дальнейшие кардинальные улучшения можно получить лишь за счёт   расширения   полосы   рабочих частот.

Ну а раз нельзя наращивать пропускную способность одной соты, значит, надо организовывать много новых сот малого размера, причём в десятки раз больше, чтобы успевать за ростом трафика и перемещениями абонентов. Добавив сюда стремительный рост числа виртуальных/облачных устройств, несметное количество различных сервисов, несложно почувствовать, что конфигурировать сеть вручную становится невозможным. Управление же особо эффективно лишь тогда, когда процесс подобен «повороту ручки» радиоприёмника.

В части сетевого управления идёт постоянное усложнение его задач — увеличились их перечень, значимость и критичность, причём на фоне повышения требований к безопасности и надёжности. Современные сети строятся на базе устройств, которые постоянно усложняются, поскольку вынуждены поддерживать всё больше распределённых стандартных протоколов и их стеков (их уже более 600), одновременно используя закрытые (проприетарные) интерфейсы.
Как известно, основные сетевые протоколы в архитектуре TCP/IP были разработаны в 70-е годы прошлого века, когда никто не мог предсказать современные скорости и объёмы передаваемых данных. Делегирование важных полномочий по управлению маршрутами промежуточному программно-аппаратному слою произошло уже на самых ранних стадиях развития глобальной сети, когда процессорной мощности компьютеров, выполняющих серверно-клиентские функции, стало недостаточно, чтобы нагружать их ещё и функциями маршрутизаторов, «разруливающих» большие потоки данных, большая часть которых к тому же является ещё и чужой.

В 2010г. глава компании Google Эрик Шмидт говорил на конференции Techonomy: «Пять экзабайт информации создано человечеством с момента зарождения цивилизации до 2003г., столько же сейчас создаётся каждые два дня, и скорость увеличивается…». Рост трафика в геометрической прогрессии и тезис о том, что сети нынешней архитектуры просто не смогут его «переварить» с необходимым уровнем качества, приводят к закономерному выводу о том, что традиционные решения на основе сетевой интеграции будут попросту неспособны успевать за подключёнными устройствами.

В таких условиях провайдеры не могут оперативно вводить новые сервисы, а производители сетевого оборудования не могут быстро модернизировать свои изделия для удовлетворения требований заказчиков или защиты от кибер-врагов. Это, в частности, подтверждается увеличением числа сетевых атак, вирусов и других сетевых угроз, свидетельствующих о том, что вопросы безопасности до сих пор не имеют надёжных решений.
Однако всё это вскоре может измениться благодаря появлению принципиально нового подхода, называемого «программно-конфигурируемыми сетями» (ПКС), «программно-определяемыми сетями» или SDN (Software Defined Networks). SDN обещает сделать все сети дешевле и проще в управлении за счёт основной идеи — уровни управления сетью и передачи данных в ней разделяются.

Вообще-то, из самой логики развития всей ИКТ отрасли следует, что естественным результатом будет то, что далее архитектура сети будет двигаться от интеграции на основе физических параметров среды к интеграции на основе возможностей программного обеспечения. Но обо всём по порядку…

Истоки и развитие

В основе SDN лежит представление о компьютерной сети, как сети, имеющей «плоскость данных», которая отвечает за пересылку пакетов на основе состояния в каждом коммутаторе, и «плоскости управления», которая отвечает за вычисление, «планирование» и управление пересылкой. Эта концепция новой сетевой архитектуры, которая тогда ещё не называлась SDN, появилась из докторской диссертации Мартина Касадо в Стэнфордском Университете США в 2006 г. Совместно с доктором Ником МакКьоуном из того же университета он пришёл к выводу, что современная сетевая архитектура устарела и, скорее всего, в ближайшем времени не сможет обслуживать растущие запросы индустрии на должном уровне.

До недавнего времени действующая архитектура сетей развивалась по методу «ласточкиного гнезда», т. е. по мере выявления проблем к стеку протоколов TCP/IP добавлялся новый, который эту проблему решал. Например, когда появилась цифровая сеть с интеграцией служб, объединяющая передачу речи, данных и изображений (ISDN), возникла проблема передачи видеотрафика. Суть проблемы можно свести к следующему: при передаче видео по сетям возникают жёсткие требования к управлению качеством сервиса, поскольку необходимо динамично про- пускать очень высокоскоростной трафик, не допускающий задержек. Протокол RSVP как раз решил проблему резервирования необходимых ресурсов под такой трафик и, соответственно, позволил обеспечить необходимый уровень качества услуг. Однако, как потом выяснилось, этот протокол тоже не безгрешен и имеет ряд ограничений, связанных, например, с масштабируемостью сетей.

Следующий пример — протокол динамической конфигурации узла DHCP (Dynamic Host Configuration Protocol), имеющийся в любом домашнем маршрутизаторе, был разработан для сетей IPv4. Он позволяет выделять IP-адрес на ограниченный период времени («время аренды») или до отказа клиента от адреса в зависимости от того, что произойдет раньше. Это в какой-то мере решило проблему ограниченности IP-адресов в сетях IPv4, но в результате появилась другая проблема — назначение одинаковых IP-адресов разному оборудованию в рамках одной сетевой инфраструктуры. Вот так постепенно и возникли многие сотни протоколов.

Естественно, Касадо и МакКьоун были далеко не первые в размышлениях над упрощением и повышением эффективности ИКТ сетей. В целом попыток и желающих поменять существующую сетевую архитектуру было немало (взять хотя бы хорошо известную коммутацию в пакетных сетях на основе меток MPLS, разработанную когда-то компанией Cisco), но, как водится, нужного сочетания эффективности и простоты до них как-то не случилось. Вместе со Скоттом Шенкером, преподавателем из Беркли, уже известные нам джентльмены в 2007 г. организовали компанию Nicira, в рамках которой и занялись реализацией нового подхода в области виртуализации сетей. В частности, в Nicira стали активно заниматься созданием собственной платформы в сфере виртуализации сетей — Network Visualization Platform (NVP).

NVP работает как тонкий программный слой на границе сети и управляется распределёнными кластерам и контроллеров. Она позволяет динамически, без изменения адресов и нарушения рабочего процесса, создавать виртуальные сети, наделённые всеми свойствами и сервисами реальных аналогов, поддерживая мобильность виртуальных машин как внутри, так и между ЦОД. Независимость от оборудования обеспечивает полную аппаратную «межплатформенность» и делает возможным стабильное функционирование виртуальной сети даже при модернизации оборудования.

Чуть позднее в Nicira была разработана так называемая Distributed Virtual Network Infrastructure (DVNI), которая позволяет создавать в облачных ЦОД распределённую инфраструктуру виртуальных сет ей, полностью абстрагированную от физического сетевого оборудования. По мнению специалистов Nicira, итоги эксплуатации новой платформы в ЦОД крупнейших операторов «облачных» сервисов показывают, что без сетевой виртуализации 20—30 % серверных ресурсов ЦОД остаются незадействованными, а расходы возрастают в несколько раз, В очень короткие сроки Nicira смогла получить в клиенты таких крупнейших компаний-операторов США, как AT&T и NTT, а также таких гигантов, как eBay, Dream Host, Fidelity Investments и Rackspace. Немудрено, что в 2010 г. Nicira попала в список 25 самых многообещающих стартапов.

Как было отмечено выше, внесение принципиальных изменений в сетевое оборудование и протоколы являлось весьма трудным делом и практически всегда невозможно без привлечения компании-производителя (и то, если он того захочет). Средства построения сетей сегодня являются закрытыми для изменений со стороны владельцев сетей и научной общественности. Практически всегда переход с оборудования одного производителя на оборудование другого — большая проблема и немалые инвестиции. Вот тут-то очень кстати появилась идея МакКьоуна, Касадо и Шенкера — именно они предложили разделить уровень управления и передачи данных. В современных сетях эти функции совмещены, что делает контроль и управление весьма нелёгким делом.

В частности, исследователи предположили, что если у коммутаторов «перехватить» управление таблицами коммутации, то можно было бы произвольным образом управлять поведением и скоростными характеристиками и отдельного коммутатора, и параметрами передаваемых потоков данных в масштабах всех сетей Ethernet. А чтобы «отвязаться» от оборудования конкретного поставщика, Касадо предложил решить, что для этого необходим специализированный сетевой протокол, названный Open Flow. И хотя технология SDN не позволяет полностью избавиться от коммутаторов и маршрутизаторов, она даёт возможность убрать из них значительную часть логических функций, которые производители оборудования реализуют на своём проприетарном ПО.

Архитектура и реализация

Итак, основная идея SDN состоит в том, чтобы:
1. Отделить управление сетевым оборудованием от управления передачей данных за счёт создания специального ПО, которое может работать на обычном отдельном компьютере и которое находится под контролем администратора сети.
2. Перейти от управления отдельными экземплярами сетевого оборудования к логически централизованному управлению сетью в целом, осуществляемому с помощью контроллера с установленной сетевой операционной системой и реализованными поверх сетевыми приложениями.
3. Создать единый, унифицированный, не зависящий от поставщика программно-управляемый интерфейс между уровнем управления и уровнем передачи данных (между сетевым приложением и транспортной средой сети).
4. Осуществить виртуализацию физических ресурсов сети.

Определение маршрута, по которому должна передаваться информация, является ключевым алгоритмическим процессом, обеспечивающим работу компьютерных сетей, хотя рядовые пользователи Интернета его почти не замечают. Какую-то, довольно незначительную, часть этой работы выполняют компьютеры, подключённые к локальной или глобальной сети, на которых выполняются клиентские и серверные программы. Основная же нагрузка по прокладыванию маршрутов лежит на специальном оборудовании — маршрутизаторах, коммутаторах, сетевых мостах, переключателях, по сути, промежуточных специализированных компьютерах и программах, вычисляющих по определённым протоколам путь, по которому между сетевым хостом (например, почтовой программой, запущенной на вашем компьютере, и почтовым сервером интернет-провайдера) курсируют пакеты полезных данных.

Маршрутизаторы обычно решают две основные задачи на двух уровнях: передача данных (forwarding) — продвижение пакета от входного порта на определённый выходной порт и управление данными — обработка пакета и принятие решения о том, куда его передавать дальше, на основе текущего состояния маршрутизатора. До сих пор развитие пакетной коммутационной техники шло по пути сближения этих уровней, однако с уклоном на передачу, тогда как уровень управления оставался достаточно примитивным и опирался на сложные распределённые алгоритмы маршрутизации и замысловатые инструкции по конфигурированию и настройке сети. Вот это ПО маршрутизаторов, реализующее уровень управления, и было проприетарным,

Ну а сегодня маршрутизатор/коммутатор должен поддерживать протокол Open Flow для удалённого управления посредством контроллера — каждый коммутатор должен содержать одну или более таблиц потоков (flow tables), групповую таблицу (group table) и поддерживать канал (OpenFlow channel) для связи с удалённым контроллером — сервером.

В целом в архитектуре SDN существуют три уровня:
— инфраструктурный уровень, предоставляющий набор сетевых устройств (коммутаторов и каналов передачи данных);
— уровень управления, включающий в себя сетевую операционную систему, которая обеспечивает приложениям сетевые сервисы и программный интерфейс для управления сетевыми устройствами и сетью;
— уровень сетевых приложений для гибкого и эффективного управления сетью.

Механизм работы коммутатора OpenFlow достаточно прост. У каждого пришедшего пакета «вырезается» заголовок (битовая строка определённой длины). Для этой битовой строки в таблицах потоков, начиная с первой, ищется правило, у которого поле признаков ближе всего соответствует (совпадает) заголовку пакета. При наличии совпадения над пакетом и его заголовком выполняются преобразования, определяемые набором инструкций, указанных в найденном правиле. Инструкции, ассоциированные с каждой записью таблицы, описывают действия, связанные с пересылкой пакета, модификацией его заголовка, обработкой в таблице групп, обработкой в конвейере и пересылкой пакета на определённый порт коммутатора. Инструкции конвейера обработки позволяют пересылать пакеты в последующие таблицы для дальнейшей обработки. Если нужного правила в первой таблице не обнаружено, то пакет инкапсулируется и отправляется контроллеру, который формирует соответствующее правило для пакетов данного типа, и устанавливает его на коммутаторе (или на наборе управляемых им коммутаторов), либо пакет может быть сброшен (в зависимости от конфигурации коммутатора).

Управление данными в OpenFlow осуществляется не на уровне отдельных пакетов, а на уровне их потоков. Правило в коммутаторе OpenFlow устанавливается с участием контроллера только для первого пакета, а затем его используют все остальные пакеты потока.
Короче, протокол OpenFlow позволяет пользователям самим определять и контролировать, кто с кем, при каких условиях и с каким качеством может взаимодействовать в Сети.

Контроллер может управлять как одним, так и несколькими Open Flow-коммутаторами и содержит сетевую операционную систему (СОС), предоставляющую сетевые сервисы по низкоуровневому управлению сетью, сегментами сети и состоянием сетевых элементов, а также приложения, осуществляющие высокоуровневое управление сетью и потоками данных. В отличие от традиционного толкования термина ОС, под СОС понимается программная система, обеспечивающая мониторинг, доступ и управление ресурсами всей сети, а не её конкретного узла. В общем, вроде бы вы работаете на обычном компьютере, а на самом деле вы командуете целой сетью, которая может решать множество задач, предоставлять множество услуг и теоретически может быть везде. И таких компьютеров со своими сетями может быть много.

Виртуализация

Создание виртуальных частных сетей (VPN — Virtual Private Networks) — одна из массовых услуг ИКТ рынка, в том числе и в «облаках». Сегодня, с увеличением «ширины» каналов, виртуализуется всё подряд, Виртуализация в SDN (как, впрочем, и в других случаях) позволяет более эффективно использовать ресурсы сети под разные нужды. Под виртуализацией сети понимается группирование (мультиплексирование) нескольких потоков данных с различными характеристиками в рамках одной логической сети, которая может разделять единую физическую сеть с другими логически- ми сетями или сетевыми срезами (network slices), Каждый такой срез может использовать свою адресацию, свои алгоритмы маршрутизации, управления качеством сервисов и т, д.

Виртуализация позволяет повысить эффективность распределения сетевых ресурсов и сбалансировать нагрузку на них; изолировать потоки разных пользователей и приложений в рамках одной физической сети; администраторам разных срезов использовать свои политики маршрутизации и правила управления потоками данных; проводить эксперименты в сети, используя реальную физическую сетевую инфраструктуру; использовать в каждом срезе только те сервисы, которые необходимы конкретным приложениям.

Одним из примеров виртуализации ресурсов SDN, разделения сети на срезы и управления ими является FlowVisor — программа-посредник (proxy), действующая на уровне между OpenFlow-коммутаторами и различными контроллерами SDN. Посредством FlowVisor можно создавать логические сегменты сети, использующие разные алгоритмы управления потоками данных, обеспечивая изоляцию данных сетей друг от друга, Тогда каждый контроллер SDN управляет только своей логической сетью и не может оказывать влияния на функционирование других. Так поверх одного и того же набора коммутаторов возникает много независимых сетей. Для контроллера, взаимодействующего с оборудованием OpenFlow через FlowVisor, весь обмен сообщениями выглядит так же, как если бы контроллер взаимодействовал с обычной сетью.

Конкретизация выгоды

Концепции и технологии не должны закрывать от нас основные вопросы о том, что же даёт SDN сетевым операторам и их клиентам?
Исторически сетевые устройства долго пытались сбалансировать противоположные тренды простоты эксплуатации и кастомизированной (т. е. под конкретного клиента) настройки. Учитывая, что различные поставщики часто используют различные элементы для настройки, полученная в конечном итоге сеть может получиться довольно сложной для оператора. В парадигме SDN вы сначала выстраиваете единую надёжную распределённую систему управления для централизованного обслуживания всех запущенных в сети программ, управляющих маршрутизацией. Такая система позволяет окинуть «одним взглядом» состояние всей сети сразу, предоставляя всю оперативную информацию о работе этих программ.

Подобно тому, как компьютерный процессор снабжён интерфейсом в виде набора стандартных инструкций, так и компьютерная сеть нуждается в подобном стандартном интерфейсе (наподобие OpenFlow), контролирующем поведение информации в сети.
Сегодня, оглядываясь назад, специалисты понимают, что такой интерфейс нужно было создавать уже давно. Это позволило бы внедрить новые программные сетевые инструменты, не заботясь о деталях более низкого уровня, связанных с работой оборудования. Но по какой-то причине этого не произошло, и в сетевой индустрии сохранился перекос, когда за норму принимается «проприетарное» поведение, не учитывающее специфичных интересов сетевых операторов и пользователей. С помощью SDN оператор сможет модифицировать сеть в полном соответствии с собственными нуждами и нуждами своих клиентов. В компьютерной индустрии такое поведение считается само собой разумеющимся. Теперь благодаря SDN такой тип мышления должен прийти и в сетевую индустрию.

Для производителей ПО и для интернет-гигантов SDN — это новое направление бизнеса с большим потенциалом. Сейчас они никак не зарабатывают на сетевой инфраструктуре, так как всё крутится вокруг сетевых «железок». В SDN появляется новый уровень: простой, независимый от «железа» и с хорошим потенциалом распространения — и это отличная возможность заработать на ПО.
С ростом числа виртуальных устройств (серверов, сетей) в эпоху «облаков» мы должны перестать делать слишком много ручных настроек, связанных с сетевыми операциями. Простота является обязательным для достижения масштабирования. Один из способов достижения подобной простоты — абстрагироваться от конкретной сети, чтобы отдельные виртуальные устройства оставались попросту невидимыми. Простота, достигаемая через последовательность широких абстракций, позволит операторам управлять своим и бизнес-намерениям и в сети без необходимости понимать возможности или топологию входящих в её состав устройств.

В частности, к подобным желаниям можно отнести такие, как, например, «доступ к данной VPN возможен только с безопасного места» или «видео от генерального директора должно идти без потерь». Ранее такие приказы могли, мягко говоря, ввести техперсонал компании-оператора в ступор. А в SDN это не проблема. Ведь подобные простые команды высокого уровня могут обслуживаться только через уровень управления логикой предоставления ресурсов, который, в свою очередь, обеспечивает работу различных устройств в сети. Именно такая логика управления, на которую будут настроены различные интерфейсы и устройства, и позволит управлять сетью «простым поворотом ручки», позволив преодолеть разрыв между простотой и детальным контролем за всем и устройствами сети.

Одним из следствий SDN является наступающая эра услуг OaaS (Optical-as-a-Service) для транспортных сетей. В частности, на недавнем заседании SDN & OpenFlow World Congress в Дармштадте компания Huawei представила прототип контроллера SDN транспортной сети с поддержкой сверхширокополосных сервисов по сценариям выбора ЦОД и межсетевым соединениям. Одной из возможностей контроллера является обеспечение визуализации сетевых ресурсов. Это позволяет уровню приложений представить сеть в абстрактной манере и инициировать соответствующие запросы пользователей типа «хочу, чтобы вот здесь всё было хорошо» непосредственно к ней. Решение позволяет также предоставлять информацию о состоянии сети для различных приложений в целях организации двунаправленного планирования оптических и электрических ресурсов и их оптимизации.

Интересно, что в своё время появление торрентов, которые по большей части и увеличили объём мирового трафика на порядок, стало своего рода революцией. Причём принципы работы торрента и SDN похожи — внешний сервис управляет потоками данных между источниками и приёмниками независимо от особенностей их подключения. И если конечные пользователи, используя SDN или какую-нибудь другую технологию, когда-нибудь сумеют обойти ограничения интернет-провайдеров и организуют бесплатный и бесконтрольный Интернет по всему миру — это станет ещё одной ИКТ революцией.

Жизнь

Всё вышеуказанное было крайне благоприятно принято как научным сообществом, так и ведущими компаниями-производителями сетевого оборудования, образовавшими в марте 2011 г. консорциум Open Networking Foundation (ONF). Его учредителями выступили Google, Deutsche Telekom, Facebook, Microsoft, Verizon и Yahoo. Состав ONF быстро расширяется, в него уже вошли такие компании, как Brocade, Citrix, Oracle, Huawei, Dell, Ericsson, Alcatel Lucent, HP, IBM, Marvell, NEC и ряд других. Был даже создан совместный исследовательский центр Open Network Research Center, в лаборатории которого продолжились исследования SDN, причём все исследовательские программы центра являются открытыми, как, впрочем, и ПО (т. е. Open Source). Что касается предложившей одной из первых практическую реализацию SDN компании Nicira, то недавно она была приобретена компанией VMware за более чем 1 млрд долл. США, что явилось неплохим результатом пятилетней работы для трёх университетских преподавателей.

Зачем поставщикам оборудования рубить сук (в виде проприетарности), на котором покоятся их доходы на высококонкурентном ИКТ рынке, в общем, понятно. Самые сообразительные из них быстро поймут, как конвертировать открытый стандарт в доходный бизнес — ведь они это делали уже неоднократно, когда появлялись новые сетевые технологии. В частности, SDN действительно позволяет повысить эффективность функционирования сетевого оборудования на 25—30 %, снизить на 30 % затраты на эксплуатацию сетей, превратить управление сетями из искусства в чисто инженерную задачу, повысить безопасность и предоставить пользователям возможность программно создавать новые сервисы и оперативно загружать их в сетевое оборудование, Ведь современный ЦОД — сложное, дорогое и весьма энергоёмкое сооружение, В общем, при таком объёме преимуществ, пожалуй, можно пойти на новый этап глобальной сетевой совместимости.

В настоящее время основные направления разработок в части SDN связаны с развиваемой в США программой исследования «будущего Интернета» GENI (Global Environment for Network Innovations), объединяющей около 40 ведущих университетов США; деятельностью вышеупомянутого Open Networking Research Center, выполняющего исследования и разработки в области Internet2; а также с Седьмой рамочной программой (7РП) исследований ЕС Ofelia и проектом FEDERICA, Компания IDC оценивает инвестиции в разработки SDN в размере 2 млрд долл. США до 2016 г.

Есть развитие SDN и в РФ. В частности, в 2012г. в ОАО «Ростелеком» началось создание опытного сегмента облачной платформы для ЦОД на основе SDN, Пока традиционная (на TCP/IP) и новая архитектуры будут работать параллельно. Ожидается, что SDN позволит получить выигрыш в эффективности работы загрузки и в количестве одновременно поддерживаемых виртуальных ЦОД. А ещё новая архитектура должна уменьшить накладные расходы на перенастройку сетевого оборудования — её просто не потребуется.
В общем, не зря современные связисты шутят, что один Мартин Кассадо заменяет собой целую стойку серверов.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *