транспондер dwdm 100 гб с чаще всего использует код

medved serdtse girlianda 148412 1280x720 Игры для детей

DWDM: решение дешевле операторского на 30-50% (класс Enterprise)

На рынке оптики кое-что поменялось за последние два года. Теперь можно купить собственные DWDM-юниты, поставить их в стойку в дата-центре. И получить всё это дешевле, чем традиционные операторские решения.

В этом посте я объясню, почему пора переходить на Enterprise-оборудование, и сделаю обзор устройств от нескольких топовых вендоров: Huawei, ADVA, Ciena.

Ликбез

Большие компании соединяют свои точки оптикой. Своя транспортная сеть есть почти у всего нефтегаза, во многих банках, в энергетике, у бирж, крупного машиностроения, транспортных компаний и др.

Сначала для связи объектов прокладывается «тёмная» оптика. Это простое оптоволокно, в которое можно подавать цифровой сигнал. Предельно упрощая, есть свет — единица, нет света — ноль. Обычно в прокладываемом кабеле находится не одна жила, а несколько: пачки по 12–32–64 линии.

Транспортная способность тёмной оптики очень быстро исчерпывается, поэтому нужно «раскрашивать» линию. Для этого необходимы оптические уплотнители, они же DWDM-устройства. DWDM не только «окрашивает» сигнал, но и мультиплексирует несколько сигналов в один, то есть «упихивает» несколько несущих в одну оптическую жилу за счёт возможности работать на разных длинах волн. Помимо самого физического уплотнения, оборудование также использует технологию OTN для мультиплексирования нескольких низкоскоростных потоков в один высокоскоростной. Для нашего ликбеза не важен сам принцип, а важно, что это особая шаманская магия физики и техники.

Дальше большие компании делают отказоустойчивую сеть на уровне L1. Как правило, на линейном сигнале мы делаем резервирование каналов: первый оптический сигнал идёт по обычному (кратчайшему) пути, второй — по независимой оптической линии или по кольцевой топологии транзитом через узлы («треугольник» как простой случай децентрализованной сети), чтобы из точки в точку существовали независимые маршруты. Ещё мы обычно ставим 1+1 комплекты для дублирования трафика. Это важно для создания полного резервирования и возможности создания катастрофоустойчивого решения на уровне транспортной сети.

Так что с новым оборудованием? Какие у него возможности?

Во-первых, высокая пропускная способность. Более подробно — чуть позже, и вот почему.

Трафик в компаниях растёт — это очевидный тренд.

Если вы ещё думаете, что на 80 линиях по оптике 800 Гбит/с для развивающихся компаний — это много, то что-то идёт не так. Как правило, сейчас уже нужно больше пропускной способности под разные задачи и транзитный трафик.

Рис 1. Эволюция пропускной способности в ЦОДах

image loader

Этот график показывает постоянный рост передаваемых потоков данных в современных ЦОД. Причём всё большую часть берёт на себя трафик со скоростями в 100 Гбит/с.

Во-вторых, стоимость. До 2015 года стоимость 100 Гбит/с в линию была дороже, чем 10 раз по 10 Гбит/с. Все увлеклись пучками волокон, но теперь вендоры сделали оборудование, где 200 Гбит/с может оказаться дешевле, чем 20 раз по 10, и даже дешевле, чем 10 раз по 10.

В-третьих, размеры. Старое операторское ставилось в кроссовую, а новое Enterprise — в серверную. Это не стойка для офиса, как было раньше, не стойка для чердака, а железка, которая должна находиться в ЦОДе с холодным и горячим коридорами. И модули теперь глубиной не 300 мм, а 600 мм под серверные стойки.

Перейдём непосредственно к обзору Enterprise-оборудования.

Начнём с Huawei. У него на два юнита можно разместить шесть плат; каждая из которых может выдавать по 400 Гбит/с в линию.

Рис.2. Пример Enterprise-оборудования Huawei

Источник

Немного о DWDM 400/500G, 1Tb, про супер — каналы и будущее

Обозначу в двух словах. DWDM –это технология спектрального уплотнения каналов. В чем смысл спектрального уплотнения? Через один оптоволоконный кабель вы можете передавать более одного сигнала параллельно, используя для этого различные длины световых волн. Технологий спектрального уплотнения есть несколько –WDM, CWDM, DWDM, HDWDM. Технологии отличаются плотностью расположения каналов, т.е. на сколько один канал от другого отстоит по частотной сетке.

Какие системы сейчас есть?

В настоящий момент наибольший интерес представляют собой системы DWDM и HDWDM, поскольку они обеспечивают возможности передачи наибольшего количества информации через один оптоволоконный кабель. Если рассматривать уже существующие системы, то можно выделить технологии, обеспечивающие передачу данных на скорости 2,5/10/40G на один канал. Всего каналов может быть создано до 80 или до 96, все зависит от производителя оборудования и какую частотную сетку он использует. Т.е. общая пропускная способность одного оптического волокна будет = (80или96)*(скорость передачи на канал). Например, для системы с 80 каналами и скоростью передачи на канал в 10G, максимальная скорость, с которой можно передавать данные через один кабель = 10G*80=800G
В настоящий момент большинство производителей выводит на рынок DWDM 100G комплексы, которые позволяют передавать информацию со скоростью 100G/s на один канал (лямбду) и выдают максимальную мощность в 9.6 Тбит/сек. Я немного постоял рядом, когда тестировали эти комплексы, о чем я уже как-то раз писал на Хабре (однако пост пришлось скрыть, т.к. возмутились тестировщики — типа я конфиденциальность нарушаю) Озадачившись проблемой 100G захотелось посмотреть немного дальше – в будущее. Что там?

Предпосылки для развития технологий.

Думаю ни для кого не секрет, что технологии развиваются в соответствии с требованиями рынка услуг. Если посмотреть на ситуацию вообще, можно увидеть, что в будущем нас ждет лавинообразное увеличение высокотребовательного к качеству линий передачи трафика. В первую очередь, как мне видится в этом будет «виновата» сети 4го поколения на LTE, которые активно начали строиться операторами мобильной связи в нашей стране. Если учесть что LTE даже в той урезанной комплектации, которая предполагается для реализации у нас в стране, предполагает до 80Мбит даунлинка, сделав скидку на реалии и поделив угрожающую цифру на 8, получим 10 Мбит на один мобильный терминал. Что в среднем в 5-7 раз больше чем предлагает существующая 3g c HSPA+. Да, я знаю, что в стандартах написаны совсем другие цифры, но реально они выглядят как-то так. К сожалению.
Так вот, если наши мобильные операторы подумают, то они пойму, что в тот момент, когда каждый мобильник начнет хотеть по радиоканалу скорость 7-15Мбит/сек, скорость на транспортные сети возрастет. И будет возрастать до тех пор, пока LTE не достигнет своего потолка. Потолок для LTE, как я помню, обозначен в 400Мбитт на даунлинк.
В какой-то момент перед операторами возникнет вопрос, как дальше развивать транспортные сети? Тогда придется либо прокладывать новые оптические линии, либо ставить более современное оборудование, чтобы лучше использовать старые. Если сравнивать стоимость прокладки линий и стоимость (пусть даже самых новых DWDM комплексов) – я не секунду не сомневаюсь, что выберет оператор. Отсюда актуальность вопроса с развитием технологий DWDM до скоростей, превышающих 100G.
Ежегодные исследования показывают, что трафик растет приблизительно на 40 % в год.

Системы DWDM со скоростями > 100G

Ну что же, вот и подошел я к самому интересному. Как же будут организовываться системы с скоростями >100G в канале, какие они будут и т.д. Но все по порядку. На сколько мне удалось выяснить, предполагаются этапы развития DWDM технологий до 400, 500 Гбит на супер-канал* и 1Тбит-а. Других замечено не было.
*Супер-канал определяется как логическое объединение нескольких физических каналов, которое со стороны клиента видно как единый канал с пропускной способностью >100G (400, 500 или 1000Гбит). Т.е. если на входе у вас есть клиентский сигнал в 1Tb вы заводите его на специальную Super-channel линейную карту, которая обрабатывает клиентский поток в 1Тб и гонит его по нескольким несущим каналам в линию. Вот так выглядит прототип 1Tb модуля от Infinera:

image loader

В настоящее время утвержденных стандартов, определяющих то, как должен работать супер канал нет. В рамках стандартизации супер-канала работают:
1) Optical Internet Forum, разрабатывает возможность расширения своих разработок в области 100G DWDM и включения в них логики супер-каналов
2) МСЭ-Т в рекомендации G.694.1 утвердила сетку частот с возможностью шага в 12.5ГГц
3) МСЭ-Т SG15, Question 11 – открыт исследовательский вопрос по разработке новых контейнеров с учетом возможностей частотной сетки 12.5ГГц (развивается Infinera, Finisar, Verizon)
Здесь МСЭ-Т предлагает расширить рекомендацию G.709 и в структуры кадров дополнительный контейнер, который позволит соотносить один OCh с несколькими оптическими несущими. Схема теперь будет выглядеть так:

image loader

4) IETF CCAMP разрабатывает Generalized Label for Super-Channel Assignment on Flexible Grid 12.5ГГц, а также расширение OSPFTE для поддержки GMPLS в сетке 12.5ГГц (развивается Инфинерой и Verizon)

Таким образом, в случае изобретения модулей транспондера с возможностью перестройки через 12.5ГГц и скоростью передачи в 100G (против существующих 25ГГц, да и то только у Инфинеры) мы можем получить выигрыш в пропускной способности линии в 2 раза за счет более плотной частотной сетки. Если предположить, что канал будет 100G, то приблизительная суммарная скорость передачи информации в линию может достигать 32Тбит/сек.

Тема новая, информации не много, большинство разработок не открыты для общего пользования — так что прошу отнестись снисходительно — получилось не полно и сумбурно.

Источник

DWDM-линии между дата-центрами: как меняется подход, если речь про банки и ответственные объекты

image loader
Это 8 Тбит/с (при использовании 80 длин волн с пропускной способностью 100G).

С 2006 года я сдал в эксплуатацию коммутационное оборудование полутора дюжинам банков. И ещё ряду объектов, которые не могу упоминать. Это те самые каналы, где в скорость синхронной репликации нагло и подло вмешивается скорость распространения света в оптоволокне.

Ниже я рассказываю о нескольких типовых случаях архитектуры, где очень легко поймать ошибку масштабирования или неверного резервирования. И про магию «работает – не трогай».

Что это вообще такое

image loader
По мультиплексору-демультиплексору на каждой стороне, оптика в середине. По сравнению с тёмной оптикой для передачи сорока каналов 10G потребовалось бы 40 оптических пар, когда при использовании технологии DWDM потребуется только одно оптическое волокно.

Система WDM кроме решения задач по передаче трафика может решать задачи по резервированию. В ряде случаев достаточно установки всего нескольких дополнительных плат — и мы получаем систему с резервированием «по линии». На приёмной и передающей стороне устанавливаются устройства, которые передают весь трафик по одной паре оптических волокон основного направления. При обрыве в течение не более 50 мс (среднее время в нашей практике – 23 мс) они переключается на резервное направление.

Очень важный момент: если изначально закладывать систему как транспортную сеть с возможностью коммутации оптических линков при помощи ROADM, а не нагромождать существующее оборудование «тёмной оптикой», можно было бы в будущем избежать множество проблем, с которыми сейчас сталкиваются наши заказчики. Это я к вопросу правильного планирования масштабирования.

Обычная ситуация — крупная компания объявляет тендер или конкурс на построение инфраструктуры между своими дата-центрами (или своими ЦОДами и ЦОДами партнёра, либо критичными узлами входа в магистраль). А дальше начинается лютая история с непониманием, как нужно делать. На тендер проходит 5-6 компаний, из которых 2-3 стабильно предлагают цены на порядок ниже. С ними достаточно просто – скорее всего, их проект или не будет работать по спецификации, или же попросту не будет соответствовать требованиям заказчика после приёмки. Эти грабли опытные IT-руководители обходят, но сразу после встают перед другой дилеммой: а как выбрать из трёх оставшихся предложений?

Здесь можно только глубоко копаться в параметрах проекта. К примеру, для банков каждый такой случай – это баланс между бюджетом, надёжностью и производительностью системы. Вопрос в том, насколько грамотно всё спроектировано и насколько правильно подобрано оборудование. Объяснить на пальцах очень и очень сложно, но я попробую привести примеры.

Типовая ситуация

При соединении двух точек просто закладывается два независимых канала. Что будет, если приедет экскаватор и намотает один из каналов на ковш? Среагирует ли оборудование за миллисекунды для построения нового маршрута? Что будет с уже отправленными данными (застрявшими «прямо в ковше»)? Что случится при выходе из строя мультиплексора? Допустим, затопило полностью всю площадку или пожар на площадке. Система должна в автоматическом режиме, с минимальным временем переключить имеющиеся у нее каналы таким образом, чтобы связь не пропала. И время там совершенно не такое, как у человеческой реакции – счёт в тех же банковских транзакциях идёт на миллисекунды.

Экскаваторщик ещё не понял, что сделал, а данные уже делают крюк в 200 километров, обходя нашего героя.

Проекты

За последний год резко выросло количество проектов с распределёнными ЦОДами. Растёт инфраструктура, растёт количество данных, дата-центры увеличиваются в масштабах. Именно один ЦОД, в котором сконцентрированы все бизнес-критичные данные плюс процессы обработки информации, это как-то не очень разумно. Фактически – единая точка отказа, благо примеров даже в банковской сфере было уже достаточно.

И вот в этот момент, когда принимается решение о строительстве распределённого ЦОДа, возникает вопрос со связью. Как делать связки внутри ЦОДа всем понятно – если это Ethernet, вообще не вопрос, если FC — в целом, тоже, Infiniband используется пока редко (это самая молодая технология сейчас, но в перспективе весьма востребованная). А вот то, как правильно построить инфраструктуру для объединения ЦОДов – здесь начинаются грабли.

Простой пример: тёмная оптика и WDM

Моя команда в КРОКе создаёт сложную катострофоустойчивую DWDM систему. Планируется связать три дата центра и тестовую площадку заказчика. В целях отказоустойчивости было принято решение о создании двух независимых колец.

image loader
Топологическая схема DWDM c использованием двух независимых колец

Изначально заказчик думал о тёмной оптике, поскольку решение получалось достаточно простым архитектурно и, казалось, что дешевым. Тем не менее, для передачи нужного количества трафика пришлось бы задействовать порядка 30 оптических пар на каждое кольцо. Почти все участки колец проходили бы в одном кабеле, и по этому потребовалось бы около 60 пар оптики. Так же расстояние, которое требовалось бы преодолеть по «тёмной оптике» было около восьмидесяти километров, что не позволило бы преодолеть без усиления сигнала. Тогда пришлось бы добавлять два дополнительных сайта которые выполняли роль исключительно ретранслятора.

image loader
Топологическая схема без использования DWDM

Таким образом, грамотная постановка задачи (точнее – понимание архитектуры) сделала очевидным, для заказчика, вопрос выбора технологии.

Чуть посложнее: выбор оборудования узла

Решается вопрос выбора оборудования и архитектурного решения сети DWDM. Изначально непонятно какой конкретно и в каких объёмах трафик будет передаваться. Также до конца не была понятна топология сети (она развивалась). Требования заказчика порой менялись в течение двух недель по мере поступления новых аналитических данных и новых планов на развитие. Естественно, заложить в проект систему, которая изначально перекрывала бы все возможные требования заказчика — безумно дорого.

Заказчик активно масштабировался, но не мог предсказывать дальше двух лет. Мы сошлись на том, что сеть строится с узлами, которые имеют резерв в горизонте планирования. Далее при росте трафика сеть могла быть расширена в полтора раза без замены шасси, без применения новых технологий и без принципиального изменения архитектуры. В линию между площадками суммарно передавалось более 200 Гб/с трафика.

Архитектура — 3 плоских кольца, 5 мультиплексоров, линейное резервирование. Нечётное количество мультиплексоров объясняется тем, что один мультиплексор принимал две линии, и исполнял функцию 2 устройств. Такая архитектура позволила не использовать матрицу кросс-коммутации для организации резервирования и обойтись более дешёвыми Optical Line Protection модулями. При этом система только выиграла от такого решения, поскольку по бэкплейну не передавалось никакого трафика.

Если говорить проще, мы умышленно сделали функционал мультиплексоров менее гибким, но при этом увеличили надёжность и снизили стоимость узлов. Разумеется, для точного просчёта нужно было проверять сотни параметров и не один десяток раз пересчитывать проект с инженерной командой.

image loader

Третий пример: надёжности не бывает много

Изначально, при построении системы DWDM, основным критерием была отказоустойчивость. Может показаться, что резервирование излишнее, но это не так. Была выбрана система полного резервирования 1+1 и дополнительно заложено резервирование по линии. Для чего это было сделано? Дело в том, что при полном резервировании 1+1 и обрыве оптического кабеля, пропадает трафик в одной из систем до восстановления оптического кабеля. При комбинированном резервировании при обрыве кабеля трафик в одной из систем пропадает только на 50 мс и менее (в нашем случае) после чего происходит переключение, и обе системы работают на полную мощность, что позволяет заказчику передавать экстра трафик через одну из систем. Так же такая система позволяет пережить как однократный обрыв кабеля, так и одновременный выход из строя любого из узлов в случае того же пожара.

Пример одного особо крупного банка

Мы делали связку для трёх ЦОДов банка и двух своих, где у них есть ряд критичных сервисов. Мы, фактически, увязывали две инфраструктуры — собственную инфраструктуру и инфраструктуру заказчика. Связь – оптика с DWDM. Изыскивался оптимальный набор оборудования, отвечающий именно конкретной топологии и именно конкретным задачам. Далее проектировались и настраивались алгоритмы работы данной сетевой структуры (по факту – кольца с двумя рассечками). На каждой точке есть полный каталог сценариев выхода из строя площадок полностью, каждого отдельного узла, канала, физической линии и комбинаций этих факторов – своего рода большие таблицы типовых реакций. Разрабатывался даже сценарий «а если, например, одновременно выходит из строя работа мультиплексора и при этом на совершенно другом участке рвется линия». В теории это маловероятно, но я знаю как минимум два случая у оператора и банка, когда такое происходило с разницей в часы. Законы Мэрфи в магистральной сфере работают как нигде. Ну и злой умысел в сценариях тоже не исключался.

image loader

Вот карточка проекта другого банка, всё ещё крупного, но уже не такого крупного:
• Оборудование MSTP 15454E Cisco Systems
• Три площадки (основной ЦОД, резервный ЦОД, операторская), расстояние 5-20 км
• Топология сети – полноценное кольцо
• Клиентские интерфейсы между ЦОДами – 10GE – 8 шт., FC-800 – 8 шт., FC-400 – 4 шт., GE – 16 шт.
• Клиентские интерфейсы от каждого ЦОД до операторской площадки – FE/GE – 8 шт.
• Используется защита клиентского сигнала — в случае одиночного разрыва кольца сигнал переключается на другое направление в течение 50 мс
• Используются мультиплексоры на 40 каналов (длин волн)
• Используются транспондерные платы — клиенты подключаются многомодовой оптикой или медью
• Используется питание 220 В от двух блоков питания
• Площадки ЦОД использовали 5 шасси конструктива M6 (6 слотов под линейные карты), операторская площадка – 2 шасси.
• Типовой комплект оборудования ЦОД занимает 34 RU стоечного пространства
• Работы по развертыванию и запуску системы выполнены силами двух человек в течение месяца
• Оптика под нужды DWDM выделялась поэтапно по мере переноса функционала существующей сети на уже запущенные участки новой транспортной сети

Вот ещё один похожий пример:

image loader

Вот так выглядит само железо:

9d926d2b4c844786b4005292ffaa0cdd

Интерфейс управления (один из вариантов):

image loader

Результат

Как правило, на входе у нас есть банк или другой подобный заказчик с собственной оптической линией, которому требуется новая система передачи данных (точнее, глубокая модернизация старой). Специфика таких каналов в России такова, что пока работает – лучше не трогать. Модернизация происходит тогда и только тогда, когда заказчику требуется расширение по скоростям, а не по факту выхода новых технологий.

В ходе проекта мы строим надёжную DWDM-сеть. Монтаж DWDM открывает возможности для роста без замены оптики.

Резюме

За 9 лет наша команда получила очень интересный опыт работы с бывшим Нортелом ныне — Сиеной, Циской, Хуавеем, MRV, Х-террой и другими вендорами. Были и внедрения отечественных производителей. В итоге появилось точное понимание специфики оборудования (повторюсь, в задаче магистрали для оператора специалисты круче на голову есть в самих операторах) — но вот именно в плане построения надёжных сетей, думаю, почти все возможные грабли мы знаем. Если вам вдруг интересно разобрать какой-то нюанс или понять, как правильно проектировать-считать – спрашивайте в комментариях или по почте AFrolov@croc.ru.

И, пользуясь случаем, передаю пламенный привет всем тем, кто копает в городской черте без разрешений на строительство.

Источник

Опыт построения сети DWDM

Как известно, работа большинства инженеров-связистов/ сетевиков/ IT-шников остается в тени до момента, когда что-то пойдет не так. Неосведомленные люди и не понимают, чего все эти инженеры сидят и с умным видом смотрят в компьютер, читают и пишут какую-то абракадабру на непонятных языках. А вот когда, что-то пошло не так, все (и особенно руководство) сразу начинают вспоминать названия всех краснокнижных животных.

Итак, вот чем занимаются все эти инженеры и какие задачи им приходится решать, на примере реализации одного из довольно непростых проектов – развертывание DWDM сети.

Постановка задачи

Одна крупная финансовая организация, устав от частых сетевых сбоев на арендованных каналах связи, и исходя из собственных планов на дальнейшее перспективное развитие, инициировала проект и обратилась в компанию BCC за содействием в построении собственной высоконадежной, отказоустойчивой сети DWDM.

Связисты знают, что такое – волновое уплотнение каналов, т.е. когда несколько каналов передаются внутри одного волокна путем разнесения частот/длин волн (кому как нравится). Кто не знаком, можно подчитать тут.

4721758a96765addd815cfe7ccca3aadDense Wavelength Division Multiplexing (DWDM)

К слову сказать, DWDM не часто встретишь у корпоративных клиентов, разве что у очень крупных. В основном DWDM встречается на операторских сетях.

Сбор исходных данных

Все этапы проекта важны, а о важности этого этапа даже и не стоит говорить, это очевидно!

При выборе остановились на решении Huawei OptiX OSN 8800.

Проектирование

Стоит сказать, что рассчитать серьезную систему DWDM без специальных знаний нельзя, очень много нюансов, это не какая-то коробка, которую можно просто принести и включить (см. рис., как примерно выглядит типовой узел DWDM)! Лазеры, транспондеры, окна прозрачности, мультиплексоры/демультиплексоры, дисперия, поляризация… Does that all make sense?

f851f8386ae64fdb0f16ecfb4382bf4bПример типового узла DWDM

Здесь стоит отметить, что в вопросе проектирования Huawei оказывал неоценимую помощь в подборе оптимального решения, используя свои специализированные программные средства, в результате чего проводится расчет всех оптических участков, и получается оптимальная спецификация, вплоть до последнего аттенюатора (см. рис.).

d18fd9b4e5d8616953b0f8eb8ecd4910Пример расчета узлов DWDM

Один участок оптической трассы вызывал особое беспокойство – его длина составляла более 150 км. Оставалось понять, удастся ли «прострелить» этот участок или потребуется устанавливать «в полях» дополнительный узел. Решено было обойтись без установки доп. узла, и чтобы «вытянуть» этот участок пришлось задействовать одно интересное решение – ##, но об этом позже.

337f3fdf3ec56dd3e05c2a090f82284c

Реализация

Поставка оборудования DWDM – дело штучное, под заказ, по сути, оборудование со всей начинкой производится под конкретный проект. Здесь тоже оказалось все в порядке – Huawei произвел и поставил оборудование в срок!

Подготовка ЦОДов к установке оборудования опускаем. Уверяю, на этапе реализации возникнет не один вопрос (установка системы управления, регулировка уровней сигналов, пр., пр., пр.). Тут тоже стоит отдать должное вендору, Huawei оперативно консультировал по всем вопросам. Видно было, что здесь не подход «продал и забыл», а что Huawei отвечает за общее решение и готов оказывать максимально возможные консультации.

И вот, случился сложный момент – та самая оптическая трасса с рамановскими усилителями. Если кратко, на дилетантском уровне, рамановский усилитель «светит» навстречу принимаемому сигналу, чтобы его «вытянуть»! Участок с рамановскими усилителями требует наличия оптики практически сверхидеального качества, не только без стыков через оптические кроссы, но и с минимальными потерями и отражениями при сварке оптического кабеля (см. требования ниже).

3363e7787e8c00a89faa397ebaea9f9eТребования к оптической трассе для работы рамановских усилителей

Если рядом с рамановским усилителем случится отражение сигнала,- приемник может просто сгореть!

А где вы видели 150+ км. оптического кабеля без стыков и сварок? И вот тут начались игры с доведением оптического кабеля до нужных характеристик. Практически по всей длине 150+ километровой трассы были заменены оптические разъемы UPC на APС (про разъем E2000 кто-нибудь слышал? – а они есть…), потребовалось даже заменить небольшой оптический участок на последней миле.

После каждой из активностей на оптическом кабеле – совместный с вендором анализ рефлектограмм на предмет затуханий и отражений, планирование дальнейших действий.

Приемосдаточные испытания

И вот DWDM сеть построена, оборудование моргает и жужжит, задача – определить слабые места и «завалить» сеть, проверить работу в любых условиях, при любых неисправностях: обрыве оптических каналов, односторонней передаче, при возникновении неисправностей между элементами DWDM. И, как говорится, было бы желание, а докопаться можно до всего!

Так, самую большую опасность представлял сценарий с обрывом только Rx или Тх, и несмотря на наличие специализированных протоколов (LPT, ALS) для автоматического восстановления сервиса, время схождения превышало 150мс, что означало, что на это время наблюдалась частичная потеря трафика и потребовалось срочно найти дополнительные механизмы, чтобы оперативно «дать понять» сетевому оборудованию, стоящему за DWDM, о необходимости использования альтернативного пути.

ed9baffef89bcd094fdef1188df54c82

Миграция

Ну, и напоследок – миграция всех существующих сервисов работающей крупной финансовой организации на новую DWDM сеть.

Понятно, что это большая подготовительная работа, бессонные ночи, командная работа и колоссальная ответственность! И все удалось, страна спала спокойно!

Сухой остаток

Я намеренно не стал здесь приводить какие-то сложные аббревиатуры, конфигурации и прочие вещи. Для профессионала, который в теме, все равно всего не опишешь, а для человека, который не в теме, это будет утомительно.

Справедливости ради хотел бы отметить, что в течение всего этого проекта была поддержка со стороны вендора! За время проекта мы открыли порядка десяти, а может и поболее кейсов и всегда получали ответы на интересующие вопросы!

Многие ругают TAC’и вендоров. Опыт работы с TAC Huawei на этом конкретном проекте сугубо положительный! В подавляющем большинстве кейсов мы получали оперативные, грамотные ответы, может не всегда после первой итерации, но получали. Бывало, требовалось подключение R&D из Китая, но результат был всегда! ( Ну, или может дело в том, что вместе с оборудованием и поддержка была закуплена?).

Поэтому благодарности не только команде BCC, но и команде Huawei!

Источник

Поделиться с друзьями
admin
Сказочный портал
Adblock
detector