Gartner: What’s Cool in BC/DR. Сезон весна-лето 2015.

GartnerВесной этого года Gartner выпустил очередной отчет «Cool Vendors in BC Management and IT DR Management, 2015» из которого, как обычно, можно почерпнуть пару интересных идей о новых трендах в такой консервативной дисциплине, как управление непрерывностью бизнеса.

Новых cool vendor’ов пять, рассмотрим всех понемножку. Продолжить чтение «Gartner: What’s Cool in BC/DR. Сезон весна-лето 2015.»

Disaster Recovery в домашних условиях, или непрерывность бизнеса для домохозяек

floodСегодня ночью мы всей семьей проводили тестирование планов непрерывности бизнеса. Тестирование проходило по четвертой, самой жесткой схеме — в боевых условиях.

Первые признаки инцидента появились в 5 утра, когда меня разбудил странный звук. Продолжить чтение «Disaster Recovery в домашних условиях, или непрерывность бизнеса для домохозяек»

Связь в условиях ЧС — новые «гаджеты»

Mobile network in a backpackНа днях Vodafone представил очередное красивое решение для организации связи в районе чрезвычайной ситуации (а ЧС, как мы сейчас наблюдаем, бывают разные). В 11-килограммовом рюкзаке размещается базовая станция стандарта 2G, и устройство для подключения к сети оператора через спутниковый канал. Устройство, понятное дело, не очень производительное (до 5 одновременных голосовых соединений с радиусом покрытия 100 м), но для обеспечения связью эпицентра ЧС может быть весьма ценно. Есть и более мощное решение, с радиусом покрытия в 5 км, весом в 100 кг в пяти чемоданах, что тоже вполне мобильно.

"Мобильный рюкзак" изнутри

Что важно — это действительно автономное решение, способное (в паре с дизель-генератором) обеспечить базовые функции связи: голосовую связь и SMS, вне зависимости от того, какие элементы инфраструктуры сохранились после ЧС, что отключено насильственно, и т.п. Осталось только, чтобы кто-то из операторов взял это себе на вооружение.

Доступность ИТ-сервисов — статистика 2012

IT services availabilityНаши друзья из Continuity Software опубликовали любопытный отчет по доступности ИТ-сервисов. Отчет представляет собой анализ опроса компаний различных секторов рынка, при этом по финансовому сектору подготовлен отдельный отчет. В документах (не пожалейте, и потратьте 10-15 минут на то, чтобы по ним пробежаться) приведено много интересных цифр.

Например, цели в области доступности ИТ-сервисов Продолжить чтение «Доступность ИТ-сервисов — статистика 2012»

Как убедиться в работоспособности резервной инфраструктуры?

***product placement***

Пока на нашу страну обрушиваются различные ЧС, от трагического наводнения на Кубани до трехчасового простоя процессинга Сбербанка,  компания Continuity Software выпустила новую, шестую версию своего продукта RecoverGuard.

Краткое содержание предыдущих серий: RecoverGuard — это продукт, призванный сделать так, чтобы в пресс-релизах компаний не появлялись слова «Перевод системы на резервный комплекс не дал ожидаемых результатов«. Достигается этот результат за счет регулярного автоматического анализа конфигураций HA/DR решений на их корректность, соответствие лучшим практикам, отсутствие «спящих проблем». В общей сложности система проверяет наличие примерно 5000 возможных проблем, которые могут привести к неработоспособности, или снижению производительности резервной инфраструктуры. Что важно — RecoverGuard делает это путем  read-only сканирования конфигураций, исключая возможность  негативного влияния на продуктивную инфраструктуру.

Итак, новые возможности RecoverGuard 6.0. Продолжить чтение «Как убедиться в работоспособности резервной инфраструктуры?»

Не задерживаемся, проходим в облако….

Всего год назад я писал про сервис резервирования Microsoft Exchange на Gmail, который Google предложил компаниям, не готовым совершить решительный переход от Exchange к Gmail. И вот Google объявил о закрытии данного сервиса. Мотивация — им воспользовались [жалкие]  сотни пользователей, в том время как миллионы бодро мигрировали на Google Apps и наслаждаются той непрерывностью сервиса, которую гарантирует им Google. Ok, если не задумываться про все яйца, бережно сложенные в одну, пусть и большую, корзину, в остальном тезис для клиента привлекательный. Ну а само решение Google по поводу сервиса безусловно разумно — если сервис не покупают, надо закрывать.

Облака и молнии

Вчера утром метким ударом молнии был полностью выведен из строя датацентр в Дублине,  в котором размещаются все мощности Amazon AWS, обеспечивающие европейскую зону, а также Microsoft’s Business Productivity Online Standard Suite.

Несмотря на наличие резервирования по питанию, удар молнии и последовавший за ним взрыв на трансформаторной подстанции вывел из строя не только основную систему электроснабжения, но и резервные генераторы. В результате,электроснабжение удалось восстановить через 3 часа, но такое жесткое выключение ЦОДа привело к необходимости серьезного ручного вмешательства при восстановлении серверов. На момент написания этого текста процесс восстановления продолжался, и, по оценке Amazon, может занять 24-48 часов.

Неприятной особенностью данного сбоя AWS оказалось то, что те европейские пользователи AWS, которые по требованиям законодательства не могут хранить свои данные за пределами EU, оказались лишены возможности перенести свои приложения в другие ЦОДы Amazon — это был единственный ЦОД европейской зоны.

Возможно, это событие заставит многих пересмотреть оценку надежности облачных провайдеров и задуматься о необходимости резервирования наиболее критичных приложений в облаках альтернативных провайдеров. Учитывая модель ценообразования для облаков, эта задача может оказаться менее затратной, чем в «дооблачном мире», т.к. резервная инфраструктура, хотя и требует существенных объемов для хранения данных, но может оказаться существенно дешевле в части аренды вычислительных мощностей в «мирное время».

Update 1. По уточненной информации, недоступна была только часть европейской availability zone. См. также историю о том, как поднимались коллеги из Битрикса, расположенные на этой площадке.

Business Continuity as a Service

BCaaS… очередной «as a Service». Не факт, что именно под таким названием, но то, что анонсировал SWIFT на этой неделе, может вскоре стать популярным трендом. Итак, о чем же речь?

SWIFT пообещал в течение двух ближайших лет запустить сервис под названием MIRS (Market Infrastructure Resiliency Service), ориентированный на операторов Системы валовых расчетов в реальном времени (RTGS, Real Time Gross Settlement). Цель сервиса — обеспечить работу операторов RTGS, в первую очередь центральных банков, в случае масштабной ЧС, которая выведет из строя все площадки оператора.

По сути своей — это разделяемый сервис. На площадке SWIFT будет организован хостинг типовой системы RTGS, доступ к которой будет в час Х предоставлен именно тому банку, который подвергся воздействию ЧС. Как и с любым разделяемым сервисом, это обойдется конечному потребителю дешевле, чем создание своей выделенной резервной инфраструктуры  (хотя в данном случае, это будет, скорее, 3-я резервная площадка). Понятно, что дьявол в деталях, и есть масса подводных камней, связанных с безопасностью, кастомизацией и проч., но сама идея, как мне кажется, неплоха.

Интересно в данном предложении то, что оно исходит не от компании-поставщика услуг по хостингу/аварийному восстановлению, а от сервис-провайдера. Продолжая эту аналогию — операторы связи могут предлагать своим клиентам резервные решения по защите периметра или контентной фильтрации, налоговая — сервис по сдаче отчетности, и т.п. Google, например, уже предлагает услугу по аварийному восстановлению корпоративных exchange серверов на Gmail.

Эту тему мы еще будем активно обсуждать в рамках секции «Непрерывность бизнеса и облака» на InfoSecurity Russia 29 сентября, так что добро пожаловать.

Лето. Латвия. Отдыхаем от мобильной связи.

Сегодняшний день ознаменовался серьезным ЧП для Tele2-Латвия, крупнейшего в Латвии оператора, обслуживающего в этой стране  более 1.1 млн. абонентов. По поступающим новостям Латвийских информационных агентств, начиная с 14:30 (15:30 МСК) не работает полностью вся сеть оператора.

По обрывочным сведениям, причина где-то в электроснабжении, что в наши дни звучит по-меньшей мере странно, уж операторы всегда делают достаточное резервирование.

Так что ждем новостей, следим за апдейтами…

Update 1. (18:30 МСК). Судя по всему, prepaid-платформа в Риге обслуживала также абонентов Эстонии и Литвы. Эстония поднялась в течение 20 минут, про Литву информации нет. Общее число затронутых аварией абонентов — превысило 2 миллиона.

Update 2. (18:40 МСК). Начали приходить сообщения о восстановлении работы сети.