Статьи по информационной безопасности

Пожар в облаке: чему можно научиться на примере Южной Кореи

В начале октября в Южной Корее произошел один из крупнейших инцидентов в истории государственных ИТ-систем: пожар в дата-центре Национальной службы информационных ресурсов в Тэджоне уничтожил облачный хаб G-Drive, где хранились документы и рабочие файлы всех министерств и ведомств страны. 

Автор: Константин Анисимов, заместитель генерального директора Astra Cloud (входит в "Группу Астра")

По разным данным, резервные копии системы либо не создавались, либо хранились в том же здании, что и основной массив данных, поэтому полностью восстановить информацию уже не получится. В результате десятки критичных сервисов оказались повреждены, а миллионы документов утрачены. Сейчас восстановление ведется вручную с локальных компьютеров и почтовых архивов сотрудников.

Этот случай показывает, что даже инфраструктура уровня государственного облака уязвима перед физическими факторами. Никакая сертификация и высокий аптайм не компенсируют отсутствие резервирования.
Аналогичные катастрофы происходят по всему миру и чаще, чем кажется.  Вот некоторые из них 

  • OVH, Франция (2021) – пожар уничтожил два корпуса крупнейшего европейского дата-центра в Страсбурге. Резервные копии хранились на соседней площадке, также затронутой огнем, и клиенты потеряли данные безвозвратно.
  • Facebook (2021) – ошибка в маршрутизации BGP вывела из строя всю экосистему Meta на шесть часов, посрадали внутренние сервисы, отключилась система контроля доступа сотрудников в дата-центры.
  • MGM Resorts, США (2023) – подростки из группировки Scattered Spider получили доступ к корпоративным системам гостиничного гиганта через социальную инженерию. Сеть отелей и казино простаивала более десяти дней, потери превысили $100 млн.
  • Коста-Рика (2022) – атака шифровальщика Conti парализовала министерства, таможню и налоговую службу; в стране пришлось объявить чрезвычайное положение.
  • Атланта (2018) и Балтимор (2019) – атаки вымогателей вывели из строя муниципальные сервисы на несколько месяцев.

Масштаб инцидентов растет, но их природа везде одинакова: недооценка рисков, и как результат – недостаточность мер резервирования и сложности с  восстановлением.

Главное, что показывают описываемые события: устойчивость ИТ – не вопрос уровня развития технологий, а скорее вопрос культуры управления рисками. А это уже актуально и для российского рынка.

Практически каждая компания – от промышленного холдинга до регионального оператора связи – зависит от стабильной работы своих цифровых систем. ERP, 1С, складские решения, бухгалтерия, внутренние порталы и колл-центры – все функционирует онлайн и требует постоянного доступа к данным. Стоит упасть одному узлу – и цепочка прерывается: производство останавливается, магазины не обслуживают клиентов, службы поддержки оказываются недоступны.

При этом нагрузка на инфраструктуру в России растет быстрее, чем уровень резервирования. Компании активно переходят в облака, но далеко не всегда предусматривают альтернативные площадки и сценарии восстановления. Риски усугубляются из-за усложнения систем, инфраструктуру становится более хрупкой.

Поэтому нельзя рассчитывать, что у нас такого не случится. Если в США и Южной Корее падают облака и целые штаты, то локальные дата-центры и корпоративные ИТ тем более нуждаются в защите и сценариях аварийного восстановления.

Не просто 3-2-1

Как известно, оптимальная стратегия резервирования описывается международно признанной моделью 3-2-1: три копии данных, два типа локаций, одна копия вне основной площадки. Ее современное развитие 3-2-1-1-0 добавляет еще два требования: одна автономная или неизменяемая копия (Air-Gapped / Immutable) и ноль ошибок при регулярных проверках восстановления.

Эти принципы не только для больших компаний, это часть корпоративной гигиены, которую можно масштабировать и адаптировать под любую инфраструктуру:

  • для малого бизнеса – резервная копия вне офиса или у второго провайдера;
  • для средних – георезервирование между двумя облаками или ЦОДами;
  • для крупных – полноценный DR-план (Disaster Recovery) с автоматическим переключением.

Чек-лист: как подготовиться к любому инциденту

Эксперты рекомендуют пересмотреть практику управления рисками и убедиться, что защита данных выстроена системно, а не декларативно.

  1. Географически разнесите площадки друг от друга. Копии данных должны храниться в разных дата-центрах или у независимых провайдеров.
  2. Определите целевую точку восстановления (RPO) и целевое время восстановления (RTO). Четко зафиксируйте, сколько данных допустимо потерять и за какое время бизнес обязан восстановиться. Если эти метрики не усановлены, скорее всего будут проблемы с восстановлением.
  3. Проверяйте восстановление. Тестовое восстановление хотя бы раз в квартал покажет реальную готовность, а не отчетную.
  4. Автоматизируйте процессы аварийного восстановления. Минимизируйте ручные действия при переключении и восстановлении сервисов.
  5. Используйте гибридные решения. Комбинируйте внутренние ресурсы и внешние облака, чтобы избежать зависимости от одного поставщика.

В Astra Cloud мы выстраиваем инфраструктуру по тем же принципам, которые рекомендуем клиентам: применяем георезервирование ответственных данных между независимыми площадками, делаем ежедневные и “нулевые” бэкапы с автоматическим тестом восстановления, регулярно проводим учения по Disaster Recovery. Это не формальность, а элемент корпоративной ответственности. Любая компания должна иметь отработанный сценарий, что делать в первый час после сбоя.