Пожар в облаке: чему можно научиться на примере Южной Кореи
Константин Анисимов, 09/10/25
В начале октября в Южной Корее произошел один из крупнейших инцидентов в истории государственных ИТ-систем: пожар в дата-центре Национальной службы информационных ресурсов в Тэджоне уничтожил облачный хаб G-Drive, где хранились документы и рабочие файлы всех министерств и ведомств страны.
Автор: Константин Анисимов, заместитель генерального директора Astra Cloud (входит в "Группу Астра")
По разным данным, резервные копии системы либо не создавались, либо хранились в том же здании, что и основной массив данных, поэтому полностью восстановить информацию уже не получится. В результате десятки критичных сервисов оказались повреждены, а миллионы документов утрачены. Сейчас восстановление ведется вручную с локальных компьютеров и почтовых архивов сотрудников.
Этот случай показывает, что даже инфраструктура уровня государственного облака уязвима перед физическими факторами. Никакая сертификация и высокий аптайм не компенсируют отсутствие резервирования.
Аналогичные катастрофы происходят по всему миру и чаще, чем кажется. Вот некоторые из них
- OVH, Франция (2021) – пожар уничтожил два корпуса крупнейшего европейского дата-центра в Страсбурге. Резервные копии хранились на соседней площадке, также затронутой огнем, и клиенты потеряли данные безвозвратно.
- Facebook (2021) – ошибка в маршрутизации BGP вывела из строя всю экосистему Meta на шесть часов, посрадали внутренние сервисы, отключилась система контроля доступа сотрудников в дата-центры.
- MGM Resorts, США (2023) – подростки из группировки Scattered Spider получили доступ к корпоративным системам гостиничного гиганта через социальную инженерию. Сеть отелей и казино простаивала более десяти дней, потери превысили $100 млн.
- Коста-Рика (2022) – атака шифровальщика Conti парализовала министерства, таможню и налоговую службу; в стране пришлось объявить чрезвычайное положение.
- Атланта (2018) и Балтимор (2019) – атаки вымогателей вывели из строя муниципальные сервисы на несколько месяцев.
Масштаб инцидентов растет, но их природа везде одинакова: недооценка рисков, и как результат – недостаточность мер резервирования и сложности с восстановлением.
Главное, что показывают описываемые события: устойчивость ИТ – не вопрос уровня развития технологий, а скорее вопрос культуры управления рисками. А это уже актуально и для российского рынка.
Практически каждая компания – от промышленного холдинга до регионального оператора связи – зависит от стабильной работы своих цифровых систем. ERP, 1С, складские решения, бухгалтерия, внутренние порталы и колл-центры – все функционирует онлайн и требует постоянного доступа к данным. Стоит упасть одному узлу – и цепочка прерывается: производство останавливается, магазины не обслуживают клиентов, службы поддержки оказываются недоступны.
При этом нагрузка на инфраструктуру в России растет быстрее, чем уровень резервирования. Компании активно переходят в облака, но далеко не всегда предусматривают альтернативные площадки и сценарии восстановления. Риски усугубляются из-за усложнения систем, инфраструктуру становится более хрупкой.
Поэтому нельзя рассчитывать, что у нас такого не случится. Если в США и Южной Корее падают облака и целые штаты, то локальные дата-центры и корпоративные ИТ тем более нуждаются в защите и сценариях аварийного восстановления.
Не просто 3-2-1
Как известно, оптимальная стратегия резервирования описывается международно признанной моделью 3-2-1: три копии данных, два типа локаций, одна копия вне основной площадки. Ее современное развитие 3-2-1-1-0 добавляет еще два требования: одна автономная или неизменяемая копия (Air-Gapped / Immutable) и ноль ошибок при регулярных проверках восстановления.
Эти принципы не только для больших компаний, это часть корпоративной гигиены, которую можно масштабировать и адаптировать под любую инфраструктуру:
- для малого бизнеса – резервная копия вне офиса или у второго провайдера;
- для средних – георезервирование между двумя облаками или ЦОДами;
- для крупных – полноценный DR-план (Disaster Recovery) с автоматическим переключением.
Чек-лист: как подготовиться к любому инциденту
Эксперты рекомендуют пересмотреть практику управления рисками и убедиться, что защита данных выстроена системно, а не декларативно.
- Географически разнесите площадки друг от друга. Копии данных должны храниться в разных дата-центрах или у независимых провайдеров.
- Определите целевую точку восстановления (RPO) и целевое время восстановления (RTO). Четко зафиксируйте, сколько данных допустимо потерять и за какое время бизнес обязан восстановиться. Если эти метрики не усановлены, скорее всего будут проблемы с восстановлением.
- Проверяйте восстановление. Тестовое восстановление хотя бы раз в квартал покажет реальную готовность, а не отчетную.
- Автоматизируйте процессы аварийного восстановления. Минимизируйте ручные действия при переключении и восстановлении сервисов.
- Используйте гибридные решения. Комбинируйте внутренние ресурсы и внешние облака, чтобы избежать зависимости от одного поставщика.
В Astra Cloud мы выстраиваем инфраструктуру по тем же принципам, которые рекомендуем клиентам: применяем георезервирование ответственных данных между независимыми площадками, делаем ежедневные и “нулевые” бэкапы с автоматическим тестом восстановления, регулярно проводим учения по Disaster Recovery. Это не формальность, а элемент корпоративной ответственности. Любая компания должна иметь отработанный сценарий, что делать в первый час после сбоя.