Cloudflare mengalami outage global pada 18 November 2025, memicu pertanyaan “penyebab utama Cloudflare down” di kalangan pengguna internet.
Bug dalam file konfigurasi fitur Bot Management menyebabkan kegagalan layanan inti, memengaruhi situs seperti X dan ChatGPT selama empat jam.
Menurut Matthew Prince di melalui Cloudflare blog mengatakan “Masalah tersebut tidak disebabkan, baik secara langsung maupun tidak langsung, oleh serangan siber atau aktivitas jahat apa pun.
Sebaliknya, masalah tersebut dipicu oleh perubahan pada izin salah satu sistem basis data kami, yang menyebabkan basis data tersebut menghasilkan entri ganda ke dalam “berkas fitur” yang digunakan oleh sistem Manajemen Bot kami.
Berkas fitur tersebut, pada gilirannya, menjadi dua kali lipat ukurannya. Berkas fitur yang lebih besar dari yang diharapkan kemudian disebarkan ke semua mesin yang membentuk jaringan kami”.
Root Cause Teknis Pemicu Cloudflare Down

Update query pada database terdistribusi ClickHouse menduplikasi entri fitur dua kali, menghasilkan file konfigurasi yang melebihi batas ukuran dan akhirnya menyebabkan Cloudfire Down.
Fitur Bot Management, yang mendeteksi ancaman, gagal menangani lonjakan entri ini, memicu error PANIC di kode Rust.
Perubahan permission pada pukul 11:05 UTC mempercepat propagasi file rusak, menyebabkan sistem proxy crash secara massal. Ini bukan serangan DDoS, melainkan kegagalan internal pada validasi ukuran file otomatis.
Dampak dan Respons

Outage dimulai pukul 11:20 UTC, mengganggu lalu lintas jaringan global dan memaksa pengguna melihat halaman Cloudflare Down error.
Tim engineering menghentikan propagasi file, memulihkan versi stabil, dan menaikkan limit entri dari 60 ke 200.
Pemulihan selesai pukul 14:30 UTC, diikuti peningkatan keamanan konfigurasi dan kill-switch. Insiden ini menandai outage terburuk sejak 2019, tanpa indikasi aktivitas jahat.
Penjelasannya adalah bahwa berkas tersebut dihasilkan setiap lima menit oleh sebuah kueri yang berjalan pada kluster basis data ClickHouse, yang sedang diperbarui secara bertahap untuk meningkatkan pengelolaan izin.
Data yang buruk hanya dihasilkan jika kueri tersebut berjalan pada bagian kluster yang telah diperbarui. Akibatnya, setiap lima menit ada kemungkinan dihasilkan dan disebarkan dengan cepat di seluruh jaringan baik berkas konfigurasi yang baik maupun yang buruk.
Kesalahan terus berlanjut hingga masalah mendasar teridentifikasi dan diselesaikan mulai pukul 14:30.
Kami menyelesaikan masalah dengan menghentikan pembangkitan dan penyebaran berkas fitur yang bermasalah, serta secara manual memasukkan berkas yang diketahui baik ke dalam antrian distribusi berkas fitur. Kemudian kami memaksa restart pada proxy inti kami.
Langkah-Langkah Remediasi dan Tindak Lanjut
Sekarang setelahCloudflare Down sistem kami kembali online dan berfungsi normal, pekerjaan telah dimulai untuk memperkuat sistem kami agar lebih tahan terhadap kegagalan serupa di masa depan. Secara khusus, kami sedang:
- Memperkuat proses pengambilan file konfigurasi yang dihasilkan oleh Cloudflare dengan cara yang sama seperti yang kami lakukan untuk masukan yang dihasilkan oleh pengguna
- Mengaktifkan lebih banyak tombol mati global untuk fitur-fitur
- Menghapus kemampuan dump inti atau laporan kesalahan lain untuk membanjiri sumber daya sistem
- Mereview mode kegagalan untuk kondisi kesalahan di seluruh modul proxy inti
Hari ini merupakan gangguan terparah Cloudflare sejak 2019. Kami pernah mengalami gangguan yang membuat dashboard kami tidak tersedia. Beberapa gangguan menyebabkan fitur baru tidak tersedia untuk sementara waktu.
Namun, dalam 6+ tahun terakhir, kami belum pernah mengalami gangguan lain yang menyebabkan sebagian besar lalu lintas inti berhenti mengalir melalui jaringan kami.
Cloudflare, yang melayani >20% trafik web dunia dan menjadi tulang punggung bagi jutaan situs — dari bank, e-commerce, hingga aplikasi AI — baru saja membuktikan bahwa bahkan infrastruktur “too big to fail” tetap bisa jatuh hanya karena satu baris konfigurasi yang salah.
Diversifikasi provider (Cloudflare + Fastly + Akamai + AWS CloudFront), aktifkan multi-region origin, siapkan fallback statis, dan jangan pernah anggap “itu tidak akan down”. Karena di era 2025, ketika satu bug di Rust bisa mematikan separuh internet selama empat jam, ketahanan bukan lagi opsi — ia adalah biaya operasional wajib.

mantap bang