Di tengah perlombaan global membangun infrastruktur AI, isu terbesar bukan lagi ketersediaan chip, tapi listrik. Hal itu diungkapkan CEO Microsoft Satya Nadella dalam wawancara bersama CEO OpenAI Sam Altman, menyoroti krisis energi yang kini membatasi laju inovasi kecerdasan buatan.
“Masalah terbesar kami sekarang bukan kelebihan chip, tapi daya listrik. Kami punya banyak GPU di inventori yang belum bisa dipasang karena tak ada daya yang cukup,” kata Nadella dalam sesi di kanal Bg2 Pod di YouTube.
Kondisi ini menggambarkan pergeseran besar: jika dulu kendala utama adalah kelangkaan GPU, kini perusahaan teknologi justru memiliki stok chip yang tak bisa digunakan karena keterbatasan pasokan energi di pusat data (data center).
AI generatif yang membutuhkan daya komputasi masif telah membuat konsumsi listrik data center melonjak drastis. Di Amerika Serikat, total konsumsi listrik pusat data pada 2024 mencapai 183 terawatt-jam — sekitar 4% dari total konsumsi nasional, dan diperkirakan akan lebih dari dua kali lipat pada 2030.
Bahkan, menurut proyeksi terbaru, tugas-tugas AI saja bisa menghabiskan energi setara 22% dari seluruh rumah tangga AS pada 2028, demikian dikutip infoINET dari Techspot, Minggu (9/11/2025).
Beberapa kompleks data center baru kini dirancang untuk menggunakan hingga 2 gigawatt listrik, setara kebutuhan satu negara bagian kecil. Fenomena ini mendorong operator pusat data berebut membangun “warm shells” — fasilitas siap pakai yang telah memiliki pasokan daya dan sistem pendingin sebelum GPU dipasang.
Akibatnya, sebagian infrastruktur cloud milik raksasa teknologi kini mangkrak selama berbulan-bulan, menunggu pasokan listrik baru. Nadella mengakui hal itu sebagai hambatan terbesar Microsoft saat ini.
Masalah ini juga mulai dirasakan masyarakat umum. Beberapa negara bagian di AS melaporkan kenaikan tagihan listrik hingga 36%, yang sebagian dipicu oleh ekspansi besar-besaran fasilitas AI.







