Akamai Technologies resmi meluncurkan Akamai Cloud Inference, platform baru yang dirancang untuk mentransformasi cara dan lokasi penerapan kecerdasan buatan (AI) dengan memperluas proses inferensi dari pusat data hingga ke edge internet. Inovasi ini menjanjikan pemrosesan AI berlatensi rendah secara real time di ribuan titik jaringan global milik Akamai.
Platform ini diklaim akan menghadirkan inferensi AI cerdas berbasis agen (agentic AI) yang berjalan lebih dekat dengan pengguna dan perangkat. Dengan memanfaatkan arsitektur terdistribusi global Akamai serta infrastruktur Nvidia Blackwell AI, Cloud Inference membuka jalan bagi model generatif dan sistem pengambilan keputusan real time yang dapat beroperasi dengan respons secepat manusia.
“Dua puluh lima tahun yang lalu, kami memelopori CDN untuk mengatasi world wide wait dan mendorong web berkembang menjadi platform global seperti sekarang,” ujar Dr. Tom Leighton, CEO Akamai, dalam keterangan yang diterima infoINET.
“Pola serupa kini terlihat pada AI. Dengan dukungan infrastruktur AI Nvidia, Akamai Inference Cloud akan memperluas inferensi AI ke ribuan lokasi di seluruh dunia seiring pertumbuhan permintaan.”
Di sisi lain, Jensen Huang, CEO Nvidia, menekankan bahwa fase inferensi kini menjadi bagian paling intensif dalam komputasi AI. “Bersama-sama, Nvidia dan Akamai memindahkan inferensi lebih dekat ke pengguna di mana saja, menghadirkan generative AI yang lebih cepat, lebih skalabel, dan mendorong lahirnya aplikasi-aplikasi cerdas generasi berikutnya,” katanya.
Akamai Cloud Inference menggabungkan Server Nvidia RTX PRO dengan GPU Blackwell RTX PRO 6000 Server Edition, DPU Nvidia BlueField-3, serta perangkat lunak Nvidia AI Enterprise, yang terintegrasi dengan jaringan edge global Akamai di lebih dari 4.200 lokasi.
Platform ini akan menjadi fondasi bagi era baru AI terdistribusi, di mana AI Factories perusahaan dapat diperluas ke edge untuk menjalankan agen perdagangan, sistem keuangan, maupun kendaraan otonom secara real time. Akamai juga berencana memperluas implementasi Cloud Inference ke lebih banyak wilayah setelah peluncuran awal di 20 lokasi global.
Dengan langkah ini, Akamai dan Nvidia tak sekadar mempercepat kinerja AI, tapi juga mengubah peta komputasi dunia — dari pusat data ke tepi jaringan, dari cloud menuju edge yang lebih cerdas.







