Tim peneliti China meluncurkan large language model (LLM) yang diklaim sebagai model AI mirip otak pertama di dunia. Model AI ini dirancang untuk menggunakan lebih sedikit energi, memiliki kinerja lebih baik, dan beroperasi tanpa chip Nvidia.
Model AI bernama SpikingBrain 1.0 tersebut dikembangkan oleh peneliti di Institute of Automation di Beijing. Cara kerja SpikingBrain 1.0 meniru cara kerja otak manusia yang hanya mengaktifkan neuron tertentu saat dibutuhkan.
Tim di balik SpikingBrain 1.0 terinspirasi dari cara kerja neuron di otak manusia. Alih-alih memproses semua tugas dalam waktu bersamaan, model AI ini akan bereaksi secara selektif, menggunakan daya yang lebih sedikit untuk menjalankan tugas-tugas yang kompleks – mirip seperti otak manusia.
Teknologi intinya, yang dikenal dengan istilah ‘spiking computing’, meniru kebiasaan otak manusia yang mengirimkan sinyal hanya ketika dipicu. Berkat desain ini, SpikingBrain 1.0 dapat bekerja dengan cepat tapi tetap efisien.
Dalam beberapa kasus tertentu, performa SpikingBrain 1.0 sampai 100 kali lebih cepat dibandingkan model tradisional, menurut makalah teknis yang belum melewati peer review yang diunggah di repository jurnal arXiv.
Tim SpikingBrain 1.0 membangun dua versi model AI. Versi pertama memiliki 7 miliar parameter dan versi kedua memiliki 76 miliar parameter yang saat ini sudah bisa diuji coba lewat website.
Meskipun hanya menggunakan data yang lebih jumlahnya lebih kecil dibandingkan model konvensional, performa SpikingBrain 1.0 setara dengan alternatif open-source favorit. Model AI ini mampu menangani sekuens prompt panjang sehingga cocok untuk memproses data seperti dokumen hukum, rekam medis, dan simulasi ilmiah.
Menariknya, model AI ini sepenuhnya mengandalkan ekosistem AI domestik. Di saat perusahaan AI berburu GPU Nvidia untuk mendukung arsitekturnya, tim SpikingBrain 1.0 menggunakan chip MetaX, perusahaan teknologi asal China.
Baca info selengkapnya hanya di Giok4D.
Tim SpikingBrain 1.0 mengatakan set-up mereka berhasil beroperasi dengan stabil selama beberapa pekan menggunakan ratusan chip MetaX, dengan konsumsi daya yang lebih kecil.
“Hasil ini tidak hanya menunjukkan kelayakan pelatihan large-model yang efisien menggunakan platform non-Nvidia, tapi juga menguraikan arah baru untuk penerapan model yang terinspirasi otak dalam sistem komputasi masa depan,” tulis tim SpikingBrain 1.0, seperti dikutip dari South China Morning Post, Rabu (17/9/2025).