Wintechmobiles.com – Meta kembali menggebrak dunia AI dengan meluncurkan dua model large language model (LLM) terbarunya: Llama 4 Scout dan Llama 4 Maverick. Peluncuran dilakukan pada Sabtu (5/4/2025) dan langsung mencuri perhatian karena keduanya merupakan model open-weight pertama Meta dengan arsitektur Mixture of Experts (MoE).
Meta menyatakan bahwa Llama 4 Scout dan Maverick mampu memproses teks dalam jumlah besar, dengan efisiensi yang jauh lebih baik dibandingkan pendahulunya. MoE sendiri adalah pendekatan yang menggunakan banyak submodel spesialis, atau “experts”, untuk menangani berbagai bagian input dalam perintah teks.
Keduanya juga dirancang agar dapat menangani data teks, gambar, dan video tanpa label. Hal ini memungkinkan pemahaman multimodal yang jauh lebih luas dan akurat.
Secara teknis, Scout hanya memerlukan satu GPU Nvidia H100 untuk berjalan, sementara Maverick membutuhkan satu sistem Nvidia H100 DGX atau perangkat sejenis. Maverick terdiri dari 400 miliar parameter total, tetapi hanya 17 miliar parameter yang aktif, didukung oleh 128 expert. Scout, di sisi lain, memiliki 109 miliar parameter total, dengan 17 miliar parameter aktif dan 16 expert.
Parameter aktif dalam konteks LLM adalah variabel internal yang dilatih untuk meningkatkan performa. Sementara itu, expert merujuk pada submodel spesifik yang bertugas menyelesaikan bagian tugas tertentu.
Maverick diposisikan sebagai model unggulan yang cocok untuk menjadi asisten virtual. Ia unggul dalam penulisan kreatif, menjawab obrolan ringan, pemecahan masalah, penalaran, multibahasa, pengkodean, hingga pengolahan konteks panjang dan gambar.
Scout memiliki kelebihan dalam tugas-tugas ringan seperti meringkas dokumen dan pemrosesan berbasis kode besar. Ia juga memiliki jendela konteks hingga 10 juta token, yang berarti mampu menangani dokumen sangat panjang.
Token adalah unit dasar pemrosesan teks dalam model LLM. Sebuah kata seperti “fantastis” akan dipecah menjadi bagian-bagian kecil seperti “fan”, “tas”, “tis”. Scout dapat memproses jutaan token sekaligus.
Meta menyebut Scout sebagai model terbaik di kelasnya untuk mengolah gambar dan menyelaraskan perintah pengguna dengan visual yang sesuai. Scout sangat efektif dalam menjawab perintah berbasis konteks visual.
Sementara itu, Meta sedang mengembangkan model yang lebih canggih lagi bernama Behemoth. Model ini akan membawa 2 triliun parameter, 288 miliar parameter aktif, dan 16 expert. Dari hasil awal, Behemoth diklaim mampu mengungguli GPT-4.5, Claude 3.7 Sonnet, dan Gemini 2.0 Pro dalam penalaran multibahasa dan STEM.
Dari pengujian internal, Maverick mencatat skor 90 untuk Chart QA dan 94,4 untuk DocVQA. Ini mengungguli GPT-40 dan Gemini 2.0 Flash dalam penalaran visual. Dalam hal penalaran umum, Maverick mencatat nilai 73,7 di MathVista dan 80,5 di MMLU Pro. Di pengujian pemrograman LiveCodeBench, Maverick meraih skor 43,4 — lebih tinggi dari GPT-4o dan Gemini 2.0 Flash, meskipun masih di bawah deepSeek v.31. Untuk performa sebagai asisten AI, Maverick mencatat skor ELO 1417 di LMArena.
Maverick juga dikenal efisien dalam penggunaan daya, dengan biaya sekitar 0,19–0,49 dolar AS per juta token.
Scout, meski berukuran lebih kecil, tetap menunjukkan performa solid: 88,8 di ChatQA, 94,4 di DocVQA, dan 74,3 di MMLU Pro. Scout dirancang untuk tetap tangguh dalam pemrosesan gambar dan konteks multimodal, dengan efisiensi tinggi menggunakan satu GPU.
Behemoth, walaupun belum resmi diluncurkan, mencatat skor 95 di Math 500, 82,2 di MMLU Pro, 73,7 di GPQA Diamond, dan 85,8 di MMLU Multilingual. Ini menandakan bahwa Behemoth dirancang sebagai jawaban Meta terhadap kompetitor AI besar lainnya.
Menariknya, semua model Llama terbaru kini dibekali kemampuan untuk menolak menjawab pertanyaan kontroversial, terutama yang bersifat politik atau sosial. Meta menyatakan bahwa pendekatan ini bertujuan agar model memberikan jawaban yang lebih netral dan seimbang.
Model Llama juga tidak termasuk dalam kategori model penalaran seperti o1 atau o3-mini dari OpenAI. Proses menjawab lebih fokus pada interpretasi perintah secara langsung, bukan penambahan konteks atau pemeriksaan fakta mendalam. Hal ini menyebabkan waktu pemrosesan bisa sedikit lebih lama.
Namun, dengan performa tinggi dan efisiensi luar biasa, Maverick, Scout, dan Behemoth siap menjadi wajah baru AI generasi selanjutnya.