Liquid AI, sebuah spin-off MIT, telah menerbitkan laporan teknis terperinci tentang Liquid Foundation Models seri 2 (LFM2), yang secara efektif memberikan cetak biru untuk melatih model AI berskala kecil dan berkinerja tinggi langsung di perangkat. Langkah ini menantang ketergantungan tradisional pada model bahasa berbasis cloud (LLM) yang besar dengan menunjukkan bahwa AI yang mumpuni dapat beroperasi secara efisien di ponsel, laptop, dan sistem tertanam tanpa mengorbankan kinerja.
Pergeseran Menuju AI Pada Perangkat
Selama bertahun-tahun, perusahaan-perusahaan telah dikondisikan untuk percaya bahwa AI yang mutakhir memerlukan sumber daya komputasi yang sangat besar yang biasanya ditemukan di pusat data cloud. Model LFM2 Liquid AI, dengan parameter mulai dari 350M hingga 1,2B, membuktikan bahwa hal ini belum tentu benar. Model-model ini, yang dioptimalkan untuk kecepatan dan efisiensi, mengungguli banyak alternatif sumber terbuka yang lebih besar dalam hal throughput CPU dan tolok ukur kualitas, menjadikan AI yang menjaga privasi dan real-time dapat digunakan pada perangkat keras dengan sumber daya terbatas.
Ekspansi perusahaan ke dalam varian khusus tugas, analisis video, dan edge deployment stack (LEAP) menandakan strategi yang lebih luas: memposisikan model-model ini sebagai inti sistem agen pada perangkat. Penerbitan laporan teknis LFM2 di arXiv membawa hal ini lebih jauh lagi, menawarkan resep terperinci bagi organisasi lain untuk mereplikasi proses mulai dari penelusuran arsitektur hingga alur pasca-pelatihan.
Mengapa Ini Penting: Kendala Operasional Mendorong Inovasi
Kesimpulan utamanya adalah praktis pengembangan AI dibatasi oleh keterbatasan di dunia nyata seperti anggaran latensi, batasan memori, dan pembatasan termal. Pendekatan Liquid AI mengatasi hal ini secara langsung.
Daripada mengejar tolok ukur akademis, perusahaan ini memprioritaskan pencarian arsitektur hardware-in-the-loop, sehingga menghasilkan desain konsisten yang didominasi oleh konvolusi pendek yang terjaga keamanannya dan lapisan perhatian kueri yang dikelompokkan (GQA) yang minimal. Desain ini dipilih berulang kali karena memberikan trade-off kualitas-latensi-memori terbaik dalam kondisi dunia nyata.
Bagi perusahaan, hal ini berarti:
- Prediktabilitas: Arsitektur sederhana dan stabil yang dapat diskalakan dengan andal.
- Portabilitas: Varian Dense dan Mixture-of-Experts (MoE) memiliki struktur yang sama untuk memudahkan penerapan di berbagai perangkat keras.
- Kelayakan: Throughput CPU yang unggul mengurangi ketergantungan pada titik akhir inferensi cloud yang mahal.
Saluran Pelatihan untuk Perilaku yang Andal
Proses pelatihan LFM2 mengimbangi ukuran model yang lebih kecil melalui desain strategis. Elemen kuncinya mencakup pra-pelatihan token 10–12T dengan fase konteks 32K yang diperluas dan tujuan penyulingan pengetahuan Top-K yang dipisahkan. Model disempurnakan melalui rangkaian tiga tahap pasca pelatihan—SFT, penyelarasan preferensi yang dinormalisasi panjang, dan penggabungan model—untuk memastikan kepatuhan terhadap instruksi dan penggunaan alat yang andal.
Hasilnya bukan sekedar LLM kecil; ini adalah agen yang mampu melakukan format terstruktur, skema JSON, dan alur obrolan multi-putaran. Banyak model terbuka dengan ukuran yang sama tidak berjuang dengan penalaran tetapi dengan kepatuhan yang rapuh terhadap templat instruksi.
Multimodalitas Dioptimalkan untuk Kendala Perangkat
LFM2 meluas ke aplikasi multimodal dengan varian seperti LFM2-VL (vision) dan LFM2-Audio. Model ini memprioritaskan efisiensi token dibandingkan kapasitas. LFM2-VL menggunakan PixelUnshuffle untuk mengurangi jumlah token visual, secara dinamis menyusun input resolusi tinggi agar sesuai dengan batasan perangkat. LFM2-Audio menggunakan pendekatan bercabang dua untuk transkripsi dan pembuatan ucapan pada CPU sederhana.
Desain ini memungkinkan aplikasi dunia nyata seperti pemahaman dokumen di perangkat, transkripsi audio lokal, dan agen multimodal yang beroperasi dalam lingkup latensi tetap.
Masa Depan Hibrid AI Perusahaan
Pekerjaan Liquid AI mengarah pada arsitektur hybrid di mana model pada perangkat yang kecil dan cepat menangani tugas-tugas yang sangat mendesak (persepsi, pemformatan, pemanggilan alat) sementara model cloud yang lebih besar menangani pemikiran yang berat. Pendekatan ini menawarkan:
- Pengendalian Biaya: Menghindari penagihan cloud yang tidak dapat diprediksi untuk inferensi rutin.
- Determinisme Latensi: Menghilangkan jitter jaringan dalam alur kerja agen.
- Tata Kelola dan Kepatuhan: Menyederhanakan penanganan PII dan residensi data.
- Ketahanan: Mempertahankan fungsionalitas bahkan dengan masalah konektivitas cloud.
Perusahaan kemungkinan akan memperlakukan model di perangkat sebagai “bidang kendali” untuk sistem agen, memanfaatkan model cloud untuk akselerasi sesuai permintaan.
Kesimpulan
LFM2 Liquid AI mewakili perubahan dalam pengembangan AI perusahaan. AI pada perangkat bukan lagi sebuah kompromi, melainkan pilihan desain yang layak, menawarkan kinerja kompetitif, keandalan operasional, dan konvergensi arsitektur. Masa depan bukanlah cloud atau edge; keduanya, bekerja bersama-sama. Rilis seperti LFM2 memberikan landasan bagi organisasi yang siap membangun masa depan hybrid ini dengan sengaja.

































































