Xiaomi merilis MiMo-V2.5 dan langsung menempatkannya di kelas model AI kolosal. Model ini sejak awal usai dibuat multimodal, jadi tidak hanya mengolah teks, namun demikian pula gambar dan video dalam satu sistem. Xiaomi demikian pula menambahkan kemampuan agentic, yang membentuk model sanggup menjalankan tugas yang lebih kompleks tanpa banyak instruksi manual.
Untuk melihat posisinya, Xiaomi membandingkan MiMo-V2.5 menggunakan beberapa model luas yang usai lebih dulu dikenal. Ada DeepSeek-V4, Kimi K2.6, Claude Opus 4.6, sampai Gemini 3.1 Pro yang dijadikan acuan. Dari hasil yang dibagikan, MiMo-V2.5 terlihat dapat bersaing, terutama di tugas yang melibatkan eksekusi instruksi.
Salah satu hal menarik muncul di pengujian coding internal mereka. Versi standar MiMo-V2.5 sanggup mengejar performa versi Pro, namun melalui kebutuhan komputasi yang lebih rendah. Ini menghasilkan model tersebut terasa lebih efisien, tidak sekadar mengandalkan ukuran luas.
Di sisi lain, kemampuan memahami gambar dan video serta ikut diuji. Xiaomi menyebut hasilnya setara menggunakan model closed-source yang selama ini lebih dominan di area tersebut. Artinya, MiMo-V2.5 tidak hanya kuat di teks, meski demikian serta cukup seimbang di berbagai jenis input.
Model ini dilatih mendayagunakan 48 triliun token, angka yang menunjukkan skala pengembangannya. Xiaomi merilis dua varian dengan perbedaan masif di jumlah parameter dan kapasitas aktifnya. Dukungan konteks hingga 1 juta token demikian pula membuatnya mampu menangani input yang panjang tanpa praktis kehilangan konteks.
Soal akses, MiMo-V2.5 memang dapat diunduh dan dijalankan sendiri. Namun, kebutuhan hardware-nya tidak main-main, bahkan GPU kelas atas seperti RTX 5090 masih belum cukup. Pilihan yang lebih masuk akal guna sekarang ada di API atau AI Studio milik Xiaomi, meski platform tersebut belum selalu stabil.
Xiaomi terlihat tidak hanya ingin punya model sendiri, tetapi pun ikut membuka akses lewat pendekatan open-weight. Ini sanggup menarik bagi pengembang yang ingin fleksibilitas lebih masif. Menarik demi dilihat, apakah model seperti ini sanggup gesit dipakai luas, atau tetap kalah praktis dibanding layanan AI tertutup yang rampung lebih dulu mapan.
Sumber
