BeritaEsport – NVIDIA baru-baru ini memperkenalkan empat layanan mikro terbaru, NVIDIA NIM, yang dirancang khusus untuk mendukung pengembangan dan penerapan aplikasi AI generatif berkinerja tinggi di Jepang dan Taiwan. Layanan ini disesuaikan dengan kebutuhan regional, memanfaatkan model bahasa yang telah dioptimalkan untuk memahami dan berinteraksi dengan pengguna dalam konteks bahasa dan budaya setempat.
Model Bahasa Lokal yang Ditingkatkan untuk Performa Optimal
Asia-Pasifik diproyeksikan mengalami lonjakan pendapatan dari perangkat lunak AI generatif, yang diperkirakan mencapai $48 miliar pada tahun 2030, melonjak dari $5 miliar saat ini. Untuk memenuhi permintaan yang meningkat ini, NVIDIA memperkenalkan model bahasa seperti Llama-3-Swallow-70B, yang dilatih dengan data khusus bahasa Jepang. Serta Llama-3-Taiwan-70B yang didasarkan pada data bahasa Mandarin. Model-model ini dirancang untuk memberikan pemahaman yang lebih dalam tentang hukum, peraturan, dan adat istiadat setempat. Sehingga mampu memberikan hasil yang lebih relevan dan akurat.
Selain itu, model RakutenAI 7B, yang dibangun di atas Mistral-7B, telah disertakan dalam layanan mikro ini untuk mendukung aplikasi Chat dan Instruct. Model ini telah menunjukkan kinerja unggul dalam tolok ukur LM Evaluation Harness dan dapat digunakan dalam berbagai aplikasi. Termasuk penerjemahan dan perangkuman bahasa. Yang sangat penting untuk mendukung komunikasi lintas bahasa di wilayah ini.
Keunggulan dan Implementasi Layanan Mikro NIM
Layanan mikro NIM dari NVIDIA menawarkan optimasi inferensi melalui pustaka NVIDIA TensorRT-LL. Mampu meningkatkan throughput hingga lima kali lipat dibandingkan model standar. Dengan peningkatan ini, biaya operasional dapat ditekan dan pengalaman pengguna menjadi lebih baik dengan latensi yang lebih rendah. Layanan ini tersedia sebagai antarmuka pemrograman aplikasi (API). Memungkinkan penerapannya di berbagai industri global seperti kesehatan, keuangan, manufaktur, pendidikan, dan hukum.
Contoh Implementasi dan Kolaborasi
Sejumlah institusi dan perusahaan terkemuka telah mulai memanfaatkan layanan mikro NIM ini. Tokyo Institute of Technology, misalnya, telah menyempurnakan model Llama-3-Swallow-70B dengan data bahasa Jepang untuk aplikasi yang lebih luas di berbagai industri. Di sisi lain, Preferred Networks mengembangkan model khusus untuk perawatan kesehatan. Llama3-Preferred-MedSwallow-70B, yang telah menunjukkan performa luar biasa dalam Ujian Nasional Dokter Jepang. Sementara itu, Chang Gung Memorial Hospital di Taiwan menggunakan Llama-3-Taiwan-70B untuk meningkatkan efisiensi operasional staf medis melalui panduan berbasis bahasa lokal. Pegatron, perusahaan teknologi asal Taiwan, juga mengadopsi layanan mikro ini untuk mengotomatisasi proses manufaktur mereka. Yang menghasilkan peningkatan efisiensi.
Pembuatan Model Khusus dengan NVIDIA AI Foundry
NVIDIA AI Foundry menyediakan platform dan layanan untuk menyempurnakan model dasar dan mengembangkan model khusus sesuai dengan kebutuhan spesifik bisnis dan keahlian domain. Platform ini juga menawarkan akses ke NVIDIA NeMo untuk penyempurnaan model dan NVIDIA DGX Cloud untuk kapasitas komputasi khusus. Memungkinkan pengembang menciptakan dan menerapkan layanan mikro NIM yang tepat guna dan sesuai dengan kebutuhan industri mereka.
Dengan peluncuran layanan mikro NIM ini, NVIDIA memperkuat posisinya sebagai pemimpin dalam teknologi AI generatif. Sekaligus membuka peluang baru bagi perusahaan di Jepang dan Taiwan untuk memanfaatkan AI dalam meningkatkan kinerja dan efisiensi bisnis mereka.