Melatih model bahasa besar (LLM) pada bahasa-bahasa regional meningkatkan efektivitas keluarannya dengan memastikan komunikasi yang lebih akurat dan bernuansa, karena model ini lebih memahami dan merefleksikan seluk-beluk budaya dan bahasa…
Model ini menawarkan kinerja terdepan untuk pemahaman bahasa Jepang dan Mandarin, tugas-tugas hukum regional, menjawab pertanyaan, serta penerjemahan dan perangkuman bahasa dibandingkan dengan LLM dasar seperti Llama 3.
Negara-negara di seluruh dunia – mulai dari Singapura, Uni Emirat Arab, Korea Selatan, dan
Swedia hingga Prancis, Italia, dan India – berinvestasi dalam infrastruktur AI yang berdaulat.
Layanan mikro NIM yang baru memungkinkan bisnis, lembaga pemerintah, dan universitas untuk meng-host LLM asli di lingkungan mereka sendiri, sehingga memungkinkan pengembang untuk membangun copilot, chatbot, dan asisten AI yang c
Mengembangkan Aplikasi dengan Layanan Mikro NIM Sovereign AI
Pengembang dapat dengan mudah menggunakan model AI Sovereign, yang dikemas sebagai layanan mikro NIM, ke dalam produksi sambil mencapai peningkatan kinerja.
Layanan mikro, yang tersedia dengan NVIDIA AI Enterprise, dioptimalkan untuk inferensi dengan pustaka sumber terbuka NVIDIA TensorRT-LL
Layanan mikro NIM untuk Llama 3 70B – yang digunakan sebagai model dasar untuk layanan mikro NIM Llama-3-Swallow-70B dan Llama-3-Taiwan-70B yang baru – dapat memberikan throughput hingga 5x lebih tinggi. Hal ini menurunkan total biaya untuk menjalankan model dalam produksi dan memberikan pengalaman pengguna yang lebih baik dengan mengurangi latensi.
Layanan mikro NIM yang baru tersedia saat ini sebagai antarmuka pemrograman aplikasi yang dihosting (API).
Memanfaatkan NIM NVIDIA untuk Hasil AI Generatif yang Lebih Cepat dan Akurat
Layanan mikro NIM mempercepat penerapan, meningkatkan kinerja secara keseluruhan, dan memberikan keamanan yang diperlukan bagi organisasi di seluruh industri global, termasuk perawatan kesehatan, keuangan, manufaktur, pendidikan, dan hukum.































