Menguasai Panggilan API GLM-5: Panduan Memulai 5 Menit Model Unggulan Sumber Terbuka 744B MoE
Zhipu AI secara resmi merilis GLM-5 pada 11 Februari 2026, yang merupakan salah satu Model Bahasa Besar (LLM) sumber terbuka dengan skala parameter terbesar saat ini. GLM-5 menggunakan arsitektur Mixture-of-Experts (MoE) 744B, dengan 40B parameter yang diaktifkan setiap kali inferensi, mencapai level terbaik untuk model sumber terbuka dalam tugas penalaran, pengkodean, dan Agent. Nilai Inti:…
