Освоение вызовов API GLM-5: 5-минутное руководство по началу работы с флагманской моделью 744B MoE с открытым исходным кодом
11 февраля 2026 года компания Zhipu AI официально представила GLM-5. На данный момент это одна из крупнейших по количеству параметров опенсорсных больших языковых моделей. GLM-5 построена на архитектуре MoE (смесь экспертов) общим объемом 744B, при этом для каждой итерации вывода активируется 40B параметров. Модель демонстрирует лучшие показатели среди открытых решений в задачах на логическое рассуждение,…
