Interprétation de Llama 4 Scout et Maverick : les premiers modèles open source MoE multimodaux natifs apportent 3 percées majeures
Note de l'auteur : Meta lance Llama 4 Scout et Maverick, basés sur une architecture MoE multimodale native. Scout propose une fenêtre de contexte de 10 millions de jetons, tandis que Maverick surpasse GPT-4o lors des évaluations globales. Cet article analyse en profondeur les détails techniques et les implications pour les développeurs. Meta a officiellement…
