Il gère un contexte de 32000 mots ou morceaux de phrases
Il parle anglais, français, italien, allemand et espagnol
Il peut mobiliser plus de 46 Milliards de paramètres
Il surpasse GPT-3.5 sur la majorité des critères de références
Le modèle Mixtral est edité sous licence Open source - Apache 2.0
A performance égale, Mixtral fait preuve d'une sobriété inégalé