La stratégie payante de Mistral AI : entre ouverture et ingrédients secrets

La stratégie payante de Mistral AI : entre ouverture et ingrédients secrets

Un petit nouveau est venu rejoindre le cheptel de Mistral AI. La star française de l’IA générative a déjà lancé cinq grands modèles de langage en douze mois. Elle vient d’en dévoiler un de plus, Mixtral 8X22B, présenté le 17 avril comme étant “moins coûteux, meilleur et plus rapide”. Ce sont toutefois les rumeurs d’une nouvelle levée de fonds en préparation, à peine quatre mois après la dernière, qui agite le plus le landerneau de l’IA. Contactée par L’Express, la start-up française ne fait pas de commentaires. Mais selon le média américain The Information, Mistral AI serait de nouveau en discussion avec des investisseurs pour lever plusieurs centaines de millions de dollars sur la base d’une valorisation de 5 milliards de dollars cette fois.

Des signes que sa politique de la “porte entrouverte” paye. Comme les critiques se plaisent à le rappeler, si Mistral AI défend une approche “ouverte”, elle n’est pas complètement open source. Comprendre par-là que l’entreprise ne dévoile pas l’intégralité de ses secrets de fabrication. Mistral a opté pour une approche hybride dite open weights. Elle partage les paramètres et l’architecture de plusieurs de ses modèles, pas les données sur lesquelles ceux-ci ont été entraînés.

Mais c’est sans doute l’approche la plus sensée pour une entreprise du secteur. Dans le monde logiciel traditionnel, plusieurs acteurs ont montré qu’il était tout à fait possible de gagner de l’argent en partageant la totalité de ses développements. Red Hat vend, par exemple, l’accompagnement fourni par ses équipes sur ses produits. Mais l’IA est un monde bien différent. Les coûts de développement d’un grand modèle de langage (LLM) n’ont rien de comparables avec ceux d’un logiciel classique. De l’aveu du patron d’OpenAI, Sam Altman, le coût de l’entraînement de GPT-4 dépasse le seuil des 100 millions de dollars – et il n’a pas précisé s’il l’excède de peu ou très largement.

L’ingrédient secret de Mistral AI

Dans ce contexte, l’approche open weights de Mistral AI est un compromis intéressant. Elle permet à tous ceux qui le souhaitent d’utiliser ses modèles de langage et de créer de nouveaux produits à partir de cette base, tout en laissant au Français l’ingrédient secret qui lui donne une longueur d’avance sur nombre de ses concurrents : son expertise des data. “Très peu de gens savent où récupérer des données intéressantes. La plupart utilisent un corpus baptisé Common Crawl, mais il en existe bien d’autres moins connus. Rares aussi sont les personnes sachant organiser les données d’entraînement de manière optimale. C’est un vrai travail d’orfèvre”, expliquait à L’Express en décembre dernier, Vincent Luciani, PDG du cabinet de conseil en IA Artefact, saluant l’expertise du trio de fondateurs de Mistral à ce niveau.

Pour Mistral, le pari de partager une partie de ses avancées a aussi des avantages évidents. Cela lui a permis de se faire un nom à l’heure où le monde avait les yeux rivés sur OpenAI. “C’est aussi un argument fort pour attirer des profils très recherchés”, confie un acteur du secteur. Les experts capables de créer des modèles de fondation ne courent pas les rues, et se font chasser à prix d’or par les géants de la tech. Or, la possibilité de publier leurs travaux leur tient souvent à cœur.

Certes, Mistral n’ouvre pas toutes les versions de ces modèles de langage et s’oriente vers une voie hybride avec des LLM ouverts et des versions plus puissantes fermées. Mais à l’heure où la majorité de ses concurrents ont opté pour une approche complètement fermée (OpenAI, Anthropic, Aleph Alpha, Poolside…), il continue de faire figure d’îlot de résistance. Tant que l’écart de performance entre ses modèles ouverts et ses versions secrètes ne se creuse pas exagérément, il pourra légitimement continuer de se réclamer de cette chapelle.

Leave a Reply

Your email address will not be published. Required fields are marked *