Ces dernières années, les avancées en intelligence artificielle ont fait des pas de géants. Des modèles capables de générer du texte, de coder ou même de résoudre des problèmes complexes rivalisent désormais avec l’intelligence humaine dans de nombreux domaines. Ce progrès rapide transforme non seulement la recherche, mais aussi l’accès à des outils de pointe, notamment grâce à des initiatives open source qui rendent ces technologies plus accessibles. Lundi, le laboratoire chinois DeepSeek a marqué un tournant en dévoilant une nouvelle famille de modèles IA révolutionnaires, qui pourraient redistribuer les cartes dans le domaine.
DeepSeek a présenté sa gamme de modèles R1 sous licence open source MIT. La version la plus avancée contient 671 milliards de paramètres, et l’entreprise affirme qu’elle rivalise avec le modèle o1 d’OpenAI, connu pour ses capacités de raisonnement simulé, sur plusieurs tests en mathématiques et en programmation.
En plus des modèles principaux, DeepSeek a lancé six versions réduites appelées « DeepSeek-R1-Distill », avec des tailles allant de 1,5 milliard à 70 milliards de paramètres. Ces modèles plus légers, basés sur des architectures open source comme Qwen et Llama, utilisent des données générées par le modèle complet R1. La version la plus petite peut fonctionner sur un simple ordinateur portable, tandis que le modèle complet nécessite des ressources informatiques bien plus importantes.
La communauté IA a rapidement réagi à ces annonces. Jusqu’ici, les modèles open source avaient du mal à concurrencer les modèles propriétaires comme ceux d’OpenAI sur les tests de raisonnement. Mais l’arrivée d’un modèle performant et libre d’utilisation sous licence MIT pourrait changer la donne. En effet, cela permet à quiconque d’étudier, modifier ou utiliser ces modèles, y compris à des fins commerciales.
« Ils sont très amusants à utiliser, c’est hilarant de les voir ‘réfléchir’, » a confié Simon Willison, un chercheur indépendant en IA, à Ars Technica. Après avoir testé une des versions réduites, il a décrit sur son blog comment le modèle affiche une chaîne de raisonnement interne à l’aide de balises XML … avant de fournir une réponse. Même pour des questions simples, le raisonnement généré est détaillé et surprenant.
Une nouvelle façon de raisonner
Le modèle R1 se distingue des grands modèles classiques en utilisant une approche innovante de « raisonnement simulé ». Cette méthode simule une réflexion humaine pour résoudre une question. Ce type de modèle, appelé « SR » (simulated reasoning), a été popularisé par OpenAI avec sa gamme o1 lancée en septembre 2024. Ces modèles prennent plus de temps à produire une réponse, mais cela améliore souvent leurs performances dans des domaines comme les mathématiques, les sciences ou la programmation.
DeepSeek affirme que R1 dépasse les performances d’OpenAI sur plusieurs benchmarks, comme AIME (un test de raisonnement mathématique), MATH-500 (problèmes mathématiques) ou SWE-bench Verified (un outil d’évaluation en programmation). Toutefois, ces résultats restent à confirmer par des tests indépendants.
Des limites liées à la censure
Cependant, un bémol accompagne le modèle lorsqu’il est utilisé via le cloud. En raison de sa création en Chine, le R1 est soumis à des restrictions et refuse de répondre à des questions sur des sujets sensibles comme la place Tiananmen ou l’autonomie de Taïwan. Ces limites viennent d’une couche de modération imposée par la réglementation chinoise pour respecter les « valeurs fondamentales du socialisme ». En revanche, si le modèle est exécuté localement en dehors de la Chine, ces restrictions disparaissent.
Malgré ces limites, le chercheur en IA Dean Ball, de l’université George Mason, estime que les versions réduites du modèle sont prometteuses : « Leur excellente performance signifie que des outils très puissants continueront de se démocratiser et pourront être utilisés localement, loin de tout contrôle centralisé. »
Khaled Boulaziz