Mei-Ling Tan est une journaliste passionnée par l'Asie depuis plus de dix ans. Ayant grandi entre la France et Singapour, elle a développé une profonde compréhension des cultures et des dynamiques politiques du continent asiatique. Elle met aujourd'hui son expertise au service d'EurasiaTimes pour vous offrir des analyses pointues et des reportages de terrain.

Lorsque les commerçants de Shanghai se sont réunis à la Chambre de commerce de la ville il y a plus d’un siècle, ils étaient aux prises avec les technologies qui façonneraient le commerce moderne : les bateaux à vapeur, les systèmes bancaires et les routes maritimes mondiales. Lors du sommet international sur l’intelligence artificielle de Shanghai organisé par The Asian Banker, qui s’est tenu dans le même bâtiment historique, la discussion s’est tournée vers un autre type d’infrastructure : l’architecture de l’intelligence artificielle elle-même.
Pendant une grande partie des cinq dernières années, la course à l’IA a été conçue comme un concours visant à construire des modèles toujours plus puissants. Plus de données, plus d’informatique et des réseaux neuronaux plus vastes étaient largement considérés comme les principaux moteurs du progrès. Mais l’hypothèse selon laquelle la mise à l’échelle seule est à l’origine des progrès de l’IA est activement et largement remise en question. Le catalyseur est une nouvelle génération de systèmes d’agents d’IA.
Contrairement aux chatbots traditionnels qui répondent à une seule question et s’arrêtent, les systèmes d’agents tels qu’OpenClaw peuvent exécuter des séquences d’actions : récupérer des informations, interagir avec des logiciels, exécuter du code et effectuer des tâches en plusieurs étapes de manière autonome. Lors du sommet, Lin Yonghua, vice-président et ingénieur en chef de l’Académie d’intelligence artificielle de Pékin (BAAI), a proposé un cadre permettant de comprendre pourquoi cela est important. Selon l’analyse de Lin, la capacité d’un système d’IA n’est plus déterminée principalement par son modèle. Au lieu de cela, la performance émerge de l’interaction de trois composants : le modèle, le système d’agents qui orchestre les tâches et les « compétences » spécialisées qui lui permettent d’opérer dans les domaines professionnels.
Lors des tests internes de BAAI, la modification du modèle sous-jacent pourrait multiplier par 10 le coût de réalisation d’une tâche complexe. Mais modifier le système d’agents pourrait modifier le coût jusqu’à 100 fois. L’architecture environnante compte désormais autant que l’intelligence du modèle lui-même.
Pour les entreprises, l’implication est évidente. Les grands modèles vont se consolider autour d’une poignée d’entreprises mondiales. Mais c’est au niveau des compétences, les capacités certifiées et spécifiques à un domaine qui permettent à l’IA de fonctionner dans des contextes professionnels, que les industries conservent leur influence. Par exemple, sans compétences financières de haute qualité, affirme Lin, aucun système d’agents ne fonctionnera de manière significative dans les domaines bancaire, de la gestion des risques ou de la conformité. Les institutions qui développent et certifient ces compétences peuvent définir ce que l’IA peut réellement faire dans leur secteur.
Ce changement d’architecture entraîne un changement parallèle dans le matériel. Les systèmes d’agents peuvent accéder à des modèles volumineux des centaines de fois pour effectuer une seule tâche, en continu, 24 heures sur 24. Le résultat est une demande croissante d’inférence, d’exécution de modèles d’IA plutôt que de formation. Deloitte estime que l’inférence représentera les deux tiers de tout le calcul de l’IA en 2026, tandis que Lin estime qu’elle atteindra plus de 70 %. Nvidia prépare une puce d’inférence dédiée. OpenAI en construit un également. En Chine, Alibaba, Baidu, Cambricon et Huawei donnent tous la priorité au matériel d’inférence dans des conditions de concurrence différentes. L’ère d’une puce polyvalente qui faisait tout touche à sa fin.
La prolifération des architectures de puces a créé son propre problème : ce que Lin appelle « une puce, une pile », où chaque puce nécessite son propre écosystème logiciel, ce qui rend coûteux le déplacement de modèles entre plates-formes. La réponse de BAAI est FlagOS, une pile logicielle universelle open source développée avec l’Université de Pékin, l’Université Tsinghua, l’Académie chinoise des sciences et plus d’une douzaine de fabricants de puces. Il prend déjà en charge plus de 20 puces. L’objectif : écrire simplement un modèle qui peut fonctionner sur n’importe quelle puce.
Mais même si les problèmes matériels et logiciels sont résolus, une question plus profonde demeure : pouvons-nous faire confiance aux données sur lesquelles ces systèmes sont basés ? À mesure que les agents passent du rôle de conseiller humain à celui de passer des commandes, de transférer des fonds et de gérer les chaînes d’approvisionnement de manière autonome, les conséquences des données erronées sont amplifiées de façon exponentielle. Dans le domaine du financement de la chaîne d’approvisionnement, des cas d’activités commerciales fabriquées, de marchandises promises à plusieurs reprises et de conteneurs qui se sont révélés avoir peu de valeur ont causé des pertes de centaines de millions de dollars. Ce ne sont pas des échecs de l’IA. Il s’agit d’échecs de l’environnement de données dans lequel on demande désormais à l’IA d’opérer. Comme le dit Lin : Les enregistrements doivent correspondre à la réalité. Sans cette base, une IA plus puissante ne réduit pas les risques. Cela l’amplifie.
BAAI et ses partenaires déploient de grands modèles multimodaux pour interpréter des environnements physiques complexes, tandis que des modèles plus petits spécialisés effectuent une vérification de haute précision. Les agents connectent ces sorties aux systèmes de l’entreprise, bouclant ainsi la boucle entre le monde physique et l’enregistrement numérique. Si cette architecture arrive à maturité, elle pourrait débloquer des activités que les institutions financières évitent actuellement simplement parce qu’elles ne peuvent pas vérifier ce qui se passe sur le terrain.
La course pour construire le modèle le plus puissant n’est pas terminée, mais ce n’est plus la seule qui compte. La lutte plus profonde pour savoir qui bâtira l’architecture qui rendra l’intelligence fiable, abordable et universelle ne fait que commencer.