GPT-5.5 passe à l'action : Intégration Excel, publicités et nouveau protocole réseau
Les feuilles de calcul prennent un cerveau
Le noyau le plus puissant de GPT-5.5 est désormais intégré directement dans les logiciels de tableur. L’intégration dans la suite bureautique peut écrire des formules complexes, expliquer la logique des données et analyser des tableaux à grande vitesse — le genre de travail qui nécessite normalement de jongler entre un analyste junior et trois onglets Stack Overflow.
Les premières réactions sur les réseaux sociaux suggèrent que cela touche un point sensible. Les feuilles de calcul restent l’interface universelle des affaires, et y placer un modèle performant directement est un coup de distribution qui contourne entièrement l’onglet du chatbot. Les utilisateurs n’ont pas besoin de savoir qu’ils utilisent de l’IA — ils demandent simplement au tableur d’expliquer pourquoi le chiffre d’affaires du T3 a baissé, et il le fait.
Les publicités arrivent
OpenAI a lancé sa plateforme publicitaire, et le contraste avec l’intégration Excel ne pourrait pas être plus frappant. C’est le moteur de monétisation : les modèles utilisent par défaut GPT-5.5 avec des temps de réponse sensiblement plus rapides, le seuil d’entrée est fixé à 50 000 $, et la tarification du trafic est d’environ 3× les tarifs Facebook.
L’argument est que le ciblage basé sur la mémoire surpasse les publicités de recherche traditionnelles — le système sait ce dont un utilisateur a discuté, pas seulement ce qu’il a recherché il y a cinq secondes. Que les utilisateurs soient à l’aise avec ce compromis est une autre question. L’industrie semble se diviser entre passerelles de trafic (monétisées par la publicité) et outils de productivité (monétisés par abonnement), ChatGPT essayant d’être les deux à la fois.
MRC : Faire coopérer 10 000 GPU
Du côté infrastructure, OpenAI, NVIDIA et Microsoft ont publié conjointement le protocole MRC — une spécification réseau conçue pour résoudre la congestion qui affecte les entraînements à grande échelle.
Lorsque vous connectez 10 000 GPU, le goulot d’étranglement n’est pas le calcul — c’est le tissu réseau entre eux. Les paquets entrent en collision, les GPU restent inactifs en attendant les mises à jour de gradient, et le silicium coûteux fonctionne bien en dessous de sa capacité. MRC résout ce problème au niveau du protocole. Microsoft et Intel l’ont déjà déployé sur leurs clusters avec des améliorations mesurables de l’efficacité d’entraînement.
La vue d’ensemble
Sam Altman a séparément laissé entendre sur X que ChatGPT « semble incroyablement réactif maintenant », suscitant des spéculations sur une mise à niveau furtive du modèle. Que ce soit le modèle, l’infrastructure, ou les deux — la combinaison de la distribution Excel, de la monétisation publicitaire et du travail d’infrastructure au niveau du protocole suggère qu’OpenAI exécute simultanément sur les trois couches de la pile.