L’IA en Ébullition : GPT-5/2, DeepSeek V3-2 et les Révolutions en Cours
Semaine intense d’innovations qui redéfinissent l’intelligence artificielle
OpenAI : La Mémoire Augmentée et l’Arrivée Imminente de GPT-5/2
Une Révolution dans la Gestion de la Mémoire
OpenAI a récemment testé une fonctionnalité de recherche dans la mémoire de ChatGPT. Bien qu’elle soit brièvement apparue puis disparue pour certains utilisateurs, ce test interne révèle l’orientation stratégique d’OpenAI vers une meilleure gestion du contexte. Le principe est simple mais redoutablement efficace : plutôt que de parcourir manuellement de nombreuses entrées mémorisées, les utilisateurs pourront désormais demander directement à ChatGPT de retrouver une information spécifique mentionnée il y a plusieurs semaines.
Cette innovation vise à corriger l’un des aspects les plus problématiques de l’interface mémoire actuelle : l’encombrement qui s’accumule avec le temps. Si vous essayez de retrouver quelque chose que vous avez dit à ChatGPT il y a des semaines, vous pourrez simplement le lui demander directement et il ira chercher cette information dans vos données enregistrées instantanément.
La fonctionnalité n’est pas encore disponible publiquement, mais sa brève apparition dans ChatGPT suggère fortement qu’elle est soit en cours de test interne, soit en déploiement progressif. OpenAI semble redoubler d’efforts pour une meilleure gestion du contexte, ce qui est logique à mesure que leurs modèles deviennent plus autonomes. La mémoire est la seule chose qui empêche ChatGPT de donner une véritable impression de persistance. Une version consultable fait percevoir l’assistant comme un partenaire durable, pas juste une fenêtre de chat éphémère.
GPT-5/2 : Une Accélération Face à la Concurrence
Ce pourrait ne pas être la seule nouveauté prévue chez OpenAI. Des rapports indiquent que l’entreprise subirait une pression après le lancement de Gemini 3 par Google, qui aurait attiré une partie de ses utilisateurs. Certaines sources parlent même d’une « alerte rouge », indiquant qu’ils accélèrent le développement interne pour rattraper leur retard.
C’est pourquoi beaucoup pensent que GPT-5/2 pourrait arriver plus tôt que prévu, peut-être même avant la fin de l’année. Si cette sortie coïncide avec la fonctionnalité de recherche mémorisée, ce serait une manœuvre stratégique évidente pour rappeler à tout le monde qu’OpenAI reste en tête en matière d’intelligence artificielle pratique pour la productivité.
Ceci confirme le schéma déjà observé : face à la concurrence, OpenAI accélère ses mises à jour. Aujourd’hui, la concurrence est plus féroce que jamais, notamment à cause de DeepSeek, une entreprise chinoise qui vient de bouleverser les codes de l’industrie.
DeepSeek V3-2 : La Révolution Chinoise de l’Efficacité
Performances de GPT-5 avec Moins de Ressources
DeepSeek, une entreprise innovante de Hangzhou en Chine, vient tout juste de sortir leur modèle d’intelligence artificielle V3-2, et les chiffres sont tout simplement impressionnants. Le modèle atteint des performances comparables à GPT-5 sur les tests de raisonnement tout en utilisant beaucoup moins de FLOPs d’entraînement au total.
Ce n’est pas un simple détail technique, mais un changement total dans la conception d’une intelligence artificielle puissante. Plutôt que de dépenser des milliards en calcul, DeepSeek a obtenu d’excellentes performances grâce à une architecture intelligemment conçue. Tout est open source, permettant aux organisations de déployer des modèles avancés sans dépendre d’un grand fournisseur de cloud américain.
Performances Exceptionnelles de DeepSeek V3-2
- AIME 2025 : 93,1% de précision
- Codeforces : 2386 points (proche de GPT-5)
- Médaille d’or à l’Olympiade Internationale de Mathématiques 2025
- Médaille d’or à l’Olympiade Internationale d’Informatique
- Entraîné avec 5,31 trillions de tokens
- 9,437 milliards de séquences de 128 000 tokens
Il existe deux versions : DeepSeek V3-2 de base et DeepSeek V3-2 spéciale. La version spéciale, c’est le monstre. Elle a remporté l’or aux olympiades internationales, un territoire que seuls les meilleurs laboratoires américains avaient atteint avec des modèles internes non publiés.
Pour une entreprise qui travaille avec un accès restreint aux semi-conducteurs avancés, c’est énorme. DeepSeek a montré qu’avec une bonne architecture, on peut rivaliser avec les meilleurs, même sans les puces Nvidia les plus récentes.
L’Innovation Clé : DeepSeek Attention Clairsemée (DSA)
Comment fonctionne la DSA ?
Dans les transformateurs traditionnels, l’attention évolue avec le carré de la longueur de la séquence, noté O(L²), ce qui devient extrêmement coûteux à mesure que la taille du contexte augmente. DSA change radicalement la donne.
Le système introduit ce qu’ils appellent un « indexeur éclair » qui sélectionne uniquement les tokens les plus pertinents pour chaque requête, réduisant la complexité à O(L × K), où K est une fraction de la séquence totale.
En résumé : le modèle évite de gaspiller de la puissance de calcul sur des tokens inutiles et se concentre sur l’essentiel.
Les résultats apparaissent dans les benchmarks et dans l’efficacité de son raisonnement lors de conversations à plusieurs tours. V3-2 améliore astucieusement la gestion des outils. Les anciens modèles de raisonnement perdaient souvent leur réflexion entre les tours, devant répéter les étapes à chaque nouveau message utilisateur.
DeepSeek conserve les traces de raisonnement uniquement pour les messages liés aux outils afin d’économiser des tokens, sans avoir à réexpliquer sa logique. Ce simple changement fait une énorme différence pour les flux de travail des agents, pensez à la recherche autonome, au codage en plusieurs étapes ou à la planification financière. Cela rend le modèle plus fiable, moins oublieux et plus proche d’un véritable collègue de travail.
Performances sur les Benchmarks Professionnels
- Terminal Bench : 46,4% de réussite
- SWE Vérifié : 73,1% de précision
- SWE Multilingue : 70,2% de performance
Ces résultats démontrent sa capacité à gérer production, codage et résolution de problèmes à un niveau entreprise.
Formation Agentique Avancée
L’équipe du projet a poussé loin la formation agentique, créant plus de 1 800 environnements simulés et 85 000 invites à étapes multiples. Le modèle apprenait ainsi à généraliser son raisonnement avec des outils inconnus.
Pour les entreprises recherchant autonomie et transparence, DeepSeek a ouvert le modèle de base sur Hugging Face. La version spéciale est accessible uniquement via l’API à cause de sa forte consommation de tokens. C’est leur manière d’équilibrer accessibilité et coût.
Réaction de la Communauté Scientifique
La communauté de recherche a réagi immédiatement. Susan Zhang de Google DeepMind a salué la documentation technique de DeepSeek, surtout leur stabilisation du comportement après l’entraînement. À San Diego, les discussions dans les laboratoires d’IA étaient en pleine effervescence, avec des chercheurs analysant comment DeepSeek avait réussi un tel exploit.
Runway Gen-4.5 : La Vidéo Cinématographique par IA
Runway a lancé Gen-4.5, son nouveau modèle vidéo déjà en tête du classement Video Arena. Il a obtenu 1 247 points ELO sur le benchmark d’analyse texte vers vidéo, surpassant tous les autres modèles disponibles.
Runway affirme que Gen-4.5 offre une fidélité visuelle cinématographique et une grande précision physique. Propulsé par les GPU Nvidia Blackwell, les améliorations incluent :
Innovations de Gen-4.5
- ✓ Pré-entraînement des données plus efficace
- ✓ Nouvelles méthodes de post-entraînement
- ✓ Inférence optimisée pour des temps de génération réduits
- ✓ Création de scènes complexes avec mouvements réalistes
- ✓ Gestion améliorée des émotions et expressions
Le modèle garde tous les anciens modes de contrôle comme l’image vers la vidéo et les images clés pour faciliter la transition des utilisateurs existants. Les derniers défis concernent de petites failles dans le raisonnement causal ou la permanence des objets, entraînant parfois la disparition ou le déplacement incorrect d’un objet.
Globalement, c’est un grand progrès pour les flux de travail de films et publicités générés par l’intelligence artificielle. Le déploiement de Runway est progressif selon les abonnements, avec un accès complet prévu prochainement.
Kling AI : L’Audio s’Invite dans la Vidéo
Kling AI s’apprête à lancer une version révolutionnaire qui génère vidéo et audio avec le même prompt. La mise à jour intègre la génération audio native directement dans le modèle vidéo. Les dialogues, chants et effets sonores d’ambiance sont générés en même temps que les images.
Leur slogan résume parfaitement cette version : « Voir le son, entendre le visuel ». D’après des fuites internes, Kling 2.6 Pro offrira une prise en charge multimodale des workflows vidéos, audio et images, avec du contenu vidéo accompagné d’audio en anglais et chinois pour le marché mondial.
Kling 2.6 Pro : Les Nouveautés
C’est un progrès important car Kling 2.5 et Kling Omni avaient une bonne fidélité visuelle mais pas de synthèse vocale intégrée. Le nouveau modèle va directement concurrencer Sora 2 d’OpenAI et Veo 3.1 de Google, tous deux compatibles avec l’audio.
Le lancement est prévu autour du 3 décembre pendant la semaine de lancement de Kling Omni, où l’entreprise dévoilera cinq nouvelles sorties. L’écosystème de Kuaishou compte déjà des centaines de millions d’utilisateurs, offrant ainsi une adoption massive.
Amazon : Puces IA et Agents Autonomes Révolutionnaires
Kiro : L’Agent de Codage qui Travaille des Jours Entiers
Lors d’Amazon Web Services Re:Invent, Amazon a dévoilé trois nouveaux agents d’IA qu’ils appellent « agents de pointe ». Celui qui attire toute l’attention s’appelle Kiro, un agent de codage autonome qui peut littéralement travailler tout seul pendant des jours.
Kiro apprend comment une équipe de développement code, s’imprègne de son style, puis continue avec une supervision minimale. Vous pouvez lui confier une tâche complexe de votre backlog et il s’occupe du reste, de A à Z.
Le Développement Piloté par les Spécifications
Basé sur l’outil Kiro d’AWS lancé en juillet, cette version ajoute le développement piloté par les spécifications. Au fur et à mesure que Kiro écrit du code, il vérifie constamment auprès de l’utilisateur pour confirmer ou corriger ses hypothèses, qui deviennent ensuite des spécifications que l’agent pourra suivre plus tard de manière autonome.
Avec le temps, il comprend le fonctionnement de l’équipe et maîtrise mieux les produits et normes de codage de l’entreprise. AWS affirme pouvoir maintenir un contexte persistant entre les sessions sans perdre la mémoire ni oublier ses actions en cours.
C’est très important car cela signifie que vous pouvez littéralement lui confier une tâche qui prend des heures, voire des jours, et il ne perdra pas le fil. Matt Garman, le PDG d’AWS, a montré un exemple concret pendant son discours d’ouverture : mettre à jour un morceau de code utilisé par 15 parties différentes d’un système.
Normalement, il faudrait tout faire à la main, vérifier chaque changement et les déployer en sécurité. Avec Kiro, demandez-lui de corriger les 15 instances et il s’en charge d’un coup. Ce passage vers des agents autonomes devient concret, non seulement pour des expériences mais aussi pour les workflows des logiciels d’entreprise réels.
L’Écosystème Complet d’Agents AWS
Les Trois Agents AWS de Nouvelle Génération
- Kiro (Agent de Codage) : Travaille de manière autonome pendant des jours, apprend le style de l’équipe, maintient un contexte persistant
- Agent de Sécurité AWS : Détecte les problèmes de sécurité lors de la rédaction du code et suggère des corrections en temps réel
- Agent DevOps : Teste automatiquement performance et compatibilité avant la mise en production, validation continue
Amazon cherche à automatiser toutes les chaînes logicielles avec peu de supervision humaine. AWS n’est pas la seule entreprise à développer des agents fonctionnant sur la durée. Le GPT-5.1 Codex Max d’OpenAI a déjà affirmé qu’il pouvait fonctionner en continu pendant 24 heures. Mais Amazon essaie de montrer qu’il peut prendre ce même concept et le déployer à grande échelle sur l’infrastructure cloud.
Le vrai frein de ces systèmes n’est pas seulement la fenêtre de contexte, mais aussi la précision et le contrôle des hallucinations. Si Kiro peut vraiment maintenir un contexte persistant sans faire d’erreurs logiques stupides, cela pourrait complètement changer la façon dont les équipes de développement fonctionnent aujourd’hui.
Tranium 3 : La Nouvelle Puce IA d’Amazon
Amazon a aussi dévoilé une nouvelle puce d’intelligence artificielle, Tranium 3, qui surpasse la Tranium 2 dans tous les domaines :
Spécifications Techniques de Tranium 3
- 44 fois plus de puissance de calcul que la génération précédente
- 4 fois plus d’efficacité énergétique pour réduire les coûts opérationnels
- Près de 4 fois plus de bande passante mémoire pour des transferts ultra-rapides
- 40% plus efficace énergétiquement que les architectures précédentes
- Optimisations avancées pour éviter les goulets d’étranglement mémoire
Ces chiffres sont importants car ils influencent directement la rapidité et le coût de l’entraînement des grands modèles. La puce alimente leur serveur Ultra Tranium 3, conçu spécifiquement pour de lourdes charges d’intelligence artificielle.
Amazon a confirmé travailler sur Tranium 4 qui supportera le nouveau NVLink Fusion Interconnect de Nvidia pour une communication encore plus rapide entre puces. La direction est claire : développer une pile IA complète rivalisant avec Nvidia en la réservant aux clients cloud d’AWS.
OpenAI : Les Publicités Arrivent dans ChatGPT
OpenAI a discrètement ajouté une autre surprise dans le code de son application Android. Des indices sur l’arrivée de publicités dans ChatGPT ont été découverts dans la dernière beta. Des chaînes liées aux publicités affichent un contenu inhabituel et des expressions comme « publicité de recherche » ou « carrousel publicitaire » ont été identifiées.
Cela montre que l’entreprise va intégrer des publicités ciblées sur les recherches d’achat et recommandations, plutôt que des pubs aléatoires dans les conversations. Elles seront visibles via des cartes sponsorisées ou suggestions de produits lors de questions commerciales, un peu comme la façon dont les aperçus IA de Google ou Copilot de Microsoft le gèrent.
Cela montre aussi comment les assistants IA fusionnent avec les modèles économiques traditionnels de la recherche. Perplexity AI le fait déjà en ajoutant des suggestions sponsorisées aux suggestions normales, ce qui s’est avéré rentable.
Si OpenAI suit la même voie, ChatGPT pourrait progressivement évoluer en un moteur de découverte commerciale. C’est un équilibre délicat : trop de pubs peuvent nuire à l’expérience utilisateur, mais bien géré, elles pourraient rendre la version gratuite viable financièrement sur le long terme.
🎯 Conclusion : Une Course Effrénée vers l’Innovation
Cette semaine démontre que la course à l’innovation en intelligence artificielle n’a jamais été aussi intense. Entre les géants américains qui se réinventent (OpenAI avec GPT-5/2, Amazon avec Kiro et Tranium 3, Runway avec Gen-4.5) et les challengers chinois qui surprennent par leur efficacité remarquable (DeepSeek V3-2, Kling AI), l’écosystème IA évolue à une vitesse absolument vertigineuse.
Que ce soit par la mémoire intelligente, l’efficacité computationnelle révolutionnaire, les agents autonomes capables de travailler des jours entiers, ou la création multimodale audio-vidéo, chaque acteur pousse les limites du possible et redéfinit ce que nous pensions être les standards de l’industrie.
Une chose est certaine : nous assistons à un moment charnière dans l’histoire de l’intelligence artificielle, où les innovations d’aujourd’hui définiront les standards de demain et transformeront profondément notre façon de travailler et de créer.
