En 2023, le nombre de brevets liés à l’informatique quantique a doublé par rapport à l’année précédente, selon l’Organisation mondiale de la propriété intellectuelle. Tandis que certaines entreprises investissent dans la construction de machines tolérantes aux erreurs, d’autres privilégient le développement d’algorithmes optimisés pour les processeurs actuels aux capacités limitées.
La compétition entre États-Unis, Chine et Union européenne ne répond à aucun schéma classique d’innovation technologique. Les alliances se forment autant entre acteurs publics que privés, brouillant les lignes habituelles de la concurrence industrielle.
L’informatique quantique aujourd’hui : où en est la révolution annoncée ?
L’informatique quantique intrigue, séduit, mais ne laisse personne indifférent. Après des années à promettre monts et merveilles, elle reste encore discrète dans le quotidien. Pourtant, derrière le rideau, le secteur s’active et des progrès concrets voient le jour. Les ordinateurs quantiques reposent sur les fameux qubits, ces unités d’information capables d’exploiter superposition et intrication pour repousser les limites du binaire traditionnel. IBM, Google, Quandela, Pasqal, Microsoft, Alice & Bob : chaque acteur mise sur une technologie particulière, supraconducteurs, qubits photoniques, ions piégés, atomes neutres ou encore qubits de chat.
Les plateformes de calcul quantique en cloud se multiplient à vive allure. IBM Quantum, Azure Quantum de Microsoft, AWS Braket d’Amazon, Google Quantum AI ou l’offre de Quandela ouvrent l’accès à ces machines à la recherche et à l’industrie. Même si le nombre de qubits et leur stabilité restent modestes, des groupes comme Airbus, EDF, Total Energies ou JSR Corporation y détectent déjà un avantage potentiel pour la simulation, l’optimisation ou la cybersécurité.
Un point saute aux yeux : la diversité technologique règne. IBM et Google développent les qubits supraconducteurs, Quandela et PsiQuantum avancent sur les qubits photoniques, IonQ et Quantinuum s’appuient sur les ions piégés, Pasqal explore les atomes neutres, Alice & Bob se concentre sur le qubit de chat et Microsoft poursuit la piste des qubits topologiques. La compétition mondiale est lancée. Chaque approche technique nourrit une rivalité intense, tout en favorisant des alliances inédites entre jeunes pousses, géants industriels et laboratoires publics.
Quels défis majeurs freinent encore son essor ?
Malgré l’enthousiasme, un calcul quantique fiable reste hors de portée. Les qubits, véritables moteurs des ordinateurs quantiques, affichent une fragilité extrême face à leur environnement. Bruit, défauts de fabrication, variations électromagnétiques : chaque perturbation fait vaciller la cohérence quantique et multiplie les erreurs. La correction d’erreurs s’impose alors comme un passage obligé, conditionnant l’émergence de machines à tolérance de panne capables d’exécuter des algorithmes puissants sans dérailler au premier accroc.
La diversité des stratégies n’efface pas une contrainte commune : pour donner une portée universelle à l’informatique quantique, il faudra stabiliser et piloter des milliers, voire des millions de qubits. Aujourd’hui, que l’architecture soit basée sur des qubits supraconducteurs, des ions piégés ou des qubits photoniques, le compteur plafonne à quelques centaines d’unités. Les avancées en cryogénie, domaine où Air Liquide tient une place de choix, ne font pas disparaître la difficulté de passer à plus grande échelle.
Un autre verrou se referme autour de la consommation de ressources et de matières rares. Produire des qubits de qualité, en particulier à partir de Silicium 28, requiert un niveau de pureté extrême. Les infrastructures coûtent cher, et la gestion de l’énergie pour refroidir les systèmes reste un défi. En Europe, aux États-Unis, en Chine, les investissements publics se chiffrent en milliards d’euros. Ce soutien politique massif ne suffit pas à garantir la rapidité du progrès.
Voici les principaux obstacles qui canalisent la compétition mondiale :
- Stabilisation de la cohérence quantique
- Correction d’erreurs à grande échelle
- Production et intégration massive de qubits fiables
- Rationalisation des coûts énergétiques et industriels
Ces défis structurent le secteur. La correction d’erreurs s’annonce comme l’arène centrale des prochaines années.
Panorama des acteurs clés et des technologies en compétition
L’informatique quantique ne se résume plus à une rivalité entre IBM et Google. Ces deux mastodontes conservent leur influence, chacun avec ses qubits supraconducteurs et ses plateformes (IBM Quantum, cloud Google). Microsoft, de son côté, mise sur les qubits topologiques et Amazon fédère plusieurs types de matériels autour d’AWS Braket.
L’Europe s’impose avec vigueur. La France, notamment, fait émerger des acteurs de pointe : Quandela et Pasqal cherchent la différence avec les qubits photoniques ou les atomes neutres. Alice & Bob investit le terrain du qubit de chat, qui promet une robustesse accrue. L’écosystème européen prend de l’ampleur, mêlant start-up et fournisseurs cloud comme OVH Cloud ou Scaleway.
Pour mieux saisir la diversité des stratégies, voici les principales familles de technologies en lice :
- Qubits supraconducteurs (IBM, Google, Rigetti Computing)
- Qubits d’ions piégés (IonQ, Quantinuum)
- Qubits photoniques (Quandela, PsiQuantum)
- Qubits topologiques (Microsoft)
- Qubits à atomes neutres (Pasqal)
- Qubits de chat (Alice & Bob)
Côté logiciels, les outils prennent une place croissante. Qiskit (IBM) et Cirq (Google) rendent la programmation quantique plus accessible. Multiverse Computing, partenaire d’IBM et de Pasqal, développe des solutions logicielles pour répondre aux besoins industriels. Les dynamiques de coopération s’accélèrent, impliquant cabinets de recherche, universités, industriels et fournisseurs de services cloud. Chacun tente de creuser l’écart, à l’intersection de la physique fondamentale et de l’innovation logicielle.
Quel avenir pour l’informatique quantique et qui pourrait prendre l’avantage ?
Le futur de l’informatique quantique se joue déjà dans la rivalité entre puissances, la diversité des choix technologiques et la multiplication des usages industriels. Les États-Unis avancent à marche forcée grâce à des initiatives comme le National Quantum Initiative Act. L’Europe riposte en misant sur la collaboration scientifique et l’investissement public (avec France 2030, Quantum Flagship, EuroHPC). La Chine, discrète, investit méthodiquement dans les communications quantiques.
Les entreprises cherchent à transformer l’essai. Airbus, EDF, Total Energies testent la simulation moléculaire ou l’optimisation énergétique, tandis que PayPal collabore avec IBM pour la détection de fraude. Crédit Agricole s’appuie sur Pasqal pour raffiner ses analyses de risque de crédit. À chaque étape, le calcul quantique promet des performances hors de portée pour la microélectronique traditionnelle, mais le passage au stade industriel se fait attendre.
En matière de sécurité, la perspective de l’algorithme de Shor capable de casser la cryptographie RSA pousse à l’adoption de la cryptographie post-quantique, promue par la NSA et l’ANSSI. Le NIST engage la standardisation des nouveaux algorithmes, tandis que des solutions hybrides voient le jour jusque dans les services comme Microsoft 365.
Impossible de désigner un vainqueur pour l’instant. Qubits supraconducteurs, photoniques, à atomes neutres ou « de chat » : chaque camp conserve ses partisans et ses défis. Tout se jouera sur la capacité à surmonter l’obstacle de la correction d’erreurs, à industrialiser la puissance de calcul et à sécuriser l’écosystème face à de nouveaux risques. Le match reste ouvert, et la ligne d’arrivée n’a jamais paru aussi mouvante.


