Mise à jour à 16h15, avec les commentaires de Mazyar Mirrahimi
IBM est-il à l’origine d’une percée décisive dans la construction du premier ordinateur quantique universel ? Il est certes encore trop tôt pour l’affirmer, mais, dans une publication parue le 29 avril dans la revue scientifique Nature, Big Blue décrit un mécanisme de détection d’erreur plus complet que tout ce qui a été imaginé jusqu’à présent. Un mécanisme testé en laboratoire, avec succès, assurent les chercheurs. Or la correction d’erreur est un sujet clef dans le domaine, les ordinateurs quantiques étant particulièrement sensibles aux erreurs.
Dans les machines classiques, les bits peuvent être victimes d’une erreur d’inversion (le 0 devenant un 1 ou vice-versa). Une problématique prise en charge depuis longtemps. Sur les systèmes quantiques, basés sur des qubits (qui peuvent avoir la valeur 0, 1 ou les deux à la fois, état dit de superposition dont découlera la puissance de calcul de ces systèmes), les types d’erreurs possibles sont plus nombreux. Et les qubits se montrent très sensibles aux éléments extérieurs (chaleur, radiations électromagnétiques…). « Réaliser un ordinateur quantique tolérant aux erreurs est un défi important nécessitant le codage de l’information dans un code de correction d’erreurs quantiques », écrivent les chercheurs à l’origine de la publication dans Nature.
Au-delà de ce résultat, le circuit d’IBM, qui peut être mis au point via les techniques de fabrication employées avec le silicium assure le groupe, ouvre la voie à la conception de systèmes plus larges. « Une fois que les qubits supraconducteurs pourront être produits de façon fiable et répétée, et qu’ils pourront être contrôlés avec de faibles taux d’erreur, il n’y aura plus d’obstacle fondamental à démontrer l’efficacité de la correction d’erreurs sur des treillis (des circuits, NDLR) de qubits plus importants », assure Big Blue dans un communiqué. Autrement dit d’augmenter le nombre de qubits afin d’arriver à un système programmable. Le site Engineering.com estime que cette barrière sera franchie dès qu’on sera en mesure de concevoir des systèmes embarquant entre 13 et 17 qubits. Dans son communiqué, IBM indique par ailleurs que si un ordinateur renfermant seulement 50 qubits pouvait être conçu, il dépasserait les capacités du plus puissant supercalculateur au monde. Affirmation probablement limitée à quelques algorithmes particuliers.
Dans leur publication, les chercheurs signalent toutefois que l’augmentation de la taille des circuits (au-delà de 4 qubits donc) nécessiterait « d’importantes études » portant notamment sur de nouveaux codes de correction d’erreurs. Dans une interview récente sur Silicon.fr, Mazyar Mirrahimi, un chercheur qui dirige l’équipe Quantic commune au CNRS, à l’Inria et à trois écoles françaises, signalait en effet que la question de la ‘scalabilité’ – autrement dit de l’augmentation du nombre de qubits embarqués dans un système – porte, en elle-même, ses propres problématiques de correction d’erreurs. Du fait de l’apparition de « bruits corrélés, qui peuvent affecter plusieurs qubits à la fois ». Un sujet sur lequel IBM ne s’étend guère pour l’instant…
Interrogé par mail sur cette publication, le chercheur de l’Inria y voit avant tout « la preuve de principe de la possibilité d’effectuer deux mesures de syndrome (façon de détecter les erreurs, NDLR) simultanées ». Bref, une « étape très préliminaire ». Et de remarquer que, dans cette expérience, comme dans trois autres menées récemment (deux par l’université de Yale, une par l’université de Californie travaillant avec Google), il n’est question que de détection d’erreurs. Et non de correction.
Le système mis au point par Big Blue apparaît toutefois comme une étape supplémentaire dans la mise au point d’un code de correction d’erreurs. Un sujet sur lequel la société américaine, qui travaille sur l’informatique quantique depuis 30 ans, semble bien positionnée, aux côtés notamment de Google. Mountain View, associé à l’université de Californie, avait récemment laissé entrevoir l’avancée de ses travaux, via une publication démontrant la faisabilité d’un algorithme de détection d’inversion de bits sur un système renfermant 9 qubits. Google assurait alors travailler sur la correction de l’autre type d’erreurs (l’inversion de phase) ainsi que sur un mécanisme de détection d’erreurs sur plus de 9 qubits.
De son côté, Microsoft travaille sur une piste différente basée sur la découverte, en 2012, d’une particule appelée fermion de Majorana, confirmant des équations datant de 1937 supputant l’existence d’une telle particule. Sur ce fondement théorique, Redmond tente de mettre au point un qubit dit topologique qui devrait, selon la théorie, être plus fiable et mieux adapté à la production de masse que ceux conçus avec d’autres approches. Via les Bell Labs tombés dans son giron à la faveur du rachat de Lucent, Alcatel-Lucent travaille sur une approche similaire, mais basée sur un matériau différent.
A lire aussi :
Mazyar Mirrahimi, Inria : « Un ordinateur quantique dans dix ans ? Impossible de l’affirmer »
Douze fournisseurs sont classés dans le dernier Magic Quadrant des infrastructures LAN.
Commvault s'offre Appranix, éditeur d'une plateforme cloud de protection et de restauration des applications.
Intel se greffe au projet OPEA OPEA (Open Enterprise Platform for AI) et y pousse…
Le Conseil d’Administration de l’Association des Utilisateurs SAP Francophones ( USF) a réélu Gianmaria Perancin…
Le secteur du transport aérien utilise des algorithmes depuis des années. Mais cette chasse gardée…
Une option de traitement par lots est arrivée sur l'API OpenAI. Voici quelques clés de…