Leur auteur est l’institut gouvernemental américain NIST (National Institute of Standards and Technology), qui a développé trois normes de chiffrement. Ils visent à renforcer la protection cryptographique contre les futures cyberattaques des ordinateurs quantiques.

Le NIST travaille sur de telles normes depuis plusieurs années, sachant que dans un avenir proche, les ordinateurs quantiques seront capables de briser les méthodes de cryptage actuelles, compromettant ainsi les informations clés et confidentielles détenues par les entreprises et les institutions gouvernementales.

Les nouvelles normes incluent des instructions pour modifier les algorithmes utilisés pour chiffrer les données et les signatures numériques. Dans le cas du chiffrement général, il s'agit d'un mécanisme d'encapsulation de clé basé sur le mécanisme d'encapsulation de clé basé sur un treillis de modules (ML-KEM en abrégé). Il s'agit d'une norme selon laquelle les clés de chiffrement peuvent être facilement échangées par les deux parties communicantes.

En matière de signatures numériques, le NIST a développé deux normes. Le premier s’appelle Module-Lattice-Based Digital Signature Algorithm (ML-DSA en abrégé) et définit un algorithme général de signature numérique. Le second s’appelle Stateless Hash-Based Digital Signature Algorithm (SLH-DSA en abrégé). Il s'agit d'un algorithme de signature numérique basé sur la technique du hachage. Deux algorithmes (ML-KEM et ML-DSA) ont été créés chez IBM, qui est depuis longtemps un leader dans la construction d'ordinateurs quantiques. Le troisième est le travail du NIST.

Le NIST exhorte les entreprises soucieuses de la sécurité des données à se familiariser avec ces normes dès que possible et à prendre des mesures à l'avance pour se préparer à l'ère des ordinateurs quantiques qui approche à grands pas. Et cela viendra beaucoup plus vite que nous le pensons, probablement au cours de la prochaine décennie. Cela se produira lorsqu’un des fabricants d’ordinateurs quantiques présentera enfin un système quantique fonctionnant de manière absolument fiable, c’est-à-dire capable de corriger à 100 % les erreurs commises par son unité de calcul.

A lire également