OpenAI a introduit un nouveau modèle d'intelligence artificielle à la fin de la semaine dernière qui détecte les erreurs commises par son autre modèle d'IA. Il s'agit d'un type spécifique de contrôleur appelé CriticGPT, qui identifie les erreurs contenues dans le code généré par le modèle ChatGPT.

L'outil améliore le processus de formation des systèmes d'intelligence artificielle en prenant en charge la technologie derrière l'acronyme RLHF (Reinforcement Learning from Human Feedback ; renforcement du processus d'apprentissage en utilisant les commentaires obtenus des personnes). Cette technologie permet aux réponses des grands modèles de langage de devenir de plus en plus précises au fil du temps.

Construit sur le modèle phare GPT-4, le modèle CriticGPT est un réviseur des réponses générées par ChatGPT. Les premiers tests montrent que CriticGPT est parfait pour analyser le code et en identifier les bugs, éliminant ainsi le phénomène d'hallucination qui affecte de nombreux modèles d'IA. ils ne le remarqueront peut-être pas eux-mêmes. Les informaticiens ont formé le modèle CriticGPT sur un ensemble de données d'échantillons de code contenant des erreurs intentionnellement insérées afin que le modèle puisse reconnaître et signaler les erreurs dans le code.

Les utilisateurs peuvent également ajuster la précision de l'outil lors de la recherche de bugs et exercer un plus grand contrôle sur sa tendance à halluciner ou à détecter des bugs qui n'existent pas. En plus de tomber dans un état hallucinatoire, l'outil présente également d'autres inconvénients, par exemple il peut avoir des difficultés à juger des tâches plus longues et plus complexes car il est entraîné sur des réponses relativement courtes. De plus, souvent pendant le codage, les hallucinations de l'IA se produisent après que les erreurs sont dispersées sur de nombreuses chaînes de code différentes, ce qui rend la tâche du modèle CriticGPT consistant à identifier la source du problème encore plus difficile.

A lire également