L’INTELLIGENCE ARTIFICIELLE EN ODONTOLOGIE
Innovation
Sophie DOMÉJEAN* Falk SCHWENDICKE** Jade CHAMBRION*** Joachim KROIS**** Michèle MULLER-BOLLA*****
*PU-PH en Odontologie conservatrice et Endodontie.
**UFR d’Odontologie, Université de Clermont Auvergne.
***Centre de Recherche en Odontologie clinique EA 4847.
****Service d’Odontologie, CHU Estaing Clermont-Ferrand.
*****Professeur, Head of the department of Oral Diagnostics, Digital Health and Health Services Research, Charité-Universitätsmedizin Berlin, Allemagne.
******ITU/WHO Focus Group on AI for Health, Topic Group Dental, Diagnostics and Digital Dentistry, Genève, Suisse.
*******Exercice libéral à Chamalières.
********Docteur, Head of Data science. Department of Oral Diagnostics, Digital Health and Health Services Research, Charité-Universitätsmedizin Berlin, Allemagne.
*********ITU/WHO Focus Group on AI for Health, Topic Group Dental, Diagnostics and Digital Dentistry, Genève, Suisse.
**********PU-PH en Odontologie pédiatrique.
***********UFR d’Odontologie, Université Côte d’Azur, CHU de Nice.
************URb2i EA 4662, Université Paris Cité.
« Il y a plus de 2 500 ans, les mythes grecs décrivaient déjà des robots-combattants, des arcs aux flèches intelligentes, des trépieds autonomes qui venaient vous servir du nectar ou de l’ambroisie. Ils mettaient même en scène des formes d’intelligence artificielle (IA) : des assistantes automatisées dotées de conscience ou un robot aux allures de femme souriante envoyé par un dieu pour tenir compagnie aux hommes » [
L’intelligence artificielle (IA) est un sujet d’actualités en odontologie avec des applications cliniques se développant à grande vitesse. Cette revue générale décrit l’IA, quelques rudiments technologiques ainsi que quelques applications déjà disponibles. Enfin, elle alerte sur le regard critique que les praticiens doivent toujours garder par rapport à toute innovation.
« Il y a plus de 2 500 ans, les mythes grecs décrivaient déjà des robots-combattants, des arcs aux flèches intelligentes, des trépieds autonomes qui venaient vous servir du nectar ou de l’ambroisie. Ils mettaient même en scène des formes d’intelligence artificielle (IA) : des assistantes automatisées dotées de conscience ou un robot aux allures de femme souriante envoyé par un dieu pour tenir compagnie aux hommes » [1]. Les prémices de l’IA sont donc apparues il y a bien longtemps sous des formes différentes au cours de l’histoire. En effet, l’idée de machine humaine a toujours fasciné le genre humain et, si elle n’a été qu’un mythe pendant longtemps, l’IA est aujourd’hui une réalité, de la voiture autonome à la reconnaissance faciale.
Dans le domaine de la santé, l’IA ambitionne d’offrir une meilleure qualité de soins. Contrairement à l’homme, l’IA est infatigable et capable de gérer une quantité considérable de données en réduisant donc les risques d’erreur. Il ne faut cependant pas voir l’IA comme une alternative au professionnel de santé « humain » mais la considérer comme un outil inépuisable, en constante évolution et aidant tant au diagnostic qu’à la prise de décision. La santé bucco-dentaire n’échappe pas au phénomène de l’IA, où celle-ci profite à la fois au patient et au chirurgien-dentiste (CD).
Le Larousse décrit le terme d’IA comme l’association inattendue de deux mots : « intelligence », du latin intelligentia - qui désigne le potentiel des capacités mentales et cognitives d’un individu lui permettant de résoudre un problème ou de s’adapter à son environnement - et « artificiel », du latin artificialis - qui est défini produit par le travail de l’homme et non par la nature. Cette association donne donc l’image de quelque chose de fabriqué par l’homme, à l’instar d’une machine. L’IA fait référence à « l’ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine ». Elle combine une large variété de technologies et de domaines scientifiques, par exemple les mathématiques, l’informatique, l’électronique mais aussi les sciences cognitives, dans le but de permettre aux machines d’agir et d’apprendre à des niveaux d’intelligence comparables à ceux des humains. L’IA ne se limitant donc pas à une seule technologie, il en existe une multitude de définitions variables dans le temps.
L’IA est une discipline relativement jeune qui a vu le jour au milieu du XXe siècle avec la sortie du tout premier ordinateur programmable, le Konrad Zuse Z3 (figure 1). Cette invention concrétisait l’envie de certains scientifiques de reproduire artificiellement le comportement du cerveau humain constitué d’un réseau de neurones. Diverses théories sont alors lancées autour de la possibilité de créer un cerveau artificiel et, en 1943, deux neurologues, McCulloch et Pitts, publiaient le premier modèle de neurone formel ou artificiel (NA), adaptation mathématique et informatique du neurone biologique (tableau 1). Comme le neurone biologique, le NA reçoit plusieurs informations (signaux d’entrées) qu’il analyse avant de fournir un résultat (signal de sortie). Ensuite, à partir d’un seul NA, il devient possible de construire un réseau entier de NA capable de résoudre des opérations logiques. Suite à ces découvertes, le mathématicien Turing s’est interrogé sur la possibilité de penser et l’éventuelle conscience de ces ordinateurs et a proposé le « jeu de l’imitation », ou test de Turing, permettant d’évaluer la capacité d’une machine à soutenir une conversation humaine [2]. Son principe est simple : un individu doit réussir à distinguer, lors d’un échange écrit, s’il converse avec un humain ou avec une machine : s’il n’arrive pas à faire la distinction entre ces deux interlocuteurs, l’ordinateur a réussi le test. Ce test, néanmoins jugé non qualifiant par de nombreux experts, a été la source du questionnement entre l’humain et l’ordinateur. Si Turing a été un des fondateurs de l’IA, ce n’est pas à lui que l’expression en tant que telle revient. En effet, c’est McCarthy qui l’a définie en 1956 comme « la théorie et le développement de systèmes informatiques capables d’effectuer des tâches nécessitant normalement l’intelligence humaine, comme la perception visuelle, la reconnaissance de la parole, la prise de décision et la traduction entre les langues ». Avec ce terme à la fois fort et paradoxal, le sujet prend de l’ampleur et les investisseurs s’emballent pour ce projet novateur. Ainsi, trois ans plus tard, McCarthy et Minsky fondent le laboratoire d’IA (Massachusetts Institute of Technology). Ultérieurement, l’histoire de l’IA a été marquée par deux Artificial Intelligence Winters, ou hivers de l’IA, qui correspondaient à deux périodes marquées par la méfiance et la déception face à une attente exagérée par rapport aux capacités technologiques. Un premier a été provoqué, en 1973, par le gouvernement britannique accusant la recherche de n’être pas à la hauteur des attentes. Un second à la fin des années 1980 a été dû à l’effondrement du marché spécialisé dans l’IA : les consommateurs se sont tournés vers des appareils jugés moins performants mais moins coûteux. Le marché a donc été contraint de s’adapter aux nouvelles demandes des consommateurs. Une dizaine d’années plus tard, la société International Business Machines Corporation, plus connue sous son acronyme IBM, a marqué l’histoire de l’IA en concevant un super-ordinateur célèbre pour avoir été la première machine d’IA à battre un champion du monde d’échecs, Kasparov, en 1997. Cette victoire d’un ordinateur dans un jeu réputé intellectuel a laissé entrevoir la possibilité que des machines pourraient être capables de rattraper, voire de dépasser l’esprit humain. IBM a, par la suite, développé le programme informatique Watson qui, en 2011, a remporté la victoire au jeu télévisé américain Jeopardy face à deux champions humains. Ainsi, IBM rééditait son premier exploit en allant même au-delà car, cette fois, l’ordinateur ne devait pas seulement analyser des positions sur un jeu bien défini mais il devait être capable de comprendre les questions posées par le présentateur, le sens des mots et aussi le fait de savoir s’il fallait répondre ou non à une question posée. En 2018, Google présentait Google Duplex, outil fondé sur de l’IA pour effectuer des tâches à la place de l’humain via par exemple son téléphone portable : l’idée étant de ne pas avoir à passer un appel pour réserver une table au restaurant, il suffit de communiquer son souhait à son assistant Google qui passe l’appel et fait la réservation en simulant une voix et une conversation humaines.
Concrètement, depuis une dizaine d’années, l’IA s’est considérablement développée et fait désormais partie de la vie quotidienne : la reconnaissance vocale est installée dans les foyers grâce aux assistants personnels vocaux, des prototypes de voitures autonomes parcourent les routes, la reconnaissance faciale est utilisée dans les aéroports… Il semble que l’aventure ne fasse que commencer…
L’IA a pour but de reproduire les quatre capacités cognitives humaines qui sont « percevoir », « comprendre », « agir » et « apprendre ». Elle repose sur deux concepts : l’apprentissage machine (AM) (Machine Learning ou apprentissage automatique) et l’apprentissage profond (AP) (Deep Learning) (figure 2). L’AM, élément majeur de l’IA, est fondée sur des approches statistiques permettant aux ordinateurs d’apprendre. Les trois méthodes principales d’AM sont les apprentissages « supervisé », « non supervisé » et « par renforcement » qui diffèrent par leur manière d’exploiter des données comme expliqué en figure 3.
L’IA englobe désormais une série d’applications, parmi lesquelles la vision par ordinateur, le traitement automatique du langage naturel (TALN), la robotique, la réalité virtuelle, les systèmes de simulation et l’aide à la décision dont voici quelques exemples.
La vision par ordinateur est une application de l’IA fondée sur l’AM et utilisée pour l’analyse d’images, notamment radiographiques (encadré 1).
Dans les images, l’homme voit les couleurs, les formes, les motifs et les structures et reconnaît des objets avec des noms et des étiquettes. Les machines évaluent, elles, les images différemment : tout d’abord, les caractéristiques sont extraites de l’image d’entrée en appliquant des convolutions aux valeurs d’intensité des pixels de l’image. Par conséquent, des filtres sont utilisés, leur configuration étant ajustée de manière itérative par l’algorithme pendant l’apprentissage pour détecter certaines propriétés de l’image (bords, courbes, couleurs, textures, etc.). Le balayage de l’image entière permet, à chacun de ces filtres, de créer sa propre représentation de l’image originale. Puis, à partir de milliers de filtres, une structure de données complexe est créée reflétant l’image comme une représentation numérique multidimensionnelle de la réalité (appelée tenseur). Cette structure de données ne peut plus être interprétée par l’homme mais peut être analysée à l’aide de l’AM par des réseaux de NA (chaque NA étant, lui-même, un modèle mathématique composé d’une unité linéaire et d’une autre, non linéaire). En combinant des millions de NA de manière efficace sur le plan informatique, ces réseaux sont capables de représenter n’importe quelle entrée et de la mapper sur une sortie. La combinaison d’un mécanisme d’extraction de caractéristiques (fondé sur des convolutions) à un réseau de NA donne les réseaux neuronaux convolutifs (qui sont particulièrement adaptés à l’analyse d’image).
La vision par ordinateur a une large gamme d’applications en médecine, en particulier pour l’analyse d’images histopathologiques - qui peut être accélérée à l’aide de l’IA, soulageant les pathologistes des annotations manuelles laborieuses et concentrant leur expertise sur les zones critiques - ou encore en dermatologie - l’IA peut aider à la classification de photographies réalisées par des patients ou des médecins généralistes, à poser un « pré-diagnostic » et donc à permettre une hiérarchisation (triage) des patients [3]. Dans ces deux exemples, l’algorithme n’est peut-être pas plus précis qu’un être humain mais il est beaucoup plus rapide et peut aider à alléger les ressources parfois limitées du pathologiste ou du dermatologue.
En odontologie, l’analyse radiographique est une des applications principales de l’IA (encadré 2). Plusieurs sociétés ont développé des logiciels d’IA pour aider les CD dans la lecture diagnostique de radiographies panoramiques, rétro-alvéolaires, rétro-coronaires et/ou céphalométriques [4]. D’autres logiciels ont été développés comme aide à la détection et à la classification de maladies (lésions apicales, perte osseuse parodontale, lésions carieuses, mais aussi ostéoporoses ou fractures…). Dans le cas de la détection des lésions carieuses précoces à partir de radiographies rétro-coronaires, leur précision serait significativement plus élevée (principalement pour la sensibilité) que celle des CD [5]. Des algorithmes ont aussi été testés pour le diagnostic différentiel entre fluorose et autres taches blanches [6]. D’autres solutions permettent la mise en évidence des maladies en couleur (générant une radiographie augmentée). Les patients ont ainsi la possibilité de réellement « voir » les maladies plutôt que d’en avoir une description sur une image en noir et blanc ; cela leur permet d’acquérir une meilleure compréhension facilitant une prise de décision éclairée et partagée. D’autres logiciels ciblent davantage les structures anatomiques ou physiologiques, les soins dentaires déjà réalisés (obturations, couronnes et implants) et permettent ainsi de générer un « rapport préliminaire », complet et systématique ; seules des corrections mineures sont éventuellement nécessaires après vérification. En céphalométrie, la détection de repères est largement utilisée, avec des valeurs de précision constantes similaires à celles des orthodontistes [5], permettant gain de temps et amélioration de la qualité du dossier.
Le TALN permet aux machines de comprendre le sens du texte et de la parole et de générer elles-mêmes un langage significatif et une interaction vocale d’humains avec des machines [7]. Un large éventail de nouveaux modèles d’IA a récemment été développé [8], avec de nouvelles approches permettant d’attirer l’attention sur un contenu spécifique tout en gardant une trace de longues séquences de texte (où des informations importantes mais dépendantes peuvent être éloignées les unes des autres) surpassant constamment les approches antérieures [9]. En santé, le TALN est susceptible d’être utilisé pour organiser des données électroniques des dossiers-patients souvent acquises de manière non structurée mais aussi pour faciliter la transcription automatique de données vocales [10].
La simulation en odontologie n’en est qu’à ses débuts.
Par exemple, le système Invisalign® combine vision par ordinateur et simulation. En complément des radiographies et photographies, des empreintes dentaires permettent de créer un modèle numérique capable de prédire la position exacte des dents telles qu’elles devront être à la fin du traitement orthodontique Invisalign personnalisé proposé, avant même de le commencer [11]. Les déplacements dentaires sont planifiés par un algorithme, ClinCheck, qui propose une simulation virtuelle tridimensionnelle. Ainsi, le CD peut décider des différentes étapes du traitement qui permettront d’obtenir ce résultat (chaque étape du traitement correspondant en fait à un aligneur transparent). Le bilan peut être envoyé au patient qui peut le consulter sur son smartphone ou son ordinateur : le patient peut alors voir la durée de son traitement, le nombre d’aligneurs nécessaires, mais surtout l’aspect de son sourire à chaque étape. Encore une fois, il ne remplace pas le CD, il l’aide dans l’établissement de plans de traitement précis.
Un autre domaine pertinent en santé, notamment orale, est le développement de médicaments, qui est généralement coûteux et connaît beaucoup de pertes. En effet, 9 médicaments développés sur 10 ne font jamais l’objet d’agréments réglementaires. Ainsi, la simulation numérique a longtemps été recherchée comme solution alternative pour le développement et la validation des médicaments-candidats [12]. L’avènement de référentiels de données comme PubChem (pubchem.ncbi.nlm.nih.gov, couvrant plus de 100 millions de composés chimiques et leurs propriétés et plus d’un million de données d’essais biologiques) ou ChEMBL (ebi.ac.uk/chembl/, contenant des données sur les propriétés de liaison, fonctionnelles et de toxicité pour plus de 15 millions de paires composé-cible) a considérablement fait progresser la découverte de médicaments. La combinaison de la richesse des données disponibles avec l’IA peut permettre de reconnaître les caractéristiques moléculaires et de prédire les effets des médicaments [12].
Un dernier domaine, avec au moins quelques applications pilotes en odontologie, est l’expérience ambiante, c’est-à-dire l’entrelacement du monde physique et du monde numérique [13] : les applications - globalement centrées autour de la réalité augmentée - s’intéressent à l’éducation (entraînement de la dextérité ou pour l’enseignement de l’anatomie) et à la chirurgie (chirurgie maxillo-faciale principalement, mais aussi l’implantologie).
Le jeune domaine qu’est la recherche en IA en santé a atteint un stade où déjà, pour un large éventail de cas d’utilisation, des applications sont disponibles et ont fait leur preuve. La figure 4 montre d’ailleurs la croissance exponentielle des publications scientifiques liées à l’IA en odontologie. De nombreux groupes dans le monde ont acquis des données à partir desquelles ils ont développé des modèles d’AM pour des questions médicales spécifiques ; cependant, beaucoup n’ont pas encore dépassé ce stade préliminaire. Le passage de la recherche à l’application pratique est long, complexe et coûteux. De plus, une limite majeure de nombreuses applications en l’IA est qu’elles ne sont que peu généralisables, équitables et robustes : en effet, les modèles entraînés sur les données d’une population ne sont pas forcément adaptés à d’autres populations (ex. : patients caucasiens de pays ayant un accès aisé aux soins dentaires versus patients de pays d’Asie du sud avec des difficultés d’accès aux soins dentaires) [14]. De même, les modèles générés à partir de données provenant de systèmes différents, collectées selon des protocoles différents ou au cours de périodes différentes, peuvent ne pas forcément s’appliquer à d’autres situations.
De plus, la validation de nombreuses applications de l’IA n’a pas toujours été réalisée sur des données externes ou par des études prospectives. Montrer qu’un modèle d’IA a une grande précision sur un set de données présélectionnées est une première étape au cours de laquelle ces résultats doivent être vérifiés soigneusement [15]. En effet, il faut contrôler qu’une application peut être cliniquement utile car les valeurs de précision sont généralement plus faibles sur des données tests indépendantes et externes [16]. Lorsque l’IA est validée prospectivement, en particulier lors d’essais contrôlés randomisés, la façon dont les praticiens interagissent avec l’IA détermine en partie son utilité : si les valeurs théoriques de précision peuvent être inférieures ou diminuées, elles ne sont aucunement modifiées par les praticiens qui resteront, au final, toujours maîtres de leurs décisions cliniques [17]. Les valeurs revendiquées (gain de temps, meilleure communication, traitements plus sûrs et plus efficaces) restent le plus souvent à être démontrées de manière prospective comme Mertens et al. l’ont fait par exemple pour le système DentalXrai Pro [8] (figure 5) (encadré 2).
Enfin, la décision finale des modèles d’IA est difficile à interpréter en raison de leur structure intrinsèque complexe. Bon nombre de ces modèles sont des « boîtes noires », qui ne permettent pas aux utilisateurs de comprendre quels critères sont utilisés pour arriver à un résultat donné. L’IA « explicable » pourrait accroître la confiance du public car la logique de la machine peut être comparée à la logique humaine et peut donc être vérifiée.
L’explicabilité, la généralisation, l’équité et la robustesse sont au cœur de nombreuses initiatives interdisciplinaires qui tentent d’élever les standards et donc la valeur de l’IA pour les applications en santé. Par exemple, l’Union internationale des télécommunications (UIT), en collaboration avec l’Organisation mondiale de la santé (OMS), a mis en place un groupe de réflexion pour définir des normes/standards pour les applications de l’IA en médecine et en odontologie. Schwendicke et Krois sont responsables du thème « Diagnostic dentaire et dentisterie numérique » au sein de ce consortium. D’importants travaux sont également menés par d’autres sur les lignes directives en matière de qualité pour la recherche sur l’IA en odontologie [19]. De plus, les organismes de normalisation reconnaissent l’intérêt de l’IA mais aussi la nécessité de normes et d’orientations dans ce domaine. La communauté dentaire est appelée à agir pour s’engager dans de telles activités.
Comme décrit précédemment, l’intérêt pour l’IA et la croyance en sa nature transformatrice ont évolué par cycles. En odontologie, la recherche liée à l’IA est en pleine expansion et son champ d’application s’élargit avec un décalage dans le temps en raison des contraintes liées au développement et à l’aspect réglementaire. Des processus plus rapides et plus efficaces, soulageant les professionnels de santé, une meilleure communication avec les patients, une détection plus précise et finalement une meilleure qualité diagnostique et thérapeutique… Les attentes en matière d’IA sont multiples [20]. L’IA permettrait une approche diagnostique et thérapeutique plus personnalisée et précise, avec des interventions préventives précoces tout en impliquant davantage le patient dans le processus. L’IA permettrait donc de répondre à la dentisterie « Précise, Préventive, Personnalisée et Participative » (dite P4 dentistry) dont le développement a longtemps été freiné par le fait que les données n’étaient ni disponibles, ni standardisées et ni reliées entre elles. Il semble que l’IA ait beaucoup à offrir aux CD en routine pour améliorer leurs pratiques. Elle doit être envisagée comme une alliée du CD et non comme une remplaçante potentielle (CD de demain). Ainsi, le présent travail doit être entrevu comme une démarche de la démocratisation de la compréhension de l’IA qui semble indispensable à sa bonne intégration en clinique.
Les auteurs déclarent n’avoir aucun lien d’intérêts.
• Allisone est un outil assistant le chirurgien-dentiste (CD) dans l’analyse d’orthopantomogramme. Il propose une analyse plus rapide des radiographies panoramiques permettant la détection des lésions mais surtout plus fiable qu’avec l’œil humain, en particulier pour les lésions carieuses proximales initiales. Le système d’annotation par le biais d’un code couleur permet au patient d’identifier facilement sur la radiographie panoramique (examen 2D en général difficilement accessible par les non-professionnels) les lésions carieuses, les sites infectieux mais aussi les soins antérieurs et ceux à prévoir. Son fonctionnement repose sur l’AP. Le logiciel apprend en continu selon un système d’annotation de radiographies par des CD eux-mêmes. Selon les fondateurs mais aussi les utilisateurs d’Allisone, cette application permettrait une meilleure compréhension par le patient de son état bucco-dentaire et donc sa meilleure adhésion au plan de traitement.
• DentalXrai Pro fonctionne aussi selon le principe d’analyse de radiographies dentaires par l’IA. Son but est de mettre en évidence de manière plus rapide et plus fiable les lésions carieuses et les lésions péri-apicales mais aussi les différentes restaurations dentaires (technique directe ou indirecte) pour offrir une cartographie dentaire légendée. Il a été développé à partir de milliers de radiographies dentaires récoltées (orthopantomogrammes comme rétro-alvéolaires), puis étiquetées par plusieurs CD. Ces annotations de données permettent d’entraîner le réseau de NA qui devient alors capable de fournir sa propre analyse. Ce logiciel est capable d’identifier et d’interpréter avec une très haute précision un cliché radiographique, offrant une aide au diagnostic quasiment instantanée au CD. L’intérêt est, là aussi, d’appuyer son diagnostic par le biais de l’IA et d’améliorer la communication entre le CD et le patient et ainsi d’augmenter l’observance du patient aux soins dentaires. Dans la mesure où la plupart des utilisateurs amélioraient leur performance diagnostique en détectant des lésions précoces avec une sensibilité plus élevée, ceux-ci doivent être sensibilisés à l’intervention minimale en cariologie sous peine d’être incités aux surtraitements en objectivant des lésions qui seraient passées inaperçues sans l’usage de cette nouvelle technologie.
• Spotimplant permet l’identification des modèles, des marques, des dimensions des implants dentaires à partir d’un simple cliché radiographique rétro-alvéolaire. L’implant radiographié est comparé à plus de 3 500 modèles d’implants contenus dans la base de données. L’algorithme génère alors un rapport d’identification implantaire en précisant toutes les caractéristiques techniques estimées - type d’implant, type de connexion, forme du col, forme du corps, filetage du corps, forme de l’apex, trou à l’apex et rainures à l’apex - avec « un score de confiance » ou « score de probabilité » précis. Il permet alors de dresser une liste des 10 implants les plus similaires, classés par score de confiance décroissant. Ce résultat est vérifié par les experts implantologues de la startup avant d’être envoyé au CD qui est ensuite informé du modèle d’implant, de la marque, de la référence, des instruments à utiliser et enfin des pièces compatibles avec cet implant. Les fondateurs expliquent que la finalité de leur innovation est de « lutter contre l’obsolescence des dispositifs médicaux en proposant des solutions, même pour des implants qui ne sont plus commercialisés ». C’est dans cette logique que Spotimplant s’inscrit dans une démarche évolutive, par le biais d’une plateforme collaborative où un fabricant peut, par exemple, référencer ses produits pour alimenter de façon continu la base de données.
Certaines données, par exemple des images radiographiques, se voient attribuer une certaine information (étiquette) par un humain : par exemple, « cette radiographie montre une lésion carieuse » ou, plus précisément, « ces pixels sur cette radiographie contiennent une lésion carieuse ». Contrairement à l’annotation de photographies du monde quotidien (où il faudrait identifier par exemple des feux de circulation), les annotations médicales sont plus difficiles à évaluer et nécessitent de l’expertise. Un seul homme peut détecter un feu de circulation avec une grande exactitude tandis que, sur une radiographie, se fier à un seul professionnel de santé pour l’annotation entraîne une incertitude considérable quand il s’agit de détecter une maladie sur des images ; par conséquent, plusieurs experts sont souvent nécessaires. À partir des deux ingrédients principaux - les données (ex. : des milliers d’images avec des feux ou des lésions carieuses) et les informations (ex. : des informations sur les images) -, les algorithmes apprennent désormais des modèles statistiques avec les données selon un processus itératif. Dans ce processus, les algorithmes apprennent pas-à-pas de leurs propres erreurs : ils génèrent d’abord une information, possiblement aléatoire (ex. : « cette image contient une lésion carieuse »), pour une donnée (ex. : une image spécifique) ; le résultat est alors comparé à des informations réelles ; à partir de la concordance ou de la non-concordance et via de nombreuses étapes de répétition (images différentes de dents avec ou sans lésion carieuse et/ou diagnostic de différents experts), l’algorithme est ainsi optimisé de manière itérative afin que le taux d’erreur soit minimisé. L’algorithme a appris à établir une correspondance entre une entrée (ex. : la radiographie dentaire d’une seule dent) et une sortie (ex. : la présence d’une lésion carieuse sur l’image). Par conséquent, un algorithme formé de cette manière devrait être capable de générer correctement les informations associées par lui-même, même sur des ensembles de données inédits.