L’inférence fait parti des nouveaux termes que l’on entend de plus en plus. Ce vocabulaire est bien souvent associé avec l’intelligence artificielle. Ces nouvelles technologies ont pour objectifs d’améliorer la prédiction, le traitement et l’analyse des données.
Aujourd’hui, face à un marché très concurrentiel, la recherche d’amélioration de la productivité et de la qualité est une priorité. L’IA peut concourir à améliorer la productivité en fournissant, par exemple, des solutions d’analyse prédictive, contrôle qualité et des systèmes de maintenance prédictive.
Avec la croissance exponentielle des usages de l’IA et des technologies connexes, les besoins en calcul deviennent colossaux et donc coûteux. Il est primordial d’optimiser les processus et autres flux de données. C’est ici que l’inférence rentre en jeu.
Qu’est-ce que l’inférence ?
Wikipedia définit l’inférence comme un axe de pensé logique :
L’inférence est un mouvement de la pensée qui permet de passer d’une ou plusieurs assertions, des énoncés ou propositions affirmés comme vrais, appelés prémisses, à une nouvelle assertion qui en est la conclusion. Étymologiquement, le mot inférence signifie « reporter »
Wikipedia
L’inférence vient du mot latin infero, ce qui signifie «porter vers le bas». C’est l’inverse de dedo, qui signifie «porter vers le haut». Ces mots indiquent le type d’inférence associée à chaque mouvement : lorsque nous inférons quelque chose, nous appliquons une sorte de règle pour nous rappeler les faits déjà connus et en tirer des conclusions ; lorsque nous déduisons quelque chose, nous émettons une hypothèse et vérifions ses propriétés pour trouver un rapport entre elles.
Prenons un exemple de l’utilisation de l’inférence dans le domaine de la santé. Un professionnel de santé réalise un examen médical afin de déterminer un diagnostic. Il a donc pour objectif d’identifier ce qui cause une maladie ou un symptôme. Les symptômes liés peuvent être identifiés et associés avec ceux d’autres maladies ainsi qu’aux connaissances du professionnel pour atteindre une conclusion.
L’inférence et l’intelligence artificielle
Dans le domaine de l’intelligence artificielle, la phase d’inférence représente l’exécution d’un modèle une fois qu’il a déjà été entraîné. Ainsi l’inférence intervient après les étapes d’apprentissage. On peut également parler de phase de déploiement sur le terrain du modèle d’IA.
Pour simplifier, a l’étape d’inférence, le modèle d’intelligence artificiel est déjà pré-calculé et a déjà été modélisé à l’aide de jeu de données (data set). Ainsi à ce moment, les systèmes d’intelligence artificielle peuvent tirer des conclusions ou des prédictions à partir des données ou connaissances qu’ils ont apprises.
Un moteur inférence est un système qui peut être employé avec diverses technologies d’apprentissage automatique pour prendre des décisions basées sur les données fournies. Les technologies d’intelligence artificielle, telles que le machine learning, deep learning et les réseaux neuronaux peuvent être utilisés pour améliorer la capacité de prédiction et de raisonnement logique d’un moteur inférence.
Prenons par exemple un système de reconnaissance de parole comme celui de Google ou d’Amazon. Partons du principe que le système d’IA a appris à reconnaître des phrases dans une langue comme le français. Lorsqu’il reçoit une phrase qu’il n’a encore jamais entendu, il utilise son processus d’inférence pour en déduire la langue ainsi que la signification de cette phrase. Pour se faire il se base sur un modèle qui a acquis des connaissances dans ce domaine.
Comme vous l’aurez compris, dans ces cas, les modèles ont peu ou pas besoins d’avoir recours à une communication cloud pour le processus de prise de décision. Tout se fait en local. Cela apporte donc une économie significative.
A noter que cela n’empêche pas une amélioration itérative du modèle en continuant à échanger régulièrement avec le moteur de machine learning.
L’inférence dans l’industrie
Nul doute que l’intelligence artificielle trouvera sa place au sein de nombreux processus industriels. C’est déjà le cas autour de nombreux sujets comme la maintenance, la surveillance, l’analyse vidéo (Machine vision), …
Un modèle d’IA doit généralement être produit avant d’être utiliser l’inférence. Pour ce faire il existe de nombreux processus d’apprentissages associés en fonction de vos besoins.
Dans le domaine des machines et de l’industrie, il existe des modèles d’IA préformés pour des cas d’usages spécifiques. Ce sont généralement des solutions qui ont bénéficié de modèles d’apprentissages mutualisés. Enrichies d’un grand volume de données acquis en provenance d’un grand nombre de sources, ces modèles sont donc déjà pré-entraînés.
Ces modèles d’IA préformé peuvent être déployés au sein d’un équipement d’Edge AI conçu pour les faire fonctionner en inférence.
Ce type de solution est bien souvent celui sélectionné par les industriels. En effet, du fait de ne pas avoir besoin d’une grande phase d’apprentissage, la mise en œuvre est rapide et les coûts réduits.
Les équipement associés à l’inférence et l’IA dans l’industrie
Dans le secteur informatique, de nombreuses solutions existent pour gérer l’inférence comme
- NVIDIA Jetson®
- INTEL Movidius
- Google TPU
- …
Par exemple, le MIC-730AI est un dispositif Edge conçu pour l’inférence et basé sur une architecture NVIDIA Jetson Xavier®. Il est donc pré-équipé pour faire fonctionner des modèles d’inférences pré-entraînés.
Il est également possible d’utiliser en complément des plateformes d’entraînements de modèles d’IA (Training Server AI) basés sur des GPU et cartes graphiques NVIDIA type RTX et Quadro. Ces dernières permettent de continuer à améliorer le modèle d’inférence en fonction des données acquises sur le terrain.
Vous souhaitez échanger avec nous sur les solutions existantes ? N’hésitez pas à contacter nos équipes.
6 réflexions au sujet de “L’inférence dans l’intelligence artificielle qu’est-ce que c’est ?”