De Turing à ChatGPT : Comprendre l'IA et sa chaîne de valeur

5 min
minutes de lecture

Des prémices d'Alan Turing et de la machine "Enigma" pendant la Seconde Guerre mondiale aux avancées spectaculaires du Deep Learning, notamment incarné par ChatGPT d'OpenAI, l'IA a connu des décennies d'évolution. Elle a façonné des secteurs allant de la médecine à la reconnaissance faciale, en passant par la traduction automatique. C'est une révolution silencieuse, à la fois fascinante et porteuse de défis éthiques et environnementaux.

Dans cet article, nous explorerons l'IA sous toutes ses facettes, des mécanismes du Machine Learning (ML) au Natural Language Processing (NLP) en passant par la Computer Vision et la Robotique Autonome. Vous découvrirez également la chaîne de valeur de l'IA, de la conception des algorithmes aux applications concrètes, et les enjeux cruciaux qui accompagnent cette révolution.

L’origine de l’IA

Avant de comprendre les impacts de l'Intelligence Artificielle (IA) sur notre métier de Product Manager, sur l'évolution de nos produits numériques et tous les enjeux associés, commençons tout d'abord par comprendre cette technologie. En termes simples :

« Le terme Intelligence Artificielle (IA) est utilisée pour classer les machines qui imitent l'intelligence humaine et les fonctions cognitives humaines telles que la résolution de problèmes et l'apprentissage. L'IA utilise des prédictions et l'automatisation pour optimiser et résoudre des tâches complexes que les humains ont historiquement accomplies, telles que la reconnaissance faciale et vocale, la prise de décision et la traduction. »  IBM

D’Alan Turing à DeepBlue

L'histoire de l'IA commence dans les années 1930 lorsqu’ Alan Turing pose les premiers jalons avec sa machine  "Enigma", une avancée qui a permis de révolutionner le domaine de la cryptanalyse pendant la Seconde Guerre mondiale. C’est en 1956 que le terme d’« Intelligence Artificielle » est utilisé pour la première fois lors de la conférence de Dartmouth  (UK). Après une période prometteuse dans les années 1960, avec la naissance du premier robot à usage industriel Unimate ou le programme ELIZA qui a posé les bases pour le développement ultérieur de chatbots et d'assistants virtuels, le domaine traverse un « hiver » jusqu’à la fin des années 1970.  Pendant les deux décennies suivantes, les "Expert Systems" ont émergé, reproduisant la prise de décision d'experts humains dans des domaines spécifiques (médecine, l'ingénierie, la finance, etc). C’est ainsi que DeepBlue d'IBM a marqué l'histoire en battant le champion du monde d'échecs Garry Kasparov.

Du Deep Learning à la médiatisation de ChatGPT

C’est à partir des années 2000 que l’intégration de l’IA arrive dans notre quotidien via les GAFAM (Google (Alphabet), Apple, Facebook (Meta), Amazon et Microsoft) en Occident et les BATX (Baidu, Alibaba, Tencent, Xiaomi) en Chine. La décennie 2010 a connu l’arrivée du Deep Learning porté notamment par Yann Le Cun et des avancées majeures telles que l’AlphaGo de DeepMind (désormais propriété de Google) & ChatGPT d’OpenAI (désormais partiellement propriété de Microsoft). Après l’arrivée des évolutions GPT 3.5 en novembre 2022 puis GPT 4.0 en mars 2023, cette technologie a été mise en avant dans de nombreux médias internationaux. Cela a conduit à l'accélération des investissements, des opportunités associées et de l'intérêt du grand public pour cette technologie, ainsi qu'à l'intensification du débat éthique qui en découle.

Entrainer une IA

L’ensemble des Intelligences Artificielles  présentées ci-dessous sont basées sur des algorithmes. On peut définir ces derniers comme une série d'instructions ordonnées et finies permettant de résoudre un problème ou d'accomplir une tâche. Ces algorithmes peuvent être exécutés par une machine ou un humain. L’exécution de ces calculs complexes nécessite de très grandes puissances de calcul donc des  ressources associées dans des datacenters. C’est la combinaison entre une architecture efficiente et efficace, des ressources de calcul élevées et d’immenses bases de données ordonnées et qualifiées, pour entrainer ces algorithmes, qui permet à une IA de performer en 2023.

Le Machine Learning

Le Machine Learning (ML) se définit comme un ensemble d’algorithmes permettant aux machines d'apprendre à partir de données sans être explicitement programmées. Ces apprentissages peuvent s’exécuter de plusieurs manières :

  • Supervised Learning : Apprentissage avec des données étiquetées.
  • Unsupervised Learning : Apprentissage avec des données non étiquetées.
  • Reinforcement Learning : Apprentissage basé sur la récompense/punition.

Le Deep Learning

Le Deep Learning (DL)  se définit comme un sous-ensemble du Machine Learning qui utilise des réseaux de neurones profonds (des structures algorithmiques inspirées du fonctionnement des neurones dans le cerveau) pour apprendre et prendre des décisions à partir de grandes quantités de données. Des cas d’usage concrets se font aujourd’hui sur la traduction automatique (Google Translate) ou la conduite autonome (Tesla).

L’IA et ses usages

Le Natural Language Processing

Le Natural Language Processing (NLP) est une technique permettant aux machines de comprendre et générer le langage humain, l’une des formes les plus avancées sont les LLM (Large Language Models). C’est l’utilisation de cette technologie par ChatGPT (Generative Pre-trained Transformer) d’OpenAI qui est à l’origine de la forte médiatisation de l’IA en 2022-2023. Comme LLM connu, nous pouvons également citer BERT (Bidirectional Encoder Representations from Transformers) de Google. Ceux-ci étant basés sur l’architecture « Transformer » qui forme l’IA sur des quantités massives de données. Dans notre quotidien depuis quelques années, les assistants virtuels Siri (Apple) & Alexa (Amazon) utilisent également les NLP.

Le Computer Vision

Celle-ci permet aux machines de « voir » et interpréter du contenu visuel, tel que la détection d’objets, la reconnaissance faciale. Les filtres Instagram par exemple sont tirés de cette technologie.

La Robotique Autonome

Grâce à la Robotique Autonome, les robots sont capables d’exécuter des tâches sans intervention humaine. On peut citer comme usage de cette technologie, les livraisons par drones ou encore la chirurgie robotisée. Les robots de Boston Dynamics utilisent notamment ces IA.

Les Systèmes Experts

Ces systèmes sont conçus pour émuler les capacités de décision d'un expert humain dans un domaine spécifique. Des cas d’usages connus sont le diagnostic médical assisté, le conseil financier et la gestion de patrimoine.

La Réalité Augmentée ou Réalité Virtuelle (AR/VR) :

Ces technologies immersives s’appuient sur l’IA pour améliorer l’interaction utilisateur. Cela permet d’améliorer certains jeux vidéo, de former à certains métiers en réalité virtuelle ou encore de créer des filtres Snapchat. Pour ce dernier, l’IA détecte et suit les traits du visage en temps réel, permettant aux lentilles AR de s'adapter et de se superposer de manière dynamique sur le visage de l'utilisateur.

Quelle est la chaîne de valeur de l’IA ?

Cette partie fait référence à l’illustration en début d’article*

Les fournisseurs de hardware

Ces entreprises conçoivent et fabriquent les composants matériels nécessaires pour faire fonctionner les systèmes d'IA, en particulier les puces spécialisées pour le traitement à haute performance. Les plus connues sont les GPU (Graphics Processing Unit) ou les TPU (Tensor Processing Unit) dont les constructeurs sont NVIDIA (leader dans la fabrication de GPU), Intel, AMD, ASML.

Les fournisseurs de cloud

Ils proposent des infrastructures sous forme de service, notamment des capacités de calcul (CPU), de stockage afin d’exécuter les algorithmes à grande échelle et ainsi faire fonctionner l’IA. On parle souvent d’Infrastructure-As-A-Service (IaaS) ou Platform-As-A-Service (PaaS).

Les acteurs majeurs de ce marché sont :

  • Amazon Web Services (AWS) qui propose des gammes spécifiques à l’IA telle que SageMaker pour le Machine Learning.
  • Google Cloud Platform (GCP) avec TensorFlow.
  • Microsoft Azure avec Azure Machine Learning.
  • Ou encore quelques acteurs de plus petite taille comme le français OVH.

Les créateurs d’IA

Ces sociétés développent des algorithmes d’Intelligence Artificielle, des modèles pré-entraînés et des logiciels spécialisés. Les plus connus sont :

  • OpenAI qui a développé les modèles ChatGPT et DALL-E.
  • DeepMind (de Google) : connu pour des solutions comme AlphaGo.
  • Dataiku, la scaleup française connue pour proposer une plateforme de data science qui utilise l’IA.

Les créateurs d’applications ou cas d’usage basés sur l’IA

Ces entreprises prennent les outils et les modèles d’IA et les intègrent dans des solutions concrètes pour résoudre des problèmes réels et spécifiques pour les consommateurs finaux (BtoC) et les entreprises (BtoB). On peut notamment citer :

  • Spotify, qui utilise l’IA pour recommander de la musique.
  • Shift Technology, la scaleup française qui utilise l’IA pour détecter des fraudes dans le secteur de l’assurance.
  • une autre scaleup française qui utilise l’IA pour du renseignement militaire basé sur l’analyse d’image via satellite et drone.
  • Sebra Medical Vision, qui utilise l’IA dans le secteur de la santé pour lire et interpréter les scans médicaux, aidant les radiologues à détecter les maladies.
  • Duolingo, qui personnalise les parcours d’apprentissage en fonction des besoins et des progrès de chaque utilisateur grâce à l’IA.

Quels enjeux pour les prochaines années ?

En conclusion, l’Intelligence Artificielle se développe, se structure et, ainsi, transforme pas à pas l’économie du numérique et notre quotidien. De nombreux enjeux sont à venir : l’éthique et la transparence dans le déploiement de ces technologies, la régulation et la gouvernance, l’importance de créer des modèles non biaisés, justes et inclusifs, la sécurité et les cybermenaces dont l’IA peut être, à la fois la réponse, comme la menace. On peut également citer les enjeux énergétiques associés à la consommation des data centers, l’impact sur les emplois et la formation nécessaire des travailleurs. Aujourd’hui par exemple, l’apprentissage et l’utilisation des LLM actuels comme ChatGPT demandent une quantité massive de ressources en datacenter avec l’impact écologique associé.

Pour illustrer les débats actuels autour de cette technologie, les 3 pères du Deep Learning (prix de Turing en 2018) Yann Le Cun, Yoshua Bengio et Geoffrey Hinton ont exprimé des avis très divergents sur la nécessité d’accélérer ou de geler la recherche en IA afin de réguler les résultats et les usages associés à celle-ci. Les modèles d’IA développés vont devoir répondre à des enjeux de performance, mais également d’efficience.

En tant que Product Manager nous devons apprendre à utiliser ces nouveaux outils dans notre quotidien ainsi que dans l’amélioration continue de nos produits numériques. Découvrez comment dans le prochain article de notre série :

Vers un Product Management 3.0 : L'IA au Service du PM

Ce qu’il faut retenir :

  • L'Intelligence Artificielle (IA) est une technologie qui imite l'intelligence humaine, résolvant des problèmes complexes et prenant des décisions. Elle a évolué depuis Alan Turing jusqu'aux avancées récentes comme le Deep Learning et les Large Language Models (LLM).
  • Il existe plusieurs typologies d'IA, notamment le Machine Learning, le Deep Learning, le Natural Language Processing, la Computer Vision, la robotique autonome, les systèmes experts et la réalité augmentée/virtuelle. Chacune a ses applications spécifiques.
  • La chaîne de valeur de l'IA comprend les créateurs d'applications, les développeurs d'IA, les fournisseurs de cloud et de matériel. Les enjeux majeurs incluent l'éthique, la régulation, l'efficacité énergétique, la sécurité, les impacts sur l'emploi, et la nécessité de créer des modèles non biaisés.
Logo WeFiiT

Le spécialiste du conseil fullstack Produit : Strategy, Discovery & Delivery !

Auteur

Matthieu Pecheul

Co-fondateur de WeFiiT