01/05/2023
La Genèse de L’IA
Les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence”. Dans ce dernier, le mathématicien explore le problème de définir si une machine est consciente ou non. L’officialisation de l’intelligence artificielle comme domaine scientifique date de 1956, lors de la conférence de Dartmouth aux États-Unis, organisée par Marvin Minsky et John McCarthy. Par la suite, ce domaine sera étudié dans de prestigieuses universités comme celles de Stanford, du MIT, ou encore d’Édimbourg.
L'intelligence artificielle : 60 ans d'évolution
L'intelligence artificielle est une branche de l'informatique qui permet aux systèmes d'apprendre et d'exécuter des tâches normalement associées à l'intelligence humaine, telles que la reconnaissance vocale, la prise de décisions ou la perception visuelle.
ip to main content
Qu'est-ce que l'intelligence artificielle et pourquoi est-ce important ?
Centre de connaissances» Santé des données» Qu'est-ce que l'intelligence artificiell…
L'intelligence artificielle (IA) se réveille et frappe à votre porte. Engourdi pendant près 60 ans plus t**d dans une période de moindres recherches et de faibles financements alloués aux innovations, l'hiver de l'IA est enfin terminé. 83 % des entreprises interrogées considèrent l'intelligence artificielle comme une priorité stratégique et 75 % déclarent que l'intelligence artificielle est la clé pour identifier de nouveaux clients et de nouvelles entreprises. L'intelligence artificielle n'est plus un produit de science-fiction. De la détection des fraudes aux méthodes d'embauche efficaces, en passant par la prévision de la maintenance des machines, l'intelligence artificielle est aujourd'hui devenue un facteur d'innovation dans le monde du travail et ses applications quotidiennes.
Vous en voulez en savoir davantage ? Dans cet article, nous aborderons l'évolution de l'IA, nous vous expliquerons son fonctionnement et nous vous aiderons à plaider en sa faveur dans votre entreprise.
L'intelligence artificielle : 60 ans d'évolution
L'intelligence artificielle est une branche de l'informatique qui permet aux systèmes d'apprendre et d'exécuter des tâches normalement associées à l'intelligence humaine, telles que la reconnaissance vocale, la prise de décisions ou la perception visuelle.
Dans les années 50, la réalité de l'intelligence artificielle était au mieux hors de portée : les ordinateurs ne pouvaient pas stocker ou exécuter des informations, et les coûts qui y étaient relatifs étaient astronomiques. C'est alors que le mathématicien Alan Turing a posé une question simple, mais révolutionnaire : « les machines peuvent-elles penser ? ». La réponse, un grand oui, a changé le cours de l'histoire.
Entre les années 50 et 70, l'industrie informatique a pu s'appuyer sur des ordinateurs plus rapides, plus accessibles et moins coûteux. Un article du magazine Life de 1970 mettait en évidence le fait qu'en seulement trois à cinq ans, les machines auraient bientôt la même intelligence qu'un être humain. Pour cela, des avancées majeures en matière de capacité de stockage et de puissance de calcul étaient nécessaires.
Dans les années 80, deux techniques importantes ont été développées. La première, le deep learning, ou « apprentissage en profondeur », a permis aux ordinateurs d'apprendre par l'expérience. Le second, l'expert system, ou « système expert », imite la capacité de l'homme à prendre des décisions. Les ordinateurs ont commencé à utiliser un raisonnement basé sur des « règles » en recourant principalement à une structure « si-alors » mise en œuvre pour répondre à des questions.
En 1997, Dragon Systems a développé et implémenté une solution de reconnaissance vocale sous Windows. Les années 2000 ont été synonymes de débit et d'options de stockage, comme le cloud, catapultant l'utilisation des ordinateurs auprès du grand public et contribuant à placer l'IA sous les feux de la rampe. Aujourd'hui, l'IA est sur une voie express, en raison de trois améliorations sectorielles majeures.
Les unités de traitement graphique (GPU) : la demande dans le monde de la vidéo et des jeux a entraîné le développement de GPU améliorées et moins coûteuses, un élément nécessaire pour la construction de solutions d'IA.
Le Big Data : les algorithmes utilisés par l'IA sont essentiellement « formés » par la grande quantité d'informations présentes dans le Big Data. Ces algorithmes aident ensuite l'IA à traiter ces informations à un rythme incroyable et à rendre les données accessibles et plus utilisables.
Les algorithmes : les algorithmes permettent l'automatisation de tâches que l'on croyait autrefois uniquement possibles grâce à l'intelligence humaine. Les algorithmes s'améliorent continuellement et deviennent plus complexes grâce à l'utilisation de couches avec des variables cachées, qui trient et optimisent les résultats.
Aujourd'hui, l'intelligence artificielle, ou intelligence machine, et les machines dotées d'IA peuvent accomplir les actes suivants :
Reconnaissance vocale
Apprentissage
Planification
Résolution de problèmes
Raisonnement
Perception
Possibilité de manipuler et de déplacer des objets
Amélioration de l'intelligence artificielle : ANI, AGI et ASI
Il existe trois types d'IA :
l'intelligence artificielle étroite (ANI), l'intelligence artificielle générale (AGI) et la superintelligence artificielle (ASI).
L'intelligence artificielle étroite : l'ANI est classée dans la catégorie d'intelligence artificielle faible car elle n'est spécialisée que dans une gamme étroite de paramètres ou de situations, comme la reconnaissance vocale ou les voitures sans conducteur, par exemple.
L'intelligence artificielle générale : l'AGI est considérée comme une intelligence artificielle forte, car elle travaille à un niveau supérieur, qui correspond à l'intelligence humaine.
La superintelligence artificielle : bien que ce type d'IA ne soit actuellement pas développé, l'ASI signifie qu'une machine dispose d'une superintelligence ou qu'elle est plus intelligente qu'un humain.
Journaliste :Charles anthoniel