Matières

Matières

Plus

L’histoire de l’intelligence artificielle

11/05/2023

264

15

Partager

Enregistrer

Télécharger


Introduction
ENS EXPOSE
L'HISTOIRE DE L'INTELLIGENCE ARTIFICIELLE
L'intelligence artificielle, aussi connue sous le nom d'IA, correspond à
l
Introduction
ENS EXPOSE
L'HISTOIRE DE L'INTELLIGENCE ARTIFICIELLE
L'intelligence artificielle, aussi connue sous le nom d'IA, correspond à
l
Introduction
ENS EXPOSE
L'HISTOIRE DE L'INTELLIGENCE ARTIFICIELLE
L'intelligence artificielle, aussi connue sous le nom d'IA, correspond à
l
Introduction
ENS EXPOSE
L'HISTOIRE DE L'INTELLIGENCE ARTIFICIELLE
L'intelligence artificielle, aussi connue sous le nom d'IA, correspond à
l
Introduction
ENS EXPOSE
L'HISTOIRE DE L'INTELLIGENCE ARTIFICIELLE
L'intelligence artificielle, aussi connue sous le nom d'IA, correspond à
l

Introduction ENS EXPOSE L'HISTOIRE DE L'INTELLIGENCE ARTIFICIELLE L'intelligence artificielle, aussi connue sous le nom d'IA, correspond à l'ensemble de logiciels ou d'objets connectés qui reproduisent le raisonnement humain à travers des tâches automatisées et itératives*. L'IA est capable de s'adapter aux informations qu'elle reçoit pour répondre à la demande reçue. La capacité de réflexion et d'apprentissage est au cœur de l'IA. En parallèle des recherches scientifiques et des avancées technologiques, la culture s'est également emparée du domaine de l'IA, créant des personnages romanesques, des films de science-fiction ou encore des mythes autour du robot et de la machine. Nous ne sommes qu'au début de l'IA, une technologie révolutionnaire qui se trouve déjà dans notre vie quotidienne, par exemple avec Siri, que l'on appelle par un prénom humain. En effet, si l'histoire de l'IA remonte à l'Antiquité, où les philosophes grecs et romains ont commencé à réfléchir à la possibilité de créer des machines capables de penser et de raisonner comme les humains. Il a fallu attendre le XXe siècle pour que les premières recherches sérieuses en IA soient menées. Ainsi, le terme « intelligence artificielle»> lui-même est très récent, puisqu'il a été créé en 1955 par John McCarthy. * la machine effectue la même tâche plusieurs fois en utilisant différentes données pour optimiser les résultats ou pour s'adapter à un environnement changeant ex: IA...

Rien ne te convient ? Explore d'autres matières.

Knowunity est la meilleure application scolaire dans cinq pays européens.

Knowunity a été mis en avant par Apple et a toujours été en tête des classements de l'App Store dans la catégorie Éducation en Allemagne, en Italie, en Pologne, en Suisse et au Royaume-Uni. Rejoins Knowunity aujourd'hui et aide des millions d'étudiants à travers le monde.

Ranked #1 Education App

Chargement dans le

Google Play

Chargement dans le

App Store

Knowunity est la meilleure application scolaire dans cinq pays européens.

4.9+

Note moyenne de l'appli

13 M

Les élèsves utilisent Knowunity

#1

Dans les palmarès des applications scolaires de 11 pays

900 K+

Les élèves publient leurs fiches de cours

Tu n'es toujours pas convaincu ? Regarde ce que disent les autres élèves ...

Louis B., utilisateur iOS

J'aime tellement cette application [...] Je recommande Knowunity à tout le monde ! !! Je suis passé de 11 à 16 grâce à elle :D

Stefan S., utilisateur iOS

L'application est très simple à utiliser et bien faite. Jusqu'à présent, j'ai trouvé tout ce que je cherchais :D

Lola, utilisatrice iOS

J'adore cette application ❤️ Je l'utilise presque tout le temps pour réviser.

Légende alternative :

de reconnaissance vocale, peut être entraînée à identifier des mots à partir de plusieurs échantillons vocaux aux différents accents => + fiable et précise I. Les débuts de l'IA Les débuts de l'IA remontent à l'Antiquité. A cette époque, des philosophes grecs et romains ont commencé à explorer la notion de raisonnement logique et de machines automatisées. On peut citer Héron d'Alexandrie, qui a créé plusieurs machines, dont une machine à vapeur et un automate capable de chanter et de jouer de la flûte. Bien que les machines antiques ne soient pas directement liées à l'IA, elles ont posé les bases de la mécanique et de l'automatisation. Les développements philosophiques et mathématiques ont également contribué à la naissance de l'IA en tant que domaine de recherches scientifiques. Parmi les penseurs les plus influents, Leibniz, qui a créé un système logique formel*, capable de résoudre des problèmes. Cependant, c'est à partir des années 1950 qu'apparaît ce qu'on considère aujourd'hui comme un fondement essentiel de l'IA: le concept de la « machine de Turing », proposé par Alan Turing, un mathématicien et informaticien britannique, qui est un modèle théorique de calcul. Celle-ci peut effectuer des calculs et résoudre des problèmes en utilisant des règles logiques, ce qui se rapproche effectivement beaucoup des IA que nous connaissons aujourd'hui. En parallèle, d'autres chercheurs ont commencé à développer l'idée de créer des « machines intelligentes » capables de résoudre des problèmes logiques et d'apprendre à partir de l'expérience. Ainsi, en 1956, John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon ont organisé la célèbre conférence de Dartmouth, qui est considérée comme le point de départ de la recherche en IA moderne. Au cours des années 1950 et 1960, les chercheurs ont également développé le langage Lisp, un langage de programmation qui a été largement utilisé dans la recherche en IA. Lisp était conçu pour permettre aux ordinateurs de manipuler des symboles et d'effectuer des opérations symboliques*, ce qui était une opération importante vers la création de systèmes d'IA capables de comprendre et de manipuler le langage humain. Cependant, à cette époque, les avancées en IA étaient principalement théoriques et limitées par les capacités de calcul des ordinateurs de l'époque. En outre, les chercheurs ont réalisé que pour progresser dans le domaine de I'IA, il était nécessaire de développer des méthodes et des algorithmes d'apprentissage automatique* pour permettre aux machines d'apprendre à partir de l'expérience, comme le font les humains. *ensemble de règles et de principes utilisés pour déduire de nouvelles informations à partir d'un ensemble existant de propositions ou d'axiomes. (logiques mathématique et philosophique) *opération mathématique effectuée sur des expressions symboliques plutôt que sur des nombres spécifiques. Elles contiennent des symboles qui représentent des quantités ou des variables inconnues plutôt que nombres. (les expressions mathématiques, résoudre des équations et effectuer d'autres tâches mathématiques sans avoir besoin de connaître les valeurs numériques spécifiques des variables.) * branche de l'intelligence artificielle qui permet aux ordinateurs d'apprendre à partir de données, sans être explicitement programmés pour résoudre une tâche donnée. = le système informatique est capable de s'améliorer en apprenant de nouvelles informations et de nouvelles données, sans que les développeurs aient besoin de spécifier exactement comment cette amélioration doit se produire. (nombreuses applications, telles que la reconnaissance de la parole, la recommandation de produits, la détection de fraude et la conduite autonome.) II. L'essor de l'IA En 1956, la recherche en IA a connu un essor important avec l'émergence de nouvelles approches, telles que la logique floue, les réseaux neuronaux artificiels et les systèmes experts. Ainsi, en 1956, les chercheurs Allen Newell et Herbert Simon ont créé le programme << Logic theorist » qui pouvait résoudre des théorèmes mathématiques. Cette réalisation a posé les bases de l'IA. En 1957, le psychologue Frank Rosenblatt a inventé le « Perceptron », qui a permis de créer le premier programme d'apprentissage automatique à partir d'un réseau de neurones simples. Dans les années 1980 et 1990, il y a eu des avancées significatives dans la vision par ordinateur, la reconnaissance vocale et la recommandation de contenu en ligne grâce au développement de nouvelles méthodes d'apprentissage supervisé*. En 1997, << Deep Blue », l'ordinateur d'IBM*, a battu le champion du monde d'échecs, Garry Kasparov, démontrant ainsi la capacité de l'IA à surpasser les capacités humaines dans des domaines spécifiques. En 2011, le « Deep Learning »* a été popularisé avec la création du réseau de neurones convolutifs* « AlexNet » par Yann LeCun. Cette avancée a permis de faire des progrès significatifs dans la reconnaissance d'image et l'analyse de données complexes. En 2015, Google a créé le programme « AlphaGo », qui a battu le champion du monde de GO, Lee Sedol. Cette victoire a montré que l'IA était capable de battre les meilleurs joueurs de jeux de stratégie. Enfin, en 2020, le lancement de GPT-3, un modèle de langage basé sur l'IA, a montré une capacité impressionnante à comprendre et à produire du langage humain naturel. Il a ouvert de nouvelles possibilités pour les applications de l'IA dans le traitement du langage naturel. Ces différents évènements ont permis de faire des avancées significatives dans les capacités de l'IA, en utilisant des méthodes d'apprentissage automatique et en développant des algorithmes plus sophistiqués. Ils ont montré la capacité de l'IA à surpasser les capacités humaines dans des domaines spécifiques et ont ouvert de nouvelles possibilités pour les applications de l'IA dans des domaines tels que la reconnaissance d'images, le traitement du langage naturel et les jeux de stratégie. *une méthode d'apprentissage automatique utilisée pour résoudre des problèmes tels que la classification, la régression, la prédiction. *entreprise américaine spécialisée dans les technologies de l'information et de la communication (International Business Machines) *méthode d'apprentissage automatique basée sur des réseaux de neurones artificiels profonds, qui permettent de traiter de grandes quantités de données et de reconnaître des modèles complexes. Cette méthode est particulièrement efficace pour des tâches telles que la reconnaissance d'images et la reconnaissance vocale, et a permis des avancées significatives dans ces domaines au cours des dernières années. *type de réseau de neurones artificiels conçu pour traiter des données en grilles, telles que des images ou des signaux audios. Utile pour la reconnaissance d'image par ex. III. L'IA moderne et les défis actuels Au cours de la dernière décennie, l'intelligence artificielle a connu une évolution rapide grâce à l'émergence du big data* et du cloud computing*, qui ont permis de stocker et de traiter de grandes quantités de données. Cette évolution a conduit au développement de nouvelles approches d'apprentissage automatique (déf ds 1.*) telles que l'apprentissage non supervisé*, l'apprentissage par renforcement* et l'apprentissage en ligne. Les améliorations techniques ont permis de développer la performance des algorithmes, nous sommes aujourd'hui dans l'ère du deep learning. (déf ds II.*) L'IA est désormais omniprésente dans notre vie quotidienne, elle nous offre des applications pratiques dans de nombreux secteurs, notamment la santé, la finance, le commerce électronique, la publicité en ligne et les réseaux sociaux. Cependant, l'utilisation de l'IA soulève également des questions éthiques et sociales importantes, telles que la vie privée, la sécurité et l'automatisation de certains emplois. Ainsi, les chercheurs et les décideurs de notre époque travaillent sur les manières dont nos sociétés peuvent et doivent utiliser l'IA, et de leurs décisions dépend l'avenir de notre relation à l'IA. Mais malgré les défis éthiques et sociaux importants que pose l'IA, celle-ci continue de se développer rapidement et est aujourd'hui utilisée dans de nombreux secteurs. En 2017, 99% des plus grosses entreprises du monde avaient déjà investi dans l'IA. *terme utilisé pour décrire de très grandes quantités de données qui sont générées à un rythme élevé et nécessitent des technologies et des outils spécifiques pour être stockées, traitées et analysées. *modèle informatique permettant d'accéder à distance à des ressources informatiques telles que des serveurs, des applications, des données et des services, via Internet. *méthode d'apprentissage automatique où le système est capable de découvrir des structures, des modèles et des relations dans les données d'entrée sans être guidé par des étiquettes ou des réponses correctes préalablement définies. *méthode d'apprentissage automatique qui repose sur le principe de récompense et de punition. Le système apprend à travers des interactions répétées avec son environnement et des feedbacks en temps réel. Il doit identifier les actions qui maximisent une récompense donnée en fonction de l'état actuel de l'environnement. (robotique, les jeux vidéo, la planification de trajets et la gestion de portefeuilles financiers) *méthode d'apprentissage automatique où le système est capable d'apprendre en temps réel à partir de flux de données continus. Il permet au système de s'adapter et d'évoluer au fur et à mesure que de nouvelles données sont disponibles. (applications telles que la prédiction de la prochaine action d'un utilisateur, la détection de fraudes dans les transactions financières ou encore la surveillance de réseaux) Conclusion En conclusion, l'histoire de l'intelligence artificielle remonte à l'Antiquité, mais c'est dans les années 1950 que les premières recherches sérieuses ont été menées. Les avancées ont été principalement théoriques, mais les chercheurs ont compris qu'il était nécessaire de développer des méthodes et des algorithmes d'apprentissage automatique pour permettre aux machines d'apprendre à partir de l'expérience, comme le font les humains. Aujourd'hui, I'IA est omniprésente dans notre vie quotidienne, des assistants vocaux aux voitures autonomes, et les possibilités d'applications futures sont vastes. Les débats éthiques autour de l'IA sont également de plus en plus nombreux, car l'utilisation de l'IA pose des défis et des risques importants. L'IA est donc une technologie en constante évolution qui continuera d'avoir un impact sur la société et la façon dont nous vivons et travaillons.