Intelligence artificielle, nouvelles frontières du mythe

Intelligence artificielle, nouvelles frontières du mythe

Intelligence artificielle, nouvelles frontières du mythe

Ce n’est plus une question d’utopie ou de projection dans le futur, l’intelligence artificielle est une réalité. La question est d’une telle contemporanéité qu’il est maintenant difficile de cerner clairement les limites de cette technologie. Imaginée sous plusieurs formes, soumise à plusieurs tâches, l’intelligence artificielle est aujourd’hui omniprésente dans notre quotidien. Le progrès a été si rapide que l’on s’est à peine rendu compte de la place grandissante de ce que beaucoup craignait il y a des décennies avant, redoutant parfois qu’elle plonge notre monde dans une dystopie ou une servitude technologique. Toutefois, les craintes n’ont pas été évincées ; les discours militants, eux, continuent d’être nourris par la fascination. Comment s’est développée l’intelligence artificielle ? Où en sommes-nous dans son exploitation ? Les enjeux ont-ils changés ?

Alan Turing, sourirait en voyant un jeune adolescent demander l’heure à un gadget. Il serait encore plus souriant en observant cet individu maintenant suffisamment autonome pour être socialement indépendant dans des tâches d’apprentissage ou de réalisations d’actions, à son époque, impossibles sans l’apport physique ou moral/intellectuel humain. Notre monde est « assisté ». Conduite, apprentissage, médecine, guerre, il est de plus en plus difficile de trouver des zones vides qu’investies par l’intelligence artificielle. Avant d’en venir à sa genèse, penchons-nous d’abord sur une définition conceptuelle de cette technologie afin d’en connaître les contours.

l’intelligence artificielle c’est quoi ?

Le terme dénominatif est composé de deux noms « intelligence », désignant selon le Larousse « l’aptitude humaine de s’adapter à une situation, à choisir des moyens d’action en fonction des circonstances (…), à manifester dans un domaine un souci de comprendre, de réfléchir, de connaître. » Le groupe nominal est aussi composé du terme « artificiel », défini comme le produit de l’activité humaine, de son habileté, par opposition au naturel. Le bon sens reviendrait par conséquent à déduire que l’intelligence artificielle serait donc une reproduction par l’homme de son aptitude, sa capacité ou faculté à réfléchir à penser, dans un domaine donné. Les définitions les plus usuelles ne s’éloignent pourtant pas de cette déduction. En effet, le Larousse définit lui-même l’intelligence artificielle comme un « ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence. » Cette définition complète notre déduction en introduisant un élément essentiel : le support. Cette « copie » d’intelligence se fait donc sur un support sur lequel elle est amenée à évoluer, à s’adapter. L’intelligence artificielle devient sous cet angle un phénomène pouvant provoquer fascination à qui comprend son esprit. Transférer la capacité aussi complexe de penser, de réfléchir à une machine paraît même relever de la science-fiction et pourtant nous vivons à une époque conquise par cette technologie. La définition du Larousse montre aussi que l’homme n’est pas encore totalement arrivé à sa fin. Ce qui le prouve, ce sont les idées limitées au statut de théories, c’est-à-dire de concepts ou d’hypothèses. En outre, l’on pourrait dire que l’intelligence artificielle est peut-être toujours en phase de croissance car n’arrivant pas encore à s’étendre totalement ou pas du tout à des domaines où la main de l’homme intervient toujours. Cependant, il ne faudrait pas négliger ses premiers pas aux allures révolutionnaires. En parlant de révolution, cette technologie était déjà envisagée sous ce statut il y a environ plus de 68 ans.

Là où tout a commencé

A ses débuts, dans les années 1940, l’intelligence artificielle était limitée certes à une strate de théories et d’hypothèses, mais son esprit de base avait déjà été pensé et malgré les contraintes techniques de l’époque, la matière commençait à prendre forme. Tout a commencé dans les années 40, époque de recherche sur les sciences de l’information et de la communication mais aussi ou naturellement des technologies de ces deux éléments.  Dans un contexte caractérisé par des tensions géopolitiques majeures les pays du globe ou plutôt ceux que l’on appelait « superpuissances » s’étaient inscrits dans une course à la connaissance à l’apport pratique assez conséquent pour leur donner de l’avance sur leurs rivaux.  C’est ainsi qu’aux Etats-Unis, est née la théorie de la cybernétique. Pensée par Norbert Wiener, professeur de mathématiques au MIT (Massachussets Institut of Technology), elle s’intéresse à comment faire en sorte de créer un schéma circulaire de communication entre l’homme et la machine ou entre machines. Cela consistait à créer des mécanismes permettant à des machines de recevoir des informations, de les traiter et de fournir des requêtes de réponses : technique de base de l’automatisation. La cybernétique a beaucoup participé à l’effort de combat lors de la seconde guerre mondiale. « Associée aux efforts militaires américains de la Seconde Guerre mondiale, la Cybernétique de Wiener a contribué à l’efficacité de la D.C.A (défense contre les aéronefs) américaine car l’ayant permis de rater le moins possible ses cibles grâce à la notion de rétroaction. A l’aide de ce système de rétroaction sous forme d’échos en retour, la D.C.A américaine pouvait savoir si ses cibles étaient atteintes ; si ce n’était pas le cas, elle s’ajusterait à nouveau et effectuerait d’autres tirs jusqu’à atteindre celles-ci. »  (Mohamed Faye, Abdoulaye Mange, Marième Gueye Kébé, Khadida Lopez in Théorie cybernétique de Norbert Wiener, apports et limites – 2015) Les recherches ne s’en limitèrent pas à ce point. Les chercheurs de l’époque continuent de se questionner et d’expérimenter des procédés afin de reproduire l’activité cérébrale mais sans succès majeur. En 1943, Warren Mc Culloch et Walter Pitts tous deux neurologues proposent de rêver moins grand. Reproduire une activité si complexe que celle du cerveau était pour eux tenter d’enlever l’épée d’Escalibur. Ils proposent de réduire le champ de réflexion en concentrant leur approche sur la plus petite unité de base du cerveau : le neurone. Ces deux chercheurs introduisent le neurone formel, un modèle mathématique du neurone naturel humain qui schématise l’activité non pas globale mais interne du cerveau humain. C’est ainsi qu’est né le connexionnisme qui désigne ce courant de recherche qui s’intéresse à ce domaine précis. Ce courant sera suivi du cognitivisme, plus tard, en 1949. Ce principe introduit par Donal Hebb stipule que les neurones formels peuvent être dotés de capacité d’apprentissage au sens où « quand un axone de la cellule A est assez proche pour exciter B et participe de façon répétée ou persistante au tir, une certaine croissance processus ou changement métabolique a lieu dans une ou les deux cellules de telle sorte que l’efficacité de A, en tant que cellule allumant B, soit augmentée ». (The organization of behavior, 1949) Dans la même année, Warren Weaver (1894-1978), mathématicien, scientifique, émet une théorie sur les bases linguistiques communes à toutes les langues pour une application informatique menant à la traduction automatique. Il a fallu attendre cinq années pour voir apparaître le premier programme de traduction automatique. Développé à l’université de Georgetown, il avait une capacité de traduction de 10 phrases sur une base de 250 mots en s’appuyant sur 6 règles de grammaire. Cependant, le véritable bond en avant ou plutôt l’an 1 de l’intelligence artificielle a été écrit en 1950 par Alan Turing. Ce mathématicien cryptologue né en 1912 et mort en 1954 a tracé les premières lignes de l’intelligence artificielle à travers son article Computing Machenery and Intelligence.  Ce scientifique méconnu du grand public malgré ses apports considérables pour la science a introduit pour la première fois la notion de conscience dans le vocabulaire de l’informatique.  Sa vision de l’avenir de l’informatique lui a fait prédire que l’homme ne fera plus la différence entre la réponse donnée par un être humain et celle par une machine. Si vous avez une fois entendu du terme « chatbot », vous vous direz sûrement « il avait raison. ».

L’évolution de inintelligence artificielle

L’intelligence artificielle a grandi depuis l’époque de Turing. Le progrès a été rapide. De la simple assistance vocale à la voiture autonome, il ne s’est pas écoulé des décennies. Chatbot, traduction automatique, objets connectés, véhicules autonomes et même de plus en plus les smartphones, l’intelligence artificielle est quasi omniprésente. Les choses vont certes très vite, nous faisant même penser que le futur a été anticipé. Cependant, cette intelligence artificielle doit être relativement appréhendée. En effet, Philippe Roussière distingue deux types d’intelligence artificielle : une intelligence artificielle dite « faible » et une intelligence artificielle dite « forte ». La première est celle que l’on vit actuellement. Elle fait allusion à la coercition homme-machine. C’est une intelligence artificielle contrôlée par l’homme car il invente lui-même les conditions et les actions réalisés par le dispositif. Les machines sont donc limitées à n’exécuter que ce qui leur est assigné de faire. Elles s’adaptent certes à des situations différentes mais programmées/prévues par les concepteurs. Les réactions informatiques sont donc déjà connues. C’est par exemple la capacité d’un bracelet connecté à détecter les variations de température ou de tension d’un individu souffrant pour lancer une alerte ou simplement l’envoi d’informations sur les constantes du patient. A côté de cette intelligence dite « faible », existe une autre dite « forte ». Elle correspond à l’autonomie totale des dispositifs qui selon leurs propres jugements exécutent des actions. Ce stade avancé est actuellement l’objectif de recherche des grandes firmes de l’informatique. C’est en quelque sorte la véritable intelligence artificielle. Elle fait allusion à la capacité des machines de réfléchir, de penser. Selon Philippe Roussier, nous sommes loin de ce qu’il qualifie comme un rêve. En effet, cette forme d’intelligence artificielle en est au stade expérimental. La DARPA (Denfense Advanced Research Projects Agency), pôle de recherche de l’armée des Etats-unis a investi des fonds importants dans la recherche sur l’intelligence artificielle. Elle a comme objectif de doter ses drones et autres équipements de capacité du sens commun et du sens de discernement. Il s’agit dans un futur proche de faire en sorte qu’une machine puisse, dans une situation de choix cruciaux, prendre une décision et expliquer de façon claire la pertinence de l’action. Dans un communiqué de presse intitulé Ai Next, l’agence exprime sa volonté par ces mots : « (…) les machines sont bien plus que de simples outils exécutant des règles expérimentées par des humains. Les machines que la DARPA envisage fonctionneront plus comme des collègues que comme des outils. » Cette dimension de l’intelligence artificielle nous pousse à nous interroger sur les enjeux de cette technologie qui, quels que soient sa forme ou type – faible ou forte, peut inquiéter.

l’impact de l’intelligence artificielle dans notre quotidien

De prime abord, envisagé à l’échelle de l’individu comme acteur social, l’intelligence artificielle pourrait, et l’on commence même à vivre cette situation, l’isoler de ses réseaux de relations traditionnels. L’aliénation technologique est le premier enjeu envisagé quand on parle de développement technologique et ce n’est pas pour rien que plusieurs penseurs émettent des réflexions là-dessus. En effet, l’idée de l’omniprésence de dispositifs intelligents et autonomes dans le quotidien de l’individu ne donne pas une vision « humaine » de la société pour le futur. Le phénomène des réseaux bien que minime comme exemple peut nous servir de référence. Nous sommes hypnotisés par nos smartphones qui servent de ponts pour atteindre ces autres mondes virtuels. Mounir Mahjoubi, secrétaire français d’Etat chargé Numérique avait déclaré dans une interview sur un média français (RTL) qu’il ne serait pas fermé à proposer une loi pour limiter le temps passé sur ces plateformes. Il affirme son dessein en ces termes : « ce que je souhaite, c’est que l’on puisse culturellement se dire « c’est quoi le rapport qu’on a vis-à-vis des écrans » et s’il y a besoin, pourquoi pas une loi. » Cependant, l’apport social ne doit pas être négligé. En effet, l’intelligence artificielle, grâce au principe de l’automatisation permet de gagner du temps et de l’effort au sens où elle décharge l’homme de certaines tâches qu’elle a parfois la capacité de réaliser plus efficacement.

Ensuite, envisagé dans le domaine de l’entreprise, l’intelligence artificielle est une garantie d’une hausse de la productivité et d’une qualité de production matérielle ou immatérielle. Cela fait référence notamment à la production concrète d’objets physiques comme dans l’industrie automobile ou à la production de données comme dans le domaine du marketing.  Concernant les enjeux économiques, nul besoin de développer d’innombrables lignes sur ce qui après le big data, est une potentielle mine d’or. Les chiffres en termes d’investissement sont énormes. La DARPA à elle seule a injecté 2 milliards de dollars dans la recherche sur cette technologie. Facebook, le géant américain a récemment investit 10 millions d’euros pour ce domaine en France. Il est clair que les géants du domaine de la science et de la technologie se sont lancés dans une sorte de course vers l’amélioration de cette technologie pour leurs intérêts. En parlant d’intérêt, les enjeux géopolitiques ne doivent pas aussi être ignorés. Il est de l’intérêt de tout Etat, dans un objectif de positionnement confortable d’être suffisamment à jour ou parfois en avance concernant le progrès technologique. La DARPA en est l’exemple le plus pertinent. Les États-Unis à travers ce développement technologique réaffirmeraient leur statut de superpuissance et seraient plus à même d’exercer leur poids de pression lors de situations de négociations d’enjeux mondiaux dans les tribunes internationales.

L’intelligence artificielle est aujourd’hui omniprésente. Mais contrairement à ce que pourrait laisser croire ce décor caractérisant notre époque, cette intelligence artificielle est comme qui dirait « modérée. » Cela nous renvoie à nos lignes précédentes : notre monde est « assisté ». L’intelligence artificielle n’a donc pas encore totalement pris le contrôle. Elle a su grandir avec son histoire, nous faisant parfois croire qu’elle anticipe son futur. L’intelligence artificielle évolue à un rythme compréhensible et tout à fait naturel car son principe est révolutionnaire. Son développement ne peut être long car chaque pas est important. Ses perspectives laissent d’ailleurs des enjeux parfois ambigus pour certains domaines mais contrairement à ce qu’elle pourrait laisser imaginer, c’est l’homme qui écrit les lignes du code.

Mohamed Faye

 

 


Décrivez-nous votre besoin !