(A LIRE) L'intelligence artificielle n'existe pas ?
L'intelligence artificielle n’est pas !
La semaine dernière j’ai assisté à une présentation concernant «l’intelligence artificielle» se terminant par l’hypothèse qu’elle pourrait dépasser l’intelligence humaine …
Le présentateur, un chercheur d’Université, commençait par la définition de l’intelligence en se restreignant à la capacité d’innover et de s’organiser en groupe (« comportements multi agents ») pour répondre à des besoins individuels.
L’intelligence humaine c’est la capacité à connaître, comprendre et agir en s’adaptant à ses environnements variés et variables. Elle se distingue de celle des mammifères par cette capacité à agir en fonction de projections dans le futur tout en s’adaptant à ses environnements évolutifs (grâce à la sixième couche de Néo-Cortex essentiellement, qui abrite aussi la capacité d’humour :o). Certains mammifères se distinguent des autres animaux par leur conscience (de soi : se reconnaître dans une glace comme les dauphins et certains chimpanzés, et, à un niveau inférieur, des autres, comme la gazelle qui s’enfuit devant le lion ou la lionne qui va protéger et défendre ses bébés).
Comme j’ai pu le proposer dans d’autres articles, cette intelligence humaine se nourrit à partir des sens qui amènent de la « data » et la gestion complexe de ces données par le sixième sens, l’émotion, qui va coordonner tout cela vers une intention.
Les animaux et les plantes peuvent être sujets à l’émotion (musicothérapie pour les vignes et les vaches …) et la partager (zoothérapie, bain de forêt …), mais cette émotion, alimentée par moins de sens primaires, est moins complexe, moins pertinente dans ses décisions et ses capacités d’action sont, de toutes façons, très réduites physiquement.
Les machines ont-elles une intelligence ? Non ! Elles ont une grande capacité de récolte des « big data » et de traitement à partir d’algorithmes probabilistes, mais sont incapables d’émotion, donc d’adaptation instantanée à un environnement variant de façons imprévisibles.
Elles peuvent créer et même innover (de la musique ou des tableaux par exemple) selon des règles dictées par l’homme, mais ces œuvres non puisées dans l’émotion pourront-elles en créer ? Probablement pas ! Elles pourront utiliser des algorithmes de mimétisme, le nombre d’or et les fractales pour faire des choses « parfaites » mais il manquera le petit défaut, la petite caractéristique qui donne de l’âme au système.
Donc parler « d’intelligence artificielle » est une impropriété terminologique à but commercial ; Il est bien évident qu’il est préférable de dire qu’on travaille dans l’intelligence artificielle que dans la bêtise naturelle comme pourrait s’en vanter un psy !?
La machine dépassera- t-elle l’homme ? Le présentateur s’appuie sur une affirmation de Steven Hawking qui n’a pas dit que des bêtises, mais ici je n’ai pas envie de le suivre. C’est déjà fait avec l’informatique en termes de capacité volumique de données et de traitement, mais surement pas en tant qu’intelligence. Bien sûr on a déjà des véhicules autonomes, capables d’analyser des situations physiques et de s’adapter en fonction des algorithmes définis par l’homme. Il y a des machines « apprenantes » à partir de règles dictées aussi par l’homme. Mais c’est un abus de langage de qualifier cela d’intelligence. Appelons les automates prédictifs, robots (ou bots c’est plus « disruptif » :o), mais pas intelligence pour des objets programmés qui « n’en ont pas un échantillon sur eux » !
Un premier exemple de bêtise artificielle est le « maketing push » qui s’inspire de nos pages ouvertes sur le web pour nous les jeter à la figure à chaque fois que l’on ouvre une nouvelle page. Au départ l’idée peut sembler intéressante … les deux premières fois on se dit « ah oui … ! » mais quand cela devient du harcèlement on finit par se dire « ah non ! … jamais plus avec eux ! ». Le data bot n’a pas d’émotion mais peut en provoquer … pas nécessairement celles escomptées.
Mon deuxième exemple est emprunté à l’orateur de cette conférence. Il s’agit de la cycliste traversant à pied et écrasée par un véhicule autonome. Sa démonstration était que le véhicule avait pris la meilleure décision en fonction des paramètres et algorithmes qui l’alimentaient ; et qu’il s’agissait d’un cas accidentel isolé. Certes mais cela montre bien que l’homme est supérieur à la machine pour prendre la meilleure décision. On pourra toujours revoir les algorithmes pour améliorer la réaction mais jamais on ne pourra intégrer l’émotion. Par exemple, le même jour à la même heure que l’accident, dans la même situation, j’arrive dans ma voiture esclave. Je vois cette personne traversant avec son vélo à la main … j’aurai évalué quelques secondes avant ce que le piéton est en train d’amorcer et je me préparerai pour freiner assez tôt ! Toutefois, supposons que cette personne soit mon ennemi préféré qui a mis un contrat sur ma tête ….Oups ! Je vais accélérer pour bien l’écraser !!! Et là « l’intelligence artificielle » peut toujours s’accrocher elle ne sera pas capable de cette capacité d’adaptation émotionnelle.
Les seules inquiétudes que nous pouvons avoir se situent au niveau de la propriété et gestion des données, mais la RGPD est déjà un premier pas, ainsi que de la création des algorithmes en respect de l’éthique … et là il y a du travail.
Les machines n’auront jamais d’humour !
Commentaires6
Vous n'avez pas les droits pour lire ou ajouter un commentaire.
Articles suggérés