27 novembre 2017

IA : L'intelligence artificielle forte.

Les spécialistes de l’Intelligence Artificielle (IA) distinguent l’IA "forte" de l’IA "faible". Il n’est évidemment pas question ici de puissance, mais d’une forme "épistémologique" de la discipline privilégiant l’inspiration d’imitation ou celle d’indépendance du fonctionnement de l’Intelligence Naturelle (IN). 
Plus exactement, la première forme d'IA désigne l'intelligence d'une machine, ordinateur, drone ou robot, la plus similaire possible à l'intelligence des êtres humains, conçue comme étant issue de choses simples combinées entre-elles, pour arriver à des choses compliquées, voire complexes dans le cas de productions émergentes. Ces productions potentielles permettraient alors à la machine la plus sophistiquée, pour l'heure théorique, d'être dotée de "conscience", allant jusqu’à pouvoir éprouver des besoins, des émotions et des sentiments. Cet automate imitatif pourrait à un certain niveau de complexité penser lui-même, croire que son existence bien qu’artificielle, et cela avec ou non l’intervention de composants naturels dans le cas de constructions "hybrides", soit d’essence animale ou même humaine. 
 Ce problème de la "conscience" doit être conçu à deux dimensions : celle de la "conscience de soi" et celle de la "conscience de situation". La première permet à l’automate de considérer sa propre existence comme "personnelle", unique et inscrite dans une forme d’expérience du passé et d’une ambition du futur, et la seconde, permettant l’appréciation des caractéristiques du milieu environnement physique, relationnel humain, hybride ou artificiel, est constitutive du sentiment de la différence entre "soi" et "non soi". Ces deux dimensions concurrentes sont constitutives d’une forme de "compréhension" de ses propres "raisonnements", d'une "métacognition", et de l’émergence d’un "sens moral", c'est-à-dire d'un jugement porté sur ses propres pensées, comportements et intentions. Pour un tel projet, il convient de distinguer les deux formes incompatibles de l’IA que sont le "symbolisme" et le "connexionnisme". 
Dans le premier cas, un programme exprimé dans un langage interne manipulant des symboles selon des règles d’une grammaire bio inspirée, hybride, ou complètement artificielle, permet l'expression d’éléments émergents, non strictement programmés. Il doit cependant disposer de caractéristiques fondamentales telles que de la mémoire, des capacités d’apprentissage, une logique interne et une forme de motivation à la "survie" et à l’appétence "cognitive". Ce programme doit donc être en mesure d’emmagasiner des informations et d’y adapter son propre fonctionnement, avec une "motivation" à s’enrichir lui-même. Un programme autonome intelligent qui reste dans son coin sans rien faire et rien connaître de son environnement ne sert à rien, ni pour lui ni pour d’autres. Il peut rester temporairement en sommeil, mais doit pouvoir être "réveillé" en fonction de l’apparition des circonstances qui permettraient son "intégration" environnementale. Les spécialistes de l’IA imaginent qu’un tel programme commence avec des concepts simples pour les combiner selon des règles de logique, et ainsi arriver à l’expression de comportements complexes. Certains informaticiens s’inspirent de l'apprentissage de l’enfant qui s’adapte et apprend de son environnement physique et relationnel, pour programmer une "aptitude cognitive". Celle-là n’est pas suffisante sans une "motivation" qui entraîne le programme lui-même à s’auto-enrichir. Le programme assemble alors entre eux des éléments simples pour produire des éléments qui le sont moins, et ainsi de suite. Ces éléments sont des représentations de l’environnement ou d'éléments de logiques, c’est-à-dire des symboles. La perspective évolutive est ici non prévue, même si elle peut être incitée, et les connaissances comme les représentations ou les réactions ultérieures ne sont pas contenues dans le programme initial. Il y a bien "émergence" des éléments d’intelligence ; cette émergence peut être hiérarchisée en niveaux allant de l’inventaire des éléments de base jusqu’aux concepts les plus sophistiqués ou même, le cas échéant, jusqu’à la conscience de soi et celle de son environnement. 
L’approche connexionniste s’affranchit quant à elle de la présence d’un programme interne manipulant des symboles. Elle s'affranchit également d'une mémoire déclarative contenant des symboles et surtout d'une horloge qui règle les séquences des itérations internes comme dans une architecture Von Neumann. Seules les caractéristiques organisationnelles, fonctionnelles et structurales, de la machine sont définies au départ. Ce sont les capacités de modifications internes de l’automate qui permettent une "auto-organisation" interne, intimement couplée avec l’environnement, capable d’en détecter les modifications et de s’y adapter en fonction de cette transformation interne. Les réseaux de la machine sont évolutifs et peuvent se doter de nouvelles connexions ou même de nouveaux composants par enrichissement circonstanciel. La machine peut alors, dans un cas théorique parfait, recruter d’autres machines ou même des hommes pour partager un patrimoine informationnel commun ou réparti en fonction des besoins. Le système de couplage environnemental est ici au centre d’un fonctionnement auto-émergent et peut, dans un cas idéal promu par certains spécialistes de l’IA connexionniste, s’auto-enrichir et s’autoproduire selon le principe d'une "autopoïèse", c'est-à-dire d'une propre production de soi. L’apprentissage connexionniste se fait en deux processus concurrents et concourants : imprégnation, et enrichissement. Il n’y a pas à proprement parler de mémoire déclarée en symboles dans un programme formel. Les symboles ne sont ici que l'expression de la machine capable de lire certains de ses états internes. Cette expression est structurée par une grammaire qui émerge des contraintes structurales et fonctionnelles de l’automate, ainsi que de l’environnement dont la machine à "conscience" ; elle n’est pas en elle, ni implémentée ni incarnée, mais s’exprime dans l’intégration machine-milieu. Dans le connexionnisme, la mémoire prospective résulte de la disposition de nouveaux réseaux ou la modification d’anciens, la mémoire rétrospective dans le maintien de configurations existantes, qui peuvent ou non être réutilisées, remobilisées de manières complète ou partielle. Ce recyclage explique ainsi des phénomènes quasi naturels d’amnésie et de modulation des souvenirs. 
De manière concrète, la plupart des programmes d’IA dite "ascendante" correspondent actuellement à des architectures comportant plusieurs éléments simples reliés entre eux, à l'imitation du vivant, mais implémentés sur des structures de calcul symbolistes (architecture Von Neumann). On joue à faire "comme si" c'était vivant. Même si c’est l’interaction entre les éléments qui dicte le fonctionnement du programme, celui-là reste contraint par une segmentation du programme et de la mémoire, et par un fonctionnement réglé par une rythmique séquentielle contrainte par une ultrahorloge interne totalement étrangère à une structure naturelle. Même si le programme peut évoluer et faire exprimer des comportements non initialement programmés, cette émergence est limitée par la structure même de l’électronique actuelle. 
Néanmoins, le plus grand avantage de l’IA ascendante est qu’elle peut apprendre et s’adapter. Cette approche permet également une imitation plus fidèle de la cognition naturelle avec des programmes conçus analogiquement à des êtres vivants, ou même à des ensembles d’êtres vivants, réseaux ou collectivités En effet, les types de programmes les plus connus d’IA ascendante concernent les systèmes multi-agents, les algorithmes génétiques et le deep learning, et les réseaux de neurones formels ou artificiels. 
On est donc encore loin d'une réalité artificielle connexionniste, en restant à un jeu d'imitation dans lequel même Alan Turing savait qu'il n'était question que d'une pâle copie de la réalité du vivant.