Il faut à la fois éviter de tomber dans le piège de la diabolisation et de celui de l’optimisme technologique irraisonné sur la question de l’intelligence artificielle, analyse Philippe Lecigne dans une tribune publiée le 1er décembre 2020 au FigaroVox dans le cadre de la Fondation du Pont-Neuf.
Philippe Lecigne est associé dans un cabinet de conseil en prospective. Il a été rédacteur en chef des revues Résumés (Groupe Express-L’Expansion) et Belvédère. Cette tribune est tirée du rapport La France contre les robots ? Automatisation et Intelligence Artificielle élaboré par Philippe Lecigne pour la Fondation du Pont-Neuf.
Depuis quelques années, les derniers développements de l’informatique, qualifiés de manière un peu arbitraire «intelligence artificielle», semblent couronner une évolution vers un monde où l’homme serait cantonné à l’état de spectateur, voire de protagoniste inutile. Ils ravivent les craintes exprimées par Georges Bernanos en 1947 dans son essai sur La France contre les robots ou par Stanley Kubrick (2001: L’odyssée de l’espace) vingt ans plus tard.
Le discours sur l’Intelligence Artificielle n’est-il pas surfait? S’agit-il d’une véritable intelligence et est-elle en mesure de surpasser un jour l’intelligence humaine? Pour éviter de tomber dans le piège de la diabolisation, ou à l’inverse de l’optimisme technologique irraisonné, la première chose à faire est de bien comprendre de quoi nous parlons, et de faire la part entre ce qui aujourd’hui est avéré et ce qui relève de la pure spéculation. Le terme Intelligence Artificielle, qui remonte aux années cinquante recouvre en effet des notions, et des enjeux, fort différents.
L’IA traditionnelle ou symboliste – ce que les informaticiens appellent les «systèmes experts» – repose sur un ensemble de règles et débouche sur des solutions claires: à partir du montant de vos revenus mensuels, du prix du bien immobilier que vous souhaitez acquérir et de votre apport personnel, la banque peut calculer le montant de votre prêt, sa durée et le montant de remboursements que vous devrez effectuer.
L’approche «connexionniste» à base de réseaux de neurones, qui a connu des développements fulgurants depuis moins de dix ans, ouvre de nouvelles perspectives et pose de tout autres problèmes. On entraîne un algorithme à reconnaître des caractéristiques à partir d’un grand nombre de données (par exemple des signes indicateurs de pathologie dans des données issues d’examens médicaux) avec une probabilité raisonnable, donc avec un certain risque d’erreur. La force du logiciel réside dans sa puissance de calcul et dans sa capacité de mémoire. Mais il est dépourvu d’intuition et de bon sens. L’ordinateur est un bon serviteur et un mauvais maître.
Les cas d’utilisation réels, dans l’industrie, la médecine ou la finance permettent de cerner le potentiel de l’IA mais aussi ses limites. On voit bien que l’ «Intelligence Artificielle Générale», qui est le stade où la machine serait censée dépasser l’homme et le rendre inutile, relève aujourd’hui de la science-fiction.
Le déploiement des outils d’Intelligence Artificielle pose néanmoins un certain nombre de questions de fond. En premier lieu figure le risque de voir la machine (les robots ou les logiciels) remplacer les humains dans nombre de tâches et provoquer une aggravation du chômage. Pour l’OCDE, 10% des emplois seraient concernés, ce qui représenterait en France un doublement des demandeurs d’emplois de catégorie A! Les nombreuses analyses parues aux États-Unis (Acemoglu, Restrepo, Autor), mais aussi en Europe, permettent de répondre à deux interrogations: l’automatisation implique-t-elle systématiquement la destruction d’emplois et n’est-elle pas une des causes de la disparition des classes moyennes dans les pays industrialisés ?
Lire la suite sur le site du FigaroVox.