Pour aller plus loin sur l’IA…

Cet article explore divers aspects de l’intelligence artificielle (IA) en commençant par une définition de ce qu’est l’IA. Il détaille ensuite les différentes techniques utilisées en IA. Il met en lumière les limites de l’IA, mais aussi ses dangers possibles. Il confronte enfin les problématiques de l’IA et du monde du travail.

Définition de l’IA

L’intelligence artificielle (IA) est un domaine de la science et de l’ingénierie dédié à la création de machines intelligentes. Le terme a été introduit par John McCarthy, qui définit l’IA comme “la science et l’ingénierie de la fabrication de machines intelligentes, en particulier de programmes informatiques intelligents.” Marvin Minsky, un autre pionnier du domaine, décrit l’IA comme “la construction de programmes informatiques qui s’adonnent à des tâches nécessitant des processus mentaux de haut niveau comme l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique.”

Les définitions de l’IA peuvent varier sur deux points clés.

  • D’une part, certaines définitions la lient à un aspect humain de l’intelligence, tandis que d’autres la relient à un modèle idéal de rationalité, qui n’est pas nécessairement humain.
  • D’autre part, certaines définitions insistent sur le fait que l’IA doit seulement avoir l’apparence de l’intelligence humaine ou rationnelle, tandis que d’autres exigent que le fonctionnement interne de l’IA ressemble également à celui des êtres humains et soit au moins aussi rationnel.

Il existe souvent une confusion entre l’intelligence artificielle, l’apprentissage automatique (ou machine learning) et l’apprentissage profond (ou deep learning). Bien que ces concepts soient imbriqués, ils ne sont pas identiques. L’IA englobe l’apprentissage automatique, qui à son tour inclut l’apprentissage profond.

Selon l’Organisation de Coopération et de Développement Économiques (OCDE), un système d’IA est “un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des informations qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions, qui peuvent influencer les environnements physiques ou virtuels.” Les systèmes d’IA varient dans leurs niveaux d’autonomie et d’adaptabilité après leur déploiement.

Techniques

Apprentissage automatique

L’apprentissage automatique consiste à permettre au modèle d’IA d’apprendre à effectuer une tâche au lieu de spécifier exactement comment il doit l’accomplir. Le modèle contient des paramètres dont les valeurs sont ajustées tout au long de l’apprentissage. La méthode de la rétropropagation du gradient est capable de détecter, pour chaque paramètre, dans quelle mesure il a contribué à une bonne réponse ou à une erreur du modèle, et peut l’ajuster en conséquence. L’apprentissage automatique nécessite un moyen d’évaluer la qualité des réponses fournies par le modèle. Les principales méthodes d’apprentissage sont :

  • Apprentissage supervisé : Un jeu de données annoté est utilisé pour entraîner l’algorithme. Il contient des données d’entrée fournies au modèle et les réponses correspondantes attendues que le modèle est entraîné à produire. Il est parfois difficile de se procurer suffisamment de données annotées avec les réponses attendues.
  • Apprentissage non supervisé : Un jeu de données est fourni au modèle, mais n’est pas annoté avec les réponses attendues. Le but peut par exemple être de regrouper les données similaires entre elles (clustering).
  • Apprentissage auto-supervisé : Un problème d’apprentissage supervisé est automatiquement généré à partir d’un jeu de données non annoté. Cela fonctionne souvent en cachant une partie des informations (des mots d’un texte, des morceaux d’images…) afin d’entraîner le modèle à les prédire.
  • Apprentissage par renforcement : L’agent est plongé dans un environnement où ce qu’il fait est évalué. Par exemple, un agent peut apprendre à jouer aux échecs en jouant contre lui-même, et le résultat (victoire ou défaite) permet à chaque itération d’évaluer s’il a bien joué. Il n’y a dans ce cas pas besoin de jeu de données.

Réseaux de neurones

Les réseaux de neurones artificiels sont inspirés du fonctionnement du cerveau humain : les neurones sont en général connectés à d’autres neurones en entrée et en sortie. Les neurones d’entrée, lorsqu’ils sont activés, agissent comme s’ils participaient à un vote pondéré pour déterminer si un neurone intermédiaire doit être activé et ainsi transmettre un signal vers les neurones de sortie. En pratique, pour l’équivalent artificiel, les « neurones d’entrée » ne sont que des nombres et les poids de ce « vote pondéré » sont des paramètres ajustés lors de l’apprentissage. À part la fonction d’activation, les réseaux de neurones artificiels n’effectuent en pratique que des additions et des multiplications matricielles, ce qui fait qu’ils peuvent être accélérés par l’utilisation de processeurs graphiques. En théorie, un réseau de neurones peut approximer n’importe quelle fonction.

Pour de simples réseaux de neurones à propagation avant (feedforward en anglais), le signal ne passe que dans une direction. Avec les réseaux de neurones récurrents, le signal de sortie de chaque neurone est réinjecté en entrée de ce neurone, permettant un mécanisme de mémoire à court terme. Les réseaux neuronaux convolutifs, qui sont particulièrement utilisés en traitement d’images, introduisent une notion de localité. Leurs premières couches identifient des motifs relativement basiques et locaux comme des contours, là où les dernières couches traitent de motifs plus complexes et globaux.

Apprentissage profond

L’apprentissage profond (deep learning en anglais) utilise de multiples couches de neurones entre les entrées et les sorties, d’où le terme « profond ». L’utilisation de processeurs graphiques pour accélérer les calculs et l’augmentation des données disponibles a contribué à la montée en popularité de l’apprentissage profond. Il est utilisé notamment en vision par ordinateur, en reconnaissance automatique de la parole et en traitement automatique des langues (ce qui inclut les grands modèles de langage).

Grands modèles de langages

Les grands modèles de langage sont des modèles de langage ayant un grand nombre de paramètres, typiquement des milliards. Ils reposent très souvent sur l’architecture transformeur. Les transformeurs génératifs pré-entraînés (Generative Pretrained Transformers ou GPT en anglais) sont un type particulièrement populaire de grand modèle de langage. Leur « pré-entraînement » consiste à prédire, étant donnée une partie d’un texte, le token suivant (un token étant une séquence de caractères, typiquement un mot, une partie d’un mot, ou de la ponctuation). Cet entraînement à prédire ce qui va suivre, répété pour un grand nombre de textes, permet à ces modèles d’accumuler des connaissances sur le monde. Ils peuvent ensuite générer du texte semblable à celui ayant servi au pré-entraînement, en prédisant un à un les tokens suivants. En général, une autre phase d’entraînement est ensuite effectuée pour rendre le modèle plus véridique, utile et inoffensif. Cette phase d’entraînement (utilisant souvent une technique appelée RLHF) permet notamment de réduire un phénomène appelé « hallucination », où le modèle génère des informations d’apparence plausible mais fausses.

Avant d’être fourni au modèle, le texte est découpé en tokens. Ceux-ci sont convertis en vecteurs qui en encodent le sens ainsi que la position dans le texte. À l’intérieur de ces modèles se trouve une alternance de réseaux de neurones et de couches d’attention. Les couches d’attention combinent les concepts entre eux, permettant de tenir compte du contexte et de saisir des relations complexes.

Ces modèles sont souvent intégrés dans des agents conversationnels, aussi appelés chatbots, où le texte généré est formaté pour répondre à l’utilisateur. Par exemple, l’agent conversationnel ChatGPT exploite les modèles GPT-3.5 et GPT-4. En 2023, font leur apparition des modèles grand public pouvant traiter simultanément différents types de données comme le texte, le son, les images et les vidéos, tel Google Gemini.

Recherche et optimisation

Certains problèmes nécessitent de chercher intelligemment parmi de nombreuses solutions possibles.

  • Recherche locale : La recherche locale, ou recherche par optimisation, repose sur l’optimisation mathématique pour trouver une solution numérique à un problème, en améliorant progressivement la solution choisie. En particulier, en apprentissage automatique, la descente de gradient permet de trouver une solution localement optimale, étant donné une fonction de coût à minimiser en faisant varier les paramètres du modèle. Elle consiste, à chaque étape, à modifier les paramètres à optimiser dans la direction qui permet de réduire le mieux la fonction de coût. La solution obtenue est localement optimale, mais il se peut qu’il y ait globalement de meilleures solutions, qui auraient pu être obtenues avec différentes valeurs initiales de paramètres. Les modèles d’IA modernes peuvent avoir des milliards de paramètres à optimiser, et utilisent souvent des variantes plus complexes et efficaces de la descente de gradient. Les algorithmes évolutionnistes (inspirés de la théorie de l’évolution) utilisent une forme de recherche par optimisation. À chaque étape, des opérations telles que la « mutation » ou le « croisement » sont effectuées aléatoirement pour obtenir différentes variantes, et les variantes les mieux adaptées sont sélectionnées pour l’étape suivante.
  • Recherche dans l’espace des états : La recherche dans l’espace des états vise à trouver un état accomplissant l’objectif à travers un arbre des états possibles. Par exemple, la recherche antagoniste est utilisée pour des programmes jouant à des jeux tels que les échecs ou le go. Elle consiste à parcourir l’arbre des coups possibles par le joueur et son adversaire, à la recherche d’un coup gagnant. La simple recherche exhaustive est rarement suffisante en pratique vu le nombre d’états possibles. Des heuristiques sont utilisées pour prioriser les chemins les plus prometteurs.

Logique

La logique formelle est utilisée pour le raisonnement et la représentation des connaissances. Elle inclut la logique propositionnelle et la logique des prédicats, qui permettent de structurer des affirmations et des relations entre elles. La logique floue permet de gérer des situations où les catégories ne sont pas nettement définies, tandis que la logique non monotone permet de réviser des conclusions à la lumière de nouvelles informations.

Probabilités et gestion de l’incertitude

Les méthodes probabilistes sont essentielles pour traiter des informations incertaines ou incomplètes. Les réseaux bayésiens et les tables de probabilité conditionnelle sont utilisés pour inférer des probabilités à partir de données observées. Les méthodes de Monte-Carlo permettent de simuler des distributions de probabilités pour des problèmes complexes.

Classifieurs et méthodes statistiques

Les classifieurs et autres méthodes statistiques sont utilisés pour assigner des catégories ou des valeurs aux données. Ils reposent souvent sur des techniques d’apprentissage supervisé, où un modèle est entraîné à partir de données annotées pour prédire les catégories ou valeurs des nouvelles données.

Intelligence artificielle générale

L’intelligence artificielle générale (IAG) désigne un système informatique capable d’effectuer ou d’apprendre pratiquement n’importe quelle tâche cognitive, qu’elle soit propre aux humains ou aux autres animaux. Elle peut aussi être définie comme un système surpassant les humains dans la plupart des tâches ayant un intérêt économique. Longtemps considérée comme un sujet purement spéculatif, l’IAG suscite aujourd’hui de vives discussions parmi les experts.

Certaines recherches récentes, telles que celles menées sur GPT-4, ont montré des “étincelles” d’IAG, bien que ce domaine reste encore largement exploratoire. Les experts en intelligence artificielle sont loin d’être unanimes quant à la date potentielle de la conception des premières IAG, souvent appelées “intelligences artificielles de niveau humain”. Ils débattent également de leur impact sur la société et de leur capacité à déclencher une “explosion d’intelligence”, un phénomène où les machines pourraient améliorer leur propre intelligence de manière exponentielle.

En 2022, un sondage a révélé que 90% des experts en IA estiment que l’IAG a plus d’une chance sur deux d’être réalisée dans les 100 ans, avec une date médiane fixée à 2061. Cela montre un optimisme modéré quant à l’émergence de cette technologie, bien que des incertitudes persistent.

La superintelligence est un type hypothétique d’intelligence artificielle générale dont les capacités intellectuelles dépasseraient de loin celles des humains les plus brillants. Le philosophe Nick Bostrom souligne que les machines disposent de certains avantages par rapport aux cerveaux humains, notamment en ce qui concerne la mémoire, la vitesse (les processeurs étant de l’ordre de dix millions de fois plus rapides que les neurones biologiques) et la capacité à partager des connaissances.

Une autre source d’inquiétude vient du risque qu’une soudaine « explosion d’intelligence » prenne l’humanité au dépourvu. De tels scénarios considèrent que si une IA avait la capacité de s’auto-améliorer récursivement, elle pourrait relativement vite atteindre la superintelligence,. Empiriquement, des exemples comme AlphaZero au jeu de Go montrent que les systèmes d’IA peuvent parfois passer en peu de temps d’un niveau à peu près humain à un niveau largement surhumain.

En somme, l’IAG représente une frontière avancée de la recherche en intelligence artificielle, promettant des capacités sans précédent mais soulevant également des questions profondes sur son développement et ses implications pour l’avenir de l’humanité.

Limites de l’IA

L’utilisation de l’IA pose des enjeux éthiques et pratiques, en particulier lorsque celle-ci est utilisée pour prendre des décisions critiques. Ces enjeux seront d’autant plus prégnants avec l’apparition possible de l’intelligence artificielle générale (IAG). L’IAG, encore largement spéculative, suscite des discussions sur sa capacité à surpasser l’intelligence humaine et à déclencher une “explosion d’intelligence”.

L’influence des préjugés humains.

On trouve actuellement des exemples concrets de l’utilisation de l’IA dans des systèmes d’aide à la décision, comme les banques, les assurances, et les ressources humaines. Bien que ces systèmes puissent être efficaces, ils posent des problèmes éthiques majeurs. Un exemple marquant est celui du chatbot Tay de Microsoft, qui a rapidement adopté des discours haineux après avoir été manipulé par des internautes. Cet incident illustre comment les IA peuvent reproduire et amplifier les préjugés humains.

Un autre exemple significatif est celui des algorithmes de libération sur parole aux États-Unis. Ces algorithmes, supposés impartiaux, ont démontré une efficacité supérieure à celle des juges humains, souvent influencés par des facteurs externes comme l’heure de la journée. Cependant, cette efficacité pose la question de la justice aveugle et de la responsabilité humaine dans des décisions aussi cruciales.

En matière de biais, on peut citer également de GloVe, une IA qui a montré des stéréotypes racistes et sexistes après avoir été entraînée sur des données web. Ce problème est également présent dans les systèmes de prêts bancaires, où l’IA peut perpétuer les injustices des décisions humaines passées.

Quand l’IA hallucine…

Les hallucinations d’IA sont des résultats incorrects ou trompeurs générés par des grands modèles de langage (LLM) en raison de données d’entraînement inexistantes, erronées ou mal interprétées. Ces erreurs peuvent survenir même avec les modèles les plus sophistiqués et ont des implications significatives.

Quelques exemples notables incluent le chatbot de Google, qui a faussement affirmé que le télescope spatial James Webb avait capturé les premières images d’une exoplanète. De même, Gemini conseille d’ajouter de la colle dans une pizza pour éviter que le fromage ne coule. Ces erreurs peuvent se manifester sous forme de prédictions erronées, de faux positifs ou de faux négatifs.

Un autre défi est la vérification des réponses fournies par les IA. Actuellement, les IA ne précisent pas toujours leurs sources, et les liens fournis peuvent être erronés. Google a introduit une fonctionnalité dans son application Android Gemini qui surligne en rose les informations les moins fiables et en vert les plus fiables, permettant aux utilisateurs de cliquer pour voir un lien Web. Cependant, les experts restent sceptiques quant à l’efficacité de cette solution, car les utilisateurs sont généralement réticents à vérifier les informations.

Les hallucinations peuvent être causées par des données d’entraînement incomplètes, incohérentes, obsolètes ou biaisées, des données mal classées, des préjugés dans les données, le surajustement, des hypothèses incorrectes, une programmation insuffisante, une absence de contexte, ou la complexité du modèle. Une simple erreur dans la préparation des modèles peut fausser les résultats futurs.

Les conséquences peuvent être graves, surtout dans des domaines critiques comme la santé, où une IA pourrait diagnostiquer incorrectement une maladie, ou dans la sécurité nationale, où des informations erronées pourraient mener à des décisions diplomatiques dangereuses. Dans la finance, un modèle d’IA pourrait bloquer des transactions légitimes ou ne pas détecter des fraudes réelles.

Le problème de la boite noire.

Un autre problème majeur de l’utilisation de l’IA est le problème de la “boîte noire” en deep learning, où les décisions prises par les algorithmes sont difficiles à expliquer. Cette opacité pose un obstacle à l’équité et à la transparence, et des chercheurs travaillent sur des moyens de rendre ces systèmes plus explicables. Ainsi, Le deep learning, technique parmi d’autres en intelligence artificielle, est à la fois celle qui occasionne le plus d’applications spectaculaires et qui présente un inconvénient majeur : on ne sait pas en expliquer les résultats. Ce sont des réseaux de neurones qui fonctionnent comme des boîtes noires », souligne Sébastien Konieczny, chercheur au Centre de recherche en informatique de Lens. Avec cette forme d’intelligence artificielle en effet, on ne reconnaît pas un chat parce qu’« il a deux oreilles, quatre pattes, etc. » (raisonnement humain composé de règles et dicté à la machine), mais parce qu’il ressemble à une foultitude d’autres chats dont on aura fourni les images à la machine pour l’« entraîner ». Quant à savoir quelles ressemblances font tilt pour celle-ci, mystère et boule de gomme.

« Or, il serait bon d’expliquer les raisons qui président aux choix importants, afin d’être en mesure de les justifier. Et garantir ainsi à chacun un traitement équitable », rappelle Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique. Pourrait-on rendre ces systèmes plus transparents ? « Il y a des recherches sur “l’explicabilité” de ces boîtes noires, notamment financées par la DARPA », répond le chercheur. « Mais les réseaux de neurones ne sont que des calculs numériques : je ne vois pas comment on pourrait en extraire des concepts », observe Sébastien Konieczny. Or, personne n’acceptera de se voir refuser un prêt ou un poste intéressant à cause de la connexion 42 du réseau de neurones hélas inférieure à 0,2…

Responsabilité et autonomie

La question de la responsabilité est centrale. Les chercheurs s’accordent sur la nécessité de maintenir la décision finale dans les mains des humains, surtout dans les cas délicats. Ils proposent des solutions comme l’intégration de règles éthiques dans les systèmes d’IA et la création de comités d’éthique pour superviser le développement et l’utilisation de ces technologies.

Enfin, il faut souligner les dangers de l’asservissement à la machine et au contrôle des entreprises privées sur les technologies d’IA. Sans aller jusqu’aux fantasmes de prise de pouvoir par des machines rebelles, on peut dire que le véritable danger réside dans la perte d’autonomie humaine et la concentration du pouvoir entre les mains de quelques grandes entreprises.

Pour conclure, il faut une approche responsable et éthique de l’IA. La transparence, la responsabilité humaine, et la supervision éthique sont indispensable pour éviter les dérives potentielles et bâtir un avenir numérique équitable. Les décisions cruciales ne devraient pas être déléguées entièrement aux machines, mais devraient toujours impliquer une réflexion humaine afin de garantir justice et équité. La collaboration entre informaticiens, éthiciens, législateurs et citoyens est essentielle pour naviguer dans ce domaine complexe et en rapide évolution, afin de maximiser les bénéfices de l’IA tout en minimisant ses risques.

Formation à l’IA et réglementation

L’éducation et de la formation sont indispensables pour préparer les futures générations à vivre et travailler dans un monde de plus en plus dominé par l’IA. Il faut également une réforme des systèmes éducatifs pour inclure des compétences en intelligence artificielle, en éthique et en pensée critique.

Enfin, il est nécessaire de se doter d’une législation adaptée pour encadrer le développement et l’utilisation de l’IA. Cette législation permettrait des régulations qui protègent les droits des individus, assurent la sécurité des systèmes d’IA et encouragent l’innovation responsable. Des initiatives internationales commencent à voir le jour, telles que les efforts de l’Union européenne pour établir des lignes directrices éthiques pour l’IA et les discussions au sein de l’ONU sur la gouvernance mondiale de l’IA.

Intelligence artificielle et monde du travail

Impacts

Les progrès du numérique et de l’intelligence artificielle (IA) soulèvent des questions cruciales sur l’avenir du travail humain. Des experts en IA et en économie examinent comment nos emplois pourraient évoluer dans les dix à vingt prochaines années en raison de l’automatisation. Des études indiquent que près de la moitié des emplois pourraient être automatisés dans les décennies à venir, bien que les estimations varient. Une étude de l’OCDE, par exemple, suggère qu’environ un emploi sur dix serait menacé dans les pays industrialisés.

La distinction entre les tâches routinières et non routinières joue un rôle clé dans cette transformation. Les emplois non qualifiés et routiniers ont été les premiers touchés par l’automatisation, mais même des professions qualifiées comme les comptables et les conseillers financiers sont désormais menacées par des logiciels sophistiqués et des robots. En revanche, des métiers nécessitant une grande adaptabilité et des interactions humaines, comme ceux des jardiniers et des plombiers, sont moins susceptibles de disparaître.

La créativité et l’adaptabilité, souvent perçues comme des compétences humaines uniques, peuvent également être simulées par des machines. Par exemple, des programmes de jeu comme ceux pour le go ou les échecs ont montré des capacités créatives. Cependant, la question demeure : les productions artistiques et intellectuelles des machines seront-elles perçues comme authentiques par les humains ?

Les experts sont divisés sur l’impact total de l’IA. Certains, comme Serge Abiteboul, estiment que l’automatisation pourrait s’étendre à des domaines complexes comme la recherche scientifique. D’autres, comme Gilles Saint-Paul, croient que même des tâches actuellement non routinières pourraient être redéfinies pour devenir automatisables.

À long terme, la perspective d’une automatisation totale n’est pas exclue. Des recherches suggèrent qu’il y a 50 % de chances que l’IA surpasse les humains dans toutes les tâches d’ici environ quarante-cinq ans, et qu’elle pourrait automatiser tous les métiers dans cent vingt ans. Cette transformation demande une réorganisation des méthodes de travail et des espaces, comme le montre l’exemple des entrepôts d’Amazon où des robots apportent des étagères entières à des employés humains.

IA et organisation du travail.

L’IA est fréquemment implantée dans les organisations selon une logique “technosolutionniste”, où elle est perçue comme la solution à tous les problèmes. Cependant, les tâches répétitives qu’elle prend en charge peuvent avoir une valeur pour les salariés, en leur permettant de se reposer mentalement ou d’innover. De plus, l’IA peut servir de “cheval de Troie” pour justifier des changements organisationnels plus acceptables.

Les démarches de conception de l’IA oublient souvent d’impliquer les usagers finaux, négligeant la réalité de leur travail. Les professionnels sont parfois perçus comme de simples exécutants d’une IA dominante, et ces outils peuvent devenir le bras armé de l’idéologie managériale, appliquant rigoureusement les normes et procédures.

Pour que l’IA devienne une véritable ressource pour les salariés, elle doit être pensée et déployée en respectant plusieurs principes d’action. Ces technologies doivent soutenir l’initiative, l’improvisation et la créativité des individus, favoriser l’expression des talents, et être flexibles pour s’adapter à divers contextes professionnels. Elles doivent être conçues de manière anthropocentrée et participative, impliquant tous les acteurs concernés.

Enfin, il est crucial d’utiliser ce projet de transformation numérique pour réfléchir au “travail d’avant” et se projeter sur le “travail d’après”. Les technologies peuvent révéler ou accentuer les problèmes existants, et il est inutile d’ajouter une nouvelle couche numérique si les conditions de travail demeurent dégradées.

Protection des travailleurs

Face à ces changements, les chercheurs s’accordent sur la nécessité de protéger les individus plutôt que les emplois. Plutôt que de taxer les robots, ce qui pourrait nuire à la compétitivité, il serait préférable de favoriser la réallocation des travailleurs vers de nouveaux secteurs. Les politiques de formation et de flexisécurité, comme celles mises en place dans les pays scandinaves, pourraient offrir des pistes efficaces.

La technologie transforme l’emploi plus qu’elle ne le détruit. Par exemple, l’arrivée de l’informatique a permis aux métiers de la banque de se spécialiser dans des activités plus qualifiées. Cependant, avec l’essor des algorithmes de conseil, les banquiers et assureurs devront trouver de nouvelles façons d’améliorer leurs services.

Selon le Conseil d’orientation pour l’emploi, la nature de 50 % des emplois pourrait changer sous l’influence de l’IA. Le Forum économique mondial prédit la création de plus de 2 millions d’emplois dans des domaines spécialisés d’ici à 2020. Toutefois, la menace d’une société dystopique où l’IA marginalise les travailleurs humains est également évoquée.

Pour accompagner cette transition, un revenu universel de base pourrait être envisagé, permettant aux travailleurs de se former et de s’adapter tout au long de leur vie. Taxer le capital plutôt que les robots pourrait également être une solution plus équilibrée pour financer ces transformations.

Finalement, la relation entre travail et accomplissement personnel pourrait évoluer. Le travail, historiquement associé à la survie et à l’intégration sociale, pourrait être remplacé par de nouvelles formes d’activités et de rôles sociaux. Les humains devront alors trouver de nouvelles façons de donner un sens à leur existence dans un monde largement automatisé.

Les scénarios possibles de la fin du travail

L’économiste Gilles Saint-Paul explore 6 scénarios possibles de la fin du travail humain. Ces scénarios incluent :

  1. L’État-providence : Redistribution du fruit du travail des machines par l’État, financée par une taxation des propriétaires de robots. Ce scénario social-démocrate pourrait se mettre en place dans une société démocratique où la majorité des citoyens, voyant leurs salaires tomber en dessous du niveau de subsistance, voteraient pour un taux d’imposition élevé sur les détenteurs de capital. Les capitalistes vivraient du travail des machines, tandis que le reste de la population survivrait grâce aux transferts sociaux. Cependant, ce modèle serait fragile, car les usines sans main-d’œuvre humaine pourraient facilement être délocalisées.
  2. La société des rentiers : Dans ce scénario, certains citoyens épargnent sur leurs revenus providentiels et lèguent leurs patrimoines à leurs enfants. De nouvelles dynasties de rentiers émergent, et leur nombre croissant favorise la croissance économique car le patrimoine hérité devient une nouvelle source d’épargne. Si une classe de rentiers opposés à la redistribution atteint une masse critique, le système de l’État-providence pourrait disparaître, divisant la société en rentiers modérément aisés et un sous-prolétariat voué à l’indigence.
  3. Le fordisme nouvelle génération : Afin de maintenir une base de consommateurs et la paix sociale, les entreprises pourraient choisir de conserver des emplois humains peu utiles mais bien payés. Ce modèle rappelle le fordisme du début du XXe siècle, où les employés étaient bien rémunérés pour acheter les produits qu’ils fabriquaient. Dans ce scénario néo-fordien, les gens auraient des revenus élevés pour des emplois purement formels. Cependant, la stabilité de ce système pourrait être remise en question par la concurrence et la concentration du marché autour de quelques grandes entreprises.
  4. L’Empire romain contre-attaque : Pour éviter de payer des taxes élevées, une poignée de riches propriétaires de robots pourrait instaurer un système redistributif clientéliste, offrant des subsides au peuple en échange de leur appui politique. Cette société rappellerait l’Empire romain, où les robots joueraient le rôle des esclaves, la masse de prolétaires devenant une plèbe sans travail ou mal rémunérée. L’oligarchie capitaliste, comme les grandes familles patriciennes de l’Antiquité, s’assurerait les faveurs de la plèbe en lui offrant “du pain et des jeux”.
  5. Guerres, famines et épidémies : Dans ce scénario pessimiste, les salaires tombent sous le niveau de subsistance et la population mondiale diminue rapidement. Seuls les propriétaires de robots survivent, et les pays moins développés pourraient profiter d’un nombre de robots par tête plus important grâce à la disparition de la classe laborieuse. Cependant, pour que ces pays dépassent l’Occident, ils devraient réduire leur taux de fécondité et établir des droits de propriété crédibles sur les robots, mettant fin aux désordres civils et à la corruption.
  6. Bienvenue dans la « Matrice » : L’automatisation réduit les coûts de subsistance, et la virtualisation de l’existence permet des économies supplémentaires. Grâce à l’augmentation de la productivité agricole, l’alimentation devient peu coûteuse, et les technologies virtuelles permettent de vivre dans des environnements luxueux à moindre coût. L’éducation, quant à elle, se transforme en bien de consommation, dispensée via des technologies virtuelles. Au lieu d’une longue éducation, on attribuerait des robots ou des droits sur des robots pour maintenir les moyens de subsistance.

Cet article a été en partie écrit avec une IA…

S’abonner
Notifier de
guest

0 Commentaires
le plus ancien
le plus récent le plus populaire
Inline Feedbacks
View all comments