Recherche

Essai Philosophie

L’intelligence artificielle peut-elle être collective ?


par Anne Alombert , le 11 février


Télécharger l'article : PDF

Comment les industries numériques transforment-elles nos esprits et nos sociétés ? Est-il possible de produire l’IA de manière collective, afin d’échapper à l’emprise des sociétés privées qui les mettent en pratique de manière opaque ?

La notion d’« intelligence artificielle » est symptomatique d’une tendance largement répandue dans les discours contemporains au sujet des technologies algorithmiques, qui consiste à anthropomorphiser les objets ou services numériques : outre les téléphones intelligents et les villes intelligentes, on parle aussi d’apprentissage automatique ou d’agents conversationnels, attribuant implicitement à toutes sortes de dispositifs des capacités mentales, intellectuelles ou psychiques traditionnellement réservées aux personnes comme l’intelligence, l’apprentissage, l’agentivité, etc. Aussi innocentes semblent-elles, ces métaphores anthropomorphiques sont très largement répandues dans les discours transhumanistes qui constituent la principale idéologie de la Silicon Valley, au service des industries californiennes et des géants du numérique : Raymond Kurzweil, fondateur du mouvement transhumaniste et directeur de l’ingénierie chez Google, publie depuis les années 1990 des livres sur les « machines intelligentes » ou les « machines spirituelles » [1] et mobilise également l’idée de « singularité technologique », selon laquelle une superintelligence artificielle (ou « intelligence artificielle générale ») susceptible de dépasser les capacités humaines serait sur le point d’avenir à travers l’augmentation des puissances de calculs et des performances industrielles. Cette mythologie se retrouve dans la lettre ouverte publiée par Elon Musk et d’autres experts en mars 2023 [2], qui soulevait le risque de l’avènement d’« esprits numériques » menaçant l’avenir de l’humanité, suite à la diffusion de la première « intelligence artificielle générative » accessible au grand public, produite par l’entreprise OpenAI et nommée ChatGPT.

Et pourtant, depuis les années 1960 déjà, le philosophe Gilbert Simondon avait critiqué cet imaginaire technologique, qu’il désignait comme une « représentation mythique du robot », qui consiste à considérer les machines comme des « doubles de l’homme », en leur attribuant de manière implicite « une âme et une existence séparée et autonome » alors même que nous en sommes non seulement les concepteurs et les producteurs, mais aussi les utilisateurs [3]. Une vingtaine d’années plus tard, le philosophe Georges Canguilhem, directeur de la thèse de Simondon sur les objets techniques, ne dira pas autre chose lors d’une conférence intitulée « Le cerveau et la pensée » [4] : dans le contexte du développement des sciences cognitives, de l’« intelligence artificielle » et de l’informatique industrielle, le philosophe relève lui aussi « l’abus d’expressions non pertinentes telles que "cerveau conscient", "machine consciente", "cerveau artificiel" ou "intelligence artificielle" », autant de « métaphores » « nées chez les scientifiques de l’usage légitime de modèles heuristiques », mais qui ont été par la suite « repiquées sur des lieux communs publicitaires ». Selon Canguilhem, « un modèle de recherche scientifique a [ainsi] été converti en machine de propagande idéologique », afin de « dissimuler la présence de décideurs derrière l’anonymat de la machine ».

Les perspectives de Simondon ou de Canguilhem ne consistent pas pour autant à nier les risques ou les dangers potentiels liés au développement des innovations numériques, mais nous incitent plutôt à penser que le problème est mal posé. Nous ne sommes pas confrontés à l’avènement d’une conscience algorithmique ou d’un esprit numérique, mais plutôt à une nouvelle révolution industrielle, qui ne procède plus seulement de l’automatisation du travail manuel ou des activités gestuelles ou physiques, mais aussi de l’automatisation du travail intellectuel ou des activités mentales ou psychiques. Cette automatisation des facultés mentales ou psychiques devient possible avec les technologies numériques, car celles-ci constituent un nouveau type de système d’écriture industriel et automatique. Non seulement les programmes informatiques permettent une automatisation de l’écriture et de la lecture grâce aux codes algorithmiques, mais les « gros modèles de langage » sur lesquels se fondent lesdites « intelligences artificielles génératives » permettent la production industrielle de mots et de textes grâce aux calculs statistiques effectués sur des quantités massives de données numérisées. La question que nous devons donc nous poser dans le contexte actuel n’est pas de savoir si les machines seront capables d’apprendre ou de penser (de devenir intelligentes et spirituelles), mais bien de savoir quels effets ce processus d’automatisation textuel, linguistique et symbolique aura sur nos esprits et sur nos sociétés – sachant que l’expression linguistique, textuelle ou symbolique est la faculté qui nous permet non seulement de penser par nous-mêmes, mais aussi de nous relier collectivement à travers un milieu culturel partagé.

Il est d’autant plus important de se poser une telle question si l’on considère que les systèmes d’écriture et les technologies symboliques ne sont pas de simples moyens que nous utilisons pour transmettre un message ou une information préexistants, mais qu’ils constituent des « instruments psychologiques » ou des « technologies intellectuelles », qui transforment en profondeur les fonctions psychiques, les structures mentales et les manières de penser, comme l’ont montré en leur temps le psychologue Lev Vygotski et l’anthropologue Jack Goody dans leurs études respectives du langage et de l’écriture [5]. Plus récemment, les travaux de Maryanne Wolf, chercheuse américaine spécialiste de neurosciences et de littérature ont monté que le passage des médias imprimés aux médias numériques modifiait notre pratique de l’écriture et de la lecture et que ce changement avait des effets au niveau neuronal ou cérébral, sur nos connexions synaptiques elles-mêmes [6] : plutôt que d’envisager les « réseaux de neurones formels » comme des cerveaux artificiels, ne faudrait-il pas se demander comment les nouvelles industries à la fois algorithmiques et linguistiques transformeront nos cerveaux, et plus généralement, nos vies psychiques et collectives ? Pour répondre à ces questions, il est nécessaire d’abandonner les idéologies de l’intelligence artificielle et de la singularité technologique qui nous projettent dans un futur fantasmatique, afin de resituer les innovations contemporaines dans l’histoire longue des systèmes d’écriture et des technologies linguistiques : cette prise de recul devrait nous permettre d’appréhender les enjeux anthropologiques et civilisationnels liés à la numérisation et à l’automatisation des pratiques expressives qui nous préoccupe aujourd’hui.

Mémoire artificielle, stérilisation culturelle et manipulation sophistique

Les réflexions de Platon sur au sujet de l’écriture alphabétique peuvent se révéler utiles pour saisir les enjeux liés à l’écriture numérique contemporaine : au Ve siècle avant J.-C. la révolution technique qui intéresse Platon n’est pas celle du numérique ou de la diffusion massive des « IA génératives », mais celle de l’écriture alphabétique, qui se répand alors dans la société grecque. Et pourtant, c’est déjà de l’automatisation de la connaissance et de ses implications culturelles et politiques dont il est question. À la fin du dialogue intitulé le Phèdre [7], Platon rappelle le mythe égyptien de l’origine de l’écriture dans lequel le dieu égyptien Theuth, inventeur de l’écriture, des mathématiques, du calcul, de la géométrie et de l’astronomie, présente son invention au roi des Égyptiens, Thamous. Theuth prétend alors avoir trouvé un remède pour la mémoire et l’instruction : la technique de l’écriture permet de conserver le savoir sur un support matériel et d’éviter ainsi les défauts de la mémoire vivante. En effet, la mémoire vivante présente de nombreux problèmes : non seulement parce qu’elle n’est pas exacte (les individus ne se souviennent jamais parfaitement et ont tendance à oublier ce qui est de nature à les déranger), mais surtout parce qu’elle est éphémère et transitoire (quand un individu meurt, sa mémoire disparaît avec lui et ne peut plus être ni conservée ni transmise). Au contraire, les supports écrits offrent une mémoire artificielle qui peut survivre à la disparition des vivants et conserver les savoirs après eux, dans une quantité bien plus grande et de manière bien plus précise que les individus : l’écriture permet donc une augmentation technologique des facultés et promet une immortalité potentielle – augmentation et immortalité qui sont au cœur des discours transhumanistes actuels. Pour cette raison, elle est présentée par Teuth comme un remède pour la mémoire et le savoir.

Mais Thamous, le roi d’Égypte, qui ne cherche pas à promouvoir une invention technique, mais qui s’inquiète de ses enjeux politiques, soutient que loin de constituer un remède, l’écriture pourrait au contraire s’apparenter à un poison lourd de conséquences : si la technique de l’écriture préserve le savoir à la place de la mémoire vivante des citoyens, ceux-ci cesseront d’utiliser et d’entraîner leurs propres facultés, ils s’appuieront sur les supports écrits pour répéter par cœur des savoirs qu’ils n’ont pas compris. Loin de renforcer la mémoire et le savoir, l’écriture produira la bêtise et l’oubli. Or c’est seulement en se remémorant les connaissances par eux-mêmes que les individus peuvent les interpréter singulièrement et donc les transformer et les faire évoluer : l’exercice des capacités mémorielles est au principe de l’évolution culturelle. À l’inverse, la répétition mécanique des savoirs conservés entrave le processus de diversification et d’évolution de la mémoire collective. De plus, selon Platon, la répétition mécanique de textes qui n’ont pas été compris est typique de l’activité des sophistes, qui apprennent par cœur des discours écrits qu’ils n’ont pas produits ni compris et qui les récitent de manière très persuasive. Les sophistes peuvent défendre une thèse comme la thèse opposée, l’important pour eux n’est pas de chercher la vérité, mais de vendre leurs discours comme des marchandises et d’exercer un pouvoir sur l’esprit des citoyens, fascinés par leurs performances rhétoriques. Le roi Thamous s’inquiète donc du caractère ambivalent de la technique de l’écriture qui apparaît comme un remède pour la mémoire et le savoir, mais qui peut aussi devenir un danger en amoindrissant les capacités mémorielles des citoyens et en intensifiant le pouvoir des sophistes.

C’est pourquoi la technique de l’écriture est décrite par Platon comme un « pharmakon », terme grec qui signifie à la fois le remède et le poison : indispensable pour compenser les défaillances des mémoires vivantes et intensifier la préservation des connaissances, elle risque de se substituer aux facultés psychiques et de détruire la compréhension et la transmission des savoirs. Dans leurs commentaires du texte de Platon au XXe siècle, Jacques Derrida et Bernard Stiegler insistent sur cette ambivalence de la technique de l’écriture : contrairement à ce que prétendent les discours promotionnels sur l’augmentation technologique, la perspective pharmacologique esquissée dans le texte de Platon implique de reconnaître qu’il n’y a pas de pure « augmentation » – l’augmentation implique du même coup une diminution, le remède risque toujours de se renverser en poison. Dans le texte de Platon, la dimension toxique de l’écriture alphabétique semble se révéler à travers trois aspects intrinsèquement liés : la perte des capacités mémorielles, la stérilisation de l’évolution culturelle, et la manipulation des esprits par les techniques rhétoriques des sophistes.

Automatisation de l’expression, uniformisation culturelle et désinformation industrielle

Dans une certaine mesure, les trois risques identifiés par Platon dans le contexte de la révolution technique de l’écriture alphabétique semblent ravivés dans le contexte de la révolution industrielle de l’écriture numérique, en particulier avec le développement récent et massif de ladite « intelligence artificielle » générative et des grands modèles de langage. Cette fois cependant, ce n’est plus seulement l’externalisation de la mémoire qui est en jeu. En effet, lorsque nous demandons à un dispositif comme ChatGPT de générer automatiquement un texte, ce ne sont plus seulement les capacités mnésiques qui sont externalisées dans des supports techniques, mais aussi les capacités expressives qui sont externalisées dans des systèmes algorithmiques. C’est l’activité même d’expression qui se voit ainsi automatisée : de même que les citoyens grecs risquaient de perdre leur capacité à mémoriser en la déléguant aux supports écrits et en répétant bêtement les savoirs sédimentés, nous risquons de perdre notre capacité à nous exprimer en la déléguant aux algorithmes et en nous contentant de lire bêtement les textes produits.

Or l’activité expressive implique l’exercice de nombreuses facultés psychiques : non seulement la mémoire (nous nous exprimons toujours à partir de ce dont nous nous souvenons et de ce que nous avons vécu), mais aussi l’imagination (nous ne pouvons nous exprimer qu’en imaginant fictivement un destinataire à qui s’adresser, qu’il s’agisse d’une personne existante ou non). Or la mobilisation de la mémoire et de l’imagination lors des activités d’expression est ce qui les rend éminemment singulières : il n’existe pas deux personnes sur Terre disposant des mêmes expériences ou des mêmes désirs. C’est la raison pour laquelle les activités expressives nous permettent de révéler nos singularités, à travers notre voix, notre accent, notre ton, notre style. Lorsque ces facultés sont déléguées à des systèmes algorithmiques, les expressions singulières se voient remplacées par des calculs statistiques sur des quantités massives de données, donc par des procédures standardisées et prédictives, qui visent à engendrer les expressions les plus probables sur la base des moyennes des expressions passées. Les grands modèles de langage fonctionnent en effet sur la base de calculs probabilistes : lorsque vous posez une question à ChatGPT, le logiciel calcule les séquences de signes les plus probables qui correspondent à votre requête, un peu comme les logiciels d’auto-complétion des téléphones portables ou des moteurs de recherche, qui complètent automatiquement les messages ou les requêtes en fonction des messages ou des requêtes les plus répandus. Les algorithmes ne fonctionnent efficacement que parce qu’ils prédisent toujours ce qui a le plus de chances d’arriver en se basant sur des moyennes de données passées, mais ils éliminent aussi du même coup toutes les singularités et les nouveautés.

Les calculs probabilistes ne prennent pas en compte les contenus originaux ou singuliers, qui deviennent invisibles dans la masse de données analysées : les expressions singulières, originales ou improbables, sont systématiquement éliminées, car insuffisamment représentées dans le jeu de données. Or, ces expressions singulières et improbables sont celles qui sont à l’origine du renouvellement et de l’évolution culturelle : à travers leurs expressions et interprétations singulières, les individus renouvellent la mémoire collective ou la culture commune. Qu’elle soit théorique, scientifique, artistique, pratique, technique, une invention véritablement nouvelle résulte toujours d’une interprétation originale du passé qui produit un écart par rapport à la norme, au sens commun, aux habitudes dominantes ou aux opinions majoritaires. Lorsqu’une nouveauté émerge dans un champ culturel donné, elle nécessite parfois des décennies pour être comprise et assimilée. En éliminant systématiquement tout germe de nouveauté, les automates algorithmiques ne génèrent pas de nouveauté, mais tendent au contraire à menacer le renouvellement culturel et linguistique. Cette menace est d’autant plus affirmée que les contenus générés automatiquement deviendront bientôt dominants sur le Internet : ils peuvent être produits très massivement et très rapidement et intégreront bientôt les jeux de données sur lesquels les modèles de langage sont entraînés. Les algorithmes opéreront alors leurs calculs probabilistes sur des textes déjà produits automatiquement, ce qui promet de renforcer les effets d’homogénéisation et d’uniformisation des contenus générés en ligne : les médias numériques tendront à proposer de moins en moins de nouveautés improbables et de plus en plus de contenus répétitifs et standardisés.

On retrouve donc à l’époque des industries numériques le risque de stérilisation culturelle, précédemment identifié à partir du texte de Platon sur l’écriture alphabétique. Et l’on retrouve aussi le troisième risque esquissé par Platon, à savoir le risque de manipulation des esprits – non plus par les techniques rhétoriques des sophistes cette fois-ci, mais par les techniques algorithmiques de production et de diffusion des fausses informations. En effet, tout comme les discours sophistiques, les textes générés automatiquement semblent toujours très bien construits d’un point de vue grammatical ou syntaxique, mais tout comme les discours sophistiques, ils n’ont aucun rapport avec la vérité et constituent de simples « marchandises informationnelles [8] » prêtes à être consommées. Ces textes sont produits sur la base de calculs statistiques, sans aucun processus d’interprétation, de réflexion, de vérification, de délibération ou de certification : toutes les activités qui sont nécessaires pour produire une information ou une connaissance, comme l’interprétation des faits, la vérification des affirmations, la délibération et la certification collectives, sont court-circuitées par les calculs automatisés. Les textes automatiques ne constituent donc ni des informations fiables ni des savoirs certifiés, mais des séquences probables de signes qui peuvent générer de fausses citations ou références et véhiculer toutes sortes de faussetés dans un langage très plausible et très standardisé, devenant ainsi indiscernable des informations ou des savoirs. Il devient dès lors très difficile de discriminer : chacun saura bientôt, par un savoir implicite qui deviendra un sens commun, que les textes qu’ils lisent peuvent avoir été générés automatiquement par des algorithmes et qu’il est impossible de le deviner. Chaque contenu devra alors faire l’objet d’un doute et une défiance généralisée risque de se développer. Cet état de fait risque de s’aggraver en raison des industries de la désinformation, qui profiteront de ces nouveaux dispositifs pour alimenter des faux profils ou des faux comptes permettant à certains contenus trompeurs de circuler très massivement et très rapidement, grâce aux recommandations algorithmiques des réseaux sociaux commerciaux. En effet, l’une des applications les plus importantes de l’« intelligence artificielle » aujourd’hui n’est pas seulement la génération automatique de contenus, mais aussi la recommandation automatique de contenus : les algorithmes probabilistes et prédictifs sont conçus par des entreprises privées pour cibler les individus avec des contenus « personnalisés » et contribuent aussi à amplifier les contenus les plus populaires, les plus sensationnels et les plus choquants, afin de maintenir les utilisateurs connectés aux plateformes et de vendre leurs données et leur attention à des fins de marketing ou de propagande. Avec la diffusion massive des outils d’« intelligence artificielle générative », les contenus trompeurs (deep fakes) pourront être produits en quantité industrielle et de plus en plus de faux comptes ou de faux profils pourront permettre d’amplifier leur circulation [9] : le risque de manipulation des opinions est incommensurablement plus grave qu’il ne l’était à l’époque des sophistes critiqués par Platon.

Comment mettre l’intelligence artificielle au service de l’intelligence collective ?

Pour autant, ces dimensions toxiques ne sont pas intrinsèques à l’écriture numérique elle-même : les risques de l’automatisation de l’expression, de l’uniformisation culturelle et de la désinformation tiennent moins aux technologies numériques qu’à leur appropriation par des entreprises quasi-monopolistiques qui les développent dans le sens de l’automatisation généralisée et de l’économie des données. Le problème n’est pas ladite « l’intelligence artificielle » en tant que telles, mais les choix politiques, les modèles économiques et les fonctionnalités technologiques selon lesquels les industries algorithmiques sont développées : tout l’enjeu consiste à transformer ces orientations politiques, ces modèles économiques et ces fonctionnalités technologiques afin de mettre ladite « intelligence artificielle » au service de l’intelligence collective et des pratiques contributives, et non au service de l’automatisation des expressions, de la collecte des données et de la manipulation des opinions.

L’encyclopédie collaborative Wikipédia offre un bon exemple d’une plateforme numérique alternative, qui met les algorithmes au service de l’intelligence collective et des pratiques contributives. Quand bien même elle pose de nombreux problèmes, la logique à l’œuvre sur une plateforme comme Wikipédia n’a rien à voir avec la philosophie sous-jacente à un dispositif comme ChatGPT : les textes écrits sur Wikipédia constituent les contributions singulières qui ont été certifiées par des pairs, à travers des processus collectifs d’interprétation, d’évaluation et de délibération. Les articles sont issus de la confrontation de points de vue et sont débattus et discutés collectivement, à travers des règles transparentes et partagées. C’est la raison pour laquelle les contenus de l’encyclopédie collaborative peuvent faire l’objet de crédit : les lecteurs font confiance aux textes parce qu’ils sont le fruit d’une controverse contributive et d’une certification collective. De plus, les connaissances peuvent se renouveler, car la plateforme est ouverte aux corrections, aux critiques et aux nouvelles interprétations : elles constituent un commun numérique évolutif au service de l’humanité. À l’inverse, ChatGPT appartient à une entreprise privée, OpenAI, dont la valeur boursière est estimée à plus de 80 milliards de dollars un an après le lancement de ce service, qui repose sur la capitalisation de la culture collective et l’exploitation des données privées [10], qui ne donne pas accès à ses modèles et qui produit des séquences de mots probables incapables de participer à l’évolution culturelle des sociétés. Les utilisateurs sont réduits au statut de consommateurs passifs, capables d’entrer des entrées et de recevoir des sorties, sans possibilité de comprendre ou d’agir sur les mécanismes qui régissent le dispositif. La comparaison entre ChatGPT et Wikipédia nous montre la dimension pharmacologique de l’intelligence artificielle, qui peut servir à l’intensification et à la diversification des savoirs collectifs tout comme à l’automatisation de l’expression et à la production de la désinformation, en fonction des choix politiques, des modèles économiques et des fonctionnalités technologiques des entreprises ou organisations qui la produisent.

La plateforme de recommandation collaborative Tournesol constitue un autre exemple de technologie contributive : développée par l’association Tournesol et dirigée par le mathématicien et spécialiste en cybersécurité Lê Nguyen Hoang, cette plateforme permet aux citoyens de voter pour les contenus vidéo qu’ils jugent d’utilité publique afin d’alimenter un algorithme de recommandation qualitatif. Les recommandations algorithmiques ne se basent pas sur les moyennes statistiques des vidéos les plus regardées, mais sur les évaluations et interprétations des citoyens, qui évaluent les contenus selon des critères transparents et partagés (clarté et fiabilité des informations fournies, pertinence et importance du sujet traité, certification du ou des producteurs, etc.). Dès lors, la recommandation algorithmique ne s’effectue plus en fonction des intérêts financiers des géants du numérique ou des objectifs électoraux de tel ou tel parti, mais en fonction des jugements des citoyens basés sur des critères accessibles et explicités. Dès lors, des contenus plus exigeants, mieux sourcés, plus originaux peuvent être recommandés, évitant la propagation massive de fausses informations automatiquement engendrées.

Des plateformes comme Wikipédia et Tournesol constituent des exemples de technologies numériques contributives et herméneutiques : contributives, car fondées sur le partage et la participation des utilisateurs (qui deviennent ainsi des contributeurs et non des consommateurs) et herméneutiques, car ouvertes à l’exercice du jugement, à la diversité des interprétations et à la délibération collective. Selon Bernard Stiegler, les technologies contributives et herméneutiques peuvent être définies comme des technologies dans lesquelles les calculs des algorithmes sont mis au service « des fonctions psychiques et collectives qui échappent à tout calcul, mais qui produisent un enrichissement constant de la vie sociale, économique, politique, juridique, artistique et scientifique des groupes [11] ». Stiegler appelle ainsi à concevoir, développer et expérimenter « des dispositifs alternatifs fondés sur les contributions de sujets réflexifs, ménageant dans les structures de données des champs interprétatifs, délibératifs et incalculables, et développant des algorithmes d’assistance à l’interprétation et à la délibération, et non seulement l’extraction et l’exploitation de données statistiques [12] ». Dans le contexte des « intelligences artificielles extractives [13] » fondées sur les calculs probabilistes, une telle bifurcation à la fois technologique, industrielle et politique semble d’autant plus nécessaire : plutôt que d’imiter, de dépasser ou de remplacer les capacités humaines par des performances computationnelles, les technologies d’écriture numérique pourraient permettre l’exercice des activités interprétatives, le partage des savoirs et la délibération collective au fondement de la vie culturelle des sociétés.

par Anne Alombert, le 11 février

Pour citer cet article :

Anne Alombert, « L’intelligence artificielle peut-elle être collective ? », La Vie des idées , 11 février 2025. ISSN : 2105-3030. URL : https://laviedesidees.fr/L-intelligence-artificielle-peut-elle-etre-collective

Nota bene :

Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction (redaction chez laviedesidees.fr). Nous vous répondrons dans les meilleurs délais.

Notes

[1R. Kurzweil, The age of intelligent machines, MIT Press, 1990 et R. Kurzweil, The age of spiritual machines, Viking Press, 1999.

[2«  Pause Giant AI Experiments : An Open Letter  », Future of life Institute, 2023.

[3G. Simondon, Du mode d’existence des objets techniques (1958), Jérôme Millon, 2013.

[4G. Canguilhem, «  Le cerveau et la pensée  » (1980) in Canguilhem philosophe, historien des sciences, Albin Michel, 1993.

[5J. Goody, «  Les technologies de l’intellect  » in Pouvoirs et savoirs de l’écrit, Paris, La dispute, 2007.

[6M. Wolf, Reader, Come Home : The Reading Brain in a Digital World, Harper, 2018.

[7Platon, Phèdre, Flammarion, 2006.

[8J.-F. Lyotard, La condition postmoderne, Minuit, 1979.

[9L. Nguyen Hoang et J. L. Fourquet, La dictature des algorithmes, Tallandier, 2024.

[10A. Alombert et G. Giraud, Le capital que je ne suis pas  ! Mettre l’économie et le numérique au service de l’avenir, Fayard, 2024.

[11B. Stiegler et al., Bifurquer. Il n’y a pas d’alternatives, Les liens qui libèrent, 2020.

[12B. Stiegler et al., Bifurquer Il n’y a pas d’alternatives, Les liens qui libèrent, 2020.

[13J. Cattan et C. Zolynski, «  Le défi d’une régulation de l’intelligence artificielle  », AOC, 2023.

Partenaires


© laviedesidees.fr - Toute reproduction interdite sans autorisation explicite de la rédaction - Mentions légales - webdesign : Abel Poucet