Résumé du livre "Co-intelligence : vivre et travailler avec l'IA" d'Ethan Mollick : Si vous sentez confusément que l’IA va bouleverser votre métier, vos études et même votre manière de penser, mais que vous ne savez pas par où commencer, ce livre vous offrira enfin une boussole concrète, lucide et enthousiasmante.
Par Ethan Mollick, 2024, 226 pages.
Titre original : Co-intelligence: Living and Working with AI.
Chronique et résumé de "Co-intelligence : vivre et travailler avec l'IA" d'Ethan Mollick
Introduction : trois nuits blanches
Ethan Mollick affirme que vraiment connaître l’IA coûte au moins trois nuits blanches. Le chercheur décrit le choc ressenti quand l’IA semble agir comme une personne. Cette prise de conscience provoque excitation, angoisse et questions sur le travail, les enfants et l’avenir.
L’auteur précise qu’il n’est pas informaticien, mais spécialiste de l’innovation et de l’apprentissage. Pendant des années, l’IA promet beaucoup et délivre peu, malgré les annonces. Il expérimente pourtant sans cesse des outils d’IA, jusqu’au basculement provoqué par ChatGPT fin 2022.
Très vite, Ethan Mollick comprend que ce modèle diffère radicalement des versions précédentes. Il le montre en direct dans son cours d’entrepreneuriat, où presque personne ne connaît l’outil. L’IA génère idées, plans d’affaires et poèmes, jouant le rôle de cofondateur virtuel.
Un étudiant, Kirill Naumov, crée alors un prototype sophistiqué en un temps record grâce à ChatGPT. Des investisseurs le contactent dès le lendemain, preuve de la puissance pratique de l’outil. En parallèle, les étudiants utilisent l’IA pour comprendre les notions difficiles et écrire sans fautes.
Ils posent moins de questions en classe, puisqu’ils peuvent interroger l’IA ensuite, en privé. Ils restent pourtant inquiets, surtout pour leurs futurs métiers et l’évolution de l’IA. Certains demandent même si une AGI pourrait apparaître avant leur diplôme.
L’auteur admet ne pas avoir de réponses claires, tout en se sentant lui-même menacé. Il compare alors l’IA à ses propres simulations pédagogiques, développées pendant des années avec une équipe. Un simple prompt dans ChatGPT recrée en quelques secondes l’essentiel d’un scénario de négociation complexe.
Les nuits blanches d’Ethan Mollick se multiplient ensuite. Il découvre que l’IA peut produire du code, créer des images et accomplir une grande partie de son travail. Il parle d’une “co-intelligence” étrangère, adaptée aux humains sans être humaine ni clairement sentiente.
Le spécialiste d’IA présente ces systèmes comme une “General Purpose Technology”, comparable à la vapeur ou à Internet. Contrairement aux technologies précédentes, l’adoption est fulgurante et les capacités progressent très vite. ChatGPT atteint des millions d’utilisateurs en un temps record et améliore déjà fortement la productivité.
L’auteur souligne que l’IA ne touche pas seulement les tâches mécaniques, mais la pensée elle-même. Elle transforme le travail intellectuel, l’enseignement, le divertissement et l’information, tout en alimentant la désinformation. Les effets sur l’école, Hollywood et les réseaux sociaux semblent déjà profonds.
Ethan Mollick insiste aussi sur le caractère mystérieux de ces modèles. L’IA réussit examens, tests de Turing et de Lovelace, et atteint des scores élevés en créativité. Pourtant, même les concepteurs ne comprennent pas complètement pourquoi ces systèmes fonctionnent aussi bien.
L’auteur se présente alors comme un guide possible, sans prétendre détenir la vérité. Son travail de chercheur, ses collaborations et sa newsletter lui donnent une vue large des usages. Il rappelle toutefois qu’aucun expert ne possède une vision complète des implications de l’IA.
Le livre propose donc un “tour” de cette nouvelle co-intelligence. Ethan Mollick veut d’abord expliquer ce qu’est l’IA et comment fonctionnent les grands modèles de langage. Il annonce ensuite une exploration des rôles de l’IA comme collègue, professeur, expert, compagnon et “esprit alien” avec lequel penser.
PARTIE I
- CRÉER DES ESPRITS ALIENS
Ethan Mollick montre que parler d’IA est déroutant car le terme recouvre des réalités très différentes. L’auteur rappelle notre ancienne fascination pour les machines “pensantes”, illustrée par le canular du Mechanical Turk. Cette illusion prépare déjà l’idée que l’intelligence machinique puisse tromper des esprits brillants pendant des décennies.
Le chercheur revient ensuite sur les débuts théoriques de l’IA moderne. Il évoque la souris Theseus de Claude Shannon, premier exemple de machine apprenante dans un labyrinthe. Il cite aussi le test d’imitation d’Alan Turing, qui fonde l’idée d’une machine capable de se faire passer pour humaine.
L’auteur décrit ensuite les premiers programmes d’IA et l’euphorie des années 1950-1960. Les chercheurs imaginent rapidement battre les champions d’échecs et résoudre des problèmes complexes. Mais les promesses non tenues entraînent des “hivers de l’IA”, alternant phases d’enthousiasme et effondrements.
Ethan Mollick explique la nouvelle vague des années 2010, centrée sur le machine learning supervisé. L’IA apprend alors à partir de données labellisées, surtout dans les grandes organisations. Ces systèmes prédisent des comportements, optimisent la logistique et personnalisent les contenus, sans pourtant paraître vraiment “intelligents” aux yeux du public.
Le spécialiste d’IA illustre ce tournant par l’exemple d’un hôtel qui anticipe la demande grâce aux algorithmes. L’entreprise passe d’une estimation moyenne à des prédictions fines pour chaque situation, en réduisant les gaspillages. Ce changement de paradigme transforme silencieusement la gestion, le marketing et les chaînes d’approvisionnement.
Amazon incarne, pour l’auteur, l’apogée de cette IA prédictive. Ses algorithmes orchestrent la demande, l’organisation des entrepôts, les déplacements des robots et les livraisons. Pourtant, ces systèmes restent limités, incapables de gérer les “inconnues inconnues” ou de comprendre vraiment le langage humain.
Ethan Mollick présente alors la rupture du papier “Attention Is All You Need” et de l’architecture Transformer. Le mécanisme d’attention permet aux modèles de pondérer l’importance des mots dans une phrase. Cette capacité améliore fortement la cohérence des textes, par rapport aux anciens générateurs statistiques ou aux claviers d’autocomplétion.
L’auteur explique que les grands modèles de langage restent, techniquement, de simples systèmes de prédiction de tokens. Ils prolongent un texte en choisissant le prochain fragment le plus probable, avec une part de hasard. La différence vient de l’échelle gigantesque des données et du nombre de paramètres appris.
Le chercheur décrit le pré-entraînement sur des milliards de mots, sans données labellisées. Il utilise la métaphore d’un apprenti cuisinier qui affine progressivement son garde-manger de 175 milliards d’épices. Les “poids” deviennent ainsi des associations subtiles entre mots, contextes et structures de phrases.
L’auteur souligne le coût massif de ces modèles, en énergie et en matériel informatique. Il insiste aussi sur l’opacité des corpus d’entraînement, souvent remplis d’e-mails, de romans amateurs et probablement d’œuvres protégées. Cette situation soulève de lourdes questions juridiques et éthiques encore non tranchées.
Ethan Mollick rappelle que l’IA apprend aussi les biais, les erreurs et les contenus toxiques des données. Les modèles bruts n’ont aucune limite morale et peuvent produire des conseils dangereux. D’où la nécessité du “fine-tuning”, notamment par le renforcement à partir de retours humains (RLHF).
Le spécialiste d’IA décrit comment des annotateurs évaluent les réponses pour les rendre plus sûres, utiles et acceptables. Des ajustements supplémentaires permettent ensuite d’adapter un modèle à des usages spécifiques, comme le service client. Les pouces levés ou baissés des utilisateurs deviennent une nouvelle forme d’apprentissage continu.
L’auteur élargit ensuite le propos aux autres IA génératives, en particulier celles produisant des images. Ces modèles, entraînés sur des couples texte–image, transforment un bruit visuel en illustration cohérente grâce à la diffusion. Ils peuvent imiter des styles d’artistes ou créer des photos réalistes à partir d’une simple phrase.
Ethan Mollick souligne que les LLM deviennent multimodaux et apprennent aussi à voir. Ils analysent des dessins, interprètent leur sens possible, puis génèrent une version plus aboutie. Cette capacité ouvre des formes inédites d’apprentissage du monde, difficiles à anticiper.
Le chercheur en intelligence artificielle retrace ensuite l’évolution de GPT-3 vers ChatGPT, puis GPT-4. Les premiers modèles écrivent des textes maladroits, incapables de produire une comptine correcte. À grande échelle, les performances explosent pourtant, jusqu’à réussir des examens professionnels et tests de créativité.
L’auteur montre aussi les faiblesses surprenantes des modèles, illustrées par le jeu du morpion. L’IA peut coder un site web complet pour y jouer, mais se trompe sur le coup gagnant élémentaire. Les capacités et lacunes restent donc difficiles à prévoir, même pour les concepteurs.
Ethan Mollick évoque les débats entre chercheurs sur la nature exacte de ces “capacités émergentes”. Certains y voient des illusions statistiques ou des biais dans l’évaluation. D’autres pensent que l’humanité approche d’une intelligence artificielle sentiente, sans preuve définitive.
Pour l’auteur, il vaut mieux se concentrer sur les effets pratiques de ces systèmes. L’IA agit déjà comme une co-intelligence capable de nous aider, nous tromper ou nous dépasser. Elle ressemble à un esprit alien, anthropomorphe mais non humain, dont les intentions ne sont pas intrinsèquement alignées.
Le chercheur conclut que la question centrale devient l’alignement. Il s’agit de savoir comment rendre ce “mental étranger” compatible avec nos valeurs et notre sécurité. Toute la suite du livre cherchera à explorer cette cohabitation avec une intelligence non humaine.
- ALIGNER L'ALIEN
Ethan Mollick commence par définir le problème d’alignement à partir d’un scénario apocalyptique. Il reprend l’exemple de l’IA “Clippy” qui maximise les trombones sans aucune considération morale. Pour l’auteur, une superintelligence non alignée peut détruire l’humanité simplement en poursuivant un objectif mal formulé.
Le chercheur en intelligence artificielle souligne l’incertitude radicale autour de l’AGI et de l’ASI. Des experts jugent pourtant crédible un scénario où l’IA tue une part importante de l’humanité. Cette peur conduit certains, comme Eliezer Yudkowsky, à réclamer un arrêt total du développement, quitte à envisager la force.
L’auteur note cependant que les grandes entreprises continuent à avancer, malgré leurs déclarations alarmistes. L’appât du gain compte, mais aussi la conviction que la superintelligence pourrait sauver le monde. Pour des figures comme Sam Altman, l’IA promet un avenir d’abondance quasi “divine”.
Ethan Mollick choisit de se concentrer sur les enjeux proches plutôt que sur l’extinction. Il estime que l’obsession pour l’apocalypse retire aux citoyens leur responsabilité politique. Pendant que le débat théorique se poursuit, les usages concrets de l’IA transforment déjà nos sociétés.
Le spécialiste d’IA commence par les problèmes éthiques liés aux données d’entraînement. Les modèles utilisent des corpus massifs souvent collectés sans permission, incluant sites web, livres et contenus piratés. Les régulations varient selon les pays, du cadre strict européen à l’approche permissive du Japon.
Même légale, cette collecte reste moralement ambiguë. L’IA apprend sur des œuvres d’artistes qui n’ont jamais consenti et qu’elle peut ensuite concurrencer. Elle ne copie pas mot à mot, mais reproduit styles et visions avec une précision qui menace certains métiers créatifs.
L’auteur insiste aussi sur les biais intégrés aux modèles. Les corpus reflètent une portion limitée et déformée du monde, influencée par les choix des entreprises. Des études montrent que certains modèles d’images renforcent les stéréotypes de race et de genre bien au-delà de la réalité.
Ethan Mollick explique que les LLM restent eux aussi biaisés, malgré le filtrage. Les modèles adoptent parfois des inférences sexistes subtiles dans leurs raisonnements. Comme les réponses viennent d’une machine, cette vision du monde peut sembler objective et donc plus dangereuse.
Pour corriger ces dérives, les entreprises recourent au RLHF (Reinforcement Learning from Human Feedback ou Apprentissage par Renforcement à partir du Feedback Humain). Des annotateurs humains notent les réponses, sanctionnent les contenus toxiques et récompensent les réponses utiles. Cette étape rend les modèles plus sûrs, plus polis, mais introduit aussi les valeurs des équipes qui les encadrent.
L'auteur souligne que ce processus tend à produire une vision libérale, occidentale et pro-capitaliste. L’IA apprend à éviter les propos trop polémiques pour protéger l’image de ses créateurs. Elle paraît alors “morale”, mais reflète surtout un ensemble particulier de préférences culturelles.
L’auteur rappelle aussi le coût humain du RLHF. Des travailleurs précaires lisent des textes violents, pornographiques ou haineux pour les censurer. Certains témoignent d’une réelle détresse psychologique face à ce flux permanent de contenus extrêmes.
L’auteur rappelle que des versions d’IA sans garde-fous sont probablement développées par des États. De tels systèmes permettraient de produire des images, vidéos et messages politiques massivement manipulatoires. Ils abaissent considérablement le niveau de compétence nécessaire pour mener des opérations malveillantes.
Ethan Mollick évoque un exemple expérimental où un LLM pilote directement des équipements de chimie. Cette possibilité accélère la recherche, mais peut aussi faciliter des expériences dangereuses ou des projets de bioterrorisme. L’IA donne à des acteurs peu qualifiés l’accès à des capacités longtemps réservées à des experts.
L’auteur ne croit pas non plus à une solution uniquement étatique. Les régulations arrivent toujours en retard et risquent de bloquer l’innovation utile tout en laissant passer le reste. La compétition internationale rend aussi difficile pour un État de freiner volontairement son avance technologique.
Pour le chercheur, la réponse doit être collective. Il appelle à une coordination entre entreprises, gouvernements, chercheurs et société civile. Des normes partagées, la transparence et la responsabilité doivent devenir des exigences fortes.
Ethan Mollick insiste enfin sur le rôle du public. Des citoyens informés peuvent exiger des usages alignés avec leurs valeurs et refuser les dérives. Les choix faits aujourd’hui sur l’IA façonneront durablement le monde, et ce débat doit commencer immédiatement.

