Tu connais le cliché : les ex-dirigeants de Facebook qui interdisent les réseaux sociaux à leurs gamins.
Ben voilà la version tech-senior-qui-s’inquiète pour l’IA.
Mo Gawdat, ancien Chief Business Officer de Google, le fameux labo « moonshot » où on fait des trucs un peu fous, est récemment venu dans un podcast balancer une prophétie pas joyeuse : selon lui, dès 2027 on pourrait glisser dans une dystopie IA qui durerait une bonne dizaine d’années (il parle de 12–15 ans). Traduction : ce n’est pas “dans 50 ans, peut-être”, c’est “dans 2 ans, potentiellement”.
Avant d’ouvrir la chasse aux sorcières, deux choses à garder en tête sur le bonhomme :
- c’est quelqu’un qui a bossé au cœur de la machine, il a vu des projets côté business/stratégie chez Google, donc il n’est pas juste un passant.
- en même temps, les ex-dirigeants aiment parfois régler des comptes ou attirer l’attention en livrant des prédictions cash. Bref : on écoute, mais on garde la pince à épiler.
Alors qu’est-ce qu’il dit, précisément ? Sa thèse tient en deux phrases :
- L’IA, en soi, n’est pas “mauvaise”, c’est un outil.
- Elle amplifie nos conneries : surveillance, manipulation, licenciements de masse, deepfakes, arnaques automatisées… les maux existants prennent de l’amplitude quand tu leur files une loupe qui calcule plus vite que toi. C’est l’idée. Si l’humain est con, l’IA deviendra une machine à pousser cette connerie à l’échelle industrielle.
Pour peser la chose, ça vaut le coup de poser trois repères historiques rapides, parce que comprendre l’IA d’aujourd’hui, c’est lire la bande-annonce d’un film commencé il y a 10 ans.
Petite histoire accélérée de la génération d’IA (les dates qui claquent)
- 2014 : les GANs (les technos qui ont rendu possibles des images “très réalistes”) ouvrent la boîte à outils des images synthétiques.
- 2017 : paper « Attention is all you need », naissance du transformer, la structure qui permettra aux LLM (GPT, etc.) d’exploser.
- 2019–2020 : GPT-2, puis GPT-3 (2020) rendent la génération de texte vraiment convaincante.
- 2021–2022 : DALL·E, Imagen, Midjourney, Stable Diffusion démocratisent la création d’images par texte. Les modèles diffusion changent la donne : qualité pro + vitesse.
- 2023–2024 : sorties / raffinements commerciaux massifs (Gemini chez Google / modèles DeepMind, XAI/Grok, OpenAI et ses itérations). Bref, on n’est plus dans la recherche de labo : on est dans la distribution grand public.
Concrètement : les outils sont devenus accessibles, puissants, et parfois peu réglementés. On peut générer des images quasi indiscernables, des vidéos, des voix, et automatiser des tâches qui prenaient avant des humains.
Et les mauvais usages ?
On les voit déjà : deepfakes ultra-réalistes, campagnes de désinformation à la chaîne, phishing hyper-personnalisé, usurpation d’identité, recommandations manipulatrices, gains de productivité utilisés pour supprimer des postes… Et oui, récemment une actualité a mis le feu aux poudres : des outils comme Grok (xAI / Elon Musk) ont été accusés de pouvoir générer des images explicites de célébrités sans prompts explicites, relançant la discussion sur les garde-fous et la modération. Ça illustre la fragilité des contrôles actuels.
Cerise amère : beaucoup de ces dérives sont déjà couvertes par la loi (diffamation, usurpation d’identité, pornographie non consentie, etc.), surtout en Europe. Mais et (gros mais), l’État peut aussi être l’acteur qui instrumentalise l’IA (surveillance, répression) et les frontières juridiques se font parfois la course avec l’innovation. L’Union européenne a au moins tenté de poser des règles, l’AI Act a commencé à être mis en œuvre en 2024, avec une application progressive des obligations. Mais ce cadre est nouveau, complexe, et se heurte à la rapidité de déploiement des modèles.
Revenons à Mo Gawdat : pourquoi 2027 ?
Il avance deux arguments implicites qui valent d’être décodés :
- Accélération technique : le pas entre les modèles d’il y a 2 ans et ceux d’aujourd’hui est énorme, en puissance et accessibilité. Des prototypes qui étaient dans des labos deviennent des produits grand public très vite.
- Effet de réseau sociotechnique : une fois que l’IA peut générer du contenu, orchestrer des campagnes, écrire du code, faire du support, modérer des communautés, etc., sa diffusion n’est plus lente. Elle s’insinue dans des pans entiers de l’économie et de la société en quelques années. Si suffisamment d’agents (entreprises, États, mafias, influenceurs) l’utilisent mal, l’impact devient systémique.
Donc sa date n’est pas tirée au hasard : il évalue la trajectoire de diffusion + l’échelle possible d’abus. Mais, et c’est important, prévoir une année précise est toujours risqué. Beaucoup d’alertes de ce type mélangent observation valable + hyperbole pour faire réagir.
Alors, que faire ? Mo propose une direction claire : réglementer l’usage, pas la recherche pure. Sa métaphore : on ne régule pas la création d’un marteau, on punit l’usage criminel du marteau. C’est séduisant. Sauf que :
- Certains usages qu’il dit dangereux sont déjà illégaux, mais l’appliquer à l’échelle algorithmique est compliqué (responsabilité, traçabilité, attribution).
- Les États eux-mêmes peuvent être utilisateurs problématiques (surveillance, répression), donc réclamer “la loi” comme solution suppose des institutions qui veulent et peuvent contrôler ces usages. Pas acquis partout.
En pratique, ça appelle à plusieurs chantiers simultanés :
- Transparence & audits des modèles (qui les a entraînés, sur quelles données, quels biais).
- Responsabilité claire des plateformes qui déploient (monitoring, rollback, sanctions financières).
- Outils de détection (détecteurs d’IA, watermarking, traçabilité des contenus), même s’ils sont imparfaits et sujets à contournement.
- Protection sociale : reconversion, filets pour les travailleurs déplacés par l’automatisation.
- Diplomatie & standards internationaux (éviter que des États refuges deviennent des fournisseurs d’armes numériques).
Mo Gawdat n’est pas juste un vieux de la vieille qui débloque pour la frime, il a une expérience solide chez Google et a une lecture qui mérite attention. Mais son tableau est aussi une sonnette d’alarme calibrée pour provoquer l’action et le débat. 2027-2039 comme “période dystopique” reste une hypothèse forte, pas une prophétie gravée dans le marbre. Ce que l’alerte a d’utile, c’est qu’elle recentre la conversation : on ne parle plus du potentiel de l’IA seulement comme outil magique, on parle de la façon dont les humains l’utiliseront, et de ce qu’on accepte collectivement.
