La liberté confisquée : Chapitre 3

L
Tous les textes-médecine sont disponibles aux formats livre papier et ebook

Nous sommes en train de mettre au point toute une série de techniques qui permettront à l’oligarchie dirigeante de faire en sorte que les gens aiment réellement leur servitude.

Aldous Huxley

Je t’en prie, ne m’en veux pas… Je vois bien que je t’ai assommé avec le chapitre précédent. Et je sais ce que tu ressens : on est traversé par un sentiment d’impuissance, la sensation d’étouffer, l’impression diffuse que tout est foutu. Que nos élites ont déjà gagné. 

Je suis passé par là, tu as envie de baisser les bras et de ranger cette fichue pelote au fond d’un tiroir pour l’oublier. Mais je te demande de me faire confiance, d’aller chercher cette ressource en toi qui va te permettre de tirer sur le prochain nœud : celui de l’Intelligence Artificielle au service de nos geôliers. Il n’est pas évident à digérer, mais on a besoin d’y voir clair pour la suite.

Allez, on y va en douceur…

Un matin d’août 2022, des milliers de Français ont découvert une lettre des impôts : leur piscine non déclarée venait d’être repérée… depuis le ciel, par un algorithme. À l’origine, un projet baptisé « Foncier innovant », développé par la Direction générale des Finances publiques avec Google Cloud et Capgemini. Officiellement, il ne s’agissait que de « justice fiscale ». En réalité, c’était le premier test grandeur nature d’un système où l’IA scrute nos vies depuis l’espace pour traquer la moindre irrégularité.

L’algorithme scanne les toits pour y repérer piscines, annexes, vérandas. Tout bâti non déclaré devient une cible fiscale. Un agent humain ne valide qu’après le passage du filet numérique.

Et ça rapporte… lors du projet pilote sur 9 départements, plus de 20 000 piscines non déclarées ont été détectées. Un jackpot de près de 10 millions d’euros de recettes fiscales juste pour 2022.

Le retour sur investissement est assuré, l’État a investi 24 M€ entre 2021 et 2023, et compte en tirer environ 40 M€ par an, via l’extension nationale du dispositif.

À Bercy, on se frotte les mains dès le début, et tant pis pour les 30% d’erreurs de la reconnaissance visuelle lors de la phase expérimentale (5 à 10% à présent), ou les 300 agents de la sphère foncière que ce projet permettrait de supprimer.

Définitivement, « au fisc » on a un certain sens de l’ironie, puisque Capgemini réalise la maîtrise d’œuvre, et Google fournit l’infrastructure cloud. Ce qui est assez savoureux quand on sait que Capgemini est déjà lié à des controverses autour du logiciel Scribe, censé moderniser la rédaction des procédures de la police et de la gendarmerie. Résultat à l’époque ? Un fiasco abandonné à 14 millions d’euros.  Et le pompon sur la Garonne, comme on dit chez moi : Google a déjà été condamné pour fraude fiscale et protection des données. Deux géants pas tout blancs qui jouent un rôle crucial dans la surveillance fiscale. Il n’y a qu’en France que ça peut passer, les deux doigts dans le nez.

Tu t’en doutes, cette IA de l’œil fiscal ne se limite pas à notre belle République. Des petits frères prolifèrent ailleurs : aux Pays-Bas, le fisc note les contribuables comme des élèves turbulents, grâce au data-mining et au scraping automatisé des réseaux sociaux. Tu postes une photo de vacances trop luxueuse ? Bam, risque de contrôle.

En Belgique, l’IA passe les transactions TVA au crible et bloque automatiquement celles qui lui « semblent » suspectes. Même logique, la machine d’abord, la justice après.

Aux frontières de l’Union Européenne, on teste la reconnaissance faciale, les scores de risque, et même des gadgets pseudo-scientifiques comme les détecteurs d’émotions ou les polygraphes IA. Des chercheurs alertent : c’est une attaque directe contre la vie privée, la non-discrimination et le droit à un recours.

Et que fait Bruxelles ? Elle prépare son grand cadre « protecteur », l’AI Act. Sur le papier, il interdit le score social et la vidéosurveillance biométrique en temps réel.

En vrai, il multiplie les exceptions en cas de terrorisme, de sécurité publique, de droit national. Traduction : il y a des trous (volontaires) dans la raquette. Tout sera possible, tant qu’on trouve un bon prétexte. Tu commences à connaître leur fonctionnement…

Mais revenons en Macronie pour tirer sur un autre fil, celui où l’IA conditionne les prestations sociales.

La CAF ne se contente plus de distribuer des aides. Elle note ses allocataires sur une échelle de 0 à 10 selon leur « risque » d’erreur ou de fraude. Plus le score est haut, plus les chances d’être fiché, contrôlé et harcelé augmentent.

En octobre 2024, une coalition d’ONG (La Quadrature du Net, Amnesty International, Collectif Changer de Cap, etc.) a saisi le Conseil d’État pour dénoncer un système intrinsèquement discriminant et opaque.

Basta ! explique que la CAF scanne 28,3 millions de dossiers automatiquement, ciblant en priorité les allocataires les plus fragiles (RSA, AAH). N’ayons pas peur des mots : c’est une véritable chasse aux gueux.

Plutôt que de cibler les vrais indices de fraude, l’algorithme fait un focus sur les foyers vulnérables (jeunes parents solos, personnes handicapées, mouvements de déménagement).

D’après les ONG, l’outil reste une boîte noire. La CAF ne publie pas le code, ne communique ni critères précis ni mécanismes de recours.

Quoi qu’il en soit, si on dézoome un peu, c’est tout simplement un contrôle social algorithmique puisque chaque dossier devient potentiellement suspect. Ces « scores » creusent le fossé entre les bons citoyens et les autres. Ça ouvre clairement la porte à une surveillance massive, normalisée, justifiée par l’efficacité.

Et comme c’est le cas pour l’IA déployée par le fisc, le phénomène s’étend au-delà de nos frontières.

L’algorithme SyRI (Systeem Risico Indicatie), au Pays-Bas, a fiché des milliers de personnes pour des fraudes présumées. C’était si flagrant et si arbitraire que le système a été jugé illégal.

Au Danemark, l’administration des prestations sociales traque ses allocataires avec un système de data-mining ultra intrusif. Sans pitié, voici les variables surveillées : nationalité, statut familial, revenus, changements de domicile… Des ONG dénoncent une nouvelle chasse aux pauvres et aux étrangers.

Que tu le veuilles ou non, tu entres dans un système où tes données deviennent un risque évalué, sans ton consentement, ni même sans contrôle humain visible. Ces systèmes te jugent, te fliquent et te pénalisent avant même que tu puisses te défendre. Ton statut, ton âge, ton parcours sont devenus suspects.

Du côté de la sécurité intérieure, l’IA n’est pas en reste et les débordements en France ne sont pas des exceptions. Depuis 2015, la police et la gendarmerie ont utilisé BriefCam — un outil israélien capable de reconnaissance faciale — dans l’illégalité, comme l’a révélé Disclose.

Bien sûr, la justice a ordonné l’arrêt immédiat du logiciel.  Pourtant, les pouvoirs publics continuent de bricoler un cadre juridique pour remplacer BriefCam par du « souverain », sans te demander ton avis (ni le mien).

Toujours dans le même délire, tu te souviens des JO 2024 à Paris ? Je suis sûr que tu ne peux pas les oublier…

Pendant que la France s’embrasait sur un banquet drag‑queen blasphématoire, ou que toute la presse vibrait à l’idée d’organiser des épreuves dans une Seine toxique, un autre spectacle bien plus vertigineux se jouait dans l’ombre : l’État installait un système de vidéosurveillance algorithmique aux JO.

Cette machinerie, on l’appelle « Vidéoprotection algorithmique (VSA) », et la Macronie compte bien en user et en abuser.

La loi JOP de mai 2023 a ouvert la boîte de Pandore : on a autorisé l’analyse algorithmique des caméras publiques, sans reconnaissance faciale, mais avec une garantie juridique aussi solide qu’un papier toilette trempé.

En théorie, l’IA pour les caméras « augmentées » devait s’arrêter net au 31 mars 2025.

Sauf que… le gouvernement a essayé de la prolonger jusqu’en 2027 — via un cavalier législatif dans une loi sécurité transport. Le Conseil constitutionnel a calmé le jeu. Mais ça repart et on sent bien une volonté de surveiller à tout prix.

Moins d’un an après Paris 2024, l’Assemblée remet déjà une pièce dans la machine, avec une nouvelle loi pour réactiver la VSA d’ici 2027, cette fois dans le cadre… des JO d’hiver 2030.

Tout ça alors que le bilan est mitigé et que les promesses d’efficacité restent à prouver. En clair, la boîte de Pandore n’est pas refermée, elle est juste reliftée. D’ailleurs, si tu veux aller plus loin sur le sujet, je te propose de te pencher sur le livre de l’avocate Joëlle Verbrugge « IA & Image – guide juridique », et plus particulièrement sur le chapitre 8 « I.A., image et dérives totalitaires ». J’ai eu la chance de travailler sur la couverture de son ouvrage (mon lien d’intérêt avec elle s’arrête là).

Je t’embarque à présent dans la zone où ta tête devient un ticket d’entrée… Quand l’IA est utilisée aux frontières.

Tu connais le PARAFE[1] ? C’est ce sas biométrique qui scanne ton visage ou tes empreintes à la frontière. Ça paraît pratique, mais pour l’État, c’est surtout une balance automatisée — tu « passes » ou tu « bloques » le guichet. Le tout validé par la CNIL avec un sourire policé.

Derrière les pupitres, il y a l’ADN de Thales, d’Idemia, ces mastodontes qui fabriquent le sésame identitaire comme les cartes, les passeports, les enregistrements biométriques, les bases de données géantes (CNI[2], AFIS[3], TAJ[4]… rien que du lourd).

L’usage est « très limité » en théorie, mais on sait tous que ce sont des fondations industrielles utilisées par l’État, prêtes à se densifier.

Sans transition, on passe des sas qui scannent nos visages dans les gares aux serveurs qui scrutent notre santé dans l’ombre. Ta vie intime devient un fichier et tu ne le vois même pas.

En coulisses, tes données de santé sont capturées, empaquetées, analysées… et hébergées chez Microsoft. Voici ce que tu dois savoir, droit dans les yeux.

Le Health Data Hub, cette gigantesque base qui connecte toutes les données de santé françaises (SNDS[5], hôpitaux, cohortes), a été immédiatement confié à Microsoft Azure, sans appel d’offres européen, via un contrat de l’UGAP. Il faut dire les choses clairement : on a donc une plateforme hautement sensible sous la législation américaine (CLOUD Act, FISA[6]).

La CNIL, contre toute attente, a accepté l’hébergement… mais à contrecœur, conditionné à l’engagement de migrer vers un cloud « souverain » (SecNumCloud, français ou européen).

Le Conseil d’État, lui, a soutenu le choix Microsoft en novembre 2024, malgré l’opposition de la CNIL et des associations sur le risque de transfert massif hors UE. Une nouvelle fois, la souveraineté est trahie : on a encore financé l’Oncle Sam.

Pire, on a là un favoritisme assumé. Microsoft, géant américain, continue d’hériter d’un des fichiers les plus sensibles du pays.

Six ans plus tard, aucune migration effective n’a eu lieu, même si la loi SREN (mai 2024) impose une migration dans l’année. Cloud Temple, OVHcloud, NumSpot, Cegedim… tous labellisés, attendent derrière la porte.

Microsoft engrange, encore. Hébergeant notre fichier national de santé. Aucun concurrent n’a pu prendre la relève. La part du gâteau est tellement énorme que Capgemini & Orange préparent « Bleu », le futur cloud de confiance. Mais pour l’instant, Microsoft garde la main sur le plus gros coffre français.

Comme le disait si bien en 2014 Elon Musk (MIT) : « Avec l’intelligence artificielle, nous invoquons le démon. »

Bienvenue dans l’enfer de l’IA couplée à la Défense et au Renseignement. Place au flicage d’État en mode panoptique…

C’est le cœur du système… ici l’État assemble les pièces du puzzle IA pour te traquer avant même que tu saches ce que tu caches. Voici ce qui est en jeu : une course à la performance et aux financements massifs sous couvert d’une souveraineté de façade.

On démarre avec ARTEMIS.IA, le Big data d’en haut, qui nous surveille tous.

Derrière ce nom en or massif se cache une plateforme big data modulable pilotée par la Direction Générale de l’Armement (DGA), conçue pour fusionner les données de tous les capteurs — drones, radars, satellites… Tout ça, via une société commune montée par Atos et Thales, « Athea ».

Son rôle ? Ingurgiter et analyser toute la donnée issue des radars, des drones, des satellites et des capteurs divers pour en sortir des « alertes opérationnelles ». Elle permettra d’anticiper les manœuvres ennemies, d’accélérer la prise de décision, de surveiller les terrains, voire d’anticiper les pannes ou menaces cryptées.

En parallèle, Preligens, la start-up spécialisée dans l’imagerie satellite militaire a été avalée par Safran en septembre 2024, pour 220 millions d’euros. Le but de la manœuvre est de développer une filière IA souveraine, mais version « grand groupe », contrôlée par l’industrie de l’armement.

L’IA de Preligens est capable de scanner des images satellites ou drones et d’y détecter automatiquement des cibles : blindés, avions, navires… Elle repère les signes d’activité militaire dans de vastes zones. Son outil permet aux armées de surveiller en continu des zones sensibles — sans devoir trier manuellement des centaines de milliers d’images. De quoi accompagner l’Armée Française dans sa stratégie d’IA.

Du côté du renseignement, Palantir reste encore dans la bouclece logiciel américain de surveillance, inventé avec l’argent de la CIA, a longtemps été utilisé par nos services (DGSI). Même si Paris dit vouloir s’en passer, il est toujours là au moins jusqu’à la fin du quinquennat. Parce que nos solutions locales ne sont pas encore prêtes.

Et tu sais ce qui est vraiment problématique dans ce dossier ?

C’est que Secret-défense = opacité. On entre dans une sphère où les données restent enfermées, il n’y a pas d’évaluation indépendante possible. Un rapport de l’Assemblée nationale (oct. 2024) alerte justement sur la gouvernance éclatée, l’absence de cadre juridique clair, les freins au partage de données (secret défense).

Rassurante, la Défense française affirme miser sur une « souveraineté numérique » renforcée. Caméras, capteurs, plateformes IA, cloud militaire (ex. Combat Cloud pour SCAF, SCORPION) vont être interconnectés. Le but est de créer un réseau IA capable de fournir une vision tactique, stratégique et temporelle en temps réel. Sur le papier, c’est la 7e merveille du monde.

Dès 2019, le ministère précisait que l’IA permettrait d’anticiper l’adversaire, de discriminer les cibles des non-combattants, d’améliorer la proportionnalité, de simuler, protéger, et de libérer du personnel des tâches répétitives comme la reconnaissance d’images, les logs, la santé des soldats.

En Macronie on voit les choses en grand et on y croit à fond… Mais vouloir n’est pas forcément pouvoir…

Même avec une foi inébranlable, la France n’a pas les muscles de l’Oncle Sam. On est encore des amateurs sur le terrain.

Un rapport de 2023 pointe que, malgré ses ambitions, la France peine à passer à une « defense software » ultra-intégrée comme aux USA. Ça veut dire que les logiciels restent chers à maintenir, fragmentés entre branches (DGA, MoD, labs de l’armée), et difficiles à déployer ensemble. C’est un flop.

Et pour surmonter cette contre-performance, il faudrait au gouvernement français un prétexte idéal. Une situation qui nécessite de mettre les bouchées doubles. Une menace à laquelle on ne peut répondre qu’en collaborant avec d’autres puissances militaires. Un conflit qui justifie de se retrousser les manches et de s’ôter la moindre limite à l’échelle européenne. Une bonne guerre…

Et un peu comme le Covid était le prétexte parfait pour une accélération du contrôle numérique de nos pauvres existences… l’invasion Russe en Ukraine était une aubaine, mettant de l’essence sur le feu technologique. Et ouvrant les vannes de financements presque illimités.

Les choses sont décidément bien faites dans l’Histoire… Les IA de la Défense française ne font plus cavalier seul — elles s’inscrivent dans un mouvement plus large, soutenu par l’UE, où se tisse un véritable réseau technologique et militaire pour faire face à l’ogre Russe rugissant à nos portes.

En agitant la menace Poutine dans l’inconscient collectif, les élites mettent en place le European Defence Fund (EDF). 7700 M€ alloués entre 2021 et 2027, dont près de 1,1 Mrd€ rien qu’en 2024 pour des projets IA et technologies militaires (drones, défense hypersonique, communications IA).

En 2025, 62 projets européens ont reçu 910 M€ de financement, notamment dans les domaines du pilotage de drones autonomes et de la robotique terrestre.

L’urgence stratégique bien pratique déclenche le plan ReArm Europe / Readiness 2030. Proposé en mars 2025 puis renommé Readiness 2030, ce plan envisage de mobiliser jusqu’à 800 Mrd € pour renforcer les capacités militaires européennes, avec des prêts (150 Mrd €), un redéploiement de fonds existants, une levée budgétaire, le soutien de la BEI, et implication des capitaux privés.

Les milliards pleuvent pour développer une culture de la « tech militaire européenne » qui explose. Les hackathons de défense pullulent (EUDIS, OTAN DIANA) et portent l’innovation IA militaire vers les startups et les terrains concrets. Ces événements suivent de près la guerre en Ukraine comme moteur d’urgence technologique.

Et pour repousser les méchants russes, le fonds Européen de Défense encourage les PME tech dans la défense à coup de milliards.

Et tu veux connaître le plus beau ? Alors tire encore un peu sur ce petit fil de laine… Ce qui est magnifique pour nos élites, c’est que les milliards injectés dans l’IA militaire ruissèlent forcément dans le civil.

Quand les exploits d’une IA militaire s’exportent dans notre monde à nous, on appelle ça le « dual-use ». Et la mise à disposition de l’IA militaire à la sphère civile c’est la norme, pas l’exception.

En 2024, la Commission a publié un white paper sur la recherche à usage mixte (dual-use), soulignant clairement la nécessité de soutenir les technologies utilisables dans les deux domaines.

Le European Defence Innovation Scheme (EUDIS), financé par le Fonds européen de défense (EDF), a alloué 2 milliards € en 2025 aux projets dual-use, avec une priorité aux IA, aux drones et aux systèmes embarqués.

L’European Innovation Council (EIC), initialement consacré aux start-ups civiles, finance désormais des entreprises dual-use (civil/militaire).

Ursula von der Leyen l’a même déclaré publiquement : « chips, cloud, IA… beaucoup de technologies du 21ᵉ siècle sont dual-use. Il faut construire des ponts entre civil et défense. » (Discours sur l’état de l’Union, septembre 2023).

Puisque toutes les vannes sont ouvertes, les industries civiles sont réorientées vers la défense. Par exemple, en 2025, en Irlande, plusieurs scale-ups civiles (capteurs maritimes, IA appliquée à la logistique, imagerie sous-marine) ont intégré des projets financés par l’UE pour la défense, sous la fameuse l’étiquette « dual-use ». C’est le sésame pour avoir une pluie de subventions. 

Le document Defence AI Observatory (2023) note que « les technologies IA développées pour les forces armées pourront être adaptées au civil », notamment en cybersécurité, analyse d’images, logistique, santé.

Au niveau juridique, l’AI Act européen exclut explicitement les systèmes militaires et de sécurité nationale de son champ d’application. Donc il n’y a pas de régulation contraignante sur l’IA militaire, ni sur son éventuel déversement vers le civil. En gros, on est en roue libre dès que c’est de l’IA militaire ou du sécuritaire.

Ce qu’il faut retenir ? Les mêmes algorithmes qui trient des images satellites ou pilotent des drones demain pourront surveiller nos villes, gérer nos flux logistiques, trier nos données de santé. Et comme l’AI Act (le cadre juridique de l’UE) exclut le militaire de toute régulation, aucun garde-fou sérieux n’empêche ce ruissellement.

Imagine que les lignes de codes qui servaient à détecter une colonne de blindés en Ukraine peuvent détecter à présent une manifestation non déclarée dans nos rues. Les IA dopées à coup de milliards qui, aujourd’hui, détectent un char russe ou un hangar suspect sur une image satellite, demain pourront être recyclées pour repérer un véhicule « anormal » dans un parking, une conversation gênante, un visage dans une foule, une pistoche pas encore taxée ou un comportement jugé suspect dans une gare.

Le tout avec une puissance de calcul colossale. L’armée finance déjà des supercalculateurs et des clouds ultra-sécurisés (Combat Cloud, ARTEMIS.IA). Tu t’en doutes, ces infrastructures ne resteront pas « militaires » : une fois payées par l’impôt, elles pourront servir au civil (santé, justice, sécurité intérieure). C’est, encore une fois, la magie du « dual-use ».

Les IA militaires formées à anticiper un mouvement ennemi peuvent déjà viser à prédire les comportements citoyens (fraude, mobilisation, radicalisation).

En prime, on entre dans une dépendance industrielle totale. Et ce n’est même pas un fantasme, ce sont les mêmes Thales, Safran, Atos qui développent à la fois pour les armées et pour la ville.

Et cerise sur le gâteau, tout ceci engendre un effet cliquet irrémédiable dont les élites mondialistes raffolent. Une fois les systèmes militaires installés (ex. caméras algorithmiques aux JO), ils deviennent des normes visibles qui ne s’enlèvent plus.

Pour preuve, le rapport du Parlement européen signale que l’IA est une technologie dual-use, et alerte sur la nécessité d’un cadre clair pour éviter ces « effets de glissement » du militaire vers le civil hors du contrôle démocratique. Inutile de te dire que ce cri d’alerte revient à pisser dans un violon. On n’arrête pas le progrès, surtout quand il fait circuler autant de milliards.

En clair, ce ruissellement est inarrêtable. Et toutes ces bombes technologiques retomberont tôt ou tard dans nos salons.

Tu peux à présent reprendre ton souffle, même si ce chapitre était éprouvant, tu n’as pas lâché le fil. Merci d’être encore là pour me lire, car j’ai une question qui doit absolument rencontrer ton esprit.

Si le Covid était le parfait prétexte pour le contrôle de l’identité… Si l’invasion en Ukraine était l’occasion idéale pour muscler l’IA Renseignement et Défense qui ruissellera fatalement sur le monde civil… Alors…

Quel évènement serait le prétexte rêvé pour accélérer encore le processus et accoucher des monnaies numériques de banques centrales ? Les réponses t’attendent dans le prochain chapitre…


[1] Le PAssage RApide aux Frontières Extérieures 

[2] Carte nationale d’identité (aujourd’hui CNIe pour la version électronique)

[3] Automated Fingerprint Identification System : système automatisé d’identification par empreintes digitales

[4] Traitement des antécédents judiciaires — base de données police/gendarmerie qui centralise mises en cause, victimes, éléments d’enquête, etc.

[5] Système National des Données de Santé.

[6] Foreign Intelligence Surveillance Act


0 0 votes
Évaluation de l'article

Rester en lien

Si ce murmure a résonné en toi,
et que tu veux rester relié aux prochains textes-médecine,
je t’invite à rejoindre la lettre de ceux qui chercher à se guérir, à grandir, à bâtir et à transmettre.

Elle voyage lentement, au rythme du cœur,
et apporte ce qui doit être semé.

A propos de l'auteur

Matthieu Biasotto

Auteur indépendant toulousain, rêveur compulsif et accro au café. J'écris du thriller, du suspense avec une touche existentielle.

S’abonner
Notification pour

0 Commentaires
Le plus récent
Le plus ancien Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
N'hésite pas à m'aider dès maintenant à construire le monde de demain : me soutenir ❤️

Articles récents

Commentaires récents

0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x
0
    0
    Ton Panier
    Ton panier est videRetour boutique