🤖 DeepFakes, Robots Tueurs, et Chaos Écologique : Les Vrais Visages de l’IA, au Cœur de Nos Sociétés : Qui Tire les Ficelles ? 🧵
L’intelligence artificielle : opportunité ou cataclysme en devenir ?
✍️ Jamais une technologie n’aura progressé aussi rapidement, ni suscité autant de débats. L’intelligence artificielle, fleuron de l’innovation contemporaine, fascine autant qu’elle inquiète. Pourtant, derrière ses promesses d’efficacité et ses « exploits », une ombre plane : celle d’une réorganisation profonde de nos sociétés, avec des conséquences souvent irréversibles. De l’utilisation de robots tueurs sur les champs de bataille à la destruction massive de notre environnement, en passant par la manipulation des masses via les DeepFakes ou la montée d’un capitalisme toujours plus inégalitaire, l’IA s’impose désormais comme un agent de transformation, pour le meilleur comme pour le pire.
L’histoire de cette technologie 🔗, depuis ses balbutiements en 1956 jusqu’à ses applications militarisées 🪖 ou mercantiles d’aujourd’hui, témoigne d’une fuite en avant. Chaque avancée technique est célébrée sans que soient réellement pesés les effets collatéraux. Et pourtant, ces « machines intelligentes » consomment des ressources démesurées, exacerbent les inégalités sociales et compromettent des écosystèmes entiers. Une véritable alerte que Contre-Attaque 🔗explore dans une série de cinq articles à la fois captivants et effrayants 😱
À travers cette série, vous découvrirez :
■ L’histoire et les principes de l’IA, pour comprendre ses racines (IA #01)
Le terme d’intelligence artificielle (IA) apparaît pour la première fois en 1956. Marvin Minsky indique avoir créé ce terme pour récolter des fonds parce que le terme était prometteur. Pour autant, l’intelligence artificielle n’est en réalité que partiellement intelligente, et surtout artificielle. En effet l’IA n’est que le produit d’une sorte de bachotage de la part d’une machine.
Il existe plusieurs formes d’IA, mais toutes sont issues d’un fonctionnement similaire nécessitant une grande quantité de données et une énorme puissance de calcul. C’est pour cela que si le terme existe depuis les années 1956, ce n’est que récemment que ses fonctionnalités se sont imposées dans nos vies.
L’objectif de l’IA est de répliquer des comportements humains et ses sens. La raison, mais aussi la vue, le langage, l’ouïe, le toucher. Sa mise en place repose sur de l’entraînement : il s’agit de montrer à une machine un ensemble de données et de lui donner le résultat à trouver. Puis on montre des données à la machine et on mesure l’écart entre le résultat obtenu et le résultat voulu. Si le résultat est insuffisant c’est qu’il il faut plus de données, plus d’entraînement ou les deux. Ce point est primordial car il montre que l’intelligence artificielle fait des erreurs. Mais aussi que l’intelligence artificielle dépend de métriques qu’on lui demande de maximiser.
L’intelligence artificielle dans le système bancaire.
Prenons un exemple utilisé aujourd’hui dans le domaine bancaire. Plaçons-nous du côté des capitalistes qui doivent où non accorder un crédit à un client. L’IA est utilisée pour prédire le risque de non-remboursement du crédit par le client. Lire la suite 🔗
■ L’état actuel de l’IA, de ChatGPT à ses dérives les plus récentes (IA #02).
Le développement d’IA génératives
Parmi les formes d’intelligences artificielles, il y a l’IA générative, celle capable de produire du contenu. La plus connue est ChatGPT, créée par OpenAI et publiée en 2022. ChatGPT est un robot conversationnel qui imite le langage humain à l’écrit. OpenAI a aussi créé DALL.E, une IA publiée en 2021 qui génère des images à partir d’une demande.
Ces deux intelligences artificielles sont caractéristiques de la fuite en avant de l’IA ces dernières années. L’IA n’est plus seulement une machine qui calcule vite et prédit avec une faible marge d’erreur, mais une machine qui crée. À tel point que certaines personnes y voient même de la conscience. C’est l’effet Eliza 🔗, qui provient du premier agent conversationnel créé dans les années 1960 et qui ne faisait que reformuler une phrase sous forme interrogative. Cette simple «prouesse» suffisait à donner l’impression à ses utilisateurs que la machine avait une conscience. De nos jours, c’est un ingénieur travaillant sur LaMDA, l’IA générative de Google, Blake Lemoine, qui considère que cette IA serait douée de sensibilité «comme un enfant» et aurait donc des droits 🔗 Blake Lemoine a été licencié par Google quelques semaines plus tard…
Le principe d’utilisation de l’IA générative est simple : l’IA génère un contenu à partir d’une demande. Derrière cette simplicité se cache un monstre, une destruction du langage. L’effet néfaste des réseaux sociaux, déjà largement démontré sur les enfants, pourrait être amplifié par l’IA. Les réseaux sociaux ont atomisé les capacités de concentration, volant du «temps de cerveau disponible» pour le marchander, au détriment des activités de lecture ou de socialisation réelle. L’IA pourrait ainsi voler le langage. En effet, s’il vous suffit de taper trois mots pour obtenir une argumentation qui vous convienne, les effets de replis pourraient être immenses et les capacités cognitives humaines réduites au strict minimum. Lire la suite 🔗
■ Son rôle en tant qu’agent de mort, à travers les armes autonomes et les systèmes de contrôle (IA #03)
En mars 2024 Sébastien Lecornu, alors Ministre des Armées, avait annoncé la création de l’AMIAD (Agence dédiée au Développement de l’Intelligence Artificielle de Défense). Totalement contaminé par le virus technophile, celui-ci annonçait alors 🔗: «J’ai la conviction que la France sera le numéro 1 en Europe de l’IA militaire et dans le Top 3 mondial». Oui, mais pour faire quoi ? Lecornu voulait alors une révolution «dans la manière de faire la guerre». Une formulation alarmante. Serait-ce le début d’un argumentaire légitimant les massacres parce que la guerre serait devenue intelligente ?
Le génocide assisté par ordinateur : une expérience israélienne
Cette pente glissante est déjà prise par Israël, qui réalise le premier génocide assisté par ordinateur. 🔗Deux intelligences artificielles sont utilisées dans l’armée, «Lavenders» (lavandes) pour établir une liste de cibles à éliminer, et une autre baptisée «Gospel» 🔗 (Évangile) pour sélectionner des cibles et bombarder Gaza.
«Lavenders»🔗 a atteint son paroxysme avec 37.000 cibles identifiées. Ce chiffre vertigineux s’explique car n’importe quel contact ou lien avec une personne associée au Hamas est ajoutée à la liste macabre. Une fois les cibles identifiées, l’IA «Gospel» traque, cible et propose des bombardements en identifiant précisément les victimes collatérales. L’IA donne lieu à des ordres de tirs qui sont parfois pris en 20 secondes. Lire la suite 🔗
■ Son impact environnemental, où l’efficacité énergétique cache des désastres écologiques (IA #04).
La rengaine est toujours la même : l’IA va faire gagner en efficacité et donc réduire les émissions de CO2. Sauf que c’est entièrement faux. Selon le principe de l’effet rebond, une technologie censée résoudre un problème écologique par le gain d’efficacité va finalement engendrer plus de consommation. En effet, les limitations économiques liées à la rentabilité d’un projet vont être levées par l’apport de cette nouvelle technologie, résultant d’un usage plus important de la technologie que la précédente. Les gains écologiques sont perdus dans le sur-usage de cette technologie.
⬆️ Dans cette vidéo, Aurélien Barrau, astrophysicien et philosophe engagé, explore les enjeux critiques liés à l’intelligence artificielle. Avec sa perspective unique, il analyse les potentiels dangers de l’IA pour la société humaine et la planète, et s’interroge sur le rôle que cette technologie jouera dans notre futur. Aurélien aborde des questions essentielles : jusqu’où devrions-nous laisser l’IA progresser ? Quels sont les risques de perte de contrôle et d’automatisation des décisions cruciales ? Peut-on encadrer le développement de l’IA sans en limiter les bienfaits potentiels ? En alliant science et éthique, cette vidéo offre une réflexion profonde sur l’impact de l’IA sur nos vies et sur l’avenir de notre humanité. Un contenu incontournable pour toute personne intéressée par la technologie, la philosophie et l’avenir de notre société ⬆️
■ Microsoft, Google… tous font volte-face sur leurs engagements écologiques. Google a par exemple annoncé en 2024 une augmentation de ses émissions de CO2 de 13% en un an et de 48% sur 5 ans. En 2020, si le numérique était un pays, il aurait été le 6ème plus gros émetteur de gaz à effet de serre du monde. Et c’était avant la mise à disposition des IA génératives comme ChatGPT qui, pour une seule requête, consomme 4 à 5 fois plus d’énergie qu’une recherche Google.
Rien que le coût électrique de l’entraînement de ChatGPT-3 serait équivalent à 205 allers-retours Paris – New York, soit 502 tonnes de CO2. Pour rappel, les engagements pris en 2015 lors de la COP21, largement méprisés par l’ensemble des gouvernements occidentaux, sont fixés à 2 tonnes de CO2eq par habitant et par an. 2 tonnes d’équivalent CO2 c’est un aller-retour Paris – New York en avion.
Une autre manière de résumer cette consommation énergétique passe par une comparaison humaine. En moyenne un humain peut produire avec ses jambes environ 200Wh pendant une heure. ChatGPT a nécessité 1287Mwh pour être entraîné. Soit l’équivalent de 6,435 millions d’humain qui pédalent. Vertigineux. Et ceci n’est que pour entraîner ChatGPT-3. À cela doit s’ajouter la consommation annuelle pour répondre aux requêtes des utilisateurs.
Il est à noter que ChatGPT-3 est déjà obsolète : 2 ans après sa sortie, ChatGPT-4 voyait le jour en mai 2024. Cette IA de dernière génération est capable de générer du texte de manière encore plus précise, mais aussi de générer une voix humaine. À l’heure d’écrire cet article ChatGPT-5 est déjà dans les tuyaux, et ceci n’est que pour OpenAI. Bien entendu il s’agit d’une course dans laquelle Google, Amazon, Microsoft, Apple ou encore Twitter / X développent aussi leurs propres intelligences artificielles.
Un désastre écologique sur tous les plans. Lire la suite 🔗
■ Et enfin, ses exploits supposés, qui redéfinissent la créativité, l’intimité et les rapports sociaux (IA #05)
«Les études sont unanimes : notre exposition constante aux IA diminue nos capacités à créer, à apprendre et à penser, altère nos liens sociaux et notre autonomie». Ces mots sont de Marius Bertolucci dans son ouvrage L’Homme diminué par l’IA, publié l’année dernière.
Les Intelligences artificielles génératives pourraient en effet, d’ici 3 à 5 ans avec ChatGPT-7, être si «intelligentes» que face à la diminution de nos capacités cognitives, la puissance de l’intelligence artificielle nous ridiculisera. Voici quelques exemples d’usage de l’IA qui, à eux seuls, suffisent à démontrer le caractère dangereux de l’IA.
Les « DeepFake » (Faux profonds)
Les DeepFake sont des utilisations de l’IA afin de faire passer pour vrai un contenu créé par l’IA. Si cette tendance a commencé par des images trompeuses montrant le pape dans un doudoune, rapidement ces DeepFake sont devenus des vidéos. Au début de l’invasion Russe en Ukraine, une vidéo montrait ainsi Volodymyr Zelensky appelant ses troupes à rendre les armes. Rapidement démentie, la vidéo produite par le camp russe a tout de même permis la démoralisation du camp ukrainien en y semant le doute. Même si l’on sait immédiatement qu’elle est fausse, l’image d’un président défaitiste produit ses effets dans l’esprit des ukrainien-nes.
Les DeepFake sont souvent des vidéos si grossières qu’elles sont rapidement démenties, mais elles produisent tout de même des effets de confusion qui empêchent l’esprit critique d’analyser le monde et ses rapports de pouvoir. Au-delà de ce confusionnisme, les DeepFake pornographiques 🔗ont également vu le jour. Ce type de DeepFake représente 97% des contenus créés par cette technique. Ce n’est donc pas une frange marginale de personnes à l’esprit tordu qui auraient envie de nuire, mais bien la poursuite d’un système patriarcal qui considère le corps des femmes comme ses objets. Pour réaliser des DeepPorn, il suffit d’une seule photo de bonne qualité.
Ces « DeepPorn » ruinent des vies. Tout d’abord parce que le choc émotionnel de s’apercevoir soi-même dans une vidéo à caractère pornographique que l’on n’a pas réalisée est immense, mais aussi parce que retirer une vidéo d’internet est tout simplement impossible. L’essor des sites pornographiques le montrait déjà avec le combat de trop nombreuses femmes qui essaient de faire retirer les vidéos prises et diffusées sans leur consentement par des pourritures comme Dominique Pélicot.
IA Replika : Solution à la solitude.
Elon Musk 🔗 et Sam Altman sont tous deux à l’origine de projets dans le domaine de l’intelligence artificielle. Bien qu’ils se détestent, ils pensent que nous auront bientôt plus d’amis IA que d’amis humain. C’est l’objet de l’IA Replika, téléchargée plus de 30 millions de fois sur smartphone. L’IA Replika est une application qui permet de paramétrer un avatar personnalisé qui vous connaît mieux que vous-même et avec qui vous pouvez échanger. Si les chiffres varient, il est admis qu’une part non négligeable des utilisateur-ices entretiennent une relation amoureuse avec leur IA. Lire la suite 🔗
Pourquoi cette série est-elle essentielle ?
Parce que l’intelligence artificielle ne se contente pas d’augmenter nos capacités : elle redéfinit nos valeurs. Et, bien souvent, les promesses de progrès masquent des effets délétères. Pour chaque robot peintre vendu à un million de dollars, combien de travailleurs précaires sont sacrifiés ? Pour chaque gigawatt consacré à entraîner une IA, combien de litres d’eau et de ressources naturelles sont détruits ?
À vous de juger : l’IA est-elle une solution miracle ou un outil de domination technologique ? Plongez dans ces articles pour lever le voile sur cette révolution qui bouleverse nos existences.
Conclusion : L’heure de l’action.
Les perspectives offertes par l’IA sont à la fois fascinantes et vertigineuses. Mais l’accélération incontrôlée de cette technologie pose une question centrale : sommes-nous prêts à en assumer les conséquences ? À travers cette série, Contre-Attaque nous rappelle qu’il ne suffit pas de rêver d’un avenir technologique radieux : il faut aussi se battre pour éviter qu’il ne se transforme en cauchemar.
Rendez-vous dans les articles complets pour approfondir les enjeux cruciaux de cette révolution numérique.
Tu pourrais aussi aimer :
■ L’intelligence artificielle dans nos services publics – 34e Convention.
Quels enseignements tirer des expérimentations en 2024 de l’utilisation de l’intelligence artificielle
par les agents des collectivités et de l’État ? L’IA s’invite dans les métiers de nos agents et
dans nos relations avec les usagers, non sans impact et quelle que soit la taille de la collectivité.
Saura-t-on planifier l’intégration de ces nouvelles technologies ou devra-t-on subir leur déferlante dans nos services publics ?
■ « Microsoft a mis la main sur nos données de santé ».
Données européennes de santé : « Je considère que c’est un problème qu’une entreprise américaine mettent la main sur ces données sensibles qui peuvent transiter jusqu’aux USA parce qu’il y a une loi qui protège leurs intérêts : le Cloud Act »
■ IA : faut-il confier la guerre à des robots ?🔗
La guerre a-t-elle basculé dans l’ère de l’intelligence artificielle ? Le ministre de la Défense vient d’annoncer la création d’une agence spécifique, et partout dans le monde, on se pose des questions sur la place prise par les robots et les algorithmes sur les champs de bataille. Faut-il confier notre défense à des IA ? Nos invité.es en débattent dans Sens Public.
En bonus :
■ IA ou Liberté | Danger Invisible : Claude AI Peut Désormais Prendre le Pouvoir sur Votre PC. Votre Ordinateur Sous le Joug de l’IA 🔗
■ Quand la science répond à la question : nos IA sont-elles conscientes ? 🔗
■ Alien INTERVIEW : Infos & Prédictions 🔗 | Le Vrai d’UFO 👽 🛸
💡 Si cet article vous a plu, n’hésitez pas à le partager avec vos proches et sur tous vos réseaux sociaux ! Suivez-nous pour plus d’actualités passionnantes.
🛸 Ufo Planet Actus Sightings Investigations 👽
🪐 Planet Actus True News Letters 🗞
💻 Planet Actus.com 🪐