Abstract
L’intelligence artificielle (IA) est souvent perçue comme un facteur de risque : désinformation, polarisation, opacité. Pourtant, elle peut aussi devenir un levier puissant au service de la paix. Cet article explore comment l’IA, bien encadrée, peut contribuer à la lutte contre la désinformation, renforcer la participation citoyenne et soutenir les processus démocratiques. À travers des exemples concrets (projet L.O.I, Pol.is, initiatives onusiennes), il met en lumière les conditions d’un usage éthique et inclusif de l’IA, capable de transformer les dynamiques de conflit en opportunités de dialogue. Loin d’être une menace inévitable, l’IA peut devenir un vecteur stratégique pour construire une paix durable.
L’intelligence artificielle (IA) s’impose aujourd’hui comme un acteur incontournable des sphères politiques, médiatiques et militaires. Définie par le Parlement européen comme la capacité d’une machine à reproduire des comportements humains tels que le raisonnement ou la créativité, elle suscite autant d’espoirs que d’inquiétudes. Cela est dû au fait qu’elle est régulièrement intégrée dans des dispositifs de guerre hybride comprenant cyberattaques et piratage de réseaux. Cette technologie facilite la diffusion massive de contenus trompeurs, comme le montre la stratégie d’influence russe en Afrique, qui utilise le procédé appelé « AI Freak » pour relayer des récits pro-russes et anti-occidentaux à grande échelle. Par ailleurs, l’IA peut accentuer les inégalités sociales en renforçant les biais présents dans les algorithmes et en favorisant un accès inégal aux technologies, ce qui creuse les écarts entre les populations et les régions.
Si l’intelligence artificielle peut diffuser des contenus falsifiés et accentuer les inégalités, elle représente aussi un potentiel pour servir une paix durable à condition de faire l’objet d’un encadrement rigoureux. Ici, la paix ne se limite pas à l’absence de conflit, elle désigne un ordre international stable et inclusif, garanti par des États démocratiques. Une combinaison privilégiée de l’état de droit et d’une coopération institutionnelle qui s’érige sur la base du dialogue et du respect mutuel.
L’Organisation des Nations Unies et d’autres organisations internationales telle l’Organisation Internationale de la Francophonie œuvrent à cette fin, en organisant régulièrement des débats internationaux pour encadrer le développement des technologies IA militaires et humanitaires.
L’AISP-SPIA, force de proposition pour les Nations Unies, s’attarde à penser les éléments contributeurs à l’établissement de la paix. C’est dans ce cadre que cet article propose de mettre en lumière une manière d’appréhender l’IA comme un élément faisant partie de nos sociétés pouvant servir à l’établissement d’une paix durable et responsable.
L’AISP-SPIA, force de proposition pour les Nations Unies, s’attarde à penser les éléments contributeurs à l’établissement de la paix. C’est dans ce cadre que cet article propose de mettre en lumière une manière d’appréhender l’IA comme un élément faisant partie de nos sociétés pouvant servir à l’établissement d’une paix durable et responsable.
Partie 1 : Intelligence artificielle et désinformation : menace, encadrement, et leviers éthiques
L’IA, un outil ambivalent face à la désinformation
La désinformation à audience mondiale est une arme de guerre dans le monde contemporain. Elle se matérialise en une manipulation de l’information fondée sur la criminalisation de l’ennemi dans le but de disqualifier à terme son adversaire. L’essentiel de celle-ci émane de régimes autoritaires et d’organisations terroristes et s’applique dorénavant à la sphère civile et non plus exclusivement aux armées.
Nous pouvons citer comme exemples les allégations de « génocide » contre les russes dans le Donbass et de présence néonazis en Ukraine afin de mobiliser l’opinion russe et légitimer l’agression ou encore, la vague massive de fake news et de vidéos manipulées qui a envahi l’espace numérique dans le conflit entre le Hamas et Israël.
Face à cette problématique, l’intelligence artificielle, bien qu’elle soit souvent pointée du doigt pour sa contribution à la diffusion d’informations erronées, peut également devenir un outil stratégique pour les contrer. En effet, les mêmes technologies qui permettent la création de contenus trompeurs peuvent être mobilisées pour les détecter et les neutraliser. A ce titre, le projet L.O.I, soutenu par l’Organisation Internationale de la Francophonie, illustre cette dynamique : une IA juridique permettant de vérifier en temps réel la conformité des discours avec le droit international humanitaire en temps de guerre.
A l’aide d’un corpus de plus de 6000 références légales, elle offre aux journalistes et ONG un accès rapide à des sources fiables, facilitant la lutte contre la manipulation de l’information. De même, la Suisse en partenariat avec l’ONU, explore l’usage de l’IA pour protéger les acteurs humanitaires des risques numériques portés par cette technologie.
Ces initiatives montrent que l’IA, lorsqu’elle est encadrée, peut renforcer la transparence et la fiabilité de l’information dans des contextes sensibles. Ainsi, loin d’être uniquement une menace, elle peut devenir un rempart contre les dérives informationnelles. In fine, l’IA porte une ambivalence contradictoire entre menace et protection.
Vers un encadrement juridique et éthique de l’IA
D’autre part, pour que l’IA joue pleinement son rôle dans la lutte contre la désinformation, il est essentiel de l’inscrire dans un cadre juridique et éthique commun. La régulation des fausses informations reste complexe et parfois hétérogène : la loi française de 2018 les définit comme des allégations dépourvues d’éléments vérifiables mais leur caractère non illégal rend leur encadrement problématique. Par ailleurs, la proposition de règlement européen sur l’IA prévoit l’interdiction des systèmes utilisant des techniques subliminales susceptibles de nuire aux individus. Ces textes illustrent cette ambivalence : une volonté de réguler qui se confronte aux limites actuelles du droit face à des technologies évolutives.
En parallèle, des études révèlent que les fake news renforcent surtout les convictions préexistantes, accentuant ainsi la polarisation plutôt qu’une modification des opinions. Cela appelle à une réponse nuancée, combinant régulation, éducation et innovation technologique.
En somme, l’IA ne peut être un outil de paix que si son usage est réfléchi, encadré et orienté vers la protection des droits fondamentaux et la cohésion sociale. L’homogénéisation des pratiques et des usages d’encadrement de l’IA est un critère essentiel dans la pérennisation d’une utilisation juste au niveau international.
Partie 2 : L’IA, moteur d’émancipation et de renouveau démocratique
2A : Un instrument d’empowerment pour les communautés
L’IA est une arène de pouvoir, et il est possible d’en faire un véritable outil d’émancipation que les communautés pourraient s’approprier. D’après Giada Pistilli, « en développant une IA spécialisée sur une seule tâche, on peut la rendre plus facilement auditable, participative et adaptée à la communauté qui va s’en servir. En éduquant les utilisateurs sur ces nouvelles technologies et en les intégrant au projet de constitution des bases de données, on peut faire de l’IA un véritable outil d’émancipation que les communautés pourraient s’approprier. »
Il est possible de créer des IA non stéréotypées, plus éthiques et au service de certains acteurs. Ces dernières, facilement accessibles et gratuites, peuvent renforcer le pouvoir des communautés en luttant contre la corruption entre des élites très restreintes.
De plus, elle facilite la justice sociale par l’instauration de systèmes d’IA capables d’analyser les inégalités, d’orienter les réponses publiques et de donner une voix aux groupes minoritaires ou vulnérables. En ce sens, les capacités locales sont fortifiées et une gouvernance plus inclusive dans les processus de paix est favorisée.
2B : Une aide à la mise en place d’une démocratie participative dans des processus démocratiques affaiblis
Ces nouvelles technologies sont également source de nouvelles promesses. Et ce, en mettant en lumière l’idée que l’IA ouvrirait des perspectives pour transformer efficacement les interactions entre les acteurs publics et la société civile. En effet, l’IA est un outil de renforcement de la participation citoyenne. Les citoyens mieux informés grâce à la diffusion d’informations permise par l’IA, peuvent plus facilement participer aux dialogues locaux et internationaux.
D’abord, ce sont des organisations et entreprises de la civic tech telles que Open Source Politics, Make.org, Futurium ou ConsultVox qui imaginent que l’IA peut permettre une participation plus égalitaire et inclusive. Cela serait rendu possible par un processus décisionnel accessible à un plus grand nombre de citoyens.
D’autre part, des initiatives innovantes témoignent elles aussi de ce potentiel transformateur de l’IA sur cet enjeu. Par exemple, à Taiwan, la plateforme Pol.is se distingue par son usage pionnier de l’IA afin de remédier à la polarisation des débats publics. De même en Belgique, l’initiative Youth for Climate a intégré des algorithmes d’IA en 2019 afin d’autonomiser la synthèse des milliers de propositions issues des citoyens engagés. Ce procédé a pour atout de permettre une gestion fluide et démocratique de l’expression collective où des contributions divergentes peuvent être regroupées, structurées et utilisables dans l’élaboration de recommandations ou la co-construction de politiques.
Ainsi, en devenant un catalyseur de dialogue public, l’IA agit directement à renforcer la démocratie participative. Même si elle ne peut pas résoudre une crise démocratique, elle constitue une aide à la résolution de problématiques sous-jacentes.
En définitive, l’intelligence artificielle peut aujourd’hui être appréhendée comme un outil au service de la paix. Malgré le fait qu’elle est la source de nombreuses fake news, elle peut en être la solution. L’établissement d’un cadre juridique et éthique de l’information est nécessaire, bien qu’il ne se révèle pas suffisant. L’IA est un outil qui peut être mis au service de la lutte contre la désinformation, et ce, en devenant un outil de vérification des faits, notamment au sein du droit international humanitaire.
De l’autre côté, ce même accès à l’information permis par celle-ci, renforce les capacités locales des communautés les rendant plus indépendantes et davantage actives au sein des processus démocratiques. Si la participation citoyenne est en baisse, problème critique de nombreuses démocraties aujourd’hui, l’IA au travers de nombreuses initiatives permet le renforcement d’une démocratie participative.
Afin de construire une paix plus stable et durable il semble utile d’inscrire l’IA dans le panel des outils disponibles aujourd’hui. En prenant en compte ses limites, elle doit être pensée comme une aide à la résolution de certaines problématiques : lutte contre la désinformation, aide à la participation démocratique, éléments non négligeables pour la conservation ou à l’établissement d’une paix dépassant la simple absence de guerre.
Pourtant un élément majeur n’est pas à négliger dans le développement de cette technologie : son impact environnemental !
Il sera important de modérer l’utilisation de l’IA, celle-ci étant très polluante et consommant autant d’énergie que plusieurs mégalopoles réunies.
Bibliographie :
Berger, V., Hoang, N., Pistilli, G. (2023). L’intelligence artificielle : outil de domination ou d’émancipation ?. Polytechnique insights. https://www.polytechnique-insights.com/tribunes/digital/lintelligence-artificielle-outil-de-domination-ou-demancipation/
Bertrand, B. (2022). La stratégie européenne de lutte contre la désinformation en ligne. Dans Publication coordonnée par J. Holeindre et J. Fernandez Annuaire français de relations internationales : 2022 (p. 551-570). Éditions Panthéon-Assas. https://doi-org.ezproxy.univ-catholille.fr/10.3917/epas.ferna.2022.01.0551.
Boyer, B. (2025). Opérations d’information et lutte informationnelle : permanence et défis. Revue Défense Nationale, 876(1), 20-26. https://doi-org.ezproxy.univ-catholille.fr/10.3917/rdna.876.0020.
Breton, M., Sortais, M. (2023). La désinformation, une arme de guerre dans le monde contemporain. Enssib. https://bbf.enssib.fr/tour-d-horizon/la-desinformation-une-arme-de-guerre-dans-le-monde-contemporain_71618
Brugidou, M., Mabi, C. (2025). L’intelligence artificielle, entre espoirs et risques. démocratieS. https://democraties.media/lia-entre-espoirs-et-risques/
Dauchez, A. (2025). Qu’est-ce qu’une IA démocratique ?. démocratieS. https://democraties.media/quest-ce-quune-ia-democratique/
Ekwateur. (2025). Quelle est l’empreinte carbone de chat GPT ?. Ekwateur. https://ekwateur.fr/blog/enjeux-environnementaux/empreinte-carbone-chat-gpt/
Gatelier,K. (2005). Fiche notion – La paix libérale. Irenees. https://www.irenees.net/bdf_fiche-notions-104_fr.html
GRIP Actualité. (2025). L’IA au service de l’intégrité de l’information et de la paix – retour sur la conférence à Bruxelles. GRIP Actualité. https://www.grip.org/invitation-lia-au-service-de-lintegrite-de-linformation-et-de-la-paix-le-6-mai-a-bruxelles/
Jost, C. (2025). L’IA générative : une arme de désinformation massive ?. archimag. https://shs-cairn-info.ezproxy.univ-catholille.fr/dossiers-2025-21-page-1?lang=fr&tab=apercu
Ministère des Armées. (2025). African Initiative : au cœur de la stratégie d’influence russe en Afrique. Ministère des Armées. https://www.defense.gouv.fr/actualites/african-initiative-au-coeur-strategie-dinfluence-russe-afrique
Mission permanente de la Suisse auprès des Nations Unies. (2024). Briefing ministériel maintien de la paix et de la sécurité internationales : intelligence. A+ for Peace. https://www.aplusforpeace.ch/fr/briefing-ministeriel-maintien-de-la-paix-et-de-la-securite-internationales-intelligence
OIF. (2025). L’Intelligence Artificielle : un état des lieux des risques et des opportunités pour la Paix et la sécurité internationales ». Organisation Internationale de la Francophonie. https://www.francophonie.org/IA-risques-et-opportunites-pour-paix-et-securite-internationales-7982
Pailleux, N. (2024). Lancement du projet L.O.I. : un outil innovant pour vérifier les discours juridiques en contexte de conflits armés. Les Surligneurs. https://lessurligneurs.eu/lancement-du-projet-l-o-i-un-outil-innovant-pour-verifier-les-discours-juridiques-en-contexte-de-conflits-armes/
Prados, J. (2024). Electricité, eau, minéraux, CO2 : on a tenté de mesure l’empreinte écologique de ChatGPT. Vert. https://vert.eco/articles/electricite-eau-mineraux-co2-on-a-tente-de-mesurer-lempreinte-ecologique-de-chatgpt
RFI. (2025, 14 janvier). L’intelligence artificielle complique la lutte contre les « fake news » sur le continent africain. RFI. https://www.rfi.fr/fr/afrique/20250114-l-intelligence-artificielle-complique-la-lutte-contre-les-fake-news-sur-le-continent-africain
Texier, B. (2019). Quand l’IA s’invite dans le traitement documentaire. Archimag, 325(5), 4-4. https://doi-org.ezproxy.univ-catholille.fr/10.3917/arma.325.0004.
Emilie Quint