IA et société civile : repenser la communication à l’ère numérique

L’intelligence artificielle (IA) et les technologies émergentes sont en train de transformer la manière dont les organisations de la société civile communiquent, défendent leurs causes et mobilisent leurs membres. Mais qu’est-ce que cela signifie pour la société civile, en particulier pour celles qui travaillent dans des contextes fragiles où la confiance, les droits et la participation sont constamment menacés ?

« L’IA n’est pas seulement technique, elle est aussi politique. La question n’est pas de savoir si la société civile l’utilisera, mais comment. Et nous devons veiller à ce que notre « comment » donne toujours la priorité aux personnes et aux droits. »

L’IA n’est pas en train d’arriver, elle est déjà là

De la traduction à la création de contenu, les outils d’IA sont déjà intégrés dans les communications quotidiennes.

« Pour les petites OSC aux budgets limités, l’IA peut vraiment changer la donne », a déclaré Mika Valitalo, conseiller pour les partenariats multipartites et le développement numérique chez Fingo, lors d’un récent webinaire organisé par Forus. « Elle peut aider à créer rapidement du contenu multilingue ou à suivre les tendances sur différentes plateformes, ce qui nécessitait auparavant des outils coûteux. »

Mais Mika a souligné que l’efficacité ne suffit pas. « La technologie ne doit jamais remplacer la créativité ou l’empathie humaines. Notre rôle est de veiller à ce que l’IA soutienne notre voix plutôt que de la déformer. »

Risques éthiques : « nous ne pouvons ignorer la dignité de ceux que nous servons ».

Fernanda Martins, de la Fundacion Multitudes (Chili), a averti que l’IA comporte également des dangers éthiques :

« Ces outils sont entraînés à partir de données biaisées. Si nous ne faisons pas attention, nous risquons d’amplifier la discrimination plutôt que l’inclusion. »

Fernanda a également mis l’accent sur la surveillance : « Les mêmes systèmes qui peuvent nous aider à atteindre les communautés peuvent également être utilisés pour les surveiller et les réduire au silence. La société civile ne peut pas se permettre d’être naïve à ce sujet. »

La transparence est essentielle. « Nous devons être clairs sur le moment où nous utilisons l’IA et pourquoi. La confiance est fragile et dépend de l’honnêteté », a ajouté Mika.

Opportunités : « L’IA doit être un système de soutien, pas un substitut »

« L’IA peut rendre notre travail plus accessible », a expliqué Mika. « Par exemple, la synthèse vocale et la traduction instantanée ouvrent des portes à des groupes qui ont été historiquement exclus. »

Fernanda a ajouté : « L’IA peut nous aider à étendre notre action de plaidoyer. Imaginez analyser des milliers de documents pour identifier les lacunes politiques, ce qu’aucune petite équipe d’OSC ne pourrait faire seule. »

Alain Serge Mifoundou, de REPONGAC, la coalition régionale en Afrique centrale, et Malick Ndome, de CONGAD, au Sénégal, ont partagé l’idée que l’avenir de l’IA doit être intergénérationnel – en rapprochant les générations plutôt qu’en les divisant – et axé sur la communauté. L’IA ne doit pas seulement servir les pôles technologiques ou les élites, mais doit être de plus en plus conçue pour renforcer les capacités locales et soutenir les efforts des communautés de base.

Par exemple, en développant des outils d’IA qui aident à suivre et à prévenir la violence sexiste ou des systèmes d’IA qui soutiennent les communautés touchées par le changement climatique, en cartographiant les changements climatiques et en aidant à l’adaptation.

Bibbi Abruzzini, responsable de la communication chez Forus, a présenté le Manifeste de la société civile pour une IA éthique, élaboré par plus de 50 membres et partenaires de Forus et visant à changer les processus et les discours autour de l’IA et de l’apprentissage automatique.

Clarisse Sih, coordinatrice de la communication numérique chez Forus, a développé une cartographie participative de l’IA : une ressource conçue pour mettre l’IA directement entre les mains des communicateurs de la société civile. Cette cartographie présente des modèles pratiques d’IA, allant d’outils qui favorisent une plus grande inclusion des personnes handicapées à des systèmes qui aident les organisations à surveiller les discours médiatiques et à mieux comprendre le discours public et la manière d’y réagir.

Mika a présenté le projet Equalizers of digital power, un cours conçu pour les organisations de la société civile et les militants qui travaillent dans les domaines de l’avenir durable, de l’éducation mondiale et de la coopération au développement, et qui examine le pouvoir numérique sous différents angles. Les objectifs sont de comprendre les principes et les dynamiques de pouvoir liés à la numérisation, d’explorer les possibilités d’utiliser la numérisation et le pouvoir numérique, et d’envisager et de commencer à créer un monde numérique plus juste.

Une approche fondée sur les droits

Comment la société civile peut-elle utiliser l’IA de manière responsable ? L’atelier a mis en évidence quatre stratégies clés :

  • Ancrer la technologie dans les droits humains : les principes des OSC doivent guider les outils, et non l’inverse
  • Être transparent : être ouvert sur l’utilisation de l’IA dans les rapports, les images ou les campagnes – utiliser des clauses de non-responsabilité.
  • Investir dans la culture numérique : si les utilisateurs comprennent les risques, ils peuvent utiliser l’IA de manière plus sûre
  • Construire des alliances : partager les expériences entre les OSC afin de développer des garanties.
  • Protection des données : éviter de saisir des données sensibles dans des outils d’IA publics.
  • Vérification des faits : le contenu de l’IA peut être inexact et biaisé, toujours vérifier les faits et les sources.
  • La voix humaine compte : l’IA doit soutenir votre voix, et non la remplacer. Intégrer l’utilisation de l’IA dans votre stratégie de communication et mener des discussions ouvertes avec vos membres ou le personnel du secrétariat. À quoi sert l’IA ? Comment l’IA soutient-elle votre production de contenu ?
  • Parti pris et inclusion : l’IA reproduit souvent les stéréotypes et exclut les voix minoritaires.

Ressources

Spread the love

Tags:

Comments are closed