IA et société civile : repenser la communication à l'ère numérique

IA et société civile : repenser la communication à l’ère numérique

L’intelligence artificielle (IA) et les technologies émergentes sont en train de transformer la manière dont les organisations de la société civile communiquent, défendent leurs causes et mobilisent leurs membres. Mais qu’est-ce que cela signifie pour la société civile, en particulier pour celles qui travaillent dans des contextes fragiles où la confiance, les droits et la participation sont constamment menacés ?

« L’IA n’est pas seulement technique, elle est aussi politique. La question n’est pas de savoir si la société civile l’utilisera, mais comment. Et nous devons veiller à ce que notre « comment » donne toujours la priorité aux personnes et aux droits. »

L’IA n’est pas en train d’ar­riv­er, elle est déjà là

De la tra­duc­tion à la créa­tion de con­tenu, les out­ils d’IA sont déjà inté­grés dans les com­mu­ni­ca­tions quo­ti­di­ennes.

« Pour les petites OSC aux bud­gets lim­ités, l’IA peut vrai­ment chang­er la donne », a déclaré Mika Val­i­ta­lo, con­seiller pour les parte­nar­i­ats mul­ti­par­tites et le développe­ment numérique chez Fin­go, lors d’un récent webi­naire organ­isé par Forus. « Elle peut aider à créer rapi­de­ment du con­tenu mul­ti­lingue ou à suiv­re les ten­dances sur dif­férentes plate­formes, ce qui néces­si­tait aupar­a­vant des out­ils coû­teux. »

Mais Mika a souligné que l’ef­fi­cac­ité ne suf­fit pas. « La tech­nolo­gie ne doit jamais rem­plac­er la créa­tiv­ité ou l’empathie humaines. Notre rôle est de veiller à ce que l’IA sou­ti­enne notre voix plutôt que de la déformer. »

Risques éthiques : « nous ne pou­vons ignor­er la dig­nité de ceux que nous ser­vons ».

Fer­nan­da Mar­tins, de la Fun­da­cion Mul­ti­tudes (Chili), a aver­ti que l’IA com­porte égale­ment des dan­gers éthiques :

« Ces out­ils sont entraînés à par­tir de don­nées biaisées. Si nous ne faisons pas atten­tion, nous risquons d’am­pli­fi­er la dis­crim­i­na­tion plutôt que l’in­clu­sion. »

Fer­nan­da a égale­ment mis l’ac­cent sur la sur­veil­lance : « Les mêmes sys­tèmes qui peu­vent nous aider à attein­dre les com­mu­nautés peu­vent égale­ment être util­isés pour les sur­veiller et les réduire au silence. La société civile ne peut pas se per­me­t­tre d’être naïve à ce sujet. »

La trans­parence est essen­tielle. « Nous devons être clairs sur le moment où nous util­isons l’IA et pourquoi. La con­fi­ance est frag­ile et dépend de l’hon­nêteté », a ajouté Mika.

Oppor­tu­nités : « L’IA doit être un sys­tème de sou­tien, pas un sub­sti­tut »

« L’IA peut ren­dre notre tra­vail plus acces­si­ble », a expliqué Mika. « Par exem­ple, la syn­thèse vocale et la tra­duc­tion instan­ta­née ouvrent des portes à des groupes qui ont été his­torique­ment exclus. »

Fer­nan­da a ajouté : « L’IA peut nous aider à éten­dre notre action de plaidoy­er. Imag­inez analyser des mil­liers de doc­u­ments pour iden­ti­fi­er les lacunes poli­tiques, ce qu’au­cune petite équipe d’OSC ne pour­rait faire seule. »

Alain Serge Mifoundou, de REPONGAC, la coali­tion régionale en Afrique cen­trale, et Mal­ick Ndome, de CONGAD, au Séné­gal, ont partagé l’idée que l’avenir de l’IA doit être intergénéra­tionnel – en rap­prochant les généra­tions plutôt qu’en les divisant – et axé sur la com­mu­nauté. L’IA ne doit pas seule­ment servir les pôles tech­nologiques ou les élites, mais doit être de plus en plus conçue pour ren­forcer les capac­ités locales et soutenir les efforts des com­mu­nautés de base.

Par exem­ple, en dévelop­pant des out­ils d’IA qui aident à suiv­re et à prévenir la vio­lence sex­iste ou des sys­tèmes d’IA qui sou­ti­en­nent les com­mu­nautés touchées par le change­ment cli­ma­tique, en car­tographi­ant les change­ments cli­ma­tiques et en aidant à l’adap­ta­tion.

Bib­bi Abruzzi­ni, respon­s­able de la com­mu­ni­ca­tion chez Forus, a présen­té le Man­i­feste de la société civile pour une IA éthique, élaboré par plus de 50 mem­bres et parte­naires de Forus et visant à chang­er les proces­sus et les dis­cours autour de l’IA et de l’ap­pren­tis­sage automa­tique.

Clarisse Sih, coor­di­na­trice de la com­mu­ni­ca­tion numérique chez Forus, a dévelop­pé une car­togra­phie par­tic­i­pa­tive de l’IA : une ressource conçue pour met­tre l’IA directe­ment entre les mains des com­mu­ni­ca­teurs de la société civile. Cette car­togra­phie présente des mod­èles pra­tiques d’IA, allant d’outils qui favorisent une plus grande inclu­sion des per­son­nes hand­i­capées à des sys­tèmes qui aident les organ­i­sa­tions à sur­veiller les dis­cours médi­a­tiques et à mieux com­pren­dre le dis­cours pub­lic et la manière d’y réa­gir.

Mika a présen­té le pro­jet Equal­iz­ers of dig­i­tal pow­er, un cours conçu pour les organ­i­sa­tions de la société civile et les mil­i­tants qui tra­vail­lent dans les domaines de l’avenir durable, de l’é­d­u­ca­tion mon­di­ale et de la coopéra­tion au développe­ment, et qui exam­ine le pou­voir numérique sous dif­férents angles. Les objec­tifs sont de com­pren­dre les principes et les dynamiques de pou­voir liés à la numéri­sa­tion, d’ex­plor­er les pos­si­bil­ités d’u­tilis­er la numéri­sa­tion et le pou­voir numérique, et d’en­vis­ager et de com­mencer à créer un monde numérique plus juste.

Une approche fondée sur les droits

Com­ment la société civile peut-elle utilis­er l’IA de manière respon­s­able ? L’ate­lier a mis en évi­dence qua­tre straté­gies clés :

  • Ancr­er la tech­nolo­gie dans les droits humains : les principes des OSC doivent guider les out­ils, et non l’in­verse
  • Être trans­par­ent : être ouvert sur l’u­til­i­sa­tion de l’IA dans les rap­ports, les images ou les cam­pagnes — utilis­er des claus­es de non-respon­s­abil­ité.
  • Inve­stir dans la cul­ture numérique : si les util­isa­teurs com­pren­nent les risques, ils peu­vent utilis­er l’IA de manière plus sûre
  • Con­stru­ire des alliances : partager les expéri­ences entre les OSC afin de dévelop­per des garanties.
  • Pro­tec­tion des don­nées : éviter de saisir des don­nées sen­si­bles dans des out­ils d’IA publics.
  • Véri­fi­ca­tion des faits : le con­tenu de l’IA peut être inex­act et biaisé, tou­jours véri­fi­er les faits et les sources.
  • La voix humaine compte : l’IA doit soutenir votre voix, et non la rem­plac­er. Inté­gr­er l’u­til­i­sa­tion de l’IA dans votre stratégie de com­mu­ni­ca­tion et men­er des dis­cus­sions ouvertes avec vos mem­bres ou le per­son­nel du secré­tari­at. À quoi sert l’IA ? Com­ment l’IA sou­tient-elle votre pro­duc­tion de con­tenu ?
  • Par­ti pris et inclu­sion : l’IA repro­duit sou­vent les stéréo­types et exclut les voix minori­taires.

Ressources

Spread the love

Tags:

Comments are closed