How AI’s language barrier limits climate disaster responses

Comment la barrière linguistique de l’IA limite les réponses aux catastrophes climatiques

Un message apparaît en ligne lors de fortes inondations : « Cette pluie ne doit pas être petite, elle est rouge partout ». Quelqu’un qui ne connaît pas la formulation pourrait hésiter. Mais pour les Nigérians, ce message est immédiat et clair : les inondations sont graves et s’aggravent.

Des moments comme celui-ci se produisent tout le temps sur les plateformes numériques. Les gens n’écrivent pas des phrases parfaites et standard en anglais. Ils partagent des avertissements et des réactions sur des plateformes comme X, WhatsApp et Facebook en utilisant le langage de la vie quotidienne. Cela signifie parfois mélanger l'anglais avec des expressions locales, de l'argot et un langage expressif façonné par leurs communautés.

Les systèmes d’intelligence artificielle peuvent comprendre le langage et résoudre un large éventail de problèmes. Les gouvernements et les organisations utilisent de plus en plus l’IA pour analyser les réseaux sociaux, résumer les conversations publiques et même répondre aux problèmes environnementaux et climatiques.

Mais bon nombre de ces outils ont du mal à donner un sens à la manière dont les gens communiquent réellement. Les expressions locales et l’argot peuvent confondre l’IA, de sorte que les messages importants sont parfois mal compris ou complètement ignorés.

Lorsque les gens parlent de barrières linguistiques, ils pensent souvent à la traduction entre différentes langues. Mais le problème est plus subtil. Partout dans le monde, les gens mélangent les langues et les expressions locales en ligne, un phénomène que les linguistes appellent « changement de code ».

Le journalisme climatique s’étend de plus en plus en ligne, mais il y a moins de journalistes climatologues dans les pays en développement. Cela limite la profondeur et la disponibilité des informations pour une grande partie de la population mondiale et façonne la manière dont les questions climatiques sont discutées et comprises dans différentes régions.

Par exemple, une publication sur les réseaux sociaux britanniques pourrait soulever une préoccupation environnementale en utilisant des expressions telles que : « Les routes sont-elles déjà inondées ? Je suis ravi de savoir que le conseil s'en prend à la pisse. » La plupart des outils d’IA peuvent capter les sarcasmes et la frustration à l’encontre des autorités locales.

Dans un pays comme le Nigeria, les gens peuvent décrire les inquiétudes différemment : « Abeg, est-ce que nous sommes en octobre où il pleut comme ça, mais vous dites que le climat ne change pas ? » ou « Rivière près de notre maison o! Abeg aide, ça va tout gâcher! »

Ici, l'argot et le pidgin expriment un danger immédiat et un appel urgent à l'aide. Pourtant, les modèles d’IA réduisent souvent cela à un simple commentaire, passant complètement à côté de l’urgence et de l’émotion véhiculées.

Cela est important car la plupart des systèmes d’IA sont enseignés sur de gros textes centrés sur l’Occident, provenant principalement d’Amérique du Nord et d’Europe. ChatGPT, par exemple, reçoit des instructions sur d'énormes quantités de textes Internet. Il n'a pas de croyances, de sentiments ou de conscience. Au lieu de cela, il génère des réponses basées sur des modèles observés en ligne.

L’IA reflète la culture dominante dans ses données de formation et porte donc une « empreinte culturelle ». Il imite les manières normales d’exprimer les idées des sociétés qui ont produit les textes dont il a tiré ses enseignements. Les modèles d’IA formés sur des textes majoritairement en anglais montrent un biais caché qui favorise les valeurs culturelles occidentales, en particulier lorsqu’elles sont posées en anglais.

Des crues soudaines à Wawa, une communauté du sud-ouest du Nigeria, ont suivi de fortes pluies torrentielles en 2019. Oluwafemi Dawodu/Shutterstock

L’une des principales raisons pour lesquelles l’IA peut produire des résultats biaisés est qu’elle reflète les inégalités sociétales, notamment les différences de race, de sexe et de région, qui apparaissent dans les données dont elle tire des enseignements. Ainsi, les voix sous-représentées des communautés des pays en développement ayant des variétés d’anglais non anglocentriques sont souvent diminuées ou ignorées.

Ce biais peut avoir de réelles conséquences. Lors de crises climatiques comme les inondations, les vagues de chaleur ou d’autres conditions météorologiques extrêmes, des messages mal interprétés pourraient mettre en danger des biens et des vies.

Les systèmes d'IA qui s'appuient sur des modèles passés sont faciles à interpréter lorsque le langage correspond aux normes attendues, mais les messages qui ne sont pas conformes à la présence d'argot local ou d'indices d'urgence peuvent être mal interprétés.

Améliorer les réponses aux catastrophes climatiques

Résoudre ce problème implique de concevoir des systèmes qui reflètent réellement la manière dont les gens communiquent. Les systèmes d’IA doivent être formés pour comprendre les expressions régionales et reconnaître que le sens dépend souvent du contexte culturel, et pas seulement des mots littéraux.

L’IA devrait être testée sur de véritables publications en ligne, et non sur un anglais formel centré sur l’Occident, pour capturer l’urgence et les références locales. Les systèmes automatisés peuvent traiter d'énormes volumes d'informations, mais le jugement humain doit rester présent, en particulier lorsque la sécurité des personnes est en jeu.

Les outils d’IA peuvent aider les communautés à répondre aux inondations, aux vagues de chaleur et à d’autres urgences climatiques – mais seulement une fois formées à interpréter les nuances du langage quotidien, afin que les avertissements et les appels à l’aide passent.


Ifeoluwa Wuraola, doctorante, intelligence artificielle, Université de Hull; Daniel Marciniak, maître de conférences en criminologie, Université de Hullet Nina Dethlefs, professeur d'informatique, Université de Loughborough

Photo principale par Chris Gallagher sur Unsplash

A lire également