Dans l’humanitaire, le besoin de technologies sur-mesure
Avec 18'000 employés, le CICR dispose de ses propres services informatiques, développe ses propres logiciels – stratégie indispensable pour garantir son autonomie stratégique et son indépendance. L’organisation basée à Genève s’est intéressée à l’IA sur le plan juridique dès le début des réflexions sur les armes autonomes et leur impact sur les conflits. Elle n’a pas attendu la démocratisation de ChatGPT pour compter une équipe consacrée à l’IA et à la science des données. Plusieurs solutions fondées sur l’IA, notamment dans le domaine de la santé, sont aujourd’hui développées au CICR. Explications.
Comment l’IA peut-elle changer le travail humanitaire ?
Les modèles permettant de gérer une grande quantité de données nous aident. Cela concerne les processus internes: finances, logistique, planification, traductions… Sur le terrain, l’IA permet d’optimiser les systèmes d’information géographique. En facilitant et en accélérant l’analyse d’images satellites ou de drones, l’IA permet de mieux voir où sont les populations, de mieux comprendre des situations sur le terrain. Mais l’IA est aussi intéressante pour améliorer l’analyse de données textuelles. On ne le sait pas toujours, mais notre principale source d’information est le texte: directives, cadres de référence, rapports de mission… Synthétiser rapidement cette masse d’informations nous aide à prendre des décisions plus éclairées.
Avez-vous un exemple concret?
Avant, pour identifier des tentes ou des maisons sur une image, une personne devait procéder manuellement, en cliquant sur chaque objet. Un algorithme devrait être capable d’effectuer cette analyse automatiquement. Nous développons actuellement une solution en ce sens. L’accès à cette donnée nous permet par exemple d’aider à modéliser le réseau d’eau d’une ville affectée par un conflit. La donnée est toujours utilisée dans un objectif humanitaire, l’IA n’est jamais un but en soi.
Quels sont vos repères?
Nous avons produit une directive sur l’utilisation de l’IA avec, au centre, les principes humanitaires (humanité, indépendance, impartialité et neutralité). L’humanité signifie garder l’humain au centre: que l’IA ne devienne pas juste une série de chiffres, mais préserve le lien avec des populations en grande vulnérabilité. L’indépendance implique d’éviter de dépendre d’acteurs dont les technologies peuvent avoir un rôle dans des conflits. L’impartialité consiste à veiller à ce que les algorithmes utilisés ne comportent pas de biais.
Comment?
Il faut y réfléchir dès la conception de l’outil. Par exemple, les logiciels de comptage de domiciles fonctionnent avec des données occidentales: ils identifient des immeubles à Genève ou Manhattan, mais ne savent pas reconnaître d’autres structures comme des tentes ou des constructions telles qu’on en trouve dans les zones de conflit. Il faut donc dessiner ses propres outils. Ceux pensés pour l’Occident ne sont pas utilisables partout. Nous développons des solutions capables de répondre à des besoins uniques, à des zones de conflit, à des systèmes culturels spécifiques.