L’Afrique devient le terrain d’expérimentation de Bill Gates et d’OpenAI dans le domaine de l’IA appliquée à la santé
La Fondation Gates et OpenAI ont annoncé une initiative de 50 millions de dollars visant à introduire des outils d’intelligence artificielle dans les réseaux de soins de santé primaires au Rwanda et dans d’autres pays africains d’ici 2028.
Ce projet, baptisé Horizon1000, a pour objectif de soulager le personnel médical débordé et d’améliorer l’accès aux soins, mais son approche soulève à nouveau des questions sur la manière dont les systèmes basés sur les données sont testés sur les populations vulnérables.
Lors du Forum économique mondial de Davos, Bill Gates a décrit ce projet comme une avancée majeure pour les pays disposant de ressources limitées. « Notre objectif est d’accélérer l’adoption des outils d’IA dans les cliniques de soins primaires, au sein des communautés et au domicile des patients », a-t-il déclaré, qualifiant cette technologie de « véritable révolution dans l’amélioration de l’accès à des soins de qualité ».
La fondation et OpenAI affirment que ces outils faciliteront la gestion des dossiers des patients et les évaluations cliniques, ce qui permettra au personnel soignant de disposer de plus de temps et de bénéficier de meilleurs conseils. Gates a souligné que le projet « soutiendra les professionnels de santé, sans les remplacer ».
Il a fait remarquer que l’Afrique subsaharienne est confrontée à une pénurie estimée à près de six millions de professionnels de santé, ce qui place beaucoup d’entre eux dans ce qu’il a qualifié de « situation impossible », où ils doivent « trier un trop grand nombre de patients avec trop peu de soutien administratif, de technologies modernes et de conseils cliniques actualisés ».
Les hôpitaux du monde entier expérimentent déjà l’intelligence artificielle pour automatiser les notes médicales, résumer les consultations et signaler les symptômes potentiellement graves. Des systèmes tels que ChatGPT et Gemini sont désormais utilisés pour générer des documents qui nécessitaient auparavant des heures de travail manuel.
Cependant, cette dépendance croissante à l’égard des systèmes algorithmiques dans le domaine des soins de santé introduit un niveau de risque qui va au-delà de l’efficacité.
Pour fonctionner, ces modèles s’appuient sur d’immenses ensembles de données, contenant souvent des informations médicales personnelles ou identifiables. Dans les régions où la législation en matière de protection de la vie privée n’est pas très stricte, la frontière entre une automatisation utile et une collecte de données invasive peut facilement s’estomper.
Le directeur général d’OpenAI, Sam Altman, a souligné le potentiel social de cette technologie en déclarant : « L’IA sera quoi qu’il arrive une merveille scientifique, mais pour qu’elle soit une merveille sociale, nous devons trouver des moyens d’utiliser cette technologie incroyable pour améliorer la vie des gens. » Sa déclaration reflète l’optimisme qui entoure l’IA dans le domaine médical, mais le contexte de mise en œuvre est important.
L’Afrique est devenue un point de départ fréquent pour des projets pilotes technologiques à grande échelle financés par des fondations et des entreprises mondiales. Des programmes d’identité numérique à la logistique des vaccins, le continent est souvent choisi pour des essais précoces qui influencent ensuite les stratégies mondiales en matière de santé.
Gates affirme que cela accélère l’innovation là où les ressources sont rares. Cependant, de telles expériences peuvent également avoir lieu dans des environnements où le consentement éclairé, la gouvernance des données et la surveillance réglementaire sont encore en cours de développement, voire inexistants.
La Fondation Gates a déclaré qu’elle surveillerait et contrôlerait les modèles d’IA en termes de sécurité, de partialité et de précision, en déployant progressivement la technologie et en l’adaptant aux besoins locaux. Le Rwanda, par exemple, a créé un centre national de renseignements sanitaires afin d’utiliser l’IA pour analyser les données au niveau communautaire.
La langue reste un défi permanent. De nombreux systèmes d’IA de pointe sont principalement entraînés à partir de données en anglais, ce qui limite leur capacité à interpréter les termes médicaux et les symptômes décrits dans les dialectes locaux. Une étude réalisée en 2023 par le Massachusetts Institute of Technology a révélé que les questions médicales contenant des fautes de frappe ou des formulations informelles avaient entre 7 et 9 % plus de chances de déclencher une recommandation erronée de ne pas consulter un médecin, même lorsque la signification clinique était identique.
Ces résultats illustrent à quel point les données d’entraînement d’un modèle peuvent facilement reproduire les inégalités. Les patients qui ne maîtrisent pas l’anglais ou qui communiquent de manière non standard risquent d’être mal compris par les systèmes mêmes qui sont conçus pour les aider.
Traduction par Aube Digitale
- Source : Reclaim The Net















