Intelligence artificielle et handicap : révolution inclusive ou machine à exclure ?

Image de couverture qui illustre l'IA avec des réseaux et le mot IA affiché en grand.

L’intelligence artificielle (IA) s’immisce dans tous les aspects de notre quotidien, promettant des avancées spectaculaires, notamment dans le domaine de la santé. Pour les personnes en situation de handicap, elle peut représenter un immense espoir en termes de compensation du handicap, en développant par exemple des technologies d’assistance avancées. 

Cependant, une question cruciale demeure : cette révolution technologique est-elle véritablement inclusive ? Une équipe de chercheurs canadiens a mené une vaste revue de la littérature scientifique pour dresser un état des lieux de la relation entre IA et handicap. Leurs conclusions, publiées en 2024, révèlent un tableau contrasté, oscillant entre des bénéfices tangibles et des dérives inquiétantes qui pourraient renforcer les préjugés et la discrimination.

Les promesses de l'IA au service du handicap

En analysant 45 études publiées au cours des cinq dernières années, les chercheurs ont identifié trois grands domaines où l’IA démontre un potentiel certain pour améliorer la vie des personnes en situation de handicap : 

  1. La gestion de la santé 

C’est le champ d’application le plus exploré, représentant plus de 70 % des études axées sur les bénéfices de l’IA. Les algorithmes d’apprentissage automatique (machine learning) peuvent être utilisés pour 

  • Diagnostiquer des maladies comme la sclérose en plaques ou les troubles du spectre de l’autisme, en analysant des données complexes comme l’imagerie médicale ou des observations comportementales.
  • Prédire la progression d’un handicap, permettant aux professionnels de santé de développer des plans de traitement personnalisés et d’anticiper les besoins futurs des patients.
  • Évaluer les risques, par exemple en identifiant les élèves susceptibles de développer des troubles de la lecture ou en prédisant les risques de handicap permanent après un accident du travail.
  1. Les technologies d’assistance 

L’IA est le moteur de nouveaux outils conçus pour compenser certaines limitations fonctionnelles et accroître l’autonomie. Les recherches portent notamment sur des systèmes capables de reconnaître les émotions d’enfants polyhandicapés à partir de signaux physiologiques pour faciliter la communication. D’autres projets développent des robots d’assistance pour faire les courses ou des véhicules autonomes pour les personnes malvoyantes, leur permettant de se déplacer plus librement.

  1. La justice et la défense des droits

Bien que ce domaine soit encore minoritaire (seulement deux études sur 35), des chercheurs développent des plateformes virtuelles qui utilisent l’IA pour analyser des milliers de documents juridiques et de témoignages. L’objectif est de détecter les discriminations systémiques et de fournir aux associations des outils efficaces pour défendre les droits des personnes handicapées, en s’appuyant sur des textes fondateurs comme la Convention des Nations Unies relative aux droits des personnes handicapées.

Quand l'IA reproduit et amplifie les préjugés…

Malgré ces avancées prometteuses, l’étude met en lumière une réalité beaucoup plus contrastée. La recherche actuelle sur l’IA et le handicap est massivement dominée par une vision validiste et médicale, qui perpétue des biais discriminatoires. En effet, près de 60 % des études examinées abordent le handicap sous un angle purement médical : il est perçu comme une déficience, un problème à corriger ou à gérer. Cette approche ignore complètement le modèle social du handicap, qui stipule que le handicap naît de l’interaction entre une personne ayant des incapacités et les barrières environnementales et sociales (un bâtiment sans rampe, un site web inaccessible, des préjugés à l’embauche). En se concentrant uniquement sur l’aspect médical, la recherche en IA risque de créer des outils qui « réparent » les individus au lieu de concevoir des solutions qui rendent la société plus inclusive.

Le constat le plus alarmant est sans doute que, sur l’ensemble des études ayant développé un modèle d’IA, aucune n’a mesuré ou tenté de corriger les biais potentiels de son algorithme. L’IA apprend à partir des données qu’on lui fournit. Si ces données reflètent les préjugés existants dans la société, l’IA les apprendra et les amplifiera. Ce phénomène, appelé « biais algorithmique », a des conséquences directes :

  • L’exclusion par la norme : Les développeurs ont tendance à concevoir leurs systèmes pour la majorité, considérant les personnes handicapées comme des « valeurs aberrantes » ou des cas à part. Un outil de recrutement basé sur l’IA pourrait, par exemple, écarter systématiquement les candidats qui présentent des « blancs » dans leur CV, pénalisant ainsi les personnes dont le handicap a nécessité des arrêts de travail.
  • Le manque de participation : L’étude déplore le fait que les personnes en situation de handicap sont presque toujours vues comme de simples utilisatrices de technologies, et jamais comme des créatrices ou des expertes impliquées dans leur conception. Ce manque d’implication mène à la création d’outils inadaptés, voire paternalistes, qui ne répondent pas aux besoins réels des utilisateurs. Le principe fondamental « rien sur nous sans nous », cher au mouvement des droits des personnes handicapées, est largement bafoué.

Enfin, l’utilisation de technologies d’assistance connectées en permanence soulève de sérieuses questions de confidentialité et de sécurité des données, particulièrement pour les personnes avec une déficience intellectuelle qui ne sont pas toujours en mesure de donner un consentement éclairé. Le coût élevé de ces technologies comporte également le risque de creuser davantage les inégalités, les rendant accessibles uniquement aux plus privilégiés.

Un appel à l'action pour des IA inclusives

Face à ce constat, les auteurs de l’étude formulent sept recommandations clés pour réorienter la recherche et le développement de l’IA. Ils appellent à un véritable changement de paradigme, fondé sur la justice et l’équité. D’après eux, il est urgent de :

  1. Adopter le modèle social du handicap, en créant des IA qui s’attaquent aux barrières sociétales.
  2. Promouvoir la collaboration interdisciplinaire entre les experts en IA, les spécialistes du handicap et, surtout, les personnes handicapées elles-mêmes.
  3. Lutter activement contre les biais en utilisant des données diversifiées et en évaluant systématiquement l’équité des algorithmes.
  4. Garantir la confidentialité et la sécurité des données personnelles collectées.
  5. Prioriser l’accessibilité et la facilité d’utilisation pour tous, quels que soient les handicaps.
  6. Former les développeurs et chercheurs aux droits des personnes handicapées et à la conception inclusive.
  7. Mettre en place des politiques et des régulations qui encadrent l’usage de l’IA pour garantir le respect des droits humains.

Ainsi, l’intelligence artificielle n’est ni une panacée ni une fatalité. Elle est un outil dont l’impact dépendra entièrement des choix que nous faisons aujourd’hui. Le potentiel de l’IA pour créer une société plus équitable est immense, mais il ne se réalisera que si nous cessons de considérer le handicap comme un problème technique à résoudre. Pour que la promesse d’un avenir meilleur pour tous ne se transforme pas en un futur de l’exclusion, il est impératif d’adopter une approche fondée sur la justice et de s’assurer que les personnes en situation de handicap ne soient plus de simples sujets d’étude, mais des acteurs à part entière de cette révolution technologique.

Article rédigé par Dr Narcis Heraclide

Références

El Morr, C., Kundi, B., Mobeen, F., Taleghani, S., El-Lahib, Y., & Gorman, R. (2024). AI and disability: A systematic scoping review. Health Informatics Journal, 30(3). https://doi.org/10.1177/14604582241285743 

Laisser un commentaire