Données, pouvoir et justice Comment l’IA peut renforcer les inégalités sociales
Les systèmes d’IA semblent souvent objectifs parce qu’ils reposent sur des données. Cette unité montre pourquoi cette idée est trompeuse. Les données naissent dans des contextes sociaux, reflètent des rapports de pouvoir et excluent certaines perspectives. Tu examines comment l’IA peut renforcer les inégalités sociales et quelles responsabilités en découlent pour la professionnalité pédagogique, la démocratie et l’inclusion.
Warm up
Les données ne sont pas une matière première neutre. Elles émergent dans des contextes sociaux.
Imagine la situation suivante :
Un système fondé sur les données évalue des risques ou des besoins de soutien. Certains groupes sont classés comme problématiques plus souvent que la moyenne, sans que l’on sache clairement pourquoi.
Prends un moment pour réfléchir aux questions suivantes :
-
Quand considères-tu des données comme objectives ou fiables ?
-
Qui décide quelles données sont collectées et lesquelles ne le sont pas ?
-
À qui profitent les décisions fondées sur les données, et qui reste invisible ?
Avec ton Buddy :
Échangez sur les situations de votre champ professionnel où vous travaillez avec des évaluations, des classifications ou des catégories basées sur des données.
Apprendre
Les données sont souvent présentées comme une base objective des systèmes d’IA. En réalité, elles résultent de processus de sélection sociaux. Elles reflètent des rapports de pouvoir, des normes et des exclusions existantes. L’IA ne peut pas reconnaître ces biais, elle les traite et les prolonge. Les inégalités peuvent ainsi être reproduites ou renforcées.
Lis-en plus ici :
Données comme constructions sociales
Dive in 1
Équité algorithmique, discrimination et responsabilité
Comment des décisions apparemment justes, mais en réalité discriminatoires, peuvent-elles émerger de systèmes fondés sur les données ?
Dans cette section, tu examines pourquoi l’équité ne peut pas être produite techniquement dans les systèmes d’IA, comment la responsabilité se déplace dans les processus décisionnels automatisés et quels défis spécifiques cela pose à la professionnalité pédagogique.
Pour en savoir plus :
Équité algorithmique, discrimination et responsabilité
Mettre en pratique 1
Situer données, équité et responsabilité dans sa propre pratique professionnelle
Les pédagogues travaillent souvent dans des contextes où les évaluations, classifications ou décisions sont de plus en plus préparées ou légitimées par des données. Ce transfert t’aide à réfléchir consciemment à ton rôle au sein de tels systèmes.
La professionnalité pédagogique se manifeste non seulement dans le contact direct avec les enfants et les jeunes, mais aussi dans la manière de gérer des cadres structurels, des évaluations et des bases décisionnelles apparemment objectives. L’objectif est de ne pas déléguer la responsabilité, mais de l’assumer activement.
Es-tu prêt·e ?
Prends le temps d’une réflexion écrite individuelle ou d’un échange structuré avec un·e collègue ou un Buddy.
Travaille à partir des questions suivantes :
- Dans quelles situations de mon quotidien pédagogique les données, catégories ou évaluations jouent-elles un rôle ?
- Où fais-je l’expérience de décisions présentées comme objectives ou sans alternative parce qu’elles sont fondées sur des données ?
- À quels endroits existe-t-il un risque que des inégalités structurelles soient reproduites par ces décisions ?
Formule ensuite deux ou trois principes concrets qui guideront ton action, par exemple :
- Comment tu gères les évaluations fondées sur les données
- Où tu interroges consciemment le contexte, l’histoire et les situations de vie individuelles
- Comment tu rends visible la responsabilité, même dans des systèmes complexes
Ces principes peuvent servir d’orientation personnelle ou de base pour des échanges entre collègues.
Mettre en pratique 2
Renforcer la sensibilité au pouvoir des données et à la discrimination dans le contact direct
Dans le quotidien pédagogique, les enfants et les jeunes sont de plus en plus confrontés à des évaluations, classements et appréciations automatisées. Celles-ci sont souvent perçues comme neutres ou justes parce qu’elles reposent sur des données. Les pédagogues ont pour tâche de contextualiser et questionner cette perception, sans susciter méfiance ou impuissance.
Ce second transfert se concentre sur la manière de promouvoir, dans le contact direct avec les enfants et les jeunes, une approche sensible des décisions fondées sur les données. L’objectif est de développer une conscience du pouvoir, de l’exclusion et de la responsabilité.
Es-tu prêt·e ?
Développe une amorce de discussion, un court exercice ou une question récurrente pour aborder les aspects suivants :
- Que les données ne reflètent pas tout ce qui est important pour les personnes
- Que les évaluations reposent toujours sur certaines hypothèses
- Que l’injustice peut surgir même lorsque l’égalité de traitement est promise
Réfléchis :
- Quels exemples du quotidien des enfants ou des jeunes sont particulièrement adaptés ?
- Comment expliquer que les données peuvent être utiles sans leur attribuer une autorité absolue ?
- Comment encourager les enfants et les jeunes à poser des questions et à ne pas accepter les évaluations sans les examiner ?
L’objectif n’est pas de rejeter la technologie, mais de renforcer la pensée critique et le sentiment d’efficacité personnelle.
Réfléchir
L’usage des données et de l’IA touche à des questions fondamentales de pouvoir, de justice et de participation. Les pédagogues se situent à l’interface entre les situations de vie individuelles et les structures sociales. Leur posture influence la manière dont les systèmes fondés sur les données sont perçus : comme un soutien ou comme un facteur d’exclusion. Les décisions fondées sur les données apparaissent souvent factuelles et neutres. C’est précisément pour cette raison qu’il est nécessaire d’en rendre visibles les présupposés et de ne pas perdre de vue la responsabilité.
Questions de réflexion sur sa propre posture
• Où suis-je moi-même enclin·e à accorder plus de confiance aux décisions fondées sur les données qu’au savoir relationnel ou contextuel ?
• Quelles formes d’inégalités perçois-je particulièrement dans mon environnement pédagogique ?
• Comment les catégories et évaluations influencent-elles ma propre pratique professionnelle ?
Questions de réflexion pour la pratique future
• Que souhaite-je maintenir consciemment dans ma manière de gérer les données et l’IA, parce que cela est juste et responsable ?
• Que souhaite-je changer pour être plus sensible au pouvoir, à l’exclusion et à l’invisibilité ?
• Quelle posture concernant l’équité, la justice et la responsabilité veux-je transmettre aux enfants, aux jeunes, aux collègues ou aux parents ?