Trudel: Intelligence artificielle discriminatoire

Somewhat shallow analysis, as the only area that IRCC is using AI is with respect to visitor visas, not international students or other categories (unless that has changed). So Trudel’s argumentation may be based on a false understanding.

While concerns regarding AI are legitimate and need to be addressed, bias and noise are common to human decision making.

And differences in outcomes don’t necessarily reflect bias and discrimination but these differences do signal potential issues:

Les étudiants francophones internationaux subissent un traitement qui a toutes les allures de la discrimination systémique. Les Africains, surtout francophones, encaissent un nombre disproportionné de refus de permis de séjourner au Canada pour fins d’études. On met en cause des systèmes d’intelligence artificielle (IA) utilisés par les autorités fédérales en matière d’immigration pour expliquer ces biais systémiques.

Le député Alexis Brunelle-Duceppe rappelait ce mois-ci que « les universités francophones arrivent […] en tête du nombre de demandes d’études refusées. Ce ne sont pas les universités elles-mêmes qui les refusent, mais bien le gouvernement fédéral. Par exemple, les demandes d’étudiants internationaux ont été refusées à 79 % à l’Université du Québec à Trois-Rivières et à 58 % à l’Université du Québec à Chicoutimi. Pour ce qui est de l’Université McGill, […] on parle de 9 % ».

En février, le vice-recteur de l’Université d’Ottawa, Sanni Yaya, relevait qu’« au cours des dernières années, de nombreuses demandes de permis, traitées par Immigration, Réfugiés et Citoyenneté Canada, ont été refusées pour des motifs souvent incompréhensibles et ont demandé des délais anormalement longs. » Il s’agit pourtant d’étudiants qui ont des bourses garanties par leur établissement et un bon dossier. Le vice-recteur se demande à juste titre s’il n’y a pas là un préjugé implicite de la part de l’agent responsable de leur évaluation, convaincu de leur intention de ne pas quitter le Canada une fois que sera expiré leur permis d’études.

En somme, il existe un faisceau d’indices donnant à conclure que les outils informatiques d’aide à la décision utilisés par les autorités fédérales amplifient la discrimination systémique à l’encontre des étudiants francophones originaires d’Afrique.

Outils faussés

Ce cafouillage doit nous interpeller à propos des préjugés amplifiés par les outils d’IA. Tout le monde est concerné, car ces technologies font partie intégrante de la vie quotidienne. Les téléphones dotés de dispositifs de reconnaissance faciale ou les assistants domestiques ou même les aspirateurs « intelligents », sans parler des dispositifs embarqués dans plusieurs véhicules, carburent à l’IA.

La professeure Karine Gentelet et l’étudiante Lily-Cannelle Mathieu expliquent, dans un article diffusé sur le site de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique, que les technologies d’IA, bien que souvent présentées comme étant neutres, sont marquées par l’environnement social duquel elles sont issues. Elles tendent à reproduire et même à amplifier les préjugés et les apports de pouvoir inéquitables.

Les chercheuses rappellent que plusieurs études ont montré que, si elles ne sont pas adéquatement encadrées, ces technologies excluent des populations racisées, ou bien les surreprésentent au sein de catégories sociales considérées comme « problématiques » ou encore, fonctionnent inadéquatement lorsqu’elles sont appliquées à des individus racisés. Elles peuvent accentuer les tendances discriminatoires dans divers processus décisionnels, comme la surveillance policière, des diagnostics médicaux, des décisions de justice, des processus d’embauche ou d’admission scolaire, ou même le calcul des taux hypothécaires.

Une loi nécessaire

En juin dernier, le ministre fédéral de l’Innovation, des Sciences et de l’Industrie a présenté le projet de loi C-27 afin d’encadrer l’usage des technologies d’intelligence artificielle. Le projet de loi entend imposer des obligations de transparence et de reddition de comptes aux entreprises qui font un usage important des technologies d’IA.

Le projet propose d’interdire certaines conduites relativement aux systèmes d’IA qui peuvent causer un préjudice sérieux aux individus. Il comporte des dispositions afin de responsabiliser les entreprises qui tirent parti de ces technologies. La loi garantirait une gouvernance et un contrôle appropriés des systèmes d’IA afin de prévenir les dommages physiques ou psychologiques ou les pertes économiques infligés aux individus.

On veut aussi prévenir les résultats faussés qui établissent une distinction négative non justifiée sur un ou plusieurs des motifs de discrimination interdits par les législations sur les droits de la personne. Les utilisateurs des technologies d’IA seraient tenus à des obligations d’évaluation et d’atténuation des risques inhérents à leurs systèmes. Le projet de loi entend mettre en place des obligations de transparence pour les systèmes ayant un potentiel de conséquences importantes sur les personnes. Ceux qui rendent disponibles des systèmes d’IA seraient obligés de publier des explications claires sur leurs conditions de fonctionnement de même que sur les décisions, recommandations ou prédictions qu’ils font.

Le traitement discriminatoire que subissent plusieurs étudiants originaires de pays africains francophones illustre les biais systémiques qui doivent être repérés, analysés et supprimés. C’est un rappel que le déploiement de technologies d’IA s’accompagne d’importants risques de reconduire les tendances problématiques des processus de décision. Pour faire face à de tels risques, il faut des législations imposant aussi bien aux entreprises qu’aux autorités publiques de fortes exigences de transparence et de reddition de comptes. Il faut surtout se défaire du mythe de la prétendue « neutralité » de ces outils techniques.

Source: Intelligence artificielle discriminatoire

Trudel: Les mots et leur contexte

Indeed. Context and intent are essential:

Cet été, le CRTC a fait fi de la loi qu’il a pourtant mandat d’appliquer et condamné l’usage d’un mot faisant partie du titre d’un livre sans même prendre la peine de considérer le contexte. Dans le même esprit, le festival Osheaga s’est senti tenu de s’excuser parce qu’un rappeur invité portait un chandail dénonçant le fascisme, mais… qui arborait une croix gammée… Ce refus de considérer le contexte des mots ou des images est l’un des principaux verrous à la mise en place de mesures pour lutter contre les propos préjudiciables en ligne ou ailleurs.

Tenir compte du contexte est une condition de la possibilité de débattre et de discuter. Les mots peuvent blesser, humilier ou exclure. Mais le refus de considérer le contexte d’énonciation d’un mot ou de la diffusion d’une image constitue une grave menace à la liberté d’expression. Il est impossible d’appliquer quelque règle limitant des activités expressives si on postule que le contexte d’énonciation d’un mot ou de diffusion d’une image est sans pertinence.

Les normes d’usage du langage reflètent les évolutions qui se manifestent sur le plan des sensibilités. Celles-ci reflètent les changements dans la reconnaissance de certaines réalités. Par exemple, en 2022, une personne raisonnable n’utilisera pas à tort et à travers des mots portant une charge douloureuse pour des personnes appartenant à des minorités raciales. Alors qu’au début du XXe siècle, certains mots aujourd’hui jugés péjoratifs étaient consignés même dans les documents officiels, il est admis de nos jours qu’une personne raisonnable doit les utiliser avec un minimum de précautions.

Il est légitime de critiquer quelqu’un qui fait le choix de s’exprimer comme on le faisait il y a plusieurs décennies en faisant fi des significations douloureuses de certains mots ou certaines images. Chacun a la faculté de faire des reproches à une personne qui s’exprime de façon maladroite.

Par contre, les autorités publiques ne peuvent punir que les propos contrevenant à une règle de droit, c’est-à-dire une règle connue édictée par les élus. La possibilité pratique d’appliquer les lois requiert de regarder le contexte des mots et des images. Lorsque la liberté d’expression a valeur constitutionnelle, il est essentiel de convenir des raisonnements par lesquels on détermine si un propos a dépassé les limites permises par les lois. Cela est impossible si on ne prend pas la peine de considérer le contexte d’énonciation d’un propos.

De fait, toutes les lois qui punissent ou interdisent des propos prescrivent de regarder le contexte d’énonciation. Au regard de la loi, il n’y a pas de mots ou d’images qui seraient interdits en toutes circonstances. Mais selon le contexte, l’usage d’un mot peut se révéler fautif au regard de la loi. Par exemple, la loi fait une différence entre le fait d’apostropher une personne en lui lançant le mot en n précédé du mot « sale » et le fait de citer le titre d’un livre comportant le mot.

C’est pourquoi l’appel à des sanctions pour avoir prononcé un mot ou exhibé un signe sans égard au contexte est un indice affligeant de la détérioration des conditions qui permettent d’appliquer les limites aux libertés expressives. C’est une entrave à la possibilité de débattre.

Cibler les propos malveillants

En quoi le fait d’accabler ceux qui s’expriment en dehors de tout dessein malveillant permet de faire avancer la lutte contre le harcèlement, l’exclusion et les discriminations ? Il est plutôt à craindre que cela contribue à légitimer les positions de ceux qui s’opposent à la mise en place de mesures proportionnées destinées à lutter contre les propos vraiment abusifs.

Ici et dans d’autres pays, les autorités publiques s’apprêtent à mettre de l’avant des mesures législatives afin de lutter contre le harcèlement et l’intimidation raciste, homophobe ou sexiste, notamment dans les environnements en ligne, où c’est un fléau. Certains sont prompts à crier à la censure aussitôt que de telles mesures sont mises de l’avant. On brandit en exemple les sanctions imposées ou réclamées à l’encontre de ceux qui font un usage parfaitement légitime de certains mots.

Dans une société qui reconnaît la liberté d’expression, il est essentiel de distinguer l’usage malveillant et les usages légitimes des mots et des images. Les lois limitant la liberté d’expression ne peuvent s’appliquer qu’en examinant le contexte d’énonciation des mots et de diffusion des images. Faire fi de cela conduit à censurer dès lors qu’une personne se met à affirmer que certains mots lui sont choquants. C’est incompatible avec la liberté d’expression.

Il est légitime de rappeler, comme on le fait chaque fois qu’éclate une controverse, que des mots sont associés à des souffrances et sont trop souvent utilisés dans un contexte malveillant. Mais pendant que l’on s’épuise à multiplier les condamnations pour des mots et des images pris hors contexte, les propos haineux — les vrais — continuent de sévir. Confondre les propos méprisants et ceux diffusés sans malveillance contribue à délégitimer la mise en place de mesures efficaces contre les propos vraiment préjudiciables. Ce sont les victimes de harcèlement raciste, sexiste ou homophobe qui paient le prix de ce refus de considérer le contexte des mots et des images.

Source: Les mots et leur contexte