Fermer×
Vie privée

Jouer pour comprendre l’intelligence artificielle

Par : Maryse Guénette
Photo: Brooke Cagle (Unsplash)

Apprendre comment fonctionne l’intelligence artificielle et constater l’impact qu’elle peut avoir dans leur vie, voilà ce qu’ont découvert 22 jeunes en jouant ! Coup d’œil sur les propos qu’ils ont tenus, et sur une suite possible.

Instagram, Snapchat, YouTube… Plusieurs plateformes sont fort populaires auprès des jeunes. Mais si cette clientèle dévoile volontairement certains renseignements personnels, sait-elle ce qui s’ensuit ? Et réalise-t-elle que la plateforme sait à son sujet bien plus qu’elle n’en dit ? Probablement pas. Car les plateformes carburent à l’intelligence artificielle (IA), dont le fonctionnement et les capacités demeurent un mystère impénétrable pour la plupart d’entre nous.

Or, ce que pensent les jeunes de l’intelligence artificielle telle qu’elle est utilisée par les plateformes est justement le sujet d’une récente étude intitulée Averti aux algorithmes : Les jeunes Canadiens discutent l’intelligence artificielle et la confidentialité. Cette étude a été réalisée par HabiloMédias, un organisme qui étudie le comportement des jeunes depuis plus de 20 ans. « Nous avions beaucoup parlé avec les jeunes en réalisant nos projets précédents, dit Kara Brisson-Boivin, directrice de la recherche à HabiloMédias. Mais nous ne savions pas ce qu’ils expérimentaient et comprenaient lorsqu’ils étaient sur une plateforme. »

Un parcours ludique

Puisque le but de l’étude était de découvrir ce que les jeunes pensaient de l’IA et des algorithmes utilisés par les plateformes, il fallait leur fournir suffisamment d’information pour qu’ils aient une bonne idée du sujet et puissent en discuter de manière éclairée.

Nous savions que les connaissances des jeunes étaient limitées. Si nous nous étions contentés de leur poser des questions, les résultats de notre recherche n’auraient pas été aussi riches. »

Kara Brisson-Boivin, directrice de la recherche à HabiloMédias et coauteure de l’étude

Pour renseigner les jeunes, HabiloMédias les a réunis en groupes de discussion autour d’un « jeu de correspondance de cartes » au cours desquelles chaque participant devenait un créateur de contenu pour un site populaire de vidéos. Ce jeu se déroulait en trois phases et lors de chacune d’elles, on proposait aux participants des mises en situation qui les amenaient à comprendre quel rôle jouent les algorithmes et ce qu’il advient des renseignements personnels des utilisateurs.

Ainsi, au cours de la phase 1, les participants devaient retenir leur auditoire, l’amener à voir, partager, aimer et commenter le plus grand nombre de vidéos possible et faire en sorte qu’il revienne encore et toujours sur la plateforme. Lors de la phase 2, ils devaient rentabiliser leurs vidéos, soit se servir de la publicité afin que ceux-ci soient vus par leur public cible – et non par le plus large auditoire possible. Pour y parvenir, ils devaient collecter et analyser les renseignements des utilisateurs. Enfin, au cours de la phase 3, les participants recevaient des cartes de données contenant de l’information en lien avec le genre, la race, l’état de santé et l’orientation sexuelle des utilisateurs. Ils pouvaient lier les cartes entre elles ou les échanger avec d’autres joueurs, ce qui leur permettait d’émettre des hypothèses.

Plus le jeu avançait, plus les participants devenaient habiles et plus ils prenaient conscience des capacités de l’intelligence artificielle. Parallèlement, les pratiques qu’ils découvraient étaient de plus en plus dérangeantes.

À la fin du jeu, les jeunes étaient capables de voir la façon dont les algorithmes font des suppositions à partir de trois éléments : ce que les internautes font en ligne, comme aimer certaines choses et regarder certaines vidéos, ce qu’ils semblent être lorsqu’ils sont en ligne, d’après l’information qu’ils donnent, et ce que la plateforme peut trouver ou déduire à leur propos. Et ils étaient vraiment inquiets. »

Kara Brisson-Boivin

Une discussion porteuse d’espoir

Durant les discussions qui ont suivi la phase 1, les participants ont déploré s’être retrouvés avec un contenu répétitif et peu intéressant qu’ils ne pouvaient changer, ce qui générait chez eux un sentiment d’impuissance. Ils ont aussi indiqué que, dans certains cas, l’intelligence artificielle avait créé une controverse dans le but d’optimiser le site.

Après la phase 2, ils se sont inquiétés du fait que les recommandations qu’ils recevaient étaient basées sur des hypothèses réalisées à partir de données provenant de gens qui leur ressemblent ou, encore, de leurs amis plutôt qu’à partir de leurs propres données. Ils se sont aussi préoccupés de la vente de leurs données à d’autres plateformes par des courtiers en données, une pratique qui ne leur semblait pas éthique.

Après la phase 3, ils se sont inquiétés des risques de marginalisation et de discrimination qui pouvaient résulter de l’échange de renseignements sensibles. Ils se sont aussi interrogés sur les droits des usagers et sur les protections existantes, et se sont demandé qui était responsable en cas de dérive.

Les jeunes ont beaucoup réagi. Ils étaient conscients des dérives qui peuvent se produire. Ils étaient préoccupés par le fait qu’une grande partie de la population pouvait être stigmatisée. »

Kara Brisson-Boivin

Certains aspects de ce qu’ils ont découvert les concernaient tout particulièrement. Mme Brisson-Boivin raconte : « Ils se sont demandé si les recoupements faits par l’IA ne pouvaient pas mener à des hypothèses susceptibles de les désavantager au moment de faire une demande d’admission à l’université ou de solliciter un emploi. »

Vers des solutions

Forts de ces discussions, les jeunes ont proposé des solutions. Dans le rapport, elles ont pris la forme de recommandations regroupées sous 5 mots clés : sensibilisation, transparence, protection, contrôle et implication.

Ainsi, ils ont mentionné qu’il devait y avoir de la sensibilisation pour développer l’esprit critique tant des jeunes que des adultes, même chez les moins nantis. Et ils ont demandé que les entreprises fassent preuve de transparence – en indiquant clairement aux utilisateurs comment leurs données sont collectées, conservées et négociées, quelles recommandations en résultent et quel processus est alors utilisé. Ils ont également demandé que des mesures de sécurité et de protection de la vie privée soient mises en avant.

Les participants se sont dits préoccupés des conséquences que peuvent avoir sur leur avenir le stockage et le partage d’informations les concernant, de la confiance que les entreprises avaient envers l’intelligence artificielle, de même que de la marginalisation et de la discrimination qui pouvaient résulter d’une utilisation accrue de l’IA. Ils ont donc réclamé une meilleure protection.

Dans le même ordre d’idées, ils ont demandé plus de contrôle sur l’information personnelle qu’ils procurent aux entreprises et réclamé des mécanismes leur permettant de faire un signalement si quelque chose ne leur convenait pas.

Enfin, ils ont prôné l’implication des jeunes lors de consultations visant la mise en place d’outils destinés à améliorer la littératie algorithmique des jeunes et des moins jeunes.

Ce qui pourrait sembler être une utopie paraît tout à fait faisable à Mme Brisson-Boivin. « Les jeunes ont dit clairement ce qu’ils voulaient, dit-elle. Pour ma part, je crois que leurs souhaits seront réalisés, et que le gouvernement améliorera sa loi. »

La spécialiste pense aussi que le prototype de jeu réalisé dans le cadre de cette étude pourrait avoir une longue vie et toucher différentes clientèles. « Lors de diverses présentations, nous avons fait connaître ce prototype de jeu à plusieurs adultes, et tous l’ont trouvé instructif. Notre plan pour l’année prochaine est d’en faire un jeu éducatif qui servira à tous les Canadiens. » Cet outil s’ajoutera aux initiatives qui, au pays et ailleurs dans le monde, aident les jeunes et les moins jeunes à améliorer leur littératie algorithmique tels Kids Code Jeunesse et la Commission canadienne de l’UNESCO, AI4ALL (États-Unis) ainsi que IA et les enfants (UNICEF). Il s’agit là d’un énorme pas dans la bonne direction.

L’étude

Averti aux algorithmes : Les jeunes Canadiens discutent l’intelligence artificielle et la confidentialité (HabiloMédias, 2020) a été rédigée par Kara Brisson-Boivin et Samantha McAleese, respectivement directrice de la recherche et associée de recherche et d’évaluation à HabiloMédias. Elle fait état d’une recherche documentaire mais, surtout, donne la parole à 22 adolescents de 13 à 17 ans via huit groupes de discussion qui se sont tenus en ligne dans diverses régions du Canada de novembre 2020 à janvier 2021. À cette occasion, un prototype de jeu a été « conçu et facilité » conjointement par le directeur de l’éducation d’HabiloMédias et le spécialiste en éducation aux médias du même organisme. Grâce à ce jeu intitulé #PourToi : un jeu sur l’intelligence artificielle et la confidentialité, les participants ont pu apprendre comment fonctionnent l’intelligence artificielle, les algorithmes, la confidentialité en ligne et la sécurité des données. Ils ont également pu discuter de manière approfondie des enjeux qui y sont liés.