L’IA au service de l’équité en matière de santé publique – Rapport de l’atelier

Le 25 janvier 2019
Toronto (Ontario)

Table des matières


Contexte

L’application de l’intelligence artificielle (IA) et de l’apprentissage machine (AM) dans la recherche en santé publique et des populations (SPP) est un domaine de recherche en devenir, et les résultats de cette recherche au carrefour de ces disciplines pourraient entraîner de nombreuses incidences sur la société canadienne. L’équité en santé se définit comme « tous les gens devraient pouvoir aspirer à un état de santé optimal et ne devraient pas être limités à cet égard en raison de leur race, de leur ethnicité, de leur sexe, de leur âge, de leur classe sociale, de leur situation linguistique minoritaire, de leur situation socioéconomique ou de tout autre attribut social » (Institut de la santé publique et des populations [ISPP]), 2015). Il s’agit d’un principe central en SSP. Pourtant, les implications de l’IA et de l’AM pour l’équité en santé dans la recherche en SSP demeurent relativement inexplorées. Il est essentiel que les chercheurs en SPP s’emploient activement à comprendre de quelle façon les approches fondées sur l’IA utilisées en recherche pourraient contribuer aux iniquités dans la société – voire les exacerber – et explorer les utilisations possibles de ces approches pour assurer ou améliorer l’équité en santé.

L’Institut de la santé publique et des populations des Instituts de recherche en santé du Canada (ISPP des IRSC) et l’Institut canadien de recherches avancées (CIFAR) ont uni leurs efforts en 2018 afin d’explorer les possibilités de collaboration dans le but de promouvoir et d’appuyer la recherche faisant appel à l’IA et à l’AM pour surmonter les défis en SPP (le rapport se trouve ici). Une des étapes suivantes recommandées à l’atelier de 2018 consistait à organiser un atelier sur le thème de l’IA et de l’équité en santé. À cette fin, et en conformité avec la Stratégie pancanadienne en matière d’intelligence artificielle du CIFAR et l’initiative IA équitable de l’ISPP des IRSC, les deux organismes ont organisé et présenté ensemble un atelier interdisciplinaire sur l’IA au service de l’équité en matière de santé publique à Toronto, le 25 janvier 2019.

L’atelier a réuni 24 chercheurs interdisciplinaires spécialisés dans des domaines comme la santé publique, l’IA, l’AM, la biostatistique, l’épidémiologie, l’informatique, la santé des populations, les sciences cliniques, l’éthique, la recherche sur les services de santé, le génie, la psychologie ou science cognitive, la surveillance, et la science de l’exposition. Les objectifs de l’atelier d’un jour étaient les suivants :

  • Favoriser l’établissement de liens et les interactions entre chercheurs de différents champs de compétence en vue de créer des collaborations interdisciplinaires et d’apprendre comment soutenir de tels réseaux
  • Créer un espace pour comprendre comment l’équité en santé peut être influencée par l’impartialité, la responsabilisation et la transparence des approches fondées sur l’IA en recherche sur la santé publique, y compris cerner les problèmes, les risques et les possibilités
  • Promouvoir la création de possibilités d’intervention clés (p. ex. propositions de recherche, rapports, regroupements) dans ce domaine novateur

Vous trouverez ci‑dessous un aperçu des principaux thèmes et recommandations de l’atelier, qui donne une idée des discussions et des commentaires des participants. Veuillez noter que ce compte rendu reflète les discussions de l’atelier et ne doit pas être considéré comme une approbation officielle des recommandations par l’ISPP des IRSC ou le CIFAR.

Principaux thèmes et recommandations

Comment maximiser l’inclusion dans les données servant à la recherche?

Contexte : Des avancées récentes en IA et en AM pourraient déboucher sur une meilleure santé personnalisée par l’analyse des données des patients et la prise en compte de différences individuelles minimes chez ces derniers. Toutefois, les algorithmes d’AM utilisent souvent des ensembles de données expérimentaux dont sont absentes les populations sous‑représentées (p. ex. groupes racialisés, communautés autochtones, genre, LGBTQ+, etc.). De plus, nombre de chercheurs en AM n’évaluent pas actuellement de quelle façon leurs modèles d’AM peuvent fonctionner une fois déployés dans différentes populations. Cette grave lacune pourrait être lourde de conséquences pour des populations particulières.

Le pipeline de données, qui consiste en une série d’étapes faisant intervenir le traitement successif d’ensembles de données (p. ex. hygiène, conditionnement, traitement), peut également conduire à la suppression des valeurs aberrantes dans les données, ce qui peut contribuer à des lacunes dans les données et les rendre, par le fait même, non représentatives. Cette discussion a soulevé la question suivante : comment traiter les données et maximiser l’inclusion d’une manière plus équitable qui empêche la suppression des valeurs aberrantes?

Recommandations, mesures, prochaines étapes

Calibrer les modèles selon une perspective dite de « l’aplanisseuse » (la Dre Jutta Treviranus a utilisé l’expression « lawn mower of justice ») : Dès le départ, il faut poser la question : « À qui ce modèle se prête‑t‑il? », et adopter une perspective d’équité dans la création des ensembles de données en priorisant les populations vulnérables au moment de calibrer ou de tester les modèles. Lorsqu’ils élaborent des algorithmes, les chercheurs en IA et en AM doivent tenir compte des valeurs aberrantes et des individus de populations sous‑représentées en adoptant une approche dite de « l’aplanisseuse », qui vise à accroître l’influence des voix en marge et non communes en limitant le poids accordé aux groupes les plus représentés (c.‑à‑d. fixer un nombre maximum de points de données qui peuvent être analysés dans tout groupe donné). Cela dit, il faut comprendre l’importance « de données denses, quoique limitées », et la manière d’en tirer parti dans les approches d’IA utilisées dans la recherche en santé publique. Les chercheurs doivent faire appel à des éthiciens, à des personnes ayant vécu des expériences concrètes, de même qu’aux communautés touchées par la recherche pour mettre au point des outils d’IA, et ce, dès le début ou dès l’étape de la conception.

Encourager les ensembles et les dépôts de données ouverts : Les établissements et les organismes de financement doivent permettre et encourager l’utilisation et la mise en commun d’ensembles et de dépôts de données ouverts et de ressources libres. Le milieu de la recherche doit s’efforcer d’organiser et d’inclure des sous-ensembles de données de référence normalisés en santé publique qui pourraient servir d’ensembles de données de démonstration en libre usage, avec les niveaux d’accès appropriés. Le stockage de données doit également être facilité dans un format utilisable afin que de grands ensembles de données représentatifs puissent être stockés et utilisés efficacement.

Transparence dans les pipelines de données : La transparence dans les pipelines de données est cruciale, et le traitement des données doit être effectué de façon plus équitable pour prévenir la suppression des valeurs aberrantes.

Prévoir des fonds supplémentaires pour promouvoir l’inclusion dans le processus de recherche : Un mécanisme de financement proposé qu’appuyaient fortement les participants à l’atelier consisterait à mettre des fonds supplémentaires à la disposition des chercheurs pour maximiser l’inclusion des groupes vulnérables ou sous‑représentés, comme le Programme de suppléments aux subventions à la découverte en recherche nordique du CRSNG. Par exemple, les organismes de financement pourraient accorder des fonds supplémentaires aux projets de recherche pour englober les communautés sous‑représentées ou vulnérables et le maintien de relations avec elles. 

Pour prévenir et atténuer les biais en IA, le contexte importe

Contexte : Les préjugés injustes envers les membres d’une population donnée sont répandus dans la société, et le domaine de la santé publique ne fait pas exception. Les biais dans les données sur la santé sont le reflet des préjugés souvent observés dans la société et font donc intrinsèquement partie du milieu de la santé. Être exclu des données dès le départ ainsi que des modèles de formation peut signifier plus tard être privé des avantages de la recherche, d’où une plus grande iniquité encore. Dans un monde idéal, les algorithmes reposeraient sur un vaste ensemble de points de données pour que les modèles d’AM soient représentatifs. Toutefois, la plupart des chercheurs travaillent généralement avec les ensembles de données à leur disposition, lesquels peuvent être biaisés. Des populations particulières, comme celles d’une race ou d’un genre donnés, peuvent avoir plus de difficulté à obtenir l’aide médicale dont elles ont besoin, et même être désavantagées dans la manière dont les données les concernant sont recueillies, si elles le sont.

Le biais dans la conception des modèles d’IA peut être à la fois intentionnel, comme la création de modèles dont le but est de réduire les coûts, ou involontaire, reflétant les préjugés implicites des auteurs. Les prédicteurs utilisant l’IA peuvent montrer ce qui se passe, sans l’expliquer, ce qui limite le contexte fourni dans la recherche utilisant l’IA pour soutenir l’explicabilité et la causalité. Il existe un problème structurel plus profond qui pourrait avoir pour résultat que l’IA amplifie les biais existants et élimine les valeurs aberrantes.

Recommandations, mesures, prochaines étapes

S’attaquer à la compréhension et à la collecte des données fondées sur la race au Canada : La discrimination raciale au Canada se manifeste dans les données que nous avons et que nous continuons de recueillir. Nous devons mieux comprendre les données fondées sur la race, les définitions de ces variables dans la recherche, et la façon de recueillir ces données dans la recherche au Canada. Autrement, l’IA peut servir de prétexte à de mauvaises recherches qui amplifient les biais par une mauvaise interprétation des variables.

Utiliser la modélisation stratifiée pour des analyses prédictives : Les rapports de recherche utilisant l’AM sont souvent présentés sous forme agrégée pour optimiser les modèles, sans un équilibre avec des types particuliers par souci de justice pour des sous‑groupes de population. Pour favoriser l’équilibre dans l’utilisation de l’IA et de l’AM en recherche en santé publique, les complexités doivent être intégrées dans les analyses par la stratification des risques et des variables afin de mieux comprendre les analyses prédictives dans leur contexte. L’épidémiologie essaie depuis longtemps de remédier à ces limites et à ces biais dans les données par diverses approches méthodologiques. Le domaine de la recherche sur l’AM pourrait bénéficier de l’intégration et de l’adaptation de certaines de ces approches.

Communiquer activement les limites des données recueillies, et celles des inférences faites, pour mieux comprendre ce sur quoi reposent les algorithmes sous‑jacents et les modèles d’IA utilisés dans la recherche. L’équilibrage après le fait peut être utilisé pour aider à interpréter les recommandations des technologies d’AM et d’IA.

Comment pouvons‑nous utiliser l’IA pour amplifier les voix des communautés systématiquement écartées?

Contexte : L’IA a le potentiel d’éclairer des angles morts que nous ne pouvons pas voir actuellement ou dont nous connaissons l’existence sans trop savoir comment les désigner. Les données dérivées d’outils largement accessibles comme les téléphones intelligents peuvent permettre une plus grande représentation de populations auparavant sous‑représentées et contribuer à une plus grande inclusion dans la recherche utilisant l’IA.

Les chercheurs en santé publique pourraient-ils adopter une approche ascendante de l’analyse des données à l’aide de l’IA par opposition aux méthodes de recherche habituelles, comme la reconnaissance des modèles non paramétriques? L’adoption de cette approche pourrait permettre aux chercheurs de ne pas imposer d’hypothèses et empêcher le renforcement des privilèges de la majorité qui est le plus souvent incluse et représentée dans les données.

Utiliser l’IA peut renforcer la construction de sens pour l’équité en santé publique. Une étude de cas décrite par le Dr Dan Lizotte a illustré comment un groupe interdisciplinaire d’informaticiens, de praticiens de la santé publique et de géographes pouvait aider les services de santé publique municipaux à comprendre qui est le plus à risque parmi les consommateurs de substances, grâce aux médias sociaux. Le projet consiste à utiliser l’IA par le moyen de recherches archétypales qui aident à filtrer les données des médias sociaux et à identifier les personnes potentiellement à risque. Les archétypes des personnes les plus à risque servent ensuite de points de référence pour mieux comprendre qui est à risque. Cette recherche met en lumière le potentiel de l’IA pour soutenir la recherche visant à donner un sens à l’information qui aidera à faire entendre et à amplifier les voix des communautés qui, autrement, pourraient échapper aux services de santé publique. Des questions à envisager pour donner un sens à cette information en utilisant l’IA sont :

  • Quelles sont les meilleures méthodes d’IA et d’analyse visuelle pouvant aider à identifier les personnes à risque?
  • Comment pouvons-nous inclure activement les groupes marginalisés pour qu’ils participent à la recherche de sens et qu’ils racontent leur propre histoire?

Recommandations, mesures, prochaines étapes

Il existe un besoin de recherche sur les incidences sociales de l’IA : Les conclusions sur les incidences sociales de l’IA doivent être communiquées directement aux communautés pour obtenir leurs commentaires. L’Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, financé par le Fonds de recherche du Québec (FRQ) et situé à l’Université Laval, constitue un exemple en cours de réalisation. L’Observatoire et les autres recherches réalisées sur les incidences sociales devraient permettre de comprendre les conséquences d’investissements du genre et de dissiper les incertitudes qui découlent de l’IA.

Explorer l’IA pour la sensibilisation : L’application actuelle d’outils d’IA comme l’archétypage pour donner un sens aux données des médias sociaux en appui aux initiatives de santé publique visant les populations à risque a suscité un échange sur la crise des opioïdes en Colombie‑Britannique. La stigmatisation est un obstacle important à la recherche d’aide médicale de la part des consommateurs de substances, et la recherche sur la construction de sens avec l’IA pourrait aider à faire connaître des histoires pour guider des campagnes antistigmatisation et rehausser la sensibilisation à la réduction des méfaits et aux sites d’injection supervisés.

Plaidoyer nécessaire en faveur d’un TLN équitable en santé publique : Il faut une meilleure compréhension – et un investissement accru à cet égard – de la manière dont le traitement du langage naturel (TLN) pourrait contribuer à un outil de reconnaissance de la parole au service de la santé publique, particulièrement en ce qui concerne les communautés mal desservies et marginalisées. Si les systèmes où le TLN est utilisé ne sont pas formés pour et avec les communautés, telles que des communautés d’immigrants ou de réfugiés qui ne parlent pas anglais, ou les communautés francophones, des populations entières se trouveront alors exclues. La conception de systèmes de TLN repose en grande partie sur l’investissement et le développement commerciaux et laisse souvent à désirer, ce qui a des conséquences importantes pour l’équité en santé puisque des populations seront exclues des données et ne seront donc pas en mesure d’accéder aux services. L’information utilisée pour concevoir les systèmes de TLN doit être fournie directement aux communautés, et celles‑ci doivent participer activement à la conception des systèmes. Des cadres de conception inclusifs (comme AI Commons (en anglais seulement)) peuvent aider à répondre au besoin et à justifier l’investissement dans le TLN pour la santé publique.

La recherche utilisant l’IA doit encourager activement la réflexivité des préjugés

Contexte : La réflexivité et la compréhension détaillée des préjugés ne sont pas toujours reflétées ou décrites dans les sections traitant des limites des publications sur l’IA, y compris dans les études sur l’AM utilisé pour déployer les modèles. La formation par rapport aux préjugés et à l’objectivité doit faire partie des programmes de cours, particulièrement en IA ou en AM et dans les disciplines informatiques. On a fait remarquer que « si la validation croisée est enseignée, les facteurs de confusion doivent l’être également ». Cette pratique est recommandée non seulement pour les stagiaires, mais aussi en formation continue pour appuyer les chercheurs qui font actuellement ce travail. Parmi les ressources suggérées pour encourager la réflexivité et la compréhension des préjugés dans la recherche en santé publique utilisant l’IA, mentionnons notamment le TRIPOD Statement (en anglais seulement) et le Projet de lignes directrices en matière d’éthique pour une IA digne de confiance, qui est un document de travail de l’Union européenne.

Recommandations, mesures, prochaines étapes

Intégrer la sensibilisation aux préjugés et à l’AM juste, responsable et transparent dans la formation : Une formation plus poussée s’impose sur la transparence, l’explicabilité, la causalité, l’incertitude et les conséquences imprévues. Il faut promouvoir l’intégration de la formation sur les préjugés et l’équité pour les chercheurs et les stagiaires en IA et en informatique, ainsi qu’appuyer la formation continue des professionnels de la santé pour les sensibiliser davantage aux méthodes utilisées. Cela pourra leur permettre de comprendre que les méthodes ne sont pas simplement des cases noires et les aider à en saisir le fonctionnement.

Adopter une attitude scientifique ouverte : Faire preuve d’ouverture scientifique pour encourager l’utilisation de cadres fondés sur l’équité pour la recherche en santé publique utilisant l’IA. En tant que collectif, produire une déclaration consensuelle sur la nature de la recherche qui peut être effectuée en santé publique avec l’IA (voir l’exemple de CONSORT (en anglais seulement)), et intégrer des lignes directrices pour la publication de la recherche et des lignes directrices éthiques à jour sur l’inclusion des populations marginalisées dans les résultats de la recherche.

Communiquer les limites et pratiquer la réflexivité : Décrire activement les limites des données recueillies, et des analyses et inférences faites dans la recherche. S’assurer que les membres de l’équipe peuvent communiquer efficacement lorsqu’ils transmettent les résultats de la recherche et échangent des connaissances avec les intéressés. Pour favoriser la transparence, communiquer les incertitudes dès le départ en s’inspirant des concepts de santé publique qui traitent des incertitudes dans la recherche.

Équité dans le secteur de la recherche : Des obstacles systémiques à la facilitation de la recherche sur l’IA pour l’équité en santé publique ont été soulevés tout au long de l’atelier. Une idée de recherche éventuelle recommandée serait une étude visant à déterminer les obstacles à l’équité au sein du secteur de la recherche – depuis la titularisation et la promotion jusqu’à la publication et aux systèmes de financement de la recherche. Cette recherche pourra aider à encourager l’autoréflexion critique sur le terrain et, à long terme, à soutenir la recherche pour l’équité en santé publique.

Comment pouvons‑nous encourager la recherche et la collaboration interdisciplinaires?

Contexte : La santé publique a une abondance d’expertise à offrir aux disciplines que sont l’informatique et l’IA, particulièrement lorsqu’il s’agit de comprendre les préjugés et les facteurs de confusion. Pour éviter d’autres cloisonnements, il est recommandé d’enseigner aux groupes en IA et en santé publique ensemble, de manière à promouvoir l’interdisciplinarité. Reste à savoir quel est le meilleur modèle à cet égard. Les études supérieures, les ateliers, le perfectionnement professionnel continu et les ateliers d’été ont tous été cités en exemple comme moyens d’améliorer la formation et la collaboration interdisciplinaires.

Pour s’attaquer aux préjugés dans les données et la conception des outils d’IA, une formation interdisciplinaire peut aider à exposer les chercheurs et les stagiaires en IA à des occasions d’apprentissage sur les préjugés, la confusion et l’équité. L’interdisciplinarité ne devrait toutefois pas se limiter à la formation; la diversification des équipes de recherche et de pratique pour promouvoir la complémentarité et l’équilibre peut aider à éclairer les angles morts actuels. La collaboration interdisciplinaire prend du temps, et les organismes de financement doivent reconnaître la permanence en recherche pour que les chercheurs puissent bien faire leur travail interdisciplinaire.

Recommandations, mesures, prochaines étapes

Présenter l’équité comme la solution : Pour s’engager dans une collaboration interdisciplinaire avec les chercheurs en IA et en AM, la santé publique doit concevoir l’équité comme une solution, de telle manière qu’une fois cette perspective adoptée, les déterminants de l’équité en santé ne puissent être ignorés.

Pour un financement « de la périphérie vers le centre » : Commencer par la périphérie et créer un appel ciblé qui exclurait explicitement les îlots actuels d’excellence et les personnes déjà financées afin d’amplifier d’autres voix, comme celles des organismes de santé communautaire et des groupes traditionnellement considérés comme des « utilisateurs des connaissances ». Continuer à accorder des fonds comme les subventions Nouvelles frontières, qui sont par définition des subventions des trois organismes et qui appuient une recherche transformatrice et à risque favorisant la collaboration interdisciplinaire. Il est recommandé de ne pas imposer trop de restrictions pour ce type de financement, afin de permettre de la flexibilité. De plus, accroître le financement pour l’analyse des données secondaires, ce qui peut aussi servir à faciliter la collaboration entre les chercheurs et les stagiaires pour explorer de nouvelles perspectives à partir des ensembles de données existants.

Favoriser les milieux de formation interdisciplinaires : Les stagiaires ont la capacité d’être le lien qui unit les chercheurs entre eux. Il est donc recommandé, pour financer les stagiaires et encourager la recherche interdisciplinaire, de laisser les chercheurs préparer des propositions leur permettant de cosuperviser des étudiants avec des chercheurs principaux de disciplines différentes. Les ateliers d’été sont aussi un moyen de former un grand nombre de participants de diverses disciplines en mettant l’accent sur des thèmes précis comme l’équité en santé.

Favoriser les coopératives de plateformes de données : Inclure diverses perspectives en mettant en place des coopératives de plateformes de données, lesquelles sont des groupes souvent exclus qui peuvent s’unir pour recueillir leurs propres données et en assurer la gouvernance.

Faire intervenir une variété de disciplines : Les chercheurs en santé publique et en informatique/IA doivent être encouragés et aidés à s’engager et à collaborer avec de multiples disciplines et groupes afin de faire progresser l’IA équitable au service de la recherche en santé publique, notamment : les sociologues, les spécialistes des sciences politiques, les ingénieurs, la société civile et les scientifiques citoyens, les personnes possédant une expérience vécue, les responsables des politiques, les professionnels des affaires, les scientifiques en gestion, les organismes de santé publique et les organismes communautaires.

Pourquoi la recherche sur l’équité en santé en général n’est‑elle pas mieux financée au Canada?

Contexte : Des questions de recherche complexes sur l’équité en santé utilisant des méthodes d’IA peuvent être abordées de façon optimale avec des subventions d’équipe multidisciplinaire. Toutefois, les comités d’évaluation par les pairs sont souvent composés de chercheurs ayant une expertise particulière qui ne se prête pas nécessairement à des projets de recherche multidisciplinaire. Il faut se pencher sur ce vaste problème systémique des comités et des processus d’évaluation par les pairs et changer les perceptions pour améliorer le financement et la publication d’articles dans des revues à comité de lecture, en particulier pour la recherche sur les iniquités sociales et relatives à la santé faisant appel à l’IA.

Recommandations, mesures, prochaines étapes

Encourager la multidisciplinarité dans les bassins d’évaluateurs et les cadres d’évaluation : Les bassins d’évaluateurs doivent être composés de chercheurs qui sont disposés à s’engager et à comprendre la multidisciplinarité. Les cadres d’évaluation par les pairs doivent être améliorés pour permettre aux pairs évaluateurs d’appuyer et d’évaluer efficacement la multidisciplinarité de la recherche.

Sensibiliser les comités d’évaluation par les pairs aux lacunes dans la recherche sur l’équité en santé : La recherche sur l’équité n’est pas suffisamment financée au Canada, et l’importance de cette question doit être communiquée aux comités d’évaluation par les pairs pour combler les lacunes actuelles dans la recherche sur l’équité en santé au Canada.

Établir des normes et des cadres de gouvernance pour l’évaluation par les pairs de la recherche multidisciplinaire sur l’IA pour l’équité en santé : Il faut établir des normes et des cadres de gouvernance pour la santé publique et l’IA afin d’éclairer l’évaluation par les pairs, les appels de financement et les évaluations d’articles à l’intersection de ces disciplines.

Annexe A : Ordre du jour de l’atelier

Atelier organisé conjointement par l’ISPP et le CIFAR
Ordre du jour

Le 25 janvier 2019 | Centre MaRS, tour Sud, Collaboration Centre, salle CR-2 (rez-de-chaussée)
101, rue College, Toronto (Ontario)  M5G 1L7 Canada

Heure Point à l’ordre du jour Responsables

8 h 45 – 9 h

Inscription et déjeuner

9 h – 9 h 30

Mot de bienvenue et présentations

  • Contexte, but de la rencontre et objectifs de l’atelier
  • Ordre du jour

Elissa Strome (directrice générale, Stratégie pancanadienne en matière d’IA, CIFAR)

Marisa Creatore (directrice scientifique adjointe, ISPP des IRSC)

9 h 30 – 10 h

Discours liminaire : Impartialité en IA

Marzyeh Ghassemi (professeure adjointe en informatique et en médecine, Université de Toronto; membre du corps professoral, Institut Vecteur, titulaire d’une chaire en IA Canada-CIFAR)

10 h – 10 h 15

Pause réseautage

10 h 15 – 10 h 45

Discours liminaire : Équité et partialité du processus décisionnel fondé sur des données probantes en matière de santé publique

Laura Rosella (directrice scientifique, Laboratoire d’analytique en santé des populations, Université de Toronto)

10 h 45 – 12 h

Études de cas : Équité des applications de l’IA en santé publique

  • Réseaux sociaux
  • Génération IA
  • Apprentissage machine et occasions de promotion de la santé

Anna Goldenberg (scientifique en génétique et en biologie du génome, Institut de recherche de l’Hôpital pour enfants de Toronto [SickKids], titulaire de la chaire de la famille Varma en bio-informatique médicale et en intelligence artificielle et d’une chaire de recherche du Canada en médecine informatique)

Dan Lizotte (professeur adjoint, Département d’informatique et Département d’épidémiologie et de biostatistique, Université Western)

12 h – 13 h

Dîner

13 h – 14 h

Lacunes en recherche : discussion du groupe d’experts

  • Genre
  • Race et origine ethnique
  • Facteurs socioéconomiques
  • Différents niveaux de capacité

Jutta Treviranus (directrice, Centre de recherche en design universel, Université de l’EADO)

Arjumand Siddiqi (professeure agrégée et titulaire d’une chaire de recherche du Canada sur l’équité en matière de santé des populations, Université de Toronto)

Tara Upshaw (étudiante à la maîtrise en sciences de la santé, laboratoire Upstream, Hôpital St. Michael)

Modératrice : Erica Di Ruggiero (directrice, Bureau de l’éducation et de la formation en santé publique mondiale, Université de Toronto)

14 h – 15 h

Séances en petits groupes avec animateur
Réflexions sur les nouvelles possibilités dans le domaine de l’IA équitable en santé publique

Animateurs :

Jennifer Gibson (directrice, Centre conjoint de bioéthique, Université de Toronto)

Nathaniel Osgood (professeur, Département d’informatique, Université de la Saskatchewan)

15 h – 15 h 20

Pause réseautage

15 h 20 – 16 h 45

Discussion de groupe avec animateur : Réflexions sur les nouvelles possibilités dans le domaine de l’IA équitable en santé publique

  • Possibilités de recherche, recommandations et répercussions sur les politiques

Présidente de la séance :

Jennifer Gibson (directrice, Centre conjoint de bioéthique, Université de Toronto)

16 h 45 – 17 h

Conclusion et prochaines étapes

Elissa Strome (CIFAR)
Marisa Creatore (ISPP des IRSC)

17 h – 18 h

Réception

Centre MaRS, tour Ouest, 661, avenue University, bureau 505

Annexe B : Liste des participants à l’atelier

Participants (par ordre alphabétique)

  • Imran Ali, Institut Dahdaleh pour la recherche en santé mondiale
  • Brent Barron, CIFAR
  • Nabilah Chowdhury, CIFAR
  • Amy Cook, CIFAR
  • Mélissa Côté, Chaire de recherche du Canada sur la décision partagée et l’application des connaissances
  • Myriam Côté, Mila
  • Marisa Creatore, ISPP des IRSC
  • Natasha Crowcroft, SPO
  • Krista Davidson, CIFAR
  • Erica Di Ruggiero, École de santé publique Dalla Lana, Université de Toronto
  • Elham Dolatabadi, Institut Vecteur
  • Rebecca Finlay, CIFAR
  • Marzyeh Ghassemi, Université de Toronto
  • Jennifer Gibson, Université de Toronto
  • Anna Goldenberg, Institut de recherche de l’Hôpital pour enfants de Toronto (SickKids), Université de Toronto
  • Zachary Kaminsky, Institut de recherche en santé mentale du Royal
  • Tino Kreutzer, Université York
  • Jacqueline Kueper, Université Western
  • Daniel Lizotte, Université Western
  • Fatima Mussa, ISPP des IRSC
  • James Orbinski, Université York
  • Nathaniel Osgood, Université de la Saskatchewan
  • Alison Paprica, Institut Vecteur
  • Mina Park, Université de la Colombie-Britannique
  • Samira Rahimi, Université McGill
  • Laura Rosella, Université de Toronto
  • Arjumand Siddiqi, Université de Toronto
  • Elissa Strome, CIFAR
  • Jutta Treviranus, Centre de recherche en design universel, Université de l’EADO
  • Tara Upshaw, Laboratoire Upstream
  • Scott Weichenthal, Université McGill
  • Merrick Zwarenstein, Université Western; ICES
Date de modification :