Linbo Wang


Chaire de recherche du Canada en apprentissage automatique causal

Niveau 2 - 2024-04-01
University of Toronto
Conseil de recherches en sciences naturelles et en génie



Résumé


Les systèmes d’apprentissage automatique à boîte noire basés sur une corrélation fournissent des résultats ou prennent des décisions sans expliquer ou montrer comment ils y sont parvenus. Ces systèmes ont connu beaucoup de succès dans plusieurs domaines, comme le commerce électronique et les moteurs de recherche. Ils présentent toutefois des risques importants dans des secteurs tels que la santé, la finance et la justice, où des inexactitudes peuvent avoir de graves conséquences. Il est urgent de mettre au point une intelligence artificielle (IA) fiable, stable, explicable et équitable.

Linbo Wang, titulaire de la Chaire de recherche du Canada en apprentissage automatique causal, s’efforce de répondre à ce besoin. M Wang et son équipe de recherche élaborent un cadre qui intègre les facteurs de confusion non mesurés dans les modèles d’intelligence artificielle (les facteurs de confusion sont souvent appelés « variables cachées ») et améliorent leurs performances dans un large éventail d’environnements. Leurs conclusions seront particulièrement utiles pour diverses applications, notamment les modèles d’évaluation des risques dans le système judiciaire canadien et les analyses d’expression génique.