Centre de Recherche en Intelligence Artificielle

Séminaires du CRIA


Conférencier William CLANCEY
Date et lieu 11 Avril 2019, 10:30, Salle PK-5115
Résumé Using robotic systems operated from NOAA’s ship, the Okeanos Explorer, oceanographers are now able to explore the depths of Earth’s oceans, without leaving their homes. Unlike missions on Mars, undersea robots can be tele-operated, communicating without noticeable delay, and an international remote science team participates as the daily investigation unfolds. I conducted an ethnographic study during the American Samoa Expedition, focusing on how the two onboard scientists communicated with the remote scientists and the engineering team controlling the robots. What does their interaction reveal about explanation requirements for autonomous surveys of Mars or undersea on Europa? What kinds of explanations will unsupervised robots require from the scientists to conduct their journeys? How do these future needs relate to research on “explainable AI” today?
Bio William J. Clancey is a computer scientist whose research relates cognitive and social science in the study of work practices and the design of agent systems. At NASA Ames Research Center, he was Chief Scientist of Human-Centered Computing, Intelligent Systems Division (1998-2013); his team automated file management between Johnson Space Center Mission Control and the International Space Station. His studies relating people and technology include numerous field science expeditions from the Canadian High Arctic to Belize and Polynesia. He is Senior Research Scientist at the Florida Institute for Human and Machine Cognition in Pensacola.
Conférencier Julien MERCIER
Date et lieu 19 Avril 2019, 12:00, Salle PK-4610
Résumé L’étude de la cognition et de l’affectivité chez des individus opère traditionnellement sur la base de construits psychologiques mesurés par des techniques comportementales. Des avancées techniques et méthodologiques concernant l’imagerie cérébrale et d’autres mesures psychophysiologiques suscitent un intérêt marqué quant au potentiel appliqué des neurosciences cognitives et affectives afin de mieux comprendre comment les processus cognitifs et affectifs sont collectivement responsables du déroulement d’une performance donnée. En particulier, un bénéfice important de cette approche réside dans la possibilité de mesurer un phénomène cognitif ou affectif de manière relativement non-intrusive à une fréquence correspondant à la vitesse de changement de celui-ci durant une performance donnée. Une revue de littérature récente suggère que les travaux interdisciplinaires requis pour réaliser le potentiel de ce champ de recherche nécessitent actuellement des développements théoriques et méthodologiques considérables. Le but de cette présentation est de proposer de telles avancées, accompagnées d’exemples de travaux en cours à NeuroLab afin de suggérer et d’illustrer de nouvelles avenues de recherche dans un champ en émergence qui concerne la mesure en temps réel de l’affectivité et de la cognition.
Bio Julien Mercier est professeur titulaire à l’UQAM et directeur de NeuroLab, une infrastructure de recherche financée par la Fondation Canadienne pour l’Innovation. Ses intérêts de recherche convergent dans l’étude de l’apprentissage, des interactions interpersonnelles, de la cognition et de l’affectivité en combinant des méthodes comportementales et psychophysiologiques.
Conférencier Ange Nyamen Tato
Date et lieu 21 Mars 2019, 10:30, Salle PK-5115
Résumé Il existe plusieurs algorithmes d'optimisation stochastique. Dans la plupart des cas, choisir le meilleur optimizer pour un problème donné n'est pas une tâche facile car chacune de ces solutions donne généralement de bons résultats. Ainsi, au lieu de chercher un autre meilleur optimizer absolu, accélérer ceux qui existent déjà dans le contexte actuel pourrait être grandement bénéfique. Nous présenterons une technique simple et intuitive qui, lorsque appliquée aux algorithmes d'optimisation de premier ordre (et dont la convergence est assurée), est capable d'améliorer la vitesse de convergence et atteindre un meilleur minimum pour la fonction de perte par rapport aux algorithmes d'origine. La solution proposée modifie la règle de mise à jour des paramètres d'apprentissage en fonction du changement de la direction du gradient. Nous avons mené plusieurs tests comparatifs avec les solutions de l'état de l'art (SGD, AdaGrad, Adam et AMSGrad) sur des fonctions convexes et non convexes de base (tels que x^2 et x^3) et sur des problèmes réels avec des ensembles de données publics (MNIST, IMDB, CIFAR10). Ces tests ont été menés sur différentes architectures de réseaux de neurones (Logistic Regression, MLP et CNN). Les résultats montrent que la technique proposée améliore considérablement les performances des optimizers existants et fonctionne bien dans la pratique..
Bio Ange Tato est une étudiante (en rédaction de thèse) au Doctorat en informatique à l'Université du Québec à Montréal. Elle s’intéresse à la recherche fondamentale sur les algorithmes d'apprentissage machine appliqués entre autre à la modélisation des utilisateurs dans les systèmes intelligents. Elle a obtenue un diplôme d'ingénieur d'état en systèmes d'information en 2014 à l'École Mohammédia des ingénieurs. Elle a ensuite obtenue une maîtrise en informatique à l'UQAM en 2015 dont le sujet portait sur le développement d'un système tutoriel intelligent pour l'apprentissage de la logique. Depuis 3 ans, elle travaille à 1) l'amélioration des algorithmes d'optimisation de premier ordre (avec descente du gradient); 2) l'amélioration des architectures de réseaux de neurones pour des données multimodales pour prédire ou classifier les comportements des utilisateurs (joueurs, apprenants, etc.) de systèmes intelligents adaptatifs; 3) l'intégration de connaissances expertes dans les modèles de deep learning pour améliorer leur pouvoir prédictif et leur traçabilité.
Conférenciers Komi Sodoké
Date et lieu 22 Février 2019, 12:00, Salle PK-4610
Résumé L’acquisition d’expertise a été étudiée dans plusieurs domaines et ces recherches démontrent des changements de paradigme dans les différentes phases de l’évolution du stade de novice à celui de l’expert. Ce projet de recherche s’inscrit dans ce cadre général et porte spécifiquement sur l’expertise « perceptivo-décisionnelle » dans le domaine médical. L’approche adoptée est constituée de deux phases. La première phase consistera en une étude exploratoire et comparative des aptitudes perceptivo-décisionnelle des novices et d’experts en situation authentique sur une simulation haute-fidélité. Cette recherche se fera en prenant en considération la perception grâce à l’analyse des données de la perception visuelle, la cognition grâce à l’analyse du raisonnement clinique (RC). Les données seront analysées d’une part dans le but de dégager les différences, des régularités caractéristiques du novice et de l’expert. La seconde phase exploitera les extrants de la première en vue d’élaborer des spécifications pour un Système Tutoriel Intelligent (STI) qui permettrait d’offrir des services tutoriels à novice afin de structurer graduellement sa perception visuelle décisionnelle comme un expert. Spécifiquement dans ce séminaire nous présenterons les points ci-dessous:
  • Le protocole expérimental
  • L’analyse comparative des fixations sur les signes vitaux et la prise en charge clinique
  • L’analyse comportemental des fixations durant les complications cliniques
  • La visualisation de la forme de la trajectoire globale des fixations et saccade
  • La classification basée sur une architecture d’apprentissage profond qui a permis d’obtenir une précision de plus 90.2% en utilisant uniquement les données de la perception visuelle
  • L’architecture sommaire du STI.
  • Bio Komi Sodoké s’intéresse à la recherche fondamentale sur l’application des modèles en psychométrie ainsi que des techniques issues de l’Intelligence Artificielle pour améliorer l’apprentissage et l’évaluation assistés par ordinateur. Après avoir travaillé plusieurs années comme analyste-programmeur et directeur recherche et développement dans l’industrie du E-learning, il a rejoint l’enseignement collégiale en informatique et au baccalauréat international. Il participe dans le réseau collégial aux projets sur l’utilisation des technologies avancées dans l’éducation comme les lunettes de réalité virtuelle, les robots humanoïde (Nao et Peper), etc. Dans le cadre de son doctorat, Il est chercheur au Centre d’apprentissage des attitudes et habiletés cliniques (CAAHC).
    Conférenciers François Chabot
    Entreprise Age of Minds Inc.
    Date et lieu 15 Février 2019, 15:00, Salle DS-1950 du Pavillon J.-A. DeSève
    Résumé Les processus d'apprentissage machine utilisés en industrie tombent généralement dans le cadre de l'apprentissage hors-ligne basé sur de grandes bases de données ou sur des approches par renforcement utilisant des environnements simulés. L'intégration d'humains au sein de la boucle d'apprentissage au-delà de l’approvisionnement participatif présente des défis particuliers. Nous présenterons une vue d'ensemble de ces défis, ainsi que l'approche que nous prenons pour pouvoir les mitiger systématiquement.
    Bio François Chabot est un vétéran de l'industrie du jeu vidéo (Capcom) et du traitement de données à large échelle (Google). Il est le CTO de Age of Minds, une jeune entreprise fondée dans le but d'explorer les relations humain-machine dans un monde où ces dernières deviennent de plus en plus intelligentes.
    Conférencier Dr Karim JERBI
    Date et lieu 14 Février 2019, 10:30, Salle PK5115
    Résumé Serait-il possible de mieux comprendre l’intelligence humaine grâce à l’intelligence artificielle ? C’est un des défis que les recherches menées dans mon laboratoire cherchent à relever. Pour ce faire, plusieurs approches sont possibles. Par exemple, la modélisation du traitement de l’information à travers les réseaux cérébraux via des modèles de réseaux de neurones artificielles est une piste envisageable. En parallèle, un nombre croissant d’études utilisent des algorithmes d’apprentissage automatique pour classifier des masses de données cérébrales multidimensionnelles et complexes. Ces méthodes d’analyse guidées par les données (data-driven) diffèrent des méthodes classiques en neurosciences basées sur la formulation d’hypothèses (hypothesis-driven). La fouille de données (data-mining) appliquée à la recherche sur le cerveau a des avantages importants, mais ne remplace les approches traditionnelles fondées sur des hypothèses. Lors de ce séminaire, plusieurs études à l’interface entre apprentissage machine et neurosciences seront présentées. Les données présentées se focaliseront notamment sur l’exploitation d’enregistrements en électroencéphalographie (EEG) et en magnétoencéphalographie chez des sujets sains ainsi que chez des populations cliniques.
    Bio Karim Jerbi est titulaire d’une Chaire de Recherche du Canada en Neurosciences des Systèmes et en Neuroimagerie Cognitive. Il est directeur du laboratoire de Neurosciences Cognitives et Computationnelles (CoCo Lab) au département de psychologie à l’université de Montréal. Formation : Dr Jerbi a une formation en génie biomédical (Université de Karlsruhe, Allemagne) et un doctorat en neurosciences cognitives et en neuroimagerie (Université Paris VI, France). Recherche : Les travaux menés dans son laboratoire cherchent à mieux comprendre le rôle fonctionnel des propriétés dynamique des réseaux cérébraux, leurs liens avec la cognition et leurs altérations dans le cadre des pathologies du cerveau. Pour ce faire, ses travaux combinent -entre autres- des méthodes de pointes en enregistrement de l’activité cérébrale (ex. la magnétoencéphalographie), en analyses spectrales uni et multi-variées et des outils issus de l’intelligence artificielle (IA). Dr Jerbi est membre de plusieurs centres de recherche à Montréal (ex. BRAMS, CRIUGM, CRIUSMM, NeuroQAM et le Centre de Recherches Mathématiques CRM) et a de nombreuses collaborations internationales à l’intersection entre neurosciences et IA.
    Conférencière Dr. Sasha Luccioni
    Date et lieu 8 Février 2019, 12:00, Salle PK4610
    Résumé Le marché financier génère énormément de données en temps réel, ce qui présente une panoplie d’opportunités pour l’application des techniques de l’apprentissage machine et le traitement automatique des langues. Dans cette présentation, nous allons élaborer sur les techniques et les approches utilisées chez Morgan Stanley pour analyser ces données et pour prédire des évolutions futures, incluant les systèmes de recommandation, les réseaux neuronaux, et la fouille des textes.
    Bio Sasha Luccioni est membre du Centre d’Excellence sur l’Intelligence Artificielle et Apprentissage Machine de Morgan Stanley. Elle détient un doctorat en Informatique Cognitive de l’UQAM, ainsi que des diplômes en Linguistique et en Sciences Cognitives. Elle est intéressée en recherche fondamentale et appliquée dans divers domaines incluant le Traitement Automatique des Langues et l’Apprentissage Profond.
    Conférencier Prof. Philippe Fournier-Viger
    Date et lieu 31 Janvier 2019, 10:30, Salle PK5115
    Résumé Dans plusieurs domaines, les données sont représentées sous forme de séquence d’événements. Par exemple, dans le domaine du e-learning, les actions effectuées par un apprenant dans un système de cyber-apprentissage peuvent être vues comme des séquences. Plusieurs algorithmes ont été conçus pour découvrir des motifs intéressants dans les séquences, afin de mieux comprendre les données ou de faciliter la prise de décision. Un type d’analyse classique réalisée sur des séquences est la découverte de motifs fréquents. Bien que ce type d’analyse soit utile, une limite importante est que l’hypothèse que ce qui est fréquent est intéressant ne tient pas toujours. Par exemple, lors de l’analyse de séquences de transactions faites par des consommateurs, des mesures comme le profit généré par la vente des produits peuvent être plus intéressantes que la fréquence. Cette présentation décrira nos recherches récentes sur le développement d’algorithmes pour la découverte de motifs dans les séquences. En particulier, le problème de la découverte de motifs de grande utilité sera décrit (« high utility pattern mining »), où l’utilité est une mesure d’importance pouvant représenter par exemple le profit généré par une séquence d’achats. De plus, une nouvelle extension sera décrite pour découvrir des motifs offrant un bon rapport entre utilité et coût (« cost-effective patterns »). Ce type de motifs peut être appliqué par exemple en cyber-apprentissage pour découvrir des séquences d’actions à faible coût (ex. : qui requièrent peu de temps) pour obtenir une grande utilité (ex. : un bon apprentissage). Un autre exemple d’application est la découverte de séquences de traitements médicaux à faible coût pour obtenir une grande utilité (ex. : guérison). Des algorithmes seront présentés ainsi que quelques motifs découverts dans des données réelles. Par ailleurs, le logiciel SPMF pour la découverte de motifs sera brièvement décrit.
    Bio Philippe Fournier-Viger (PhD) a obtenu un doctorat en informatique cognitive de l’UQAM en 2010. Il a ensuite été chercheur postdoctoral à Taïwan et professeur adjoint à l’Université de Moncton. EN 2015, il a reçu le titre de talent national de la National Science Foundation of China et est devenu professeur titulaire au Harbin Institute of Technology à Shenzhen, Chine. Il y est directeur du Centre de design industriel innovateur. Il a participé à plus de 200 articles dans des conférences et revues internationales. Ses intérêts de recherche sont centrés sur le développement d’algorithmes pour la découverte de motifs intéressants dans les transactions, séquences et graphes, la prédiction de séquences, et certaines applications liées au e-learning et réseaux sociaux. Il est le fondateur de la librairie de fouille de données SPMF, utilisé dans plus de 600 articles depuis 2010. Récemment, il a été éditeur du livre « High Utility Mining : Theory, Algorithms and Applications » qui sera publié par Springer. Il a co-organisé un atelier à KDD2018 sur le même sujet.
    Conférencier Mickael Wajnberg
    Date et lieu Vendredi, 25 Janvier 2019, 12:00, Salle PK4610
    Résumé L’extraction de connaissances est une discipline qui cherche à détecter des tendances, des groupes ou des motifs dans les grands jeux de données. Elle a principalement été développée autour de cas de tables de données uniques. Or, la plupart des systèmes d’informations actuels se basent sur une représentation en base donnée relationnelle multitable, alias, jeu de données multirelationnel. La fouille de données multirelationnelles vise à combler un certain manque de précision et une perte de contextualisés qui apparait lorsque les tables d’un tel jeu de données se font analyser séparément ou, alternativement, en joignant toutes les données dans une table unique. L’analyse relationnelle de concepts (ARC) est une méthode capable d’extraire des connaissances d'un jeu de données multirelationnelles et de les expliciter sous forme de : (1) motifs (patterns) et règles d’association ou (2) groupes homogènes (clusters). C’est une extension du paradigme mathématique d’analyse formelle de concept qui admet une seule table. ARC permet, notamment, de traiter plusieurs types d’objets — chacun représenté au sein de sa propre table, alias contexte — interreliés au travers de relations binaires intercontextes. Ce format est clairement compatible avec les données liées et le formalisme RDF. La méthode analytique associée emploie des mécanismes de propositionnalisation. Ceux-ci sont inspirés des logiques de description pour ramener les liens inter-objets à des descripteurs propres de ces objets. Un premier cas d’application du procédé d’ARC est en cours : il consiste à croiser les données neurologiques d’Imagerie par Résonance Magnétique fonctionnelle, spatialement précises, avec les données d’électroencéphalogrammes, temporellement précises, pour fournir aux neurologues partenaires un outil d’aide à l’interprétation. En outre, l’ARC permettrait aussi de confronter les connaissances contenues dans un jeu de données à ce qui est déjà connu sur le domaine d’origine de celles-ci, exprimé, par exemple, sous forme d’une ontologie. Notamment, en exhibant des sous-groupes d’objets aux propriétés communes, l'ARC pourrait détecter l’existence de sous-classes potentiellement pertinentes au sein d’une classe connue. Alternativement, elle peut valider la pertinence de certaines restrictions de propriétés au sein d’une classe. De plus, l’ARC suggérerait des types plus restrictifs pour les objets peuplant une ontologie en utilisant les associations entre descripteurs.
    Bio Mickael Wajnberg est un étudiant au doctorat en cotutelle entre l’Université du Québec à Montréal et l’Université de Lorraine (France). Il travaille actuellement sur l’analyse relationnelle de concept et l’extraction de connaissances. Après une classe préparatoire en math-physique, il a été diplômé d'une école d’ingénieur en France, Telecom Nancy et d’une maitrise à l’Université du Québec à Chicoutimi où il s’est spécialisé en Métaheuristiques et plus généralement en algorithmique et informatique théorique. Pour plus d'information sur ce séminaire et sur nos prochains événements, visitez: http://gdac.uqam.ca/CRIA/evenements.html
    Conférencier Claude Coulombe
    Date et lieu 24 Janvier 2019, 10:30, Salle PK5115
    Résumé En traitement de la langue naturelle, il n’est pas rare de se retrouver avec des quantités nettement insuffisantes de données pour entraîner un modèle profond. Ce « mur des données massives » représente un défi pour les communautés linguistiques minoritaires sur la Toile, les organisations, les laboratoires et les entreprises qui rivalisent avec les géants du GAFAM. Cette présentation abordera la faisabilité de différentes techniques simples, pratiques et robustes d’amplification textuelle basées sur le traitement de la langue naturelle et l’apprentissage automatique afin de pallier l’insuffisance de données textuelles pour l’entraînement de gros modèles statistiques, particulièrement pour l’apprentissage profond.
    Bio Claude Coulombe a évolué du scientifique en herbe qui participa à 15 expo-sciences, le B.Sc. en physique et la maîtrise en IA à l'UdeM (Homo scientificus), vers l'entrepreneur en haute technologie passionné du Québec, co-fondateur de Machina Sapiens où il a participé à la création d'une nouvelle génération d'outils de correction grammaticale (Homo québecensis). Suite à l'éclatement de la bulle technologique, Claude bifurqua dans un nouveau chemin évolutif pour fonder une famille, lancer Lingua Technologies qui combine la traduction automatique et les technologies Internet et entreprendre un doctorat en apprentissage automatique au MILA sous la direction de Yoshua Bengio (Homo familIA). En 2008, les ressources se raréfiant, Claude muta en Homme de Java, en se spécialisant dans la réalisation d'applications web riches avec Ajax, HTML5, Javascript, GWT, les architectures REST, l'infonuagique et les applications mobiles. En 2013, Claude débute un doctorat en informatique cognitive, participe au développement de deux cours en ligne ouverts et massifs (CLOM / MOOC) à la TÉLUQ, apprend Python et l’apprentissage profond pour devenir l’Homme de Python (ne pas confondre avec l’Homme de Piltdown). Bref, Claude est un vieux fossile qui a su évoluer, se reproduire, créer des outils et s’adapter au rythme de ses passions.
    Conférencier Jean Massardi
    Date et lieu 18 Janvier 2019, 12:00, Salle PK4610
    Résumé La reconnaissance de plan est la tâche inverse à la planification. Il s’agit, à partir d’une séquence d’observations, de déterminer quel est l’objectif derrière les actions d’un agent. Il existe de nombreux algorithmes pour résoudre ce problème, cependant la plupart se basent sur l'hypothèse que les observations sont parfaites, c'est-à-dire sans bruit et sans observations manquantes. Pour de nombreuses applications, cette hypothèse n'est pas satisfaite. Dans le cas de la reconnaissance de plan utilisant des plans hiérarchiques, l'ajout des observations imparfaites entraînent une explosion combinatoire. Nous proposons de résoudre ce problème en utilisant un filtre à particule.
    Bio Jean Massardi est étudiant au doctorat en Informatique à l'UQAM, précédemment diplômé de l'INSA de Toulouse en ingénierie logiciel.
    Conférencier Pr. Serge Robert
    Date et lieu 14 Janvier 2019, 15:00, Salle R-M130 (Pavillon des Sciences de la gestion)
    Contexte: Cette conférence est donnée à l’occasion de la première édition de la Journée internationale de la logique (World Logic Day), créée par l’association internationale Universal Logic. Elle est parainée par l’ISC avec l'appui du CRIA. Le professeur Serge Robert est professeur au département de philosophie, membre de l’Institut des sciences cognitives et du CRIA
    Conférencière Menhour Ihssene
    Date et lieu 4 décembre 2018, 12:00, PK4610
    Résumé La reconnaissance des activités joue un rôle important dans les applications de suivi médical et d’assistance aux personnes âgées que ce soit dans les habitats intelligents pour la santé, les hôpitaux ou dans les résidences pour personnes âgées. La reconnaissance des activités permet par exemple de détecter les événements pouvant être dangereux pour la personne âgée et prévenir toute situation à risque. Bien qu’il existe divers designs de solutions possibles (e.g., reconnaissance par images de caméras, maisons intelligentes équipées de capteurs, etc.), nous discuterons principalement de l’exploitation des capteurs de smartphones pour collecter les données et du développement d’une méthode de reconnaissance d’activités à partir de ces derniers, pour établir le profil de l’utilisateur.

    Actualités


    Notre équipe

    Une équipe composée de plusieurs chercheurs.

    Projets

    Liste actuelle des projets de recherche en cours.

    Publications

    Liste des publications faite par nos chercheurs