Centre de Recherche en Intelligence Artificielle

Séminaires du CRIA


Conferencier Staffan LARSSON
Résumé How are meanings of utterances related to the world and our perception of it? What is meaning, and how is it created? How do word meanings contribute to utterance meaning? We are working towards a formal semantics that aims to provide answers to these and related questions, starting from situated interaction between agents. The meanings of many expressions can be modeled as classifiers of real-world information. Expressions can be single words, or phrases and sentences whose meanings are composed from the meanings of their constituents. By interacting, agents coordinate on meanings by training classifiers. To make formally explicit the notions of coordination, compositionality and classification, and to relate these notions to each other, we use TTR (a type theory with records).
Date et lieu Jeudi 8 Avril, 10h30 sur Zoom
Biographie Staffan Larsson (b. 1969) was educated at University of Gothenburg (1992-1996) and gained a PhD in Linguistics there (1997-2002). Since 2013, he is Professor of Computational Linguistics at the Department of Philosophy, Linguistics and Theory of Science at the University of Gothenburg. He is also a member of CLASP (Centre for Research on Linguistic Theory and Studies in Probability) and co-founder and Chief Science Officer of Talkamatic AB. His areas of interest include dialogue, dialogue systems, language and perception, pragmatics, formal semantics, semantic coordination, and philosophy of language.
Conferencier Alberto TESTOLIN
Résumé Mathematics is one of the most impressive achievements of human cultural evolution. Despite we perceive it as being overly abstract, it is widely believed that mathematical skills are rooted into a phylogenetically ancient “number sense”, which allows us to approximately represent quantities. However, the relationship between number sense and the subsequent acquisition of symbolic mathematical concepts remains controversial. In this seminar I will discuss how recent advances in AI and deep learning research might allow to investigate how the acquisition of numerical concepts could be grounded into sensorimotor experiences. Success in this challenging enterprise would have immediate implications for cognitive science, but also far-reaching impact for educational practice and for the creation of the next generation of intelligent machines.
Date et lieu Jeudi 1 Avril, 10h30 sur Zoom
Biographie Dr. Alberto Testolin received the M.Sc. degree in Computer Science and the Ph.D. degree in Psychological Sciences from the University of Padova, Italy, in 2011 and 2015, respectively. In 2019 he was Visiting Scholar at the Department of Psychology at Stanford University. He is currently Assistant Professor at the University of Padova, with a joint appointment at the Department of Information Engineering and the Department of General Psychology. He is broadly interested in artificial intelligence, machine learning and cognitive neuroscience. His main research interests are statistical learning theory, predictive coding, sensory perception, cognitive modeling and applications of deep learning to signal processing and optimization. He is an active member of the IEEE Task Force on Deep Learning.
Conferencier Jun TANI
Résumé The focus of my research has been to investigate how cognitive agents can acquire structural representation via iterative interaction with the world, exercising agency and learning from resultant perceptual experience. For this purpose, my group has investigated various models analogous to predictive coding and active inference frameworks. For the past two decades, we have applied these frameworks to develop cognitive constructs for robots. My talk attempts to clarify underlying cognitive and mind mechanisms for compositionality, social cognition, and consciousness from analysis of emergent phenomena observed in these robotics experiments.
Date et lieu Mercredi 31 Mars, 19h (exceptionnellement) sur Zoom
Biographie Jun Tani received the D.Eng. degree from Sophia University, Tokyo in 1995. He started his research career with Sony Computer Science Lab. in 1993. He became a Team Leader of the Laboratory for Behavior and Dynamic Cognition, RIKEN Brain Science Institute, Saitama, Japan in 2001. He became a Full Professor with the Electrical Engineering Department, Korea Advanced Institute of Science and Technology, Daejeon, South Korea in 2012. He is currently a Full Professor with the Okinawa Institute of Science and Technology, Okinawa, Japan. His current research interests include cognitive neuroscience, developmental psychology, phenomenology, complex adaptive systems, and robotics.
Conferencier Gary LUPYAN
Résumé That people are able to communicate on a wide range of topics with reasonable success is often taken as evidence that we have a largely overlapping conceptual repertoire. But where do our concepts come from and how similar are they, really? On one widespread view, humans are born with a core-knowledge system and a set of conceptual categories onto which words map. Alternatively, many of our concepts — including some that seem very basic — may derive from our experience with and use of language. On this view, language plays a key role in both constructing and aligning our conceptual spaces. I will argue in favor of the second view, present evidence for the causal role of language in categorization and reasoning, and describe what consequences this position has for the theoretical possibility of telepathy.
Date et lieu Jeudi 25 Mars, 10h30 sur Zoom
Biographie Gary Lupyan is a professor of psychology at University of Wisconsin-Madison. He obtained his doctorate in 2007 at Carnegie Mellon with Jay McClelland, followed by postdocs in cognitive (neuro)science at Cornell University and University of Pennsylvania. At the center of his research interests is the question of whether and how our cognition and perception is augmented by language. What does language *do* for us? Other major research interests have spanned top-down effects in perception, the evolution of language, iconicity, and causes of linguistic diversity (do languages adapt to different socio-demographic environments?).
Conferencier Tali Leibovich-Raveh
Résumé I will discuss the integration of non-numerical magnitudes during a quantity comparison task in humans and in an animal model – the archerfish. Then, I will discuss the influence of bottom up and top-down factors on the automatic processing of quantities when adults are asked to compare a specific non-numerical magnitude (convex hull, total surface area or the average diameters of the dots). I will briefly present one way in which studying the influence of non-numerical magnitudes can contribute to early mathematics education.
Date et lieu Jeudi 4 Fevrier 2021, 10h30 sur Zoom
Biographie Tali Leibovich-Raveh ( B.sc Medical Laboratory Science, M.Sc. human genetics PhD in Cognitive Sciences) is a senior lecturer in the Department of Mathematical Education at Haifa University, the « Brain and math Education » internship, and an Editorial board member in the « Journal of Numerical Cognition ».
Conférencier Ahmed HALIOUI
Résumé Dans des domaines techniques comme la bioinformatique, l’acquisition des connaissances impliquées dans le processus de résolution de problèmes (e.g. flux de travaux) est sujet de plusieurs défis liés à la fois aux données et aux outils utilisés ainsi qu’à la représentation de son domaine d’application, e.g., en analyse phylogénétique. Des motifs de processus généralisés (abstraits) serviront ainsi de guider davantage une construction interactive des tâches de résolution de problèmes. Ici, l’espace de motifs généralisé est irrégulier cas il est induit par un schéma de processus – lui-même tiré d’une ontologie de domaine – avec des hiérarchies dédiées aux composants de processus (tâches, paramètres, contraintes sur les données, etc) et les interactions entre ces composants. Bien que les structures des flux de travaux soient des DAG (graphes orientés acycliques), nous montrons que notre problème pourrait être représenté par un espace de motifs séquentiels généralisés avec des liens étiquetés entre les éléments. Nous définissons dans ce travail la tâche d’exploration de l’espace et proposons une méthode de recherche en profondeur d’abord en utilisant uniquement un ensemble d’opérations primitives de raffinement exploitant la structure de l’ontologie. De plus, les hiérarchies de composants sont correctement indexées pour fournir un ordre total entre les composants des modèles qui permet une exploration exhaustive mais non redondante de l’espace de motifs. Une évaluation basée sur des recommandations indiquent que notre méthode se comporte d’une façon satisfaisante en termes d’efficacité et de précision prédictives.
Date et lieu Jeudi 13 Février 2020, 10:30, Salle PK-5115
Biographie Dr. Ahmed Halioui est un diplômé au doctorat en informatique cognitive de l’UQAM. Sa thèse intitulée « Extraction de flux de travaux abstraits à partir des textes : application à la bioinformatique » était sous la direction de M. Abdoulaye B. Diallo et Petko Valtchev. Il travaille maintenant à My Intelligent Machines (MIMs) – une start-up intégrant la Génomique, la Bioinformatique et l’Intelligence Artificielle – en tant que scientifique de données. Ses champs d’intérêts portent sur les ontologies, la fouille de donnée, l’extraction de l’information et la bioinformatique.
Conférencier Maxime Radmacher
Résumé L'industrie laitière est un secteur économique important pour le pays. Dans le cadre d’un projet industriel avec la société Valacta, notre équipe développe des modèles prédictifs sur la production laitière du cheptel bovin québécois afin de proposer un outil d’aide à la décision aux agriculteurs. L'équipe a développé un modèle de prédiction de séquence multivarié basé sur un réseau de neurones récurrents (LSTM). La validité du modèle reste un enjeu primordial pour la mise en production de ce dernier. Considérant, l’état actuel des sols et les dépendances de l’industrie laitière aux énergies fossiles, il est dérisoire de penser que la décennie future sera correctement modélisée en s’inspirant de la précédente. La création d’un modèle à long terme doit désormais intégrer une analyse de fond du domaine et la prise en compte de l’urgence climatique. Mais comment le faire ?
Date et lieu Vendredi 7 Février 2020, 10:30, Salle PK-4610
Pizzas et boissons servies. Faites le choix ICI
Biographie Maxime est ingénieur de recherche au laboratoire de bio-informatique de l’UQAM dirigé par Abdoulaye Baniré Diallo. Il est titulaire d'un diplôme d'ingénieur de l'Écolé Polytechnique de Paris, spécialisé en biologie.
Conférencier Jean Guy Meunier
Date et lieu Jeudi 30 Janvier 2020, 10:30, Salle PK-5115
Pizzas et boissons servies. Faites le choix ICI
Biographie Jean Guy Meunier est professeur associé au département de philosophie, codirecteur du Lanci, accrédité au programme doctoral d’informatique cognitive. Il est membre de l’Institut des Sciences Cognitives de l'UQAM. Membre de L’Académie Internationale de Philosophie des Sciences. (Bruxelles). Il effectue des recherches en analyse de textes assistée par ordinateur depuis les années 1968. Il est reconnu comme un des pionniers des Humanités Numériques. Il publiera à l’automne un livre chez Bloomburry (Londres) : Computational Semiotics.
Date et lieu Vendredi 13 Décembre 2019, 10:30, Salle PK-4610
Pizzas et boissons servies. Faites le choix ICI
Résumé Ceci est l’appel à participation à la rencontre inaugurale du *groupe de réflexion « Hybridation en IA »* au sein du CRIA. Conformément à la mission du centre, nous nous intéressons à la hybridation des méthodes basées sur le connexionisme et celle basées sur le traitements symboliques. Pour ce premier midi-discussion, le thème proposé est « Les limites de l’apprentissage profond et des réseaux de neurones artificiels »
Conferiencier Format discussion
Date et lieu 12 Décembre 2019, 10:30, Salle PK-5115
Pizzas et boissons servies. Faites le choix ICI
Résumé Judea Pearl, récipiendaire du prix Turing (2011), suggère que les algorithmes d'apprentissage profond cherchent jusqu'à présent à découvrir des associations et à s'adapter aux courbes préexistantes. Tant que les machines ne seront pas dotées de capacité de raisonnement, Bengio et Pearl [1, 2] estiment qu'elles ne seront pas réellement intelligentes. Et sans intelligence, l’utilité des machines reste limitée. Dans The Book of Why, Pearl propose, pour ce faire, une logique inférentielle, ayant trois niveaux de hiérarchie causale. 1) association : être en mesure de trouver des phénomènes qui sont liés; 2) intervention : être en mesure de deviner quel sera l'effet si l'on effectue une action; 3) contre-factuels : être capable de raisonner à propos de situations hypothétiques. Dans cette présentation, je vous propose un survol du livre de The book of Why. Nous verrons les limites inhérentes aux structures causales et méthodes de logique inférentielle suggérées par Pearl et al. pour construire les trois niveaux de hiérarchie causale.
Biographie Usef Faghihi est professeur adjoint à l’Université du Québec à Trois-Rivières. Auparavant, Usef était professeur à l’Université d’Indianapolis aux É.-U. Usef a obtenu son doctorat en informatique cognitive à l’UQAM. Par la suite, il est parti à Memphis aux É.-U pour faire un stage post-doctoral avec Professeur Stan Franklin, un des pionniers de l’intelligence artificielle. Ses intérêts de recherche sont les architectures cognitives et l’implémentation de différents types d'apprentissage dans ces architectures.
Date et lieu 29 Novembre 2019, 12:00, Salle PK-4610
Pizzas et boissons servies. Faites le choix ICI
Résumé La production laitière est une activité économique importante pour le Québec. Dans le cadre d’un projet industriel avec la société Valacta, notre équipe travaille sur la construction de modèles prédictifs à partir de données hétérogènes. L’objectif global est d’augmenter la rentabilité des troupeaux en aidant les fermiers à prendre les bonnes décisions. Les données sont organisées dans un triplestore, sous format RDF et une ontologie OWL a été développé pour faciliter la fédération des diverses sources concernant les divers aspects de la production laitière (génotypes et phénotypes des animaux, pédigrée, diététiques, santé et bien-être, qualité du lait produit, etc.). Notre propre rôle dans le projet, mis à part la construction de l’ontologie, est la fouille de caractéristiques typiques des vaches, sous la forme de graphes de données répétitifs. Ces graphes devraient permettre d’alimenter les modèles prédictifs par de features qui sont en même temps sémantiquement riches et interprétables par l’utilisateur final, qu’il soit fermier ou agronome, ou encore un spécialiste en qualité de lait. En outre, ils doivent faciliter la comparaison entre animaux, troupeaux ou fermes à l’aide de mesures de similarité. Afin d’injecter de l’expertise du domaine dans le processus d’analyse de données, nous définissent ses motifs par rapport à l’ontologie construite, ce qui a pour effet bénéfique d’augmenter leur niveau d’abstraction. Nous discutons des difficultés de la fouille de motifs de graphes de type « généralisés » et montrons quelques résultats préliminaires.
Biographie Tomas Martin, candidat au Doctorat en informatique à l'UQAM.
Date et lieu 22 Novembre 2019, 12:00, Salle à préciser
Pizzas et boissons servies. Faites le choix ICI
Résumé The quality assessment of generated samples of generative models, including Generative Adversarial Networks (GANs) and Auto-Encoders (AE), is still challenging, especially for non-image based applications. Current distance measures fail to illustrate intuitively the quality of the generated samples because they are not able to acknowledge the shape of the generated data manifold, i.e. its topological features, and the scale at which the manifold should be analyzed. We propose to rely on the persistent homology, the study of the topological features of a space at different spatial resolutions, for generative models to compare the nature of the original and the generated manifolds. We introduce persistent homology measures, both qualitative and quantitative, for a non-image based application on credit card transactions. We demonstrate how the persistent homology gives new perceptions for the quality assessment of generated samples of generative models.
Biographie Jeremy recently obtained his PhD in computer science from the university of Luxembourg. During his PhD, he focused his research on persistent homology, neural networks, reinforcement learning and linear algebra. Jeremy was as well a visiting PhD student at Columbia university. His PhD was done in collaboration with the national bank of Luxembourg, the Spuerkess, focusing on delivering applied research in machine learning for retail banking activities. Prior to his PhD, Jeremy worked as an applied mathematician in financial markets in Luxembourg for different financial institutions.
Détails Le CRIA (Centre de Recherche en Intelligence Artificielle) de l'UQAM est fier de s'associer avec le programme canadien de bourses de la francophonie afin d'offrir des bourses pour des stages postdoctoraux en recherche en IA pour la rentrée de septembre 2020.
Nous avons tourné une vidéo à ce propos, qui se trouve sur notre chaîne youtube.
Nous vous invitons à la regarder pour en savoir plus.
Public cible Étudiant en recherche de stage postdoc en IA. Des conditions s'appliquent.
Date et lieu 7 Novembre 2019, 13:30, Salle PK-2265
Résumé Durant ces dernières décennies, le Traitement Automatique des Langues Naturelles (TALN) a sans nul doute fait des progrès considérables sur le plan de la diversité des outils linguistiques mis à la disposition de la communauté et celui de la qualité des résultats obtenus. Néanmoins, ces progrès sont, jusqu’à une date récente, restés limités à un nombre relativement restreint de langues, majoritairement occidentales.
Les langues peu dotées, ou langues-π, langues moins bien informatisées que les grandes langues véhiculaires (l’anglais, l’espagnol, le français, etc.), souffrent du manque de ressources linguistiques dont les corpus parallèles, ressources importantes pour le développement de systèmes de TALN, notamment les systèmes de traduction automatique, et ainsi présentent plusieurs défis dans le domaine du TALN.
Ce projet de recherche se concentre sur la paire de langues peu dotée français-vietnamien afin de développer un système de traduction automatique performant tout en se focalisant sur la reconnaissance des entités nommées et leurs translittérations. En premier, une analyse théorique, du point de vue cognitif, est abordée sous l’angle des théories de la linguistiques et de la traduction. Par la suite, du point de vue informatique, l’objectif principal de notre projet de recherche consiste à proposer une méthode originale et fiable ainsi que des solutions aux problèmes rencontrés lors de la traduction automatique des entités nommées. Aussi, nous déterminons les sous-objectifs de ce projet de recherche, dont la reconnaissance des entités nommées pour la langue vietnamien et également la tâche de la translittération des entités nommées bilingues pour la paire de langues français-vietnamien. En plus des approches statistiques, nous adaptons l’approche d’apprentissage profond (en anglais, deep learning) au sein de nos différents systèmes afin d’améliorer davantage la qualité et l’efficacité de la traduction automatique des entités nommées. Les contributions à la traduction automatique et à la translittération automatique des entités nommées bilingues ont permis non seulement de réduire le taux des mots hors vocabulaires, mots non traduits et/ou incorrectement traduits, mais aussi d’améliorer la qualité du système de la traduction automatique.
Étudiant Ngoc Tan LE, étudiant au doctorat en informatique cognitive.
Membres du jury
  • Yllias Chali, professor, department of mathematics and computer science, University of Lethbridge, Alberta (membre externe)
  • Grégoire Winterstein, UQAM, département de linguistique (membre interne)
  • Vladimir Makarenkov, UQAM, département d’informatique (membre interne et président du jury)
  • Fatiha Sadat, UQAM, professeur au département d’informatique (directrice de recherche)
  • Lucie Ménard, UQAM, professeur au département de linguistique (codirectrice de recherche)
Conférencier Bernabé Bathakui
Date et lieu 17 Octobre 2019, 10:30, Salle PK-5115
Résumé Dans la plupart des pays d’Afrique saharienne, les besoins en formation initiale sont énormes à cause d’une croissance démographique très élevée. Les effectifs dans les institutions d’enseignement secondaire et universitaires sont pléthoriques car il y a un manque criard d’infrastructures. La massification contribue à une large diminution du taux d’encadrement. L’enseignement et l’évaluation dans ce contexte ne peuvent pas garder leur forme traditionnelle. En effet, les modalités d’enseignement, essentiellement transmissives, sont actuellement inadaptées. La conséquence en est un taux d’échec scolaire et universitaire environnant les 50 à 60%. Notre projet collaboratif avec l’UQAM vise à apporter une solution avec comme retombée une large diminution de ce taux d’échec. L’objectif immédiat est, en s’appuyant sur l’ingénierie des connaissances, de doter les environnements de formation existants d’outils intelligents de préparation et suivi des apprentissages. Ce cadre de recherche répond aux questionnements suivants :
  • Comment observer le comportement collectif d’apprenants en situation d’apprentissage ? Le but visé ici est de proposer aux enseignants et aux tuteurs des tableaux de bord qui leur permettront de suivre les apprenants regroupés en fonction de leur similarité afin d’appliquer à chaque groupe constitué des stratégies d’accompagnement appropriées. Approche méthodologique adoptée est l’exploitation des modèles tels que des arbres de décision, les systèmes à base de règles, les k-means et les réseaux de neurones pour modéliser les données issues du traitement des traces d’apprentissage, puis extraire des patterns qui permettront de mettre en évidence des dynamiques collectives.
  • Comment exploiter Internet pour doter les auteurs des contenus pédagogiques leur permettant de construire de nouveaux contenus adaptés aux situations d’apprentissage ? Les moteurs de recherche existants sont fortement dotés de bruit et ne facilitent pas la récupération des contenus utiles. Le but ici est de doter les environnements de recherche d’un filtre supplémentaire avec une couche ontologique dédiée aux contenus pédagogiques.
  • Comment assurer l’accès aux contenus de formation dans des zones qui ne disposent pas d’une bonne couverture Internet ? Nous avons vue sombré de nombreuses initiatives de formation à distance à cause de l’indisponibilité d’internet. Le but ici est de permettre aux apprenants défavoriser en absence de couverture Internet de poursuivre leur formation en dotant les plateformes d’apprentissage d’outils de récupération et synchronisation de données.
Bio Bernabé Batchakui, ingénieur en informatique et titulaire d’un Doctorat, est actuellement enseignant-chercheur à École nationale supérieure polytechnique de l’Université de Yaoundé I. Il y est responsable du pôle Techno-Pédagogie. Ses recherches se situent dans le domaine de l’enseignement assisté par l’ordinateur et de l’intelligence artificielle. Ses thèmes de recherche s’articulent autour de l’ingénierie de connaissances pour l’aide à l’apprentissage humain et l’analyse de données des apprenants.
Conférencier Ange Adrienne Nyamen Tato
Date et lieu Jeudi 10 Octobre 2019, 10:30, Salle PK-5115
Résumé Le Deep Knowledge Tracing (DKT), ainsi que d'autres approches d'apprentissage machine, sont biaisés en faveur des données utilisées pendant l'étape d’entraînement. Ainsi, pour les problèmes où nous avons peu de données, le pouvoir de généralisation sera faible et les modèles auront tendance à donner de bons résultats sur des classes contenant beaucoup d'exemples et de mauvais résultats sur celles avec peu d'exemples. Ces problèmes sont fréquents dans le domaine de l'éducation où, par exemple, il existe des compétences qui sont très difficiles (plancher) ou très faciles à maîtriser (plafond). Il y aura moins de données sur les étudiants qui ont répondu correctement aux questions relatives aux connaissances difficiles ainsi que sur ceux ayant mal répondu aux questions relatives aux connaissances faciles à maîtriser. Dans ce cas, le DKT n'est pas en mesure de prédire correctement le comportements des apprenants sur les questions associées à ces compétences. Comme solution, nous proposons une pénalisation du modèle en utilisant la technique du "cost sensitive". En d'autres termes, nous modifions la fonction de perte de façon à masquer certaines compétences pour forcer le modèle à prêter attention aux autres compétences. Nous avons testé notre solution sur une base données publique a avons obtenu des résultats prometteurs. De plus, pour surmonter le problème du faible volume de données, nous proposons également un modèle hybride combinant le DKT et les connaissances d'experts. Ainsi, le DKT est combiné avec un réseau bayésien (construit à partir d'experts du domaine) en utilisant le mécanisme d'attention. Le modèle qui en résulte permet de suivre avec précision les connaissances des étudiants du système tutoriel intelligent (STI) Logic-Muse, par rapport au BKT et au DKT originaux.
Bio Ange Tato est une étudiante (en évaluation de thèse) au Doctorat en informatique à l'Université du Québec à Montréal sous la supervision des professeurs Roger Nkambou (UQAM) et Aude Dufresne (UdeM).Elle s’intéresse à la recherche fondamentale sur les algorithmes d'apprentissage machine appliqués entre autres à la modélisation des utilisateurs dans les systèmes intelligents visant l’apprentissage humain. Elle a obtenue un diplôme d'ingénieur d'état en systèmes d'information en 2014 à l'École Mohammedia des ingénieurs. Elle a ensuite obtenue une maîtrise en informatique à l'UQAM en 2015 dont le sujet portait sur le développement d'un système tutoriel intelligent pour l'apprentissage de la logique. Depuis 3 ans, elle travaille à :
  • l'amélioration des algorithmes d'optimisation de premier ordre (avec descente du gradient);
  • l'amélioration des architectures de réseaux de neurones (entre autres pour le traitement des données multimodales et le problème de données en quantité insuffisante) afin de prédire ou classifier les comportements des utilisateurs (joueurs, apprenants, etc.) de systèmes intelligents adaptatifs;
  • l'intégration de connaissances expertes dans les modèles de deep learning pour améliorer leur pouvoir prédictif et leur traçabilité.
Conférencier Roger Schank
Date et lieu 19 Septembre 2019, 10:00, TÉLUQ, 5800 Saint-Denis (metro Rosemont), office 1105, room 11.051 (amphitheater),
Résumé What is artificial intelligence? Why all the hype about artificial intelligence now? The idea that we will build machines that are just like people, has captivated popular culture for a long time. Nearly every year, a new movie with a new kind of robot that is just like a person appears in the movies or in fiction. These robots might start out knowing nothing and gradually improving by interacting with people. But that robot will not be appearing any time soon.
Bio Schank has been a professor of psychology and computer science at Yale University. He is the John Evans Professor Emeritus of Computer Science, Psychology and Education, at Northwestern University. He was at the center of the research on artificial intelligence, with his work on conceptual dependency theory and dynamic memory. According to Google Scholar, Schank has been cited at least over 50,000 times. Beyond artificial intelligence, he is also interested in how human beings learn, having lead multiple innovative education ventures. He now runs Socratic Arts, a company providing e-learning courses.
Conférencier Mickael Wajnberg
Date et lieu 12 Septembre 2019, 10:30, Salle PK-4610
Résumé L’extraction de connaissances est une discipline qui cherche à détecter des tendances, des groupes ou des motifs dans les grands jeux de données. Elle a principalement été développée pour de tables de données uniques (un seul type d’individu). Or, la plupart des systèmes d’informations actuels se basent sur des jeux de données multi-relationnels, c’est-à-dire, comportant des types multiples. La fouille de données multi-relationnelles vise à combler un certain manque de précision et une perte de contextualité qui apparait lorsqu’on analyse séparément les données de chaque type existant dans un tel jeu de données.
L’analyse relationnelle de concepts (ARC) est une méthode capable d’extraire des connaissances d'un jeu de données multi-relationnelles et de les expliciter sous forme de : (1) motifs (patterns) et règles d’association ou (2) groupes homogènes (clusters). C’est une extension du paradigme mathématique d’analyse formelle de concept qui admet une seule table. ARC permet, notamment, de traiter plusieurs type d’objets —chacun représenté au sein de sa propre table, alias contexte— inter-reliés au travers de relations binaires inter-contextes. Ce format est clairement compatible avec les données liées et le formalisme RDF, et par là avec le reste des technologies de la pile du Web sémantique. La méthode analytique associée emploie des mécanismes de propositionnalisation. Ceux-ci sont inspirés des logiques de description pour ramener les liens inter-objets à des descripteurs propres de ces objets.
L’ARC permet de confronter les connaissances implicites dans un jeu de données à ce qui est déjà connu sur le domaine d’origine de celles-ci, exprimé, par exemple, sous forme d’une ontologie OWL. Notamment, en exhibant des sous-groupes d’objets aux propriétés communes, l'ARC permet de détecter l’existence de sous-classes pertinentes au sein d’une classe connue. Alternativement, à travers de sa sortie sous forme de règles d’associations, l’ARC peut valider la pertinence des attributs caractéristiques d’une classe, et de détecter des instances au typage erroné ou auxquelles il manque des propriétés caractéristiques.
Bio Mickael Wajnberg est titulaire d’une diplôme d’ingénieur de l’École de Télécom Nancy. Il a également obtenu une Maîtrise en informatique de l’Université du Québec à Chicoutimi. Actuellement il est candidat au Doctorat en informatique à l’UQAM sous la direction des professeurs Alexandre Blondin-Massé et Petko Valtchev. Il est également en co-tutelle avec la France, dirigé par les professeurs Hervé Panetto et Mario Lezoche de l’Université de Lorraine. Ses sujets de recherche se situent dans le domaine da la découverte des connaissances à partir de données multi-reationnelles et la modélisation conceptuelle. Il a développé des applications en l’analyse de données médicales, linguistiques et de productique.
Conférencier William CLANCEY
Date et lieu 11 Avril 2019, 10:30, Salle PK-5115
Résumé Using robotic systems operated from NOAA’s ship, the Okeanos Explorer, oceanographers are now able to explore the depths of Earth’s oceans, without leaving their homes. Unlike missions on Mars, undersea robots can be tele-operated, communicating without noticeable delay, and an international remote science team participates as the daily investigation unfolds. I conducted an ethnographic study during the American Samoa Expedition, focusing on how the two onboard scientists communicated with the remote scientists and the engineering team controlling the robots. What does their interaction reveal about explanation requirements for autonomous surveys of Mars or undersea on Europa? What kinds of explanations will unsupervised robots require from the scientists to conduct their journeys? How do these future needs relate to research on “explainable AI” today?
Bio William J. Clancey is a computer scientist whose research relates cognitive and social science in the study of work practices and the design of agent systems. At NASA Ames Research Center, he was Chief Scientist of Human-Centered Computing, Intelligent Systems Division (1998-2013); his team automated file management between Johnson Space Center Mission Control and the International Space Station. His studies relating people and technology include numerous field science expeditions from the Canadian High Arctic to Belize and Polynesia. He is Senior Research Scientist at the Florida Institute for Human and Machine Cognition in Pensacola.
Conférencier Julien MERCIER
Date et lieu 19 Avril 2019, 12:00, Salle PK-4610
Résumé L’étude de la cognition et de l’affectivité chez des individus opère traditionnellement sur la base de construits psychologiques mesurés par des techniques comportementales.Des avancées techniques et méthodologiques concernant l’imagerie cérébrale et d’autres mesures psychophysiologiques suscitent un intérêt marqué quant au potentiel appliqué des neurosciences cognitives et affectives afin de mieux comprendre commentles processus cognitifs et affectifs sont collectivement responsables du déroulement d’une performance donnée. En particulier, un bénéfice important de cette approche réside dans la possibilité de mesurer un phénomène cognitif ou affectif de manière relativement non-intrusive à une fréquence correspondant à la vitesse de changementde celui-ci durant une performance donnée. Une revue de littérature récente suggère que les travaux interdisciplinaires requis pour réaliser le potentiel de ce champ de recherche nécessitent actuellement des développements théoriques etméthodologiques considérables. Le but de cette présentation est de proposer de telles avancées, accompagnées d’exemples de travaux en cours à NeuroLab afin de suggérer et d’illustrer de nouvelles avenues de recherche dans un champ en émergence quiconcerne la mesure en temps réel de l’affectivité et de la cognition.
Bio Julien Mercier est professeur titulaire à l’UQAM et directeur de NeuroLab, une infrastructure de recherche financée par la Fondation Canadienne pour l’Innovation. Ses intérêts de recherche convergent dans l’étude de l’apprentissage, des interactions interpersonnelles, de la cognition et de l’affectivité en combinant des méthodes comportementales et psychophysiologiques.
Conférencier Ange Nyamen Tato
Date et lieu 21 Mars 2019, 10:30, Salle PK-5115
Résumé Il existe plusieurs algorithmes d'optimisation stochastique. Dans la plupart des cas, choisir le meilleur optimizer pour un problème donné n'est pas une tâche facile car chacune de ces solutions donne généralement de bons résultats. Ainsi, au lieu de chercher un autre meilleur optimizer absolu, accélérer ceux qui existent déjà dans le contexte actuel pourrait être grandement bénéfique. Nous présenterons une technique simple et intuitive qui, lorsque appliquée aux algorithmes d'optimisation de premier ordre (et dont la convergence est assurée), est capable d'améliorer la vitesse de convergence et atteindre un meilleur minimum pour la fonction de perte par rapport aux algorithmes d'origine. La solution proposée modifie la règle de mise à jour des paramètres d'apprentissage en fonction du changement de la direction du gradient. Nous avons mené plusieurs tests comparatifs avec les solutions de l'état de l'art (SGD, AdaGrad, Adam et AMSGrad) sur des fonctions convexes et non convexes de base (tels que x^2 et x^3) et sur des problèmes réels avec des ensembles de données publics (MNIST, IMDB, CIFAR10). Ces tests ont été menés sur différentes architectures de réseaux de neurones (Logistic Regression, MLP et CNN). Les résultats montrent que la technique proposée améliore considérablement les performances des optimizers existants et fonctionne bien dans la pratique..
Bio Ange Tato est une étudiante (en rédaction de thèse) au Doctorat en informatique à l'Université du Québec à Montréal. Elle s’intéresse à la recherche fondamentale sur les algorithmes d'apprentissage machine appliqués entre autre à la modélisation des utilisateurs dans les systèmes intelligents. Elle a obtenue un diplôme d'ingénieur d'état en systèmes d'information en 2014 à l'École Mohammédia des ingénieurs. Elle a ensuite obtenue une maîtrise en informatique à l'UQAM en 2015 dont le sujet portait sur le développement d'un système tutoriel intelligent pour l'apprentissage de la logique. Depuis 3 ans, elle travaille à 1) l'amélioration des algorithmes d'optimisation de premier ordre (avec descente du gradient); 2) l'amélioration des architectures de réseaux de neurones pour des données multimodales pour prédire ou classifier les comportements des utilisateurs (joueurs, apprenants, etc.) de systèmes intelligents adaptatifs;3) l'intégration de connaissances expertes dans les modèles de deep learning pour améliorer leur pouvoir prédictif et leur traçabilité.
Conférenciers Komi Sodoké
Date et lieu 22 Février 2019, 12:00, Salle PK-4610
Résumé L’acquisition d’expertise a été étudiée dans plusieurs domaines et ces recherches démontrent des changements de paradigme dans les différentes phases de l’évolution du stade de novice à celui de l’expert. Ce projet de recherche s’inscrit dans ce cadre général et porte spécifiquement sur l’expertise « perceptivo-décisionnelle » dans le domaine médical.L’approche adoptée est constituée de deux phases. La première phase consistera en une étude exploratoire et comparative des aptitudes perceptivo-décisionnelle des novices et d’experts en situation authentique sur une simulation haute-fidélité. Cette recherche se fera en prenant en considération la perception grâce à l’analyse des données de la perception visuelle, la cognition grâce à l’analyse du raisonnement clinique (RC). Les données seront analysées d’une part dans le but de dégager les différences, des régularités caractéristiques du novice et de l’expert. La seconde phase exploitera les extrants de la première en vue d’élaborer des spécifications pour un Système Tutoriel Intelligent (STI) qui permettrait d’offrir des services tutoriels à novice afin de structurer graduellement sa perception visuelle décisionnelle comme un expert.Spécifiquement dans ce séminaire nous présenterons les points ci-dessous:
  • Le protocole expérimental
  • L’analyse comparative des fixations sur les signes vitaux et la prise en charge clinique
  • L’analyse comportemental des fixations durant les complications cliniques
  • La visualisation de la forme de la trajectoire globale des fixations et saccade
  • La classification basée sur une architecture d’apprentissage profond qui a permis d’obtenir une précision de plus 90.2% en utilisant uniquement les données de la perception visuelle
  • L’architecture sommaire du STI.
  • Bio Komi Sodoké s’intéresse à la recherche fondamentale sur l’application des modèles en psychométrie ainsi que des techniques issues de l’Intelligence Artificielle pour améliorer l’apprentissage et l’évaluation assistés par ordinateur. Après avoir travaillé plusieurs années comme analyste-programmeur et directeur recherche et développement dans l’industrie du E-learning, il a rejoint l’enseignement collégiale en informatique et au baccalauréat international. Il participe dans le réseau collégial aux projets sur l’utilisation des technologies avancées dans l’éducation comme les lunettes de réalité virtuelle, les robots humanoïde (Nao et Peper), etc. Dans le cadre de son doctorat, Il est chercheur au Centre d’apprentissage des attitudes et habiletés cliniques (CAAHC).
    Conférenciers François Chabot
    Entreprise Age of Minds Inc.
    Date et lieu 15 Février 2019, 15:00, Salle DS-1950 du Pavillon J.-A. DeSève
    Résumé Les processus d'apprentissage machine utilisés en industrie tombent généralement dans le cadre de l'apprentissage hors-ligne basé sur de grandes bases de données ou sur des approches par renforcement utilisant des environnements simulés. L'intégration d'humains au sein de la boucle d'apprentissage au-delà de l’approvisionnement participatif présente des défis particuliers. Nous présenterons une vue d'ensemble de ces défis, ainsi que l'approche que nous prenons pour pouvoir les mitiger systématiquement.
    Bio François Chabot est un vétéran de l'industrie du jeu vidéo (Capcom) et du traitement de données à large échelle (Google). Il est le CTO de Age of Minds, une jeune entreprise fondée dans le but d'explorer les relations humain-machine dans un monde où ces dernières deviennent de plus en plus intelligentes.
    Conférencier Dr Karim JERBI
    Date et lieu 14 Février 2019, 10:30, Salle PK5115
    Résumé Serait-il possible de mieux comprendre l’intelligence humaine grâce à l’intelligence artificielle ? C’est un des défis que les recherches menées dans mon laboratoire cherchent à relever. Pour ce faire, plusieurs approches sont possibles. Par exemple, la modélisation du traitement de l’information à travers les réseaux cérébraux via des modèles de réseaux de neurones artificielles est une piste envisageable. En parallèle, un nombre croissant d’études utilisent des algorithmes d’apprentissage automatique pour classifier des masses de données cérébrales multidimensionnelles et complexes. Ces méthodes d’analyse guidées par les données (data-driven) diffèrent des méthodes classiques en neurosciences basées sur la formulation d’hypothèses (hypothesis-driven). La fouille de données (data-mining) appliquée à la recherche sur le cerveau a des avantages importants, mais ne remplace les approches traditionnelles fondées sur des hypothèses. Lors de ce séminaire, plusieurs études à l’interface entre apprentissage machine et neurosciences seront présentées. Les données présentées se focaliseront notamment sur l’exploitation d’enregistrements en électroencéphalographie (EEG) et en magnétoencéphalographie chez des sujets sains ainsi que chez des populations cliniques.
    Bio Karim Jerbi est titulaire d’une Chaire de Recherche du Canada en Neurosciences des Systèmes et en Neuroimagerie Cognitive. Il est directeur du laboratoire de Neurosciences Cognitives et Computationnelles (CoCo Lab) au département de psychologie à l’université de Montréal.Formation : Dr Jerbi a une formation en génie biomédical (Université de Karlsruhe, Allemagne) et un doctorat en neurosciences cognitives et en neuroimagerie (Université Paris VI, France). Recherche : Les travaux menés dans son laboratoire cherchent à mieux comprendre le rôle fonctionnel des propriétés dynamique des réseaux cérébraux, leurs liens avec la cognition et leurs altérations dans le cadre des pathologies du cerveau. Pour ce faire, ses travaux combinent -entre autres- des méthodes de pointes en enregistrement de l’activité cérébrale (ex. la magnétoencéphalographie), en analyses spectrales uni et multi-variées et des outils issus de l’intelligence artificielle (IA).Dr Jerbi est membre de plusieurs centres de recherche à Montréal (ex. BRAMS, CRIUGM, CRIUSMM, NeuroQAM et le Centre de Recherches Mathématiques CRM) et a de nombreuses collaborations internationales à l’intersection entre neurosciences et IA.
    Conférencière Dr. Sasha Luccioni
    Date et lieu 8 Février 2019, 12:00, Salle PK4610
    Résumé Le marché financier génère énormément de données en temps réel, ce qui présente une panoplie d’opportunités pour l’application des techniques de l’apprentissage machine et le traitement automatique des langues. Dans cette présentation, nous allons élaborer sur les techniques et les approches utilisées chez Morgan Stanley pour analyser ces données et pour prédire des évolutions futures, incluant les systèmes de recommandation, les réseaux neuronaux, et la fouille des textes.
    Bio Sasha Luccioni est membre du Centre d’Excellence sur l’Intelligence Artificielle et Apprentissage Machine de Morgan Stanley. Elle détient un doctorat en Informatique Cognitive de l’UQAM, ainsi que des diplômes en Linguistique et en Sciences Cognitives. Elle est intéressée en recherche fondamentale et appliquée dans divers domaines incluant le Traitement Automatique des Langues et l’Apprentissage Profond.
    Conférencier Prof. Philippe Fournier-Viger
    Date et lieu 31 Janvier 2019, 10:30, Salle PK5115
    Résumé Dans plusieurs domaines, les données sont représentées sous forme de séquence d’événements. Par exemple, dans le domaine du e-learning, les actions effectuées par un apprenant dans un système de cyber-apprentissage peuvent être vues comme des séquences. Plusieurs algorithmes ont été conçus pour découvrir des motifs intéressants dans les séquences, afin de mieux comprendre les données ou de faciliter la prise de décision. Un type d’analyse classique réalisée sur des séquences est la découverte de motifs fréquents. Bien que ce type d’analyse soit utile, une limite importante est que l’hypothèse que ce qui est fréquent est intéressant ne tient pas toujours. Par exemple, lors de l’analyse de séquences de transactions faites par des consommateurs, des mesures comme le profit généré par la vente des produits peuvent être plus intéressantes que la fréquence.Cette présentation décrira nos recherches récentes sur le développement d’algorithmes pour la découverte de motifs dans les séquences. En particulier, le problème de la découverte de motifs de grande utilité sera décrit (« high utility pattern mining »), où l’utilité est une mesure d’importance pouvant représenter par exemple le profit généré par une séquence d’achats. De plus, une nouvelle extension sera décrite pour découvrir des motifs offrant un bon rapport entre utilité et coût (« cost-effective patterns »). Ce type de motifs peut être appliqué par exemple en cyber-apprentissage pour découvrir des séquences d’actions à faible coût (ex. : qui requièrent peu de temps) pour obtenir une grande utilité (ex. : un bon apprentissage). Un autre exemple d’application est la découverte de séquences de traitements médicaux à faible coût pour obtenir une grande utilité (ex. : guérison). Des algorithmes seront présentés ainsi que quelques motifs découverts dans des données réelles. Par ailleurs, le logiciel SPMF pour la découverte de motifs sera brièvement décrit.
    Bio Philippe Fournier-Viger (PhD) a obtenu un doctorat en informatique cognitive de l’UQAM en 2010. Il a ensuite été chercheur postdoctoral à Taïwan et professeur adjoint à l’Université de Moncton. EN 2015, il a reçu le titre de talent national de la National Science Foundation of China et est devenu professeur titulaire au Harbin Institute of Technology à Shenzhen, Chine. Il y est directeur du Centre de design industriel innovateur. Il a participé à plus de 200 articles dans des conférences et revues internationales. Ses intérêts de recherche sont centrés sur le développement d’algorithmes pour la découverte de motifs intéressants dans les transactions, séquences et graphes, la prédiction de séquences, et certaines applications liées au e-learning et réseaux sociaux. Il est le fondateur de la librairie de fouille de données SPMF, utilisé dans plus de 600 articles depuis 2010. Récemment, il a été éditeur du livre « High Utility Mining : Theory, Algorithms and Applications » qui sera publié par Springer. Il a co-organisé un atelier à KDD2018 sur le même sujet.
    Conférencier Mickael Wajnberg
    Date et lieu Vendredi, 25 Janvier 2019, 12:00, Salle PK4610
    Résumé L’extraction de connaissances est une discipline qui cherche à détecter des tendances, des groupes ou des motifs dans les grands jeux de données. Elle a principalement été développée autour de cas de tables de données uniques. Or, la plupart des systèmes d’informations actuels se basent sur une représentation en base donnée relationnelle multitable, alias, jeu de données multirelationnel. La fouille de données multirelationnelles vise à combler un certain manque de précision et une perte de contextualisés qui apparait lorsque les tables d’un tel jeu de données se font analyser séparément ou, alternativement, en joignant toutes les données dans une table unique. L’analyse relationnelle de concepts (ARC) est une méthode capable d’extraire des connaissances d'un jeu de données multirelationnelles et de les expliciter sous forme de : (1) motifs (patterns) et règles d’association ou (2) groupes homogènes (clusters). C’est une extension du paradigme mathématique d’analyse formelle de concept qui admet une seule table. ARC permet, notamment, de traiter plusieurs types d’objets — chacun représenté au sein de sa propre table, alias contexte — interreliés au travers de relations binaires intercontextes. Ce format est clairement compatible avec les données liées et le formalisme RDF. La méthode analytique associée emploie des mécanismes de propositionnalisation. Ceux-ci sont inspirés des logiques de description pour ramener les liens inter-objets à des descripteurs propres de ces objets. Un premier cas d’application du procédé d’ARC est en cours : il consiste à croiser les données neurologiques d’Imagerie par Résonance Magnétique fonctionnelle, spatialement précises, avec les données d’électroencéphalogrammes, temporellement précises, pour fournir aux neurologues partenaires un outil d’aide à l’interprétation. En outre, l’ARC permettrait aussi de confronter les connaissances contenues dans un jeu de données à ce qui est déjà connu sur le domaine d’origine de celles-ci, exprimé, par exemple, sous forme d’une ontologie. Notamment, en exhibant des sous-groupes d’objets aux propriétés communes, l'ARC pourrait détecter l’existence de sous-classes potentiellement pertinentes au sein d’une classe connue. Alternativement, elle peut valider la pertinence de certaines restrictions de propriétés au sein d’une classe. De plus, l’ARC suggérerait des types plus restrictifs pour les objets peuplant une ontologie en utilisant les associations entre descripteurs.
    Bio Mickael Wajnberg est un étudiant au doctorat en cotutelle entre l’Université du Québec à Montréal et l’Université de Lorraine (France). Il travaille actuellement sur l’analyse relationnelle de concept et l’extraction de connaissances. Après une classe préparatoire en math-physique, il a été diplômé d'une école d’ingénieur en France, Telecom Nancy et d’une maitrise à l’Université du Québec à Chicoutimi où il s’est spécialisé en Métaheuristiques et plus généralement en algorithmique et informatique théorique. Pour plus d'information sur ce séminaire et sur nos prochains événements, visitez: http://gdac.uqam.ca/CRIA/evenements.html
    Conférencier Claude Coulombe
    Date et lieu 24 Janvier 2019, 10:30, Salle PK5115
    Résumé En traitement de la langue naturelle, il n’est pas rare de se retrouver avec des quantités nettement insuffisantes de données pour entraîner un modèle profond. Ce « mur des données massives » représente un défi pour les communautés linguistiques minoritaires sur la Toile, les organisations, les laboratoires et les entreprises qui rivalisent avec les géants du GAFAM. Cette présentation abordera la faisabilité de différentes techniques simples, pratiques et robustes d’amplification textuelle basées sur le traitement de la langue naturelle et l’apprentissage automatique afin de pallier l’insuffisance de données textuelles pour l’entraînement de gros modèles statistiques, particulièrement pour l’apprentissage profond.
    Bio Claude Coulombe a évolué du scientifique en herbe qui participa à 15 expo-sciences, le B.Sc. en physique et la maîtrise en IA à l'UdeM (Homo scientificus), vers l'entrepreneur en haute technologie passionné du Québec, co-fondateur de Machina Sapiens où il a participé à la création d'une nouvelle génération d'outils de correction grammaticale (Homo québecensis). Suite à l'éclatement de la bulle technologique, Claude bifurqua dans un nouveau chemin évolutif pour fonder une famille, lancer Lingua Technologies qui combine la traduction automatique et les technologies Internet et entreprendre un doctorat en apprentissage automatique au MILA sous la direction de Yoshua Bengio (Homo familIA). En 2008, les ressources se raréfiant, Claude muta en Homme de Java, en se spécialisant dans la réalisation d'applications web riches avec Ajax, HTML5, Javascript, GWT, les architectures REST, l'infonuagique et les applications mobiles. En 2013, Claude débute un doctorat en informatique cognitive, participe au développement de deux cours en ligne ouverts et massifs (CLOM / MOOC) à la TÉLUQ, apprend Python et l’apprentissage profond pour devenir l’Homme de Python (ne pas confondre avec l’Homme de Piltdown). Bref, Claude est un vieux fossile qui a su évoluer, se reproduire, créer des outils et s’adapter au rythme de ses passions.
    Conférencier Jean Massardi
    Date et lieu 18 Janvier 2019, 12:00, Salle PK4610
    Résumé La reconnaissance de plan est la tâche inverse à la planification. Il s’agit, à partir d’une séquence d’observations, de déterminer quel est l’objectif derrière les actions d’un agent. Il existe de nombreux algorithmes pour résoudre ce problème, cependant la plupart se basent sur l'hypothèse que les observations sont parfaites, c'est-à-dire sans bruit et sans observations manquantes. Pour de nombreuses applications, cette hypothèse n'est pas satisfaite. Dans le cas de la reconnaissance de plan utilisant des plans hiérarchiques, l'ajout des observations imparfaites entraînent une explosion combinatoire. Nous proposons de résoudre ce problème en utilisant un filtre à particule.
    Bio Jean Massardi est étudiant au doctorat en Informatique à l'UQAM, précédemment diplômé de l'INSA de Toulouse en ingénierie logiciel.
    Conférencier Pr. Serge Robert
    Date et lieu 14 Janvier 2019, 15:00, Salle R-M130 (Pavillon des Sciences de la gestion)
    Contexte: Cette conférence est donnée à l’occasion de la première édition de la Journée internationale de la logique (World Logic Day), créée par l’association internationale Universal Logic. Elle est parainée par l’ISC avec l'appui du CRIA. Le professeur Serge Robert est professeur au département de philosophie, membre de l’Institut des sciences cognitives et du CRIA
    Conférencière Menhour Ihssene
    Date et lieu 4 décembre 2018, 12:00, PK4610
    Résumé La reconnaissance des activités joue un rôle important dans les applications de suivi médical et d’assistance aux personnes âgées que ce soit dans les habitats intelligents pour la santé, les hôpitaux ou dans les résidences pour personnes âgées. La reconnaissance des activités permet par exemple de détecter les événements pouvant être dangereux pour la personne âgée et prévenir toute situation à risque.Bien qu’il existe divers designs de solutions possibles (e.g., reconnaissance par images de caméras, maisons intelligentes équipées de capteurs, etc.), nous discuterons principalement de l’exploitation des capteurs de smartphones pour collecter les données et du développement d’une méthode de reconnaissance d’activités à partir de ces derniers, pour établir le profil de l’utilisateur.

    Notre équipe

    Une équipe composée de plusieurs chercheurs.

    Projets

    Liste actuelle des projets de recherche en cours.

    Publications

    Liste des publications faite par nos chercheurs