AULA FELLOWSHIP FOR AI RESEARCH AND POLICY

Dans l'Antiquité, dans les pays latins, l'Aula était le lieu et l'événement de rassemblement d'une communauté pour discuter de sujets d'importance pour tous.

La concorde Aula pour la science, la technologie et la politique de l'IA s'est réunie dans le but commun de veiller à la prolifération responsable de l'IA. Nous venons de nombreuses disciplines et du monde entier. Chaque Camarade est totalement indépendant et aucun Camarade ne parle au nom des autres.

Les décideurs dans les domaines de la science, de la technologie et des politiques en matière d’IA tentent de répondre à un ensemble de problèmes difficiles. Ce sont des problèmes qui touchent l’ensemble de la société et les réponses doivent donc venir de l’ensemble de la société. Par conséquent, le principal projet de la concorde, qui implique tous les Camarades Aula, est de faire entendre la voix de tout le monde sur les questions d'IA.

Nos outils à cet effet sont des ateliers et autres événements pour favoriser les conversations, les avis d'experts et les consultations, la recherche scientifique et l'engagement avec les décideurs.

Comme nous le comprenons, nous sommes plus forts lorsque nous travaillons ensemble. Si vous travaillez également sur cette mission commune de la prolifération responsable de l’IA, alors nous sommes déjà camarades.

Pour tous les nouvelles, la recherche et les événements de La concorde Aula, suivez-nous sur Linked In.  

Nos services

Consultation individuelle : toujours gratuite. Notre mission est de comprendre les idées et les préoccupations de chacun.
Envoyez-nous un e-mail ou contactez-nous sur LinkedIn.

Mandats de recherche

  • La recherche appliquée

  • Ateliers

  • Des programmes de formation

Consultations de groups

  • Analyses sur mesure

  • Groupes de réflexion

  • Hackathons

Consultations publiques

Accompagner d'autres ONG dans la démarche : Gratuit.

Accompagnement des équipes de gouvernance

Sensibilisation du public

  • Ateliers pour les ONG

  • Ateliers pour les écoles

  • Articles d'opinion

  • Présentations / panneaux

  • Groupes de discussion

Notre philosophie financière

Les coûts sont déterminés projet par projet. Nous sommes une organisation à but non lucratif. Pour nous, cela signifie que nous ne faisons pas de ventes et que nous ne cherchons pas à tirer un profit financier de ce travail, ni en tant qu’individus ni en tant qu’organisation. En ce qui concerne les coûts de nos services, notre objectif est de savoir comment réaliser un projet de la manière la plus efficace et la plus économique possible, par respect aux ressources de votre organisation. L’équipe a beaucoup de pratique pour réaliser à peu près n’importe quel projet. Il s’agit de satisfaire notre mission d’œuvrer pour une IA responsable. C'est notre raison d'être.

Rencontrez les camarades

Sreyoshi Bhaduri, Ph.D.

Dr. Sreyoshi Bhaduri est une leader engagée à l'intersection du peuple, des produits, de l'avenir du travail et des technologies émergentes. Sreyoshi utilise l'IA pour des méthodes de recherche mixtes, en s'assurant que les organisations mettent intentionnellement l'expérience humaine au centre.

Sreyoshi travaille actuellement chez Amazon. Auparavant, elle a dirigé Global People Research chez McGraw Hill – la compagnie des sciences de l'apprentissage. Au travail et en dehors, Sreyoshi est une conférencière internationale passionnée par la démystification de l'IA et l'amélioration intentionnelle de l'appartenance dans les domaines STEM. Elle a été élue sénatrice à la Société des Femmes Ingénieurs, et fait partie du Conseil Consultatif du Département de l'Éducation en Ingénierie du Collège d'Ingénierie à Virginia Tech, USA; ainsi que du Conseil Consultatif de l'Industrie du Programme d'Automatisation et de Robotique du Collège Communautaire de Danville. Sreyoshi a été honorée en tant que Leader Émergent en Technologie et Ingénierie  et défenseure engagée par la Société des Femmes Ingénieurs. Sreyoshi a également été intronisée à la Société d'Honneur Yale Bouchet.

En bref, Sreyoshi est une créatrice de listes et d'itinéraires, qui aime la technologie responsable et qui aime se plonger dans l'écriture. Pour en savoir plus sur son impact, visitez www.ThatStatsGirl.com.

Leslie Salgado

Leslie Salgado, qui poursuit actuellement son doctorat en Communication et Médias à l'Université de Calgary, est une professionnelle chevronnée en communication scientifique. Dans ses études doctorales, elle explore les interactions de l'IA Responsable, les récits d'IA, et leur impact sur la formulation des politiques et la confiance du public.

Le parcours académique de Leslie comprend l'obtention du Certificat d'Éthique de l'IA de la London School of Economics, sa participation à la première cohorte du cours sur l'IA Responsable et les Droits Humaines de l'Université de Montréal-MILA, ainsi que sa participation au Programme Kickstart de l'Institut d'Apprentissage Automatique de l'Alberta. Son expérience pratique inclut un rôle de consultante en recherche sur un projet examinant l'égalité des genres et l'inclusion dans les initiatives d'IA à travers le monde à MILA – Institut Québécois d'Intelligence Artificielle.

Son approche de l'IA responsable combine des perspectives de la communication scientifique et des études en science et technologie. Elle est bénévole active auprès de Femmes en IA au Canada et contribue à la section de Calgary.

Victoria Kuketz

Victoria Kuketz occupe le poste de Directrice de l'Engagement d'Entreprise chez Catalyst et est reconnue pour son travail comme boursière de Civic Action DiverseCity et boursière de PPF Démocracy.

Basée dans la région du Grand Toronto, elle se concentre sur les politiques publiques, la démocratie et l'engagement, en promouvant l'innovation et l'inclusivité. Avec une formation académique de l'Université de Toronto et de l'Institut Québécois d'Intelligence Artificielle MILA, Victoria applique son éducation à ses rôles professionnels, contribuant à des discussions et initiatives visant à façonner une société plus inclusive et démocratique.

Son approche pratique et son engagement dans son domaine l'ont établie comme une figure respectée dans sa communauté professionnelle.

Jess Malz

Jess Malz est expert(e) en facilitation, conception d'expériences d'apprentissage et coaching. Passionné(e) par la création d'expériences de développement hautement engageantes, fondées sur des théories et méthodologies de pointe.

Jess est reconnu(e) pour un style de facilitation engageant et ludique, avec un accent particulier sur la collaboration et la sécurité psychologique. Jess est la personne à l’origine de Inbo, une agence mondiale de conception d'apprentissage. Jess a plus de 15 ans d'expérience dans la conception et la mise en œuvre de stratégies d'apprentissage en entreprise. Jess a facilité et conçu plus de 1 000 ateliers et des centaines de séances de coaching développemental.

Les qualifications académiques incluent une maîtrise en Intervention des systèmes humains et des certifications en coaching personnel et professionnel de l'Université Concordia, Theory U, Immunity to Change, Conception et technologie pédagogique, Structures libératrices, Kaospilots, et Conception d'expérience d'apprentissage et facilitation de processus numériques. Jess a travaillé sur plus de 200 projets avec des organisations renommées, y compris l'Université McGill, l'ONU, le Gouvernement Canadien, GSOFT, le Cirque du Soleil, Zu, C2 Montréal, MILA, le Réseau OPEN, Global Vision, le Hub d'Innovation D3 et Goalcast.

Jess vise à inspirer un apprentissage profond, la connexion, la créativité et l'innovation auprès de ses clients.

Tammy Mackenzie

Tammy Mackenzie, PDG dans le secteur technologique, activiste et mère, possède un riche parcours éducatif en tant qu'ancienne élève d'institutions prestigieuses telles que MIND, le Collège Vanier, l'Université McGill, l'Université de Laval (MBA PME, Technologie et Durabilité), et l'École d'été de MILA en IA responsable.

Ayant débuté sa carrière dans un cabinet de CPA, Tammy s'est distinguée comme directrice de comptes pour les PME, contrôleuse et Directrice de la finance, affinant son expertise dans l'utilisation d'outils techniques, écologiques et sociaux de pointe pour l'amélioration sociétale et environnementale. Ces rôles ont jeté les bases de son travail en stratégie et systèmes, en particulier dans les domaines des petites entreprises et de l'éthique appliquée.

En plus de son rôle chez Polyaula à titre de Directrice générale et responsable de technologie dans le laboratoire de robotique, Tammy contribue à la politique publique à travers ses rôles de consultante et facilitatrice, offrant des stratégies ancrées dans son expérience multidisciplinaire. Elle est actuellement Chercheuse visitante à l'Université de la Science et de la Technologie de la Norvège.

En termes de promotion de l'inclusion et d’éthique stratégique dans l'industrie de l'IA, elle est la fondatrice de La concorde Aula, une initiative notable du groupe de réflexion et service de recherche, reflétant son engagement envers un développement de l'IA significatif et responsable.

Dans ses temps libres, Tammy poursuit un doctorat qui se concentrant sur les leviers de pouvoir dans la société. Cet engagement représente son dévouement continu à comprendre et à façonner la dynamique complexe de la technologie, de l’éthique et du progrès sociétal.

Kai-Hsin Hung

Kai est candidat au doctorat et chercheur en travail et technologie à HEC Montréal, connu pour ses contributions marquantes à la compréhension du lien entre le travail, les chaînes de valeur des données et la société. Il est chercheur invité au Work and Equalities Institute de l'Université de Manchester, où il travaille sur l'IA responsable.

Fort d'une riche expérience qui comprend des rôles au Centre de recherches pour le développement international, au Centre international de formation de l'OIT et à Affaires mondiales Canada, son travail s'étend dans des contextes mondiaux. Kai est titulaire de diplômes supérieurs en affaires publiques et internationales et en développement international de l'Université d'Ottawa, où ses recherches ont reçu d'importantes distinctions.

Il contribue activement au discours sur la science et la technologie et le développement durable. Son implication dans des projets et des initiatives, tels que l'AI Impact Alliance et le Leading With AI Lab et les MOOC sur les cours de financement innovants, souligne son engagement à tirer parti de la technologie pour l'amélioration de la société.

Emmanuel Taiwo

Emmanuel Taiwo. Emmanuel est un environnementaliste agréé ainsi qu'un conseiller indépendant en politique climatique, énergétique et environnementale. Il a servi des organisations de premier plan à titre consultatif, notamment Affaires mondiales Canada sur les transitions climatiques équitables et sensibles au genre, et le gouvernement britannique sur les questions climatiques et environnementales au Nigeria, où il a également dirigé et géré un programme de 66 millions de livres sterling financé par le Royaume-Uni qui a fourni un accès à une énergie propre à des millions de personnes mal desservies. Auparavant, il a soutenu des initiatives de partenariat au siège du Programme des Nations Unies pour l'environnement à Nairobi, au Kenya, et a également réalisé des projets de responsabilité environnementale avec British International Investment à Londres, au Royaume-Uni.

Actuellement doctorant à l’Université de Toronto et chercheur associé au Earth System Governance Project Network, les recherches d’Emmanuel couvrent la politique environnementale, les transitions justes, la gouvernance climatique, la justice énergétique et le développement résilient, en particulier en Afrique et au Canada. Il est titulaire d'une maîtrise en gestion environnementale avec distinction de l'Université de Greenwich en tant que chercheur du Commonwealth, et d'une autre maîtrise en politiques publiques de l'Université d'Oxford en tant que chercheur de l'Initiative africaine pour la gouvernance. Le rôle d’Emmanuel en tant qu’Aula Fellow consiste à explorer les liens critiques entre l’intelligence artificielle et les transitions climatiques, énergétiques et environnementales équitables/justes.


Zachary Rosenthal

Zachary Rosenthal est diplômé en histoire et en anthropologie de l'Université Concordia. Son diplôme en anthropologie était axé sur l'accès à la nourriture, la durabilité et l'éthique biotechnologique.

Zach est un analyste de données et un scientifique des données formé avec une expérience en modélisation statistique et en apprentissage automatique.

Professionnellement, il travaille en tant que chef de marque pour Polyaula et La concorde Aula. Il travaille actuellement comme coordinateur de recherche et facilitateur de relations à la concorde Aula pour la science et la politique de l’IA


Jake Okechukwu Effoduh

Jake Okechukwu Effoduh est professeur adjoint à la Lincoln Alexander School of Law de l’Université Métropolitaine de Toronto. Il a acquis une expertise significative en matière de réglementation de l’IA et de défense internationale des droits humaines à différents niveaux des systèmes juridiques.

En tant que conseiller en chef du Consortium Afrique-Canada sur l'intelligence artificielle et l'innovation en matière de données (ACADIC), il a fourni une expertise en matière de droits de la personne et de conformité sur l'utilisation de l'IA et du “Big Data” au Canada et dans 20 pays africains. Il siège au Global Future Council on Frontier Risks du Forum économique mondial.

Peer Herholz

Peer Herholz, professeur assistant de recherche à l'Université Northwestern et affilié de recherche à l'Université McGill et à l'Institut McGovern pour la recherche sur le cerveau, est un expert en IA, en neurosciences et en science ouverte et responsable. Avec une solide expérience en gestion de données et de projets, développement de logiciels et analyse statistique des données, le parcours de recherche de Peer a commencé par l'étude de la neurobiologie du traitement auditif. Ses intérêts actuels incluent la généralisation chez les agents biologiques et artificiels et les transformations sous-jacentes au comportement intelligent adaptatif. Peer est activement impliqué dans l'organisation et la conduite d'ateliers, de hackathons et de conférences, et est dédié à la promotion d'une science ouverte, reproductible et FAIR dans divers instituts académiques et de recherche.

Rubaina Khan

Rubaina Khan, candidate au doctorat en sciences de l'éducation à l'Institut d'études pédagogiques de l'Université de Toronto, est une éducatrice en ingénierie minutieuse avec plus de dix ans d'expérience dans l'enseignement postsecondaire. Spécialisée dans l'éducation en ingénierie, elle s'intéresse particulièrement à l'empathie en ingénierie, au design durable et à l'évaluation de programmes. Rubaina a développé des programmes d'enseignement, dirigé des ateliers sur l'engagement communautaire et culturel, et coordonné des initiatives de formation pour les assistants d'enseignement. Son parcours académique et professionnel inclut des contributions significatives à l'éducation interculturelle et à la conception pédagogique innovante.

Awa Samaké

Awa SAMAKE, candidate au doctorat en informatique (IA), est une statisticienne et data scientist dévouée avec une expertise approfondie en IA, génomique, statistiques et science des données. Elle détient plusieurs diplômes avancés, dont un MSc en Machine Intelligence de AIMS-Rwanda (en partenariat avec Google et Meta), un MSc en Probabilités et Modèles Aléatoires de Sorbonne Université, et un MSc en Statistiques de l'USTHB-Alger. Les intérêts de recherche d'Awa englobent la génomique, l'apprentissage automatique, l'apprentissage profond, l'apprentissage par renforcement, la vision par ordinateur, l'équité et l'éthique. Elle possède une expérience significative de travail avec des équipes internationales, contribuant à des projets dans les domaines de la santé, de l'agriculture et de l'éducation. Awa est également une membre active de la communauté, impliquée dans diverses initiatives soutenant les étudiants internationaux et promouvant l'IA responsable.

Travaux récents des camarades

Dr. Sreyoshi Bhaduri

« Decoding the Diversity: A Review of the Indic AI Research Landscape » article écrit par Sreyoshi Bhaduri, Sankalp KJVinija Jain, Tamoghna RoyAman Chadha

Cet article de revue offre un aperçu complet des orientations de recherche des grands modèles de langage (LLM) dans les langues indiennes. Les langues indiennes désignent celles parlées dans le sous-continent indien, incluant l'Inde, le Pakistan, le Bangladesh, le Sri Lanka, le Népal et le Bhoutan, entre autres. Ces langues possèdent un riche patrimoine culturel et linguistique et sont parlées par plus de 1,5 milliard de personnes à travers le monde. Avec un potentiel de marché énorme et une demande croissante pour les applications de traitement du langage naturel (NLP) dans diverses langues, les applications génératives pour les langues indiennes présentent des défis et des opportunités uniques pour la recherche. Notre article explore en profondeur les avancements récents dans la modélisation générative des langues indiennes, contribuant avec une taxonomie des orientations de recherche, en répertoriant 84 publications récentes. Les orientations de recherche examinées dans cet article incluent le développement des LLM, l'affinage des LLM existants, le développement de corpus, la création d'évaluations, ainsi que des publications sur des techniques, outils et applications spécifiques.

Pour plus de détails, lisez l'article complet ici.

Tammy Mackenzie

Robots tueurs et armes autonomes : faut-il les interdire ? Interview de Tammy Mackenzie pour le segment Tech 24 pour France 24

Le segment explore les implications éthiques du déploiement de l'IA dans les opérations militaires et discute de la nécessité cruciale de cadres réglementaires garantissant que ces technologies sont utilisées de manière responsable. Tammy discute de la nécessité qu'une multitude de voix s'unissent pour relever ce défi et non seulement celles des militaires. Alors que la conversation autour de l'IA continue d'évoluer, il est impératif que nous nous engagions sur ces sujets. Trouver le juste équilibre entre le pragmatisme militaire et l'éthique de l'IA est l'un des défis les plus importants auxquels nous faisons face dans la société moderne.

Pour plus de détails, lisez l'article complet ici.

Benjamin Faveri

Article écrit par Benjamin Faveri « AI Audit Objects, Credentialing, and the Race-to-the-Bottom: Three AI Auditing Challenges and A Path Forward » pour le revue Tech Policy.

L'article décrit les réglementations émergentes sur les risques liés à l'IA, mettant en avant les audits d'IA selon l'AI Act de l'UE, la loi canadienne proposée sur l'IA et les données, et l'Ordre exécutif américain sur l'IA. Les défis incluent la définition des objets d'audit, la pénurie d'auditeurs IA formés et le risque de baisse de la qualité des audits. Il propose des efforts coordonnés entre les décideurs politiques, l'industrie et la société civile pour établir des normes claires et des formations pour les auditeurs IA.

Pour plus de détails, lisez l'article complet ici.

Dr. Sreyoshi Bhaduri

Article écrit par Dr. Sreyoshi Bhaduri et Prof. Indrani Bhaduri « Leveraging AI in Education » pour le revue India Today.

L'article explore la relation entre l'IA et l'intelligence humaine, en commençant par le rôle du test de Turing dans l'évaluation de l'intelligence des machines. Il souligne les différences entre l'apprentissage automatique et l'apprentissage humain, en mettant en avant le potentiel de l'IA à augmenter les capacités humaines grâce à des algorithmes avancés.

Dans l'éducation, l'IA peut automatiser des tâches, personnaliser l'apprentissage et fournir des systèmes de tutorat intelligent. Cependant, la dépendance excessive à l'IA peut nuire aux interactions humaines essentielles. L'intégration responsable de l'IA dans l'éducation nécessite un équilibre entre les avantages technologiques, l'éthique et les interactions sociales. Bien que l'IA perturbera de nombreux emplois et pratiques, elle offre des opportunités significatives pour ceux prêts à s'adapter.

Lire l'article complet ici

Jake Okechukwu Effoduh

Jake Okechukwu Effoduh fera une présentation à la conférence « AI Governance for the Global Majority : Understanding Opportunities and Challenges ». Retrouvez-le en direct ou en ligne  - le 9 mai 2024

Le projet AI in the Global Majority de Carnegie rassemble des universitaires, des praticiens et des entrepreneurs pour élucider les lacunes et les opportunités du récit actuel de la gouvernance mondiale de l’IA à travers une série de publications. Aubra Anthony, chercheuse principale au programme de technologie et d'affaires internationales de Carnegie, modérera une conversation avec le Dr Jake Okechukwu Effoduh, de l'Université métropolitaine de Toronto ; Dr Rachel Gong et Dr Jun-E Tan, Institut de recherche Khazanah ; Dr Ranjit Singh, Institut de recherche sur les données et la société ; Dr Chijioke Okorie et Dr Vukosi Marivate, Université de Pretoria ; et Carolina Botero, Fondation Karisma.

Pour plus de détrails de la conférence, cliquez ici.

Tammy Mackenzie

Entrevue de Tammy Mackenzie avec Fanny Tan pour l'émission Moteur de recherche de Radio-Canada  - le 26 avril, 2024

À l’émission le Moteur de recherche de Radio-Canada la semaine dernière, Tammy Mackenzie, notre directrice, à passer en entrevue avec la chroniqueuse Fanny Tan pour participer à la discussion sur les aspects techniques et sociales de la question du domaine de l’IA. 

Consultez ce lien pour lire l'émission!

Kai-Hsin Hung, Leslie Salgado, Tammy Mackenzie

la consultation sur le projet de rapport du Bureau de l’envoyé du Secrétaire général pour les technologies, “High-Level Advisory Body on Artificial Intelligence” intitulé « Interim Report: Governing AI for Humanity » - le 31 mars, 2024

Les faits saillants à retenir de l’équipe sont :

Alignement stratégique avec les objectifs mondiaux : notre recommandation est que le développement de l'IA soit stratégiquement aligné sur les objectifs de développement durable, en garantissant que les technologies sont conçues et mises en œuvre pour relever des défis mondiaux importants. 

Des pratiques de gouvernance et de réglementation robustes : nous appelons à la mise en place de structures de gouvernance et de pratiques réglementaires pour l'IA qui soient transparentes, responsables et applicables, y compris des mécanismes localisés et mondialisés de reporting et de recours.

Aborder la dynamique du pouvoir dans la gouvernance de l'IA : Nous plaidons pour des structures de gouvernance qui non seulement appliquent les normes éthiques et la transparence, mais qui abordent et atténuent également activement l'influence disproportionnée d'entités puissantes dans le développement et le déploiement de l'IA.

Notez : Ce rapport de consultation a été produit en anglais par respect de la langue de travail du conseil du Bureau de l’Envoyé du Secrétaire général pour les technologies. Si vous désirez recevoir une traduction vers le français, faites-nous signe.

Consultez ce lien pour lire le raport!

Leslie Salgado

Conférencière à YYC Data Con: Adopter une IA responsable : l’impératif de cultiver une culture des données éthique - Samedi, le 9 mars 2024

La nécessité d’adopter une approche d’IA responsable est devenue primordiale au milieu du développement rapide des technologies basées sur l’IA. Au cœur de ce besoin se trouve l’impératif de cultiver une solide culture d’éthique de l’IA et une approche non déterministe de l’adoption technologique. Dans ce contexte, une gestion éthique des données est vitale pour une IA responsable et digne de confiance.

Consultez ce lien pour plus de détails sur la conférence et comment vous inscrire !

Dr. Sreyoshi Bhaduri

Panéliste - WELocal Baltimore - Society for Women Engineers

Nous avons lancé le #WomensHistoryMonth avec une conversation puissante sur la vie sans limites avec le président (et superstar !) de SWE, Alexis McKittrick, à #WELocalBaltimore, ce week-end.

Je suis tellement stimulé par les histoires inspirantes de résilience et de détermination partagées par mes collègues panélistes, Margarita Mann, Nancy Chabot et Malika Grayson, Ph.D !

Même le ciel n'est pas la limite pour nous, à la Society of Women Engineers.

Tammy Mackenzie, Victoria Kuketz, Jess Malz

Atelier "Vers un futur inclusif pour l'IA" présenter par La  concorde Aula adjacent à la conférence du Mila 2024: Protéger les droits humains à l'ère de l'IA

Nous sommes très heureux et fiers d'offrir cet atelier et travail de groupe sur l'IA responsable, gratuitement et ouverts à tous, et de contribuer à la conversation autour de la conférence internationale: Protéger les droits humains à l'ère de l'IA, organisée par l'Institut de Montréal. pour les algorithmes d'apprentissage (MILA). Enregistez-vous pour l'atelier ici

Tammy Mackenzie

Chercheur invité à l’Université norvégienne des sciences et technologies (NTNU) 

Nous sommes heureux, honorés et fiers de vous annoncer que Tammy commence un nouveau poste de chercheuse invitée à l'Université norvégienne des sciences et technologies (NTNU) - Centre pour la technologie et la société. Tammy étudiera le changement institutionnel et la dynamique du pouvoir pour comprendre comment les gens peuvent s'engager avec les leviers du pouvoir, en particulier pour permettre la résilience et la réactivité régionales.

Tammy Mackenzie, Victoria Kuketz, Jess Malz

Protéger les droits humains à l’ère de l’IA - Conférence du Mila 2024

Tammy, Victoria, et Jess seront présents lors de cette conférence du MILA - Montreal Institute for Learning Algorythyms sur l’IA et les droits de la personne le 14-16 fev, 2024. Au plaisir d’en discuter et d’apprendre ensemble! Pour apprendre plus sur la conférence et Mila cliquez ici.

Tammy Mackenzie

Travailleurs du savoir, l’IA changera votre quotidien

Les professionnels et les travailleurs du savoir, en particulier ceux qui n’ont pas encore utilisé l’intelligence artificielle (IA), peuvent être enclins à avoir de fausses idées qui masquent l’ampleur des perturbations à venir. Cliquez ici pour lire l'article en entier chez La Presse. 

Tammy Mackenzie

Des voix silencieuses dans le discours sur l’intelligence artificielle

L’IA est trop complexe pour être gérée par un petit nombre de groupes ou d’experts. Il faut s’assurer d’entendre toutes les personnes concernées lors de conférences à ce sujet. Lisez ici pour en savoir plus.

Tammy Mackenzie

Memoire de consultation : L'IA et le Droit d'Auteur au Canada

Ce livre blanc constitue une réponse à l'appel public d'Industrie Canada pour une consultation d'experts sur l'IA et le Droit d'Auteur. Cliquez ici pour accéder à la conversation complète sur la paternité, la violation du droit d'auteur, et plus encore.

POLICY OPTIONS MAGAZINE Towards regulating AI : A natural, labour and capital resources perspective

Camarade Tammy Mackenzie avec co-auteur Hung Kai-Hsin

Pour une politique de l’IA axée sur les ressources naturelles, les travailleurs et le capital

Les décideurs publics devraient poser plusieurs questions à propos de toute application proposée de l’IA, et faire preuve de prudence. Lisez l’article complet dans le magazine Options Politiques.

Leslie Salgado

Rapport du PMIA : Vers une réelle diversité et l’égalité des sexes dans l’avancement de l’intelligence artificielle

Il s’agit d’un rapport d’avancement qui décrit la stratégie, l’approche et les progrès du projet jusqu’à présent dans ses efforts pour fournir aux gouvernements et aux autres parties prenantes de l’écosystème de l’intelligence artificielle (IA) des recommandations, des outils et des pratiques prometteuses pour intégrer la diversité et l’égalité des sexes dans le cycle de vie de l’IA et l’élaboration des politiques connexes. Lisez sur LinkedIn ou lisez le rapport complet

Jess Malz

Ravi de prendre la parole à QueerTech 2023

Présenter notre approche rayonnante pour le développement du #leadership en technologie. Apprenez-en plus ici.

POLICY OPTIONS MAGAZINE Towards regulating AI : A natural, labour and capital resources perspective

Victoria Kuketz

Atelier sur les compétences interculturelles : "Building Bridges"

Comment naviguez-vous et appliquez-vous les meilleures pratiques pour gérer efficacement les équipes multiculturelles? Nous présentons ces questions et plus encore dans le cadre de notre table ronde « Building Bridges » le 14 novembre 2023.  Apprenez-en plus ici.