Translate

Affichage des articles dont le libellé est HAX. Afficher tous les articles
Affichage des articles dont le libellé est HAX. Afficher tous les articles

dimanche 16 avril 2023

Les outils de la Gouvernance de l'IA.

Les outils de la Gouvernance de l'IA. 


LA GOUVERNANCE DE L’IA, DEFINITION.

« La gouvernance est l’ensemble des stratégies, des rôles, des responsabilités et des processus qui sert à guider, orienter et contrôler la façon dont les divisions et les équipes informatiques d’un Groupe et/ou d’une Entité collaborent pour atteindre leurs objectifs et résultats. Une planification de gouvernance complète permet d’optimiser le fonctionnement de ce Groupe et/ou de l’Entité par rapport à l’organisation ».

LES OUTILS "HAX", ISO, MEHARI, GRACE, LA TROUSSE A OUTILS, ET PLUS 

Microsoft souhaite vous aider à développer et à déployer des solutions qui utilisent la fonctionnalité de synthèse de manière responsable. Microsoft adopte une approche fondée sur des principes pour préserver l'agence et la dignité personnelles, en tenant compte des aspects suivants d'un système d'IA : équité, fiabilité et sécurité, confidentialité et sécurité, inclusivité, transparence et responsabilité humaine. Ces considérations reflètent notre engagement à développer une IA responsable.

Liste des outils et La trousse d'outils HAX.

Exemples RACI - GOUVERNANCE...

Adoptez une approche basée sur des principes pour promouvoir l'utilisation responsable de l'IA. Pour utiliser de manière responsable les produits ou fonctionnalités alimentés par l'IA, il est conseillé de comprendre les capacités et les limites du système, de tester avec des données réelles et diverses, d'évaluer le système et de le communiquer aux parties prenantes. Il est important de considérer l'équité, la confidentialité et la sécurité, l'inclusivité, la transparence et la responsabilité humaine. Il est également recommandé de respecter le droit à la vie privée des individus, de solliciter des commentaires auprès des parties prenantes et de limiter la longueur, la structure, le débit et la source des entrées et des sorties.

Les 4 axes de travail (Gouvernance et Taxonomie).

Utiliseation de la boîte à outils Microsoft HAX. 

La boîte à outils recommande les meilleures pratiques sur la façon dont les systèmes d'IA doivent se comporter lors de l'interaction initiale, lors d'une interaction régulière, lorsqu'ils se trompent inévitablement et au fil du temps. Suivez les directives de Microsoft pour un développement responsable des systèmes d'IA conversationnelle. Utilisez les instructions lorsque vous développez et déployez des modèles de langage qui alimentent des chatbots ou d'autres systèmes d'IA conversationnels.

Conseils pour l'intégration et l'utilisation responsable avec résumé - Azure Cognitive Services | Microsoft Apprendre

The Future Computed: AI and Manufacturing – Just another Microsoft News Center Network site

Créez une intelligence artificielle centrée sur l'humain avec le webinar Human-AI eXperience (HAX) Toolkit. 

L'industrie de la technologie est appelée à développer et déployer des technologies d'IA de manière plus responsable. Pourtant, de nombreuses organisations qui créent des technologies d'IA déclarent ne pas être préparées à faire face aux risques et aux échecs de l'IA. Pour relever ces défis, Microsoft s'efforce de prendre une approche centrée sur l'humain pour l'IA, concevant et construisant des technologies qui bénéficient aux personnes et à la société tout en atténuant les risques. 

Cela implique de comprendre les besoins humains et d'utiliser cette compréhension pour orienter les décisions de développement de bout en bout. Pour aider les praticiens de l'IA à construire une IA centrée sur l'humain, nous présentons le Human-AI eXperience (HAX) Toolkit, lancé le 19 juillet. 

Cette suite d'outils couvre tout le cycle de développement de produit, offrant un soutien là où les praticiens de l'IA l'ont demandé.

Dans ce webinar*, rejoignez Saleema Amershi, Senior Principal Research Manager, et Mihaela Vorvoreanu, Aether Director of UX Research and RAI education, pour apprendre comment et quand utiliser chaque outil dans le HAX Toolkit pour créer une IA centrée sur l'humain. Ensemble, vous explorerez :

■ Lignes directrices pour l'interaction Homme-IA - les meilleures pratiques pour la façon dont les systèmes d'IA devraient se comporter pendant les interactions utilisateur qui synthétisent plus de 20 ans de conseils sur ce sujet 
■ Le classeur HAX - un outil pour guider les équipes dans la planification et la mise en œuvre des meilleures pratiques d'interaction Homme-IA 
■ Les motifs de conception HAX - un ensemble de solutions flexibles pour les problèmes d'interaction Homme-IA récurrents 
■ Le livre de jeu HAX - un outil interactif pour générer des scénarios à tester basés sur des échecs d'interaction Homme-IA probables.

Liste des ressources en anglais

■ The Human-AI eXperience (HAX) Toolkit: https://aka.ms/haxtoolkit  
■ The Human-AI eXperience (HAX) Team (project page): https://www.microsoft.com/en-us/resea... 
■ Guidelines for Human-AI Interaction (publication): https://www.microsoft.com/en-us/resea...
■ Planning for Natural Language Failures with the AI Playbook (publication): https://www.microsoft.com/en-us/resea...
■ Mihaela Vorvoreanu (researcher profile): https://www.microsoft.com/en-us/resea...
■ Saleema Amershi (researcher profile): https://www.microsoft.com/en-us/resea...

*Ce webinaire à la demande présente une session de questions-réponses enregistrée précédemment et un sous-titrage en direct. 

Ce webinaire a été diffusé pour la première fois le 21 juillet 2021. Découvrez d'autres webinaires de Microsoft Research : https://aka.ms/msrwebinars 

Mihayla Vorvaranu de MS Research.

La vidéo est un webinaire sur la création d'une intelligence artificielle centrée sur l'humain avec la trousse d'outils Human-AI eXperience (HAX), présenté par Lima Murshi et Mihayla Vorvaranu de Microsoft Research. 

Elles présentent le concept d'IA centrée sur l'humain et pourquoi il est important, en soulignant le potentiel de l'IA à causer des dommages. Le webinaire se concentre ensuite sur les défis techniques de la création d'IA de manière responsable et présente la trousse d'outils HAX, qui contient une gamme d'outils pour aider les créateurs d'IA et les équipes à construire des technologies d'IA centrées sur l'humain. 

Certaines des meilleures pratiques pour construire une IA centrée sur l'humain sont discutées, notamment en pensant à l'utilisateur dès le début et en utilisant cette compréhension pour piloter toutes les autres décisions techniques, en impliquant des perspectives diverses tout au long du développement et en planifiant les échecs. 

La trousse d'outils HAX comprend des meilleures pratiques d'interaction, des modèles de conception et un guide pour générer des scénarios à tester en fonction des échecs probables d'interaction humain-IA.

Microsoft Research Webinars - Microsoft Research

https://www.microsoft.com/en-us/research/webinar/

---
Pierre Erol GIRAUDY 


vendredi 7 avril 2023

Créez une IA centrée sur l'humain avec le toolkit Human-AI eXperience (HAX) - Webinaire YouTube"

Créez une IA centrée sur l'humain avec le toolkit Human-AI eXperience (HAX) - Webinaire YouTube".


The video is a webinar on creating human-centered AI with the Human-AI eXperience (HAX) Toolkit, presented by Lima Murshi and Mihayla Vorvaranu from Microsoft Research. They introduce the concept of human-centered AI and why it is important, highlighting the potential for AI to cause harm. The webinar then focuses on technical challenges to creating AI responsibly, and presents the HAX Toolkit, which contains a suite of tools to help AI creators and teams build AI technologies in a human-centered way. 
Some of the best practices for building human-centered AI are discussed, including thinking about the user early and using that understanding to drive all other technical decisions, involving diverse perspectives throughout development, and planning for failures. The HAX Toolkit includes interaction best practices, design patterns, and a playbook for generating scenarios to test based on likely human-AI interaction failures.
--------------------------------------------------------

"Bonjour, mon nom est Lima Murshi et je suis très heureux d'être ici aujourd'hui avec ma collègue Mihayla Vorvaranu pour présenter ce webinaire sur la création d'une IA centrée sur l'humain avec le toolkit Human-AI eXperience. Il s'agit d'une collaboration entre Microsoft Research et Ether, qui est le comité consultatif de Microsoft sur l'éthique et les effets de l'IA dans l'ingénierie et la recherche. Avant de commencer, un peu sur moi : je suis responsable de recherche principale chez Microsoft Research, où je dirige le groupe Human-AI eXperience. Je suis également co-présidente du groupe de travail Ether sur l'interaction et la collaboration entre l'homme et l'IA, et je resterai disponible après la présentation pour la session de questions-réponses en direct. 
Dans ce webinaire, nous allons parler de l'IA centrée sur l'humain, de ce que c'est et pourquoi nous en avons besoin, puis nous présenterons le toolkit HAX, qui contient une suite d'outils que nous avons développés pour aider les créateurs et les équipes d'IA à construire des technologies d'IA de manière centrée sur l'humain. 

Tout d'abord, qu'entendons-nous par IA centrée sur l'humain ? 

Pourquoi en avons-nous besoin ? 

Commençons par un peu de contexte. Vous voyez ici une carte du paysage des données et de l'IA de 2020, publiée chaque année par First Mark Venture Capital. Cela montre la portée et l'ampleur de l'IA dans nos applications et services quotidiens, et comment elle façonne et refaçonne fondamentalement nos technologies quotidiennes. Nous savons que les technologies d'IA et d'apprentissage automatique sont très puissantes et ont le potentiel d'améliorer nos capacités et nos vies. Mais à mesure que l'IA s'étend dans tous les aspects de notre vie, nous commençons également à voir de plus en plus de preuves de son potentiel à causer du tort. 

C'est à cause de ce potentiel de préjudice que la société demande maintenant un changement et une responsabilité, en particulier lorsque l'IA est utilisée dans des situations critiques et parfois décisives pour la vie. L'industrie est donc appelée à réfléchir et à repenser la manière dont nous construisons nos technologies d'IA pour nous assurer de le faire de manière responsable. 

Il y a de nombreux défis à la création d'IA de manière responsable, notamment des défis culturels liés au changement des mentalités et à l'adoption de la diversité tout au long du processus, des défis organisationnels, notamment l'alignement des objectifs commerciaux et de responsabilité de l'IA, et la création d'un espace pour ce type de travail. Mais aujourd'hui, je vais me concentrer sur les défis techniques, c'est-à-dire les défis liés à la manière dont nous construisons nos technologies d'IA de manière responsable. 


The tech industry is being called upon to develop and deploy AI technologies more responsibly. Yet many organizations that create AI technologies report being unprepared to address AI risks and failures. 

To meet these challenges, Microsoft is striving to take a human-centered approach to AI, designing and building technologies that benefit people and society while also mitigating potential harms. This includes understanding human needs and using that insight to drive development decisions from beginning to end. 

To assist AI practitioners in building human-centered AI, we are introducing the Human-AI eXperience (HAX) Toolkit, launching on July 19. This suite of tools spans the end-to-end product development lifecycle, providing support where AI practitioners have requested it. 

In this webinar, join Saleema Amershi, Senior Principal Research Manager, and Mihaela Vorvoreanu, Aether Director of UX Research and RAI education, to learn how and when to use each tool in the HAX Toolkit to create human-centered AI. 

Together, you’ll explore: 

■ Guidelines for Human-AI Interaction – best practices for how AI systems should behave during user interactions that synthesize more than 20 years of guidance on this topic 
■ The HAX Workbook – a tool to guide teams through planning and implementing human-AI interaction best practices 
■ The HAX Design Patterns – a set of flexible solutions to recurring human-AI interaction problems 
■ The HAX Playbook – an interactive tool for generating scenarios to test based on likely human-AI interaction failures 

𝗥𝗲𝘀𝗼𝘂𝗿𝗰𝗲 𝗹𝗶𝘀𝘁: 

■ The Human-AI eXperience (HAX) Toolkit: https://aka.ms/haxtoolkit  
■ The Human-AI eXperience (HAX) Team (project page): The HAX Toolkit Project - Microsoft Research https://www.microsoft.com/en-us/research/project/hax-toolkit/ 
■ Guidelines for Human-AI Interaction (publication): https://www.microsoft.com/en-us/resea...
■ Planning for Natural Language Failures with the AI Playbook (publication): https://www.microsoft.com/en-us/resea...
■ Mihaela Vorvoreanu (researcher profile): https://www.microsoft.com/en-us/resea...
■ Saleema Amershi (researcher profile): https://www.microsoft.com/en-us/resea...

*This on-demand webinar features a previously recorded Q&A session and open captioning. 


Explore more Microsoft Research webinars: https://aka.ms/msrwebinars



The HAX Toolkit Project is a collaboration between Microsoft Research and Aether, Microsoft’s advisory body on AI Ethics and Effects in Engineering and Research. The Toolkit offers a set of practical tools for creating human-AI experiences. Each tool is grounded in observed needs, validated through rigorous research, and tested with practitioner teams.

The HAX Toolkit currently includes: