Translate

vendredi 7 avril 2023

Créez une IA centrée sur l'humain avec le toolkit Human-AI eXperience (HAX) - Webinaire YouTube"

Créez une IA centrée sur l'humain avec le toolkit Human-AI eXperience (HAX) - Webinaire YouTube".


The video is a webinar on creating human-centered AI with the Human-AI eXperience (HAX) Toolkit, presented by Lima Murshi and Mihayla Vorvaranu from Microsoft Research. They introduce the concept of human-centered AI and why it is important, highlighting the potential for AI to cause harm. The webinar then focuses on technical challenges to creating AI responsibly, and presents the HAX Toolkit, which contains a suite of tools to help AI creators and teams build AI technologies in a human-centered way. 
Some of the best practices for building human-centered AI are discussed, including thinking about the user early and using that understanding to drive all other technical decisions, involving diverse perspectives throughout development, and planning for failures. The HAX Toolkit includes interaction best practices, design patterns, and a playbook for generating scenarios to test based on likely human-AI interaction failures.
--------------------------------------------------------

"Bonjour, mon nom est Lima Murshi et je suis très heureux d'être ici aujourd'hui avec ma collègue Mihayla Vorvaranu pour présenter ce webinaire sur la création d'une IA centrée sur l'humain avec le toolkit Human-AI eXperience. Il s'agit d'une collaboration entre Microsoft Research et Ether, qui est le comité consultatif de Microsoft sur l'éthique et les effets de l'IA dans l'ingénierie et la recherche. Avant de commencer, un peu sur moi : je suis responsable de recherche principale chez Microsoft Research, où je dirige le groupe Human-AI eXperience. Je suis également co-présidente du groupe de travail Ether sur l'interaction et la collaboration entre l'homme et l'IA, et je resterai disponible après la présentation pour la session de questions-réponses en direct. 
Dans ce webinaire, nous allons parler de l'IA centrée sur l'humain, de ce que c'est et pourquoi nous en avons besoin, puis nous présenterons le toolkit HAX, qui contient une suite d'outils que nous avons développés pour aider les créateurs et les équipes d'IA à construire des technologies d'IA de manière centrée sur l'humain. 

Tout d'abord, qu'entendons-nous par IA centrée sur l'humain ? 

Pourquoi en avons-nous besoin ? 

Commençons par un peu de contexte. Vous voyez ici une carte du paysage des données et de l'IA de 2020, publiée chaque année par First Mark Venture Capital. Cela montre la portée et l'ampleur de l'IA dans nos applications et services quotidiens, et comment elle façonne et refaçonne fondamentalement nos technologies quotidiennes. Nous savons que les technologies d'IA et d'apprentissage automatique sont très puissantes et ont le potentiel d'améliorer nos capacités et nos vies. Mais à mesure que l'IA s'étend dans tous les aspects de notre vie, nous commençons également à voir de plus en plus de preuves de son potentiel à causer du tort. 

C'est à cause de ce potentiel de préjudice que la société demande maintenant un changement et une responsabilité, en particulier lorsque l'IA est utilisée dans des situations critiques et parfois décisives pour la vie. L'industrie est donc appelée à réfléchir et à repenser la manière dont nous construisons nos technologies d'IA pour nous assurer de le faire de manière responsable. 

Il y a de nombreux défis à la création d'IA de manière responsable, notamment des défis culturels liés au changement des mentalités et à l'adoption de la diversité tout au long du processus, des défis organisationnels, notamment l'alignement des objectifs commerciaux et de responsabilité de l'IA, et la création d'un espace pour ce type de travail. Mais aujourd'hui, je vais me concentrer sur les défis techniques, c'est-à-dire les défis liés à la manière dont nous construisons nos technologies d'IA de manière responsable. 


The tech industry is being called upon to develop and deploy AI technologies more responsibly. Yet many organizations that create AI technologies report being unprepared to address AI risks and failures. 

To meet these challenges, Microsoft is striving to take a human-centered approach to AI, designing and building technologies that benefit people and society while also mitigating potential harms. This includes understanding human needs and using that insight to drive development decisions from beginning to end. 

To assist AI practitioners in building human-centered AI, we are introducing the Human-AI eXperience (HAX) Toolkit, launching on July 19. This suite of tools spans the end-to-end product development lifecycle, providing support where AI practitioners have requested it. 

In this webinar, join Saleema Amershi, Senior Principal Research Manager, and Mihaela Vorvoreanu, Aether Director of UX Research and RAI education, to learn how and when to use each tool in the HAX Toolkit to create human-centered AI. 

Together, you’ll explore: 

■ Guidelines for Human-AI Interaction – best practices for how AI systems should behave during user interactions that synthesize more than 20 years of guidance on this topic 
■ The HAX Workbook – a tool to guide teams through planning and implementing human-AI interaction best practices 
■ The HAX Design Patterns – a set of flexible solutions to recurring human-AI interaction problems 
■ The HAX Playbook – an interactive tool for generating scenarios to test based on likely human-AI interaction failures 

𝗥𝗲𝘀𝗼𝘂𝗿𝗰𝗲 𝗹𝗶𝘀𝘁: 

■ The Human-AI eXperience (HAX) Toolkit: https://aka.ms/haxtoolkit  
■ The Human-AI eXperience (HAX) Team (project page): The HAX Toolkit Project - Microsoft Research https://www.microsoft.com/en-us/research/project/hax-toolkit/ 
■ Guidelines for Human-AI Interaction (publication): https://www.microsoft.com/en-us/resea...
■ Planning for Natural Language Failures with the AI Playbook (publication): https://www.microsoft.com/en-us/resea...
■ Mihaela Vorvoreanu (researcher profile): https://www.microsoft.com/en-us/resea...
■ Saleema Amershi (researcher profile): https://www.microsoft.com/en-us/resea...

*This on-demand webinar features a previously recorded Q&A session and open captioning. 


Explore more Microsoft Research webinars: https://aka.ms/msrwebinars



The HAX Toolkit Project is a collaboration between Microsoft Research and Aether, Microsoft’s advisory body on AI Ethics and Effects in Engineering and Research. The Toolkit offers a set of practical tools for creating human-AI experiences. Each tool is grounded in observed needs, validated through rigorous research, and tested with practitioner teams.

The HAX Toolkit currently includes:


samedi 1 avril 2023

Prise en main de GPT-4 dans Azure OpenAI Service

Prise en main de GPT-4 dans Azure OpenAI Service

Microsoft commence seulement à effleurer les multiples possibilités offertes par les technologies d’IA générative et notre objectif est de faire en sorte que nos clients adoptent de manière responsable Azure OpenAI Service pour avoir un réel impact. Avec GPT-4, Epic Healthcare, Coursera et Coca-Cola prévoient d’utiliser cette avancée de manière unique :

« Notre étude de GPT-4 a dévoilé un potentiel énorme concernant son utilisation dans le domaine de la santé. Nous utiliserons GPT-4 pour aider les médecins et les infirmières à passer moins de temps sur leurs écrans et à examiner les données de manière plus simple et conversationnelle. », Seth Hain, vice-président principal Recherche et développement, Epic

« Coursera utilise Azure OpenAI Service pour créer une nouvelle expérience d’apprentissage basée sur l’IA sur sa plateforme et permet ainsi aux apprenants d’obtenir un support de haute qualité et personnalisé tout au long de leurs parcours d’apprentissage. Ensemble, Azure OpenAI Service et le nouveau modèle GPT-4 permettront à des millions de personnes du monde entier d’apprendre encore plus efficacement sur Coursera. », Mustafa Furniturewala, vice-président principal Ingénierie, Coursera

« Nous sommes à court de mots pour exprimer l’excitation et la gratitude que nous ressentons en tant qu’entreprise de biens de consommation pour les opportunités sans limites offertes par Azure OpenAI. En utilisant Azure Cognitive Services au cœur de notre infrastructure de services numériques, nous avons exploité la puissance transformatrice des modèles de génération de texte et d’images d’OpenAI pour résoudre les problèmes métier et créer un hub de connaissances. Mais c’est le potentiel des capacités multimodales GPT-4 à venir d’OpenAI qui nous émerveille vraiment. Les possibilités en termes de marketing, de publicité, de relations publiques et de relations client sont infinies, et nous avons hâte d’être aux avant-postes de cette technologie révolutionnaire. Nous savons que notre succès n’est pas seulement une question de technologie, mais qu’il est aussi lié à la présence des fonctionnalités d’entreprise appropriées. C’est pourquoi nous sommes fiers d’avoir un partenariat de longue date avec Microsoft Azure, grâce auquel nous disposons de tous les outils dont nous avons besoin pour offrir des expériences exceptionnelles à nos clients. Azure OpenAI est plus qu’une technologie de pointe. Ce service change réellement la donne et nous sommes honorés de faire partie de ce voyage incroyable. », Lokesh Reddy Vangala, directeur principal Ingénierie, données et IA, The Coca-Cola Company

Notre engagement envers une IA responsable.

Comme nous l’avons décrit dans mon blog précédent, Microsoft a une approche en couches pour les modèles génératifs, guidée par les principes d’IA responsable de Microsoft. Dans Azure OpenAI, un système de sécurité intégré offre une protection contre les entrées et sorties indésirables et surveille les mauvaises utilisations. Par ailleurs, nous fournissons des conseils et des bonnes pratiques pour que les clients puissent créer de manière responsable des applications à l’aide de ces modèles, et nous attendons de nos clients qu’ils se conforment au Code de conduite Azure OpenAI. Avec GPT-4, les nouvelles avancées en termes de recherches fournies par OpenAI ont donné naissance à une couche supplémentaire de protection. Guidée par les commentaires humains, la sécurité est intégrée directement au modèle GPT-4, ce qui permet au modèle d’être plus efficace pour gérer les entrées dangereuses, réduisant ainsi la probabilité que le modèle génère une réponse dangereuse.


Prise en main de GPT-4 dans Azure OpenAI Service

--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol

jeudi 30 mars 2023

Microsoft Security Copilot et GPT-4

Microsoft Security Copilot et GPT-4 votre nouvel allié pour administrer les incidents de sécurité.


Microsoft Security #Copilot est un outil d'analyse de la sécurité basé sur l'#IA qui permet aux analystes de réagir rapidement aux menaces, de traiter les signaux à la vitesse de la machine et d'évaluer l'exposition aux risques en quelques minutes.


Voir ci-dessus : Security Copilot en action Découvrez, 
enquêtez et répondez aux menaces, puis résumez 
votre travail en quelques minutes.

Transformez les questions en action Posez des questions à #Security Copilot en langage naturel et recevez des réponses exploitables.

Microsoft a fait l'annonce de Security Copilot, un nouvel assistant orienté cybersécurité qui est là pour vous aider à vous renseigner sur les menaces, prendre des décisions plus rapides lorsqu'un incident se produit, et établir des rapports sur la sécurité de votre environnement.

Par la voix de Vasu Jakkal, #Microsoft a fait l'annonce de Microsoft Security Copilot qui s'appuie sur l'IA générative comme Microsoft 365 Copilot sauf qu'ici on fait un focus sur la cybersécurité. En pratique, l'utilisateur aura un prompt devant lui, comme pour #ChatGPT, et il pourra interroger Security Copilot par ce biais, tout en sachant qu'il s'appuie sur le modèle de langage #GPT-4.

Pour donner des réponses pertinentes et à jour, Security Copilot s'appuie sur d'autres outils comme Microsoft #Sentinel, #Defender, #Intune et sur des sources externes, tout en utilisant la puissance de la threat intelligence de Microsoft : "Augmentez l'impact et l'efficacité de votre équipe grâce à des conseils intelligents basés sur 65 billions de signaux quotidiens."

Réponse aux incidents Identifiez une attaque en cours, évaluez son ampleur et obtenez des instructions pour commencer la correction en vous basant sur des tactiques éprouvées à partir d'incidents de sécurité réels.




Répondez aux menaces plus rapidement Security Copilot intègre les informations et les données des outils de sécurité et fournit des conseils adaptés à votre organisation.

Microsoft Security Copilot est actuellement en préversion et n'est pas encore généralement disponible. Inscrivez-vous aux mises à jour de sécurité Microsoft pour en savoir plus sur les annonces de produits, les informations sur la sécurité et les événements à venir.

https://info.microsoft.com/ww-landing-security-broad-reach-interest-capture.html?lcid=en-us

Microsoft Secure : explorez les innovations qui transforment l'avenir de la sécurité

https://www.microsoft.com/en-us/security/blog/2023/03/28/microsoft-secure-explore-innovations-transforming-the-future-of-security/

Security Copilot — défense de bout en bout à la vitesse et à l’échelle de la machine Microsoft Security Copilot est le premier produit de sécurité à permettre aux défenseurs de se déplacer à la vitesse et à l’échelle de l’IA

. Security Copilot combine ce modèle avancé de langage large (#LLM) avec un modèle spécifique à la sécurité de Microsoft. Ce modèle spécifique à la sécurité intègre à son tour un ensemble croissant de compétences spécifiques à la sécurité et est informé par les renseignements uniques sur les menaces mondiales de Microsoft et plus de 65 billions de signaux quotidiens. Security Copilot offre également une expérience de sécurité et de confidentialité de niveau entreprise lorsqu’il s’exécute sur l’infrastructure hyperscale d’Azure.

Lorsque Security Copilot reçoit une invite d’un professionnel de la sécurité, il utilise toute la puissance du modèle spécifique à la sécurité pour déployer des compétences et des requêtes qui maximisent la valeur des dernières fonctionnalités de modèle de langage de grande envergure. Et c’est unique à un cas d’utilisation de sécurité. Notre modèle cyberformé ajoute un système d’apprentissage pour créer et ajuster de nouvelles compétences. Security Copilot peut alors aider à détecter ce que d’autres approches pourraient manquer et augmenter le travail d’un analyste. Dans un incident typique, ce coup de pouce se traduit par des gains en qualité de détection, en rapidité de réponse et en capacité à renforcer la posture de sécurité.

Security Copilot ne fait pas toujours tout correctement. Le contenu généré par l’IA peut contenir des erreurs. Mais Security Copilot est un système d’apprentissage en boucle fermée, ce qui signifie qu’il apprend continuellement des utilisateurs et leur donne la possibilité de donner un retour explicite avec la fonction de rétroaction intégrée directement dans l’outil. Au fur et à mesure que nous apprenons de ces interactions, nous ajustons ses réponses pour créer des réponses plus cohérentes, pertinentes et utiles.

Security Copilot s’intègre également aux produits Microsoft Security de bout en bout et, au fil du temps, il s’étendra à un écosystème croissant de produits tiers. Donc, en bref, Security Copilot n’est pas seulement un grand modèle de langage, mais plutôt un système qui apprend, pour permettre aux organisations de vraiment défendre à la vitesse de la machine.

Nous croyons fermement que la sécurité est un sport d’équipe et que la sécurité devrait être construite avec la confidentialité au centre. Nous avons conçu Security Copilot en pensant aux équipes de sécurité : vos données sont toujours vos données et restent sous votre contrôle. Il n’est pas utilisé pour former les modèles d’IA de base et, en fait, il est protégé par les contrôles de conformité et de sécurité les plus complets de l’entreprise. Tout en restant privée, chaque interaction utilisateur peut être facilement partagée avec les autres membres de l’équipe pour accélérer la réponse aux incidents, collaborer plus efficacement sur des problèmes complexes et développer des compétences collectives.

Une technologie qui élève les forces

humaines La créativité et les connaissances humaines seront toujours impératives pour la défense. Security Copilot peut augmenter la vitesse et l’évolutivité des machines pour les professionnels de la sécurité, de sorte que l’ingéniosité humaine est déployée là où cela compte le plus. En offrant cette expérience, nous sommes guidés par trois principes :

Simplifiez le complexe.

En matière de sécurité, les minutes comptent. Avec Security Copilot, les défenseurs peuvent répondre aux incidents de sécurité en quelques minutes au lieu de plusieurs heures ou jours. Security Copilot fournit des conseils et un contexte étape par étape essentiels grâce à une expérience d’investigation basée sur le langage naturel qui accélère l’enquête et la réponse aux incidents. La possibilité de résumer rapidement n’importe quel processus ou événement et d’adapter les rapports à un public souhaité permet aux défenseurs de se concentrer sur le travail le plus urgent.

Attrapez ce que les autres manquent.

Les attaquants se cachent derrière le bruit et les signaux faibles. Les défenseurs peuvent désormais découvrir des comportements malveillants et des signaux de menace qui pourraient autrement passer inaperçus. Security Copilot fait apparaître les menaces par ordre de priorité en temps réel et anticipe le prochain mouvement d’un acteur de la menace avec un raisonnement continu basé sur les renseignements sur les menaces mondiales de Microsoft. Security Copilot possède également des compétences qui représentent l’expertise des analystes de sécurité dans des domaines tels que la chasse aux menaces, la réponse aux incidents et la gestion des vulnérabilités.

Combler le manque de talents.

La capacité d’une équipe de sécurité sera toujours limitée par la taille de l’équipe et les limites naturelles de l’attention humaine. Security Copilot renforce les compétences de vos défenseurs grâce à sa capacité à répondre aux questions liées à la sécurité, des plus élémentaires aux plus complexes. Security Copilot apprend continuellement des interactions des utilisateurs, s’adapte aux préférences de l’entreprise et conseille les défenseurs sur la meilleure ligne de conduite pour obtenir des résultats plus sûrs. Il soutient également l’apprentissage des nouveaux membres de l’équipe, car il les expose à de nouvelles compétences et approches à mesure qu’ils se développent. Cela permet aux équipes de sécurité de faire plus avec moins et de fonctionner avec les capacités d’une organisation plus grande et plus mature.

Des capacités de sécurité inégalées Avec Security Copilot, nous redonnons l’avantage de l’agilité aux défenseurs en combinant les technologies de sécurité de pointe de Microsoft avec les dernières avancées en matière d’IA. En travaillant avec Security Copilot, les organisations ont accès à une profondeur et une étendue inégalée de capacités d’IA de sécurité, notamment :

Accès continu aux modèles #OpenAI les plus avancés pour prendre en charge les tâches et applications de sécurité les plus exigeantes

Un modèle spécifique à la sécurité qui bénéficie d’un renforcement continu, d’un apprentissage et d’une rétroaction des utilisateurs pour répondre aux besoins uniques des professionnels de la sécurité ;

Une visibilité et des renseignements évolutifs sur les menaces alimentés par les produits de sécurité de votre organisation et les 65 billions de signaux de menace que Microsoft voit chaque jour pour s’assurer que les équipes de sécurité opèrent avec les connaissances les plus récentes sur les attaquants, leurs tactiques, techniques et procédures ;

Intégration avec le portefeuille de sécurité de bout en bout de Microsoft pour une expérience hautement efficace qui s’appuie sur les signaux de sécurité ;

Une liste croissante de compétences et d’invites uniques qui élèvent l’expertise des équipes de sécurité et placent la barre plus haut pour ce qui est possible, même avec des ressources limitées.

----

Introducing Microsoft 365 Copilot – your copilot for work - The Official Microsoft Blog

Intégration de GPT-4 dans Azure OpenAI Service | Blog Azure et mises à jour | Microsoft Azure

Responsible AI principles from Microsoft

Cyber Signals (microsoft.com)

Reinventing search with a new AI-powered Microsoft Bing and Edge, your copilot for the web - The Official Microsoft Blog



--- 
Pierre Erol GIRAUDY 






mercredi 29 mars 2023

MWCP23 - 27/03 - Room Auditorium Gouvernance



Me proposer le tableau de bord IA responsable


Bien sûr, voici un exemple de tableau de bord pour l'IA responsable. Ce tableau de bord est conçu pour aider les entreprises à surveiller et à mesurer leur utilisation de l'IA, en s'assurant qu'elle est utilisée de manière responsable, éthique et transparente.
  1. Transparence :
  • Nombre de décisions prises par l'IA qui ont été expliquées aux utilisateurs
  • Taux de compréhension de l'explication fournie par les utilisateurs
  • Évaluation de la clarté de l'explication fournie par l'IA
  1. Équité :
  • Nombre de biais détectés dans les données d'entraînement de l'IA
  • Mesure de l'équité dans les décisions prises par l'IA pour différents groupes démographiques
  • Nombre de plaintes déposées pour des décisions présumées injustes prises par l'IA
  1. Confidentialité :
  • Nombre de violations de données signalées
  • Mesure de la conformité aux réglementations sur la protection des données
  • Mesure de l'utilisation appropriée des données personnelles collectées par l'IA
  1. Responsabilité :
  • Mesure de la performance de l'IA par rapport aux objectifs définis
  • Évaluation de la fiabilité des résultats de l'IA
  • Mesure de l'impact sur les parties prenantes de l'utilisation de l'IA
  1. Intégrité :
  • Mesure de la conformité aux normes éthiques et aux codes de conduite de l'entreprise
  • Évaluation de l'adéquation de l'IA aux valeurs de l'entreprise
  • Mesure de la conformité aux lois et réglementations applicables
Ces mesures peuvent être suivies au fil du temps pour surveiller la performance de l'IA responsable et identifier les domaines qui nécessitent une amélioration. Il est important de noter que ces mesures ne sont qu'un exemple et peuvent être adaptées en fonction des besoins et des priorités de chaque entreprise.

Quelles sont les Personnes qui devraient utiliser le tableau de bord IA responsable ?

Le tableau de bord IA responsable est destiné aux personnes impliquées dans la gestion de l'IA dans une entreprise ou une organisation. Cela peut inclure :
  1. Les responsables des données : Les responsables des données sont responsables de la collecte, de la gestion et de l'utilisation des données dans une entreprise. Ils peuvent utiliser le tableau de bord pour surveiller l'utilisation de l'IA dans leur entreprise et s'assurer qu'elle est conforme aux politiques de confidentialité et de sécurité des données.
  2. Les responsables de l'IA : Les responsables de l'IA sont chargés de la planification, du développement et de la mise en œuvre de l'IA dans une entreprise. Ils peuvent utiliser le tableau de bord pour surveiller l'impact de l'IA sur les parties prenantes et s'assurer qu'elle est utilisée de manière responsable et éthique.
  3. Les chefs d'entreprise : Les chefs d'entreprise ont la responsabilité ultime de veiller à ce que leur entreprise fonctionne de manière éthique et responsable. Ils peuvent utiliser le tableau de bord pour surveiller l'utilisation de l'IA dans leur entreprise et s'assurer qu'elle est alignée sur les valeurs de l'entreprise.
  4. Les professionnels de la conformité : Les professionnels de la conformité sont responsables de veiller à ce que l'entreprise respecte les lois et les réglementations applicables. Ils peuvent utiliser le tableau de bord pour surveiller la conformité de l'IA avec les lois et réglementations applicables.
  5. Les parties prenantes : Les parties prenantes sont toutes les personnes ou organisations qui ont un intérêt dans l'entreprise. Elles peuvent utiliser le tableau de bord pour surveiller l'impact de l'IA sur leurs intérêts et s'assurer que l'IA est utilisée de manière responsable et éthique.

Taxonomie et gouvernance de GPT.
 
Le plan de gouvernance d'un chatbot est un ensemble de règles et de procédures qui permettent de garantir la qualité et la sécurité du chatbot. Il doit être élaboré en fonction des objectifs de l'entreprise et des besoins des utilisateurs. Les chatbots sont des outils d'optimisation de la gestion documentaire¹ et pour simuler une conversation humaine et amplifier les performances des chatbots, il est nécessaire de les équiper en intelligence artificielle². 

Je vous recommande de consulter les liens suivants pour plus d'informations sur les chatbots et leur gouvernance :


Rédigez votre plan d’action de gouvernance - Initiez-vous à la .... https://openclassrooms.com/fr/courses/7693881-initiez-vous-a-la-gouvernance-des-donnees/7921726-redigez-votre-plan-d-action-de-gouvernance Consultée 26/03/2023.
La conduite d’un projet d’amélioration de la gouvernance des données dans votre entreprise ne peut échapper à cette méthode agile, et les différentes méthodes de gouvernance l’incluent pleinement.
C’est le cas de LA méthode la plus connue, intitulée DAMA-DMBOK (Data Management Body of Knowledge), et sa fameuse « roue DAMA » qui résume tous les domaines concernés par la gouvernance. Puis viendra la Pyramide...












Découvrez comment activer l'application Microsoft Loop.

Découvrez comment activer l'application Microsoft Loop, désormais en version préliminaire publique.


Exemple 


Alors que les organisations continuent d’évoluer en ces temps dynamiques, elles ont besoin d’outils modernes capables d’embrasser l’ambiguïté et de permettre aux gens de travailler où et comme ils le souhaitent afin d’être efficaces. Microsoft Loop est la solution idéale pour que vos équipes réfléchissent, planifient et créent ensemble, comme jamais auparavant, même lorsqu’elles ne sont pas au même endroit. Il s’agit d’une expérience de co-création transformatrice qui rassemble des équipes, du contenu et des tâches sur l’ensemble de vos outils et appareils. Il s’agit d’une nouvelle application qui combine un canevas puissant et flexible avec des composants portables qui restent synchronisés et se déplacent librement dans les applications Microsoft 365. Pour en savoir plus, cliquez ici.

L’application Loop est activée pendant notre préversion publique, donc en tant qu’administrateur informatique, vous devez suivre les étapes ci-dessous pour que vos utilisateurs puissent en faire l’expérience, sinon elle est désactivée. Une fois activé, vous et les membres de votre organisation pouvez l’essayer dès aujourd’hui à l’adresse suivante : https://loop.microsoft.com/

Pourquoi l’activer pour votre organisation ?

 
Vous pouvez responsabiliser votre organisation et rejoindre le mouvement de l’environnement de travail moderne en activant Loop. Loop permet à votre équipe de collaborer de manière transparente, même lorsqu’elle travaille à distance et dans des environnements hybrides. Avec Loop, vous pouvez créer et partager des composants Loop - des éléments de contenu portables qui se synchronisent sur tous les emplacements où ils ont été partagés, y compris Microsoft Teams, Outlook, Word pour le web, Tableau blanc et l’application Loop. Ces composants sont toujours à jour, quel que soit l’endroit où ils sont partagés, et votre équipe peut les modifier en ligne à partir de ces applications. L’application Loop elle-même permet à vos équipes de rassembler tout ce dont elles ont besoin pour un projet en un seul endroit, ce qui leur permet de penser, de planifier et de créer ensemble. 

Pour en savoir plus sur la valeur de l’application Loop pour l’utilisateur final, consultez notre blog d’annonces : https://www.microsoft.com/microsoft-365/blog/?p=269576

Comment activer l’application Loop pour mon organisation ?

Toutes les informations dont vous avez besoin se trouvent dans notre documentation des paramètres d’administration de Loop. Cet article Microsoft Learn propose une version écran par écran des mêmes conseils.

Aperçu des étapes


Créez un groupe de sécurité Azure Active Directory (Azure AD) qui contient tous les utilisateurs de notre organisation auxquels vous souhaitez accorder l’accès à l’application Loop pendant la préversion publique.

  • Connectez-vous au Centre d’administration des applications Microsoft 365 et créez une configuration de stratégie cloud, étendue au groupe de sécurité AAD que vous avez créé ci-dessus, pour activer l’application Loop.
  • Attendez environ une heure pour que la stratégie se propage et connectez-vous à Loop !
  • Assurez-vous que vos règles de pare-feu autorisent tous les services appropriés.

Création d’un groupe de sécurité

Il existe deux façons de créer le groupe. Vous pouvez créer un groupe de sécurité dynamique, qui peut être rempli avec des comptes d’utilisateurs via des requêtes, ou vous pouvez créer un groupe de sécurité statique, qui est rempli manuellement par vous, l’administrateur informatique.

Groupe de sécurité dynamique

Que sont les groupes dynamiques ?

Un groupe dynamique est une configuration dynamique de l’appartenance à un groupe de sécurité pour Azure AD disponible dans le portail Azure. Les administrateurs peuvent définir des règles pour remplir les groupes créés dans Azure AD en fonction des attributs utilisateur, tels que le type d’utilisateur, le service ou le pays/région. Les membres peuvent être automatiquement ajoutés ou supprimés d’un groupe de sécurité en fonction de leurs attributs. Ces groupes peuvent fournir un accès à des applications ou des ressources cloud (sites SharePoint, documents) et attribuer des licences aux membres. En savoir plus sur les groupes dédiés dans Azure Active Directory.

Conditions préalables

Une licence Azure AD Premium P1 ou P2 est requise pour créer et utiliser des groupes dynamiques. Pour plus d’informations, consultez Créer des règles basées sur les attributs pour l’appartenance à un groupe dynamique dans Azure Active Directory.


Création d’un groupe dynamique « tous les utilisateurs »

Vous pouvez créer un groupe contenant tous les utilisateurs d’un client à l’aide d’une règle d’appartenance. Lorsque des utilisateurs sont ajoutés ou supprimés du client à l’avenir, l’appartenance au groupe est ajustée automatiquement.

 

  1. Connectez-vous au portail Azure avec un compte auquel est attribué le rôle d’administrateur général ou d’administrateur d’utilisateurs dans le client.
  2. Sélectionnez Azure Active Directory.
  3. Sous Gérer, sélectionnez Groupes, puis Nouveau groupe.
  4. Dans la page Nouveau groupe, sous Type de groupe, sélectionnez Sécurité. Entrez un nom de groupe et une description de groupe pour le nouveau groupe.
  5. Sous Type d’appartenance, sélectionnez Utilisateur dynamique, puis Ajouter une requête dynamique.
  6. Au-dessus de la zone de texte Syntaxe de la règle, sélectionnez Modifier. Dans la page Modifier la syntaxe de la règle, tapez l’expression suivante dans la zone de texte :
    user.objectId -ne null
  7. Sélectionnez OK. La règle apparaît dans la zone Syntaxe de la règle :

8. Sélectionnez Enregistrer. Le nouveau groupe dynamique comprendra désormais les utilisateurs invités interentreprises (B2B) et les utilisateurs membres.

9. Sélectionnez Créer sur la page Nouveau groupe pour créer le groupe.

 

Création d’un groupe de membres uniquement

 

Si vous souhaitez que votre groupe exclue les utilisateurs invités et inclue uniquement les membres de votre client, créez un groupe dynamique comme décrit ci-dessus, mais dans la zone Syntaxe de la règle, entrez l’expression suivante :

(user.objectId -ne null) et (user.userType -eq « Membre »)

 

L’image suivante montre la syntaxe de règle d’un groupe dynamique modifiée pour inclure uniquement les membres et exclure les invités :


See more on :


Limite de LOOP.



--------------------------------------------------------

Comme jamais auparavant. Nous avons écouté de nombreux clients lors de nos premières séances de rétroaction, et au cours de ces séances, une tendance s’est dégagée. Toutes les personnes à qui nous avons parlé ont valorisé la collaboration. Et ils ont continué à lutter même avec la dernière itération d’outils. Pour dépasser la page blanche. Pour communiquer clairement. Rester conscient du travail des autres. Et pour garder une trace des connaissances et des ressources. Nous vous entendons; c’est pourquoi nous tirons parti de l’IA pour réinventer la collaboration. Ainsi, vous pouvez vous concentrer sur les parties que vous aimez.
 
Nous sommes enfin prêts à partager ce sur quoi nous avons travaillé. Et nous sommes ravis que vous jouiez un rôle dans le façonnement de cet avenir alimenté par l’IA! Pour ce faire, nous introduisons l’onglet Expériences dans Paramètres de boucle, un endroit pour activer les fonctionnalités de pointe.

Copilote en boucle

Nous savons qu’il peut être difficile de partir d’une page blanche. Trouver le mot juste, comprendre les prochaines étapes pour s’attaquer à un problème et capturer une idée par écrit peut être un frein – ou une excellente occasion d’une étincelle d’inspiration.
 
Nous espérons que vous pourrez laisser Copilot susciter votre inspiration. Avec des suggestions alimentées par l’IA, Copilot générera du contenu en fonction de ce que vous lui demandez de créer. Parce qu’il est intégré à Loop, vous et vos collègues pourrez collaborer en temps réel sur le contenu qu’il génère.

Helpful resources

 

More information about Loop components in the Microsoft 365 ecosystem:

 

Continue the conversation by joining us in the Microsoft 365 community! Want to share best practices or join community events? Become a member by "Joining" the Microsoft 365 community. For tips & tricks or to stay up to date on the latest news and announcements directly from the product teams, make sure to Follow or Subscribe to the Microsoft 365 Blog space!






--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol