Translate

vendredi 5 janvier 2024

Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

L’année à venir verra l’entrée en vigueur des premières lois radicales sur l’IA, avec des efforts mondiaux pour tenir les entreprises technologiques responsables.

Par Tate Ryan-MosleyPage d’archivageMelissa HeikkiläPage d’archivageZeyi YangPage d’archivage
5 janvier 2024

La série What’s Next du MIT Technology Review examine les secteurs, les tendances et les technologies pour vous donner un premier aperçu de l’avenir. 

En 2023, la politique et la réglementation de l’IA sont passées d’un sujet de niche et ringard à l’actualité en première page. C’est en partie grâce au ChatGPT d’OpenAI, qui a aidé l’IA à se généraliser, mais qui a également exposé les gens à la manière dont les systèmes d’IA fonctionnent – ​​et ne fonctionnent pas. 

Ce fut une année monumentale pour la politique : nous avons assisté à l'adoption de la première loi radicale sur l'IA dans l'Union européenne, aux audiences du Sénat et aux décrets aux États-Unis, et à des règles spécifiques en Chine pour des choses comme les algorithmes de recommandation. 

Si 2023 a été l’année où les législateurs se sont mis d’accord sur une vision, 2024 sera l’année où les politiques commenceront à se transformer en actions concrètes. 
Voici à quoi s’attendre. 

Les États Unis 

L’IA est réellement entrée dans le débat politique aux États-Unis en 2023. Mais il ne s’agissait pas seulement d’un débat. Il y a eu également des actions, qui ont culminé avec le décret du président Biden sur l’IA fin octobre, une directive tentaculaire appelant à plus de transparence et à de nouvelles normes. 

Grâce à cette activité, une politique américaine en matière d'IA a commencé à émerger : une politique favorable à l'industrie de l'IA, mettant l'accent sur les meilleures pratiques, s'appuyant sur différentes agences pour élaborer leurs propres règles et une approche nuancée de réglementation de chaque secteur de l'IA. l’économie différemment. 

L’année prochaine s’appuiera sur la dynamique de 2023, et de nombreux éléments détaillés dans le décret de Biden seront adoptés. Nous entendrons également beaucoup parler du nouvel AI Safety Institute des États-Unis, qui sera chargé de mettre en œuvre la plupart des politiques demandées dans l’ordonnance. 

Histoire connexe

 Quelle est la prochaine étape pour l’IA en 2024 Nos rédacteurs examinent les quatre tendances à surveiller cette année Du point de vue du Congrès, on ne sait pas exactement ce qui va se passer. Le chef de la majorité au Sénat, Chuck Schumer, a récemment signalé que de nouvelles lois pourraient venir s'ajouter au décret. 

Plusieurs propositions législatives sont déjà en cours qui touchent divers aspects de l’IA, tels que la transparence, les deepfakes et la responsabilité des plateformes. 

Mais il n’est pas clair lequel, le cas échéant, de ces projets de loi déjà proposés gagnera du terrain l’année prochaine. Ce à quoi nous pouvons nous attendre, cependant, c’est une approche qui classe les types et les utilisations de l’IA en fonction du risque qu’ils posent – ​​un cadre similaire à la loi européenne sur l’IA. 

L'Institut national des normes et de la technologie a déjà proposé un tel cadre que chaque secteur et agence devra désormais mettre en pratique, explique Chris Meserole, directeur exécutif du Frontier Model Forum, un organisme de lobbying de l'industrie. 

Une autre chose est claire : l’élection présidentielle américaine de 2024 influencera une grande partie du débat sur la réglementation de l’IA. 

Comme le montre l’impact de l’IA générative sur les plateformes de médias sociaux et la désinformation, nous pouvons nous attendre à ce que le débat sur la manière de prévenir les dommages causés par cette technologie soit façonné par ce qui se passe pendant la période électorale. 

L'Europe 

L’Union européenne vient de se mettre d’accord sur l’AI Act, la première loi radicale au monde sur l’IA. Après d’intenses retouches techniques et l’approbation officielle des pays européens et du Parlement européen au premier semestre 2024, la loi sur l’IA entrera en vigueur assez rapidement. Dans le scénario le plus optimiste, des interdictions sur certaines utilisations de l’IA pourraient s’appliquer dès la fin de l’année. 

Tout cela signifie que 2024 sera une année chargée pour le secteur de l’IA alors qu’il se prépare à se conformer aux nouvelles règles. Même si la plupart des applications d’IA bénéficieront d’un laissez-passer gratuit en vertu de la loi sur l’IA, les entreprises développant des modèles de base et des applications considérées comme présentant un « risque élevé » pour les droits fondamentaux, comme ceux destinés à être utilisés dans des secteurs comme l’éducation, les soins de santé et l’éducation. la police devra répondre aux nouvelles normes européennes. 

En Europe, la police ne sera pas autorisée à utiliser cette technologie dans les lieux publics, à moins d'obtenir au préalable l'approbation du tribunal à des fins spécifiques telles que la lutte contre le terrorisme, la prévention de la traite des êtres humains ou la recherche d'une personne disparue. 

D’autres utilisations de l’IA seront totalement interdites dans l’UE, comme la création de bases de données de reconnaissance faciale comme celle de Clearview AI ou l’utilisation de technologies de reconnaissance des émotions au travail ou dans les écoles. 

La loi sur l’IA obligera les entreprises à être plus transparentes sur la manière dont elles développent leurs modèles, et elle les rendra, ainsi que les organisations utilisant des systèmes d’IA à haut risque, plus responsables de tout préjudice qui en résulterait. Les entreprises développant des modèles de base (les modèles sur lesquels sont basés d'autres produits d'IA, tels que GPT-4) devront se conformer à la loi dans un délai d'un an après son entrée en vigueur. 

Les autres entreprises technologiques ont deux ans pour mettre en œuvre les règles. 


Pour répondre aux nouvelles exigences, les entreprises d’IA devront réfléchir davantage à la manière dont elles construisent leurs systèmes et documenter leur travail de manière plus rigoureuse afin qu’il puisse être audité. 

La loi obligera les entreprises à être plus transparentes sur la manière dont leurs modèles ont été formés et garantira que les systèmes d’IA jugés à haut risque soient formés et testés avec des ensembles de données suffisamment représentatifs afin de minimiser les biais, par exemple. 

L’UE estime que les modèles d’IA les plus puissants, tels que GPT-4 d’OpenAI et Gemini de Google, pourraient présenter un risque « systémique » pour les citoyens et nécessiteraient donc des travaux supplémentaires pour répondre aux normes de l’UE. 

Les entreprises doivent prendre des mesures pour évaluer et atténuer les risques et garantir la sécurité des systèmes. Elles seront tenues de signaler les incidents graves et de partager des détails sur leur consommation d'énergie. Il appartiendra aux entreprises d’évaluer si leurs modèles sont suffisamment puissants pour entrer dans cette catégorie. 

Les sociétés d’IA open source sont exemptées de la plupart des exigences de transparence de la loi sur l’IA, à moins qu’elles ne développent des modèles aussi gourmands en ressources informatiques que le GPT-4. Le non-respect des règles pourrait entraîner de lourdes amendes ou entraîner le blocage de leurs produits hors de l’UE. 

L’UE travaille également sur un autre projet de loi, appelé Directive sur la responsabilité en matière d’IA, qui garantira que les personnes ayant été lésées par la technologie puissent obtenir une compensation financière. 

Les négociations à ce sujet sont toujours en cours et reprendront probablement cette année. Certains autres pays adoptent une approche plus non interventionniste. Par exemple, le Royaume-Uni, siège de Google DeepMind, a déclaré qu’il n’avait pas l’intention de réglementer l’IA à court terme. 

Cependant, toute entreprise en dehors de l’UE, la deuxième économie mondiale, devra toujours se conformer à la loi sur l’IA si elle souhaite faire des affaires dans le bloc commercial. 

Anu Bradford, professeur de droit à l’Université de Columbia, a appelé cela « l’effet Bruxelles » : en étant la première à réglementer, l’UE est en mesure d’établir la norme mondiale de facto, façonnant la manière dont le monde fait des affaires et développe la technologie. 

L’UE y est parvenue grâce à son régime strict de protection des données, le RGPD, qui a été copié partout, de la Californie à l’Inde. Il espère répéter l’astuce en matière d’IA. 

Chine 

Jusqu’à présent, la réglementation de l’IA en Chine a été profondément fragmentée et fragmentée. Plutôt que de réglementer l’IA dans son ensemble, le pays a publié des textes législatifs individuels chaque fois qu’un nouveau produit d’IA devient important. 

C’est pourquoi la Chine a un ensemble de règles pour les services de recommandation algorithmique (applications et moteurs de recherche de type TikTok), un autre pour les deepfakes et encore un autre pour l’IA générative. 

La force de cette approche est qu’elle permet à Pékin de réagir rapidement aux risques découlant des avancées technologiques, tant pour les utilisateurs que pour le gouvernement. Mais le problème est que cela empêche le développement d’une perspective panoramique à plus long terme. Cela pourrait changer l’année prochaine. 

En juin 2023, le Conseil d’État chinois, l’organe directeur suprême, a annoncé qu’une « loi sur l’intelligence artificielle » figurait à son programme législatif. Cette loi couvrirait tout, comme l’AI Act for Europe. 

En raison de sa portée ambitieuse, il est difficile de dire combien de temps prendra le processus législatif. Nous pourrions voir une première ébauche en 2024, mais cela pourrait prendre plus de temps. 

En attendant, il ne serait pas surprenant que les régulateurs chinois de l’Internet introduisent de nouvelles règles pour gérer les nouveaux outils d’IA ou les types de contenu populaires qui émergeront l’année prochaine. Jusqu’à présent, très peu d’informations à ce sujet ont été publiées, mais un document pourrait nous aider à prédire la nouvelle loi : des chercheurs de l’Académie chinoise des sciences sociales, un institut de recherche public, ont publié une version « suggestion d’experts » de l’IA chinoise. loi en août. 

Ce document propose un « bureau national de l'IA » pour superviser le développement de l'IA en Chine, exige un « rapport de responsabilité sociale » indépendant annuel sur les modèles de fondation et établit une « liste négative » des domaines de l'IA présentant des risques plus élevés, que les entreprises peuvent pas même de recherche sans l’approbation du gouvernement. Actuellement, les entreprises chinoises d’IA sont déjà soumises à de nombreuses réglementations. 

En fait, tout modèle de fondation doit être enregistré auprès du gouvernement avant de pouvoir être rendu public chinois (fin 2023, 22 entreprises avaient enregistré leurs modèles d’IA). 

Cela signifie que l’IA en Chine n’est plus un environnement du Far West. Mais la manière exacte dont ces réglementations seront appliquées reste incertaine. Au cours de l’année à venir, les entreprises d’IA générative devront essayer de comprendre la réalité de la conformité, notamment en ce qui concerne les examens de sécurité et la violation de la propriété intellectuelle. Dans le même temps, étant donné que les sociétés étrangères d’IA n’ont reçu aucune autorisation pour commercialiser leurs produits en Chine (et ne le feront probablement pas à l’avenir), l’environnement commercial national qui en résulte protège les entreprises chinoises. 

Cela pourrait les aider à prendre un avantage sur les sociétés occidentales d’IA, mais cela pourrait également étouffer la concurrence et renforcer le contrôle de la Chine sur la parole en ligne. 

Le reste du monde 


Nous verrons probablement davantage de réglementations sur l’IA introduites dans d’autres régions du monde au cours de l’année prochaine. 

Une région à surveiller sera l’Afrique. 

L'Union africaine est susceptible de publier une stratégie d'IA pour le continent début 2024, destinée à établir des politiques que chaque pays peut reproduire pour rivaliser dans l'IA et protéger les consommateurs africains des entreprises technologiques occidentales, a déclaré Melody Musoni, chargée de politique au Centre européen. pour la gestion des politiques de développement. 

Certains pays, comme le Rwanda, le Nigéria et l’Afrique du Sud, ont déjà élaboré des stratégies nationales en matière d’IA et s’efforcent de développer des programmes éducatifs, une puissance de calcul et des politiques favorables à l’industrie pour soutenir les entreprises d’IA. 

Des organismes mondiaux comme l’ONU, l’OCDE, le G20 et des alliances régionales ont commencé à créer des groupes de travail, des conseils consultatifs, des principes, des normes et des déclarations sur l’IA. 

Des groupes comme l’OCDE peuvent s’avérer utiles pour créer une cohérence réglementaire entre les différentes régions, ce qui pourrait alléger le fardeau de la conformité pour les entreprises d’IA. 

Sur le plan géopolitique, nous verrons probablement des différences croissantes entre la manière dont les pays démocratiques et autoritaires encouragent – ​​et militarisent – ​​leurs industries de l’IA. 

Il sera intéressant de voir dans quelle mesure les entreprises d’IA donneront la priorité à l’expansion mondiale ou à la spécialisation nationale en 2024.

Elles devront peut-être prendre des décisions difficiles. par Tate Ryan-Mosley, Melissa Heikkilä et Zeyi Yang 





Je suis sur des forums à propos de l'IA sur l'Afrique et je confirme qu'ils sont très en avance.





--- 

 Pierre Erol GIRAUDY 



jeudi 2 novembre 2023

Audit et sécurité de l'IA

Ces livres sont des publications de l’ISACA.

C'est une association professionnelle internationale qui se consacre à la gouvernance, à l’audit et à la sécurité des systèmes d’information. Les livres traitent de différents aspects de l’intelligence artificielle (IA) et de son impact sur les organisations et les individus.

  • AI Uses in Blue Team Security : Ce livre explore comment l’IA peut être utilisée pour renforcer la sécurité informatique et prévenir les cyberattaques. Il présente des exemples de cas d’utilisation, des bonnes pratiques et des défis de l’IA dans le domaine de la sécurité.
  • Auditing Artificial Intelligence : Ce livre examine comment auditer l’IA et évaluer ses risques et ses opportunités. Il fournit des conseils pratiques, des normes et des méthodologies pour auditer l’IA de manière efficace et éthique.

Pour acheter ces livres, vous avez plusieurs options :

Examens en ligne avec ISACA

Vous pouvez acheter l’examen sur ce site internet, en sélectionnant le paquet « cours avec examen ».
À l’activation de votre cours, vous recevrez un code voucher valable 6 mois que vous utiliserez pour réserver votre examen. Une fois que vous aurez utilisé votre code voucher, vous aurez 12 mois pour bloquer la date et l’heure de votre examen.

Les examens avec ISACA se déroulent en ligne, sont à livre fermé et surveillés à distance. Les examens en ligne organisés par ISACA sont destinés à la certification CISA, à la certification CISM et à la certification COBIT 2019.



--- 
 Pierre Erol GIRAUDY 


dimanche 22 octobre 2023

MITRE et ses solutions, outils tel que ATT&CK

MITRE et ses solutions + outils tel que ATT&CK 

Pourquoi cet article sur cette société et sur cet outil, parce qu'il figure dans mon prochain livre sur l'IA.

MITRE est spécialisé dans plusieurs domaines d'expertise, notamment²³:

- **Intelligence artificielle**

- **Science des données intuitive**

- **Informatique quantique**

- **Informatique de la santé**

- **Sécurité spatiale**

- **Expertise politique et économique**

- **Partage des cybermenaces**

- **Cyber-résilience**


En outre, MITRE a développé le framework ATT&CK, un référentiel de comportements de cyberattaque basé sur des observations concrètes de comportements adverses, classés par tactiques et techniques². Ce framework aide les entreprises à renforcer leur position globale de sécurité en fournissant une représentation complète des comportements d'attaque².

Source : conversation avec Bing-Copilot, 22/10/2023

(1) Qu’est-ce que le framework MITRE ATT&CK - Splunk. https://www.splunk.com/fr_fr/data-insider/what-is-the-mitre-att-and-ck-framework.html

(2) Qu’est-ce que le framework MITRE ATT&CK - Splunk. https://bing.com/search?q=domaines+d%27expertise+de+MITRE

(3) Liste des 15 domaines d’expertise couverts par la qualification RP-CFI. https://consultants-formateurs-qualifies.org/wordpress/wp-content/uploads/2017/02/2017-02-10-RPCFI-Domaines-expertise.pdf


ATT&CK.

Le framework MITRE ATT&CK (Adversarial Tactics, Techniques & Common Knowledge) est une base de connaissances universellement accessible et continuellement mise à jour sur les comportements adverses des cybercriminels². Il sert à modéliser, détecter, anticiper et lutter contre les menaces de cybersécurité basées sur les comportements adverses connus des cybercriminels².

MITRE ATT&CK répertorie les tactiques, techniques et procédures (TTP) cybercriminelles à chaque phase du cycle de vie de la cyberattaque, depuis les comportements initiaux de collecte d’informations et de planification d’un pirate jusqu’à l’exécution finale de l’attaque². Les informations contenues dans MITRE ATT&CK peuvent aider les équipes de sécurité à :

- Simuler avec précision des cyberattaques pour tester les cyberdéfenses.

- Créer des politiques de sécurité, des contrôles de sécurité et des plans de réponse aux incidents plus efficaces.

- Choisir et configurer les technologies de sécurité pour mieux détecter, éviter et atténuer les cybermenaces².

En outre, la taxonomie MITRE ATT&CK des tactiques, techniques et sous-techniques adverses établit un langage commun que les professionnels de la sécurité peuvent utiliser pour partager des informations sur les cybermenaces et collaborer à la prévention des menaces².

MITRE ATT&CK organise les tactiques et techniques (et les sous-techniques) adverses en matrices. Chaque matrice comprend des tactiques et des techniques correspondant aux attaques sur des domaines spécifiques².

Source : conversation avec Bing-Copilot, 22/10/2023

(1) Qu’est-ce que le framework MITRE ATT&CK - IBM. https://www.ibm.com/fr-fr/topics/mitre-attack

(2) MITRE ATT&CK®. https://attack.mitre.org/

(3) What is the MITRE ATT&CK Framework? | Rapid7. https://www.rapid7.com/fundamentals/mitre-attack/

(4) What is the Mitre Att&ck Framework? - ServiceNow. https://www.servicenow.com/products/security-operations/what-is-mitre-attack.html

(5) What is Mitre Att&ck Framework? - Definition - CyberArk. https://www.cyberark.com/what-is/mitre-attack/


MITRE ATT&CK®

MITRE ATT&CK® est une base de connaissances accessible à l'échelle mondiale qui répertorie les tactiques et techniques adverses basées sur des observations du monde réel. Cette base de connaissances sert de fondement pour le développement de modèles de menaces spécifiques et de méthodologies dans le secteur privé, le gouvernement et la communauté des produits et services de cybersécurité.

Avec la création d'ATT&CK, MITRE remplit sa mission de résoudre des problèmes pour un monde plus sûr en rassemblant des communautés pour développer une cybersécurité plus efficace. ATT&CK est ouvert et disponible à toute personne ou organisation pour une utilisation gratuite.

La matrice ATT&CK pour les entreprises :


Le framework MITRE ATT&CK peut être utilisé de plusieurs façons pour renforcer la cybersécurité de votre entreprise¹²⁴⁵⁶:


1. **Analyser les failles de sécurité et planifier des améliorations** : Vous pouvez utiliser le framework pour identifier les vulnérabilités de votre réseau et planifier des améliorations⁴.

2. **Renforcer la cyberveille** : Le framework vous aide à rester à jour avec les dernières tactiques, techniques et procédures (TTP) utilisées par les attaquants⁴.

3. **Accélérer le tri des alertes et l’investigation** : Il peut aider à améliorer la détection des menaces et la méthodologie d'investigation⁵.

4. **Créer des scénarios plus réalistes pour les exercices Red Team et les simulations d’attaque** : Vous pouvez utiliser le framework pour créer des simulations d'adversaires plus réalistes⁴.

5. **Tester vos règles de détection** : Il vous permet de tester vos règles de détection pour vous assurer que vous êtes alerté comme prévu⁵.


Pour mettre en œuvre le framework MITRE ATT&CK, vous pouvez suivre ces étapes²:


1. Évaluez les besoins spécifiques de votre organisation et choisissez les domaines prioritaires à aborder.

2. Sélectionnez les outils et technologies appropriés pour la collecte et l'analyse des données.

3. Formez vos équipes de cybersécurité pour qu'elles acquièrent une compréhension approfondie de chaque TTP.

4. Favorisez la collaboration entre les différentes équipes de votre organisation.


N'oubliez pas que le framework est en constante évolution et que les données qu'il contient sont tirées d'instances réelles⁶. Il est donc essentiel de rester à jour avec les dernières TTP utilisées par les attaquants.


Source : conversation avec Bing-Copilot, 22/10/2023

(1) Cadre MITRE ATT&CK : le guide complet - Varonis. https://www.varonis.com/fr/blog/mitre-attck-framework-complete-guide

(2) Comment Utiliser le Framework MITRE ATT&CK - Arsen Cybersécurité. https://arsen.co/blog/Utiliser-MITRE-ATTACK

(3) Qu'est-ce que le cadre MITRE ATT&CK ? - CrowdStrike. https://www.crowdstrike.fr/cybersecurity-101/mitre-attack-framework/

(4) Utilisez la matrice ATT&CK pour définir des scénarios d'attaque. https://openclassrooms.com/fr/courses/1750566-optimisez-la-securite-informatique-grace-au-monitoring/7145826-utilisez-la-matrice-att-ck-pour-definir-des-scenarios-dattaque

(5) MITRE ATT&CK : Quel intérêt pour les entreprises. https://blogs.manageengine.com/fr/2022/09/07/comment-les-entreprises-peuvent-elles-tirer-pleinement-profit-du-cadre-mitre-attck.html

(6) Utilisez la matrice ATT&CK pour définir des scénarios d'attaque. https://bing.com/search?q=Comment+utiliser+le+framework+ATT%26CK+pour+une+entreprise


Pour former vos équipes de cybersécurité à l'utilisation du framework MITRE ATT&CK, vous pouvez suivre les étapes suivantes¹²:


1. **Comprendre le framework** : Assurez-vous que votre équipe comprend bien le framework, ses objectifs et comment il fonctionne. Les matrices ATT&CK de MITRE sont une ressource précieuse pour les professionnels de la cybersécurité¹.

2. **Formation pratique** : Organisez des sessions de formation pratique pour permettre à votre équipe de se familiariser avec le framework. Cela peut inclure des exercices de simulation d'attaque et des études de cas².

3. **Utilisation d'un SIEM** : Les solutions SIEM (Security Information and Event Management) peuvent tirer parti du framework ATT&CK. Ce dernier classe les attaques par type et par étape, permettant ainsi à l'analyste d'identifier rapidement la position de l'attaque dans une tentative de compromission et de présenter clairement les résultats aux membres de l'équipe².

4. **Formation continue** : Comme le framework est constamment mis à jour avec de nouvelles tactiques et techniques, il est important d'assurer une formation continue pour que votre équipe reste à jour².


En outre, il existe des ressources en ligne, comme des blogs et des guides complets, qui peuvent aider votre équipe à comprendre et à utiliser efficacement le framework¹. Vous pouvez également envisager des sessions d'e-learning pour permettre à chaque membre de votre équipe de se former à son rythme³.

(1) Cadre MITRE ATT&CK : le guide complet - Varonis. https://www.varonis.com/fr/blog/mitre-attck-framework-complete-guide

(2) MITRE ATT&CK framework for attack communication - Logpoint. https://www.logpoint.com/fr/blog/framework-mitre-attck-ameliorer-communication-attaque/

(3) Cybersécurité : former les salariés, une nécessité I Stormshield. https://www.stormshield.com/fr/actus/lhumain-cle-de-la-cybersecurite-des-entreprises/


L'utilisation collaborative du framework ATT&CK présente plusieurs avantages, tels que²⁴:


- **Améliorer la compréhension des menaces** : Le framework permet de partager les connaissances sur les tactiques et techniques utilisées par les attaquants, ce qui facilite l'analyse et la prévention des attaques.

- **Renforcer la coordination des équipes** : Le framework fournit un langage commun et une structure standardisée pour communiquer et collaborer entre les différentes équipes de sécurité, comme les équipes Red Team et Blue Team.

- **Optimiser les technologies de sécurité** : Le framework aide à choisir et à configurer les outils et les solutions de sécurité les plus adaptés pour détecter et contrer les attaques, en se basant sur des scénarios réalistes.

(1) Framework MITRE ATT&CK : Une Révolution en Cyberdéfense. https://arsen.co/blog/Revolution-Cyberdefense-MITRE

(2) Présentation de MITRE ATT&CK, l'atout cybersécurité | LogPoint. https://www.logpoint.com/fr/blogg-sv/guide-logpoint-framework-mitre-att-ck/

(3) Cadre MITRE ATT&CK : le guide complet - Varonis. https://www.varonis.com/fr/blog/mitre-attck-framework-complete-guide

(4) Présentation de MITRE ATT&CK, l'atout cybersécurité | LogPoint. https://bing.com/search?q=avantages+d%5c%27une+utilisation+collaborative+du+framework+ATT%26CK

(5) Tour d’horizon du framework MITRE ATT&CK - Advens. https://www.advens.fr/article/horizon-framework-mitre-attck/


L’engagement de MITRE dans le domaine de l’intelligence artificielle (IA). 

Fort de ses 65 ans d’expérience en tant que conseiller de confiance, MITRE vise à catalyser l’utilisation conséquente de l’IA dans tous les secteurs, pour tous les gens. Ils cherchent à anticiper et à relever les défis nationaux de l’IA en connectant proactivement le gouvernement, l’industrie, le monde universitaire et les alliés internationaux. Pour ce faire, ils appliquent leurs capacités techniques à travers MITRE Labs, leur Centre d’Innovation en Intelligence Artificielle et Autonomie, la recherche indépendante, les collaborations stratégiques et les six centres de R&D financés par le gouvernement fédéral qu’ils exploitent1. Leurs travaux informent le développement de systèmes sécurisés et assurés activés par l’IA pour leurs sponsors, leur nation et le public. Les principaux objectifs sont de catalyser l’utilisation conséquente de l’IA, d’extraire la valeur maximale de l’IA tout en protégeant la société contre les risques inacceptables, de diminuer la surprise technologique et de maintenir le leadership des États-Unis dans l’innovation en IA.


MITRE est une entreprise unique qui a été créée pour faire progresser la sécurité nationale de nouvelles manières et servir l’intérêt public en tant que conseiller indépendant1. Ils continuent de tenir cette promesse en appliquant leur approche de la pensée systémique pour fournir des solutions qui améliorent notre sécurité nationale et notre mode de vie. Leur personnel, motivé par l’impact, découvre de nouvelles possibilités, crée des opportunités inattendues et mène en tant que pionniers pour le bien public2. Même si vous ne connaissez pas leur nom, vous avez ressenti leur impact. Au cours de leurs plus de 60 ans de catalyse et de maintien du changement, ils n’ont jamais perdu de vue le facteur humain derrière chaque système complexe et solution innovante.


--- 
 Pierre Erol GIRAUDY 


dimanche 8 octobre 2023

Se préparer pour Microsoft 365 Copilot.

Comment se préparer pour Microsoft 365 Copilot.


Préparez votre organisation à :

Microsoft 365 #Copilot c'est un outil de productivité basé sur l'IA qui utilise des modèles de langage étendus (LLM) et intègre vos données aux applications #Microsoft #Graph et Microsoft 365. 

Il fonctionne avec les applications Microsoft 365 populaires telles que Word, Excel, PowerPoint, Outlook et #Teams. Copilot fournit une assistance intelligente en temps réel, permettant aux utilisateurs d'améliorer leur créativité, leur productivité et leurs compétences.

Conditions préalables pour Microsoft 365 Copilot

Avant de pouvoir accéder à Copilot, vous devez remplir les conditions suivantes :

  • Applications Microsoft 365 pour les entreprises . L'intégration de Microsoft 365 Copilot nécessite les principales applications de productivité Office telles que Word, Excel, PowerPoint et Outlook. Les organisations doivent déployer les dernières versions d'entreprise connectées au cloud sur tous les appareils des employés. Ils doivent maintenir les applications à jour pour activer toutes les capacités de Copilot à mesure qu'elles évoluent. Par exemple, Copilot peut suggérer des modifications de contenu directement dans les documents Word. L'installation locale des applications Office garantit une intégration étroite. 

     Note

    Les utilisateurs doivent disposer de Microsoft 365 E3 ou E5 pour Entreprise ou Microsoft 365 Business Standard ou Business Premium comme licences de base pour obtenir Microsoft 365 Copilot en tant que module complémentaire.

  • Compte basé sur Microsoft Entra. Chaque employé utilisant Copilot doit disposer d'un compte Microsoft Entra pour s'authentifier. Cette conception garantit que tous les utilisateurs se connectent à l'aide des informations d'identification Microsoft Entra. Les anciens comptes locaux qui ne peuvent pas s'authentifier auprès du cloud limitent la fonctionnalité Copilot. Pour en savoir plus, consultez Microsoft Entra ID.

     Note

    Azure Active Directory (Azure AD) est désormais Microsoft Entra ID. En savoir plus.

  • Comptes OneDrive . L'intégration de Copilot avec les comptes d'entreprise #OneDrive lui permet de collaborer sur le contenu. Vous devriez envisager de fournir 1 To de OneDrive à chaque utilisateur. Pour plus d’informations, consultez Se connecter ou créer un compte pour OneDrive.

  • TEAMS.

  • Nouvel Outlook pour Windows. Pour obtenir les suggestions interactives de Copilot dans la messagerie Outlook, installez la dernière version d'aperçu du bureau #Outlook. La nouvelle version permet l'intégration de Copilot au fur et à mesure de son évolution. Pour plus d’informations, consultez Démarrage avec le nouveau Outlook pour Windows.

  • TEAMS Microsoft. Utilisez le bureau ou l’application Web Teams pour activer Copilot dans les discussions, réunions et canaux Teams. Les utilisateurs mobiles uniquement ont des fonctionnalités limitées. Vous pouvez télécharger le client de bureau ici ou vous connecter à l'application Web. Copilot prend en charge à la fois la version actuelle et la nouvelle version de Teams. Pour plus d’informations, consultez Microsoft Copilot dans Teams.

  • LOOP Microsoft. Activez #Loop dans votre locataire pour intégrer Copilot dans les canevas collaboratifs Loop. Cela alimente les scénarios de productivité de groupe de nouvelle génération. Pour plus d'informations sur l'activation de Loop, consultez Copilot in Loop.

Pour mettre pleinement en œuvre les fonctionnalités de Microsoft 365 Copilot, l’équipe informatique d’une organisation doit s’assurer que l’entreprise répond aux conditions préalables clés suivantes avant un déploiement plus large :

  • Windows 11. Windows 11 offre la meilleure expérience pour Microsoft 365 Copilot. Les organisations devraient envisager de mettre à niveau les appareils éligibles vers Windows 11 pour activer la fonctionnalité complète de Copilot.



  • Licences Microsoft 365 basées sur le cloud. Copilot s'intègre profondément aux services cloud Microsoft 365. À ce titre, les organisations doivent s’assurer que tous les utilisateurs disposent de licences Microsoft 365 basées sur le cloud plutôt que d’anciennes licences sur site. Les licences connectées au cloud donnent accès aux dernières fonctionnalités de l'entreprise.

     Note

    Les organisations doivent disposer d'abonnements Microsoft 365 E3 ou E5 pour Entreprise ou Microsoft 365 Business Standard ou Business Premium pour obtenir Copilot en tant que module complémentaire.

  • Formation des utilisateurs finaux. Les organisations doivent s'assurer que leurs utilisateurs comprennent les capacités de Copilot pour définir les attentes appropriées des utilisateurs. Ils doivent développer du matériel de formation et des FAQ pour informer les utilisateurs sur la meilleure façon de travailler avec Copilot. Ils doivent également collecter et développer des ressources de formation pour informer les utilisateurs finaux sur la manière de bénéficier des suggestions de Copilot. Définir les attentes dès le départ est essentiel pour favoriser l’adoption par les utilisateurs. Ils devraient également envisager de proposer des incitations pour suivre la formation Copilot. Pour plus d’informations, consultez Microsoft 365 Copilot - Adoption Microsoft.

  • Préparation du service d'assistance. Préparez les équipes du support technique à se familiariser avec l’IA. Cela se traduit par un meilleur support client et inspire confiance dans l’équipe du #Helpdesk. La formation précoce du personnel de l'Helpdesk permet également de l'investir dans le succès de l'adoption de Copilot. Lorsque les équipes de l'Helpdesk comprennent Copilot, elles peuvent répondre aux questions, résoudre les problèmes et guider les clients plus efficacement, ce qui conduit à une meilleure satisfaction client.


Préparer le lancement de Copilot

En tant qu'administrateur déployant Microsoft 365 Copilot dans votre organisation, vous jouez un rôle clé pour garantir son adoption réussie. Voici quelques bonnes pratiques pour optimiser Copilot et aider vos utilisateurs à tirer le meilleur parti :

  • Surveiller l'utilisation et les commentaires. Gardez une trace de l’ampleur avec laquelle les utilisateurs utilisent Copilot au sein de votre organisation. 
    • Recherchez des équipes ou des individus qui sont des utilisateurs précoces et peuvent fournir des commentaires utiles et peuvent aider à promouvoir l'adoption de Copilot auprès de leurs collègues. 
    • Solliciter les commentaires des utilisateurs sur les suggestions de Copilot. 
      • Était-ce utile ? 
      • A-t-il manqué des contextes clés ? 
      • Ce type de feedback peut vous aider à améliorer la formation des utilisateurs.
  • Identifiez les équipes ou les individus des premiers utilisateurs pour piloter Copilot et fournir des commentaires. Les organisations devraient envisager d'utiliser un plan de déploiement structuré qui inclut une bonne gestion du changement. 
    • Par exemple, lors du déploiement de Copilot, vous pouvez envisager de le lancer d'abord dans un groupe pilote limité. Cela vous permet de recueillir des commentaires, d'évaluer la valeur et d'optimiser les configurations avant un déploiement plus large. 
    • Vous pouvez ensuite adapter son utilisation et la personnaliser pour davantage d'équipes une fois que le pilote aura démontré les résultats. Recrutez du personnel informatique, des assistants administratifs, des représentants du service client et d'autres utilisateurs fréquents d'Office pour être les premiers à essayer Copilot et à partager leur expérience. 
    • Leur contribution peut aider à orienter le déploiement organisationnel plus large. Pour plus d’informations, consultez l’aide et l’apprentissage de Microsoft AI et Démarrez avec Microsoft 365 Copilot 
  • Évaluez la sécurité avec diligence. Il est important que les organisations utilisent les modèles d’autorisation disponibles dans les services Microsoft 365 pour garantir que les bons utilisateurs ou groupes ont le bon accès au bon contenu. 
    • Microsoft fournit de puissants outils de sécurité au sein de ses écosystèmes Microsoft 365 et Azure pour aider les organisations à renforcer les autorisations et à mettre en œuvre « un accès juste suffisant ». 
    • Les stratégies et paramètres définis par les administrateurs dans ces outils sont utilisés non seulement par Microsoft 365 et Azure pour empêcher le partage excessif des données, mais également par Microsoft 365 Copilot. 
    • Les administrateurs doivent vérifier les pratiques de sécurité de leur organisation en ce qui concerne les autorisations, l'étiquetage de sensibilité et l'accès aux données afin d'éviter un partage excessif potentiel de données commerciales propriétaires et sensibles.

L'optimisation de Copilot nécessite une supervision continue, une collecte de commentaires et une configuration au fur et à mesure de son apprentissage. 

En prenant des mesures proactives pour se préparer, les organisations peuvent garantir un déploiement fluide de Copilot. 

Ils peuvent également réaliser immédiatement des gains de productivité lorsqu’ils lancent Copilot.



Préparez vos données pour les recherches Copilot.

Pour vous préparer à Copilot, vous devez organiser vos données pour la recherche. Si votre organisation a déjà mis en place des contrôles d'accès et des politiques appropriées pour ses informations, les utilisateurs ne verront que les données auxquelles ils ont accès lors de leurs recherches, ce qui constitue un avantage.

Si votre organisation n'a pas encore mis en place de tels contrôles, il existe des outils et des mesures que vous pouvez prendre pour comprendre comment vos données sont partagées. Vous pouvez automatiser des contrôles pour garantir un accès adéquat et éviter la divulgation excessive de données avant de déployer Microsoft 365 Copilot. En somme, la préparation des données pour Copilot suit les mêmes principes que la préparation pour la recherche, car Copilot ne récupère que les données auxquelles chaque utilisateur a explicitement accès.

Protégez vos données Copilot avec les outils de sécurité Microsoft 365 et Azure.

De nombreuses organisations sont préoccupées par le partage excessif d'informations internes ou personnelles par leurs utilisateurs, ce qui peut entraîner un accès inapproprié à des données sensibles. Microsoft propose des outils de sécurité puissants au sein de Microsoft 365 et Azure pour aider les organisations à renforcer les autorisations et à mettre en place un principe d'"accès juste suffisant". Ces outils permettent aux administrateurs de définir des politiques et des paramètres pour limiter le partage excessif des données.

Ces pratiques de sécurité sont essentielles non seulement pour Microsoft 365 et Azure, mais aussi pour Microsoft 365 Copilot, qui risque d'exposer des données confidentielles à l'IA en cas de partage excessif. Microsoft recommande l'approche de "juste assez d'accès", où chaque utilisateur n'a accès qu'aux informations strictement nécessaires à son travail, grâce à un contrôle rigoureux des autorisations pour éviter l'accès à des documents ou données inappropriés.

Attribuez vos licences Microsoft 365 Copilot.

Créer un centre d'excellence copilote et définir sa mission.

Mesurer les progrès et l’impact du Copilot.


Activer les fonctionnalités Copilot dans le service client (préversion) | Microsoft #LEARN.

Vous avez ici un aperçu de ce que sera COPILOT pour MICROSOFT 365.






Les informations contenues dans ce module s'appliquent au programme d'accès anticipé Microsoft 365 Copilot, un programme de préversion payant sur invitation uniquement destiné aux clients commerciaux. Les détails sont susceptibles de changer à mesure que le copilote devient généralement disponible.

MS-012 Préparez votre organisation pour Microsoft 365 Copilot

Ce parcours d'apprentissage examine la conception de Microsoft 365 Copilot, ainsi que ses fonctionnalités de sécurité et de conformité, et fournit des instructions sur la façon de mettre en œuvre Microsoft 365 Copilot.


Get ready for Microsoft 365 Copilot - Training | Microsoft Learn


Prepare for Microsoft 365 Copilot: Part 1 – Copilot design and prerequisites - Training | Microsoft Learn

Intelligence artificielle | UNESCO 


Comment exploiter le potentiel de l’IA tout en veillant à ce qu’elle n’exacerbe pas les inégalités et les préjugés existants, voire n’en crée pas de nouveaux ? Certains principes éthiques semblent être universellement acceptés, tels que la vie privée, l’égalité et l’inclusion. Cependant, comment pouvons-nous traduire ces principes en pratiques concrètes ?

La cinquième de la série de vidéos sur l’éthique de l’IA, intitulée « Défis et gouvernance », qui donne un aperçu des tendances actuelles en matière de réglementation de l’IA dans différentes régions et discute des questions éthiques clés pour établir des systèmes de réglementation équitables et inclusifs au niveau mondial, est maintenant disponible avec des sous-titres en anglais, français, japonais et autres langues.   https://chat.openai.com/share/c8512006-f1ef-47ac-bc04-ea1261579f1c

Voir également

Introduction à Customer Service Insights
Copilot déplacement des données entre zones géographiques
Configurer un modèle de recherche de compétences intelligent
Avant de créer un modèle de classification de catégories - AI Builder
Activer les suggestions d'IA pour des cas similaires et des articles de connaissances
Configurer les suggestions d'IA pour les contacts dans Microsoft Teams
Configurer le regroupement de sujets d'IA pour les conversations
Configurer Suggestions d'IA pour les mots-clés et la description des articles


Pour démarrer le processus de mise en œuvre, consultez :

Le Guide de déploiement des applications Microsoft 365.

https://learn.microsoft.com/en-us/deployoffice/deployment-guide-microsoft-365-apps

https://learn.microsoft.com/fr-fr/training/paths/prepare-your-organization-microsoft-365-copilot/

https://adoption.microsoft.com/fr-fr/copilot/


--- 
 Pierre Erol GIRAUDY