Translate

jeudi 14 novembre 2024

L'administration de LLAMA 3.2 version 0.4.1 Prompts, RAG,

Le répertoire "gérer les connaissances" dans l'administration de Llama est un outil très pratique pour optimiser l'utilisation de votre modèle de langage.

Voir ma vidéo sur ce sujet :

Fonctionnalité principale :

  • Stockage de fichiers PDF : Ce répertoire sert à centraliser vos documents PDF. Il peut s'agir de manuels, de rapports, d'articles de recherche, ou de tout autre document que vous souhaiteriez rendre accessible à votre modèle.

  • Création de prompts personnalisés : Une fois vos fichiers PDF stockés, vous pouvez créer des prompts spécifiques pour interroger le contenu de ces documents. Par exemple, vous pourriez demander au modèle de résumer un chapitre particulier, de répondre à une question précise, ou de comparer différentes sections.

Avantages de cette fonctionnalité :

  • Amélioration de la précision des réponses : En fournissant au modèle un accès direct à des informations spécifiques, vous augmentez considérablement la précision de ses réponses.

  • Gain de temps : Plus besoin de rechercher manuellement les informations dans vos documents. Le modèle peut le faire pour vous, en quelques secondes.

  • Personnalisation : Vous pouvez adapter les prompts en fonction de vos besoins spécifiques, ce qui vous permet d'extraire les informations les plus pertinentes de vos documents.

Comment cela fonctionne (généralement) :

  1. Envoi du prompt : Lorsque vous envoyez un prompt, Ollama va chercher dans les fichiers PDF associés si elle trouve des informations pertinentes.

  2. Traitement des informations : Le modèle traite les informations trouvées et génère une réponse cohérente et informative.

  3. Retour de la réponse : La réponse est ensuite renvoyée à l'utilisateur.

Quelques exemples d'utilisation :

  • Support client : Vous pouvez stocker la base de connaissances de votre entreprise dans ce répertoire pour permettre à votre modèle de répondre aux questions des clients de manière plus précise et rapide.

  • Recherche et développement : Les chercheurs peuvent utiliser cette fonctionnalité pour accéder rapidement à des articles scientifiques et à des données expérimentales.

  • Formation : Les entreprises peuvent créer des bases de connaissances pour former leurs employés sur des sujets spécifiques.

Points à considérer :

  • Qualité des documents : La qualité des réponses dépend en grande partie de la qualité des documents que vous stockez. Assurez-vous que les PDF sont bien structurés et contiennent des informations pertinentes.

  • Complexité des prompts : Plus vos prompts seront précis et détaillés, meilleures seront les réponses que vous obtiendrez.

  • Taille des fichiers : La taille des fichiers PDF peut avoir un impact sur les performances du modèle.

En résumé, le répertoire "gérer les connaissances" est un outil puissant qui vous permet de transformer votre modèle de langage en une véritable source d'informations personnalisée. En exploitant au mieux cette fonctionnalité, vous pourrez améliorer considérablement votre productivité et la qualité de votre travail.

Version OLLAMA 0.4.1

Les prompts

Le répertoire "gérer les prompts" est un outil très pratique dans l'administration de Llama 3.2, conçu pour optimiser votre utilisation des prompts.

À quoi sert ce répertoire ?

  • Stockage centralisé: Ce répertoire vous permet de stocker tous vos prompts dans un seul endroit, ce qui facilite leur organisation et leur réutilisation.

  • Modélisation de prompts: Vous pouvez créer des modèles de prompts en y incluant des variables ou des placeholders. Ces modèles peuvent ensuite être personnalisés rapidement pour générer différents types de prompts.

  • Gestion de versions: Il est possible de conserver différentes versions d'un même prompt, ce qui est utile pour expérimenter et comparer les résultats.

  • Partage: En fonction de la configuration de votre système, vous pouvez potentiellement partager ces prompts avec d'autres utilisateurs ou applications.

Comment fonctionne-t-il ?

Le fonctionnement exact peut varier légèrement selon l'implémentation spécifique de Llama 3.2 que vous utilisez. Cependant, voici généralement les étapes impliquées :

  1. Création de prompts: Vous créez de nouveaux prompts et les enregistrez dans le répertoire.

  2. Modélisation: Vous pouvez utiliser des variables ou des placeholders dans vos prompts pour les rendre plus flexibles. Par exemple, vous pourriez créer un modèle de prompt pour générer des résumés d'articles, en utilisant une variable pour spécifier le nom de l'article.

  3. Utilisation des prompts: Lorsque vous souhaitez générer du texte, vous sélectionnez le prompt approprié et fournissez les valeurs nécessaires pour les variables. Llama 3.2 utilisera alors ce prompt comme point de départ pour générer le texte.


Quels sont les avantages ?

  • Gain de temps: En évitant de retaper les mêmes prompts à chaque fois, vous gagnez un temps précieux.

  • Cohérence: En utilisant des modèles de prompts, vous assurez une cohérence dans la formulation de vos requêtes.

  • Flexibilité: Les variables vous permettent de personnaliser facilement vos prompts pour différentes situations.

  • Reproductibilité: En conservant différentes versions de vos prompts, vous pouvez reproduire les résultats de vos expériences précédentes.

Quelques exemples d'utilisation:

  • Création de jeux de données: Vous pouvez générer de grandes quantités de données d'entraînement en utilisant des modèles de prompts.

  • Automatisation de tâches: Vous pouvez automatiser certaines tâches en utilisant des scripts qui appellent des prompts préenregistrés.

  • Expérimentation: Vous pouvez facilement tester différentes formulations de prompts pour voir quel est l'impact sur les résultats.

Plusieurs exemples de prompts pour LLAMA

Je vais vous fournir plusieurs exemples de prompts efficaces pour la lecture de documents via Ollama. Ces prompts sont structurés par catégorie d'utilisation :

  1. Prompts pour l'Analyse Générale du Document

textCopy"Voici un document [type de document]. Merci de :
1. Faire un résumé des points principaux
2. Identifier les thèmes clés
3. Lister les informations essentielles
4. Proposer une synthèse en 3 paragraphes"
  1. Prompts pour l'Extraction d'Informations Spécifiques

textCopy"Dans ce document, peux-tu :
- Extraire toutes les dates importantes
- Identifier les personnes mentionnées
- Lister les chiffres clés
- Repérer les décisions principales"
  1. Prompts pour l'Analyse Détaillée

textCopy"Analyse ce document selon les critères suivants :
1. Contexte et objectif
2. Méthodologie utilisée
3. Résultats présentés
4. Conclusions et recommandations
5. Points d'attention particuliers"
  1. Prompts pour la Comparaison de Sections

textCopy"Pour ce document :
1. Compare l'introduction et la conclusion
2. Identifie les contradictions éventuelles
3. Souligne les évolutions d'argumentation
4. Mets en évidence les points de cohérence"
  1. Prompts pour l'Analyse Critique

textCopy"Examine ce document de manière critique :
1. Quels sont les arguments les plus solides ?
2. Y a-t-il des lacunes dans le raisonnement ?
3. Les sources citées sont-elles pertinentes ?
4. Quelles sont les limites de l'analyse présentée ?"
  1. Prompts pour la Synthèse et Recommandations

textCopy"À partir de ce document :
1. Établis une synthèse en 500 mots
2. Propose 3-5 recommandations principales
3. Identifie les points nécessitant plus d'approfondissement
4. Suggère des axes d'amélioration"
  1. Prompts pour l'Extraction de Données Techniques

textCopy"Dans ce document technique :
1. Liste tous les paramètres techniques mentionnés
2. Extrais les spécifications importantes
3. Identifie les protocoles ou procédures
4. Résume les aspects méthodologiques"
  1. Prompts pour la Vérification de Conformité

textCopy"Analyse ce document pour vérifier :
1. La conformité aux normes mentionnées
2. Le respect des procédures standard
3. La présence des éléments obligatoires
4. Les potentielles non-conformités"
  1. Prompts pour l'Analyse de Format et Structure

textCopy"Examine la structure du document :
1. Évalue l'organisation des sections
2. Vérifie la cohérence du formatage
3. Identifie les éléments manquants
4. Suggère des améliorations de présentation"
  1. Prompts pour la Création de Résumés Exécutifs

textCopy"Crée un résumé exécutif incluant :
1. Les 3 messages clés
2. Les décisions importantes
3. Les actions requises
4. Les délais mentionnés
5. Les parties prenantes impliquées"

Conseils d'Utilisation :

  1. Adaptez le Niveau de Détail :

textCopy"Analyse ce document avec un niveau de détail [basique/intermédiaire/approfondi]"
  1. Spécifiez le Format de Réponse :

textCopy"Présente les résultats sous forme de :
- Liste à puces
- Tableau
- Paragraphes structurés
- Points numérotés"
  1. Demandez des Clarifications :

textCopy"Si certains points sont ambigus :
1. Identifie-les
2. Propose des interprétations possibles
3. Suggère des questions de clarification"
  1. Pour les Documents Techniques :

textCopy"Pour chaque section technique :
1. Extrais les formules/équations
2. Liste les variables utilisées
3. Explique les calculs présentés
4. Identifie les hypothèses"

Ces prompts peuvent être combinés ou modifiés selon vos besoins spécifiques. L'important est d'être précis dans vos demandes et de structurer vos questions de manière claire et logique.

Paramétrage du prompt

Détail du prompt

Pour aller plus loin, je vous recommande de consulter la documentation officielle d'Ollama. Elle vous fournira des informations plus détaillées sur les fonctionnalités spécifiques de cette option, ainsi que des exemples concrets d'utilisation.


Un autre exemple de prompt système :

Voici un prompt système détaillé pour guider un modèle de langage dans la création de prompts système efficaces, basé sur les directives fournies :

Générez un prompt système détaillé et structuré pour guider un modèle de langage dans l'exécution efficace d'une tâche spécifique, en vous basant sur une description ou un prompt existant. Votre prompt doit être clair, concis et optimisé pour obtenir les meilleurs résultats possibles.

Suivez ces étapes pour créer le prompt :

1. Analysez soigneusement la description de la tâche ou le prompt existant pour identifier :

- L'objectif principal

- Les buts spécifiques

- Les exigences et contraintes

- Le résultat attendu

2. Structurez le prompt en sections clairement définies :

- Instruction principale concise (première ligne, sans en-tête)

- Contexte et détails supplémentaires

- Étapes ou directives spécifiques (si nécessaire)

- Format de sortie requis

- Exemples (si approprié)

- Notes ou considérations importantes

3. Appliquez ces principes clés :

- Privilégiez la clarté et la concision

- Encouragez le raisonnement étape par étape avant les conclusions

- Préservez le contenu original de l'utilisateur autant que possible

- Incluez des constantes pertinentes directement dans le prompt

- Utilisez le formatage Markdown pour améliorer la lisibilité

4. Déterminez l'ordre optimal pour le raisonnement et les conclusions :

- Identifiez explicitement les parties de raisonnement et de conclusion

- Assurez-vous que les conclusions, classifications ou résultats apparaissent en dernier

- Inversez l'ordre si les exemples fournis le justifient

5. Spécifiez clairement le format de sortie attendu :

- Détaillez la structure, la longueur et la syntaxe requises

- Privilégiez le format JSON pour les données structurées

- Évitez d'envelopper le JSON dans des blocs de code, sauf demande explicite

6. Si des exemples sont nécessaires :

- Fournissez 1 à 3 exemples de haute qualité

- Utilisez des espaces réservés [entre crochets] pour les éléments complexes

- Indiquez clairement le début et la fin de chaque exemple

- Si les exemples sont simplifiés, expliquez comment les exemples réels diffèrent

7. Incluez une section "Notes" si nécessaire :

- Mentionnez les cas limites importants

- Rappelez les considérations cruciales

- Fournissez des conseils supplémentaires pour optimiser les résultats

Format de sortie :

Présentez le prompt système généré sous forme de texte structuré en Markdown, avec des sections clairement définies et numérotées si nécessaire. N'utilisez pas de blocs de code, sauf si spécifiquement demandé. La longueur totale du prompt doit être adaptée à la complexité de la tâche, généralement entre 200 et 500 mots.

Exemple :

Voici un exemple simplifié de prompt système pour une tâche de classification de sentiments :

Classifiez le sentiment du texte fourni en tant que positif, négatif ou neutre. Analysez soigneusement le langage, le contexte et les nuances avant de conclure.

Étapes :

1. Identifiez les mots et phrases clés indiquant un sentiment

2. Évaluez le ton général et le contexte du texte

3. Considérez les nuances, l'ironie ou le sarcasme potentiels

4. Déterminez le sentiment global en fonction de votre analyse

Format de sortie :

Fournissez votre réponse au format JSON avec les champs suivants :

- sentiment : la classification finale (positif, négatif ou neutre)

- confidence : un score de confiance entre 0 et 1

- key_phrases : un tableau des phrases clés ayant influencé votre décision

Exemple :

Entrée : "Le nouveau restaurant était correct, mais le service était lent."

Sortie :

{

"sentiment": "neutre",

"confidence": 0.7,

"key_phrases": ["correct", "service était lent"]

}

Notes :

- Soyez attentif aux expressions idiomatiques qui peuvent influencer le sentiment

- En cas d'ambiguïté, privilégiez une classification neutre avec une confiance plus basse

(Note : Dans un cas réel, l'exemple serait plus long et complexe, avec potentiellement plusieurs exemples pour illustrer différents cas.)

Anthropic's Interactive Prompt Engineering Tutorial

https://github.com/anthropics/prompt-eng-interactive-tutorial


Je n'aborde pas la gouvernance de l'IA dans cet article voir sur ce sujet :

https://prezi.com/v/view/KaRozPZ4FRMSimPAm34s/

GOUVERNANCES.: La gouvernance

https://gouver2020.blogspot.com/2024/11/la-gouvernance.html



meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 

Nous allons voir ensuite comment utiliser l'API de Claude / Anthropic dans OLLAMA, dans un autre article.


--- 
 Pierre Erol GIRAUDY 



mercredi 13 novembre 2024

An Overview of Copilot in Microsoft Clarity

Aperçu de Copilot dans Microsoft Clarity




Copilot in Microsoft Clarity is an advanced feature that leverages generative AI to provide actionable insights and summaries from your data. It simplifies the process of analyzing large amounts of data by transforming it into easy-to-understand, actionable insights. Discover how to:

-Get automatic summaries of session recordings with key events and traffic sources.
-Review grouped session insights for an overview of user actions.
-Summarize heatmap data across different devices effortlessly.
-Use Copilot Chat to ask questions and get instant recommendations.
-Watch now to see how Copilot simplifies data analysis and helps you make smarter decisions faster!

For more details visit: https://aka.ms/clarity-copilotvideo

https://www.linkedin.com/company/microsoft-clarity/

 "Aperçu de Copilot dans Microsoft Clarity" :

(00:04) Introduction par un ingénieur logiciel senior de Microsoft, expliquant les fonctionnalités de Copilot dans Clarity, un outil qui utilise l'IA générative pour transformer de grands ensembles de données en insights en langage naturel pour des sites web ou applications.

Fonctionnalités principales :

Session Insights : Résume les enregistrements de sessions utilisateur, en mettant en évidence les événements, les sources de trafic et l'intention des utilisateurs. Permet de sauter aux moments importants grâce à des horodatages.
Group Session Insights : Fournit une vue d'ensemble des actions des utilisateurs sur plusieurs enregistrements, en indiquant les succès ou les échecs avec des liens vers des sessions spécifiques.
Accès aux Session Insights : Accessible via l'onglet "enregistrements" ; options pour un résumé d'une seule session ou de plusieurs sessions (top 10 ou sélection personnalisée).

Heat Map Insights : Résume les cartes de chaleur des clics et défilements pour chaque type d'appareil, permettant un gain de temps en consolidant les insights au lieu d'une analyse manuelle.

Copilot Chat : Permet aux utilisateurs de poser des questions, d'obtenir des recommandations et de générer des tableaux ou rapports directement sur le tableau de bord. Les filtres et prompts peuvent ajuster les réponses pour des vues de données spécifiques.

Prompt Library : Propose des prompts courants pour guider les utilisateurs dans Copilot Chat, améliorant la facilité d'utilisation.

Conseils de navigation : Fonctions d'accès rapide incluant des liens hybrides pour les cartes de chaleur, des sélections spécifiques de sessions et des interactions avec le tableau de bord pour des insights simplifiés.

Conclusion : 

#MicrosoftClarity #AIInsights #WebAnalytics #DataMadeEasy #ClarityTutorial

La gouvernance

Le terme « gouvernance » décrit le processus général d’établissement des règles et des stratégies. 

Exemple sur LLAMA.

La gouvernance garantit que ces règles et stratégies sont appliquées.

Une bonne stratégie de gouvernance vous aide à garder le contrôle sur les applications et les ressources que vous y gérez. Garder le contrôle sur votre environnement vous permet de garantir la conformité aux normes suivantes :
  • Les normes du secteur, comme la gestion de la sécurité des informations.
  • Normes de l’entreprise ou de l’organisation, comme la vérification du chiffrement des données réseau.
  • La gouvernance est le plus bénéfique dans les contextes suivants :
  • Vous avez plusieurs équipes d’ingénieurs qui travaillent avec vous.
  • Vous avez plusieurs abonnements à gérer.
  • Vous avez des exigences réglementaires qui doivent être appliquées.
  • Vous avez des normes qui doivent être suivies pour toutes les ressources (cloud et serveurs).
La gouvernance implique la détermination de vos besoins, la planification de vos initiatives et la définition de priorités stratégiques.

Tenez compte des besoins d’accès pour chaque utilisateur. 

Lorsque vous planifiez votre stratégie de contrôle d’accès, il est conseillé d’accorder aux utilisateurs le privilège minimum dont ils ont besoin pour effectuer leur travail. Cette méthode facilite la séparation des responsabilités entre les membres de l’équipe. En limitant les rôles et les étendues, vous limitez les ressources à risque en cas de compromission d’un principal de sécurité. 

Vous pouvez créer un diagramme comme l’exemple suivant pour vous aider à planifier vos rôles Azure RBAC pour Tailwind Traders.



La gouvernance de l'IA en 2024.

Structure de la gouvernance pour l'implantation de l'IA avec LLAMA.

1. Comité Stratégique (CODIR)

Composition
- Direction Générale
- Direction des Systèmes d'Information (CIO)
- Direction des Opérations (COO)
- Direction des Ressources Humaines
- Direction Financière
- Responsable de la Transformation Digitale
- Responsable Éthique IA

Responsabilités
- Définition de la vision stratégique
- Allocation des ressources
- Validation des grandes orientations
- Suivi des KPIs stratégiques
- Arbitrage des décisions majeures
- Supervision des enjeux éthiques liés à l'IA
- Validation des cas d'usage

2. Équipe de Pilotage Opérationnel


Composition
- Chef de Projet IA (Chef d'orchestre)
- Responsable Sécurité des Systèmes d'Information
- Expert en LLM et prompt engineering
- Représentant RH
- Responsable Qualité
- Responsable Formation
- Médiateur Professionnel référent

Responsabilités
- Coordination générale du déploiement
- Suivi du planning et des objectifs
- Gestion des risques et de la sécurité des données
- Reporting au Comité Stratégique
- Supervision des différentes équipes opérationnelles
- Validation technique des cas d'usage
- Contrôle de la qualité des prompts et des résultats

3. Dispositif de Qualité Relationnelle (DQR)

Objectif principal
Garantir une implantation harmonieuse et gérer les impacts humains
Éléments clés

Médiation professionnelle
Diagnostics avec des outils spécifiques
Gestion des conflits
Accompagnement du changement
Suivi de la satisfaction

Points de vigilance

Qualité des relations
Résistance au changement
Bien-être au travail
Cohésion d'équipe

4. Communautés Relais

A. Relais Techniques
Composition
- Experts en prompt engineering
- Data scientists
- Ingénieurs MLOps
- Support technique IA

Responsabilités
- Formation sur l'utilisation de LLAMA
- Optimisation des prompts
- Documentation des bonnes pratiques
- Remontée des besoins techniques
- Monitoring des performances du modèle

B. Champions et Ambassadeurs
Composition
- Utilisateurs avancés volontaires
- Leaders d'opinion identifiés
- Représentants des différents services
- Experts métier

Responsabilités
- Promotion des cas d'usage pertinents
- Animation de communautés d'utilisateurs
- Partage de bonnes pratiques
- Feedback sur l'adoption
- Identification de nouveaux cas d'usage

C. Power Users
Composition
- Développeurs IA
- Experts en intégration
- Spécialistes métier
- Experts en automatisation

Responsabilités
- Développement de solutions basées sur LLAMA
- Test des fonctionnalités avancées
- Formation des utilisateurs avancés
- Innovation et optimisation
- Création de prompts personnalisés

voir mes deux articles et vidéos : 

Les modèles de vision Meta Llama 3.2 (11B et 90B) sont maintenant disponibles.

ETHIQUE G-IA Processus d’implantation d'une IA générative responsable

5. Cellule Support et Accompagnement

Composition
- Équipe support technique IA
- Formateurs spécialisés en IA
- Experts métier
- Chargés de communication
- Spécialistes en éthique de l'IA

Responsabilités
- Support quotidien aux utilisateurs
- Organisation des formations
- Production de contenus pédagogiques
- Communication interne
- Veille sur les enjeux éthiques
- Supervision des biais potentiels

6. Groupe de Travail Qualité et Amélioration Continue

Composition
- Responsable qualité
- Data analysts
- Experts en évaluation de LLM
- Représentants des communautés relais
- Experts métier

Responsabilités
- Suivi des indicateurs de performance
- Analyse des résultats du modèle
- Détection et correction des biais
- Propositions d'amélioration
- Mise à jour des processus
- Évaluation continue de la qualité des réponses

Mécanismes de Coordination

1. Réunions et Reporting
[Section inchangée]

2. Outils de Suivi
- Tableau de bord des KPIs
- Plateforme de monitoring des performances IA
- Système de suivi des tickets
- Base de connaissances des prompts efficaces
- Outils de feedback utilisateurs
- Système de tracking des biais et erreurs

3. Documentation
- Procédures standardisées
- Guides d'utilisation de LLAMA
- Référentiels de bonnes pratiques en prompt engineering
- Rapports d'avancement
- Documentation des cas d'usage
- Guide éthique d'utilisation

Principes de Gouvernance

    • Transparence
      • Communication claire des objectifs
      • Partage régulier des avancées
      • Visibilité sur les décisions
    • Agilité
      • Adaptation continue aux besoins
      • Réactivité aux retours
      • Flexibilité dans l'exécution
    • Inclusivité
      • Représentation de tous les niveaux
      • Participation active des utilisateurs
      • Prise en compte de tous les retours
    • Responsabilisation
      • Rôles clairement définis
      • Objectifs mesurables
      • Autonomie dans l'exécution

Mécanismes de coordination transversaux

Outils de pilotage

Tableaux de bord
KPIs
Reporting régulier
Base de connaissances
Système de feedback

Communication

Réunions régulières
Reporting structuré
Documentation standardisée
Partage des bonnes pratiques

Principes directeurs

Transparence
Éthique et responsabilité
Agilité
Inclusivité
Responsabilisation

Cette structure met en évidence les points essentiels pour une gouvernance efficace de LLAMA, en soulignant :

    1. L'importance d'une vision stratégique claire
    2. La nécessité d'une coordination opérationnelle forte
    3. L'attention portée à la qualité relationnelle
    4. Le rôle crucial des communautés relais
    5. L'importance du support et de l'accompagnement
    6. L'engagement dans l'amélioration continue

Chaque point est conçu pour fonctionner en synergie avec les autres, créant ainsi un système de gouvernance cohérent et efficace.

Centre for the Governance of AI :

Exemple pour LLAMA :


Exemple ancien pour SPS 2023 :



meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


--- 
Pierre Erol GIRAUDY 


mardi 12 novembre 2024

Liberté d’expression et projets nationaux

Information de l’UE sur la législation sur l’IA : Liberté d’expression et projets nationaux


La ministre d’État irlandaise, Dara Calleary, a publié une liste de neuf autorités publiques nationales chargées de protéger les droits fondamentaux en vertu de la législation européenne sur l’IA.

Risto Uuk 12 novembre 2024

Bienvenue dans la lettre d’information de l’UE sur la législation sur l’IA, une brève lettre d’information bihebdomadaire du Future of Life Institute qui vous fournit des développements et des analyses actualisés de la législation européenne sur l’intelligence artificielle.

Processus législatif

L’Irlande publie la liste des autorités publiques : 

La ministre d’État irlandaise, Dara Calleary, a publié une liste de neuf autorités publiques nationales chargées de protéger les droits fondamentaux en vertu de la loi sur l’IA. Ces autorités recevront des pouvoirs supplémentaires pour s’acquitter de leurs responsabilités existantes lorsque l’IA présente des risques élevés pour les droits fondamentaux, y compris l’accès à la documentation obligatoire des développeurs et des déployeurs de systèmes d’IA. Il s’agit notamment de An Coimisiún Toghcháin, de Coimisiún na Meán, de la Commission de protection des données, de l’Agence de protection de l’environnement, du Médiateur des services financiers et des pensions, de la Commission irlandaise des droits de l’homme et de l’égalité, du Médiateur, du Médiateur des enfants et du Médiateur des forces de défense. Cette liste remplit la première obligation de l’Irlande en vertu de la loi sur l’IA.

L’approche de l’Italie en matière de mise en œuvre : 


Luca Bertuzzi, correspondant principal de MLex pour l’IA, a indiqué que le gouvernement italien a adopté un décret visant à charger ses agences nationales du numérique et de la cybersécurité de faire appliquer la loi sur l’IA. Mario Nobile, chef de l’Agence pour l’Italie numérique, a souligné que les préparatifs avaient commencé avant cette mission officielle, l’agence renforçant ses capacités internes et ses partenariats de recherche. Nobile a souligné que le développement de compétences complexes ne se limite pas à l’embauche de personnel, mais qu’il faut un personnel qualifié, une surveillance continue de la situation et un dialogue avec les scientifiques. L’agence a collaboré avec 14 professeurs de sciences italiens et plusieurs universités de premier plan sur la stratégie nationale en matière d’IA. Il a souligné l’importance d’équilibrer la mise en œuvre de la loi avec la stratégie industrielle, compte tenu de l’absence de « licornes » européennes et d’un champion de l’IA. En ce qui concerne la coordination entre les régulateurs, M. Nobile a exprimé sa confiance dans le Conseil européen de l’IA en tant que plate-forme pour résoudre les différends.

Aperçu des plans nationaux de mise en œuvre : 


Depuis l’entrée en vigueur de la législation sur l’IA le 1er août, les États membres ont commencé à se préparer à sa mise en œuvre. La désignation des autorités nationales figure parmi les premières priorités. Ce rapport sera mis à jour au fur et à mesure que de nouvelles informations seront disponibles. Aidez-nous à nous assurer que ce contenu est complet et exact en partageant avec nous toute information dont vous disposez sur les autorités.

Analyse


Protéger la liberté d’expression : 

Jordi Calvet-Bademunt, chercheur principal à The Future of Free Speech, a écrit un éditorial dans Tech Policy Press sur les implications des risques systémiques dans la loi sur l’IA. La loi exige que les fournisseurs d’IA à usage général à fort impact évaluent et atténuent les risques systémiques, à l’instar des exigences de la loi sur les services numériques pour les plateformes en ligne. Bien que la Loi soit en vigueur, le prochain Code de pratique sur l’IA à usage général offre l’occasion de protéger la liberté d’expression. La définition du risque systémique dans la Loi soulève des préoccupations quant aux répercussions potentielles sur la liberté d’expression, en particulier en ce qui concerne le contenu controversé. 
Les fournisseurs ont du mal à trouver un équilibre entre divers droits fondamentaux et peuvent avoir tendance à supprimer trop de contenu pour éviter les pénalités. Le rôle de la Commission européenne en tant qu’organisme d’application de la loi soulève des préoccupations supplémentaires, compte tenu du potentiel d’influence politique et de l’utilisation historique de la « sécurité publique » pour justifier les restrictions à la liberté d’expression. 
La mise en œuvre de la DSA a déjà démontré ces défis, comme en témoignent les déclarations controversées du commissaire de l’époque, M. Breton, sur les fermetures de plateformes lors des émeutes de 2023.


Le groupe de réflexion Pour Demain a rédigé une note d’orientation dans laquelle il soutient que les prochains codes de pratique pour le déploiement de modèles d’IA à usage général (PMIA) de l’AI Office devraient privilégier les approches d’évaluation à multiples facettes au-delà des tests en boîte noire. 

Les recommandations comprennent 


1) encourager l’accès « de facto » en boîte blanche pour les évaluateurs indépendants grâce à des API personnalisées, 

2) faciliter l’accès aux informations contextuelles pour des audits complets, et 

3) mettre en œuvre des mesures de protection à plusieurs niveaux combinant des mesures techniques, physiques et juridiques. Ces recommandations visent à renforcer la capacité de l’UE à évaluer et à atténuer les risques liés aux modèles d’IAM. L’article souligne l’importance de la transparence, de l’équité et de méthodes d’évaluation solides. 

Il souligne également les limites des tests en boîte noire et préconise différents niveaux d’accès, de la boîte noire à la boîte blanche et aux évaluations « hors des sentiers battus », tout en suggérant des mécanismes pour minimiser les risques associés aux évaluations complètes.


La loi sur l’IA peut-elle imposer des amendes mieux que le RGPD ? 


Ellen Jennings-Trace, rédactrice de Tech Radar, a rendu compte d’une conférence ISACA à Dublin, au cours de laquelle le Dr Valerie Lyons a discuté de la mise en œuvre de la loi sur l’IA en 2026. Elle suggère aux entreprises de ne pas être trop anxieuses, notant les similitudes entre la loi sur l’IA et les principes de transparence, de sécurité et de consentement du RGPD. Lyons a souligné les problèmes liés à l’application du RGPD, révélant que moins de 1 % des amendes ont été perçues en Irlande en raison des procédures d’appel. Elle a noté que les amendes infligées aux agences gouvernementales coûtent finalement aux contribuables, citant l’amende de 75 000 € de Tusla à titre d’exemple. Pour les petites entreprises qui déploient des systèmes d’IA, Lyons fait les recommandations suivantes : 1) effectuer une analyse des écarts à l’aide des normes ISO ou NIST, 2) s’appuyer sur la conformité existante au RGPD, 3) mettre en œuvre une formation à l’IA avant février 2025, 4) mettre à jour les avis, les politiques et les DPIA ROPA, et 5) établir des processus de surveillance robustes pour les systèmes d’IA.

Pourquoi le Code de bonnes pratiques est important : 


Nicolas Moës, directeur exécutif de The Future Society, a écrit un éditorial expliquant pourquoi le Code de bonnes pratiques pour l’IA à usage général (PMIA) est important. Le code, qui entrera en vigueur le 2 août 2025, détaillera les règles applicables aux produits et services du PMIA sur le marché de l’UE. L’importance du code pour l’Europe comprend la promotion de la transparence et de la compréhension des modèles d’IAM, l’équilibre entre la sécurité juridique et la flexibilité et le soutien à l’innovation responsable en matière d’IA. À l’échelle mondiale, le Code est important parce qu’il peut établir une approche responsable du développement de l’IAM pour les entreprises non européennes, traduire les obligations législatives en mesures et indicateurs pratiques, et servir de modèle pour la corégulation collaborative.

Soumission sur la création du groupe scientifique : 


Le Conseil irlandais pour les libertés civiles (ICCL) a fourni des commentaires sur le projet de loi d’exécution pour la création d’un groupe scientifique indépendant sur l’IA. Leurs recommandations portent sur trois domaines clés. En ce qui concerne les conflits d’intérêts, bien que le projet reconnaisse que les experts doivent être indépendants et libres des intérêts des fournisseurs d’IA, l’ICCL suggère d’indiquer explicitement que les conflits d’intérêts rendent les candidats inéligibles. En ce qui concerne la transparence publique, l’ICCL recommande de fixer des délais spécifiques pour que le Bureau de l’IA traite les demandes du Panel et de publier les décisions et les motifs sur une page Web dédiée. En ce qui concerne l’efficacité du Panel, l’ICCL soutient que les secrets commerciaux et le secret des affaires ne devraient pas entraver le travail du Panel, et suggère de supprimer ces références des articles pertinents, notant que les membres du Panel sont tenus au secret professionnel.

Source : The EU AI Act Newsletter #65: Free Speech and National Plans




https://www.iccl.ie/news/submission-to-the-european-commission-on-the-establishment-of-the-scientific-panel-under-the-eu-ai-act/

Notes


[1] Draft Commission Implementing Regulation ... laying down the rules for the application of Regulation (EU) 2024/1689 of the European Parliament and of the Council as regards the establishment of a scientific panel of independent experts in the field of artificial intelligence ('Draft Implementing Act').


[2] Shrishak, Kris and Johnny Ryan, The hazard of industry influence on the independent scientific panel, 24 September 2024. URL: https://www.iccl.ie/news/the-hazard-of-industry-influence-on-the-independent-scientific-panel/


[3] Draft Implementing Act, Article 10 (2).


[4] Draft Implementing Act, Article 3 (3) (a).


[5] Draft Implementing Act, Article 10 (3).


[6] Draft Implementing Act, Article 13 (2).




--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


Assistants Vocaux et Éthique :

Assistants Vocaux et Éthique :

OpenAI a annoncé le 28 octobre 2024 que le mode vocal avancé de ChatGPT est désormais accessible gratuitement en Europe pour les utilisateurs de comptes gratuits, offrant jusqu'à 15 minutes par mois d'utilisation. Ce mode permet aux utilisateurs de choisir parmi neuf voix et de converser avec l'IA de manière plus naturelle et dynamique, en adaptant les réponses aux émotions détectées dans la voix. Cette fonctionnalité, déjà disponible depuis septembre dans d’autres pays, a pris plus de temps à être lancée en France, probablement pour respecter les régulations européennes. Pour activer ce mode vocal, les utilisateurs doivent ouvrir l'application ChatGPT sur mobile, sélectionner une voix, et cliquer sur "Terminer". Il est également possible d'activer ce mode en arrière-plan, permettant de continuer la conversation tout en utilisant d’autres applications.

#OpenAI a annoncé que le mode vocal avancé de #ChatGPT est désormais gratuit en Europe pour les comptes gratuits, avec une utilisation limitée à 15 minutes par mois. Ce mode permet de choisir parmi neuf voix et d'adapter les réponses aux émotions détectées dans la voix. Déjà disponible depuis septembre dans d'autres pays, son lancement en France a été retardé pour respecter les régulations européennes. Pour l'activer, il suffit d'ouvrir l'application ChatGPT sur mobile, de sélectionner une voix et de cliquer sur "Terminer". Il peut également fonctionner en arrière-plan. Voilà, un résumé bien rempli.

Voici quelques informations sur les assistants vocaux avec IA les plus populaires en 2024 :

  1. ChatGPT Advanced Voice Mode : Basé sur le modèle GPT-4o d'OpenAI, ce mode vocal permet des conversations plus naturelles et interactives1. Il est idéal pour des tâches nécessitant une interaction en temps réel, comme le brainstorming ou les discussions complexes1.

  2. #Gemini Live : Développé par Google, Gemini Live utilise le modèle Gemini 1.5 Pro et permet des interactions vocales dans plus de 40 langues1. Il est conçu pour offrir une expérience utilisateur fluide et intuitive1.

  3. #Copilot Natural Voice Interaction : Proposé par Microsoft, ce système permet une interaction vocale naturelle et personnalisée1. Il est particulièrement utile pour les tâches de productivité et de support client1. Pas de Copilot en Europe, pour le moment. Ma voix n’est pas disponible dans votre région. J’aimerais beaucoup discuter avec vous, mais cette fonction n’est pas prise en charge dans votre région. Mais nous pouvons toujours parler par écrit !

  4. #Fireflies AI : Cet assistant personnel utilise le traitement du langage naturel (NLP) pour enregistrer, transcrire et rechercher rapidement les interactions vocales2. Il est très pratique pour les réunions et les appels d'affaires2.

  5. #Siri : L'assistant vocal d'Apple, toujours populaire, offre une large gamme de fonctionnalités intégrées aux appareils iOS et macOS2.

ChatGPT, Gemini ou Copilot : Quel assistant vocal IA choisir en 2024 ?

Ces assistants vocaux sont de plus en plus intégrés dans notre quotidien, offrant des solutions pratiques pour diverses tâches et améliorant notre expérience numérique.

Les questions réponses sont fluides (voir les copies écran ci-dessous).

Les assistants vocaux IA apportent de nombreuses commodités, mais ils soulèvent aussi des questions éthiques importantes :

Vie Privée : Les assistants vocaux écoutent constamment et collectent des données vocales, soulevant des préoccupations sur la surveillance et la protection des données personnelles.

Biais : Les algorithmes peuvent reproduire les biais présents dans leurs données d'entraînement, affectant l'équité des interactions et des recommandations. Par exemple, des assistants peuvent mal interpréter les accents ou sous-représenter certaines langues.

Transparence et Explicabilité : Les décisions prises par les assistants vocaux sont souvent opaques pour les utilisateurs. La transparence est essentielle pour comprendre comment les décisions sont prises et pour assurer la responsabilité.

Fiabilité et Sécurité : Les erreurs dans les interprétations vocales peuvent avoir des conséquences graves, surtout dans les contextes médicaux ou financiers. La sécurité des systèmes contre les cyberattaques est également cruciale.

Impact Social : L'usage répandu des assistants IA peut modifier les interactions sociales et la communication humaine, et il est essentiel de comprendre ces impacts pour garantir un usage éthique.

Ces enjeux nécessitent des cadres réglementaires solides et des pratiques de développement responsables pour maximiser les avantages tout en minimisant les risques. Une IA éthique, c'est une IA qui est développée avec soin et attention à ces détails importants. Voilà pourquoi une approche responsable est primordiale.

Les 10 meilleurs assistants IA - Ai Explorer



--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol