Translate

jeudi 21 mars 2024

Risque des Chabots

Le déploiement direct de chatbots assistés par l'IA auprès des clients comporte des risques et des implications légales.

Ces systèmes, basés sur des large language models (LLMs), peuvent dérailler en raison de biais et de lacunes dans leur conception et leur formation, ce qui expose les entreprises à des responsabilités juridiques et financières.

En cas de défaillance d'un chatbot, l'entreprise peut être tenue responsable des propos tenus par celui-ci, notamment en cas de promesses non tenues ou de préjudices causés aux utilisateurs. Cela peut engager sa responsabilité contractuelle si le chatbot ne fournit pas les fonctionnalités promises, sa responsabilité délictuelle en cas de négligence dans sa conception ou sa maintenance, ou encore une violation du RGPD en cas de non-respect des règles de protection des données personnelles.

Actuellement, aucune solution n'élimine totalement les risques associés aux chatbots IA déployés directement auprès des clients. Il est recommandé de les déployer d'abord auprès des collaborateurs qui peuvent analyser les réponses avant de les transmettre aux clients, agissant ainsi comme un garde-fou humain. Même des approches comme le RAG (retrieval augmented generation) offrent des garanties insuffisantes en matière de sécurité.

Pour limiter les risques, il est conseillé de procéder à des phases de test, comme des versions Beta, et d'effectuer des séquences de red teaming pour évaluer la réaction du chatbot face à des situations problématiques. Ces démarches permettent d'identifier et de corriger les éventuelles faiblesses avant un déploiement à grande échelle.

Une violation du RGPD par le chatbot peut également engager la responsabilité de l'entreprise représentée par le chatbot.

Le Règlement Général sur la Protection des Données (RGPD) de l'Union européenne

Il impose des obligations strictes aux entreprises en matière de traitement des données personnelles. Si un chatbot collecte, traite ou stocke des données personnelles en violation du RGPD, l'entreprise représentée par le chatbot peut être tenue responsable de cette violation. Cela peut entraîner des sanctions financières importantes de la part des autorités de régulation, telles que la CNIL en France, ainsi que des répercussions sur la réputation de l'entreprise. Il est donc crucial pour les entreprises de s'assurer que leurs chatbots respectent pleinement les exigences du RGPD en matière de protection des données personnelles.


Lire : 





De plus en plus présents dans les start-up, quelle est la place des juristes ? (journaldunet.com)


Secret professionnel : qui est concerné ? (journaldunet.fr)


--- 
 Pierre Erol GIRAUDY 


jeudi 14 mars 2024

Users Group Artificial Intelligence d'Andorra (U.G.A.I.A.) : Copilot pour Microsoft 365 : l'IA et son KIT.

Copilot pour   Microsoft 365 :  l'IA qui révolutionne votre façon de travailler et son KIT.

Le KIT.

QU'Y A-T-IL DANS LE KIT COMPLET ?

Pour en savoir plus, rejoignez notre séances d'habilitation client alignés et utilisant nos nouvelles orientations fournies par des experts ayant une expérience du monde réel ou consultez nos Vidéos à la demande de l’accélérateur technologique Copilot avec des segments sur tout, de la préparation de votre organisation à l'activation de l'utilisateur.

Partagez votre histoire sur votre voyage avec Copilot dans notre Communauté.


Copilot Success Kit – Microsoft Adoption


ACCÉLÉREZ VOTRE PARCOURS VERS L'IA AVEC NOTRE KIT DE RÉUSSITE COPILOT

Notre Kit de réussite CopilotBibliothèque de scénarios, le cadre de mise en œuvre et les ressources pratiques sont conçus pour rationaliser et accélérer votre délai de rentabilisation avec les compétences Copilot pour Microsoft 365.. Les conseils intègrent de nombreuses ressources pour vous permettre d'obtenir rapidement de la valeur avec Copilot tout en permettant votre parcours de compétences progressif avec les outils d'IA. Téléchargez le kit complet ou uniquement les ressources dont vous avez besoin en fonction de votre phase de mise en œuvre.


Le kit.


Copilot Lab (cloud.microsoft)


COPILOT POUR MICROSOFT 365

Microsoft Copilot pour Microsoft 365 combine la puissance des grands modèles de langage (LLM) avec les données de votre organisation – le tout dans le flux de travail – pour transformer vos mots en l'un des outils de productivité les plus puissants de la planète.

Il fonctionne avec les applications Microsoft 365 populaires telles que Word, Excel, PowerPoint, Outlook, Teams, etc. Copilot pour Microsoft 365 fournit une assistance intelligente en temps réel, permettant aux utilisateurs d'améliorer leur créativité, leur productivité et leurs compétences.

Copilot for Microsoft 365 – Microsoft Adoption




Copilot pour Microsoft 365.

Training Copilot.

Implementation Copilot.

FAITES UNE DIFFÉRENCE, DEVENEZ CHAMPION.

Les champions stimulent l'engagement et la transformation de l'entreprise. Ils combinent un sens technique avec des compétences humaines pour conduire des changements significatifs.

https://adoption.microsoft.com/fr-fr/become-a-champion/


UE_StakeholderEngagementMappingTool_Mar2024.xlsx

UE_StakeholderEngagementMappingTool_Mar2024.xlsx


https://www.slideshare.net/slideshows/scenario-library-et-rex-discover-industry-and-role-based-scenarios/266726579










mardi 9 janvier 2024

La Commission européenne pour l'efficacité de la justice (CEPEJ) du Conseil de l'Europe

En créant la Commission européenne pour l’efficacité de la justice (CEPEJ) fin 2002. 


C'est à l’initiative des ministres européens de la Justice réunis à Londres (2000), le Comité des Ministres du Conseil de l’Europe a voulu établir une instance innovante pour améliorer la qualité et l’efficacité des systèmes judiciaires européens et renforcer la confiance des justiciables dans ces systèmes.

La Commission européenne pour l'efficacité de la justice (CEPEJ) du Conseil de l'Europe a adopté en décembre 2018 la Charte éthique européenne d'utilisation de l'intelligence artificielle (IA) dans les systèmes judiciaires. Cette charte vise à fournir un cadre de principes pour guider les décideurs politiques, les juristes et les professionnels de la justice dans le développement de l'IA dans les processus judiciaires nationaux.

Selon la perspective de la CEPEJ, l'IA peut contribuer à améliorer l'efficacité et la qualité du travail des tribunaux, mais son utilisation doit être responsable et conforme aux droits fondamentaux tels que garantis par la Convention européenne des droits de l'homme et la Convention du Conseil de l'Europe pour la protection des données à caractère personnel. La charte met l'accent sur le maintien de l'IA en tant qu'outil au service de l'intérêt général, tout en respectant les droits individuels.

La CEPEJ identifie cinq principes essentiels à respecter en matière d'IA et de justice :


1. Principe de respect des droits fondamentaux.
2. Principe de non-discrimination.
3. Principe de qualité et sécurité des données judiciaires.
4. Principe de transparence, neutralité et intégrité intellectuelle.
5. Principe de maîtrise par l'utilisateur.

La charte est accompagnée d'une étude approfondie sur l'utilisation de l'IA dans les systèmes judiciaires, notamment les applications assurant le traitement des décisions et des données judiciaires.

La CEPEJ a organisé divers événements et conférences sur le sujet, réunissant des experts et des représentants du monde universitaire, des professionnels de la justice, et des institutions judiciaires européennes pour explorer comment l'IA peut soutenir le travail des professionnels du droit et garantir une meilleure qualité de la justice.


Outils de la CEPEJ sur l'évaluation des systèmes judiciaires


Accès à la base de données dynamique CEPEJ-STAT
Cycle 2020-2022 / Systèmes judiciaires européens – Rapport d’évaluation de la CEPEJ – Cycle d’évaluation 2022
Partie 1 : Tableaux, graphiques et analyses
Partie 2 : Fiches pays 
Fiches pays individuelles
Publication du rapport : Dossier spécial
Grille d'évaluation
Note explicative


Depuis 2004 la CEPEJ a notamment entrepris un processus régulier d’évaluation des systèmes judiciaires des Etats membres du Conseil de l’Europe.

Son Groupe de travail sur l’évaluation des systèmes judiciaires (CEPEJ-GT-EVAL) est chargé de la gestion de ce processus.

Pour faciliter la collecte et le traitement des données judiciaires, une grille électronique en ligne a été créée (accessible sur CEPEJ-COLLECT). Chaque correspondant national peut ainsi accéder à un site électronique sécurisé pour transmettre ses réponses au questionnaire au Secrétariat de la CEPEJ.

Les réponses nationales contiennent aussi des descriptions des systèmes judiciaires et des explications qui contribuent pour beaucoup à la compréhension des données fournies. Accessibles aisément pour tout citoyen, décideur public, praticien du droit, universitaire et chercheur sur CEPEJ-STAT, véritable base de données des systèmes judiciaires des Etats membres du Conseil de l'Europe, elles constituent donc un complément utile au rapport qui, dans un objectif de concision et d’homogénéité, ne peut pas intégrer toutes ces informations.

D’autres exercices d’évaluation, basés sur la même méthodologie, sont menés pour les pays de l’Union Européenne, des Balkans occidentaux et les pays du Partenariat oriental.


La justice et l'éthique sont deux concepts fondamentaux qui guident nos actions et nos décisions dans la société. 


**La justice** est souvent considérée comme l'impératif qui gouverne les principes éthiques de l'action sociale tels que l'autonomie, la bienveillance et l'équité⁴. En philosophie, la justice renvoie à d'autres concepts comme la liberté, l'égalité, l'équité, l'éthique, la paix sociale⁵. On distingue généralement la justice dans son sens moral, où l'on parle alors de légitimité, et la justice dans son sens juridique, où l'on parle alors de légalité⁵.

**L'éthique**, quant à elle, est une réflexion philosophique sur nos valeurs¹. Elle intègre le mobile des activités humaines et trouve son fondement dans l'intériorité de l'être¹. L'éthique renvoie à une réflexion philosophique par rapport à nos valeurs¹. Son champ d'action diffère de celui du droit et de la justice¹. Par exemple, un acte peut être légal mais non conforme à l'éthique, ou illégal mais conforme à l'éthique¹.

Ces deux concepts sont étroitement liés et se complètent. Par exemple, l'éthique inspire et précède souvent le droit¹. Le temps de l'éthique aboutit à la création du consensus social nécessaire à l'établissement de la règle de droit¹. L'évolution des mentalités empreintes de morale et d'éthique ont ainsi permis l'adoption de lois sociétales¹.

Cependant, il existe des tensions et des défis dans la relation entre l'éthique et la justice. Par exemple, peut-on sincèrement croire que l'augmentation du niveau de vie des plus démunis puisse se faire sans accroître davantage les pressions sur les ressources limitées de la planète²? Ces questions soulignent la complexité de la relation entre l'éthique et la justice et la nécessité d'une réflexion continue sur ces concepts. 

En somme, la justice et l'éthique sont deux piliers essentiels de notre société qui guident nos actions et nos décisions. Ils sont complémentaires et interdépendants, chacun apportant une perspective unique sur la façon dont nous devrions agir et ce que nous devrions valoriser.


(1) 2. La justice et les trois principes éthiques | Cairn.info. https://www.cairn.info/philosophie-et-ethique-en-travail-social--9782810901326-page-21.htm
(2) Justice — Wikipédia. https://fr.wikipedia.org/wiki/Justice
(4) L’éthique et la justice : différence et complémentarité - Cairn.info. https://www.cairn.info/article.php?ID_ARTICLE=ECOPO_035_0079
(5) 2. La justice et les trois principes éthiques | Cairn.info. https://bing.com/search?q=Justice+et+Ethique


L'éthique joue un rôle crucial dans les décisions politiques de plusieurs façons :


1. **Principes éthiques** : Les principes éthiques servent de guide pour les décisions politiques¹. Par exemple, les principes d'équité, de justice et de respect des droits de l'homme peuvent influencer la formulation des politiques publiques¹.

2. **Intégrité et influence** : L'éthique peut aider à prévenir l'influence indue de l'argent et des intérêts privés sur les décisions politiques¹. Par exemple, les gouvernants peuvent se sentir obligés de "rendre la pareille" aux entreprises qui ont financé leur campagne, ce qui peut entraîner une capture des politiques publiques¹. L'éthique peut aider à garantir l'intégrité des politiques publiques et à identifier des moyens positifs d'influencer le processus de décision publique¹.

3. **Représentation des intérêts** : L'éthique peut renforcer la représentation des intérêts. Les partis politiques, les syndicats, les associations professionnelles et les gouvernements d'entreprises devraient avoir des normes d'intégrité, avec des comptes et des registres publics et transparents¹.

4. **Redevabilité des financements politiques** : L'éthique peut renforcer les mécanismes de redevabilité des financements politiques. Il est nécessaire de renforcer les compétences des professionnels d'audit et de contrôle, et de promouvoir des systèmes de reddition des comptes transparents et en temps opportuns des financements des partis pendant les campagnes¹.

5. **Éthique, morale et politique** : Dans la société contemporaine, l'éthique et la morale prennent place dans le politique comme loi symbolique et comme lieu des droits et du droit². Les droits humains et les "valeurs républicaines" (égalité, liberté, responsabilité, justice) prennent alors tout leur sens².

En somme, l'éthique influence les décisions politiques en guidant l'action, en prévenant l'influence indue, en renforçant la représentation des intérêts et la redevabilité, et en intégrant les valeurs morales dans le processus politique.

Source : conversation avec Bing, 09/01/2024
(1) intégrité et influence dans l'élaboration des politiques - OCDE - OECD. https://www.oecd.org/fr/gouvernance/ethique/influence/
(2) L’éthique et la morale dans le politique - OpenEdition Journals. https://journals.openedition.org/jda/4486
(3) Les enjeux éthiques de la décision | travail universitaire | Espace .... 



--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol

dimanche 7 janvier 2024

L’éthique de l’intelligence artificielle (IA)

L’éthique de l’intelligence artificielle (IA) est un sujet important et en constante évolution.


Elle concerne les principes moraux qui guident la conception et les résultats de l’IA1. L’UNESCO, par exemple, organise le « Forum mondial sur l’éthique de l’IA » pour explorer le paysage évolutif de la gouvernance de l’IA.

L’IA #éthique est une question à laquelle toute organisation devrait réfléchir longuement avant toute mise en œuvre de l’IA.

Elle consiste à évaluer les risques et à mettre en place des règles d’utilisation afin que la technologie ne nuise pas à la dignité des utilisateurs3.
L’essor rapide de l’IA a créé de nombreuses opportunités, comme faciliter les diagnostics de santé ou permettre des interactions humaines par le biais des réseaux sociaux. Cependant, ces changements rapides soulèvent également de profondes préoccupations éthiques.
Par exemple, les systèmes d’IA ont le potentiel d’intégrer des biais, de contribuer à la dégradation du climat, de menacer les droits de l’homme et bien d’autres choses encore.
Il est donc essentiel de veiller à ce que les sciences et les technologies se développent avec des garde-fous éthiques solides2. Sans garde-fous éthiques, l’IA risque de reproduire les préjugés et les discriminations du monde réel, d’alimenter les divisions et de menacer les droits de l’homme et les libertés fondamentales2.

Intelligence artificielle : comment mettre en œuvre une charte éthique

En outre, la création d’une #charte #éthique #éthique de pour l’utilisation de l’IA est également une étape primordiale. Elle doit à la fois être approuvée par chaque département concerné et également par les clients et les fournisseurs.
Enfin, il existe des outils destinés aux organisations, notamment aux responsables éthiques et aux dirigeants, qui permettent de mesurer les avantages et les risques que présente l’IA.



Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires - Commission européenne pour l’efficacité de la justice (CEPEJ) (coe.int)


La Charte de la CEPEJ énonce cinq principes clés qui devraient être respectés par le pouvoir judiciaire dans la conception et l'utilisation de l'intelligence artificielle (ci-après IA) :  

1) principe de respect des droits fondamentaux : assurer une conception et une mise en 
œuvre des outils et services d'IA qui soient compatibles avec les droits fondamentaux ; 
2) principe de non-discrimination : prévenir spécifiquement la création ou le renforcement de 
discriminations entre individus ou groupes d’individus ; 
3) principe de qualité et de sécurité : en ce qui concerne le traitement des décisions 
juridictionnelles et des données judiciaires, utiliser des sources certifiées et des données 
intangibles, avec des modèles conçus de manière multi-disciplinaire, dans un 
environnement technologique sécurisé ; 
4) principe de transparence, de neutralité et d’intégrité intellectuelle : rendre accessibles et 
compréhensibles les méthodes de traitement des données, autoriser des audits externes; 
5) principe de maîtrise par l'utilisateur : bannir une approche prescriptive et permettre à 
l’usager d’être un acteur éclairé et maître de ses choix.

CONSEIL IBÉRO-AMÉRICAIN DES ENTREPRISES POUR L'ÉTHIQUE DE L'IA


Le Conseil ibéro-américain des entreprises pour l'éthique de l'IA est une initiative de collaboration entre l'#UNESCO et des entreprises opérant en Amérique latine qui sont impliquées dans le développement ou l'utilisation de l'intelligence artificielle (IA) dans divers secteurs.
Le Conseil sert de plateforme aux entreprises pour se réunir, échanger des expériences et promouvoir des pratiques éthiques au sein de l'industrie de l'IA. En travaillant en étroite collaboration avec l'UNESCO, il vise à garantir que l'IA est développée et utilisée dans le respect des droits de l'homme et des normes éthiques.
Actuellement coprésidé par Microsoft et Telefonica, le Conseil s'est engagé à renforcer les capacités techniques en matière d'éthique et d'IA, à concevoir et à mettre en œuvre l'outil d'évaluation de l'impact éthique prévu par la recommandation sur l'éthique de l'IA et à contribuer à l'élaboration de réglementations régionales intelligentes. Grâce à ces efforts, il s'efforce de créer un environnement compétitif qui profite à toutes les parties prenantes en Amérique latine et promeut l'utilisation responsable et éthique de l'IA.
En savoir plus (en anglais)



Forum mondial sur l'éthique de l'intelligence artificielle 2024

Le 2e « Forum mondial sur l'éthique de l'IA : changer le paysage de la gouvernance de l'IA » sera organisé par la Slovénie, sous le patronage de l'UNESCO, les 5 et 6 février 2024.

Readiness assessment methodology: a tool of the Recommendation on the Ethics of Artificial Intelligence - UNESCO Bibliothèque Numérique

La bonne gouvernance de l'IA est l'un des défis les plus importants de notre époque, qui nécessite un apprentissage mutuel basé sur les leçons et les bonnes pratiques émergeant des différentes juridictions à travers le monde. Ce forum rassemblera les expériences et l'expertise de pays à différents niveaux de développement technologique et politique, pour un échange ciblé afin d'apprendre les uns des autres, et pour un dialogue avec le secteur privé, le monde universitaire et la société civile dans son ensemble.

L'UNESCO a apporté une contribution décisive à l'objectif d'une gouvernance efficace et éthique de l'IA en adoptant une norme mondiale ambitieuse - la Recommandation sur l'éthique de l'IA en 2021, et en pilotant sa mise en œuvre par les États membres au moyen d'outils et de méthodologies innovants, tels que la Méthode d’évaluation de l’état de préparation et l'Évaluation de l'impact éthique.

Grâce à l'application de ces outils, l'UNESCO est en train de changer le modèle commercial qui sous-tend l'IA, développant une gamme de solutions concrètes et pratiques pour s'assurer que les produits de l'IA sont équitables, inclusifs, durables et non discriminatoires. Les données obtenues grâce à ce travail, y compris un diagnostic complet et multidimensionnel de l'état de préparation à l'IA de près de cinquante pays dans le monde, alimenteront aussi les débats lors du Forum.


Méthode d’évaluation de l’état de préparation : un outil de la Recommandation sur l’éthique de l’intelligence artificielle

La méthode d’évaluation de l’état de préparation est un instrument au niveau macro qui aidera les pays à savoir se situer sur l’échelle de préparation à une mise en œuvre éthique et responsable de l’IA dans l’intérêt de l’ensemble de leurs citoyens, tout en leur indiquant les changements indispensables à apporter sur les plans institutionnels et réglementaires. Les résultats de la méthode d’évaluation de l’état de préparation aideront l’UNESCO à adapter les mesures de renforcement des capacités aux besoins de chacun des pays. « Capacités » désigne ici l’aptitude à évaluer les systèmes d’IA conformément à la Recommandation ainsi que la présence du capital humain, d’infrastructures, de politiques et de réglementations nécessaires et appropriées pour répondre aux défis posés par les technologies de l’IA et à veiller à ce que les personnes et leurs intérêts soient toujours placés au cœur du développement de l’IA. 28 août 2023 


ARTICLES

L'Intelligence artificielle peut-elle être éthique? (lefigaro.fr)


Les enjeux éthiques de l’intelligence artificielle | éduscol | Ministère de l'Éducation nationale et de la Jeunesse - Direction générale de l'enseignement scolaire (education.fr)



Legal Compliance and Ethics at #Microsoft

Our commitment to corporate responsibility and integrity

Notre approche
Programme de conformité Microsoft
Normes de conduite professionnelle
Notre code de confiance
Respecter notre code de conduite
Signaler une préoccupation
Lutte contre la corruption et lutte contre la corruption
Lutte contre la corruption et engagements anti-corruption
Des représentants dignes de confiance
Critères des entités publiques
Respect de l'environnement
Conformité et durabilité des appareils
Emballage responsable dans le cloud
Un approvisionnement responsable en fournisseurs

--- 
 Pierre Erol GIRAUDY