Translate

dimanche 7 janvier 2024

L’éthique de l’intelligence artificielle (IA)

L’éthique de l’intelligence artificielle (IA) est un sujet important et en constante évolution.


Elle concerne les principes moraux qui guident la conception et les résultats de l’IA1. L’UNESCO, par exemple, organise le « Forum mondial sur l’éthique de l’IA » pour explorer le paysage évolutif de la gouvernance de l’IA.

L’IA #éthique est une question à laquelle toute organisation devrait réfléchir longuement avant toute mise en œuvre de l’IA.

Elle consiste à évaluer les risques et à mettre en place des règles d’utilisation afin que la technologie ne nuise pas à la dignité des utilisateurs3.
L’essor rapide de l’IA a créé de nombreuses opportunités, comme faciliter les diagnostics de santé ou permettre des interactions humaines par le biais des réseaux sociaux. Cependant, ces changements rapides soulèvent également de profondes préoccupations éthiques.
Par exemple, les systèmes d’IA ont le potentiel d’intégrer des biais, de contribuer à la dégradation du climat, de menacer les droits de l’homme et bien d’autres choses encore.
Il est donc essentiel de veiller à ce que les sciences et les technologies se développent avec des garde-fous éthiques solides2. Sans garde-fous éthiques, l’IA risque de reproduire les préjugés et les discriminations du monde réel, d’alimenter les divisions et de menacer les droits de l’homme et les libertés fondamentales2.

Intelligence artificielle : comment mettre en œuvre une charte éthique

En outre, la création d’une #charte #éthique #éthique de pour l’utilisation de l’IA est également une étape primordiale. Elle doit à la fois être approuvée par chaque département concerné et également par les clients et les fournisseurs.
Enfin, il existe des outils destinés aux organisations, notamment aux responsables éthiques et aux dirigeants, qui permettent de mesurer les avantages et les risques que présente l’IA.



Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires - Commission européenne pour l’efficacité de la justice (CEPEJ) (coe.int)


La Charte de la CEPEJ énonce cinq principes clés qui devraient être respectés par le pouvoir judiciaire dans la conception et l'utilisation de l'intelligence artificielle (ci-après IA) :  

1) principe de respect des droits fondamentaux : assurer une conception et une mise en 
œuvre des outils et services d'IA qui soient compatibles avec les droits fondamentaux ; 
2) principe de non-discrimination : prévenir spécifiquement la création ou le renforcement de 
discriminations entre individus ou groupes d’individus ; 
3) principe de qualité et de sécurité : en ce qui concerne le traitement des décisions 
juridictionnelles et des données judiciaires, utiliser des sources certifiées et des données 
intangibles, avec des modèles conçus de manière multi-disciplinaire, dans un 
environnement technologique sécurisé ; 
4) principe de transparence, de neutralité et d’intégrité intellectuelle : rendre accessibles et 
compréhensibles les méthodes de traitement des données, autoriser des audits externes; 
5) principe de maîtrise par l'utilisateur : bannir une approche prescriptive et permettre à 
l’usager d’être un acteur éclairé et maître de ses choix.

CONSEIL IBÉRO-AMÉRICAIN DES ENTREPRISES POUR L'ÉTHIQUE DE L'IA


Le Conseil ibéro-américain des entreprises pour l'éthique de l'IA est une initiative de collaboration entre l'#UNESCO et des entreprises opérant en Amérique latine qui sont impliquées dans le développement ou l'utilisation de l'intelligence artificielle (IA) dans divers secteurs.
Le Conseil sert de plateforme aux entreprises pour se réunir, échanger des expériences et promouvoir des pratiques éthiques au sein de l'industrie de l'IA. En travaillant en étroite collaboration avec l'UNESCO, il vise à garantir que l'IA est développée et utilisée dans le respect des droits de l'homme et des normes éthiques.
Actuellement coprésidé par Microsoft et Telefonica, le Conseil s'est engagé à renforcer les capacités techniques en matière d'éthique et d'IA, à concevoir et à mettre en œuvre l'outil d'évaluation de l'impact éthique prévu par la recommandation sur l'éthique de l'IA et à contribuer à l'élaboration de réglementations régionales intelligentes. Grâce à ces efforts, il s'efforce de créer un environnement compétitif qui profite à toutes les parties prenantes en Amérique latine et promeut l'utilisation responsable et éthique de l'IA.
En savoir plus (en anglais)



Forum mondial sur l'éthique de l'intelligence artificielle 2024

Le 2e « Forum mondial sur l'éthique de l'IA : changer le paysage de la gouvernance de l'IA » sera organisé par la Slovénie, sous le patronage de l'UNESCO, les 5 et 6 février 2024.

Readiness assessment methodology: a tool of the Recommendation on the Ethics of Artificial Intelligence - UNESCO Bibliothèque Numérique

La bonne gouvernance de l'IA est l'un des défis les plus importants de notre époque, qui nécessite un apprentissage mutuel basé sur les leçons et les bonnes pratiques émergeant des différentes juridictions à travers le monde. Ce forum rassemblera les expériences et l'expertise de pays à différents niveaux de développement technologique et politique, pour un échange ciblé afin d'apprendre les uns des autres, et pour un dialogue avec le secteur privé, le monde universitaire et la société civile dans son ensemble.

L'UNESCO a apporté une contribution décisive à l'objectif d'une gouvernance efficace et éthique de l'IA en adoptant une norme mondiale ambitieuse - la Recommandation sur l'éthique de l'IA en 2021, et en pilotant sa mise en œuvre par les États membres au moyen d'outils et de méthodologies innovants, tels que la Méthode d’évaluation de l’état de préparation et l'Évaluation de l'impact éthique.

Grâce à l'application de ces outils, l'UNESCO est en train de changer le modèle commercial qui sous-tend l'IA, développant une gamme de solutions concrètes et pratiques pour s'assurer que les produits de l'IA sont équitables, inclusifs, durables et non discriminatoires. Les données obtenues grâce à ce travail, y compris un diagnostic complet et multidimensionnel de l'état de préparation à l'IA de près de cinquante pays dans le monde, alimenteront aussi les débats lors du Forum.


Méthode d’évaluation de l’état de préparation : un outil de la Recommandation sur l’éthique de l’intelligence artificielle

La méthode d’évaluation de l’état de préparation est un instrument au niveau macro qui aidera les pays à savoir se situer sur l’échelle de préparation à une mise en œuvre éthique et responsable de l’IA dans l’intérêt de l’ensemble de leurs citoyens, tout en leur indiquant les changements indispensables à apporter sur les plans institutionnels et réglementaires. Les résultats de la méthode d’évaluation de l’état de préparation aideront l’UNESCO à adapter les mesures de renforcement des capacités aux besoins de chacun des pays. « Capacités » désigne ici l’aptitude à évaluer les systèmes d’IA conformément à la Recommandation ainsi que la présence du capital humain, d’infrastructures, de politiques et de réglementations nécessaires et appropriées pour répondre aux défis posés par les technologies de l’IA et à veiller à ce que les personnes et leurs intérêts soient toujours placés au cœur du développement de l’IA. 28 août 2023 


ARTICLES

L'Intelligence artificielle peut-elle être éthique? (lefigaro.fr)


Les enjeux éthiques de l’intelligence artificielle | éduscol | Ministère de l'Éducation nationale et de la Jeunesse - Direction générale de l'enseignement scolaire (education.fr)



Legal Compliance and Ethics at #Microsoft

Our commitment to corporate responsibility and integrity

Notre approche
Programme de conformité Microsoft
Normes de conduite professionnelle
Notre code de confiance
Respecter notre code de conduite
Signaler une préoccupation
Lutte contre la corruption et lutte contre la corruption
Lutte contre la corruption et engagements anti-corruption
Des représentants dignes de confiance
Critères des entités publiques
Respect de l'environnement
Conformité et durabilité des appareils
Emballage responsable dans le cloud
Un approvisionnement responsable en fournisseurs

--- 
 Pierre Erol GIRAUDY 

Aucun commentaire: