Translate

Affichage des articles dont le libellé est Ethique. Afficher tous les articles
Affichage des articles dont le libellé est Ethique. Afficher tous les articles

jeudi 14 novembre 2024

Les contrats militaires et l'IA.

Les grandes entreprises d’IA cherchent à décrocher des contrats militaires


Deux grandes entreprises d’IA ont changé de position sur les applications militaires et de renseignement.

Nouveauté : Meta a mis sa famille de grands modèles de langage Llama à la disposition du gouvernement américain à des fins de sécurité nationale, ce qui constitue un changement majeur dans sa politique sur les applications militaires. De même, Anthropic proposera ses modèles Claude aux agences de renseignement et de défense américaines.



Comment cela fonctionne : Meta et Anthropic s’appuient sur des partenariats avec des sous-traitants gouvernementaux pour répondre aux exigences de sécurité et d’approvisionnement des travaux militaires et de renseignement.

Les partenaires de Meta sur les marchés de la défense et du renseignement comprennent Accenture, Amazon, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. 

Ces entreprises intégreront les modèles Llama dans les applications du gouvernement américain dans des domaines tels que la logistique, la cybersécurité, l’analyse du renseignement et le suivi des activités financières des terroristes.

Certains partenaires de Meta ont créé des versions spécialisées de Llama. 

Par exemple, Scale AI a peaufiné Llama 3 pour des applications de sécurité nationale. Baptisé Defense Llama, ce modèle affiné peut aider à des tâches telles que la planification d’opérations militaires et l’analyse des vulnérabilités d’un adversaire.

Anthropic mettra ses familles de modèles Claude 3 et 3.5 à la disposition des agences de défense et de renseignement américaines via une plateforme construite par Palantir, qui fournit des analyses de big data aux gouvernements, et hébergée par Amazon Web Services

Le gouvernement utilisera Claude pour examiner des documents, trouver des modèles dans de grandes quantités de données et aider les responsables à prendre des décisions.

En coulisses : 

En 2018, Google a dû faire face à des réactions négatives lorsqu’il a remporté un contrat avec le gouvernement américain pour construire le projet Maven, une plateforme de renseignement assistée par l’IA. Les employés ont protesté, démissionné et ont demandé à l’entreprise d’éviter tout travail d’IA militaire. 

Google s’est retiré du projet et Palantir l’a repris. Par la suite, de nombreux développeurs d’IA, dont Meta et Anthropic, ont interdit l’utilisation de leurs modèles pour des applications militaires. 
La nouvelle disponibilité de Llama pour les agences militaires et de renseignement américaines est une exception notable. 

En juillet, Anthropic a également commencé à autoriser l’utilisation de ses modèles pour les travaux de renseignement. Anthropic interdit toujours d’utiliser Claude pour développer des armes ou monter des cyberattaques.

Pourquoi c’est important : Le changement de politique de Meta et d’Anthropic concernant les utilisations militaires de l’IA est capital. Dernièrement, l’IA est devenue un élément incontournable du champ de bataille sous la forme de drones armés, et les entreprises d’IA doivent veiller à ce que leurs nouvelles politiques soient cohérentes avec le respect des droits de l’homme. 
Les utilisations militaires de l’IA comprennent non seulement le développement et le ciblage d’armes, mais aussi la recherche et le sauvetage, la logistique, le renseignement et les communications qui peuvent sauver des vies. 

De plus, les contrats de défense représentent des opportunités majeures pour les entreprises d’IA qui peuvent financer des recherches et des applications largement bénéfiques.

Nous pensons : 

les nations éprises de paix sont confrontées à des défis de sécurité difficiles, et l’IA peut être utile pour les relever. Dans le même temps, la militarisation de l’IA pose des défis pour le maintien de la paix et de la stabilité, le respect des droits de l’homme et le maintien du contrôle humain sur les systèmes autonomes. 

Nous appelons les développeurs d’IA militaire à respecter les lignes directrices proposées par Responsible Artificial Intelligence in the Military, qui sont approuvées par plus de 60 pays et appellent à une gouvernance solide, à une surveillance, à la responsabilité et au respect des droits de l’homme.

Sur le plan éthique, cette situation soulève plusieurs points importants :


1. Bénéfices potentiels :
- Amélioration des capacités défensives et de la sécurité nationale
- Applications non-létales comme la logistique, le sauvetage et les communications
- Financement de la recherche en IA pouvant avoir des retombées civiles positives

2. Risques et préoccupations :
- Risque d'utilisation de l'IA pour des systèmes d'armes autonomes
- Questions sur le contrôle humain des décisions militaires assistées par IA
- Potentiel de surveillance accrue et d'atteintes aux droits humains
- Manque de transparence possible dans l'utilisation militaire

3. Encadrement :
- L'engagement d'Anthropic à interdire l'utilisation pour le développement d'armes est positif
- L'adhésion aux principes RAIM par 60+ pays offre un cadre éthique
- La supervision et la gouvernance restent cruciales

Le changement de position de Meta et Anthropic reflète une tension entre impératifs commerciaux et responsabilité éthique. Un cadre réglementaire strict et une surveillance indépendante semblent essentiels pour garantir une utilisation éthique de ces technologies.

Autrement lire Nexus de Yuval N. HARARI...



Home \ Anthropic



Meta AI





Running Meta Llama on Windows | Llama Everywhere










meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol


mardi 12 novembre 2024

Assistants Vocaux et Éthique :

Assistants Vocaux et Éthique :

OpenAI a annoncé le 28 octobre 2024 que le mode vocal avancé de ChatGPT est désormais accessible gratuitement en Europe pour les utilisateurs de comptes gratuits, offrant jusqu'à 15 minutes par mois d'utilisation. Ce mode permet aux utilisateurs de choisir parmi neuf voix et de converser avec l'IA de manière plus naturelle et dynamique, en adaptant les réponses aux émotions détectées dans la voix. Cette fonctionnalité, déjà disponible depuis septembre dans d’autres pays, a pris plus de temps à être lancée en France, probablement pour respecter les régulations européennes. Pour activer ce mode vocal, les utilisateurs doivent ouvrir l'application ChatGPT sur mobile, sélectionner une voix, et cliquer sur "Terminer". Il est également possible d'activer ce mode en arrière-plan, permettant de continuer la conversation tout en utilisant d’autres applications.

#OpenAI a annoncé que le mode vocal avancé de #ChatGPT est désormais gratuit en Europe pour les comptes gratuits, avec une utilisation limitée à 15 minutes par mois. Ce mode permet de choisir parmi neuf voix et d'adapter les réponses aux émotions détectées dans la voix. Déjà disponible depuis septembre dans d'autres pays, son lancement en France a été retardé pour respecter les régulations européennes. Pour l'activer, il suffit d'ouvrir l'application ChatGPT sur mobile, de sélectionner une voix et de cliquer sur "Terminer". Il peut également fonctionner en arrière-plan. Voilà, un résumé bien rempli.

Voici quelques informations sur les assistants vocaux avec IA les plus populaires en 2024 :

  1. ChatGPT Advanced Voice Mode : Basé sur le modèle GPT-4o d'OpenAI, ce mode vocal permet des conversations plus naturelles et interactives1. Il est idéal pour des tâches nécessitant une interaction en temps réel, comme le brainstorming ou les discussions complexes1.

  2. #Gemini Live : Développé par Google, Gemini Live utilise le modèle Gemini 1.5 Pro et permet des interactions vocales dans plus de 40 langues1. Il est conçu pour offrir une expérience utilisateur fluide et intuitive1.

  3. #Copilot Natural Voice Interaction : Proposé par Microsoft, ce système permet une interaction vocale naturelle et personnalisée1. Il est particulièrement utile pour les tâches de productivité et de support client1. Pas de Copilot en Europe, pour le moment. Ma voix n’est pas disponible dans votre région. J’aimerais beaucoup discuter avec vous, mais cette fonction n’est pas prise en charge dans votre région. Mais nous pouvons toujours parler par écrit !

  4. #Fireflies AI : Cet assistant personnel utilise le traitement du langage naturel (NLP) pour enregistrer, transcrire et rechercher rapidement les interactions vocales2. Il est très pratique pour les réunions et les appels d'affaires2.

  5. #Siri : L'assistant vocal d'Apple, toujours populaire, offre une large gamme de fonctionnalités intégrées aux appareils iOS et macOS2.

ChatGPT, Gemini ou Copilot : Quel assistant vocal IA choisir en 2024 ?

Ces assistants vocaux sont de plus en plus intégrés dans notre quotidien, offrant des solutions pratiques pour diverses tâches et améliorant notre expérience numérique.

Les questions réponses sont fluides (voir les copies écran ci-dessous).

Les assistants vocaux IA apportent de nombreuses commodités, mais ils soulèvent aussi des questions éthiques importantes :

Vie Privée : Les assistants vocaux écoutent constamment et collectent des données vocales, soulevant des préoccupations sur la surveillance et la protection des données personnelles.

Biais : Les algorithmes peuvent reproduire les biais présents dans leurs données d'entraînement, affectant l'équité des interactions et des recommandations. Par exemple, des assistants peuvent mal interpréter les accents ou sous-représenter certaines langues.

Transparence et Explicabilité : Les décisions prises par les assistants vocaux sont souvent opaques pour les utilisateurs. La transparence est essentielle pour comprendre comment les décisions sont prises et pour assurer la responsabilité.

Fiabilité et Sécurité : Les erreurs dans les interprétations vocales peuvent avoir des conséquences graves, surtout dans les contextes médicaux ou financiers. La sécurité des systèmes contre les cyberattaques est également cruciale.

Impact Social : L'usage répandu des assistants IA peut modifier les interactions sociales et la communication humaine, et il est essentiel de comprendre ces impacts pour garantir un usage éthique.

Ces enjeux nécessitent des cadres réglementaires solides et des pratiques de développement responsables pour maximiser les avantages tout en minimisant les risques. Une IA éthique, c'est une IA qui est développée avec soin et attention à ces détails importants. Voilà pourquoi une approche responsable est primordiale.

Les 10 meilleurs assistants IA - Ai Explorer



--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


vendredi 1 novembre 2024

Pourquoi ne pas jouer avec l'IA et l'Éthique ?

PlatoPlay, créé par Naully Nicolas, est un projet innovant visant à intégrer l'éthique dans les projets d'intelligence artificielle de manière ludique et engageante. Ce deck de cartes interactif est conçu pour stimuler des discussions sur des sujets cruciaux tels que la transparence, la responsabilité et la neutralité dans l'IA. L'objectif est de rendre les concepts éthiques accessibles et compréhensibles pour tous les participants, qu'ils soient novices ou experts en IA.

Naully Nicolas, avec son expertise en ingénierie informatique et en marketing, a développé PlatoPlay pour encourager une réflexion approfondie et collaborative sur les implications éthiques de l'IA. Ce projet est idéal pour les ateliers, les formations et les sessions de brainstorming, offrant une approche interactive pour aborder des questions complexes de manière engageante et mémorable.

PlatoPlay semble être une ressource précieuse pour toute organisation cherchant à intégrer l'éthique dans ses initiatives d'IA.     Qu'en pensez-vous?

PlatoPlay : L'éthique de l'IA à portée de main

€39

L'intelligence artificielle a un potentiel immense, mais elle pose aussi des défis éthiques qui peuvent ébranler la confiance, exposer aux risques juridiques, et générer des décisions biaisées. Les organisations sont de plus en plus tenues de rendre des comptes, de respecter la transparence, et de s’assurer que leur IA prend des décisions responsables. Mais comment naviguer dans ce paysage complexe, où chaque choix peut affecter votre réputation et l'adhésion de vos parties prenantes ?

Sans cadre éthique solide, vos projets IA risquent de perdre la confiance de leurs utilisateurs, d'ignorer des biais potentiels, et de compromettre votre position sur le marché. L'IA sans éthique, c’est une IA risquée – un choix qui pourrait coûter cher en termes de réputation et de conformité. En somme, l'IA nécessite plus qu’une simple implémentation technique : elle requiert une gouvernance responsable et des réflexions éthiques approfondies.

PlatoPlay est bien plus qu'un jeu de cartes – c'est un guide pratique pour naviguer dans les complexités éthiques de l'IA. Conçu autour du cadre PLATON, PlatoPlay aide vos équipes à se poser les bonnes questions, à anticiper les risques et à bâtir une IA alignée avec des principes de transparence, d’autorité, et de neutralité. C’est une boîte à outils interactive pour développer une IA que vous pouvez défendre et dans laquelle vos parties prenantes peuvent avoir confiance.


À qui s'adresse PlatoPlay ?

  • Entreprises : Pour toute organisation développant ou intégrant de l'IA, PlatoPlay est un outil essentiel pour instaurer une culture de gouvernance éthique. Que vous soyez une start-up tech ou une grande entreprise, ce deck vous guide dans l’application concrète de principes éthiques pour des projets IA transparents et responsables.

  • Dirigeants et décideurs : Alignez vos projets IA avec des valeurs éthiques et anticipez les risques juridiques et de réputation qui pourraient en découler.

  • Équipes techniques : Fournissez aux développeurs et aux data scientists un cadre clair pour réduire les biais, renforcer la transparence, et favoriser une prise de décision IA de qualité.

  • Clients et utilisateurs : Avec PlatoPlay, vous pouvez démontrer à vos clients que vos projets IA sont pensés et conçus dans une optique de transparence et d’équité. Cela renforce la confiance et la crédibilité auprès de ceux qui sont concernés par vos décisions technologiques.

  • Responsables de la conformité : Facilitez la mise en place de pratiques conformes aux standards éthiques et légaux, tout en respectant les attentes en matière de gouvernance de l'IA.

  • Formateurs et éducateurs : Utilisez PlatoPlay pour sensibiliser et former aux enjeux éthiques de l’IA, que ce soit dans des contextes académiques ou professionnels.


Découvrez quelques exemples de cartes


Deck physique

Les versions physiques de PlatoPlay sont disponibles en précommande. Le deck est imprimé en format carte de poker (63 x 88 mm) sur du papier mat 350 g pour un toucher premium, et est livré dans une boîte rigide soignée. Réservez votre exemplaire dès maintenant, ou optez pour la version numérique pour un accès instantané.


Commandes par lots

Je propose des productions à la demande à partir de 20 decks minimum. Que ce soit pour un atelier de groupe ou pour équiper plusieurs équipes, contactez-moi à 
sayhi@naullynicolas.c
h pour organiser une commande groupée et découvrir mes options de personnalisation.


Workshops en présentiel

Envie d'aller plus loin ? J'organise des ateliers sur mesure pour accompagner vos équipes dans l’application concrète des principes éthiques avec PlatoPlay. Lors de ces workshops, nous abordons ensemble des scénarios éthiques précis et engageons vos équipes dans des réflexions et des solutions pratiques.

Contactez-moi à 
sayhi@naullynicolas.c
h pour planifier un atelier personnalisé.


Découvrez l'éthique IA avec PlatoPlay
Pour un aperçu exclusif de PlatoPlay ou toute demande spécifique, contactez-nous à 
sayhi@naullynicolas.c
h.


PlatoPlay : L'éthique de l'IA à portée de main




PlatoPlay est un jeu de cartes conçu par Naully Nicolas pour faciliter l'intégration de l'éthique dans les projets d'intelligence artificielle (IA). Inspiré du cadre PLATON, ce jeu offre une approche interactive pour aborder les défis éthiques liés à l'IA. 
NAULLY NICOLAS

Objectifs de PlatoPlay :


Sensibilisation : Aider les équipes à identifier et comprendre les enjeux éthiques de l'IA.
Réflexion : Encourager des discussions approfondies sur des scénarios éthiques spécifiques.
Application : Fournir des outils pratiques pour intégrer des principes éthiques dans le développement de solutions IA.

Public cible :


Entreprises : Organisations développant ou intégrant de l'IA, souhaitant instaurer une culture de gouvernance éthique.
Dirigeants et décideurs : Responsables cherchant à aligner leurs projets IA avec des valeurs éthiques et à anticiper les risques associés.
Équipes techniques : Développeurs et data scientists désireux de réduire les biais et de renforcer la transparence dans leurs solutions IA.
Formateurs et éducateurs : Professionnels souhaitant sensibiliser et former aux enjeux éthiques de l'IA.
Contenu du jeu :

PlatoPlay se compose de cartes illustrant divers aspects éthiques de l'IA, accompagnées d'ateliers pratiques pour une compréhension et une application concrète. Les cartes sont imprimées en format poker (63 x 88 mm) sur du papier mat 350 g pour un toucher premium, et sont livrées dans une boîte rigide soignée. NAULLY NICOLAS

Disponibilité :


Le jeu est disponible en précommande en version physique. Des productions à la demande sont possibles à partir de 20 jeux, avec des options de personnalisation pour des ateliers de groupe ou pour équiper plusieurs équipes. Des ateliers sur mesure peuvent également être organisés pour accompagner les équipes dans l'application concrète des principes éthiques avec PlatoPlay.

PlatoPlay : L'éthique de l'IA à portée de main