Translate

Affichage des articles dont le libellé est Risques. Afficher tous les articles
Affichage des articles dont le libellé est Risques. Afficher tous les articles

jeudi 14 novembre 2024

Les contrats militaires et l'IA.

Les grandes entreprises d’IA cherchent à décrocher des contrats militaires


Deux grandes entreprises d’IA ont changé de position sur les applications militaires et de renseignement.

Nouveauté : Meta a mis sa famille de grands modèles de langage Llama à la disposition du gouvernement américain à des fins de sécurité nationale, ce qui constitue un changement majeur dans sa politique sur les applications militaires. De même, Anthropic proposera ses modèles Claude aux agences de renseignement et de défense américaines.



Comment cela fonctionne : Meta et Anthropic s’appuient sur des partenariats avec des sous-traitants gouvernementaux pour répondre aux exigences de sécurité et d’approvisionnement des travaux militaires et de renseignement.

Les partenaires de Meta sur les marchés de la défense et du renseignement comprennent Accenture, Amazon, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. 

Ces entreprises intégreront les modèles Llama dans les applications du gouvernement américain dans des domaines tels que la logistique, la cybersécurité, l’analyse du renseignement et le suivi des activités financières des terroristes.

Certains partenaires de Meta ont créé des versions spécialisées de Llama. 

Par exemple, Scale AI a peaufiné Llama 3 pour des applications de sécurité nationale. Baptisé Defense Llama, ce modèle affiné peut aider à des tâches telles que la planification d’opérations militaires et l’analyse des vulnérabilités d’un adversaire.

Anthropic mettra ses familles de modèles Claude 3 et 3.5 à la disposition des agences de défense et de renseignement américaines via une plateforme construite par Palantir, qui fournit des analyses de big data aux gouvernements, et hébergée par Amazon Web Services

Le gouvernement utilisera Claude pour examiner des documents, trouver des modèles dans de grandes quantités de données et aider les responsables à prendre des décisions.

En coulisses : 

En 2018, Google a dû faire face à des réactions négatives lorsqu’il a remporté un contrat avec le gouvernement américain pour construire le projet Maven, une plateforme de renseignement assistée par l’IA. Les employés ont protesté, démissionné et ont demandé à l’entreprise d’éviter tout travail d’IA militaire. 

Google s’est retiré du projet et Palantir l’a repris. Par la suite, de nombreux développeurs d’IA, dont Meta et Anthropic, ont interdit l’utilisation de leurs modèles pour des applications militaires. 
La nouvelle disponibilité de Llama pour les agences militaires et de renseignement américaines est une exception notable. 

En juillet, Anthropic a également commencé à autoriser l’utilisation de ses modèles pour les travaux de renseignement. Anthropic interdit toujours d’utiliser Claude pour développer des armes ou monter des cyberattaques.

Pourquoi c’est important : Le changement de politique de Meta et d’Anthropic concernant les utilisations militaires de l’IA est capital. Dernièrement, l’IA est devenue un élément incontournable du champ de bataille sous la forme de drones armés, et les entreprises d’IA doivent veiller à ce que leurs nouvelles politiques soient cohérentes avec le respect des droits de l’homme. 
Les utilisations militaires de l’IA comprennent non seulement le développement et le ciblage d’armes, mais aussi la recherche et le sauvetage, la logistique, le renseignement et les communications qui peuvent sauver des vies. 

De plus, les contrats de défense représentent des opportunités majeures pour les entreprises d’IA qui peuvent financer des recherches et des applications largement bénéfiques.

Nous pensons : 

les nations éprises de paix sont confrontées à des défis de sécurité difficiles, et l’IA peut être utile pour les relever. Dans le même temps, la militarisation de l’IA pose des défis pour le maintien de la paix et de la stabilité, le respect des droits de l’homme et le maintien du contrôle humain sur les systèmes autonomes. 

Nous appelons les développeurs d’IA militaire à respecter les lignes directrices proposées par Responsible Artificial Intelligence in the Military, qui sont approuvées par plus de 60 pays et appellent à une gouvernance solide, à une surveillance, à la responsabilité et au respect des droits de l’homme.

Sur le plan éthique, cette situation soulève plusieurs points importants :


1. Bénéfices potentiels :
- Amélioration des capacités défensives et de la sécurité nationale
- Applications non-létales comme la logistique, le sauvetage et les communications
- Financement de la recherche en IA pouvant avoir des retombées civiles positives

2. Risques et préoccupations :
- Risque d'utilisation de l'IA pour des systèmes d'armes autonomes
- Questions sur le contrôle humain des décisions militaires assistées par IA
- Potentiel de surveillance accrue et d'atteintes aux droits humains
- Manque de transparence possible dans l'utilisation militaire

3. Encadrement :
- L'engagement d'Anthropic à interdire l'utilisation pour le développement d'armes est positif
- L'adhésion aux principes RAIM par 60+ pays offre un cadre éthique
- La supervision et la gouvernance restent cruciales

Le changement de position de Meta et Anthropic reflète une tension entre impératifs commerciaux et responsabilité éthique. Un cadre réglementaire strict et une surveillance indépendante semblent essentiels pour garantir une utilisation éthique de ces technologies.

Autrement lire Nexus de Yuval N. HARARI...



Home \ Anthropic



Meta AI





Running Meta Llama on Windows | Llama Everywhere










meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol


lundi 24 février 2020

Comment la nouvelle solution de Microsoft 365 utilise l'apprentissage automatique pour arrêter les fuites de données et les attaques internes


Apprentissage des risques

La gouvernance passera aussi par la gestion des risques...

Il peut être difficile pour une entreprise de repérer même ces «risques internes», et encore moins de faire la distinction entre un comportement routinier et les valeurs aberrantes qui pourraient détruire l'avantage concurrentiel ou la réputation d'une entreprise.
C'est pourquoi Microsoft propose une nouvelle solution de gestion des risques d'initiés dans Microsoft 365 qui utilise l'apprentissage automatique pour détecter intelligemment les comportements potentiellement à risque au sein d'une entreprise. Il identifie également rapidement les activités les plus susceptibles de poser de réelles menaces à la sécurité, même par inadvertance.
Étant donné que les erreurs sont une source de risque réel plus importante que les attaques internes, la solution a été conçue pour aider les employés à faire les bons choix et à éviter les failles de sécurité courantes. Pour être efficaces, les ingénieurs le savaient, la solution devait aussi aider les gens à faire leur travail plutôt que de les ralentir.
«Fondamentalement, les employés d'une entreprise essaient généralement de faire ce qu'il faut», a déclaré Bret Arsenault, directeur de la sécurité de l'information et vice-président de Microsoft. «Mais parfois, l'intention est différente du résultat.»

---
 Pierre Erol GIRAUDY