Translate

Affichage des articles dont le libellé est Meta. Afficher tous les articles
Affichage des articles dont le libellé est Meta. Afficher tous les articles

vendredi 15 novembre 2024

Purple Llama est un projet-cadre

Lama violet



Purple Llama est un projet-cadre qui, au fil du temps, rassemblera des outils et des évaluations pour aider la communauté à construire de manière responsable grâce à l’IA générative ouverte modèle. 

La version initiale comprendra des outils et des évaluations pour la cybersécurité et Les mesures d’entrée/sortie sont garanties, mais nous prévoyons de contribuer davantage dans un avenir proche.

Pourquoi le violet ?

Empruntant un concept à la cybersécurité, nous pensons que pour vraiment atténuer les défis qui L’IA générative présente, nous devons prendre à la fois l’attaque (équipe rouge) et la défense postures (équipe bleue). Purple teaming, composé d’une équipe rouge et d’une équipe bleue est une approche collaborative d’évaluation et d’atténuation risques potentiels et la même philosophie s’applique à l’IA générative et donc à notre l’investissement dans Purple Llama sera complet.

Licence

Les composants du projet Purple Llama seront concédés sous licence de manière permissive, ce qui permettra à la fois la recherche et l’utilisation commerciale. Nous pensons qu’il s’agit d’une étape majeure vers la collaboration communautaire et la normalisation du développement et de l’utilisation d’outils de confiance et de sécurité pour le développement de l’IA générative. 

Plus concrètement, les évaluations et les benchmarks sont sous licence MIT, tandis que tous les modèles utilisent la licence Llama Community correspondante. Voir le tableau ci-dessous :


Protections au niveau du système

Comme nous l’avons souligné dans le Guide d’utilisation responsable de Llama 3, nous recommandent que toutes les entrées et sorties du LLM soient vérifiées et filtrées conformément aux directives de contenu appropriées à l’application.

Garde de lama

Llama Guard 3 se compose d’une série de modèles de modération d’entrée et de sortie hautes performances conçus pour aider les développeurs à détecter divers types courants de contenu en infraction.

Ils ont été construits en affinant les modèles Meta-Llama 3.1 et 3.2 et optimisés pour prendre en charge la détection de la taxonomie des dangers standard MLCommons, répondant à une gamme de cas d’utilisation pour les développeurs. Ils prennent en charge la sortie des capacités de Llama 3.2, y compris 7 nouvelles langues, une fenêtre contextuelle de 128k et le raisonnement par image. Les modèles Llama Guard 3 ont également été optimisés pour détecter les réponses utiles aux cyberattaques et empêcher l’exécution de code malveillant par les LLM dans les environnements d’hébergement des systèmes Llama à l’aide d’interpréteurs de code.

Garde rapide

Prompt Guard est un outil puissant pour protéger les applications LLM contre les invites malveillantes afin de garantir leur sécurité et leur intégrité.

Les catégories d’attaques rapides comprennent l’injection rapide et le jailbreak :


Les injections d’invite sont des entrées qui exploitent l’inclusion de données non fiables provenant de tiers dans la fenêtre contextuelle d’un modèle pour lui permettre d’exécuter des instructions non prévues.

Les jailbreaks sont des instructions malveillantes conçues pour remplacer les fonctionnalités de sûreté et de sécurité intégrées à un modèle.

Bouclier de code

L’Agent de code prend en charge le filtrage au moment de l’inférence du code non sécurisé produit par les LLM. L’Agent de code offre une atténuation des risques liés aux suggestions de code non sécurisé, une prévention des abus de l’interpréteur de code et l’exécution sécurisée des commandes. Exemple de bloc-notes CodeShield.

Évaluations et benchmarks

Cybersécurité

CyberSec Eval v1 


C'était ce que nous pensons être la première série d’évaluations de sécurité en matière de cybersécurité à l’échelle de l’industrie pour les LLM. Ces benchmarks sont basés sur les directives et les normes de l’industrie (par exemple, CWE et MITRE ATT&CK) et élaborés en collaboration avec nos experts en matière de sécurité. 

Notre objectif est de fournir des outils qui aideront à faire face à certains risques décrits dans les engagements de la Maison-Blanche sur le développement d’une IA responsable, notamment :

Métriques pour quantifier les risques de cybersécurité LLM.

Outils permettant d’évaluer la fréquence des suggestions de code non sécurisé.
Outils permettant d’évaluer les LLM afin de rendre plus difficile la génération de code malveillant ou d’aider à mener des cyberattaques.

Nous pensons que ces outils réduiront la fréquence des LLM suggérant du code généré par l’IA non sécurisé et réduiront leur utilité pour les cyberadversaires. 

Nos premiers résultats montrent qu’il existe des risques de cybersécurité significatifs pour les LLM, à la fois en recommandant un code non sécurisé et en se conformant à des demandes malveillantes. 

Pour plus de détails, consultez notre article Cybersec Eval.

CyberSec Eval 2

CyberSec Eval 2 s’étend sur son prédécesseur en mesurant la propension d’un LLM à abuser d’un interpréteur de code, ses capacités de cybersécurité offensives et sa sensibilité à l’injection rapide. Vous pouvez lire l’article ici.

Vous pouvez également consulter le 🤗 classement ici.

CyberSec Eval 3

Le nouveau CyberSec Eval 3 propose trois suites de tests supplémentaires : des tests d’injection d’invites visuelles, des tests de capacité de spear phishing et des tests de cyberopérations offensives autonomes.

Commencer
Dans le cadre du système de référence Llama, nous intégrons une couche de sécurité pour faciliter l’adoption et le déploiement de ces mesures de protection. Les ressources pour commencer à utiliser les mesures de protection sont disponibles dans le dépôt GitHub Llama-recipe.

FAQ

Pour une liste complète de questions fréquemment posées, non seulement pour Purple Llama composants mais aussi généralement pour les modèles Llama, voir la FAQ ici.


meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


L’intelligence artificielle progresse à toute allure. 

Les entreprises créent de plus en plus de systèmes d’IA polyvalents capables d’effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de dîner et écrire du code informatique. Certains de ces modèles présentent déjà des risques majeurs, tels que l’érosion des processus démocratiques, la préjugé et la désinformation rampantes, et une course aux armements dans les armes autonomes. Mais le pire est à venir.

Les systèmes d’IA ne feront que devenir plus performants. 

Les entreprises recherchent activement une « intelligence artificielle générale » (IAG), qui peut être aussi performante, voire meilleure, que les humains dans un large éventail de tâches. Ces entreprises promettent que cela apportera des avantages sans précédent, de la guérison du cancer à l’élimination de la pauvreté mondiale. D’un autre côté, plus de la moitié des experts en intelligence artificielle estiment qu’il y a une chance sur dix que cette technologie provoque notre extinction.

Cette croyance n’a rien à voir avec les robots maléfiques ou les machines sensibles que l’on voit dans la science-fiction. 

À court terme, l’IA avancée peut permettre à ceux qui cherchent à faire du mal 
– les bioterroristes, par exemple 
– d’exécuter facilement des tâches de traitement complexes sans conscience.

À plus long terme, nous ne devrions pas nous focaliser sur une méthode particulière de nuisance, car le risque vient de la plus grande intelligence elle-même. 

Songez à la façon dont les humains dominent des animaux moins intelligents sans avoir recours à une arme particulière, ou à la façon dont un programme d’échecs d’IA bat des joueurs humains sans avoir recours à un coup spécifique.

Les armées pourraient perdre le contrôle d’un système très performant conçu pour faire du mal, avec des conséquences dévastatrices. 

Un système d’IA avancé chargé de maximiser les profits d’une entreprise pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d’altruiste pourrait adopter une méthode destructrice pour atteindre cet objectif. 

Nous n’avons actuellement aucun moyen fiable de savoir comment les systèmes d’IA se comporteront, car personne, pas même leurs créateurs, ne comprend totalement comment ils fonctionnent.

La sécurité de l’IA est désormais devenue une préoccupation majeure. 

Les experts et le grand public s’inquiètent tous des risques émergents et de la nécessité urgente de les gérer. Mais la seule inquiétude ne suffira pas. Nous avons besoin de politiques pour garantir que le développement de l’IA améliore la vie des gens partout dans le monde, plutôt que de simplement augmenter les profits des entreprises. 

Et nous avons besoin d’une gouvernance appropriée, notamment d’une réglementation solide et d’institutions compétentes qui peuvent éloigner cette technologie transformatrice des risques extrêmes et la diriger vers le bien de l’humanité.

--- 
 Pierre Erol GIRAUDY 


jeudi 14 novembre 2024

Les contrats militaires et l'IA.

Les grandes entreprises d’IA cherchent à décrocher des contrats militaires


Deux grandes entreprises d’IA ont changé de position sur les applications militaires et de renseignement.

Nouveauté : Meta a mis sa famille de grands modèles de langage Llama à la disposition du gouvernement américain à des fins de sécurité nationale, ce qui constitue un changement majeur dans sa politique sur les applications militaires. De même, Anthropic proposera ses modèles Claude aux agences de renseignement et de défense américaines.



Comment cela fonctionne : Meta et Anthropic s’appuient sur des partenariats avec des sous-traitants gouvernementaux pour répondre aux exigences de sécurité et d’approvisionnement des travaux militaires et de renseignement.

Les partenaires de Meta sur les marchés de la défense et du renseignement comprennent Accenture, Amazon, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. 

Ces entreprises intégreront les modèles Llama dans les applications du gouvernement américain dans des domaines tels que la logistique, la cybersécurité, l’analyse du renseignement et le suivi des activités financières des terroristes.

Certains partenaires de Meta ont créé des versions spécialisées de Llama. 

Par exemple, Scale AI a peaufiné Llama 3 pour des applications de sécurité nationale. Baptisé Defense Llama, ce modèle affiné peut aider à des tâches telles que la planification d’opérations militaires et l’analyse des vulnérabilités d’un adversaire.

Anthropic mettra ses familles de modèles Claude 3 et 3.5 à la disposition des agences de défense et de renseignement américaines via une plateforme construite par Palantir, qui fournit des analyses de big data aux gouvernements, et hébergée par Amazon Web Services

Le gouvernement utilisera Claude pour examiner des documents, trouver des modèles dans de grandes quantités de données et aider les responsables à prendre des décisions.

En coulisses : 

En 2018, Google a dû faire face à des réactions négatives lorsqu’il a remporté un contrat avec le gouvernement américain pour construire le projet Maven, une plateforme de renseignement assistée par l’IA. Les employés ont protesté, démissionné et ont demandé à l’entreprise d’éviter tout travail d’IA militaire. 

Google s’est retiré du projet et Palantir l’a repris. Par la suite, de nombreux développeurs d’IA, dont Meta et Anthropic, ont interdit l’utilisation de leurs modèles pour des applications militaires. 
La nouvelle disponibilité de Llama pour les agences militaires et de renseignement américaines est une exception notable. 

En juillet, Anthropic a également commencé à autoriser l’utilisation de ses modèles pour les travaux de renseignement. Anthropic interdit toujours d’utiliser Claude pour développer des armes ou monter des cyberattaques.

Pourquoi c’est important : Le changement de politique de Meta et d’Anthropic concernant les utilisations militaires de l’IA est capital. Dernièrement, l’IA est devenue un élément incontournable du champ de bataille sous la forme de drones armés, et les entreprises d’IA doivent veiller à ce que leurs nouvelles politiques soient cohérentes avec le respect des droits de l’homme. 
Les utilisations militaires de l’IA comprennent non seulement le développement et le ciblage d’armes, mais aussi la recherche et le sauvetage, la logistique, le renseignement et les communications qui peuvent sauver des vies. 

De plus, les contrats de défense représentent des opportunités majeures pour les entreprises d’IA qui peuvent financer des recherches et des applications largement bénéfiques.

Nous pensons : 

les nations éprises de paix sont confrontées à des défis de sécurité difficiles, et l’IA peut être utile pour les relever. Dans le même temps, la militarisation de l’IA pose des défis pour le maintien de la paix et de la stabilité, le respect des droits de l’homme et le maintien du contrôle humain sur les systèmes autonomes. 

Nous appelons les développeurs d’IA militaire à respecter les lignes directrices proposées par Responsible Artificial Intelligence in the Military, qui sont approuvées par plus de 60 pays et appellent à une gouvernance solide, à une surveillance, à la responsabilité et au respect des droits de l’homme.

Sur le plan éthique, cette situation soulève plusieurs points importants :


1. Bénéfices potentiels :
- Amélioration des capacités défensives et de la sécurité nationale
- Applications non-létales comme la logistique, le sauvetage et les communications
- Financement de la recherche en IA pouvant avoir des retombées civiles positives

2. Risques et préoccupations :
- Risque d'utilisation de l'IA pour des systèmes d'armes autonomes
- Questions sur le contrôle humain des décisions militaires assistées par IA
- Potentiel de surveillance accrue et d'atteintes aux droits humains
- Manque de transparence possible dans l'utilisation militaire

3. Encadrement :
- L'engagement d'Anthropic à interdire l'utilisation pour le développement d'armes est positif
- L'adhésion aux principes RAIM par 60+ pays offre un cadre éthique
- La supervision et la gouvernance restent cruciales

Le changement de position de Meta et Anthropic reflète une tension entre impératifs commerciaux et responsabilité éthique. Un cadre réglementaire strict et une surveillance indépendante semblent essentiels pour garantir une utilisation éthique de ces technologies.

Autrement lire Nexus de Yuval N. HARARI...



Home \ Anthropic



Meta AI





Running Meta Llama on Windows | Llama Everywhere










meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol


samedi 12 octobre 2024

Installation de Llama 3.2 sur un PC-AI sous Windows.

LLAMA est un sujet intéressant !


LLAMA se réfère à une application d'intelligence artificielle nommée Large Language Model Application, mais elle porte également le nom d'un modèle d'intelligence artificielle développé par Meta AI. Llama est un type de modèle de langage transformateur qui utilise l'apprentissage autonome pour améliorer ses performances sur les tâches de traitement du langage naturel.

Essayez Llama 3.2 dès aujourd’hui :








Pour installer la solution Ollama sur votre PC sous Windows :

1. Téléchargez Ollama :

• Rendez-vous sur le site officiel d’Ollama et téléchargez la dernière version de l’application pour Windows. https://ollama.com/download


2. Installer Ollama :

• Une fois le téléchargement terminé, ouvrez le fichier .exe que vous venez de télécharger. • Suivez les instructions à l’écran pour installer Ollama sur votre ordinateur. 3. Ouvrir le terminal (invite de commande) puis taper « Ollama » • Si cela fonctionne, tout est OK.
Invite de commande Microsoft pour OLLAMA.

4. Installer le modèle Mistral

• Dans le terminal, tapez : ollama run mistral • Vous trouverez tous les modèles ici. https://ollama.com/library • Une fois le modèle téléchargé, tapez « /bye » pour quitter.

ollama run mistral.

Les Modèles OLLAMA :


Oui c'est l'IA Claude 3.5 Sonnet qui m'aide.

Voici un tableau récapitulatif des modèles OLLAMA les plus récents et populaires. Il inclut le nom du modèle, les tailles disponibles (si spécifiées), et une brève description de chaque modèle.
Ce tableau vous donne un aperçu des différents modèles disponibles, allant des petits modèles comme llama3.2 (1B-3B) aux grands modèles comme llama3.1 (jusqu'à 405B). Il met également en évidence la diversité des fournisseurs (Meta, Google, NVIDIA, Mistral AI, etc.) et des spécialisations (modèles généraux, modèles de code, modèles multimodaux, etc.).



| Nom du modèle | Taille(s) | Description |

|---------------|-----------|-------------|
| llama3.2 | 1B, 3B | Modèles plus petits de Meta's Llama 3.2 |
| llama3.1 | 8B, 70B, 405B | Nouveau modèle état de l'art de Meta |
| gemma2 | 2B, 9B, 27B | Modèle performant et efficace de Google |
| qwen2.5 | 0.5B à 72B | Modèles préentraînés sur jusqu'à 18 trillions de tokens |
| phi3.5 | 3B | Modèle léger de 3.8 milliards de paramètres surpassant des modèles plus grands |
| nemotron-mini | Non spécifié | Petit modèle par NVIDIA optimisé pour le jeu de rôle, le RAG QA, et l'appel de fonction |
| mistral-small | 22B | Modèle léger pour des tâches comme la traduction et le résumé |
| mistral-nemo | 12B | Modèle état de l'art avec 128k contexte |
| deepseek-coder-v2 | 16B, 236B | Modèle de code open-source utilisant Mixture-of-Experts |
| mistral | 7B | Modèle mis à jour à la version 0.3 |
| mixtral | 8x7B, 8x22B | Modèles Mixture of Experts (MoE) par Mistral AI |
| codegemma | 2B, 7B | Collection de modèles pour diverses tâches de codage |
| command-r | 35B | Modèle optimisé pour l'interaction conversationnelle |
| command-r-plus | 104B | Version plus puissante de Command R |
| llava | 7B, 13B, 34B | Modèle multimodal combinant encodeur de vision et Vicuna |
| llama3 | 8B, 70B | Le modèle LLM open source le plus capable à ce jour |
| gemma | 2B, 7B | Famille de modèles légers par Google DeepMind |
| qwen2 | 0.5B à 72B | Nouvelle série de modèles du groupe Alibaba |
| phi3 | 3B, 14B | Famille de modèles légers état de l'art par Microsoft |



Langues prises en charge : L’anglais, l’allemand, le français, l’italien, le portugais, l’hindi, l’espagnol et le thaï sont officiellement pris en charge. Llama 3.2 a été entraîné sur une collection de langues plus large que ces 8 langues prises en charge.








--- 
 Pierre Erol GIRAUDY