Translate

Affichage des articles dont le libellé est Anthropic. Afficher tous les articles
Affichage des articles dont le libellé est Anthropic. Afficher tous les articles

mercredi 27 novembre 2024

Les stratégies des grands acteurs pour les Agents AI

Voici une analyse des stratégies des grands acteurs pour les Agents AI :

1. Microsoft

- Stratégie d'intégration native (AIShell dans PowerShell)
- Copilots dans tous leurs produits
- But : Dominer l'IA en entreprise via leurs outils existants
- Partenariat OpenAI pour l'expertise IA

2. Anthropic

- Focus sur la sécurité et l'éthique avec Claude
- Développement d'agents spécialisés par domaine
- But : IA fiable et responsable pour entreprises
- Accent sur la transparence et contrôle


3. Google

- Gemini comme base technologique
- Intégration dans Workspace et Android
- But : IA consumer et entreprise unifiée
- Innovation dans les modèles multimodaux

4. AWS

- Amazon Q pour le cloud computing
- Agents spécialisés par service AWS
- But : Dominer l'IA dans le cloud
- Focus sur l'automatisation cloud

5. IBM

- Watson comme plateforme enterprise
- Agents spécialisés par industrie
- But : Solutions IA B2B personnalisées
- Expertise sectorielle

6. Apple

- Approche privacy-first
- Intégration iOS/macOS
- But : IA personnelle sécurisée
- Focus expérience utilisateur

Les agents dans SharePoint sont désormais en disponibilité générale

Une expertise débloquée pour chaque utilisateur

Aujourd’hui, à l’occasion de Microsoft Ignite, nous avons présenté des agents dans Microsoft 365 pour générer le prochain niveau de valeur commerciale pour les organisations. Ces agents sont prêts à l’emploi, chacun possédant des compétences et des connaissances spécialisées pour prendre en charge des rôles uniques. Ils travaillent aux côtés ou au nom d’une personne, d’une équipe ou d’une organisation pour gérer des tâches simples et des processus commerciaux plus complexes. 

Dans le cadre des agents dans Microsoft 365, nous sommes ravis d’annoncer la disponibilité générale des agents dans SharePoint aujourd’hui, permettant aux utilisateurs de transformer des sites et des documents SharePoint en agents étendus qui sont des experts en la matière pour les besoins de votre entreprise. Ces agents permettent à chacun de faire rapidement apparaître des informations, d’étendre l’expertise et de prendre des décisions éclairées. Les agents dans SharePoint commenceront à être déployés cette semaine et devraient être terminés d’ici la fin de l’année civile.   



Reimagine content management with agents in SharePoint | BRK279 :


Microsoft Ignite Keynote


Autres fournisseurs de solutions avec des agents :

zenbaia home




Objectifs Communs :

1. Automatisation intelligente
2. Personnalisation des services
3. Augmentation productivité
4. Monétisation des services IA
5. Création d'écosystèmes propriétaires





Le but final semble être la création d'assistants IA omniprésents et spécialisés, intégrés nativement dans tous les outils et services.



1. **Concept des Agents IA :**
- Plus autonomes que les assistants classiques (Siri, Alexa)
- Capacité d'action proactive et d'adaptation en temps réel
- Apprentissage continu basé sur leurs actions passées

2. **Initiatives Majeures :**
- Microsoft : Intégration dans Dynamics 365 pour l'automatisation des processus métier
- Amazon : Personnalisation de l'expérience client et gestion des recommandations

3. **Avantages pour les Entreprises :**
- Augmentation de la productivité
- Réduction des coûts opérationnels
- Prise de décision basée sur les données
- Automatisation des tâches répétitives

4. **Défis et Enjeux :**
- Sécurité des données sensibles
- Transparence des décisions automatisées
- Respect des principes éthiques

5. **Applications Sectorielles :**
- Santé : Analyse des dossiers médicaux
- Finance : Détection des fraudes
- Industrie : Maintenance prédictive

6. **Perspectives d'Avenir :**
- Démocratisation vers les PME
- Intégration dans les objets connectés
- Évolution vers des décisions plus complexes

CONCLUSION : 

Il est  bon de souligner l'importance croissante des agents IA comme outils stratégiques pour l'automatisation intelligente et la transformation digitale des entreprises.


Cette initiative de Microsoft avec AI Shell représente une évolution stratégique significative dans l'écosystème PowerShell et l'automatisation :


1. Intégration Native de l'IA :
- PowerShell devient une interface directe pour les modèles d'IA
- Permet aux administrateurs systèmes d'utiliser l'IA sans quitter leur environnement de travail habituel
- Simplifie l'accès aux capacités d'IA via la ligne de commande

2. Approche Stratégique de Microsoft :
- Démocratisation de l'IA dans les outils d'administration
- Fusion entre automatisation traditionnelle et intelligence artificielle
- Double stratégie avec support OpenAI et Azure (flexibilité du choix)

3. Impact sur l'Administration Système :
- Possibilité d'automatiser des tâches complexes avec assistance IA
- Génération de scripts plus sophistiqués
- Analyse et résolution de problèmes assistées par IA

4. Évolution du Rôle des Administrateurs :
- Transition vers une administration "IA-augmentée"
- Nouveau paradigme dans la gestion des systèmes
- Nécessité de développer des compétences hybrides (PowerShell + IA)

5. Perspectives Futures :
- Probable expansion vers d'autres modèles d'IA
- Intégration plus profonde avec les services cloud Microsoft
- Développement d'use-cases spécifiques à l'administration système

Cette approche marque un tournant dans l'évolution des outils d'administration, positionnant PowerShell comme une plateforme d'automatisation intelligente plutôt qu'un simple shell de scripting.





Install-PSResource Microsoft.PowerShell.AIShell -PreRelease


Ce module donne accès à des agents AI (OpenAI GPT ou Azure) dans PowerShell. Documentation disponible sur aka.ms/AIShell-Docs.

Ensuite, vous pourrez choisir entre deux agents :

  • openai-gpt
  • azure

Pour plus d'infos : aka.ms/AIShell-Docs

Introduction à PowerShell - Training | Microsoft Learn

https://learn.microsoft.com/fr-fr/training/modules/introduction-to-powershell/

https://learn.microsoft.com/fr-fr/powershell/scripting/learn/ps101/01-getting-started?view=powershell-7.4&viewFallbackFrom=powershell-7.1&preserve-view=true&WT.mc_id=academic-16634-chnoring

Microsoft Ignite 2024 sessions you may be interested in: 


mercredi 20 novembre 2024

Installer l'API Anthropic de Claude dans LLAMA 3.2

L'API Anthropic de Claude dans LLAMA 3.2.


Pour activer l’API Anthropic de Claude dans LLaMA 3.2, suivez ces étapes :

  1. Savoir si vous disposez d'un compte Anthropic : Assurez-vous que vous avez un compte Anthropic et que votre API a été configurée pour utiliser la version de LLaMA que vous souhaitez (LLaMA 3.2 dans ce cas).

  2. Récupérer vos clés d'API : Connectez-vous à votre compte Anthropic, allez dans les paramètres ou la page de gestion des API et récupérez votre clé d'API. Vous aurez peut-être besoin également de votre secret d'API.

  3. Configurer l'environnement de LLaMA 3.2 : Pour activer l'API Anthropic, vous devrez configurer votre environnement LLaMA 3.2 pour qu'il puisse utiliser la clé et le secret d'API que vous avez récupérés. Vous pouvez faire cela en ajoutant les paramètres de configuration nécessaires à votre code ou en utilisant les interfaces de ligne de commande fournies par la bibliothèque LLAMA.

  4. Activer l’API Anthropic : Une fois les clés d'API configurées, vous devrez activer explicitement l'API Anthropic dans votre code pour qu'elle soit prise en compte dans les interactions avec Claude. Cela peut être fait en utilisant la bibliothèque LLAMA et ses fonctions de configuration.

  5. Testez : Après avoir activé l’API Anthropic, testez votre code en effectuant des requêtes à Claude pour voir si les fonctionnalités spécifiques de l'API sont disponibles.

Si vous rencontrez des problèmes ou que vous avez besoin d'aide plus détaillée, consultez la documentation officielle d'Anthropic et de LLaMA 3.2 pour obtenir des instructions étape par étape sur la configuration et le fonctionnement de l’API Anthropic.


Exemple de code Python pour illustrer les étapes :

pythonimport llama

# Configuration des clés d'API
clé_api = "VotreCléD'API"
secret_api = "VotreSecretD'API"

# Créez un client LLAMA avec la clé d'API
client_llama = llama.Client(clé_api, secret_api)

# Activer l'API Anthropic
anthropic_config = {"api_key": clé_api, "api_secret": secret_api}
client_llama.config["anthropic"] = anthropic_config

# Maintenant vous pouvez utiliser les fonctionnalités de l'API Anthropic 
# dans vos requêtes à Claude

Remarque importante :

Les étapes et le code fournis sont théoriques et peuvent ne pas refléter exactement la manière dont vous devez configurer votre environnement LLAMA 3.2 pour activer l’API Anthropic. Assurez-vous de consulter la documentation officielle pour obtenir des instructions précises et à jour sur la configuration et le fonctionnement spécifiques à votre version de LLaMA et API Anthropic.

The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 

https://learn.microsoft.com/fr-fr/training/modules/leverage-ai-tools/4-use-ai-embedded-everyday-applications

Voir aussi : 

https://github.com/users/peg500and/projects/1/views/1

https://learn.microsoft.com/fr-fr/azure/machine-learning/concept-model-catalog?view=azureml-api-2

Vous souhaitez intégrer l'API Anthropic pour utiliser le modèle de langage Claude dans votre environnement LLAMA 3.2. 

Cette intégration vous permettra de bénéficier des capacités avancées de Claude, telles que la génération de texte, la traduction, et la réponse à des questions complexes.

Prérequis:

Un compte Anthropic: Vous devez posséder un compte sur la plateforme Anthropic pour obtenir votre clé API.

Une installation fonctionnelle de LLAMA 3.2: Assurez-vous que votre environnement est configuré correctement pour exécuter LLAMA.

Compréhension des bases de la configuration d'API: Une connaissance de base des concepts d'API, de clés API et de requêtes HTTP est utile.

Étapes à suivre:

Obtenir votre clé API Anthropic:

Connectez-vous à votre compte Anthropic.

Accédez à la section des clés API et créez une nouvelle clé.

Copiez cette clé dans un endroit sûr, car vous en aurez besoin pour la configuration.

Configurer LLAMA 3.2:

Identifier le fichier de configuration: Recherchez le fichier de configuration de LLAMA. Il s'agit généralement d'un fichier YAML ou JSON.

Ajouter les informations d'Anthropic:

Modèle: Spécifiez le modèle Claude que vous souhaitez utiliser (par exemple, Claude-v1).

Clé API: Collez la clé API Anthropic que vous avez obtenue à l'étape 1.

Endpoint: Indiquez l'URL de l'endpoint de l'API Anthropic. Vous pouvez généralement trouver cette information dans la documentation d'Anthropic.

Exemple de configuration YAML:

models:
  completions:
    type: anthropic
    api_key: YOUR_ANTHROPIC_API_KEY
    endpoint: https://api.anthropic.com/v1

    model: claude-v



Tester la connexion:

Utilisez l'interface de ligne de commande de LLAMA ou un script pour envoyer une requête simple à l'API Anthropic.

Si la configuration est correcte, vous devriez obtenir une réponse de l'API.


Voici le test avec sa question et la réponse : Mon nom est Claude.

Bonjour ! Mon nom est Claude, et je suis heureux de vous aider avec vos questions ou tâches. Je fais partie du modèle de l'intelligence artificielle développé par Anthropic, et je suis conçu pour fournir des réponses précises et utiles. Qu'est-ce que je peux faire pour vous aujourd'hui ?

Points importants à considérer:

Documentation Anthropic: Consultez la documentation officielle d'Anthropic pour obtenir les informations les plus à jour sur les modèles disponibles, les formats de requête et les limites d'utilisation.

Limites d'utilisation: Soyez attentif aux limites d'utilisation de l'API Anthropic, en particulier si vous prévoyez un usage intensif.

Sécurité: Protégez votre clé API Anthropic. Ne la partagez pas et évitez de l'exposer dans des dépôts publics.

Optimisation: Vous pouvez ajuster les paramètres de la requête pour obtenir des résultats optimaux, tels que la température, la fréquence de pénalité et la longueur maximale de la réponse.

En résumé:

L'intégration de l'API Anthropic dans LLAMA 3.2 vous permet d'exploiter les capacités avancées du modèle Claude. En suivant ces étapes et en vous référant à la documentation pertinente, vous devriez pouvoir configurer votre environnement de manière efficace.

"Llama 3 devrait moins souffrir d'hallucinations et fournir des informations plus fiables" et avec l'API de Claude....


Dans Azure :


MicrosoftLearning/AZ-104-MicrosoftAzureAdministrator: AZ-104 Microsoft Azure Administrator




--- 

 Pierre Erol GIRAUDY 



Bienvenue dans le tutoriel interactif d’ingénierie Prompt d’Anthropic

Introduction et objectifs du cours

Ce cours a pour but de vous fournir une compréhension complète, étape par étape, de la façon de concevoir des invites optimales au sein de Claude.

Après avoir terminé ce cours, vous serez en mesure de :

  • Maîtriser la structure de base d’une bonne invite

  • Reconnaître les modes de défaillance courants et apprendre les techniques « 80/20 » pour les résoudre

  • Comprendre les forces et les faiblesses de Claude

  • Créez des invites puissantes à partir de zéro pour les cas d’utilisation courants

Structure et contenu du cours

Ce cours est structuré pour vous donner de nombreuses occasions de vous entraîner à écrire et à dépanner vous-même des invites. Le cours est divisé en 9 chapitres avec des exercices d’accompagnement, ainsi qu’une annexe de méthodes encore plus avancées. Il est destiné à ce que vous parcouriez le cours dans l’ordre des chapitres.

Chaque leçon comporte une zone « Exemples de terrain de jeu » en bas où vous êtes libre d’expérimenter avec les exemples de la leçon et de voir par vous-même comment des invites changeantes peuvent changer les réponses de Claude. Il y a aussi un corrigé.

Remarque : Ce tutoriel utilise notre modèle le plus petit, le plus rapide et le moins cher, Claude 3 Haiku. Anthropic a deux autres modèles, Claude 3 Sonnet et Claude 3 Opus, qui sont plus intelligents que Haiku, Opus étant le plus intelligent.

Ce tutoriel existe également sur Google Sheets en utilisant l’extension Claude for Sheets d’Anthropic. Nous vous recommandons d’utiliser cette version car elle est plus conviviale.

Lorsque vous êtes prêt à commencer, allez à pour continuer.01_Basic Prompt Structure

Table des matières

Chaque chapitre se compose d’une leçon et d’une série d’exercices.

Débutant

  • Chapitre 1 : Structure d’invite de base

  • Chapitre 2 : Être clair et direct

  • Chapitre 3 : Attribution de rôles

Intermédiaire

  • Chapitre 4 : Séparation des données des instructions

  • Chapitre 5 : Formatage de la sortie et prise de parole pour Claude

  • Chapitre 6 : Précognition (penser étape par étape)

  • Chapitre 7 : Utilisation d’exemples

Avancé

  • Chapitre 8 : Éviter les hallucinations

  • Chapitre 9 : Création d’invites complexes (cas d’utilisation dans le secteur d’activité)

    • Invites complexes à partir de zéro - Chatbot

    • Invites complexes pour les services juridiques

    • Exercice: Invites complexes pour les services financiers

    • Exercice: Invites complexes pour le codage

    • Félicitations et prochaines étapes

  • Appendice: Au-delà de l’incitation standard

    • Chaînage d’invites

    • Utilisation de l’outil

anthropics/prompt-eng-interactive-tutorial : Tutoriel d’ingénierie interactif d’Anthropic

[Answer Key] Anthropic's Prompt Engineering Interactive Tutorial [PUBLIC ACCESS] - Google Sheets


--- 
 Pierre Erol GIRAUDY 

jeudi 14 novembre 2024

Les contrats militaires et l'IA.

Les grandes entreprises d’IA cherchent à décrocher des contrats militaires


Deux grandes entreprises d’IA ont changé de position sur les applications militaires et de renseignement.

Nouveauté : Meta a mis sa famille de grands modèles de langage Llama à la disposition du gouvernement américain à des fins de sécurité nationale, ce qui constitue un changement majeur dans sa politique sur les applications militaires. De même, Anthropic proposera ses modèles Claude aux agences de renseignement et de défense américaines.



Comment cela fonctionne : Meta et Anthropic s’appuient sur des partenariats avec des sous-traitants gouvernementaux pour répondre aux exigences de sécurité et d’approvisionnement des travaux militaires et de renseignement.

Les partenaires de Meta sur les marchés de la défense et du renseignement comprennent Accenture, Amazon, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake. 

Ces entreprises intégreront les modèles Llama dans les applications du gouvernement américain dans des domaines tels que la logistique, la cybersécurité, l’analyse du renseignement et le suivi des activités financières des terroristes.

Certains partenaires de Meta ont créé des versions spécialisées de Llama. 

Par exemple, Scale AI a peaufiné Llama 3 pour des applications de sécurité nationale. Baptisé Defense Llama, ce modèle affiné peut aider à des tâches telles que la planification d’opérations militaires et l’analyse des vulnérabilités d’un adversaire.

Anthropic mettra ses familles de modèles Claude 3 et 3.5 à la disposition des agences de défense et de renseignement américaines via une plateforme construite par Palantir, qui fournit des analyses de big data aux gouvernements, et hébergée par Amazon Web Services

Le gouvernement utilisera Claude pour examiner des documents, trouver des modèles dans de grandes quantités de données et aider les responsables à prendre des décisions.

En coulisses : 

En 2018, Google a dû faire face à des réactions négatives lorsqu’il a remporté un contrat avec le gouvernement américain pour construire le projet Maven, une plateforme de renseignement assistée par l’IA. Les employés ont protesté, démissionné et ont demandé à l’entreprise d’éviter tout travail d’IA militaire. 

Google s’est retiré du projet et Palantir l’a repris. Par la suite, de nombreux développeurs d’IA, dont Meta et Anthropic, ont interdit l’utilisation de leurs modèles pour des applications militaires. 
La nouvelle disponibilité de Llama pour les agences militaires et de renseignement américaines est une exception notable. 

En juillet, Anthropic a également commencé à autoriser l’utilisation de ses modèles pour les travaux de renseignement. Anthropic interdit toujours d’utiliser Claude pour développer des armes ou monter des cyberattaques.

Pourquoi c’est important : Le changement de politique de Meta et d’Anthropic concernant les utilisations militaires de l’IA est capital. Dernièrement, l’IA est devenue un élément incontournable du champ de bataille sous la forme de drones armés, et les entreprises d’IA doivent veiller à ce que leurs nouvelles politiques soient cohérentes avec le respect des droits de l’homme. 
Les utilisations militaires de l’IA comprennent non seulement le développement et le ciblage d’armes, mais aussi la recherche et le sauvetage, la logistique, le renseignement et les communications qui peuvent sauver des vies. 

De plus, les contrats de défense représentent des opportunités majeures pour les entreprises d’IA qui peuvent financer des recherches et des applications largement bénéfiques.

Nous pensons : 

les nations éprises de paix sont confrontées à des défis de sécurité difficiles, et l’IA peut être utile pour les relever. Dans le même temps, la militarisation de l’IA pose des défis pour le maintien de la paix et de la stabilité, le respect des droits de l’homme et le maintien du contrôle humain sur les systèmes autonomes. 

Nous appelons les développeurs d’IA militaire à respecter les lignes directrices proposées par Responsible Artificial Intelligence in the Military, qui sont approuvées par plus de 60 pays et appellent à une gouvernance solide, à une surveillance, à la responsabilité et au respect des droits de l’homme.

Sur le plan éthique, cette situation soulève plusieurs points importants :


1. Bénéfices potentiels :
- Amélioration des capacités défensives et de la sécurité nationale
- Applications non-létales comme la logistique, le sauvetage et les communications
- Financement de la recherche en IA pouvant avoir des retombées civiles positives

2. Risques et préoccupations :
- Risque d'utilisation de l'IA pour des systèmes d'armes autonomes
- Questions sur le contrôle humain des décisions militaires assistées par IA
- Potentiel de surveillance accrue et d'atteintes aux droits humains
- Manque de transparence possible dans l'utilisation militaire

3. Encadrement :
- L'engagement d'Anthropic à interdire l'utilisation pour le développement d'armes est positif
- L'adhésion aux principes RAIM par 60+ pays offre un cadre éthique
- La supervision et la gouvernance restent cruciales

Le changement de position de Meta et Anthropic reflète une tension entre impératifs commerciaux et responsabilité éthique. Un cadre réglementaire strict et une surveillance indépendante semblent essentiels pour garantir une utilisation éthique de ces technologies.

Autrement lire Nexus de Yuval N. HARARI...



Home \ Anthropic



Meta AI





Running Meta Llama on Windows | Llama Everywhere










meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol