Translate

mardi 29 octobre 2024

"Computer Use" qui permet à l'IA de prendre le contrôle de ton PC pour utiliser le nouveau Claude AI ?

Claude AI, le meilleur LLM pour coder et écrire vient de sortir une nouvelle fonctionnalité "Computer Use" qui permet à l'IA de prendre le contrôle de ton PC. 


Je te montre comment l'utiliser facilement. Abonne-toi à ma chaîne YouTube ici : http://jbv.ovh/jeanviet

---------

Au sommaire :

00:00 Computer Use, c'est quoi ?
01:06 Test Scrabble : analyse et limites
03:07 Mammouth.ai pour le jeu de mots efficace
04:46 Test de création d’un site Web depuis LinkedIn
05:18 Machine virtuelle : avantages et inconvénients
07:00 Test de correction orthographique sur Word
08:00 Test de création de graphique Excel
10:17 Installation de Computer Use sur Docker
12:23 Configuration API de Claude
13:40 Mon avis sur Computer Use

---------

Les ressources, outils et liens consultés pour ce tuto


Computer Use - Claude AI

La vidéo Computer Use for coding de ‪@anthropic-ai‬ 
   • Claude | Computer use for coding  

Le tuto de Alex Albert pour installer Computer Use

Un autre tuto de mon cru pour comprendre l'utilisation de Docker Desktop (outil LibreChat)
   • Installer LibreChat sur Mac ou PC ave...  

Le projet Git Computer Use

Mammouth AI ‪@Mammouth_ai‬ 

Pour générer une Clé API Claude AI

La démo bluffante de ‪@Shubham_Sharma‬ 
   • Claude AI vient de RÉVOLUTIONER le mo...  

---------

Pour installer Computer Use sur un PC Windows : 


1- Crée une clé API Claude ici  

2- Lance PowerShell et copie-colle ceci 
$env:ANTHROPIC_API_KEY="ta-cle-api-a-la-place-de-ce-texte-ici-ne-mets-pas-la-mienne-je-lai-desactive"


3- Télécharger et Installe Docker Desktop ici 
Docker Desktop: The #1 Containerization Tool for Developers | Docker



4- Retourne dans PowerShell et copie-colle ceci 

docker run `
    -e ANTHROPIC_API_KEY=$env:ANTHROPIC_API_KEY `
    -v ${env:USERPROFILE}/.anthropic:/home/computeruse/.anthropic `
    -p 5900:5900 `
    -p 8501:8501 `
    -p 6080:6080 `
    -p 8080:8080 `
    -it ghcr.io/anthropics/anthropic-quickstarts:computer-use-demo-latest

5- Lance ensuite cette URL dans Chrome
http://localhost:8080/

Si ça marche pas, réagis en commentaire en tapant "Aide-moi Jeanviet", je te traiterai comme un chef, car j'aurais vu que tu as fait l'effort d'essayer

---------

Mon TikTok :   / jeanviet.fr  
Mon Instagram :   / jeanviet  
Mon Twitter :   / jeanviet  

---------

Pour devenir un bon créateur de contenu, lis mon livre ici :

Promis, je ne l'ai pas écrit avec une IA ;-)

---------

Abonne-toi à ma chaîne YouTube ici : http://jbv.ovh/jeanviet

CONCLUSION :

L’article explore le fonctionnement de "Claude AI Computer Use", une version de l'IA Claude d'Anthropic conçue pour interagir avec l'ordinateur de l’utilisateur en temps réel. L'auteur teste différentes applications, comme le Scrabble, la création de sites web, la correction orthographique et la génération de graphiques, en cherchant à déterminer dans quelle mesure cette IA peut véritablement accomplir des tâches variées de manière autonome.

Les résultats montrent que, bien que prometteuse, la technologie présente plusieurs limitations. Par exemple, Claude peine à naviguer de manière fluide dans des applications (comme scroller et cliquer aux bons endroits), à effectuer une correction orthographique fluide sur LibreOffice ou à générer des graphiques correctement sur Calc. De plus, la latence et les contraintes d’utilisation dans un environnement de machine virtuelle Linux ralentissent le processus, rendant l’expérience parfois frustrante.

Commentaire sur la fin : Bien que l'outil soit encore peu performant dans des scénarios d'utilisation quotidiens, l'auteur entrevoit un potentiel futur où une IA pourrait véritablement accomplir des tâches complexes avec peu d’intervention humaine. Pour l’instant, cette version reste surtout un prototype qui illustre les défis techniques de l’automatisation interactive.


"Claude AI Computer Use", une version d’IA capable de contrôler un ordinateur pour exécuter des tâches de manière autonome, comme un assistant virtuel. L'auteur teste plusieurs usages pratiques : jouer au Scrabble, créer un site web, corriger un document et générer des graphiques. Cependant, il constate plusieurs limites : difficulté de navigation, erreurs dans les tâches et lenteur due à l'utilisation d'une machine virtuelle Linux. Bien que prometteur pour l’avenir, l’outil reste pour le moment expérimental et rencontre des difficultés dans des cas d’usage réels.


Voici les étapes détaillées pour installer Claude AI Computer Use sur votre PC :

---

### 1. Préparer l’environnement virtuel

Claude AI Computer Use nécessite l'installation dans une machine virtuelle pour éviter tout risque que l’IA prenne le contrôle direct de votre ordinateur. 


Voici les étapes :

1. Créer un compte sur Anthropic Console :

- Allez sur [console.anthropic.com](https://console.anthropic.com).

- Créez un compte (le site fournit 5 dollars de crédit à l’inscription).

- Allez dans Settings > API Key et créez une clé API en choisissant un nom (par exemple, "Computer Test"). Copiez cette clé.

2. Installer Docker Desktop :

- Téléchargez [Docker Desktop](https://www.docker.com/products/docker-desktop) pour votre système d'exploitation (choisissez la version appropriée, généralement pour Windows AMD64 ou ARM64).

- Lancez Docker Desktop pour qu’il fonctionne en arrière-plan. Assurez-vous qu'il indique "Engine Running" (en fonctionnement).

3. Préparer la clé API dans PowerShell (Windows uniquement) :

- Ouvrez PowerShell en tant qu’administrateur.

- Tapez la commande suivante pour enregistrer la clé API dans votre environnement PowerShell :

```powershell

$env:ANTHROPIC_API_KEY = "votre_clé_api"

```

- Remplacez `"votre_clé_api"` par la clé copiée précédemment.

---

### 2. Télécharger et configurer l’image virtuelle de Claude

Claude AI fonctionnera dans une image de machine virtuelle VNC exécutée via Docker pour Linux.

1. Exécuter l’image Docker pour Claude AI Computer Use :

- Dans PowerShell, entrez la commande suivante pour télécharger et lancer l’image VNC virtuelle sous Docker :

```powershell

docker run -p 5900:5900 anthropic/claude-computer-use

```

- Cette commande télécharge et initialise une machine virtuelle avec un environnement Linux.

2. Accéder à l’environnement virtuel :

- Une fois l'image installée, un message affichera une adresse locale (par ex., `http://localhost:5900`) pour accéder à la machine virtuelle.

- Ouvrez cette adresse dans votre navigateur pour voir l’interface de la machine virtuelle.

---

### 3. Lancer Claude AI dans l’environnement virtuel

1. Naviguer dans la machine virtuelle :

- Dans l’interface VNC, accédez aux applications comme Firefox ou Calc pour tester l’IA.

- Connectez-vous à Claude AI via une console de chat intégrée pour lui donner des instructions, par exemple, pour naviguer sur le Web ou pour effectuer des tâches spécifiques.

---

### 4. Résoudre les problèmes courants

- Latence : La machine virtuelle peut être lente. Il est possible de rencontrer des délais pour l'affichage et la réponse des commandes.

- Limites de facturation : Anthropic peut imposer une limite de requêtes ou d'utilisation quotidienne. Si vous recevez un message d'attente, cela signifie que vous avez dépassé votre quota d'utilisation.

---


### En résumé :

- Créez un compte Anthropic et obtenez une clé API.

- Installez Docker Desktop et configurez PowerShell avec la clé API.

- Exécutez l’image Docker de Claude pour lancer l’environnement virtuel.

- Accédez à l’interface via l’adresse locale dans votre navigateur et testez les fonctionnalités de Claude dans cet environnement sécurisé.

En suivant ces étapes, vous devriez pouvoir explorer les capacités de Claude AI Computer Use dans un environnement virtuel sécurisé.


"Claude AI Computer Use", une version d’IA capable de contrôler un ordinateur pour exécuter des tâches de manière autonome, comme un assistant virtuel. L'auteur teste plusieurs usages pratiques : jouer au Scrabble, créer un site web, corriger un document et générer des graphiques. Cependant, il constate plusieurs limites : difficulté de navigation, erreurs dans les tâches et lenteur due à l'utilisation d'une machine virtuelle Linux. Bien que prometteur pour l’avenir, l’outil reste pour le moment expérimental et rencontre des difficultés dans des cas d’usage réels.






lundi 21 octobre 2024

Présentation d’une nouvelle touche Copilot pour lancer l’année des PC Windows alimentés par l’IA

Présentation d’une nouvelle touche Copilot pour lancer l’année des PC Windows alimentés par l’IA

Introducing a new Copilot key to kick off the year of AI-powered Windows PCs | Windows Experience Blog 

https://blogs.windows.com/windowsexperience/2024/01/04/introducing-a-new-copilot-key-to-kick-off-the-year-of-ai-powered-windows-pcs/

Présentation d’une nouvelle touche Copilot pour lancer l’année des PC Windows alimentés par l’IA

Aujourd’hui, nous sommes ravis de franchir une nouvelle étape importante et d’introduire une nouvelle clé Copilot pour les PC Windows 11. En cette nouvelle année, nous inaugurerons un changement significatif vers un avenir informatique plus personnel et intelligent où l’IA sera intégrée de manière transparente à Windows, du système au silicium en passant par le matériel. Cela simplifiera non seulement l’expérience informatique des gens, mais l’amplifiera également, faisant de 2024 l’année du PC IA.   









dimanche 20 octobre 2024

Installation de Nemotron 70b et sa gouvernance.

Installation de Nemotron 70b sur un PC-AI sous Windows, et son plan de gouvernance :

Pour finir j’ai utilisé la solution nemotron-mini:latest car l’autres nemotron:latest me demande trop de ressources sur mon PC-AI.

Remarque : ce modèle est une démonstration de nos techniques visant à améliorer l'efficacité des instructions dans le domaine général. Il n'a pas été optimisé pour les performances dans des domaines spécialisés tels que les mathématiques.

Vous pouvez utiliser le modèle en utilisant la bibliothèque HuggingFace Transformers avec 2 ou plusieurs GPU de 80 Go (NVIDIA Ampere ou plus récent) avec au moins 150 Go d'espace disque libre pour permettre le téléchargement.

Ce code a été testé sur Transformers v4.44.0, torch v2.4.0 et 2 GPU A100 80 Go, mais toute configuration prenant en charge meta-llama/Llama-3.1-70B-Instructce modèle devrait également le prendre en charge. Si vous rencontrez des problèmes, vous pouvez envisager de faire pip install -U transformers.

nvidia/Llama-3.1-Nemotron-70B-Instruct-HF

https://huggingface.co/nvidia/Llama-3.1-Nemotron-70B-Instruct-HF

Comment utiliser ce modèle on-line ?

Le déployer sur Google Cloud :  https://console.cloud.google.com/vertex-ai/model-garden/featured-partners/hugging-face 




Vous pouvez déployer un modèle depuis Hugging Face sur un point de terminaison géré dans Vertex AI. Ce point de terminaison vous permet d'effectuer des prédictions en ligne ou par lots via la console Cloud ou l'API Vertex AI. Afficher tous les modèles sur Hugging Face 

Ceci permet de tester la solution et ainsi préparer la gouvernance de l'installation de l'AI et les formations adéquates :




Si vous avez OLLAMA installé sur votre PC (avec de la mémoire et puissance) cliquez sur ce lien :

Cela devrait bien se passer.

Si vous avez des questions supplémentaires ou rencontrez des problèmes, n'hésitez pas à demander !

Pour installer Nemotron, suivez ces étapes générales basées sur la documentation de NVIDIA NeMo Framework :

  1. Préparer l'environnement :

    • Assurez-vous d'avoir Docker installé sur votre système1.

    • Téléchargez et installez Docker si ce n'est pas déjà fait.



Une autre méthode pour installer Nemotron


Elle consiste à utiliser **GitHub** et les conteneurs Docker[43dcd9a7-70db-4a1f-b0ae-981daa162054](https://github.com/NVIDIA/NeMo?citationMarker=43dcd9a7-70db-4a1f-b0ae-981daa162054 "1"). Voici les étapes :

1. **Cloner le dépôt GitHub** :
   - Ouvrez un terminal et exécutez la commande suivante pour cloner le dépôt NeMo de NVIDIA :
     ```bash
     git clone https://github.com/NVIDIA/NeMo.git
     ```

2. **Accéder au répertoire cloné** :
   - Naviguez vers le répertoire cloné :
     ```bash
     cd NeMo
     ```

3. **Lancer le conteneur Docker** :
   - Construisez l'image Docker à partir du fichier Dockerfile fourni dans le dépôt :
     ```bash
     docker build -t nvidia_nemo .
     ```
   - Lancez le conteneur avec les données nécessaires montées :
     ```bash
     docker run -it --name nemo --mount type=bind,source=<chemin_vers_vos_données>,target=/workspace/data nvidia_nemo
     ```
     Remplacez `<chemin_vers_vos_données>` par le chemin vers le dossier où vous souhaitez stocker les données.

4. **Configurer Nemotron** :
   - Suivez les instructions spécifiques fournies dans le dépôt GitHub pour configurer Nemotron selon vos besoins.

Pour plus de détails, vous pouvez consulter la documentation officielle de Nemotron sur le site de NVIDIA ou le dépôt GitHub de NeMo[43dcd9a7-70db-4a1f-b0ae-981daa162054](https://docs.nvidia.com/nemo-framework/user-guide/latest/llms/nemotron/index.html?citationMarker=43dcd9a7-70db-4a1f-b0ae-981daa162054 "2")[43dcd9a7-70db-4a1f-b0ae-981daa162054](https://github.com/NVIDIA/NeMo?citationMarker=43dcd9a7-70db-4a1f-b0ae-981daa162054 "1").


Si vous avez des questions supplémentaires ou rencontrez des problèmes, n'hésitez pas à demander !

Aprés ces tests établir les procédures de déploiement, plans de formations des équipes et manuels utilisateurs de l'IA...


Pour déployer une IA de type Nemotron et d'établir toutes les procédures nécessaires pour sa mise en œuvre. 


Nemotron 70b et son plan de gouvernance :

Voici un exemple de plan d'action pour aborder ce projet de manière structurée :


1. Tests préliminaires :
   - Évaluation des performances du modèle Nemotron
   - Tests d'intégration avec les systèmes existants
   - Évaluation de la sécurité et de la confidentialité des données

2. Procédures de déploiement :
   - Planification de l'infrastructure technique nécessaire
   - Définition des étapes de déploiement progressif
   - Établissement d'un calendrier de mise en œuvre

3. Plans de formation des équipes :
   - Identification des groupes d'utilisateurs (techniques, opérationnels, décisionnels)
   - Création de modules de formation adaptés à chaque groupe
   - Planification des sessions de formation

4. Manuels utilisateurs :
   - Rédaction d'un guide d'utilisation général
   - Création de guides spécifiques pour différents cas d'usage
   - Élaboration d'une FAQ et d'un système de support

5. Gouvernance du projet :
   - Définition des rôles et responsabilités
   - Établissement d'un comité de pilotage
   - Création de processus de suivi et d'évaluation continue

6. Considérations éthiques et légales :
   - Analyse des implications éthiques de l'utilisation de l'IA
   - Vérification de la conformité avec les réglementations en vigueur (RGPD, etc.)

7. Gestion du changement :
   - Élaboration d'un plan de communication interne
   - Mise en place d'un système de retour d'expérience des utilisateurs

8. Maintenance et évolution :
   - Planification des mises à jour et des améliorations
   - Définition des indicateurs de performance à suivre

Par exemple la partrie 1 :

Je vais détailler la phase des tests préliminaires pour le déploiement de votre IA Nemotron.


1. Évaluation des performances du modèle Nemotron :


# Tests de performance du modèle Nemotron

## Précision et qualité des résultats
- Évaluer la précision sur un ensemble de données de test représentatif
- Mesurer la pertinence des réponses générées
- Tester la cohérence des résultats sur plusieurs exécutions

## Vitesse de traitement
- Mesurer le temps de réponse moyen pour différentes tailles d'entrée
- Évaluer les performances en cas de charge élevée (tests de stress)

## Efficacité de l'utilisation des ressources
- Surveiller l'utilisation du CPU et de la mémoire
- Évaluer les besoins en stockage pour différents volumes de données

## Capacité de généralisation
- Tester le modèle sur des données hors distribution
- Évaluer la performance sur des tâches connexes non vues pendant l'entraînement

## Robustesse
- Tester la résistance aux entrées adverses ou mal formées
- Évaluer la stabilité face à de légères variations dans les entrées

## Biais et équité
- Analyser les résultats pour détecter d'éventuels biais (genre, origine, etc.)
- Vérifier l'équité des performances sur différents sous-groupes démographiques

## Comparaison avec les benchmarks
- Comparer les performances avec les modèles de référence du domaine
- Évaluer par rapport aux métriques standard de l'industrie

2. Tests d'intégration avec les systèmes existants :

- Compatibilité : Vérifier la compatibilité de Nemotron avec les systèmes d'exploitation, bases de données et applications existantes.
- API et interfaces : Tester l'intégration via les API fournies, en s'assurant que les échanges de données se font correctement.
- Flux de travail : Simuler des scénarios d'utilisation réels pour vérifier l'intégration dans les processus de travail actuels.
- Performance globale : Mesurer l'impact de l'intégration de Nemotron sur les performances des systèmes existants.
- Gestion des erreurs : Tester la robustesse de l'intégration face à différents types d'erreurs ou de pannes.

3. Évaluation de la sécurité et de la confidentialité des données :


- Audit de sécurité : Réaliser un audit complet des mécanismes de sécurité de Nemotron.
- Tests de pénétration : Effectuer des tests d'intrusion pour identifier les vulnérabilités potentielles.
- Chiffrement : Vérifier que les données sensibles sont correctement chiffrées, tant au repos qu'en transit.
- Contrôle d'accès : Tester les mécanismes d'authentification et d'autorisation.
- Conformité RGPD : S'assurer que le traitement des données personnelles est conforme aux exigences du RGPD.
- Journalisation : Vérifier que toutes les actions importantes sont correctement enregistrées pour des audits futurs.
- Gestion des fuites de données : Tester les procédures de détection et de réponse aux fuites de données potentielles.

Ces tests préliminaires sont cruciaux pour garantir que le déploiement de Nemotron se fera de manière sûre et efficace. 

Ils permettront d'identifier et de résoudre les problèmes potentiels avant le déploiement à grande échelle.



https://lecercle.guild4ai.ai/feed

--- 
 Pierre Erol GIRAUDY 

samedi 12 octobre 2024

Installation de Llama 3.2 sur un PC-AI sous Windows.

LLAMA est un sujet intéressant !


LLAMA se réfère à une application d'intelligence artificielle nommée Large Language Model Application, mais elle porte également le nom d'un modèle d'intelligence artificielle développé par Meta AI. Llama est un type de modèle de langage transformateur qui utilise l'apprentissage autonome pour améliorer ses performances sur les tâches de traitement du langage naturel.

Essayez Llama 3.2 dès aujourd’hui :








Pour installer la solution Ollama sur votre PC sous Windows :

1. Téléchargez Ollama :

• Rendez-vous sur le site officiel d’Ollama et téléchargez la dernière version de l’application pour Windows. https://ollama.com/download


2. Installer Ollama :

• Une fois le téléchargement terminé, ouvrez le fichier .exe que vous venez de télécharger. • Suivez les instructions à l’écran pour installer Ollama sur votre ordinateur. 3. Ouvrir le terminal (invite de commande) puis taper « Ollama » • Si cela fonctionne, tout est OK.
Invite de commande Microsoft pour OLLAMA.

4. Installer le modèle Mistral

• Dans le terminal, tapez : ollama run mistral • Vous trouverez tous les modèles ici. https://ollama.com/library • Une fois le modèle téléchargé, tapez « /bye » pour quitter.

ollama run mistral.

Les Modèles OLLAMA :


Oui c'est l'IA Claude 3.5 Sonnet qui m'aide.

Voici un tableau récapitulatif des modèles OLLAMA les plus récents et populaires. Il inclut le nom du modèle, les tailles disponibles (si spécifiées), et une brève description de chaque modèle.
Ce tableau vous donne un aperçu des différents modèles disponibles, allant des petits modèles comme llama3.2 (1B-3B) aux grands modèles comme llama3.1 (jusqu'à 405B). Il met également en évidence la diversité des fournisseurs (Meta, Google, NVIDIA, Mistral AI, etc.) et des spécialisations (modèles généraux, modèles de code, modèles multimodaux, etc.).



| Nom du modèle | Taille(s) | Description |

|---------------|-----------|-------------|
| llama3.2 | 1B, 3B | Modèles plus petits de Meta's Llama 3.2 |
| llama3.1 | 8B, 70B, 405B | Nouveau modèle état de l'art de Meta |
| gemma2 | 2B, 9B, 27B | Modèle performant et efficace de Google |
| qwen2.5 | 0.5B à 72B | Modèles préentraînés sur jusqu'à 18 trillions de tokens |
| phi3.5 | 3B | Modèle léger de 3.8 milliards de paramètres surpassant des modèles plus grands |
| nemotron-mini | Non spécifié | Petit modèle par NVIDIA optimisé pour le jeu de rôle, le RAG QA, et l'appel de fonction |
| mistral-small | 22B | Modèle léger pour des tâches comme la traduction et le résumé |
| mistral-nemo | 12B | Modèle état de l'art avec 128k contexte |
| deepseek-coder-v2 | 16B, 236B | Modèle de code open-source utilisant Mixture-of-Experts |
| mistral | 7B | Modèle mis à jour à la version 0.3 |
| mixtral | 8x7B, 8x22B | Modèles Mixture of Experts (MoE) par Mistral AI |
| codegemma | 2B, 7B | Collection de modèles pour diverses tâches de codage |
| command-r | 35B | Modèle optimisé pour l'interaction conversationnelle |
| command-r-plus | 104B | Version plus puissante de Command R |
| llava | 7B, 13B, 34B | Modèle multimodal combinant encodeur de vision et Vicuna |
| llama3 | 8B, 70B | Le modèle LLM open source le plus capable à ce jour |
| gemma | 2B, 7B | Famille de modèles légers par Google DeepMind |
| qwen2 | 0.5B à 72B | Nouvelle série de modèles du groupe Alibaba |
| phi3 | 3B, 14B | Famille de modèles légers état de l'art par Microsoft |



Langues prises en charge : L’anglais, l’allemand, le français, l’italien, le portugais, l’hindi, l’espagnol et le thaï sont officiellement pris en charge. Llama 3.2 a été entraîné sur une collection de langues plus large que ces 8 langues prises en charge.








--- 
 Pierre Erol GIRAUDY