Translate

Affichage des articles dont le libellé est microsoft. Afficher tous les articles
Affichage des articles dont le libellé est microsoft. Afficher tous les articles

mercredi 27 novembre 2024

Les stratégies des grands acteurs pour les Agents AI

Voici une analyse des stratégies des grands acteurs pour les Agents AI :

1. Microsoft

- Stratégie d'intégration native (AIShell dans PowerShell)
- Copilots dans tous leurs produits
- But : Dominer l'IA en entreprise via leurs outils existants
- Partenariat OpenAI pour l'expertise IA

2. Anthropic

- Focus sur la sécurité et l'éthique avec Claude
- Développement d'agents spécialisés par domaine
- But : IA fiable et responsable pour entreprises
- Accent sur la transparence et contrôle


3. Google

- Gemini comme base technologique
- Intégration dans Workspace et Android
- But : IA consumer et entreprise unifiée
- Innovation dans les modèles multimodaux

4. AWS

- Amazon Q pour le cloud computing
- Agents spécialisés par service AWS
- But : Dominer l'IA dans le cloud
- Focus sur l'automatisation cloud

5. IBM

- Watson comme plateforme enterprise
- Agents spécialisés par industrie
- But : Solutions IA B2B personnalisées
- Expertise sectorielle

6. Apple

- Approche privacy-first
- Intégration iOS/macOS
- But : IA personnelle sécurisée
- Focus expérience utilisateur

Les agents dans SharePoint sont désormais en disponibilité générale

Une expertise débloquée pour chaque utilisateur

Aujourd’hui, à l’occasion de Microsoft Ignite, nous avons présenté des agents dans Microsoft 365 pour générer le prochain niveau de valeur commerciale pour les organisations. Ces agents sont prêts à l’emploi, chacun possédant des compétences et des connaissances spécialisées pour prendre en charge des rôles uniques. Ils travaillent aux côtés ou au nom d’une personne, d’une équipe ou d’une organisation pour gérer des tâches simples et des processus commerciaux plus complexes. 

Dans le cadre des agents dans Microsoft 365, nous sommes ravis d’annoncer la disponibilité générale des agents dans SharePoint aujourd’hui, permettant aux utilisateurs de transformer des sites et des documents SharePoint en agents étendus qui sont des experts en la matière pour les besoins de votre entreprise. Ces agents permettent à chacun de faire rapidement apparaître des informations, d’étendre l’expertise et de prendre des décisions éclairées. Les agents dans SharePoint commenceront à être déployés cette semaine et devraient être terminés d’ici la fin de l’année civile.   



Reimagine content management with agents in SharePoint | BRK279 :


Microsoft Ignite Keynote


Autres fournisseurs de solutions avec des agents :

zenbaia home




Objectifs Communs :

1. Automatisation intelligente
2. Personnalisation des services
3. Augmentation productivité
4. Monétisation des services IA
5. Création d'écosystèmes propriétaires





Le but final semble être la création d'assistants IA omniprésents et spécialisés, intégrés nativement dans tous les outils et services.



1. **Concept des Agents IA :**
- Plus autonomes que les assistants classiques (Siri, Alexa)
- Capacité d'action proactive et d'adaptation en temps réel
- Apprentissage continu basé sur leurs actions passées

2. **Initiatives Majeures :**
- Microsoft : Intégration dans Dynamics 365 pour l'automatisation des processus métier
- Amazon : Personnalisation de l'expérience client et gestion des recommandations

3. **Avantages pour les Entreprises :**
- Augmentation de la productivité
- Réduction des coûts opérationnels
- Prise de décision basée sur les données
- Automatisation des tâches répétitives

4. **Défis et Enjeux :**
- Sécurité des données sensibles
- Transparence des décisions automatisées
- Respect des principes éthiques

5. **Applications Sectorielles :**
- Santé : Analyse des dossiers médicaux
- Finance : Détection des fraudes
- Industrie : Maintenance prédictive

6. **Perspectives d'Avenir :**
- Démocratisation vers les PME
- Intégration dans les objets connectés
- Évolution vers des décisions plus complexes

CONCLUSION : 

Il est  bon de souligner l'importance croissante des agents IA comme outils stratégiques pour l'automatisation intelligente et la transformation digitale des entreprises.


Cette initiative de Microsoft avec AI Shell représente une évolution stratégique significative dans l'écosystème PowerShell et l'automatisation :


1. Intégration Native de l'IA :
- PowerShell devient une interface directe pour les modèles d'IA
- Permet aux administrateurs systèmes d'utiliser l'IA sans quitter leur environnement de travail habituel
- Simplifie l'accès aux capacités d'IA via la ligne de commande

2. Approche Stratégique de Microsoft :
- Démocratisation de l'IA dans les outils d'administration
- Fusion entre automatisation traditionnelle et intelligence artificielle
- Double stratégie avec support OpenAI et Azure (flexibilité du choix)

3. Impact sur l'Administration Système :
- Possibilité d'automatiser des tâches complexes avec assistance IA
- Génération de scripts plus sophistiqués
- Analyse et résolution de problèmes assistées par IA

4. Évolution du Rôle des Administrateurs :
- Transition vers une administration "IA-augmentée"
- Nouveau paradigme dans la gestion des systèmes
- Nécessité de développer des compétences hybrides (PowerShell + IA)

5. Perspectives Futures :
- Probable expansion vers d'autres modèles d'IA
- Intégration plus profonde avec les services cloud Microsoft
- Développement d'use-cases spécifiques à l'administration système

Cette approche marque un tournant dans l'évolution des outils d'administration, positionnant PowerShell comme une plateforme d'automatisation intelligente plutôt qu'un simple shell de scripting.





Install-PSResource Microsoft.PowerShell.AIShell -PreRelease


Ce module donne accès à des agents AI (OpenAI GPT ou Azure) dans PowerShell. Documentation disponible sur aka.ms/AIShell-Docs.

Ensuite, vous pourrez choisir entre deux agents :

  • openai-gpt
  • azure

Pour plus d'infos : aka.ms/AIShell-Docs

Introduction à PowerShell - Training | Microsoft Learn

https://learn.microsoft.com/fr-fr/training/modules/introduction-to-powershell/

https://learn.microsoft.com/fr-fr/powershell/scripting/learn/ps101/01-getting-started?view=powershell-7.4&viewFallbackFrom=powershell-7.1&preserve-view=true&WT.mc_id=academic-16634-chnoring

Microsoft Ignite 2024 sessions you may be interested in: 


samedi 23 novembre 2024

Gouverner et protéger les informations sensibles à l’ère de l’IA avec Azure et Microsoft Purview

Présentation vidéo d’Azure avec des solutions LLAMA.


 


Gouverner et protéger les informations sensibles à l’ère de l’IA.


Microsoft Purview Endpoint Data Loss Prevention (DLP)

Développez des compétences en matière de sécurisation et de gouvernance des données au sein d’environnements pilotés par l’IA, en utilisant Microsoft Purview pour naviguer dans les risques liés à l’IA et garantir la conformité. Ce chemin améliore votre compréhension de l’adaptation des stratégies de sécurité et de gouvernance en réponse à l’évolution du paysage des technologies d’IA.

Prérequis

Compréhension de base des produits et services Microsoft 365
Compréhension de base des produits et services de sécurité des données Microsoft Purview
Compréhension de base des produits et services de conformité des données Microsoft Purview

Microsoft Purview | Microsoft Learn


Dans le paysage numérique actuel, où les violations de données et les menaces en ligne sont de plus en plus courantes, il est essentiel de comprendre des stratégies efficaces pour protéger les informations sensibles, en particulier pour les organisations qui utilisent l’IA générative. 

Microsoft Purview Endpoint Data Loss Prevention (DLP) joue un rôle clé à cet égard en protégeant les données sensibles contre toute exposition involontaire, à l’aide d’outils avancés conçus à cet effet.

Les navigateurs pris en charge sont les suivants :

Microsoft Edge (fonctionne en mode natif)
Google Chrome (nécessite l’extension Microsoft Purview)
Mozilla Firefox (nécessite l’extension Microsoft Purview)

Get started with endpoint data loss prevention | Microsoft Learn


En savoir plus sur Microsoft Purview

Dans cet Article 21/11/2024 

Sécurité des données, gouvernance et conformité

Le nouveau portail Microsoft Purview

Microsoft Purview est un ensemble complet de solutions qui peuvent aider votre organisation à gouverner, protéger et gérer les données, où qu’elles se trouvent. Les solutions Microsoft Purview fournissent une couverture intégrée et aident à résoudre la fragmentation des données au sein des organisations, le manque de visibilité qui entrave la protection et la gouvernance des données, et le flou des rôles de gestion informatiques traditionnels.

Microsoft Purview combine des solutions de gouvernance des données et des solutions et services de conformité Microsoft 365 dans une plateforme unifiée pour aider votre organisation :

Obtenir une visibilité sur les données dans l'ensemble de l'organisation

Protéger et gérer les données sensibles tout au long de leur cycle de vie, où qu'elles se trouvent
Gérer les données de manière transparente selon des méthodes nouvelles et complètes
Gérer les risques liés aux données critiques et les exigences réglementaires.

En savoir plus sur Microsoft Purview | Microsoft Learn



Découvrir et gouverner les Stockage Blob Azure | Microsoft Learn

CONTOSO sur Azure



Produit Azure par région | Microsoft Azure



--- 

mercredi 13 novembre 2024

An Overview of Copilot in Microsoft Clarity

Aperçu de Copilot dans Microsoft Clarity




Copilot in Microsoft Clarity is an advanced feature that leverages generative AI to provide actionable insights and summaries from your data. It simplifies the process of analyzing large amounts of data by transforming it into easy-to-understand, actionable insights. Discover how to:

-Get automatic summaries of session recordings with key events and traffic sources.
-Review grouped session insights for an overview of user actions.
-Summarize heatmap data across different devices effortlessly.
-Use Copilot Chat to ask questions and get instant recommendations.
-Watch now to see how Copilot simplifies data analysis and helps you make smarter decisions faster!

For more details visit: https://aka.ms/clarity-copilotvideo

https://www.linkedin.com/company/microsoft-clarity/

 "Aperçu de Copilot dans Microsoft Clarity" :

(00:04) Introduction par un ingénieur logiciel senior de Microsoft, expliquant les fonctionnalités de Copilot dans Clarity, un outil qui utilise l'IA générative pour transformer de grands ensembles de données en insights en langage naturel pour des sites web ou applications.

Fonctionnalités principales :

Session Insights : Résume les enregistrements de sessions utilisateur, en mettant en évidence les événements, les sources de trafic et l'intention des utilisateurs. Permet de sauter aux moments importants grâce à des horodatages.
Group Session Insights : Fournit une vue d'ensemble des actions des utilisateurs sur plusieurs enregistrements, en indiquant les succès ou les échecs avec des liens vers des sessions spécifiques.
Accès aux Session Insights : Accessible via l'onglet "enregistrements" ; options pour un résumé d'une seule session ou de plusieurs sessions (top 10 ou sélection personnalisée).

Heat Map Insights : Résume les cartes de chaleur des clics et défilements pour chaque type d'appareil, permettant un gain de temps en consolidant les insights au lieu d'une analyse manuelle.

Copilot Chat : Permet aux utilisateurs de poser des questions, d'obtenir des recommandations et de générer des tableaux ou rapports directement sur le tableau de bord. Les filtres et prompts peuvent ajuster les réponses pour des vues de données spécifiques.

Prompt Library : Propose des prompts courants pour guider les utilisateurs dans Copilot Chat, améliorant la facilité d'utilisation.

Conseils de navigation : Fonctions d'accès rapide incluant des liens hybrides pour les cartes de chaleur, des sélections spécifiques de sessions et des interactions avec le tableau de bord pour des insights simplifiés.

Conclusion : 

#MicrosoftClarity #AIInsights #WebAnalytics #DataMadeEasy #ClarityTutorial

lundi 21 octobre 2024

Présentation d’une nouvelle touche Copilot pour lancer l’année des PC Windows alimentés par l’IA

Présentation d’une nouvelle touche Copilot pour lancer l’année des PC Windows alimentés par l’IA

Introducing a new Copilot key to kick off the year of AI-powered Windows PCs | Windows Experience Blog 

https://blogs.windows.com/windowsexperience/2024/01/04/introducing-a-new-copilot-key-to-kick-off-the-year-of-ai-powered-windows-pcs/

Présentation d’une nouvelle touche Copilot pour lancer l’année des PC Windows alimentés par l’IA

Aujourd’hui, nous sommes ravis de franchir une nouvelle étape importante et d’introduire une nouvelle clé Copilot pour les PC Windows 11. En cette nouvelle année, nous inaugurerons un changement significatif vers un avenir informatique plus personnel et intelligent où l’IA sera intégrée de manière transparente à Windows, du système au silicium en passant par le matériel. Cela simplifiera non seulement l’expérience informatique des gens, mais l’amplifiera également, faisant de 2024 l’année du PC IA.   









dimanche 20 octobre 2024

Installation de Nemotron 70b et sa gouvernance.

Installation de Nemotron 70b sur un PC-AI sous Windows, et son plan de gouvernance :

Pour finir j’ai utilisé la solution nemotron-mini:latest car l’autres nemotron:latest me demande trop de ressources sur mon PC-AI.

Remarque : ce modèle est une démonstration de nos techniques visant à améliorer l'efficacité des instructions dans le domaine général. Il n'a pas été optimisé pour les performances dans des domaines spécialisés tels que les mathématiques.

Vous pouvez utiliser le modèle en utilisant la bibliothèque HuggingFace Transformers avec 2 ou plusieurs GPU de 80 Go (NVIDIA Ampere ou plus récent) avec au moins 150 Go d'espace disque libre pour permettre le téléchargement.

Ce code a été testé sur Transformers v4.44.0, torch v2.4.0 et 2 GPU A100 80 Go, mais toute configuration prenant en charge meta-llama/Llama-3.1-70B-Instructce modèle devrait également le prendre en charge. Si vous rencontrez des problèmes, vous pouvez envisager de faire pip install -U transformers.

nvidia/Llama-3.1-Nemotron-70B-Instruct-HF

https://huggingface.co/nvidia/Llama-3.1-Nemotron-70B-Instruct-HF

Comment utiliser ce modèle on-line ?

Le déployer sur Google Cloud :  https://console.cloud.google.com/vertex-ai/model-garden/featured-partners/hugging-face 




Vous pouvez déployer un modèle depuis Hugging Face sur un point de terminaison géré dans Vertex AI. Ce point de terminaison vous permet d'effectuer des prédictions en ligne ou par lots via la console Cloud ou l'API Vertex AI. Afficher tous les modèles sur Hugging Face 

Ceci permet de tester la solution et ainsi préparer la gouvernance de l'installation de l'AI et les formations adéquates :




Si vous avez OLLAMA installé sur votre PC (avec de la mémoire et puissance) cliquez sur ce lien :

Cela devrait bien se passer.

Si vous avez des questions supplémentaires ou rencontrez des problèmes, n'hésitez pas à demander !

Pour installer Nemotron, suivez ces étapes générales basées sur la documentation de NVIDIA NeMo Framework :

  1. Préparer l'environnement :

    • Assurez-vous d'avoir Docker installé sur votre système1.

    • Téléchargez et installez Docker si ce n'est pas déjà fait.



Une autre méthode pour installer Nemotron


Elle consiste à utiliser **GitHub** et les conteneurs Docker[43dcd9a7-70db-4a1f-b0ae-981daa162054](https://github.com/NVIDIA/NeMo?citationMarker=43dcd9a7-70db-4a1f-b0ae-981daa162054 "1"). Voici les étapes :

1. **Cloner le dépôt GitHub** :
   - Ouvrez un terminal et exécutez la commande suivante pour cloner le dépôt NeMo de NVIDIA :
     ```bash
     git clone https://github.com/NVIDIA/NeMo.git
     ```

2. **Accéder au répertoire cloné** :
   - Naviguez vers le répertoire cloné :
     ```bash
     cd NeMo
     ```

3. **Lancer le conteneur Docker** :
   - Construisez l'image Docker à partir du fichier Dockerfile fourni dans le dépôt :
     ```bash
     docker build -t nvidia_nemo .
     ```
   - Lancez le conteneur avec les données nécessaires montées :
     ```bash
     docker run -it --name nemo --mount type=bind,source=<chemin_vers_vos_données>,target=/workspace/data nvidia_nemo
     ```
     Remplacez `<chemin_vers_vos_données>` par le chemin vers le dossier où vous souhaitez stocker les données.

4. **Configurer Nemotron** :
   - Suivez les instructions spécifiques fournies dans le dépôt GitHub pour configurer Nemotron selon vos besoins.

Pour plus de détails, vous pouvez consulter la documentation officielle de Nemotron sur le site de NVIDIA ou le dépôt GitHub de NeMo[43dcd9a7-70db-4a1f-b0ae-981daa162054](https://docs.nvidia.com/nemo-framework/user-guide/latest/llms/nemotron/index.html?citationMarker=43dcd9a7-70db-4a1f-b0ae-981daa162054 "2")[43dcd9a7-70db-4a1f-b0ae-981daa162054](https://github.com/NVIDIA/NeMo?citationMarker=43dcd9a7-70db-4a1f-b0ae-981daa162054 "1").


Si vous avez des questions supplémentaires ou rencontrez des problèmes, n'hésitez pas à demander !

Aprés ces tests établir les procédures de déploiement, plans de formations des équipes et manuels utilisateurs de l'IA...


Pour déployer une IA de type Nemotron et d'établir toutes les procédures nécessaires pour sa mise en œuvre. 


Nemotron 70b et son plan de gouvernance :

Voici un exemple de plan d'action pour aborder ce projet de manière structurée :


1. Tests préliminaires :
   - Évaluation des performances du modèle Nemotron
   - Tests d'intégration avec les systèmes existants
   - Évaluation de la sécurité et de la confidentialité des données

2. Procédures de déploiement :
   - Planification de l'infrastructure technique nécessaire
   - Définition des étapes de déploiement progressif
   - Établissement d'un calendrier de mise en œuvre

3. Plans de formation des équipes :
   - Identification des groupes d'utilisateurs (techniques, opérationnels, décisionnels)
   - Création de modules de formation adaptés à chaque groupe
   - Planification des sessions de formation

4. Manuels utilisateurs :
   - Rédaction d'un guide d'utilisation général
   - Création de guides spécifiques pour différents cas d'usage
   - Élaboration d'une FAQ et d'un système de support

5. Gouvernance du projet :
   - Définition des rôles et responsabilités
   - Établissement d'un comité de pilotage
   - Création de processus de suivi et d'évaluation continue

6. Considérations éthiques et légales :
   - Analyse des implications éthiques de l'utilisation de l'IA
   - Vérification de la conformité avec les réglementations en vigueur (RGPD, etc.)

7. Gestion du changement :
   - Élaboration d'un plan de communication interne
   - Mise en place d'un système de retour d'expérience des utilisateurs

8. Maintenance et évolution :
   - Planification des mises à jour et des améliorations
   - Définition des indicateurs de performance à suivre

Par exemple la partrie 1 :

Je vais détailler la phase des tests préliminaires pour le déploiement de votre IA Nemotron.


1. Évaluation des performances du modèle Nemotron :


# Tests de performance du modèle Nemotron

## Précision et qualité des résultats
- Évaluer la précision sur un ensemble de données de test représentatif
- Mesurer la pertinence des réponses générées
- Tester la cohérence des résultats sur plusieurs exécutions

## Vitesse de traitement
- Mesurer le temps de réponse moyen pour différentes tailles d'entrée
- Évaluer les performances en cas de charge élevée (tests de stress)

## Efficacité de l'utilisation des ressources
- Surveiller l'utilisation du CPU et de la mémoire
- Évaluer les besoins en stockage pour différents volumes de données

## Capacité de généralisation
- Tester le modèle sur des données hors distribution
- Évaluer la performance sur des tâches connexes non vues pendant l'entraînement

## Robustesse
- Tester la résistance aux entrées adverses ou mal formées
- Évaluer la stabilité face à de légères variations dans les entrées

## Biais et équité
- Analyser les résultats pour détecter d'éventuels biais (genre, origine, etc.)
- Vérifier l'équité des performances sur différents sous-groupes démographiques

## Comparaison avec les benchmarks
- Comparer les performances avec les modèles de référence du domaine
- Évaluer par rapport aux métriques standard de l'industrie

2. Tests d'intégration avec les systèmes existants :

- Compatibilité : Vérifier la compatibilité de Nemotron avec les systèmes d'exploitation, bases de données et applications existantes.
- API et interfaces : Tester l'intégration via les API fournies, en s'assurant que les échanges de données se font correctement.
- Flux de travail : Simuler des scénarios d'utilisation réels pour vérifier l'intégration dans les processus de travail actuels.
- Performance globale : Mesurer l'impact de l'intégration de Nemotron sur les performances des systèmes existants.
- Gestion des erreurs : Tester la robustesse de l'intégration face à différents types d'erreurs ou de pannes.

3. Évaluation de la sécurité et de la confidentialité des données :


- Audit de sécurité : Réaliser un audit complet des mécanismes de sécurité de Nemotron.
- Tests de pénétration : Effectuer des tests d'intrusion pour identifier les vulnérabilités potentielles.
- Chiffrement : Vérifier que les données sensibles sont correctement chiffrées, tant au repos qu'en transit.
- Contrôle d'accès : Tester les mécanismes d'authentification et d'autorisation.
- Conformité RGPD : S'assurer que le traitement des données personnelles est conforme aux exigences du RGPD.
- Journalisation : Vérifier que toutes les actions importantes sont correctement enregistrées pour des audits futurs.
- Gestion des fuites de données : Tester les procédures de détection et de réponse aux fuites de données potentielles.

Ces tests préliminaires sont cruciaux pour garantir que le déploiement de Nemotron se fera de manière sûre et efficace. 

Ils permettront d'identifier et de résoudre les problèmes potentiels avant le déploiement à grande échelle.



https://lecercle.guild4ai.ai/feed

--- 
 Pierre Erol GIRAUDY 

samedi 12 octobre 2024

Installation de Llama 3.2 sur un PC-AI sous Windows.

LLAMA est un sujet intéressant !


LLAMA se réfère à une application d'intelligence artificielle nommée Large Language Model Application, mais elle porte également le nom d'un modèle d'intelligence artificielle développé par Meta AI. Llama est un type de modèle de langage transformateur qui utilise l'apprentissage autonome pour améliorer ses performances sur les tâches de traitement du langage naturel.

Essayez Llama 3.2 dès aujourd’hui :








Pour installer la solution Ollama sur votre PC sous Windows :

1. Téléchargez Ollama :

• Rendez-vous sur le site officiel d’Ollama et téléchargez la dernière version de l’application pour Windows. https://ollama.com/download


2. Installer Ollama :

• Une fois le téléchargement terminé, ouvrez le fichier .exe que vous venez de télécharger. • Suivez les instructions à l’écran pour installer Ollama sur votre ordinateur. 3. Ouvrir le terminal (invite de commande) puis taper « Ollama » • Si cela fonctionne, tout est OK.
Invite de commande Microsoft pour OLLAMA.

4. Installer le modèle Mistral

• Dans le terminal, tapez : ollama run mistral • Vous trouverez tous les modèles ici. https://ollama.com/library • Une fois le modèle téléchargé, tapez « /bye » pour quitter.

ollama run mistral.

Les Modèles OLLAMA :


Oui c'est l'IA Claude 3.5 Sonnet qui m'aide.

Voici un tableau récapitulatif des modèles OLLAMA les plus récents et populaires. Il inclut le nom du modèle, les tailles disponibles (si spécifiées), et une brève description de chaque modèle.
Ce tableau vous donne un aperçu des différents modèles disponibles, allant des petits modèles comme llama3.2 (1B-3B) aux grands modèles comme llama3.1 (jusqu'à 405B). Il met également en évidence la diversité des fournisseurs (Meta, Google, NVIDIA, Mistral AI, etc.) et des spécialisations (modèles généraux, modèles de code, modèles multimodaux, etc.).



| Nom du modèle | Taille(s) | Description |

|---------------|-----------|-------------|
| llama3.2 | 1B, 3B | Modèles plus petits de Meta's Llama 3.2 |
| llama3.1 | 8B, 70B, 405B | Nouveau modèle état de l'art de Meta |
| gemma2 | 2B, 9B, 27B | Modèle performant et efficace de Google |
| qwen2.5 | 0.5B à 72B | Modèles préentraînés sur jusqu'à 18 trillions de tokens |
| phi3.5 | 3B | Modèle léger de 3.8 milliards de paramètres surpassant des modèles plus grands |
| nemotron-mini | Non spécifié | Petit modèle par NVIDIA optimisé pour le jeu de rôle, le RAG QA, et l'appel de fonction |
| mistral-small | 22B | Modèle léger pour des tâches comme la traduction et le résumé |
| mistral-nemo | 12B | Modèle état de l'art avec 128k contexte |
| deepseek-coder-v2 | 16B, 236B | Modèle de code open-source utilisant Mixture-of-Experts |
| mistral | 7B | Modèle mis à jour à la version 0.3 |
| mixtral | 8x7B, 8x22B | Modèles Mixture of Experts (MoE) par Mistral AI |
| codegemma | 2B, 7B | Collection de modèles pour diverses tâches de codage |
| command-r | 35B | Modèle optimisé pour l'interaction conversationnelle |
| command-r-plus | 104B | Version plus puissante de Command R |
| llava | 7B, 13B, 34B | Modèle multimodal combinant encodeur de vision et Vicuna |
| llama3 | 8B, 70B | Le modèle LLM open source le plus capable à ce jour |
| gemma | 2B, 7B | Famille de modèles légers par Google DeepMind |
| qwen2 | 0.5B à 72B | Nouvelle série de modèles du groupe Alibaba |
| phi3 | 3B, 14B | Famille de modèles légers état de l'art par Microsoft |



Langues prises en charge : L’anglais, l’allemand, le français, l’italien, le portugais, l’hindi, l’espagnol et le thaï sont officiellement pris en charge. Llama 3.2 a été entraîné sur une collection de langues plus large que ces 8 langues prises en charge.








--- 
 Pierre Erol GIRAUDY