Translate

vendredi 20 décembre 2024

Boostez votre productivité avec Microsoft AI Builder automatisez les e-mails, les documents et les images...

Boostez la productivité : automatisez les e-mails, les documents et les images avec Microsoft AI Builder

Par Gwenaël Bego

Dans l’environnement commercial d’aujourd’hui, il est essentiel de rationaliser les flux de travail et de réduire les tâches manuelles. Microsoft AI Builder apporte la puissance de l’automatisation avancée aux processus de routine tels que le traitement des e-mails, le traitement des documents et la gestion des images, aidant ainsi les entreprises à fonctionner plus intelligemment et plus efficacement. Grâce à de nouvelles fonctionnalités, notamment le traitement de contenu multimodal, les sorties JSON structurées, la sélection flexible de modèles, l’ancrage Dataverse et une vaste bibliothèque d’invites, AI Builder élève les agents, les applications et l’automatisation à un niveau supérieur d’impact commercial.

Traitement de documents et d’images de nouvelle génération avec GPT

L’une des mises à jour les plus révolutionnaires d’AI Builder est la nouvelle capacité de traitement de contenu multimodal, qui permet aux entreprises de gérer différents types de données, y compris du texte, des documents et des images, dans le cadre d’une seule instruction en langage naturel. Cette intégration simplifie considérablement le processus d’élaboration d’actions d’IA pour un traitement intelligent des documents. Contrairement aux modèles d’apprentissage automatique traditionnels qui nécessitent une formation et une expertise approfondies, le traitement multimodal d’AI Builder peut être configuré à l’aide du langage naturel et sans données d’entraînement.

https://youtu.be/QJTd8LkBb6A?si=XswfcbP5BugWNyW8

Sorties JSON structurées désormais disponibles pour tous

Grâce à la nouvelle fonctionnalité de sortie JSON structurée d’AI Builder, les entreprises disposent d’un moyen plus déterministe et plus fiable de gérer le contenu généré. Contrairement aux sorties traditionnelles dont le format et la structure peuvent varier, les sorties JSON sont désormais générées avec un schéma prédéfini cohérent que vous définissez au moment de la conception, ce qui garantit que chaque résultat s’aligne précisément sur les formats de données attendus. Ce déterminisme dans la génération de contenu signifie que vos flux de travail automatisés produiront à chaque fois des données prévisibles et structurées, et que ces résultats seront facilement intégrés en tant que variables dans votre flux de travail Power Automate pour le traitement en aval. Cette fonctionnalité est particulièrement bénéfique lors de l’intégration des sorties d’AI Builder dans d’autres systèmes, car elle réduit le besoin de nettoyage ou de transformation de données supplémentaires. Qu’il s’agisse d’alimenter un CRM, une base de données ou une application personnalisée, vous pouvez vous assurer que les données sont générées de manière structurée et prévisible.

Image of structured JSON outputs

La mise à la terre de Dataverse est maintenant disponible pour tous

La nouvelle fonctionnalité d’ancrage Dataverse permet aux modèles d’IA générative d’obtenir des informations actualisées et contextuellement pertinentes à partir des données de votre organisation. En utilisant la génération augmentée par récupération (RAG), AI Builder s’intègre directement à Dataverse pour extraire des connaissances en temps réel et spécifiques à l’entreprise, donnant aux modèles une compréhension plus approfondie de votre contexte unique.

Cette approche améliorée par RAG permet aux modèles d’IA de récupérer et d’incorporer dynamiquement des données pertinentes de Dataverse pendant le traitement, ce qui permet d’obtenir des scénarios de questions-réponses avec des réponses précises qui sont également hautement contextualisées pour votre organisation. Par exemple, les modèles peuvent accéder instantanément aux historiques des clients, aux informations sur les produits et aux données opérationnelles les plus récentes, enrichissant ainsi les résultats avec des connaissances directement ancrées dans votre réalité commerciale.

Dans le cadre de la mise à disposition générale de cette fonctionnalité, elle a été améliorée pour prendre en charge plusieurs tables, y compris les tables contenant de grandes quantités d’enregistrements de données.

Image of Dataverse grounding with AI Builder

Sélection du modèle : GPT-4o et GPT-4o Mini

AI Builder offre une flexibilité dans la sélection des modèles, permettant aux utilisateurs de choisir entre le puissant GPT-4o et le GPT-4o Mini économique. Cette adaptabilité permet une personnalisation en fonction des exigences spécifiques du projet et des considérations relatives aux ressources.

Bibliothèque d’invites

La fonctionnalité de bibliothèque d’invites fournit une collection d’invites prédéfinies, servant de modèles pour accélérer la création de modèles d’IA. Cette ressource accélère le développement et garantit que les meilleures pratiques sont suivies dans l’ingénierie rapide. Les utilisateurs peuvent modifier les modèles en fonction de leurs besoins spécifiques, en ajustant le langage, le ton et les détails pour correspondre aux normes et aux exigences de l’organisation. Les modèles couvrent des domaines clés tels que l’extraction de documents, la transformation des données et la génération de contenu, ce qui permet aux utilisateurs de trouver facilement le bon point de départ pour leurs objectifs d’automatisation intelligente.

Image of prompt library feature in AI Biulder

Cas d’utilisation pour commencer

Avec AI Builder, vous n’avez pas besoin d’être un expert en codage pour tirer parti de la puissance de l’IA dans vos opérations quotidiennes. En créant des invites capables d’extraire des informations de documents, de classer des e-mails et même d’analyser des images, vous pouvez donner à votre équipe les moyens de travailler plus intelligemment, et non plus durement. AI Builder fonctionne main dans la main avec d’autres outils Power Platform tels que Power AutomateCopilot Studio et Power Apps, ce qui permet aux utilisateurs de créer des flux de travail intelligents et des applications personnalisées pour répondre aux besoins de toute entreprise.

Par exemple, supposons que votre équipe traite fréquemment les demandes des clients. À l’aide d’AI Builder et de Power Automate, vous pouvez concevoir un flux de travail qui analyse le contenu des e-mails entrants, les catégorise par urgence ou par sujet, et suggère même des réponses. Cela permet non seulement de gagner du temps, mais aussi de maintenir une communication cohérente et efficace. En mettant en place ce flux automatisé, les entreprises peuvent garder le contrôle des interactions avec les clients et garantir des réponses rapides.

Êtes-vous prêt à intégrer l’IA dans votre organisation ?

La documentation d’AI Builder fournit un guide complet sur la configuration d’AI Builder, la configuration des modèles et son intégration à des outils tels que Power Automate et Power Apps.

https://learn.microsoft.com/en-us/ai-builder/overview

Pour des didacticiels étape par étape, le parcours d’apprentissage Microsoft Learn AI Builder est un excellent point de départ. Il couvre tout, des concepts fondamentaux aux cas d’utilisation avancés, aidant les utilisateurs de tous niveaux à maîtriser l’utilisation d’AI Builder pour automatiser et optimiser les flux de travail.

Pour obtenir des conseils et des exemples sur l’utilisation du traitement de contenu multimodal et d’autres invites avec Power Apps, vous pouvez utiliser le Creative AI Kit dans App Source ou GitHub. Les nouveaux exemples qui utilisent des invites multimodales incluent AI Image Diff, AI Describe Image, AI Fields from Image et AI Generate QnA.

https://github.com/microsoft/powercat-creator-kit/releases/tag/CreatorKit-November2024


Participez à nos sessions Ignite et découvrez d’autres annonces passionnantes pour Microsoft Power Platform :



--- 

 Pierre Erol GIRAUDY
http://about.me/giraudyerol

jeudi 19 décembre 2024

Les mécanismes d'autocorrections

Dans le livre il indicts les une voie vers les mécanismes d'autocorrections (plus de 100 fois)  
 


Ces algorithmes offrent différentes approches pour l'autocorrection :


La distance de Levenshtein permet de mesurer la similarité entre deux mots en comptant le nombre minimal de modifications nécessaires pour passer de l'un à l'autre. C'est particulièrement utile pour les erreurs de frappe simples.

L'algorithme Soundex transforme les mots en codes phonétiques, ce qui permet de trouver des mots qui sonnent de manière similaire même s'ils sont orthographiés différemment. Par exemple, "Philippe" et "Filip" auront le même code Soundex.

La méthode des n-grammes découpe les mots en sous-séquences de n caractères et compare leur similarité. Cette approche est efficace pour détecter des similarités partielles entre les mots.

def levenshtein_distance(str1, str2):
    """Calcule la distance de Levenshtein entre deux chaînes."""
    if len(str1) < len(str2):
        return levenshtein_distance(str2, str1)

    if len(str2) == 0:
        return len(str1)

    previous_row = range(len(str2) + 1)
    for i, c1 in enumerate(str1):
        current_row = [i + 1]
        for j, c2 in enumerate(str2):
            insertions = previous_row[j + 1] + 1
            deletions = current_row[j] + 1
            substitutions = previous_row[j] + (c1 != c2)
            current_row.append(min(insertions, deletions, substitutions))
        previous_row = current_row

    return previous_row[-1]

def suggestion_mot(mot_errone, dictionnaire, seuil=2):
    """Trouve les suggestions pour un mot erroné basé sur la distance de Levenshtein."""
    suggestions = []
    for mot in dictionnaire:
        distance = levenshtein_distance(mot_errone, mot)
        if distance <= seuil:
            suggestions.append((mot, distance))
    
    return sorted(suggestions, key=lambda x: x[1])

# Exemple d'utilisation de l'algorithme phonétique Soundex
def soundex(mot):
    """Implémentation de l'algorithme Soundex."""
    # Table de conversion
    conv_table = {
        'b': '1', 'f': '1', 'p': '1', 'v': '1',
        'c': '2', 'g': '2', 'j': '2', 'k': '2', 'q': '2', 's': '2', 'x': '2', 'z': '2',
        'd': '3', 't': '3',
        'l': '4',
        'm': '5', 'n': '5',
        'r': '6'
    }
    
    if not mot:
        return ''
        
    # Garde la première lettre
    code = mot[0].upper()
    
    # Convertit le reste des lettres
    for char in mot[1:].lower():
        if char in conv_table:
            if conv_table[char] != code[-1]:  # Évite les répétitions
                code += conv_table[char]
    
    # Pad avec des zéros et tronque à 4 caractères
    code = code + '0' * 4
    return code[:4]

def n_grammes(mot, n=2):
    """Génère les n-grammes d'un mot."""
    return [mot[i:i+n] for i in range(len(mot)-n+1)]

def similarite_n_grammes(mot1, mot2, n=2):
    """Calcule la similarité entre deux mots basée sur leurs n-grammes."""
    ngrams1 = set(n_grammes(mot1, n))
    ngrams2 = set(n_grammes(mot2, n))
    
    intersection = len(ngrams1.intersection(ngrams2))
    union = len(ngrams1.union(ngrams2))
    
    return intersection / union if union > 0 else 0

Pour améliorer ces mécanismes, on peut également :


Utiliser des dictionnaires de fréquence pour privilégier les mots les plus courants
Tenir compte du contexte (mots précédents et suivants)
Implémenter des règles spécifiques à la langue (par exemple pour le français : accents, cédilles, etc.)
Utiliser des techniques d'apprentissage automatique pour affiner les suggestions... Et bien plus, je suppose que l'IA Freysa devait être avec des mécanismes de ce type.

L'IA Freysa trompée 


Maintenant que les blockchains et les IA deviennent de plus en plus puissantes, il existe un nombre croissant de cas d’utilisation à l’intersection des deux domaines. Cependant, certains de ces cas d’utilisation ont beaucoup plus de sens et sont beaucoup plus robustes que d’autres. En général, les cas d’utilisation où le mécanisme sous-jacent continue d’être conçu grossièrement comme avant, mais où les acteurs individuels deviennent des IA, permettant au mécanisme de fonctionner efficacement à une échelle beaucoup plus micro, sont les plus prometteurs et les plus faciles à réaliser.

Les applications les plus difficiles à mettre en œuvre sont celles qui tentent d’utiliser des blockchains et des techniques cryptographiques pour créer un « singleton » : une IA de confiance décentralisée unique sur laquelle une application s’appuierait à une certaine fin. Ces applications sont prometteuses, à la fois pour la fonctionnalité et pour l’amélioration de la sécurité de l’IA d’une manière qui évite les risques de centralisation associés à des approches plus courantes de ce problème. Mais il y a aussi de nombreuses façons dont les hypothèses sous-jacentes pourraient échouer ; Par conséquent, il vaut la peine d’être prudent, en particulier lors du déploiement de ces applications dans des contextes à forte valeur et à haut risque.

J’ai hâte de voir d’autres tentatives de cas d’utilisation constructifs de l’IA dans tous ces domaines, afin que nous puissions voir lesquels d’entre eux sont vraiment viables à grande échelle.


https://github.com/0xfreysa/agent





--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol

lundi 16 décembre 2024

Premiers pas avec Llama

Ce guide fournit des informations et des ressources pour vous aider à configurer Llama, notamment comment accéder au modèle, l’hébergement, les guides pratiques et les guides d’intégration. De plus, vous trouverez des matériaux supplémentaires pour vous aider davantage lors de la construction avec Llama.

Cette page couvre les capacités et les conseils spécifiques aux modèles sortis avec Llama 3.2 : Les modèles quantitatifs Llama 3.2 (1B/3B), les modèles légers Llama 3.2 (1B/3B) et les modèles multimodaux Llama 3.2 (11B/90B).

https://www.llama.com/docs/model-cards-and-prompt-formats/llama3_2

Téléchargez les modèles Llama 3.2.



Obtenir les modèles

Les pages de cette section décrivent comment obtenir les modèles de Lama :

  • Vous pouvez télécharger les modèles directement depuis Meta ou l’un de nos partenaires de téléchargement : Hugging Face ou Kaggle.

  • Vous pouvez également travailler avec nos partenaires de l’écosystème pour accéder aux modèles par le biais des services qu’ils fournissent. Cette approche peut être particulièrement utile si vous souhaitez travailler avec le modèle Llama 3.1 405B.

Note: Avec Llama 3.1, nous introduisons le modèle 405B. Ce modèle nécessite d’importantes ressources de stockage et de calcul, occupant environ 750 Go d’espace de stockage sur disque et nécessitant deux nœuds sur MP16 pour l’inférence.

Déploiement de Llama 3.1 405B : guides partenaires

Llama 3.1 405B est le modèle le plus avancé et le plus performant de Meta à ce jour. Pour vous aider à libérer tout son potentiel, veuillez vous référer aux guides partenaires ci-dessous.

Nos guides partenaires offrent une assistance et une expertise sur mesure pour garantir un processus de déploiement sans faille, vous permettant d’exploiter les fonctionnalités et les capacités de Llama 3.1 405B. Parcourez les guides de partenaires suivants pour explorer leurs offres spécifiques et faire le premier pas vers un déploiement réussi.

Les partenaires :

AWS Azure Databricks

Dell Fireworks AI Google Cloud Groq NVIDIA

IBM watsonx Scale AI Snowflake Together AI

Des lamas partout

Bien que les modèles Meta Llama soient souvent hébergés par des fournisseurs de services cloud (CSP), Meta Llama peut également être utilisé dans d’autres contextes, tels que Linux, le sous-système Windows pour Linux (WSL), macOS, les ordinateurs portables Jupyter et même les appareils mobiles. Si vous souhaitez explorerces scénarios, nous vous suggérons de consulter les ressources suivantes :

Llama 3 sur votre ordinateur local, avec des ressources pour d’autres options - Comment exécuter Llama sur votre bureau en utilisant Windows, macOS ou Linux. Aussi, des pointeurs vers d’autres façons d’exécuter Llama, soit sur site, soit dans le cloud

Linux Windows Mac Autres ressources

Llama Recipes QuickStart : fournit une introduction à Meta Llama à l’aide de notebooks Jupyter et illustre également l’exécution de Llama localement sur macOS.

Compilation d’apprentissage automatique pour les grands modèles de langage (MLC LLM) - Permet à « tout le monde de développer, d’optimiser et de déployer des modèles d’IA en natif sur les appareils de chacun avec des techniques de compilation ML ».

Llama.cpp - Utilise la portabilité de C++ pour permettre l’inférence avec des modèles Llama sur une variété de matériels différents.

ExecuTorch - Fournit un environnement d’exécution pour que les modèles légers et quantifiés Llama 3.2 s’exécutent sur des appareils mobiles et périphériques tels que des téléphones, des ordinateurs portables et des lunettes intelligentes.

Llama Everywhere https://www.llama.com/docs/llama-everywhere

Les pages de cette section décrivent comment développer des solutions de génération de code basées sur Code Llama. Ils fournissent également des informations sur LangChain et LlamaIndex, qui sont des frameworks utiles si vous souhaitez intégrer la génération augmentée de récupération (RAG).

Documentation | Llama

Bibliothèque Python Ollama 0.4 avec améliorations de l’appel de fonction

25 novembre 2024

Dans la dernière version de la bibliothèque Python Ollama, les fonctions peuvent désormais être fournies en tant qu’outils. La bibliothèque prend également en charge la saisie et de nouveaux exemples ont été ajoutés.

Démarrer

Commencez par installer ou mettre à jour la bibliothèque Python Ollama :

pip install -U ollama

Passer des fonctions Python en tant qu’outils

Définir une fonction Python

Commencez par définir une fonction Python régulière. Pour de meilleurs résultats, annotez les types de paramètres et de valeurs de retour et ajoutez éventuellement une docstring de style Google :

def add_two_numbers(a: int, b: int) -> int:
  """
  Add two numbers

  Args:
    a: The first integer number
    b: The second integer number

  Returns:
    int: The sum of the two numbers
  """
  return a + b

Passez la fonction en tant qu’outil à Ollama

Ensuite, utilisez le champ pour passer la fonction en tant qu’outil à Ollama :tools

import ollama

response = ollama.chat(
  'llama3.1',
  messages=[{'role': 'user', 'content': 'What is 10 + 10?'}],
  tools=[add_two_numbers], # Actual function reference
)

Appeler la fonction à partir de la réponse du modèle

Utilisez l’appel d’outil renvoyé et les arguments fournis par le modèle pour appeler la fonction correspondante :

available_functions = {
  'add_two_numbers': add_two_numbers,
}

for tool in response.message.tool_calls or []:
  function_to_call = available_functions.get(tool.function.name)
  if function_to_call:
    print('Function output:', function_to_call(**tool.function.arguments))
  else:
    print('Function not found:', tool.function.name)

Passer des fonctions existantes en tant qu’outils

Les fonctions des bibliothèques Python existantes, des SDK et d’autres outils peuvent désormais être fournies en tant qu’outils. Par exemple, le code suivant transmet la fonction de la bibliothèque en tant qu’outil pour récupérer le contenu du site Web d’Ollama :requestrequests

import ollama
import requests

available_functions = {
  'request': requests.request,
}

response = ollama.chat(
  'llama3.1',
  messages=[{
    'role': 'user',
    'content': 'get the ollama.com webpage?',
  }],
  tools=[requests.request], 
)

for tool in response.message.tool_calls or []:
  function_to_call = available_functions.get(tool.function.name)
  if function_to_call == requests.request:
    # Make an HTTP request to the URL specified in the tool call
    resp = function_to_call(
      method=tool.function.arguments.get('method'),
      url=tool.function.arguments.get('url'),
    )
    print(resp.text)
  else:
    print('Function not found:', tool.function.name)

Comment ça marche : générer un schéma JSON à partir de fonctions

La bibliothèque Python Ollama utilise l’analyse syntaxique Pydantic et docstring pour générer le schéma JSON. À titre d’exemple, pour la fonction déclarée au début de cet article, le schéma JSON suivant est généré (et devait auparavant être fourni manuellement en tant qu’outil) :add_two_nubmers

{
    "type": "function",
    "function": {
        "name": "add_two_numbers",
        "description": "Add two numbers",
        "parameters": {
            "type": "object",
            "required": [
                "a",
                "b"
            ],
            "properties": {
                "a": {
                    "type": "integer",
                    "description": "The first integer number"
                },
                "b": {
                    "type": "integer",
                    "description": "The second integer number"
                }
            }
        }
    }
}

Améliorations supplémentaires apportées à la bibliothèque Python Ollama

La version 0.4 de la bibliothèque Python Ollama comprend des améliorations supplémentaires :

  • Les exemples ont été mis à jour sur le GitHub d’Ollama Python.

  • Prise en charge complète de la saisie dans toute la bibliothèque pour prendre en charge l’accès direct aux objets tout en conservant les fonctionnalités existantes.

Ollama Python library 0.4 with function calling improvements · Ollama Blog

Users Group Artificial Intelligence Andorra (U.G.A.I.A.) : L'administration de LLAMA 3.2 version 0.4.1

--- 

 Pierre Erol GIRAUDY 

http://about.me/giraudyerol






jeudi 28 novembre 2024

Annonce de la préversion publique d’AI Shell - PS7

PowerShell 7.5 RC-1 est maintenant disponible (ici c’est la version PowerShell 7.4.6 - PS7)

Cette initiative de Microsoft avec AI Shell et PS7 représente une évolution stratégique significative dans l'écosystème PowerShell et l'automatisation en incluant l’IA et les agents :

Cette évolution représente un changement fondamental dans l'administration système, où l'IA devient un composant central plutôt qu'un simple outil complémentaire.

Intégration Native de l'IA :

  • PowerShell devient une interface directe pour les modèles d'IA

  • Permet aux administrateurs systèmes d'utiliser l'IA sans quitter leur environnement de travail habituel

  • Simplifie l'accès aux capacités d'IA via la ligne de commande

Approche Stratégique de Microsoft :

  • Démocratisation de l'IA dans les outils d'administration

  • Fusion entre automatisation traditionnelle et intelligence artificielle

  • Double stratégie avec support OpenAI et Azure (flexibilité du choix)

  • Possibilité de développer des agents (voir AIShell)

Impact sur l'Administration Système :

  • Possibilité d'automatiser des tâches complexes avec assistance IA

  • Génération de scripts plus sophistiqués

  • Analyse et résolution de problèmes assistées par IA

Évolution du Rôle des Administrateurs :

  • Transition vers une administration "IA-augmentée"

  • Nouveau paradigme dans la gestion des systèmes

  • Nécessité de développer des compétences hybrides (PowerShell + IA)

Perspectives Futures :

  • Probable expansion vers d'autres modèles d'IA

  • Intégration plus profonde avec les services cloud Microsoft

  • Développement d'use-cases spécifiques à l'administration système

Cette approche marque un tournant dans l'évolution des outils d'administration, positionnant PowerShell comme une plateforme d'automatisation intelligente plutôt qu'un simple shell de scripting et une passerelle vers OpenAI et Azure.


Voici l’aperçu public de AI Shell ! AI Shell améliore votre programmation grâce à l’IA pour faciliter vos interactions avec la ligne de commande. AI Shell créer un qui peut interagir avec divers modèles de langage volumineux et fournit un cadre que vous pouvez utiliser pour construire un système sur mesure qui répond à vos besoins. Les utilisateurs peuvent interagir avec les agents de l’IA dans un manière conversationnelle.

Différences entre Windows PowerShell 5.1 et PowerShell 7.x

Si vous exécutez une version de Windows PowerShell antérieure à la version 5.1, vous devez mettre à jour votre version de Windows. Windows PowerShell 5.1 est préinstallé sur les versions actuellement prises en charge de Windows. Au niveau de l’administration de la console les améliorations ne sont pas majeur. Voir ci-dessous la console de paramétrage de PS7.


PowerShell version 7 n’est pas un remplacement pour Windows PowerShell 5.1 ; il s’installe côte à côte avec Windows PowerShell. Windows PowerShell version 5.1 et PowerShell version 7 sont deux produits différents. Pour plus d’informations sur les différences entre Windows PowerShell version 5.1 et PowerShell version 7, consultez Migration de Windows PowerShell 5.1 vers PowerShell 7.

La version PS 7 est installée ici :

C:\ProgramData\Microsoft\Windows\Start Menu\Programs\PowerShell


Le projet AI Shell comprend :

  • L’interface shell () de la ligne de commandeaish

  • Un cadre pour la création d’agents d’IA et d’autres prestataires d’assistance

  • Un module PowerShell pour une intégration plus poussée avec PowerShell.

  • Agents IA intégrés pour vous aider à démarrer immédiatement

Chaque assistant IA est connu sous le nom d’agent. La version initiale d’AI Shell comprend deux agents :

  1. Agent Azure OpenAI : en alimentant l’assistance à usage général, l’agent Azure OpenAI peut utiliser l’un des modèles d’IA fournis par Azure open AI pour gérer des requêtes larges, le langage naturel interprétations ou la génération de code. Vous pouvez le connecter à vos modèles Azure OpenAI déployés si Vous recherchez plus de confidentialité, la gestion des paramètres du modèle, ou faites entraîner un modèle avec vos données. De plus, vous pouvez également utiliser les modèles d’OpenAI.

  2. Copilot dans Azure : cet agent apporte la puissance de Copilot dans Azure directement à votre interface de ligne de commande. Il est spécialisé dans la fourniture d’une assistance centrée sur le cloud, fournissant Azure CLI et Azure PowerShell et vous aider à automatiser vos tâches spécifiques à Azure. Pour commencer à utiliser l’agent Copilot dans Azure, vous devez vous connecter à Azure avec Azure CLI avec un compte disposant du rôle IAM pour accéder à Copilot dans Azure.


NOTE

L’agent Azure OpenAI a besoin d’une configuration supplémentaire pour se connecter à votre instance Azure OpenAI. Pour commencer, suivez les instructions fournies au démarrage de l’agent.

Utilisation et installation d’AI Shell

Nous savons que chaque utilisateur de CLI a ses propres préférences, c’est pourquoi AI Shell propose deux modes flexibles pour s’adapter à votre Flux de travail :

Exécutable autonome

Vous pouvez utiliser AI Shell en tant qu’exécutable autonome, ce qui lui permet de s’exécuter indépendamment de n’importe quel coquille. Cette configuration est parfaite si vous recherchez une expérience dédiée et simplifiée qui est facilement accessible sans dépendances.

Installation de PowerShell sur Windows - PowerShell | Microsoft Learn

Installer AI Shell

Pour plus de commodité, vous pouvez utiliser installaishell.ps1 script pour installer AI Shell.

Sur Windows, ce script :

  • Installe aish.exe pour $env:LOCALAPPDATA\Programs\AIShell et l’ajoute à votre chemin d’accès

  • Installe le module AIShell sur l’emplacement du chemin de votre module

Sur macOS, ce script :

  • Installe l’exécutable aish sur /usr/local/AIShell

  • En raison de certaines limitations, le module AIShell n’est pas installé

Notes

Ce script fonctionne uniquement sur les systèmes Windows et Mac. Les utilisateurs Linux doivent suivre les instructions d’installation manuelles.

Invoke-Expression "& { $(Invoke-RestMethod 'https://aka.ms/install-aishell.ps1') }"

Mon chemin : Install-PSResource -Name AIShell -Path "C:\PS7\"

Pour installer manuellement AI Shell, suivez les instructions de votre plateforme :

  1. Téléchargez la dernière version à partir de la page versions de GitHub. Choisissez le fichier qui correspond à votre architecture système. Par exemple : AIShell-1.0.0-preview.1-win-x64.zip.

  2. Extrayez le contenu du fichier ZIP à un emplacement sur votre système.

  3. Ajoutez le dossier extrait à votre variable d’environnement PATH PATH.

  4. Installez le module AI Shell à partir de PowerShell Gallery.

    PowerShellCopier

    Install-PSResource -Name AIShell
    

PowerShell 7.4.6

PS C:\Windows\System32> Invoke-Expression "& { $(Invoke-RestMethod 'https://aka.ms/install-aishell.ps1') }"

Downloading AI Shell package 'AIShell-1.0.0-preview.1-win-x64.zip' ...

Extracting AI Shell to 'C:\Users\erolg\AppData\Local\Programs\AIShell' ...

Adding AI Shell app to the Path environment variable ...

Installing the PowerShell module 'AIShell' ...

Installation succeeded. To learn more about AI Shell please visit https://aka.ms/AIShell-Docs. To get started please run 'Start-AIShell' to start AI Shell.

PS C:\Windows\System32>

Il existe aussi un fichier MSI et un ZIP :

Attention j’ai du faire une réparation avec le MSI.

PowerShell chargement par le store de MS (solution la plus simple et fiable).

Ce produit est classé PEGI 3 pour PEGI 3, Apropiado a partir de 3 años par le Información Paneuropea sobre Juegos

Nous avons téléchargé un exécutable pour vous aider à installer PowerShell. Ouvrez ce fichier dans vos téléchargements pour commencer l’installation.

PowerShell 7.2 et versions ultérieures prend en charge Microsoft Update. Quand vous activez cette fonctionnalité, vous obtenez les dernières mises à jour de PowerShell 7 dans votre flux de gestion Microsoft Update (MU) traditionnel, que ce soit avec Windows Update pour Entreprise, WSUS, Microsoft Endpoint Configuration Manager ou la boîte de dialogue MU interactive dans Paramètres.

Puis lancement de la commande en role d’administrateur :

Invoke-Expression "& { $(Invoke-RestMethod 'https://aka.ms/install-aishell.ps1') }"

PowerShell 7.4.6

PS C:\Windows\System32>

PS C:\Windows\System32> Install-PSResource -Name AIShell

Untrusted repository

You are installing the modules from an untrusted repository. If you trust this repository, change its Trusted value by running the Set-PSResourceRepository cmdlet. Are you sure you want to install the PSResource from 'PSGallery'?

[Y] Yes [A] Yes to All [N] No [L] No to All [S] Suspend [?] Help (default is "N"):

Ce message indique que vous essayez d'installer le module AIShell depuis PSGallery, un dépôt PowerShell non approuvé par défaut.

Options proposées :

Y : Accepter uniquement cette installation

A : Accepter toutes les installations futures depuis ce dépôt

N : Refuser l'installation (choix par défaut)

L : Refuser toutes les installations futures

S : Suspendre temporairement

? : Afficher l'aide

Pour approuver définitivement ce dépôt, utilisez :

Set-PSResourceRepository -Name PSGallery -Trusted $true

AI Shell

1.0.0-preview.1

Welcome to AI Shell! We’re excited to have

you explore our Public Preview. Documentation

is available at aka.ms/AIShell-Docs, and we’d

love to hear your thoughts - share your

feedback with us at aka.ms/AIShell-Feedback.

Please select an AI agent to use:

(You can switch to another agent later by

typing @<agent name>)

> openai-gpt

azure

PowerShell 7 représente une évolution majeure avec plusieurs avantages clés :

Forces :

- Multiplateforme (Windows, Linux, macOS)

- Performances améliorées vs versions antérieures

- Parallélisation native avec ForEach-Object -Parallel

- Nouvelles fonctionnalités (opérateur null coalescent ??, pipeline chaîné &&)

- Rétrocompatibilité avec la plupart des modules Windows PowerShell

Points d'attention :

- Certains modules Windows-only restent incompatibles

- Courbe d'apprentissage pour les nouvelles fonctionnalités

- Coexistence nécessaire avec Windows PowerShell 5.1 pour certains outils d'administration

C'est globalement une version mature et recommandée, particulièrement pour l'automatisation cross-platform.


PowerShell SDK

PowerShell est un langage de script et un shell de ligne de commande qui permet aux administrateurs et aux développeurs d'automatiser des tâches et de gérer des systèmes et des applications. PowerShell pour Microsoft 365 est un ensemble de modules PowerShell qui permettent aux administrateurs et aux développeurs de gérer et d'interagir avec les ressources Microsoft 365, telles que les utilisateurs, les groupes, les licences, les boîtes aux lettres, les calendriers, les contacts, les fichiers, les sites, les équipes, etc. PowerShell pour Microsoft 365 utilise le Microsoft Graph PowerShell SDK, une bibliothèque qui fournit un moyen unifié et cohérent d'accéder à l'API Microsoft Graph, un service web RESTful qui expose les données et les fonctionnalités de Microsoft 365 et d'autres services Microsoft.

PowerShell pour Microsoft 365 utilisant le SDK Microsoft Graph PowerShell offre aux administrateurs plusieurs avantages lorsqu'ils travaillent avec des ressources Microsoft 365, notamment :

  • Contrôle granulaire. PowerShell pour Microsoft 365 offre un contrôle complet et granulaire sur les ressources de Microsoft 365. Il permet aux administrateurs et aux développeurs d'effectuer des tâches qui ne sont pas possibles ou qui sont difficiles à réaliser à l'aide du centre d'administration ou d'autres outils.

  • Gestion simplifiée et automatisation. PowerShell pour Microsoft 365 simplifie et rationalise la gestion et l'automatisation des ressources Microsoft 365. Il permet aux administrateurs et aux développeurs d'utiliser une interface unique et cohérente pour accéder à l'API Microsoft Graph, sans avoir à gérer différents points de terminaison, méthodes d'authentification et formats de données.

  • Sécurité et conformité renforcées. PowerShell pour Microsoft 365 renforce la sécurité et la conformité des ressources Microsoft 365. Il permet aux administrateurs et aux développeurs d'utiliser la plateforme d'identité Microsoft Entra pour authentifier et autoriser les utilisateurs et les appareils, et appliquer des politiques et des paramètres, tels que l' AMF, l'accès conditionnel et le contrôle d'accès basé sur les rôles (RBAC).

  • Intégration et personnalisation. PowerShell pour Microsoft 365 permet l'intégration et la personnalisation des ressources Microsoft 365. Il permet aux administrateurs et aux développeurs d'utiliser l' API Microsoft Graph pour accéder et manipuler les données et les fonctionnalités de Microsoft 365 et d'autres services Microsoft, tels qu' Azure, Dynamics 365 et Power Platform.


Étapes suivantes

Utilisation d’AI Shell

Avant de pouvoir utiliser l’agent Azure OpenAI, vous devez créer une configuration qui inclut votre point de terminaison, vos clés API et votre invite système. Démarrez AI Shell, sélectionnez l’agent et exécutez /agent config. Dans le fichier de configuration JSON ouvert, vous devez fournir votre point de terminaison, le nom de déploiement, la version du modèle et la clé API. Vous pouvez configurer la propriété d’invite système pour mieux baser le modèle sur vos cas d’usage spécifiques, la valeur par défaut incluse est destinée à un expert PowerShell. En outre, si vous souhaitez utiliser OpenAI, vous pouvez configurer l’agent avec uniquement votre clé API à partir d’OpenAI dans l’exemple commenté dans le fichier JSON.

L’agent Azure est conçu pour apporter directement l’expérience Copilot dans Azure à votre ligne de commande. Il fournit de l’aide pour les commandes Azure CLI et Azure PowerShell. Pour utiliser cet agent, vous devez vous connecter à Azure à l’aide de la commande az login à partir d’Azure CLI.

Microsoft.PowerShell.Core

Le composant logiciel enfichable Microsoft.PowerShell.Core contient des applets de commande et des fournisseurs qui gèrent les fonctionnalités de base de PowerShell. PowerShell charge automatiquement le composant logiciel enfichable Microsoft.PowerShell.Core au démarrage.

Ce n’est pas un module. Vous ne pouvez pas l’importer à l’aide Import-Module ou la supprimer à l’aide Remove-Modulede .

PS C:\Users\erolg> Get-Help

RUBRIQUE

Système d’aide de Windows PowerShell

DESCRIPTION COURTE

    Affiche l’aide sur les applets de commande et les concepts de Windows PowerShell.

DESCRIPTION LONGUE

L’aide de Windows PowerShell décrit les applets de commande,

les fonctions, les scripts et les modules Windows PowerShell. Elle explique

les concepts tels que les éléments du langage Windows PowerShell.

Windows PowerShell ne contient pas de fichiers d’aide, mais vous pouvez consulter

les rubriques d’aide en ligne ou utiliser l’applet de commande Update-Help pour télécharger les fichiers d’aide

sur votre ordinateur. Utilisez ensuite l’applet de commande Get-Help pour afficher les rubriques

d’aide sur la ligne de commande.

Vous pouvez également utiliser l’applet de commande Update-Help pour télécharger les fichiers d’aide mis à jour

dès qu’ils sont disponibles, de sorte que le contenu de votre aide locale n’est jamais obsolète.

Sans les fichiers d’aide, Get-Help affiche l’aide générée automatiquement pour les applets de commande,

les fonctions et les scripts.

AIDE EN LIGNE

Vous pouvez trouver de l’aide en ligne sur Windows PowerShell dans la bibliothèque TechNet

à l’adresse suivante : http://go.microsoft.com/fwlink/?LinkID=108518.

Pour ouvrir l’aide en ligne d’une applet de commande ou d’une fonction, tapez :

Get-Help <nom-applet_commande> -Online

UPDATE-HELP

Pour télécharger et installer des fichiers d’aide sur votre ordinateur :

1. Démarrez Windows PowerShell à l’aide de l’option Exécuter en tant qu’administrateur.

2. Tapez :

Update-Help

Une fois les fichiers d’aide installés, vous pouvez utiliser l’applet de commande Get-Help pour

afficher les rubriques d’aide. Vous pouvez également utiliser l’applet de commande Update-Help pour

télécharger les fichiers d’aide mis à jour afin que vos fichiers d’aide locaux restent

à jour.

Pour plus d’informations sur l’applet de commande Update-Help, tapez :

Get-Help Update-Help -Online

ou accédez à l’adresse suivante : http://go.microsoft.com/fwlink/?LinkID=210614

GET-HELP

L’applet de commande Get-Help affiche l’aide sur la ligne de commande à partir du contenu

des fichiers d’aide de votre ordinateur. Sans les fichiers d’aide, Get-Help affiche une aide de base

relative aux applets de commande et aux fonctions. Vous pouvez également utiliser Get-Help pour afficher

une aide en ligne relative aux applets de commande et aux fonctions.

Pour obtenir de l’aide sur une applet de commande, tapez :

Get-Help <nom-applet_commande>

Pour obtenir de l’aide en ligne, tapez :

Get-Help <nom-applet_commande> -Online

Les titres des rubriques conceptuelles commencent par « About_ ».

Pour obtenir de l’aide sur un concept ou un élément de langage, tapez :

Get-Help About_ <nom-rubrique>

Pour rechercher un mot ou une expression dans l’ensemble des fichiers d’aide, tapez :

Get-Help <terme-recherché>

Pour plus d’informations sur l’applet de commande Get-Help, tapez :

Get-Help Get-Help -Online

ou accédez à l’adresse suivante : http://go.microsoft.com/fwlink/?LinkID=113316

EXEMPLES :

Save-Help  : télécharge les fichiers d’aide à partir d’Internet et les enregistre

sur un partage de fichiers.

Update-Help  : télécharge et installe les fichiers d’aide à partir

d’Internet ou d’un partage de fichiers.

Get-Help Get-Process  : affiche l’aide relative à l’applet de commande Get-Process.

Get-Help Get-Process -Online

 : ouvre l’aide en ligne relative à l’applet de commande Get-Process.

Help Get-Process  : affiche l’aide relative à Get-Process page par page.

Get-Process -?  : affiche l’aide relative à l’applet de commande Get-Process.

Get-Help About_Modules : affiche l’aide relative aux modules Windows PowerShell.

Get-Help remoting  : recherche le mot « remoting » dans les rubriques d’aide.

VOIR AUSSI :

about_Updatable_Help

Get-Help

Save-Help

Update-Help



Voici une analyse plus approfondie :

1. PowerShell comme Plateforme d'Automatisation Intelligente :

- Evolution d'un shell scriptable vers une plateforme IA-native

- Capacité de prise de décision autonome basée sur l'IA

- Automatisation contextuelle et adaptative

- Possibilité de traitement du langage naturel dans les scripts

2. Expansion Probable vers d'Autres Modèles d'IA :

- Intégration possible de modèles spécialisés comme :

* Claude d'Anthropic pour l'analyse complexe

* Llama 3.2 ou plus pour le traitement local

* Modèles spécialisés en cybersécurité

* IA dédiées à l'analyse de logs et diagnostics

3. Intégration Services Cloud Microsoft :

- Azure Cognitive Services pour l'analyse avancée

- Azure Machine Learning pour les modèles personnalisés

- Azure Automation pour l'orchestration

- Azure Monitor pour l'analyse prédictive

- Azure Security Center pour la détection des menaces

- Azure DevOps pour l'automatisation du développement

4. Use-Cases Spécifiques Administration Système :

- Diagnostic Automatisé :

* Analyse intelligente des logs

* Prédiction des pannes système

* Recommandations de maintenance

- Sécurité Proactive :

* Détection d'anomalies

* Analyse comportementale

* Réponse automatisée aux incidents

- Optimisation Infrastructure :

* Scaling intelligent des ressources

* Optimisation des performances

* Gestion prédictive de la capacité

- Support Utilisateur :

* Chatbots d'assistance technique

* Résolution automatisée des problèmes courants

* Documentation dynamique

Cette évolution représente un changement fondamental dans l'administration système, où l'IA devient un composant central plutôt qu'un simple outil complémentaire.


Ecosystème des agents :

Découvrez comment rendre Microsoft 365 Copilot encore plus puissant pour vos utilisateurs en exploitant la puissance des agents.

Avec la démocratisation de l'IA, Microsoft Copilot s’impose comme un assistant incontournable dans la suite d’outils que vos employés ou ceux de vos clients utilisent au quotidien. Mais saviez-vous qu’il est possible de le rendre encore plus pertinent en développant des agents capables d’interagir directement avec vos données et systèmes métiers ? Les différentes options pour créer ces agents, qu’il s’agisse d’agents déclaratifs pour des besoins relativement simples (appels d'APIs, connecteurs Graph), ou d’agents personnalisés développés avec Visual Studio ou VS Code pour aller plus loin.

Aujourd’hui, nous mettons en open source le protocole MCP (Model Context Protocol), une nouvelle norme permettant de connecter les assistants d’IA aux systèmes où se trouvent les données, y compris les référentiels de contenu, les outils métier et les environnements de développement. Son objectif est d’aider les modèles frontières à produire des réponses meilleures et plus pertinentes.

Alors que les assistants d’IA sont de plus en plus adoptés, l’industrie a investi massivement dans les capacités des modèles, réalisant des progrès rapides en matière de raisonnement et de qualité. Pourtant, même les modèles les plus sophistiqués sont limités par leur isolement des données, piégés derrière des silos d’informations et des systèmes hérités. Chaque nouvelle source de données nécessite sa propre implémentation personnalisée, ce qui rend difficile l’évolutivité des systèmes véritablement connectés.

MCP relève ce défi. Il fournit une norme ouverte et universelle pour connecter les systèmes d’IA aux sources de données, remplaçant les intégrations fragmentées par un protocole unique. Le résultat est un moyen plus simple et plus fiable de donner aux systèmes d’IA l’accès aux données dont ils ont besoin.

Le protocole MCP (Model Context Protocol) est un protocole ouvert qui permet une intégration transparente entre les applications LLM et les sources de données et outils externes. Que vous créiez un IDE alimenté par l’IA, que vous amélioriez une interface de chat ou que vous créiez des flux de travail d’IA personnalisés, MCP fournit un moyen standardisé de connecter les LLM au contexte dont ils ont besoin.

https://modelcontextprotocol.io/introduction

https://github.com/modelcontextprotocol

Voici une analyse non exhaustive des stratégies des grands acteurs pour les Agents AI :

1. Microsoft

- Stratégie d'intégration native (AIShell dans PowerShell)

- Copilots dans tous leurs produits

- But : Dominer l'IA en entreprise via leurs outils existants

- Partenariat OpenAI pour l'expertise IA

2. Anthropic

- Focus sur la sécurité et l'éthique avec Claude

- Développement d'agents spécialisés par domaine

- But : IA fiable et responsable pour entreprises

- Accent sur la transparence et contrôle

  • Claude d’Anthropic dans Amazon Bedrock

  • Agents Amazon Bedrock

3. Google

- Gemini comme base technologique

- Intégration dans Workspace et Android

- But : IA consumer et entreprise unifiée

- Innovation dans les modèles multimodaux

4. AWS

- Amazon Q pour le cloud computing

- Agents spécialisés par service AWS

- But : Dominer l'IA dans le cloud

- Focus sur l'automatisation cloud

  • Claude d’Anthropic dans Amazon Bedrock

  • Agents Amazon Bedrock

5. IBM

- Watson comme plateforme enterprise

- Agents spécialisés par industrie

- But : Solutions IA B2B personnalisées

- Expertise sectorielle

6. Apple

- Approche privacy-first

- Intégration iOS/macOS

- But : IA personnelle sécurisée

- Focus expérience utilisateur

Objectifs Communs :

1. Automatisation intelligente

2. Personnalisation des services

3. Augmentation productivité

4. Monétisation des services IA

5. Création d'écosystèmes propriétaires

Le but final semble être la création d'assistants IA omniprésents et spécialisés, intégrés nativement dans tous les outils et services. Créer des assistants IA omniprésents et spécialisés, intégrés nativement dans tous les services.


https://aws.amazon.com/fr/bedrock/agents/ - https://www.anthropic.com/news/anthropic-amazon-trainium

Guide pratique pour utiliser la documentation PowerShell


Microsoft.PowerShell.Core Module - PowerShell | Microsoft Learn


Bien démarrer avec AI Shell - PowerShell | Microsoft Learn


Prise en main d’AI Shell dans PowerShell - PowerShell | Microsoft Learn


AI Shell : le nouveau shell de Microsoft dédié à l'IA



--- 

 Pierre Erol GIRAUDY