Translate

Affichage des articles dont le libellé est LLAMA. Afficher tous les articles
Affichage des articles dont le libellé est LLAMA. Afficher tous les articles

lundi 16 décembre 2024

Premiers pas avec Llama

Ce guide fournit des informations et des ressources pour vous aider à configurer Llama, notamment comment accéder au modèle, l’hébergement, les guides pratiques et les guides d’intégration. De plus, vous trouverez des matériaux supplémentaires pour vous aider davantage lors de la construction avec Llama.

Cette page couvre les capacités et les conseils spécifiques aux modèles sortis avec Llama 3.2 : Les modèles quantitatifs Llama 3.2 (1B/3B), les modèles légers Llama 3.2 (1B/3B) et les modèles multimodaux Llama 3.2 (11B/90B).

https://www.llama.com/docs/model-cards-and-prompt-formats/llama3_2

Téléchargez les modèles Llama 3.2.



Obtenir les modèles

Les pages de cette section décrivent comment obtenir les modèles de Lama :

  • Vous pouvez télécharger les modèles directement depuis Meta ou l’un de nos partenaires de téléchargement : Hugging Face ou Kaggle.

  • Vous pouvez également travailler avec nos partenaires de l’écosystème pour accéder aux modèles par le biais des services qu’ils fournissent. Cette approche peut être particulièrement utile si vous souhaitez travailler avec le modèle Llama 3.1 405B.

Note: Avec Llama 3.1, nous introduisons le modèle 405B. Ce modèle nécessite d’importantes ressources de stockage et de calcul, occupant environ 750 Go d’espace de stockage sur disque et nécessitant deux nœuds sur MP16 pour l’inférence.

Déploiement de Llama 3.1 405B : guides partenaires

Llama 3.1 405B est le modèle le plus avancé et le plus performant de Meta à ce jour. Pour vous aider à libérer tout son potentiel, veuillez vous référer aux guides partenaires ci-dessous.

Nos guides partenaires offrent une assistance et une expertise sur mesure pour garantir un processus de déploiement sans faille, vous permettant d’exploiter les fonctionnalités et les capacités de Llama 3.1 405B. Parcourez les guides de partenaires suivants pour explorer leurs offres spécifiques et faire le premier pas vers un déploiement réussi.

Les partenaires :

AWS Azure Databricks

Dell Fireworks AI Google Cloud Groq NVIDIA

IBM watsonx Scale AI Snowflake Together AI

Des lamas partout

Bien que les modèles Meta Llama soient souvent hébergés par des fournisseurs de services cloud (CSP), Meta Llama peut également être utilisé dans d’autres contextes, tels que Linux, le sous-système Windows pour Linux (WSL), macOS, les ordinateurs portables Jupyter et même les appareils mobiles. Si vous souhaitez explorerces scénarios, nous vous suggérons de consulter les ressources suivantes :

Llama 3 sur votre ordinateur local, avec des ressources pour d’autres options - Comment exécuter Llama sur votre bureau en utilisant Windows, macOS ou Linux. Aussi, des pointeurs vers d’autres façons d’exécuter Llama, soit sur site, soit dans le cloud

Linux Windows Mac Autres ressources

Llama Recipes QuickStart : fournit une introduction à Meta Llama à l’aide de notebooks Jupyter et illustre également l’exécution de Llama localement sur macOS.

Compilation d’apprentissage automatique pour les grands modèles de langage (MLC LLM) - Permet à « tout le monde de développer, d’optimiser et de déployer des modèles d’IA en natif sur les appareils de chacun avec des techniques de compilation ML ».

Llama.cpp - Utilise la portabilité de C++ pour permettre l’inférence avec des modèles Llama sur une variété de matériels différents.

ExecuTorch - Fournit un environnement d’exécution pour que les modèles légers et quantifiés Llama 3.2 s’exécutent sur des appareils mobiles et périphériques tels que des téléphones, des ordinateurs portables et des lunettes intelligentes.

Llama Everywhere https://www.llama.com/docs/llama-everywhere

Les pages de cette section décrivent comment développer des solutions de génération de code basées sur Code Llama. Ils fournissent également des informations sur LangChain et LlamaIndex, qui sont des frameworks utiles si vous souhaitez intégrer la génération augmentée de récupération (RAG).

Documentation | Llama

Bibliothèque Python Ollama 0.4 avec améliorations de l’appel de fonction

25 novembre 2024

Dans la dernière version de la bibliothèque Python Ollama, les fonctions peuvent désormais être fournies en tant qu’outils. La bibliothèque prend également en charge la saisie et de nouveaux exemples ont été ajoutés.

Démarrer

Commencez par installer ou mettre à jour la bibliothèque Python Ollama :

pip install -U ollama

Passer des fonctions Python en tant qu’outils

Définir une fonction Python

Commencez par définir une fonction Python régulière. Pour de meilleurs résultats, annotez les types de paramètres et de valeurs de retour et ajoutez éventuellement une docstring de style Google :

def add_two_numbers(a: int, b: int) -> int:
  """
  Add two numbers

  Args:
    a: The first integer number
    b: The second integer number

  Returns:
    int: The sum of the two numbers
  """
  return a + b

Passez la fonction en tant qu’outil à Ollama

Ensuite, utilisez le champ pour passer la fonction en tant qu’outil à Ollama :tools

import ollama

response = ollama.chat(
  'llama3.1',
  messages=[{'role': 'user', 'content': 'What is 10 + 10?'}],
  tools=[add_two_numbers], # Actual function reference
)

Appeler la fonction à partir de la réponse du modèle

Utilisez l’appel d’outil renvoyé et les arguments fournis par le modèle pour appeler la fonction correspondante :

available_functions = {
  'add_two_numbers': add_two_numbers,
}

for tool in response.message.tool_calls or []:
  function_to_call = available_functions.get(tool.function.name)
  if function_to_call:
    print('Function output:', function_to_call(**tool.function.arguments))
  else:
    print('Function not found:', tool.function.name)

Passer des fonctions existantes en tant qu’outils

Les fonctions des bibliothèques Python existantes, des SDK et d’autres outils peuvent désormais être fournies en tant qu’outils. Par exemple, le code suivant transmet la fonction de la bibliothèque en tant qu’outil pour récupérer le contenu du site Web d’Ollama :requestrequests

import ollama
import requests

available_functions = {
  'request': requests.request,
}

response = ollama.chat(
  'llama3.1',
  messages=[{
    'role': 'user',
    'content': 'get the ollama.com webpage?',
  }],
  tools=[requests.request], 
)

for tool in response.message.tool_calls or []:
  function_to_call = available_functions.get(tool.function.name)
  if function_to_call == requests.request:
    # Make an HTTP request to the URL specified in the tool call
    resp = function_to_call(
      method=tool.function.arguments.get('method'),
      url=tool.function.arguments.get('url'),
    )
    print(resp.text)
  else:
    print('Function not found:', tool.function.name)

Comment ça marche : générer un schéma JSON à partir de fonctions

La bibliothèque Python Ollama utilise l’analyse syntaxique Pydantic et docstring pour générer le schéma JSON. À titre d’exemple, pour la fonction déclarée au début de cet article, le schéma JSON suivant est généré (et devait auparavant être fourni manuellement en tant qu’outil) :add_two_nubmers

{
    "type": "function",
    "function": {
        "name": "add_two_numbers",
        "description": "Add two numbers",
        "parameters": {
            "type": "object",
            "required": [
                "a",
                "b"
            ],
            "properties": {
                "a": {
                    "type": "integer",
                    "description": "The first integer number"
                },
                "b": {
                    "type": "integer",
                    "description": "The second integer number"
                }
            }
        }
    }
}

Améliorations supplémentaires apportées à la bibliothèque Python Ollama

La version 0.4 de la bibliothèque Python Ollama comprend des améliorations supplémentaires :

  • Les exemples ont été mis à jour sur le GitHub d’Ollama Python.

  • Prise en charge complète de la saisie dans toute la bibliothèque pour prendre en charge l’accès direct aux objets tout en conservant les fonctionnalités existantes.

Ollama Python library 0.4 with function calling improvements · Ollama Blog

Users Group Artificial Intelligence Andorra (U.G.A.I.A.) : L'administration de LLAMA 3.2 version 0.4.1

--- 

 Pierre Erol GIRAUDY 

http://about.me/giraudyerol






samedi 23 novembre 2024

Gouverner et protéger les informations sensibles à l’ère de l’IA avec Azure et Microsoft Purview

Présentation vidéo d’Azure avec des solutions LLAMA.


 


Gouverner et protéger les informations sensibles à l’ère de l’IA.


Microsoft Purview Endpoint Data Loss Prevention (DLP)

Développez des compétences en matière de sécurisation et de gouvernance des données au sein d’environnements pilotés par l’IA, en utilisant Microsoft Purview pour naviguer dans les risques liés à l’IA et garantir la conformité. Ce chemin améliore votre compréhension de l’adaptation des stratégies de sécurité et de gouvernance en réponse à l’évolution du paysage des technologies d’IA.

Prérequis

Compréhension de base des produits et services Microsoft 365
Compréhension de base des produits et services de sécurité des données Microsoft Purview
Compréhension de base des produits et services de conformité des données Microsoft Purview

Microsoft Purview | Microsoft Learn


Dans le paysage numérique actuel, où les violations de données et les menaces en ligne sont de plus en plus courantes, il est essentiel de comprendre des stratégies efficaces pour protéger les informations sensibles, en particulier pour les organisations qui utilisent l’IA générative. 

Microsoft Purview Endpoint Data Loss Prevention (DLP) joue un rôle clé à cet égard en protégeant les données sensibles contre toute exposition involontaire, à l’aide d’outils avancés conçus à cet effet.

Les navigateurs pris en charge sont les suivants :

Microsoft Edge (fonctionne en mode natif)
Google Chrome (nécessite l’extension Microsoft Purview)
Mozilla Firefox (nécessite l’extension Microsoft Purview)

Get started with endpoint data loss prevention | Microsoft Learn


En savoir plus sur Microsoft Purview

Dans cet Article 21/11/2024 

Sécurité des données, gouvernance et conformité

Le nouveau portail Microsoft Purview

Microsoft Purview est un ensemble complet de solutions qui peuvent aider votre organisation à gouverner, protéger et gérer les données, où qu’elles se trouvent. Les solutions Microsoft Purview fournissent une couverture intégrée et aident à résoudre la fragmentation des données au sein des organisations, le manque de visibilité qui entrave la protection et la gouvernance des données, et le flou des rôles de gestion informatiques traditionnels.

Microsoft Purview combine des solutions de gouvernance des données et des solutions et services de conformité Microsoft 365 dans une plateforme unifiée pour aider votre organisation :

Obtenir une visibilité sur les données dans l'ensemble de l'organisation

Protéger et gérer les données sensibles tout au long de leur cycle de vie, où qu'elles se trouvent
Gérer les données de manière transparente selon des méthodes nouvelles et complètes
Gérer les risques liés aux données critiques et les exigences réglementaires.

En savoir plus sur Microsoft Purview | Microsoft Learn



Découvrir et gouverner les Stockage Blob Azure | Microsoft Learn

CONTOSO sur Azure



Produit Azure par région | Microsoft Azure



--- 

mercredi 20 novembre 2024

Installer l'API Anthropic de Claude dans LLAMA 3.2

L'API Anthropic de Claude dans LLAMA 3.2.


Pour activer l’API Anthropic de Claude dans LLaMA 3.2, suivez ces étapes :

  1. Savoir si vous disposez d'un compte Anthropic : Assurez-vous que vous avez un compte Anthropic et que votre API a été configurée pour utiliser la version de LLaMA que vous souhaitez (LLaMA 3.2 dans ce cas).

  2. Récupérer vos clés d'API : Connectez-vous à votre compte Anthropic, allez dans les paramètres ou la page de gestion des API et récupérez votre clé d'API. Vous aurez peut-être besoin également de votre secret d'API.

  3. Configurer l'environnement de LLaMA 3.2 : Pour activer l'API Anthropic, vous devrez configurer votre environnement LLaMA 3.2 pour qu'il puisse utiliser la clé et le secret d'API que vous avez récupérés. Vous pouvez faire cela en ajoutant les paramètres de configuration nécessaires à votre code ou en utilisant les interfaces de ligne de commande fournies par la bibliothèque LLAMA.

  4. Activer l’API Anthropic : Une fois les clés d'API configurées, vous devrez activer explicitement l'API Anthropic dans votre code pour qu'elle soit prise en compte dans les interactions avec Claude. Cela peut être fait en utilisant la bibliothèque LLAMA et ses fonctions de configuration.

  5. Testez : Après avoir activé l’API Anthropic, testez votre code en effectuant des requêtes à Claude pour voir si les fonctionnalités spécifiques de l'API sont disponibles.

Si vous rencontrez des problèmes ou que vous avez besoin d'aide plus détaillée, consultez la documentation officielle d'Anthropic et de LLaMA 3.2 pour obtenir des instructions étape par étape sur la configuration et le fonctionnement de l’API Anthropic.


Exemple de code Python pour illustrer les étapes :

pythonimport llama

# Configuration des clés d'API
clé_api = "VotreCléD'API"
secret_api = "VotreSecretD'API"

# Créez un client LLAMA avec la clé d'API
client_llama = llama.Client(clé_api, secret_api)

# Activer l'API Anthropic
anthropic_config = {"api_key": clé_api, "api_secret": secret_api}
client_llama.config["anthropic"] = anthropic_config

# Maintenant vous pouvez utiliser les fonctionnalités de l'API Anthropic 
# dans vos requêtes à Claude

Remarque importante :

Les étapes et le code fournis sont théoriques et peuvent ne pas refléter exactement la manière dont vous devez configurer votre environnement LLAMA 3.2 pour activer l’API Anthropic. Assurez-vous de consulter la documentation officielle pour obtenir des instructions précises et à jour sur la configuration et le fonctionnement spécifiques à votre version de LLaMA et API Anthropic.

The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 

https://learn.microsoft.com/fr-fr/training/modules/leverage-ai-tools/4-use-ai-embedded-everyday-applications

Voir aussi : 

https://github.com/users/peg500and/projects/1/views/1

https://learn.microsoft.com/fr-fr/azure/machine-learning/concept-model-catalog?view=azureml-api-2

Vous souhaitez intégrer l'API Anthropic pour utiliser le modèle de langage Claude dans votre environnement LLAMA 3.2. 

Cette intégration vous permettra de bénéficier des capacités avancées de Claude, telles que la génération de texte, la traduction, et la réponse à des questions complexes.

Prérequis:

Un compte Anthropic: Vous devez posséder un compte sur la plateforme Anthropic pour obtenir votre clé API.

Une installation fonctionnelle de LLAMA 3.2: Assurez-vous que votre environnement est configuré correctement pour exécuter LLAMA.

Compréhension des bases de la configuration d'API: Une connaissance de base des concepts d'API, de clés API et de requêtes HTTP est utile.

Étapes à suivre:

Obtenir votre clé API Anthropic:

Connectez-vous à votre compte Anthropic.

Accédez à la section des clés API et créez une nouvelle clé.

Copiez cette clé dans un endroit sûr, car vous en aurez besoin pour la configuration.

Configurer LLAMA 3.2:

Identifier le fichier de configuration: Recherchez le fichier de configuration de LLAMA. Il s'agit généralement d'un fichier YAML ou JSON.

Ajouter les informations d'Anthropic:

Modèle: Spécifiez le modèle Claude que vous souhaitez utiliser (par exemple, Claude-v1).

Clé API: Collez la clé API Anthropic que vous avez obtenue à l'étape 1.

Endpoint: Indiquez l'URL de l'endpoint de l'API Anthropic. Vous pouvez généralement trouver cette information dans la documentation d'Anthropic.

Exemple de configuration YAML:

models:
  completions:
    type: anthropic
    api_key: YOUR_ANTHROPIC_API_KEY
    endpoint: https://api.anthropic.com/v1

    model: claude-v



Tester la connexion:

Utilisez l'interface de ligne de commande de LLAMA ou un script pour envoyer une requête simple à l'API Anthropic.

Si la configuration est correcte, vous devriez obtenir une réponse de l'API.


Voici le test avec sa question et la réponse : Mon nom est Claude.

Bonjour ! Mon nom est Claude, et je suis heureux de vous aider avec vos questions ou tâches. Je fais partie du modèle de l'intelligence artificielle développé par Anthropic, et je suis conçu pour fournir des réponses précises et utiles. Qu'est-ce que je peux faire pour vous aujourd'hui ?

Points importants à considérer:

Documentation Anthropic: Consultez la documentation officielle d'Anthropic pour obtenir les informations les plus à jour sur les modèles disponibles, les formats de requête et les limites d'utilisation.

Limites d'utilisation: Soyez attentif aux limites d'utilisation de l'API Anthropic, en particulier si vous prévoyez un usage intensif.

Sécurité: Protégez votre clé API Anthropic. Ne la partagez pas et évitez de l'exposer dans des dépôts publics.

Optimisation: Vous pouvez ajuster les paramètres de la requête pour obtenir des résultats optimaux, tels que la température, la fréquence de pénalité et la longueur maximale de la réponse.

En résumé:

L'intégration de l'API Anthropic dans LLAMA 3.2 vous permet d'exploiter les capacités avancées du modèle Claude. En suivant ces étapes et en vous référant à la documentation pertinente, vous devriez pouvoir configurer votre environnement de manière efficace.

"Llama 3 devrait moins souffrir d'hallucinations et fournir des informations plus fiables" et avec l'API de Claude....


Dans Azure :


MicrosoftLearning/AZ-104-MicrosoftAzureAdministrator: AZ-104 Microsoft Azure Administrator




--- 

 Pierre Erol GIRAUDY 



vendredi 15 novembre 2024

Purple Llama est un projet-cadre

Lama violet



Purple Llama est un projet-cadre qui, au fil du temps, rassemblera des outils et des évaluations pour aider la communauté à construire de manière responsable grâce à l’IA générative ouverte modèle. 

La version initiale comprendra des outils et des évaluations pour la cybersécurité et Les mesures d’entrée/sortie sont garanties, mais nous prévoyons de contribuer davantage dans un avenir proche.

Pourquoi le violet ?

Empruntant un concept à la cybersécurité, nous pensons que pour vraiment atténuer les défis qui L’IA générative présente, nous devons prendre à la fois l’attaque (équipe rouge) et la défense postures (équipe bleue). Purple teaming, composé d’une équipe rouge et d’une équipe bleue est une approche collaborative d’évaluation et d’atténuation risques potentiels et la même philosophie s’applique à l’IA générative et donc à notre l’investissement dans Purple Llama sera complet.

Licence

Les composants du projet Purple Llama seront concédés sous licence de manière permissive, ce qui permettra à la fois la recherche et l’utilisation commerciale. Nous pensons qu’il s’agit d’une étape majeure vers la collaboration communautaire et la normalisation du développement et de l’utilisation d’outils de confiance et de sécurité pour le développement de l’IA générative. 

Plus concrètement, les évaluations et les benchmarks sont sous licence MIT, tandis que tous les modèles utilisent la licence Llama Community correspondante. Voir le tableau ci-dessous :


Protections au niveau du système

Comme nous l’avons souligné dans le Guide d’utilisation responsable de Llama 3, nous recommandent que toutes les entrées et sorties du LLM soient vérifiées et filtrées conformément aux directives de contenu appropriées à l’application.

Garde de lama

Llama Guard 3 se compose d’une série de modèles de modération d’entrée et de sortie hautes performances conçus pour aider les développeurs à détecter divers types courants de contenu en infraction.

Ils ont été construits en affinant les modèles Meta-Llama 3.1 et 3.2 et optimisés pour prendre en charge la détection de la taxonomie des dangers standard MLCommons, répondant à une gamme de cas d’utilisation pour les développeurs. Ils prennent en charge la sortie des capacités de Llama 3.2, y compris 7 nouvelles langues, une fenêtre contextuelle de 128k et le raisonnement par image. Les modèles Llama Guard 3 ont également été optimisés pour détecter les réponses utiles aux cyberattaques et empêcher l’exécution de code malveillant par les LLM dans les environnements d’hébergement des systèmes Llama à l’aide d’interpréteurs de code.

Garde rapide

Prompt Guard est un outil puissant pour protéger les applications LLM contre les invites malveillantes afin de garantir leur sécurité et leur intégrité.

Les catégories d’attaques rapides comprennent l’injection rapide et le jailbreak :


Les injections d’invite sont des entrées qui exploitent l’inclusion de données non fiables provenant de tiers dans la fenêtre contextuelle d’un modèle pour lui permettre d’exécuter des instructions non prévues.

Les jailbreaks sont des instructions malveillantes conçues pour remplacer les fonctionnalités de sûreté et de sécurité intégrées à un modèle.

Bouclier de code

L’Agent de code prend en charge le filtrage au moment de l’inférence du code non sécurisé produit par les LLM. L’Agent de code offre une atténuation des risques liés aux suggestions de code non sécurisé, une prévention des abus de l’interpréteur de code et l’exécution sécurisée des commandes. Exemple de bloc-notes CodeShield.

Évaluations et benchmarks

Cybersécurité

CyberSec Eval v1 


C'était ce que nous pensons être la première série d’évaluations de sécurité en matière de cybersécurité à l’échelle de l’industrie pour les LLM. Ces benchmarks sont basés sur les directives et les normes de l’industrie (par exemple, CWE et MITRE ATT&CK) et élaborés en collaboration avec nos experts en matière de sécurité. 

Notre objectif est de fournir des outils qui aideront à faire face à certains risques décrits dans les engagements de la Maison-Blanche sur le développement d’une IA responsable, notamment :

Métriques pour quantifier les risques de cybersécurité LLM.

Outils permettant d’évaluer la fréquence des suggestions de code non sécurisé.
Outils permettant d’évaluer les LLM afin de rendre plus difficile la génération de code malveillant ou d’aider à mener des cyberattaques.

Nous pensons que ces outils réduiront la fréquence des LLM suggérant du code généré par l’IA non sécurisé et réduiront leur utilité pour les cyberadversaires. 

Nos premiers résultats montrent qu’il existe des risques de cybersécurité significatifs pour les LLM, à la fois en recommandant un code non sécurisé et en se conformant à des demandes malveillantes. 

Pour plus de détails, consultez notre article Cybersec Eval.

CyberSec Eval 2

CyberSec Eval 2 s’étend sur son prédécesseur en mesurant la propension d’un LLM à abuser d’un interpréteur de code, ses capacités de cybersécurité offensives et sa sensibilité à l’injection rapide. Vous pouvez lire l’article ici.

Vous pouvez également consulter le 🤗 classement ici.

CyberSec Eval 3

Le nouveau CyberSec Eval 3 propose trois suites de tests supplémentaires : des tests d’injection d’invites visuelles, des tests de capacité de spear phishing et des tests de cyberopérations offensives autonomes.

Commencer
Dans le cadre du système de référence Llama, nous intégrons une couche de sécurité pour faciliter l’adoption et le déploiement de ces mesures de protection. Les ressources pour commencer à utiliser les mesures de protection sont disponibles dans le dépôt GitHub Llama-recipe.

FAQ

Pour une liste complète de questions fréquemment posées, non seulement pour Purple Llama composants mais aussi généralement pour les modèles Llama, voir la FAQ ici.


meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


L’intelligence artificielle progresse à toute allure. 

Les entreprises créent de plus en plus de systèmes d’IA polyvalents capables d’effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de dîner et écrire du code informatique. Certains de ces modèles présentent déjà des risques majeurs, tels que l’érosion des processus démocratiques, la préjugé et la désinformation rampantes, et une course aux armements dans les armes autonomes. Mais le pire est à venir.

Les systèmes d’IA ne feront que devenir plus performants. 

Les entreprises recherchent activement une « intelligence artificielle générale » (IAG), qui peut être aussi performante, voire meilleure, que les humains dans un large éventail de tâches. Ces entreprises promettent que cela apportera des avantages sans précédent, de la guérison du cancer à l’élimination de la pauvreté mondiale. D’un autre côté, plus de la moitié des experts en intelligence artificielle estiment qu’il y a une chance sur dix que cette technologie provoque notre extinction.

Cette croyance n’a rien à voir avec les robots maléfiques ou les machines sensibles que l’on voit dans la science-fiction. 

À court terme, l’IA avancée peut permettre à ceux qui cherchent à faire du mal 
– les bioterroristes, par exemple 
– d’exécuter facilement des tâches de traitement complexes sans conscience.

À plus long terme, nous ne devrions pas nous focaliser sur une méthode particulière de nuisance, car le risque vient de la plus grande intelligence elle-même. 

Songez à la façon dont les humains dominent des animaux moins intelligents sans avoir recours à une arme particulière, ou à la façon dont un programme d’échecs d’IA bat des joueurs humains sans avoir recours à un coup spécifique.

Les armées pourraient perdre le contrôle d’un système très performant conçu pour faire du mal, avec des conséquences dévastatrices. 

Un système d’IA avancé chargé de maximiser les profits d’une entreprise pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d’altruiste pourrait adopter une méthode destructrice pour atteindre cet objectif. 

Nous n’avons actuellement aucun moyen fiable de savoir comment les systèmes d’IA se comporteront, car personne, pas même leurs créateurs, ne comprend totalement comment ils fonctionnent.

La sécurité de l’IA est désormais devenue une préoccupation majeure. 

Les experts et le grand public s’inquiètent tous des risques émergents et de la nécessité urgente de les gérer. Mais la seule inquiétude ne suffira pas. Nous avons besoin de politiques pour garantir que le développement de l’IA améliore la vie des gens partout dans le monde, plutôt que de simplement augmenter les profits des entreprises. 

Et nous avons besoin d’une gouvernance appropriée, notamment d’une réglementation solide et d’institutions compétentes qui peuvent éloigner cette technologie transformatrice des risques extrêmes et la diriger vers le bien de l’humanité.

--- 
 Pierre Erol GIRAUDY