Translate

Affichage des articles dont le libellé est LLM. Afficher tous les articles
Affichage des articles dont le libellé est LLM. Afficher tous les articles

vendredi 15 novembre 2024

Purple Llama est un projet-cadre

Lama violet



Purple Llama est un projet-cadre qui, au fil du temps, rassemblera des outils et des évaluations pour aider la communauté à construire de manière responsable grâce à l’IA générative ouverte modèle. 

La version initiale comprendra des outils et des évaluations pour la cybersécurité et Les mesures d’entrée/sortie sont garanties, mais nous prévoyons de contribuer davantage dans un avenir proche.

Pourquoi le violet ?

Empruntant un concept à la cybersécurité, nous pensons que pour vraiment atténuer les défis qui L’IA générative présente, nous devons prendre à la fois l’attaque (équipe rouge) et la défense postures (équipe bleue). Purple teaming, composé d’une équipe rouge et d’une équipe bleue est une approche collaborative d’évaluation et d’atténuation risques potentiels et la même philosophie s’applique à l’IA générative et donc à notre l’investissement dans Purple Llama sera complet.

Licence

Les composants du projet Purple Llama seront concédés sous licence de manière permissive, ce qui permettra à la fois la recherche et l’utilisation commerciale. Nous pensons qu’il s’agit d’une étape majeure vers la collaboration communautaire et la normalisation du développement et de l’utilisation d’outils de confiance et de sécurité pour le développement de l’IA générative. 

Plus concrètement, les évaluations et les benchmarks sont sous licence MIT, tandis que tous les modèles utilisent la licence Llama Community correspondante. Voir le tableau ci-dessous :


Protections au niveau du système

Comme nous l’avons souligné dans le Guide d’utilisation responsable de Llama 3, nous recommandent que toutes les entrées et sorties du LLM soient vérifiées et filtrées conformément aux directives de contenu appropriées à l’application.

Garde de lama

Llama Guard 3 se compose d’une série de modèles de modération d’entrée et de sortie hautes performances conçus pour aider les développeurs à détecter divers types courants de contenu en infraction.

Ils ont été construits en affinant les modèles Meta-Llama 3.1 et 3.2 et optimisés pour prendre en charge la détection de la taxonomie des dangers standard MLCommons, répondant à une gamme de cas d’utilisation pour les développeurs. Ils prennent en charge la sortie des capacités de Llama 3.2, y compris 7 nouvelles langues, une fenêtre contextuelle de 128k et le raisonnement par image. Les modèles Llama Guard 3 ont également été optimisés pour détecter les réponses utiles aux cyberattaques et empêcher l’exécution de code malveillant par les LLM dans les environnements d’hébergement des systèmes Llama à l’aide d’interpréteurs de code.

Garde rapide

Prompt Guard est un outil puissant pour protéger les applications LLM contre les invites malveillantes afin de garantir leur sécurité et leur intégrité.

Les catégories d’attaques rapides comprennent l’injection rapide et le jailbreak :


Les injections d’invite sont des entrées qui exploitent l’inclusion de données non fiables provenant de tiers dans la fenêtre contextuelle d’un modèle pour lui permettre d’exécuter des instructions non prévues.

Les jailbreaks sont des instructions malveillantes conçues pour remplacer les fonctionnalités de sûreté et de sécurité intégrées à un modèle.

Bouclier de code

L’Agent de code prend en charge le filtrage au moment de l’inférence du code non sécurisé produit par les LLM. L’Agent de code offre une atténuation des risques liés aux suggestions de code non sécurisé, une prévention des abus de l’interpréteur de code et l’exécution sécurisée des commandes. Exemple de bloc-notes CodeShield.

Évaluations et benchmarks

Cybersécurité

CyberSec Eval v1 


C'était ce que nous pensons être la première série d’évaluations de sécurité en matière de cybersécurité à l’échelle de l’industrie pour les LLM. Ces benchmarks sont basés sur les directives et les normes de l’industrie (par exemple, CWE et MITRE ATT&CK) et élaborés en collaboration avec nos experts en matière de sécurité. 

Notre objectif est de fournir des outils qui aideront à faire face à certains risques décrits dans les engagements de la Maison-Blanche sur le développement d’une IA responsable, notamment :

Métriques pour quantifier les risques de cybersécurité LLM.

Outils permettant d’évaluer la fréquence des suggestions de code non sécurisé.
Outils permettant d’évaluer les LLM afin de rendre plus difficile la génération de code malveillant ou d’aider à mener des cyberattaques.

Nous pensons que ces outils réduiront la fréquence des LLM suggérant du code généré par l’IA non sécurisé et réduiront leur utilité pour les cyberadversaires. 

Nos premiers résultats montrent qu’il existe des risques de cybersécurité significatifs pour les LLM, à la fois en recommandant un code non sécurisé et en se conformant à des demandes malveillantes. 

Pour plus de détails, consultez notre article Cybersec Eval.

CyberSec Eval 2

CyberSec Eval 2 s’étend sur son prédécesseur en mesurant la propension d’un LLM à abuser d’un interpréteur de code, ses capacités de cybersécurité offensives et sa sensibilité à l’injection rapide. Vous pouvez lire l’article ici.

Vous pouvez également consulter le 🤗 classement ici.

CyberSec Eval 3

Le nouveau CyberSec Eval 3 propose trois suites de tests supplémentaires : des tests d’injection d’invites visuelles, des tests de capacité de spear phishing et des tests de cyberopérations offensives autonomes.

Commencer
Dans le cadre du système de référence Llama, nous intégrons une couche de sécurité pour faciliter l’adoption et le déploiement de ces mesures de protection. Les ressources pour commencer à utiliser les mesures de protection sont disponibles dans le dépôt GitHub Llama-recipe.

FAQ

Pour une liste complète de questions fréquemment posées, non seulement pour Purple Llama composants mais aussi généralement pour les modèles Llama, voir la FAQ ici.


meta-llama/PurpleLlama: Set of tools to assess and improve LLM security.



Llama 3.1 Impact Grants Submission Manager - Llama 3.1 Impact Grants


Documentation | Llama



Responsible Use Guide for Llama



AI at Meta Blog


The latest version of Ollama is 0.4 : https://ollama.com/download
 
Download Ollama
 

The Ollama maintainers

https://github.com/ollama/ollama


De plus Microsoft a fait un programme de formation gratuit sur l'éthique  je vais publier un article sur celle-ci... 


L’intelligence artificielle progresse à toute allure. 

Les entreprises créent de plus en plus de systèmes d’IA polyvalents capables d’effectuer de nombreuses tâches différentes. Les grands modèles de langage (LLM) peuvent composer de la poésie, créer des recettes de dîner et écrire du code informatique. Certains de ces modèles présentent déjà des risques majeurs, tels que l’érosion des processus démocratiques, la préjugé et la désinformation rampantes, et une course aux armements dans les armes autonomes. Mais le pire est à venir.

Les systèmes d’IA ne feront que devenir plus performants. 

Les entreprises recherchent activement une « intelligence artificielle générale » (IAG), qui peut être aussi performante, voire meilleure, que les humains dans un large éventail de tâches. Ces entreprises promettent que cela apportera des avantages sans précédent, de la guérison du cancer à l’élimination de la pauvreté mondiale. D’un autre côté, plus de la moitié des experts en intelligence artificielle estiment qu’il y a une chance sur dix que cette technologie provoque notre extinction.

Cette croyance n’a rien à voir avec les robots maléfiques ou les machines sensibles que l’on voit dans la science-fiction. 

À court terme, l’IA avancée peut permettre à ceux qui cherchent à faire du mal 
– les bioterroristes, par exemple 
– d’exécuter facilement des tâches de traitement complexes sans conscience.

À plus long terme, nous ne devrions pas nous focaliser sur une méthode particulière de nuisance, car le risque vient de la plus grande intelligence elle-même. 

Songez à la façon dont les humains dominent des animaux moins intelligents sans avoir recours à une arme particulière, ou à la façon dont un programme d’échecs d’IA bat des joueurs humains sans avoir recours à un coup spécifique.

Les armées pourraient perdre le contrôle d’un système très performant conçu pour faire du mal, avec des conséquences dévastatrices. 

Un système d’IA avancé chargé de maximiser les profits d’une entreprise pourrait employer des méthodes drastiques et imprévisibles. Même une IA programmée pour faire quelque chose d’altruiste pourrait adopter une méthode destructrice pour atteindre cet objectif. 

Nous n’avons actuellement aucun moyen fiable de savoir comment les systèmes d’IA se comporteront, car personne, pas même leurs créateurs, ne comprend totalement comment ils fonctionnent.

La sécurité de l’IA est désormais devenue une préoccupation majeure. 

Les experts et le grand public s’inquiètent tous des risques émergents et de la nécessité urgente de les gérer. Mais la seule inquiétude ne suffira pas. Nous avons besoin de politiques pour garantir que le développement de l’IA améliore la vie des gens partout dans le monde, plutôt que de simplement augmenter les profits des entreprises. 

Et nous avons besoin d’une gouvernance appropriée, notamment d’une réglementation solide et d’institutions compétentes qui peuvent éloigner cette technologie transformatrice des risques extrêmes et la diriger vers le bien de l’humanité.

--- 
 Pierre Erol GIRAUDY 


mardi 29 octobre 2024

"Computer Use" qui permet à l'IA de prendre le contrôle de ton PC pour utiliser le nouveau Claude AI ?

Claude AI, le meilleur LLM pour coder et écrire vient de sortir une nouvelle fonctionnalité "Computer Use" qui permet à l'IA de prendre le contrôle de ton PC. 


Je te montre comment l'utiliser facilement. Abonne-toi à ma chaîne YouTube ici : http://jbv.ovh/jeanviet

---------

Au sommaire :

00:00 Computer Use, c'est quoi ?
01:06 Test Scrabble : analyse et limites
03:07 Mammouth.ai pour le jeu de mots efficace
04:46 Test de création d’un site Web depuis LinkedIn
05:18 Machine virtuelle : avantages et inconvénients
07:00 Test de correction orthographique sur Word
08:00 Test de création de graphique Excel
10:17 Installation de Computer Use sur Docker
12:23 Configuration API de Claude
13:40 Mon avis sur Computer Use

---------

Les ressources, outils et liens consultés pour ce tuto


Computer Use - Claude AI

La vidéo Computer Use for coding de ‪@anthropic-ai‬ 
   • Claude | Computer use for coding  

Le tuto de Alex Albert pour installer Computer Use

Un autre tuto de mon cru pour comprendre l'utilisation de Docker Desktop (outil LibreChat)
   • Installer LibreChat sur Mac ou PC ave...  

Le projet Git Computer Use

Mammouth AI ‪@Mammouth_ai‬ 

Pour générer une Clé API Claude AI

La démo bluffante de ‪@Shubham_Sharma‬ 
   • Claude AI vient de RÉVOLUTIONER le mo...  

---------

Pour installer Computer Use sur un PC Windows : 


1- Crée une clé API Claude ici  

2- Lance PowerShell et copie-colle ceci 
$env:ANTHROPIC_API_KEY="ta-cle-api-a-la-place-de-ce-texte-ici-ne-mets-pas-la-mienne-je-lai-desactive"


3- Télécharger et Installe Docker Desktop ici 
Docker Desktop: The #1 Containerization Tool for Developers | Docker



4- Retourne dans PowerShell et copie-colle ceci 

docker run `
    -e ANTHROPIC_API_KEY=$env:ANTHROPIC_API_KEY `
    -v ${env:USERPROFILE}/.anthropic:/home/computeruse/.anthropic `
    -p 5900:5900 `
    -p 8501:8501 `
    -p 6080:6080 `
    -p 8080:8080 `
    -it ghcr.io/anthropics/anthropic-quickstarts:computer-use-demo-latest

5- Lance ensuite cette URL dans Chrome
http://localhost:8080/

Si ça marche pas, réagis en commentaire en tapant "Aide-moi Jeanviet", je te traiterai comme un chef, car j'aurais vu que tu as fait l'effort d'essayer

---------

Mon TikTok :   / jeanviet.fr  
Mon Instagram :   / jeanviet  
Mon Twitter :   / jeanviet  

---------

Pour devenir un bon créateur de contenu, lis mon livre ici :

Promis, je ne l'ai pas écrit avec une IA ;-)

---------

Abonne-toi à ma chaîne YouTube ici : http://jbv.ovh/jeanviet

CONCLUSION :

L’article explore le fonctionnement de "Claude AI Computer Use", une version de l'IA Claude d'Anthropic conçue pour interagir avec l'ordinateur de l’utilisateur en temps réel. L'auteur teste différentes applications, comme le Scrabble, la création de sites web, la correction orthographique et la génération de graphiques, en cherchant à déterminer dans quelle mesure cette IA peut véritablement accomplir des tâches variées de manière autonome.

Les résultats montrent que, bien que prometteuse, la technologie présente plusieurs limitations. Par exemple, Claude peine à naviguer de manière fluide dans des applications (comme scroller et cliquer aux bons endroits), à effectuer une correction orthographique fluide sur LibreOffice ou à générer des graphiques correctement sur Calc. De plus, la latence et les contraintes d’utilisation dans un environnement de machine virtuelle Linux ralentissent le processus, rendant l’expérience parfois frustrante.

Commentaire sur la fin : Bien que l'outil soit encore peu performant dans des scénarios d'utilisation quotidiens, l'auteur entrevoit un potentiel futur où une IA pourrait véritablement accomplir des tâches complexes avec peu d’intervention humaine. Pour l’instant, cette version reste surtout un prototype qui illustre les défis techniques de l’automatisation interactive.


"Claude AI Computer Use", une version d’IA capable de contrôler un ordinateur pour exécuter des tâches de manière autonome, comme un assistant virtuel. L'auteur teste plusieurs usages pratiques : jouer au Scrabble, créer un site web, corriger un document et générer des graphiques. Cependant, il constate plusieurs limites : difficulté de navigation, erreurs dans les tâches et lenteur due à l'utilisation d'une machine virtuelle Linux. Bien que prometteur pour l’avenir, l’outil reste pour le moment expérimental et rencontre des difficultés dans des cas d’usage réels.


Voici les étapes détaillées pour installer Claude AI Computer Use sur votre PC :

---

### 1. Préparer l’environnement virtuel

Claude AI Computer Use nécessite l'installation dans une machine virtuelle pour éviter tout risque que l’IA prenne le contrôle direct de votre ordinateur. 


Voici les étapes :

1. Créer un compte sur Anthropic Console :

- Allez sur [console.anthropic.com](https://console.anthropic.com).

- Créez un compte (le site fournit 5 dollars de crédit à l’inscription).

- Allez dans Settings > API Key et créez une clé API en choisissant un nom (par exemple, "Computer Test"). Copiez cette clé.

2. Installer Docker Desktop :

- Téléchargez [Docker Desktop](https://www.docker.com/products/docker-desktop) pour votre système d'exploitation (choisissez la version appropriée, généralement pour Windows AMD64 ou ARM64).

- Lancez Docker Desktop pour qu’il fonctionne en arrière-plan. Assurez-vous qu'il indique "Engine Running" (en fonctionnement).

3. Préparer la clé API dans PowerShell (Windows uniquement) :

- Ouvrez PowerShell en tant qu’administrateur.

- Tapez la commande suivante pour enregistrer la clé API dans votre environnement PowerShell :

```powershell

$env:ANTHROPIC_API_KEY = "votre_clé_api"

```

- Remplacez `"votre_clé_api"` par la clé copiée précédemment.

---

### 2. Télécharger et configurer l’image virtuelle de Claude

Claude AI fonctionnera dans une image de machine virtuelle VNC exécutée via Docker pour Linux.

1. Exécuter l’image Docker pour Claude AI Computer Use :

- Dans PowerShell, entrez la commande suivante pour télécharger et lancer l’image VNC virtuelle sous Docker :

```powershell

docker run -p 5900:5900 anthropic/claude-computer-use

```

- Cette commande télécharge et initialise une machine virtuelle avec un environnement Linux.

2. Accéder à l’environnement virtuel :

- Une fois l'image installée, un message affichera une adresse locale (par ex., `http://localhost:5900`) pour accéder à la machine virtuelle.

- Ouvrez cette adresse dans votre navigateur pour voir l’interface de la machine virtuelle.

---

### 3. Lancer Claude AI dans l’environnement virtuel

1. Naviguer dans la machine virtuelle :

- Dans l’interface VNC, accédez aux applications comme Firefox ou Calc pour tester l’IA.

- Connectez-vous à Claude AI via une console de chat intégrée pour lui donner des instructions, par exemple, pour naviguer sur le Web ou pour effectuer des tâches spécifiques.

---

### 4. Résoudre les problèmes courants

- Latence : La machine virtuelle peut être lente. Il est possible de rencontrer des délais pour l'affichage et la réponse des commandes.

- Limites de facturation : Anthropic peut imposer une limite de requêtes ou d'utilisation quotidienne. Si vous recevez un message d'attente, cela signifie que vous avez dépassé votre quota d'utilisation.

---


### En résumé :

- Créez un compte Anthropic et obtenez une clé API.

- Installez Docker Desktop et configurez PowerShell avec la clé API.

- Exécutez l’image Docker de Claude pour lancer l’environnement virtuel.

- Accédez à l’interface via l’adresse locale dans votre navigateur et testez les fonctionnalités de Claude dans cet environnement sécurisé.

En suivant ces étapes, vous devriez pouvoir explorer les capacités de Claude AI Computer Use dans un environnement virtuel sécurisé.


"Claude AI Computer Use", une version d’IA capable de contrôler un ordinateur pour exécuter des tâches de manière autonome, comme un assistant virtuel. L'auteur teste plusieurs usages pratiques : jouer au Scrabble, créer un site web, corriger un document et générer des graphiques. Cependant, il constate plusieurs limites : difficulté de navigation, erreurs dans les tâches et lenteur due à l'utilisation d'une machine virtuelle Linux. Bien que prometteur pour l’avenir, l’outil reste pour le moment expérimental et rencontre des difficultés dans des cas d’usage réels.






jeudi 21 mars 2024

Risque des Chabots

Le déploiement direct de chatbots assistés par l'IA auprès des clients comporte des risques et des implications légales.

Ces systèmes, basés sur des large language models (LLMs), peuvent dérailler en raison de biais et de lacunes dans leur conception et leur formation, ce qui expose les entreprises à des responsabilités juridiques et financières.

En cas de défaillance d'un chatbot, l'entreprise peut être tenue responsable des propos tenus par celui-ci, notamment en cas de promesses non tenues ou de préjudices causés aux utilisateurs. Cela peut engager sa responsabilité contractuelle si le chatbot ne fournit pas les fonctionnalités promises, sa responsabilité délictuelle en cas de négligence dans sa conception ou sa maintenance, ou encore une violation du RGPD en cas de non-respect des règles de protection des données personnelles.

Actuellement, aucune solution n'élimine totalement les risques associés aux chatbots IA déployés directement auprès des clients. Il est recommandé de les déployer d'abord auprès des collaborateurs qui peuvent analyser les réponses avant de les transmettre aux clients, agissant ainsi comme un garde-fou humain. Même des approches comme le RAG (retrieval augmented generation) offrent des garanties insuffisantes en matière de sécurité.

Pour limiter les risques, il est conseillé de procéder à des phases de test, comme des versions Beta, et d'effectuer des séquences de red teaming pour évaluer la réaction du chatbot face à des situations problématiques. Ces démarches permettent d'identifier et de corriger les éventuelles faiblesses avant un déploiement à grande échelle.

Une violation du RGPD par le chatbot peut également engager la responsabilité de l'entreprise représentée par le chatbot.

Le Règlement Général sur la Protection des Données (RGPD) de l'Union européenne

Il impose des obligations strictes aux entreprises en matière de traitement des données personnelles. Si un chatbot collecte, traite ou stocke des données personnelles en violation du RGPD, l'entreprise représentée par le chatbot peut être tenue responsable de cette violation. Cela peut entraîner des sanctions financières importantes de la part des autorités de régulation, telles que la CNIL en France, ainsi que des répercussions sur la réputation de l'entreprise. Il est donc crucial pour les entreprises de s'assurer que leurs chatbots respectent pleinement les exigences du RGPD en matière de protection des données personnelles.


Lire : 





De plus en plus présents dans les start-up, quelle est la place des juristes ? (journaldunet.com)


Secret professionnel : qui est concerné ? (journaldunet.fr)


--- 
 Pierre Erol GIRAUDY 


mardi 7 mars 2023

Azure OpenAI Service Apply advanced coding and language models to a variety of use cases.

Azure OpenAI Service



Apply advanced coding and language models to a variety of use cases.




Alimentez vos applications avec des modèles d'IA à grande échelle.

Tirez parti de modèles d'IA génératifs à grande échelle avec une compréhension approfondie du langage et du code pour permettre de nouvelles capacités de raisonnement et de compréhension pour la création d'applications de pointe. Appliquez ces modèles de codage et de langage à une variété de cas d'utilisation, tels que l'aide à l'écriture, la génération de code et le raisonnement sur les données. Détectez et atténuez les utilisations nuisibles grâce à l'IA responsable intégrée et accédez à la sécurité Azure de niveau entreprise.


What is Azure OpenAI Service? - Azure Cognitive Services | Microsoft Learn



Azure OpenAI Service provides REST API access to OpenAI's powerful language models including the GPT-3, Codex and Embeddings model series. These models can be easily adapted to your specific task including but not limited to content generation, summarization, semantic search, and natural language to code translation. Users can access the service through REST APIs, Python SDK, or our web-based interface in the Azure OpenAI Studio.


Explain to me : State-of-the-art (SOTA) large language models (LLM)

State-of-the-art (SOTA) large language models (LLMs) are a type of artificial intelligence (AI) model that are designed to understand and generate human language. These models are typically trained on massive amounts of text data, such as books, articles, and websites, using a technique known as "unsupervised learning".

SOTA LLMs have recently gained a lot of attention due to their impressive ability to generate high-quality text that is often difficult to distinguish from text written by humans. They are capable of a wide range of language tasks, including language translation, summarization, question-answering, sentiment analysis, and more.

Some examples of popular SOTA LLMs include GPT-3 (Generative Pre-trained Transformer 3), BERT (Bidirectional Encoder Representations from Transformers), and T5 (Text-to-Text Transfer Transformer). These models have been developed by leading AI research organizations such as OpenAI and Google.

SOTA LLMs have the potential to revolutionize natural language processing (NLP) and have a wide range of applications in fields such as chatbots, virtual assistants, content creation, and more. However, they also raise concerns about issues such as bias and privacy, which need to be addressed as these models become more widely used.

--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


dimanche 5 mars 2023

Parlez-vous ChatGPT ? - Do you speak ChatGPT ?

Parlez-vous ChatGPT ? - Do you speak ChatGPT ?



• 2015. OpenAI was founded by Sam Altman, Elon Musk, Greg Brockman, Peter Thiel, and others. OpenAI develops many different AI models other than GPT.

• 2017. Google published the paper Attention is All You Need, which introduced the transformer architecture [2]. The transformer is a neural network architecture that lays the foundation for many state-of-the-art (SOTA) large language models (LLM) like GPT.

• 2018. GPT is introduced in Improving Language Understanding by Generative Pre-training . It’s based on a modified transformer architecture and pre-trained on a large corpus.

• 2019. GPT-2 is introduced in Language Models are Unsupervised Multitask Learners, which can perform a range of tasks without explicit supervision when training.

• 2020. GPT-3 is introduced in Language Models are Few-Shot Learners, which can perform well with few examples in the prompt without fine-tuning.

• 2022. InstructGPT is introduced in Training language models to follow instructions with human feedback, which can better follow user instructions by fine-tuning with human feedback.

• 2022. ChatGPT, a sibling of InstructGPT, is introduced in ChatGPT: Optimizing Language Models for Dialogue. It can interact with humans in conversations, thanks to the fine-tuning with human examples and reinforcement learning from human feedback (RLHF).


Natural language processing (NLP) 

The transformer architecture is the foundation for GPT. 


The first step is supervised learning from human examples. 


The second step is training a reward model (RM) to rate the responses

Optimizing Language Models for Dialogue.


NLP Using Python     Natural Language Processing


Machine Learning Mastery



APA handbook of industrial and organizational psychology, Vol 1: Building and developing the organization. 


Definition of prompt for ChatGPT in English with APA and exemples and URL 

The term "Prompt" in English can have several meanings depending on the context. In the field of artificial intelligence, the term "Prompt" can be translated as "prompt" or "proposal". PromptBase | Prompt Marketplace: DALL·E, Midjourney, ChatGPT, Stable Diffusion & GPT-3.


As an AI language model, I don't have a personal definition for the term prompt. However, here is a definition with APA and examples:

Prompt is a noun that refers to a cue or stimulus that initiates or triggers a particular action, behavior, or response. The term is commonly used in education to describe a task or question given to students that is designed to encourage critical thinking, creativity, and reflection.

According to the American Psychological Association (APA), a prompt is defined as "a stimulus or cue that initiates or guides behavior, thought, or action" (APA Dictionary of Psychology, 2020).

Examples of prompts include:

In a writing class, the teacher might provide a prompt such as "Write a descriptive essay about your favorite place" to inspire students to write creatively and think deeply about their experiences.

In a language learning class, the teacher might give a prompt such as "Describe your daily routine in Spanish" to encourage students to practice their language skills and use new vocabulary.

In a behavioral therapy session, the therapist might use a prompt such as "When you feel anxious, try taking three deep breaths and saying a positive affirmation to yourself" to help the patient develop coping skills and manage their emotions.

Here is the reference for the APA Dictionary of Psychology:

American Psychological Association. (2020). APA Dictionary of Psychology (2nd ed.). https://doi.org/10.1037/12169-000



Models - OpenAI API


The OpenAI API can be applied to virtually any task that involves understanding or generating natural language or code. We offer a spectrum of models with different levels of power suitable for different tasks, as well as the ability to fine-tune your own custom models. These models can be used for everything from content generation to semantic search and classification.

INFOS and DEMOS + PPT




--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol