Translate

Affichage des articles dont le libellé est ChatGPT. Afficher tous les articles
Affichage des articles dont le libellé est ChatGPT. Afficher tous les articles

vendredi 26 mai 2023

FAQ sur les contrôles de données dans ChatGPT (comment activer ou désactiver cette fonction).

FAQ sur les contrôles de données Écrit par 

Josué J.

Nous voyons que la Compagnie OpenAI lentement trouve des solutions pour protéger les utilisateurs. Elle lance même un concours :  



OpenAI offre des subventions de 100 000 dollars chacune pour des idées sur la gouvernance de l'IA.

Mais revenons à notre sujet : quels sont les paramètres de contrôle des données ? 


Les contrôles de données vous offrent la possibilité de désactiver l'historique des discussions et de choisir facilement si vos conversations seront utilisées pour former nos modèles. Ils vous donnent également la possibilité d'exporter vos données ChatGPT et de supprimer définitivement votre compte. 

Comment désactiver l'historique des discussions et la formation des modèles ? 


Interface Web: Pour désactiver l'historique des discussions et la formation des modèles, accédez à ChatGPT > Contrôles des données. 


How do I turn off chat history and model training? | OpenAI Help Center


Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 




Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 

Veuillez noter que cela n'empêchera pas les modules complémentaires de navigateur non autorisés ou les logiciels malveillants sur votre ordinateur de stocker votre historique. 
Application iOS : Pour désactiver l'historique des discussions et la formation des modèles, appuyez sur les trois points dans le coin supérieur droit de l'écran > Paramètres > Contrôles des données > désactivez l'historique des discussions et la formation. 

Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 

Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 



Pour plus de détails, voir Comment désactiver l'historique des discussions et la formation des modèles ? 


Cette fonctionnalité se synchronise-t-elle entre le Web et les appareils mobiles ? Ce paramètre ne se synchronise pas entre les navigateurs ou les appareils. Vous devrez l'activer sur chaque appareil. 

Comment exporter mes données depuis ChatGPT ? 


Pour exporter vos conversations, dans ChatGPT, accédez à Paramètres > Contrôles des données. 

Vous verrez une option pour exporter des données dans le coin inférieur gauche de la fenêtre contextuelle. Vous recevrez un fichier contenant vos données ChatGPT dans un e-mail. Pour plus de détails, consultez 


Comment exporter mon historique et mes données ChatGPT ? 


Comment supprimer mon compte ChatGPT ? 


Pour supprimer votre compte, accédez à Paramètres > Contrôles des données. Au bas de la fenêtre contextuelle, vous verrez une option pour supprimer votre compte. Si vous choisissez de supprimer votre compte, cela est irréversible. Si vous êtes un utilisateur de l'API via le même compte, ces données seront également supprimées. 

Pour plus de détails, voir Comment puis-je supprimer mon compte ? 




Comment OpenAI utilise-t-il mes données personnelles ? 

Nos grands modèles de langage sont entraînés sur un large corpus de texte qui comprend du contenu accessible au public, du contenu sous licence et du contenu généré par des réviseurs humains. Nous n'utilisons pas de données pour vendre nos services, faire de la publicité ou créer des profils de personnes. 

Nous utilisons des données pour rendre nos modèles plus utiles aux gens. ChatGPT, par exemple, s'améliore grâce à une formation supplémentaire sur les conversations que les gens ont avec lui, à moins que vous ne choisissiez de désactiver la formation. 

Si je désactive l'historique, le paramètre s'applique-t-il à toutes mes conversations ou puis-je choisir des conversations spécifiques pour lesquelles l'activer ? 

Tant que l'historique est désactivé, les nouveaux chats seront supprimés de nos systèmes dans les 30 jours - et examinés uniquement en cas de besoin pour surveiller les abus - et ne seront pas utilisés pour la formation des modèles. Les conversations existantes seront toujours enregistrées et pourront être utilisées pour la formation du modèle si vous ne vous êtes pas désabonné. 

Si je désactive l'historique, que se passe-t-il lorsque la conversation se ferme ? 


Lorsque l'historique est désactivé, la conversation n'apparaîtra pas dans votre historique (sur le côté gauche de l'écran) et ne pourra pas être récupérée. 
Lorsque l'historique des discussions est désactivé, nous conservons les nouvelles conversations pendant 30 jours et ne les examinons que lorsque cela est nécessaire pour surveiller les abus, avant de les supprimer définitivement. 

Existe-t-il des limitations ou des restrictions concernant l'historique et la formation de désactivation ? 

Il n'y a pas de limite au nombre de conversations que vous pouvez avoir lorsque l'historique et la formation sont désactivés. Cela s'applique aux abonnements gratuits et Plus. Auparavant, j'avais choisi de ne pas participer à la formation des modèles en écrivant à l'équipe d'assistance. 

Allez-vous continuer à honorer mon opt-out ? 


Oui, nous continuerons d'honorer les demandes de retrait précédentes. Les nouveaux contrôles de données visent à faciliter la désactivation de l'historique des discussions et à choisir facilement si vos conversations seront utilisées pour former nos modèles 

Que se passe-t-il si je souhaite conserver mon historique mais désactiver l'entraînement du modèle ?


 Nous travaillons sur une nouvelle offre appelée ChatGPT Business qui désactivera par défaut les utilisateurs finaux de la formation des modèles. 

En attendant, vous pouvez vous opposer à l'utilisation de vos données pour améliorer nos services en remplissant ce formulaire. Une fois que vous aurez soumis le formulaire, les nouvelles conversations ne seront pas utilisées pour former nos modèles. 


API


Lire aussi 

Apports démocratiques à l'IA

Notre organisation à but non lucratif, OpenAI, Inc., lance un programme d'attribution de dix subventions de 100 000 $ pour financer des expériences de mise en place d'un processus démocratique pour décider des règles que les systèmes d'IA doivent suivre, dans les limites définies par la loi.
L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.


L'IA aura des impacts économiques et sociétaux importants et de grande envergure. La technologie façonne la vie des individus, la façon dont nous interagissons les uns avec les autres et la façon dont la société dans son ensemble évolue. Nous pensons que les décisions sur le comportement de l'IA doivent être façonnées par diverses perspectives reflétant l'intérêt public. 

Les lois encodent des valeurs et des normes pour réguler les comportements. Au-delà d'un cadre juridique, l'IA, tout comme la société, a besoin de directives plus complexes et adaptatives pour sa conduite. Par exemple : dans quelles conditions les systèmes d'IA devraient-ils condamner ou critiquer des personnalités publiques, compte tenu des opinions différentes d'un groupe à l'autre sur ces personnalités ? Comment les points de vue contestés doivent-ils être représentés dans les résultats de l'IA ? L'IA devrait-elle par défaut refléter la personnalité d'un individu médian dans le monde, le pays de l'utilisateur, la démographie de l'utilisateur ou quelque chose de complètement différent ? Aucun individu, entreprise ou même pays ne devrait dicter ces décisions. 

L'IAG devrait profiter à toute l'humanité et être conçue pour être aussi inclusive que possible. Nous lançons ce programme de subventions pour faire un premier pas dans cette direction. Nous recherchons des équipes du monde entier pour développer des preuves de concepts pour un processus démocratique qui pourraient répondre aux questions sur les règles que les systèmes d'IA devraient suivre. Nous voulons apprendre de ces expériences et les utiliser comme base pour un processus plus global et plus ambitieux à l'avenir. Bien que ces expériences initiales ne soient pas (du moins pour l'instant) destinées à être contraignantes pour les décisions, nous espérons qu'elles exploreront des questions pertinentes pour la prise de décision et construiront de nouveaux outils démocratiques qui pourront éclairer plus directement les décisions à l'avenir.

La gouvernance des systèmes les plus puissants, ainsi que les décisions relatives à leur déploiement, doivent bénéficier d'un contrôle public fort. Cette subvention représente une étape pour établir des processus démocratiques de supervision de l'AGI et, en fin de compte, de la superintelligence. Il sera fourni par l'organisation à but non lucratif OpenAI, et les résultats des études seront librement accessibles.

Calendrier

24 juin 2023 21 h 00, heure du Pacifique : date limite pour soumettre une demande de subvention
14 juillet 2023 : Les candidats retenus seront sélectionnés et notifiés
20 octobre 2023 : Rapport public complet sur le prototype fonctionnel et les résultats.

L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.

--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


samedi 29 avril 2023

Comment écrire un livre à trois dans 3 pays différents ?

Comment écrire un livre à trois dans 3 pays différents ?

La solution va passer par des solutions collaboratives. 

    1. Teams 
    2. Loop
    3. Outlook et Microsoft 365 (OneNote et OneDrive).
    4. Create et Designer de Microsoft.
    5. Trello  
LOOP

TEAMS

TRELLO

DESIGNER


Trois co-auteurs : 


La rencontre d’un MVP et de deux ex-MVP nous a donner l’envie d'écrire ce livre sur l’Intelligence Artificielle (IA) et Microsoft.



Bonjour c’est Kevin TRELOHAN, J'ai créé en 2020 ma propre entreprise dans le domaine du secteur numérique. Modernize est une entreprise spécialisée sur l'offre Microsoft 365 et plus particulièrement sur Microsoft Teams, SharePoint et Outlook. Mais aussi sur les produits Microsoft Surface que nous utilisons au quotidien. www.modernize.fr J'ai 20 ans d'expérience en tant qu'expert sur les technologies Microsoft. J'ai également une expérience réussie d'expertise technique reconnue pour Microsoft Teams, SharePoint, Outlook et bien sûr la suite Office 365. 





Pierre Erol Giraudy a été consultant et formateur en TIC chez AZEO, ICT7, MEG-JIC, des sociétés spécialisées dans l’implantation de solutions Microsoft Office SharePoint Server (SPS, MOSS) et Gouvernance de Projets. Il a également été MVP, c’est-à-dire un expert reconnu par Microsoft pour ses contributions à la communauté SharePoint. C’est un membre de Microsoft Windows Insider et O365 - EDGE et BING. Il a été président du club SharePoint France (UGSF - UGSM) et il est consultant en veille technologique, et membre du Club d’IA – UGAIA.




Nabil Babaci est avant-tout un passionné de technologies. Il a été auteur, conférencier, ancien MVP SharePoint, Consultant et Entrepreneur sur des domaines d’innovation allant des Smart Cities au développement de plateformes Big Data, Cloud, IOT et AI pour des consortiums Européens. Il occupe actuellement un rôle stratégique chez Hewlett-Packard Enterprise en qualité de Regional Category Manager pour la région Central Europe.

Tous sont co-auteurs et auteurs de plusieurs livres, articles, formations, études et vidéos.

MVP (Most Valuable Professional) est décerné par Microsoft aux personnes qui ont fait preuve d'une contribution exceptionnelle à la communauté Microsoft en partageant leur expertise et leur passion pour les technologies Microsoft.

Le statut de MVP est accordé pour une année à la fois et est renouvelable. Les MVP ont accès à des avantages tels que des invitations à des événements exclusifs, des formations et des supports techniques privilégiés.

CV des Relecteurs – Designer et IA :

Relecteur et Designer  



« Co-Auteurs virtuel » ChatGPT et DALL·E-2 (plus des rôles et des suggestions)





Une belle aventure, nous en sommes à la rédaction des deux Tomes. 



Voici les sommaires.

OpenAI et Microsoft des solutions une gouvernance par des experts. T1.


OpenAI et Microsoft des solutions une gouvernance par des experts. Tome 2.



Les références :

EROL  :  



vendredi 28 avril 2023

LES TROIS PILIERS ET SES OUTILS DE L'IA

LES TROIS PILIERS ET SES OUTILS.

Avant tout il faut considérer les trois piliers[i] des IA qui la composent :

·         La puissance de traitement et de communication,

·         Les logiciels,

·         Les données,

Il faudra les avoir en mémoire afin de piloter la gouvernance de l’IA.


[i] Ne sont pas inclus dans ce plan de gouvernance les calculs des puissances des ordinateurs et des cartes nécessaires à l’architecture des fermes. Car les offres de solutions dans le Cloud sont multiples :


Les solutions concernées dans le cadre de Monoprice sont :

Les suivants en ce qui concerne la gouvernance de : 

ChatGPT, DALL·E-2,

Les solutions MICROSOFT en incluant COPILOT, 

Les Frameworks, SDK, APPs.

La Première ChatGPT

OpenAI travaille sur plusieurs projets dans le domaine de l’intelligence artificielle. L’un de ses projets les plus connus est GPT-3, un modèle de langage naturel qui peut générer du texte en réponse à des questions³. OpenAI travaille également sur des projets tels que DALL-E, un programme qui peut générer des images à partir de descriptions textuelles¹. OpenAI a également travaillé sur des projets tels que la reconnaissance d’images et la reconnaissance vocale². Les équipes ou les personnes chargées de développer et de déployer des systèmes d’IA doivent s’employer à identifier, mesurer et atténuer les dommages en respectant les six principes énoncés au chapitre 15 de mon livre troisième livre sur l'IA (OpenAI et MICROSOFT des solutions une gouvernance par des experts).

La Seconde MICROSOFT et COPILOT.

Voir le tableau avec les solutions MICROSOFT et quatre colonnes pour la gouvernance

La gouvernance de collaboration de Microsoft comprend plusieurs domaines clés, chacun devant être planifié, coordonné et adapté pour s’aligner sur les besoins organisationnels changeants et l’évolution de la technologie. 

Elle comprend notamment l’assurance opérationnelle : maintien de la plateforme opérationnelle, garantie des performances. 

Microsoft 365 propose une infrastructure de gouvernance de collaboration pour les groupes Microsoft 365, notamment la gestion et la gouvernance à grande échelle, les meilleures pratiques pour favoriser l’utilisation et l’adoption, et le libre-service².

Vous pouvez également trouver des informations sur les options de gouvernance du cycle de vie pour les outils de collaboration Microsoft 365 dans la documentation Microsoft³.

Source : conversation avec Bing, 26/03/2023(1) Créer votre plan de gouvernance de collaboration | Microsoft Learn. https://learn.microsoft.com/fr-fr/microsoft-365/solutions/collaboration-governance-first ?view=o365-worldwide Consultée 26/03/2023.

(2) Une infrastructure de gouvernance de collaboration pour Microsoft 365 …. https://learn.microsoft.com/fr-fr/microsoft-365/solutions/collaboration-governance-overview ?view=o365-worldwide Consultée 26/03/2023.

(3) Planifier la gouvernance de l’organisation et du cycle de vie Microsoft …. https://docs.microsoft.com/fr-ca/microsoft-365/solutions/plan-organization-lifecycle-governance Consultée 26/03/2023.

Planifier la gouvernance de l’organisation et du cycle de vie pour les groupes Microsoft 365 et Microsoft Teams[i].

Créer votre plan de gouvernance de collaboration | Microsoft Learn[ii]

Il est toujours préférable de commencer votre transition vers Microsoft 365 avec une vision claire, voici un exemple de questions qu’il faut se poser :

1.       Quels sont vos principaux objectifs métier ?

2.       Comment les outils et les fonctionnalités apporteront-ils de la valeur à l’ensemble de l’organisation et aux employés individuels ?

3.       Comment allez-vous mesurer la réussite ?

4.       Quelles ressources informatiques vont être dédiées à l’AI ?

5.       Quel plan de classement avez-vous prévu ?

6.       Avez-vous une taxinomie au sein de votre organisation ?

La gouvernance est l’ensemble de stratégies, de rôles, de responsabilités et de processus qui contrôlent la façon dont les divisions commerciales et les équipes informatiques de votre organisation travaillent ensemble pour atteindre ses objectifs.


[i] Planifier la gouvernance de l’organisation et du cycle de vie pour les groupes Microsoft 365 et Microsoft Teams | Microsoft Learn  https://learn.microsoft.com/fr-fr/microsoft-365/solutions/plan-organization-lifecycle-governance?view=o365-worldwide


--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol


mardi 7 mars 2023

Azure OpenAI Service Apply advanced coding and language models to a variety of use cases.

Azure OpenAI Service



Apply advanced coding and language models to a variety of use cases.




Alimentez vos applications avec des modèles d'IA à grande échelle.

Tirez parti de modèles d'IA génératifs à grande échelle avec une compréhension approfondie du langage et du code pour permettre de nouvelles capacités de raisonnement et de compréhension pour la création d'applications de pointe. Appliquez ces modèles de codage et de langage à une variété de cas d'utilisation, tels que l'aide à l'écriture, la génération de code et le raisonnement sur les données. Détectez et atténuez les utilisations nuisibles grâce à l'IA responsable intégrée et accédez à la sécurité Azure de niveau entreprise.


What is Azure OpenAI Service? - Azure Cognitive Services | Microsoft Learn



Azure OpenAI Service provides REST API access to OpenAI's powerful language models including the GPT-3, Codex and Embeddings model series. These models can be easily adapted to your specific task including but not limited to content generation, summarization, semantic search, and natural language to code translation. Users can access the service through REST APIs, Python SDK, or our web-based interface in the Azure OpenAI Studio.


Explain to me : State-of-the-art (SOTA) large language models (LLM)

State-of-the-art (SOTA) large language models (LLMs) are a type of artificial intelligence (AI) model that are designed to understand and generate human language. These models are typically trained on massive amounts of text data, such as books, articles, and websites, using a technique known as "unsupervised learning".

SOTA LLMs have recently gained a lot of attention due to their impressive ability to generate high-quality text that is often difficult to distinguish from text written by humans. They are capable of a wide range of language tasks, including language translation, summarization, question-answering, sentiment analysis, and more.

Some examples of popular SOTA LLMs include GPT-3 (Generative Pre-trained Transformer 3), BERT (Bidirectional Encoder Representations from Transformers), and T5 (Text-to-Text Transfer Transformer). These models have been developed by leading AI research organizations such as OpenAI and Google.

SOTA LLMs have the potential to revolutionize natural language processing (NLP) and have a wide range of applications in fields such as chatbots, virtual assistants, content creation, and more. However, they also raise concerns about issues such as bias and privacy, which need to be addressed as these models become more widely used.

--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


dimanche 5 mars 2023

Parlez-vous ChatGPT ? - Do you speak ChatGPT ?

Parlez-vous ChatGPT ? - Do you speak ChatGPT ?



• 2015. OpenAI was founded by Sam Altman, Elon Musk, Greg Brockman, Peter Thiel, and others. OpenAI develops many different AI models other than GPT.

• 2017. Google published the paper Attention is All You Need, which introduced the transformer architecture [2]. The transformer is a neural network architecture that lays the foundation for many state-of-the-art (SOTA) large language models (LLM) like GPT.

• 2018. GPT is introduced in Improving Language Understanding by Generative Pre-training . It’s based on a modified transformer architecture and pre-trained on a large corpus.

• 2019. GPT-2 is introduced in Language Models are Unsupervised Multitask Learners, which can perform a range of tasks without explicit supervision when training.

• 2020. GPT-3 is introduced in Language Models are Few-Shot Learners, which can perform well with few examples in the prompt without fine-tuning.

• 2022. InstructGPT is introduced in Training language models to follow instructions with human feedback, which can better follow user instructions by fine-tuning with human feedback.

• 2022. ChatGPT, a sibling of InstructGPT, is introduced in ChatGPT: Optimizing Language Models for Dialogue. It can interact with humans in conversations, thanks to the fine-tuning with human examples and reinforcement learning from human feedback (RLHF).


Natural language processing (NLP) 

The transformer architecture is the foundation for GPT. 


The first step is supervised learning from human examples. 


The second step is training a reward model (RM) to rate the responses

Optimizing Language Models for Dialogue.


NLP Using Python     Natural Language Processing


Machine Learning Mastery



APA handbook of industrial and organizational psychology, Vol 1: Building and developing the organization. 


Definition of prompt for ChatGPT in English with APA and exemples and URL 

The term "Prompt" in English can have several meanings depending on the context. In the field of artificial intelligence, the term "Prompt" can be translated as "prompt" or "proposal". PromptBase | Prompt Marketplace: DALL·E, Midjourney, ChatGPT, Stable Diffusion & GPT-3.


As an AI language model, I don't have a personal definition for the term prompt. However, here is a definition with APA and examples:

Prompt is a noun that refers to a cue or stimulus that initiates or triggers a particular action, behavior, or response. The term is commonly used in education to describe a task or question given to students that is designed to encourage critical thinking, creativity, and reflection.

According to the American Psychological Association (APA), a prompt is defined as "a stimulus or cue that initiates or guides behavior, thought, or action" (APA Dictionary of Psychology, 2020).

Examples of prompts include:

In a writing class, the teacher might provide a prompt such as "Write a descriptive essay about your favorite place" to inspire students to write creatively and think deeply about their experiences.

In a language learning class, the teacher might give a prompt such as "Describe your daily routine in Spanish" to encourage students to practice their language skills and use new vocabulary.

In a behavioral therapy session, the therapist might use a prompt such as "When you feel anxious, try taking three deep breaths and saying a positive affirmation to yourself" to help the patient develop coping skills and manage their emotions.

Here is the reference for the APA Dictionary of Psychology:

American Psychological Association. (2020). APA Dictionary of Psychology (2nd ed.). https://doi.org/10.1037/12169-000



Models - OpenAI API


The OpenAI API can be applied to virtually any task that involves understanding or generating natural language or code. We offer a spectrum of models with different levels of power suitable for different tasks, as well as the ability to fine-tune your own custom models. These models can be used for everything from content generation to semantic search and classification.

INFOS and DEMOS + PPT




--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


samedi 4 mars 2023

Glossaire ChatGPT - CODEX - GYM - AI - DALL·E.

Glossaire : ChatGPT - CODEX - GYM - AI.

Glossaire technique de ChatGPT :

  1. Modèle de langage : un modèle de langage est un algorithme qui peut prédire la probabilité d'apparition d'un mot donné, en fonction du contexte dans lequel il est utilisé.

  2. Réseau de neurones : un réseau de neurones est un ensemble d'algorithmes qui sont conçus pour fonctionner de manière similaire à un cerveau humain. Ces réseaux sont souvent utilisés pour la reconnaissance de motifs, la prédiction et la classification de données.

  3. Entraînement : l'entraînement d'un modèle de machine learning consiste à lui apprendre à reconnaître des motifs à partir d'un ensemble de données d'entraînement.

  4. Fine-tuning : le fine-tuning est une technique utilisée pour adapter un modèle de machine learning existant à une tâche spécifique, en ajustant les poids et les biais du modèle pour qu'il soit plus adapté à cette tâche.

  5. Apprentissage non supervisé : l'apprentissage non supervisé est une méthode d'apprentissage automatique dans laquelle le modèle doit apprendre à reconnaître les schémas et les structures dans les données sans être supervisé.

  6. Traitement du langage naturel : le traitement du langage naturel (NLP) est une branche de l'intelligence artificielle qui se concentre sur la compréhension et la génération de langage naturel par les machines.

  7. Transformers : les Transformers sont une architecture de réseau de neurones qui ont été développées pour le traitement du langage naturel. Ils ont été largement utilisés dans des modèles de génération de texte tels que GPT-2 et GPT-3.

  8. NLP stands for "Natural Language Processing"

Glossaire technique de Gymnasium :

  1. Graphique de calcul : un graphique de calcul est une représentation graphique des calculs qui doivent être effectués dans un réseau de neurones.

  2. Tenseur : un tenseur est une généralisation d'un vecteur ou d'une matrice à plusieurs dimensions. Les tenseurs sont couramment utilisés dans les réseaux de neurones.

  3. Opération de gradient : une opération de gradient est une opération qui calcule le gradient d'une fonction par rapport à ses entrées. Les opérations de gradient sont utilisées pour entraîner des réseaux de neurones à l'aide de la descente de gradient.

  4. Descente de gradient : la descente de gradient est une méthode d'optimisation utilisée pour ajuster les poids et les biais d'un réseau de neurones. Cette méthode consiste à trouver la direction dans laquelle la fonction de perte diminue le plus rapidement, et à ajuster les paramètres en conséquence.

  5. Fonction de perte : la fonction de perte est une fonction qui mesure l'écart entre la sortie d'un modèle de réseau de neurones et les valeurs attendues. Cette fonction est utilisée pour entraîner le modèle.

  6. Batch : un batch est un ensemble d'exemples d'entraînement qui sont traités simultanément dans un réseau de neurones.

  7. Epoch : une epoch est une passe complète à travers l'ensemble des données d'entraînement lors de l'entraînement d'un réseau de neurones.


Voici un glossaire technique pour Codex :

  1. Modèle de langage : un modèle statistique qui peut générer du texte en prédisant la probabilité des mots suivants en fonction des mots précédents.
  2. Fine-tuning : une technique de machine learning qui permet d'adapter un modèle pré-entraîné à une tâche spécifique en l'entraînant sur un ensemble de données supplémentaires.
  3. Génération de texte : le processus par lequel un modèle de langage génère du texte de manière autonome, en utilisant une certaine quantité d'informations en entrée.
  4. Codage : le processus par lequel l'information est encodée sous forme de vecteurs ou de tenseurs, afin de permettre son traitement par des algorithmes de machine learning.
  5. Décodage : le processus inverse du codage, par lequel les vecteurs ou les tenseurs sont convertis en informations compréhensibles pour les humains.
  6. Transformers : une architecture de réseau de neurones qui a révolutionné le domaine de la modélisation du langage naturel en permettant une parallélisation efficace des calculs et en améliorant les performances des modèles de langage.
  7. Attention : un mécanisme utilisé dans les réseaux de neurones pour donner plus ou moins de poids à différentes parties d'une entrée en fonction de leur pertinence pour la tâche en cours.
  8. Prédiction : l'acte de prédire une sortie pour une entrée donnée en utilisant un modèle de machine learning. Dans le contexte de Codex, la prédiction est la génération de code à partir d'un contexte d'entrée.
  9. Langage de programmation : un langage formel utilisé pour écrire des programmes informatiques.
  10. Entraînement non supervisé : une technique d'apprentissage automatique dans laquelle un modèle est entraîné sur des données non étiquetées, sans connaître les sorties attendues.

Voici un glossaire technique pour l'IA (intelligence artificielle) :

  1. Algorithme d'apprentissage automatique : un ensemble de méthodes utilisées par les machines pour apprendre à partir de données, sans être explicitement programmées.

  2. Apprentissage en profondeur : une méthode d'apprentissage automatique qui utilise des réseaux de neurones artificiels pour apprendre à partir de données.

  3. Apprentissage supervisé : une technique d'apprentissage automatique dans laquelle le modèle est formé à partir de données étiquetées (ou marquées).

  4. Apprentissage non supervisé : une technique d'apprentissage automatique dans laquelle le modèle est formé à partir de données non étiquetées.

  5. Réseau de neurones artificiels : un modèle mathématique inspiré du fonctionnement du cerveau humain, qui est utilisé pour effectuer des tâches telles que la classification et la prédiction.

  6. Traitement du langage naturel : une branche de l'IA qui traite de la compréhension et de la génération de langage naturel par les machines.

  7. Reconnaissance d'image : une branche de l'IA qui se concentre sur la reconnaissance de motifs et de caractéristiques dans les images.

  8. Apprentissage par renforcement : une technique d'apprentissage automatique dans laquelle un agent apprend à partir de ses interactions avec un environnement, en maximisant une récompense ou en minimisant une pénalité.

  9. Apprentissage actif : une technique d'apprentissage automatique dans laquelle le modèle sélectionne les exemples les plus utiles à partir desquels apprendre.

  10. Réseaux de neurones convolutifs : un type de réseau de neurones artificiels spécifiquement conçu pour la reconnaissance d'images et de motifs dans des données en deux dimensions, comme les images.


Glossaire technique pour Transformer d'OpenAI :

  1. Transformer : Un modèle de réseau de neurones de traitement du langage naturel développé par Google Brain et utilisé par OpenAI. Il utilise des mécanismes d'attention pour encoder et décoder le langage naturel.

  2. Réseau de neurones : Un algorithme d'apprentissage automatique qui utilise des structures de neurones artificiels pour apprendre à partir de données.

  3. Apprentissage profond : Une forme d'apprentissage automatique qui utilise des réseaux de neurones profonds pour traiter des données.

  4. Attention : Un mécanisme de traitement du langage naturel qui permet au modèle de se concentrer sur des parties spécifiques de l'entrée.

  5. Encodeur : Une partie du modèle Transformer qui transforme l'entrée en une représentation de vecteur.

  6. Décodeur : Une partie du modèle Transformer qui utilise la représentation vectorielle de l'encodeur pour générer une sortie.

  7. Multi-tête : Un mécanisme de traitement du langage naturel qui permet au modèle de calculer plusieurs représentations d'attention à partir de la même entrée.

  8. Positionnement : Un mécanisme de traitement du langage naturel qui permet au modèle de tenir compte de la position des mots dans la phrase.

  9. Normalisation par couche : Un mécanisme de traitement du langage naturel qui permet de normaliser les sorties de chaque couche du réseau de neurones.

  10. Pré-entraînement : Une étape de formation où le modèle est entraîné sur une tâche de grande envergure avant d'être fine-tuné sur une tâche spécifique.

Glossaire technique pour DALLE d'OpenAI :

Glossaire technique pour DALLE d'OpenAI :

  1. DALLE : "DAll-E" (prononcé comme "valley"), est un acronyme pour "Denoising Autoencoder for Language and Image Embeddings". C'est un modèle de génération de texte à partir d'images développé par OpenAI.
  2. Autoencoder : Un modèle de réseau de neurones artificiels qui utilise une couche cachée pour apprendre une représentation compressée des données en entrée. Dans le cas de DALLE, il s'agit d'un autoencodeur de type "débruiteur", qui peut générer des descriptions textuelles à partir d'images.
  3. Transformer : Une architecture de réseau de neurones pour le traitement du langage naturel (NLP) introduite par Google en 2017. Le modèle Transformer est capable de capturer des relations à longue portée entre les mots dans une phrase.
    1. Attention : Un mécanisme dans les réseaux de neurones qui permet de pondérer l'importance de différentes parties d'une entrée. Dans le contexte de DALLE, l'attention est utilisée pour permettre au modèle de se concentrer sur différentes parties de l'image lors de la génération de texte.
  4. Token : Dans le traitement du langage naturel, un "token" est une unité discrète de texte, généralement un mot ou un symbole. Dans DALLE, les images sont découpées en "patches" qui sont ensuite encodés en tokens.
  5. Fine-tuning : Une technique d'apprentissage automatique qui consiste à ajuster les poids d'un modèle de réseau de neurones pré-entraîné sur une tâche spécifique en utilisant un ensemble de données plus petit. Dans le cas de DALLE, il est possible de fine-tuner le modèle sur une tâche de génération de texte spécifique.
  6. Cross-entropy loss : Une fonction de coût utilisée pour évaluer la qualité de la sortie d'un modèle de réseau de neurones en comparant les prédictions du modèle aux valeurs attendues. Dans le contexte de DALLE, la cross-entropy loss est utilisée pour entraîner le modèle à générer des descriptions textuelles précises à partir d'images.
  7. Perplexité : Une mesure de la qualité d'un modèle de langage qui indique à quel point le modèle est "perplexe" ou incertain lorsqu'il génère une séquence de tokens. Plus la perplexité est faible, plus le modèle est capable de générer des séquences de texte cohérentes.
  8. Beam search : Une technique d'exploration d'arbre de décision utilisée pour générer des séquences de texte à partir d'un modèle de langage. Dans le cas de DALLE, beam search est utilisé pour trouver la séquence de texte la plus probable pour une image donnée.
  9. Prompt : Dans le contexte de DALLE, un "prompt" est une phrase ou un court extrait de texte qui est utilisé pour guider le modèle dans la génération de texte pour une image donnée.

Me traduire et expliquer : Prompt

Le terme "Prompt" en anglais peut avoir plusieurs significations en fonction du contexte. En matière d'intelligence artificielle, le terme "Prompt" peut être traduit par "invite" ou "proposition".

En général, il s'agit d'une phrase ou d'un court texte donné en entrée à un modèle de langage pour générer une réponse ou une suite de texte. Dans le domaine de l'AI textuelle, un Prompt peut être considéré comme une question, une requête, une consigne ou une suggestion qui est soumise à un algorithme de traitement de langage naturel pour produire une réponse cohérente.

Par exemple, dans le cadre d'une conversation avec un chatbot, l'utilisateur peut entrer une phrase ou une question dans une boîte de dialogue. Cette entrée peut être utilisée comme Prompt pour le modèle de langage qui générera ensuite une réponse en utilisant l'apprentissage automatique pour comprendre le contexte et le ton de la question posée.

Le choix du Prompt est crucial pour obtenir une réponse pertinente et cohérente de l'IA, et peut nécessiter un certain niveau de compétence en matière de formulation de questions et de contexte.


Mon livre


 



---
Erol GIRAUDY