Translate

dimanche 12 février 2023

Exemples : Build an AI Writer with GPT-3 - DALLE-2 - Building apps with AI

Building apps with AI

Build an AI writer with GPT-3 and an image generator with DALLE-2 and Stable Diffusion



What you will learn
How to build an AI writer with GPT-3
How to build an image generator with DALLE-2
How to build an image generator with Stable Diffusion
How to connect to the the Open AI API
How to use Bubble's API connector
How to build input forms in Bubble that connect to AI
How to write prompts using AI that can be used in your app
How to use AI in a variety of use-cases
How to build your own app using AI

Curriculum

1. Build an AI Writer with GPT-3

Learn how to build your own app using Bubble and GPT-3

Create Bubble app and learn how to create your API prompt in Open AI

11:43
2. Build an image generator app with DALLE-2

Learn how to build your own image generator app using generative AI using Bubble and DALLE-2.

Set up image generation API call to DALL-E

4:52
3. Build a Stable Diffusion Image Generator

Learn how to build your own image generator app using generative AI using Bubble and Stable Diffusion and the Computerender API.

Learn about the difference between DALLE-2 and Stable Diffusion and set up your Computerender API

3:22
4. Build an image to image generator using Stable Diffusion

Learn how to build an image to image (img2img) generator app using Bubble and Stable Diffusion with the Replicate API

Intro and demo of final product

1:53
5. Fine tuning with OpenAI

In this course, you'll learn how to fine-tune with OpenAI and GPT. You'll understand the best practices and fine-tune your own model!

How fine tuning works

6:11

Who this course is for

  • Entrepreneurs
  • Freelancers
  • Marketers
  • Operators
  • Anyone who wants to make an impact

--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol



Runtime Performance Prediction for Deep Learning Models with Graph Neural Network - Bientôt...

Runtime Performance Prediction for Deep Learning Models with Graph Neural Network

ICSE '23 

Published by IEEE/ACM

The 45th International Conference on Software Engineering, Software Engineering in Practice (SEIP) Track


Runtime Performance Prediction for Deep Learning Models with Graph Neural Network - Microsoft Research


Prédiction des performances d'exécution pour les modèles d'apprentissage en profondeur avec le réseau de neurones de graphes


Mon livre sur AMAZON sur ChatGPT.

--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol

PPT sur ChatGTP présentation en 6 points avec Q & A à ChatGPT - Gouvernance.

Présentation en 6 points (Espace de travail) avec Q & A à ChatGPT.

PPT sur cette présentation en 6 points avec Q & A à ChatGPT - Gouvernance.

Donc il y aura un ePUB sur AMZON et il sera gratuit.



Je me suis servi de ChatGPT pour rédiger ce livre, vous deviez vous en douter. Je ne vais pas expliquer les bases de GPT, ouverture d’un compte et tests. Le livre intitulé "Gouvernance en 6 POINTS de CHATGPT" est écrit à l'aide de ChatGPT, un modèle de langage de OpenAI. Il s'agit de l'intelligence artificielle (IA) et de ses impacts sur différents domaines, tels que le service client, la traduction instantanée, l'éducation, la santé, les finances, le commerce de détail et le journalisme. 
Le livre comprend également une discussion sur l'avenir de l'IA avec ChatGPT et ses conséquences éthiques et sociales. Le livre se termine avec des FAQ sur ChatGPT, notamment ses inconvénients, son utilisation pour le travail et son accès à Internet. 
La dernière section traite des mesures pour garantir une utilisation responsable de l'IA pour améliorer la vie des gens.

Couverture du livre et Sommaire.

Copie écran de ChatGPT avec une question.



Voir le site : GOUVERNANCE - IA: Gouvernance et Disruption (gouver2020.blogspot.com)


--- 
Pierre Erol GIRAUDY 


TRANSFORMER et OpenAI

Qui est à l'origine de ce langage

Le modèle de traitement du langage connu sous le nom de Transformer a été présenté pour la première fois en 2017 par des chercheurs de l'entreprise de recherche en intelligence artificielle OpenAI, dirigée par Ilya Sutskever, Greg Brockman et Sam Altman. 


Le modèle a été décrit dans un papier intitulé "Attention is All You Need", publié par Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser et Illia Polosukhin.

 

Le modèle Transformer est devenu l'un des modèles de traitement du langage les plus populaires et les plus utilisés, et a été adopté par de nombreuses entreprises et institutions pour des applications telles que la traduction automatique, la génération de textes, la reconnaissance de la parole et la réponse à des questions.


L'équipe de recherche d'OpenAI a continué à explorer de nouvelles applications pour le modèle Transformer et à développer de nouvelles techniques pour améliorer les performances de ce modèle, ce qui a stimulé la recherche et le développement dans le domaine du traitement du langage naturel.



Quel est le fondateur du langage Transformer ?

Le modèle de Transformer a été introduit en 2017 par Vaswani et al. Dans leur papier intitulé "Attention is All You Need". Vaswani est également co-fondateur de la société d'intelligence artificielle, OpenAI.

Le modèle Transformer peut être implémenté dans plusieurs langages de programmation tels que Python, C++ et Java. 

Cependant, la plupart des implémentations de modèles Transformer sont écrites en Python car il est facile à utiliser et dispose d'une grande communauté de développeurs et de bibliothèques pour les tâches de traitement du langage naturel. 

Des bibliothèques populaires telles que les transformateurs TensorFlow, PyTorch et Hugging Face peuvent être utilisées pour implémenter et former le modèle Transformer. 

En utilisant ces bibliothèques, les développeurs peuvent rapidement créer et former des modèles Transformer sans avoir à écrire beaucoup de code. 

En conclusion, 

Alors que le modèle Transformer peut être implémenté dans plusieurs langages de programmation, Python est de loin le langage le plus couramment utilisé pour les implémentations du modèle Transformer en raison de sa facilité d'utilisation et de la présence d'une grande communauté de développeurs et de bibliothèques pour les tâches de traitement du langage naturel.

Modélisation générative avec des transformateurs clairsemés 

"Nous avons développé le Sparse Transformer, un réseau neuronal profond qui établit de nouveaux records pour prédire ce qui vient ensuite dans une séquence, qu'il s'agisse de texte, d'images ou de son. Il utilise une amélioration algorithmique du mécanisme d'attention pour extraire des modèles de séquences 30 fois plus longtemps qu'auparavant."





Bonjour, c’est Bing. Je peux vous aider à trouver des informations sur TRANSFORMER et OpenAI. 


TRANSFORMER est un modèle d’intelligence artificielle basé sur l’attention, qui peut traiter des données séquentielles comme le texte, le son ou l’image1. OpenAI est une entreprise américaine de recherche et de déploiement d’intelligence artificielle, qui vise à promouvoir et à développer une intelligence artificielle bénéfique pour toute l’humanité23.

Microsoft a annoncé qu’il allait intégrer l’intelligence artificielle d’OpenAI au moteur de recherche Bing, pour permettre aux utilisateurs de “discuter” en ligne avec Bing et de transformer fondamentalement leur expérience4567. Microsoft a également investi un milliard de dollars dans OpenAI en 2019, pour accéder à sa technologie de pointe8.


Mon livre sur AMAZON sur ChatGPT.
--- 
Pierre Erol GIRAUDY 
http://about.me/giraudyerol