Translate

vendredi 26 mai 2023

FAQ sur les contrôles de données dans ChatGPT (comment activer ou désactiver cette fonction).

FAQ sur les contrôles de données Écrit par 

Josué J.

Nous voyons que la Compagnie OpenAI lentement trouve des solutions pour protéger les utilisateurs. Elle lance même un concours :  



OpenAI offre des subventions de 100 000 dollars chacune pour des idées sur la gouvernance de l'IA.

Mais revenons à notre sujet : quels sont les paramètres de contrôle des données ? 


Les contrôles de données vous offrent la possibilité de désactiver l'historique des discussions et de choisir facilement si vos conversations seront utilisées pour former nos modèles. Ils vous donnent également la possibilité d'exporter vos données ChatGPT et de supprimer définitivement votre compte. 

Comment désactiver l'historique des discussions et la formation des modèles ? 


Interface Web: Pour désactiver l'historique des discussions et la formation des modèles, accédez à ChatGPT > Contrôles des données. 


How do I turn off chat history and model training? | OpenAI Help Center


Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 




Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 

Veuillez noter que cela n'empêchera pas les modules complémentaires de navigateur non autorisés ou les logiciels malveillants sur votre ordinateur de stocker votre historique. 
Application iOS : Pour désactiver l'historique des discussions et la formation des modèles, appuyez sur les trois points dans le coin supérieur droit de l'écran > Paramètres > Contrôles des données > désactivez l'historique des discussions et la formation. 

Tant que l'historique est désactivé, les nouvelles conversations ne seront pas utilisées pour former et améliorer nos modèles, et n'apparaîtront pas dans la barre latérale de l'historique. 

Pour surveiller les abus, nous conserverons toutes les conversations pendant 30 jours avant de les supprimer définitivement. 



Pour plus de détails, voir Comment désactiver l'historique des discussions et la formation des modèles ? 


Cette fonctionnalité se synchronise-t-elle entre le Web et les appareils mobiles ? Ce paramètre ne se synchronise pas entre les navigateurs ou les appareils. Vous devrez l'activer sur chaque appareil. 

Comment exporter mes données depuis ChatGPT ? 


Pour exporter vos conversations, dans ChatGPT, accédez à Paramètres > Contrôles des données. 

Vous verrez une option pour exporter des données dans le coin inférieur gauche de la fenêtre contextuelle. Vous recevrez un fichier contenant vos données ChatGPT dans un e-mail. Pour plus de détails, consultez 


Comment exporter mon historique et mes données ChatGPT ? 


Comment supprimer mon compte ChatGPT ? 


Pour supprimer votre compte, accédez à Paramètres > Contrôles des données. Au bas de la fenêtre contextuelle, vous verrez une option pour supprimer votre compte. Si vous choisissez de supprimer votre compte, cela est irréversible. Si vous êtes un utilisateur de l'API via le même compte, ces données seront également supprimées. 

Pour plus de détails, voir Comment puis-je supprimer mon compte ? 




Comment OpenAI utilise-t-il mes données personnelles ? 

Nos grands modèles de langage sont entraînés sur un large corpus de texte qui comprend du contenu accessible au public, du contenu sous licence et du contenu généré par des réviseurs humains. Nous n'utilisons pas de données pour vendre nos services, faire de la publicité ou créer des profils de personnes. 

Nous utilisons des données pour rendre nos modèles plus utiles aux gens. ChatGPT, par exemple, s'améliore grâce à une formation supplémentaire sur les conversations que les gens ont avec lui, à moins que vous ne choisissiez de désactiver la formation. 

Si je désactive l'historique, le paramètre s'applique-t-il à toutes mes conversations ou puis-je choisir des conversations spécifiques pour lesquelles l'activer ? 

Tant que l'historique est désactivé, les nouveaux chats seront supprimés de nos systèmes dans les 30 jours - et examinés uniquement en cas de besoin pour surveiller les abus - et ne seront pas utilisés pour la formation des modèles. Les conversations existantes seront toujours enregistrées et pourront être utilisées pour la formation du modèle si vous ne vous êtes pas désabonné. 

Si je désactive l'historique, que se passe-t-il lorsque la conversation se ferme ? 


Lorsque l'historique est désactivé, la conversation n'apparaîtra pas dans votre historique (sur le côté gauche de l'écran) et ne pourra pas être récupérée. 
Lorsque l'historique des discussions est désactivé, nous conservons les nouvelles conversations pendant 30 jours et ne les examinons que lorsque cela est nécessaire pour surveiller les abus, avant de les supprimer définitivement. 

Existe-t-il des limitations ou des restrictions concernant l'historique et la formation de désactivation ? 

Il n'y a pas de limite au nombre de conversations que vous pouvez avoir lorsque l'historique et la formation sont désactivés. Cela s'applique aux abonnements gratuits et Plus. Auparavant, j'avais choisi de ne pas participer à la formation des modèles en écrivant à l'équipe d'assistance. 

Allez-vous continuer à honorer mon opt-out ? 


Oui, nous continuerons d'honorer les demandes de retrait précédentes. Les nouveaux contrôles de données visent à faciliter la désactivation de l'historique des discussions et à choisir facilement si vos conversations seront utilisées pour former nos modèles 

Que se passe-t-il si je souhaite conserver mon historique mais désactiver l'entraînement du modèle ?


 Nous travaillons sur une nouvelle offre appelée ChatGPT Business qui désactivera par défaut les utilisateurs finaux de la formation des modèles. 

En attendant, vous pouvez vous opposer à l'utilisation de vos données pour améliorer nos services en remplissant ce formulaire. Une fois que vous aurez soumis le formulaire, les nouvelles conversations ne seront pas utilisées pour former nos modèles. 


API


Lire aussi 

Apports démocratiques à l'IA

Notre organisation à but non lucratif, OpenAI, Inc., lance un programme d'attribution de dix subventions de 100 000 $ pour financer des expériences de mise en place d'un processus démocratique pour décider des règles que les systèmes d'IA doivent suivre, dans les limites définies par la loi.
L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.


L'IA aura des impacts économiques et sociétaux importants et de grande envergure. La technologie façonne la vie des individus, la façon dont nous interagissons les uns avec les autres et la façon dont la société dans son ensemble évolue. Nous pensons que les décisions sur le comportement de l'IA doivent être façonnées par diverses perspectives reflétant l'intérêt public. 

Les lois encodent des valeurs et des normes pour réguler les comportements. Au-delà d'un cadre juridique, l'IA, tout comme la société, a besoin de directives plus complexes et adaptatives pour sa conduite. Par exemple : dans quelles conditions les systèmes d'IA devraient-ils condamner ou critiquer des personnalités publiques, compte tenu des opinions différentes d'un groupe à l'autre sur ces personnalités ? Comment les points de vue contestés doivent-ils être représentés dans les résultats de l'IA ? L'IA devrait-elle par défaut refléter la personnalité d'un individu médian dans le monde, le pays de l'utilisateur, la démographie de l'utilisateur ou quelque chose de complètement différent ? Aucun individu, entreprise ou même pays ne devrait dicter ces décisions. 

L'IAG devrait profiter à toute l'humanité et être conçue pour être aussi inclusive que possible. Nous lançons ce programme de subventions pour faire un premier pas dans cette direction. Nous recherchons des équipes du monde entier pour développer des preuves de concepts pour un processus démocratique qui pourraient répondre aux questions sur les règles que les systèmes d'IA devraient suivre. Nous voulons apprendre de ces expériences et les utiliser comme base pour un processus plus global et plus ambitieux à l'avenir. Bien que ces expériences initiales ne soient pas (du moins pour l'instant) destinées à être contraignantes pour les décisions, nous espérons qu'elles exploreront des questions pertinentes pour la prise de décision et construiront de nouveaux outils démocratiques qui pourront éclairer plus directement les décisions à l'avenir.

La gouvernance des systèmes les plus puissants, ainsi que les décisions relatives à leur déploiement, doivent bénéficier d'un contrôle public fort. Cette subvention représente une étape pour établir des processus démocratiques de supervision de l'AGI et, en fin de compte, de la superintelligence. Il sera fourni par l'organisation à but non lucratif OpenAI, et les résultats des études seront librement accessibles.

Calendrier

24 juin 2023 21 h 00, heure du Pacifique : date limite pour soumettre une demande de subvention
14 juillet 2023 : Les candidats retenus seront sélectionnés et notifiés
20 octobre 2023 : Rapport public complet sur le prototype fonctionnel et les résultats.

L'objectif principal de cette subvention est de favoriser l'innovation dans les processus - nous avons besoin de méthodes démocratiques améliorées pour régir le comportement de l'IA. Les réponses spécifiques aux questions importent moins que les progrès réalisés dans le processus lui-même.

--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


vendredi 12 mai 2023

News sur l'IA en Mai 2023.

News sur l'IA en Mai 2023.

Création d’un service de l’intelligence artificielle à la CNIL et lancement des travaux sur les bases de données d’apprentissage

23 janvier 2023


La CNIL crée un service de l’intelligence artificielle pour renforcer son expertise sur ces systèmes et sa compréhension des risques pour la vie privée tout en préparant l’entrée en application du règlement européen sur l’IA. Par ailleurs, elle proposera des premières recommandations sur le sujet des bases de données d’apprentissage dans les prochaines semaines.




Guide d'auto-évaluation pour les systèmes d'intelligence artificielle (IA)
La CNIL propose une grille d'analyse afin de permettre aux organismes d'évaluer par eux-mêmes la maturité de leurs systèmes d'intelligence artificielle au regard du RGPD. Elle présente également des bonnes pratiques. https://www.cnil.fr/fr/intelligence-artificielle/guide 
 








De puissants nouveaux modèles d'IA à grande échelle comme GPT-4 montrent des améliorations spectaculaires dans les capacités de raisonnement, de résolution de problèmes et de langage. Cela marque un changement de phase pour l'intelligence artificielle et un signal d'accélération des progrès à venir. Dans cette nouvelle série de podcasts Microsoft Research, le scientifique et ingénieur en IA Ashley Llorens anime des conversations avec ses collaborateurs et collègues sur ce que ces nouveaux modèles - et les modèles à venir - signifient pour notre approche de création, de compréhension et de déploiement de l'IA, ses applications dans des domaines tels que les soins de santé et l'éducation, et son potentiel au profit de l'humanité. Le premier épisode met en vedette Sébastien Bubeck, qui dirige le groupe Machine Learning Foundations chez Microsoft Research à Redmond. Lui et ses collaborateurs ont mené une évaluation approfondie de GPT-4 pendant son développement et ont publié leurs conclusions dans un article qui explore ses capacités et ses limites, notant qu'il montre des "étincelles" d'intelligence artificielle générale.




Le Guide pratique pour des IA éthiques



Numeum et ses partenaires mettent gratuitement à votre disposition un outil unique pour vous permettre de concrétiser vos ambitions.
Numeum et ses partenaires lancent l’initiative Ethical AI afin de mettre à la disposition d’acteurs engagés un outil pratique pour concevoir, développer et piloter des systèmes d’intelligence artificielle respectueux des droits humains fondamentaux.



Les nouvelles règles encadrant l'intelligence artificielle — Questions et réponses

Table des matières:
Un nouveau cadre réglementaire relatif à l'IA
Le plan coordonné — Mise à jour 2021
Le nouveau règlement relatif aux machines et équipements
Prochaines étapes





GUIDE IA DE CONFIANCE

Le collectif Impact AI fournit aux entreprises un guide pratique pour mettre en œuvre une intelligence artificielle digne de confiance, et s’adresse au gouvernement français pour favoriser l’émergence d’une IA responsable. Start-up, PME, entreprises du CAC 40, sociétés de conseil et acteurs académiques ont participé à la conception de ce guide.



La Commission européenne a nommé un groupe d’experts chargé de fournir des conseils sur sa stratégie en matière d’intelligence artificielle.


--- 
 Pierre Erol GIRAUDY 
http://about.me/giraudyerol


mercredi 10 mai 2023

Semantic Index for Copilot: Explained by Microsoft

The Semantic Index for Copilot is a map of your user and company data - identifying relationships and making important connections. It works with the Copilot System and the Microsoft Graph to create a sophisticated map of all the data and content in your organization – enabling Microsoft 365 Copilot to deliver personalized, relevant, and actionable responses. Learn more: https://blogs.microsoft.com/?p=52560836 #microsoft365 #Microsoft365Copilot #microsoft

Index sémantique pour Copilot

Et, pour aider chaque client à se préparer à l'IA, nous commencerons également à déployer l'index sémantique pour Copilot— une nouvelle fonctionnalité dans Microsoft 365 E3 et E5. L'index sémantique pour Copilot est une carte sophistiquée de vos données d'utilisateur et d'entreprise. Par exemple, lorsque vous lui posez des questions sur le "Rapport sur les ventes de mars", il ne recherche pas simplement les documents contenant ces mots dans le nom ou le corps du fichier. 

Au lieu de cela, il comprend que "les rapports de vente sont produits par Kelly au sein de l'équipe financière et créés dans Excel". Et il utilise cette compréhension conceptuelle pour déterminer votre intention et vous aider à trouver ce dont vous avez besoin. 

L'index sémantique pour Copilot est essentiel pour obtenir des réponses pertinentes et exploitables aux invites dans Microsoft 365 Copilot. Et il améliore les résultats de recherche d'entreprise pour les clients E3 et E5, qu'ils utilisent Copilot ou non.  

Introducing the Microsoft 365 Copilot Early Access Program and new capabilities in Copilot | Microsoft 365 Blog

Introducing Microsoft 365 Copilot — your copilot for work

En savoir plus sur Microsoft 365 Copilot et notre 2023 Work Trend Index

En savoir plus sur Microsoft 365 Copilot sur notre blog Microsoft officiel et pour tous les blogs, vidéos et actifs liés à l'annonce d'aujourd'hui, veuillez  visiter notre microsite Copilot .

Lisez le Work Trend Index 2023 pour en savoir plus sur la façon dont l'IA est sur le point de transformer le travail pour tous.  

Introducing Microsoft 365 Copilot — your copilot for work


vendredi 5 mai 2023

Guide sur l'utilisation d'outils basés sur l'IA par les avocats et les cabinets d'avocats dans l'UE en 2022.

Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU 2022.


Le Conseil des barreaux européens (CCBE) et la Fondation européenne des avocats ont publié un guide sur l'utilisation d'outils basés sur l'intelligence artificielle par les avocats et les cabinets d'avocats dans l'UE en 2022¹³. Le guide a été lancé dans le cadre du projet AI4Lawyers et vise à éduquer et informer les professionnels du droit sur l'idée de l'IA, son utilisation et les différentes applications liées à l'IA³. Vous pouvez trouver le guide complet sur le site Web du CCBE¹.

¹: [Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU. 2022. Council of Bars and Law Societies of Europe. 
The voice of European Lawyers. Rue Joseph II, 40/8 - B-1000 Brussels +32 (0)2 234 65 10 | ccbe@ccbe.eu | www.ccbe.eu. European Lawyers Foundation.](https://www.algoritmolegal.com/wp-content/uploads/2022/04/CCBE-y-ELF-Guide-on-the-use-of-Artificial-Intelligence-by-Lawyers.pdf)

 

³: [Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU. AI4Lawyers Phase 3. This project has been funded with support from the European Union’s Justice Program. 
A presentation of the AI4LAWYERS project by Peter Homoki. JUST /JACC/EJU/AG/2019, Grant n: 881527. Outline.](https://homoki.net/assets/files/220331_CCBE_presentation_AI4Lawyers_Guide_on_the_use_of_AI_for_lawyers_and_law_firms.pdf)

 



Source : 
Conversation avec Bing, 05/05/2023

(1) Council of Bars and Law Societies of Europe - Algoritmo Legal. https://www.algoritmolegal.com/wp-content/uploads/2022/04/CCBE-y-ELF-Guide-on-the-use-of-Artificial-Intelligence-by-Lawyers.pdf Accédé à 05/05/2023. 
(2) Guide on the use of Artificial Intelligence-based tools by lawyers and .... https://christianaaristidou.com/2022/04/guide-on-the-use-of-artificial-intelligence-based-tools-by-lawyers-and-law-firms-in-the-eu/ Accédé à 05/05/2023.
(3) Guide on the use of Artificial Intelligence EU - Homoki. https://homoki.net/assets/files/220331_CCBE_presentation_AI4Lawyers_Guide_on_the_use_of_AI_for_lawyers_and_law_firms.pdf Accédé à 05/05/2023.


Ce guide a tenté de donner un aperçu des opportunités passionnantes que peuvent offrir les outils d'IA à la profession juridique, en mettant l'accent sur les avantages dont peuvent bénéficier les petits cabinets d'avocats et les risques auxquels ils doivent être attentifs. Aujourd'hui, il est déjà possible de dire que l'IA n'est pas en mesure de rendre la profession juridique obsolète et que ses outils ne mettront pas les avocats sur une voie similaire à celle des opérateurs d'ascenseurs. Cependant, en fonction de la manière dont la société sera transformée par l'utilisation et la dépendance à une telle technologie, les avocats devront également s'adapter et ajuster leurs flux de travail et leurs compétences.

La transformation ne se fera pas sans problèmes, et nous ne devrions pas oublier les dangers pour les droits de l'homme, les procès équitables et nos principes fondamentaux. Pour mieux préparer la défense de ces valeurs, les avocats, les barreaux et les sociétés de droit devraient comprendre les risques de transformation plus en profondeur, et cela ne peut être réalisé qu'en utilisant les outils d'IA avec prudence.

Cela doit être fait même si les outils actuels sont loin d'être parfaits, ou sont adaptés à des juridictions ou des langues différentes, exacerbé par le marché fragmenté des outils informatiques pour les avocats dans les États membres de l'UE. Les outils actuels peuvent ne pas fournir toutes les informations jugées nécessaires par les avocats et peuvent manquer de bon sens financier ou d'utilisabilité pratique. Mais il existe déjà des applications d'IA qui peuvent être essayées même par les plus petits cabinets d'avocats - bien sûr, avec suffisamment de prudence, dans des domaines à faible risque spécifiques, tout en comprenant la pertinence des risques énoncés dans ce guide.

L'utilisation de plus en plus d'outils d'IA est inévitable à long terme, car c'est quelque chose que toute profession ne peut éviter - néanmoins, les avocats doivent faire attention à ce que de tels outils soient utilisés de manière à ne pas nuire aux clients ou à l'État de droit, et que notre utilisation des outils ne réduise en aucune manière la protection pour les plus faibles qu'un système juridique est censé fournir.

Enfin, nous devons avertir que ce guide n'évalue que certaines zones de risque liées à l'IA. Les technologies mentionnées ici pourraient encore ne pas être souhaitables en ce qui concerne leurs implications, par exemple pour l'État de droit, les valeurs fondamentales de la profession ou les droits de l'homme.

--- 
Erol GIRAUDY 
https://www.erolgiraudy.eu


jeudi 4 mai 2023

The Next Wave of AI Innovation with Microsoft Bing and Edge

The new Microsoft Bing and Edge now features a more visual search with rich image and video answers. We've also shifted from single use chat sessions to a multi-session, context experience with chat history and persistent chat within Edge. Finally, Microsoft has opened platform capabilities so developers and third-parties can build on top of Bing and Edge to help people take actions on their searches and complete tasks. . Experience the future of search today: https://www.bing.com/chat