Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Alexandra Mendes

27 février 2024

Min Read

Guide d'ingénierie Chat GPT-4 Turbo Prompt pour les développeurs

Êtes-vous prêt à découvrir toute la puissance de ChatGPT? Imaginez disposer d'un outil linguistique qui peut vous aider de nombreuses manières, qu'il s'agisse de répondre à des questions, de créer du contenu amusant ou de donner des conseils personnalisés. C'est ici ingénierie rapide entre en jeu : une méthode puissante qui améliore le fonctionnement de Chat GPT en créant avec soin des invites et des instructions.

Dans cet article de blog, nous explorons les un monde passionnant d'ingénierie rapide, qui examine ses bases, ses techniques, ses meilleures pratiques et ses stratégies avancées, y compris pour créer un chatbot. Si vous êtes intéressé par ce que les modèles de langage peuvent faire, cet article est votre guide pour tirer le meilleur parti de ChatGPT-4 Turbo.

Préparez-vous à découvrir les secrets de l'ingénierie rapide et à modifier votre façon d'utiliser ChatGPT. Allons y plonger !

blue arrow to the left
Imaginary Cloud logo

Bref aperçu de ChatGPT

Tout d'abord, prenons un moment pour comprendre ce que Chat GPT tout tourne autour de. Développé par IA ouverte, Chat GPT est un modèle de langage avancé entraîné sur de vastes données textuelles, ce qui lui permet de générer des réponses semblables à celles d'un humain à diverses demandes. Sa capacité à comprendre et à développer des textes cohérents a attiré l'attention des professionnels de tous les secteurs.

Et maintenant il y a Tableau GPT-4 Turbo qui semble être une version mise à jour du modèle GPT-4 par OpenAI. Voici quelques points clés à ce sujet :

  • Plus performant: Le GPT-4 Turbo est décrit comme étant plus performant, ce qui suggère des améliorations dans sa capacité à comprendre et à générer du texte.
  • Connaissances actualisées: Il connaît les événements mondiaux jusqu'en avril 2023, ce qui signifie qu'il a été formé sur des données contenant des informations plus récentes que les modèles précédents.
  • Fenêtre contextuelle plus grande: Le modèle dispose d'une fenêtre contextuelle de 128 000 pixels, ce qui lui permet de traiter et de mémoriser des morceaux de texte beaucoup plus volumineux en une seule instance. Cela est important pour les tâches complexes qui nécessitent la compréhension de longs documents ou conversations.
  • Rentable pour les développeurs: Il est considéré comme trois fois moins cher pour les développeurs, ce qui pourrait le rendre plus accessible pour un plus large éventail d'applications et de services.
  • Intégration avec les outils: Il existe peut-être de nouveaux outils ou API spécialement conçus pour fonctionner avec GPT-4 Turbo, améliorant ainsi sa facilité d'utilisation pour la création de chatbots et d'autres applications interactives.

4 Strategies to Improve the Relevance of your Business  using Data Science
blue arrow to the left
Imaginary Cloud logo

Principes fondamentaux de l'ingénierie rapide

Une ingénierie rapide est essentielle pour optimiser l'utilité du puissant modèle de langage d'OpenAI, ChatGPT. Dans cette section, nous en examinerons les principes de base, notamment sa définition, le rôle des invites dans l'interaction avec ChatGPT et les nombreux éléments qui sous-tendent la sélection des invites.

Qu'est-ce que Prompt Engineering ?

Le processus stratégique de planification et de génération d'invites pour obtenir les réponses souhaitées via ChatGPT est appelé ingénierie rapide. Cela implique de créer méticuleusement des instructions et des entrées qui contrôlent le comportement du modèle et façonnent la qualité et la pertinence des résultats générés par le modèle.

Son importance réside dans sa capacité à améliorer les capacités de ChatGPT et à ajuster ses réponses à des activités ou à des objectifs spécifiques. Les utilisateurs peuvent expliquer leur intention avec succès et obtenir des informations précises et adaptées au contexte à partir du modèle en proposant des suggestions bien conçues.

Pourquoi les invites sont-elles essentielles à l'interaction avec ChatGPT ?

Les invites sont essentielles dans l'interaction entre les utilisateurs et ChatGPT. Ils fournissent le contexte requis pour que le modèle crée des réponses pertinentes et servent de point de départ aux discussions. Les utilisateurs peuvent orienter ChatGPT vers les résultats souhaités en structurant les instructions de manière claire et précise.

Selon les recherches, l'ingénierie rapide a un impact considérable sur les performances des modèles de langage. Selon une étude d'OpenAI sur l'amélioration de l'ingénierie des réponses rapides, des instructions bien conçues peuvent aider à prévenir les sorties nuisibles ou biaisées, à améliorer la précision des réponses générées et à permettre un meilleur contrôle du comportement du modèle.

Examinez les deux requêtes suivantes et les réponses ChatGPT qui les accompagnent :

Invite 1 :

ChatGPT prompt asking for suggestions for a dog's name


Invite 2 :

Chat GPT prompt engineering to ask for 5 suggestions for a dog's name, knowing the user is a big fan of movies


La deuxième invite donne une réponse plus particulière et plus significative.

Cet exemple met en évidence l'importance de la précision et de la clarté dans les instructions d'écriture.

Quelles sont les catégories rapides ?

Les invites sont des outils essentiels pour faciliter une communication fluide avec les modèles de langage d'IA.

Pour créer des invites de haute qualité, vous devez d'abord comprendre comment elles sont classées. Cela vous permet de les structurer efficacement en vous concentrant sur une réponse cible spécifique.

Les principales catégories de messages sont les suivantes :

1. Invitations à la recherche d'informations

Ces invites sont conçues pour recueillir des informations en posant des questions « Quoi » et « Comment ». Ils sont idéaux pour extraire des détails ou des faits spécifiques du modèle d'IA. Les exemples incluent :

  • Quels sont les avantages pour la santé d'une alimentation à base de plantes ?
  • Comment puis-je augmenter ma productivité au travail ?

2. Invitations basées sur des instructions

Des instructions basées sur des instructions indiquent au modèle d'IA d'effectuer une tâche spécifique. Ces instructions ressemblent à la façon dont nous interagissons avec les assistants vocaux tels que Siri, Alexa ou Google Assistant. Les exemples incluent :

  • Prenez rendez-vous chez le dentiste mardi prochain à 10 h.
  • Trouvez l'itinéraire le plus rapide pour vous rendre à l'aéroport.

3. Invitations contextuelles

Ces invites fournissent des informations contextuelles au modèle d'IA, ce qui lui permet de mieux comprendre la réponse souhaitée par l'utilisateur. En proposant du contexte, vous pouvez obtenir des réponses plus précises et pertinentes de la part de l'IA. Les exemples incluent :

  • Je suis novice en matière de jardinage. Quelles sont les plantes faciles à cultiver pour les débutants ?
  • Je souhaite organiser un dîner romantique pour mon partenaire. Pouvez-vous suggérer des recettes et des idées d'ambiance ?

4. Invites comparatives

Les invites comparatives sont utilisées pour évaluer ou comparer différentes options, aidant ainsi les utilisateurs à prendre des décisions éclairées. Ils sont particulièrement utiles pour évaluer les avantages et les inconvénients des différentes solutions. Les exemples incluent :

  • Quels sont les avantages et les inconvénients de la location par rapport à l'achat d'une maison ?
  • Comparez les performances des voitures électriques et des voitures à essence traditionnelles.

5. Invitations à la recherche d'opinions

Ces invites permettent d'obtenir l'opinion ou le point de vue de l'IA sur un sujet donné. Ils peuvent aider à générer des idées créatives ou à participer à des discussions qui suscitent la réflexion. Les exemples incluent :

  • Quel pourrait être l'impact potentiel de l'intelligence artificielle sur le marché du travail ?
  • Comment le monde pourrait-il changer si la téléportation devenait une réalité ?

6. Proggestions réfléchissantes

Les incitations à la réflexion aident les individus à mieux comprendre eux-mêmes, leurs croyances et leurs actions. Ils encouragent souvent la croissance personnelle et l'introspection sur la base d'un sujet ou d'une expérience personnelle. Il se peut que vous deviez fournir certaines informations générales pour obtenir la réponse souhaitée. Les exemples incluent :

  • Comment puis-je renforcer ma confiance en moi et surmonter mes doutes ?
  • Quelles stratégies puis-je mettre en œuvre pour maintenir un bon équilibre entre vie professionnelle et vie privée ?

Quels sont les facteurs qui influent sur une sélection rapide ?

La sélection rapide implique la prise en compte de nombreux éléments pour créer des invites efficaces. Ces éléments ont un impact sur la qualité, la pertinence et la précision des réponses de ChatGPT. Les facteurs essentiels à prendre en compte sont les suivants :

  1. Connaissances des modèles: Découvrez les avantages et les inconvénients de ChatGPT. Même les modèles de pointe tels que ChatGPT peuvent avoir besoin d'aide pour des tâches spécifiques ou produire de fausses données. Cette compréhension permet de créer des instructions qui capitalisent sur les points forts du modèle tout en minimisant ses défauts.
  2. Intention de l'utilisateur: Il est essentiel de comprendre l'intention de l'utilisateur de générer des réponses pertinentes. Les instructions doivent clairement refléter les attentes de l'utilisateur, afin de permettre à ChatGPT de fournir des informations pertinentes et correctes.
  3. Clarté et spécificité: Assurez-vous que l'invite est claire et explicite afin de minimiser l'ambiguïté ou l'incertitude, ce qui peut entraîner de mauvaises réponses.
  4. Spécificité du domaine: Lorsqu'il s'agit d'un domaine hautement spécialisé, envisagez d'utiliser un vocabulaire ou un contexte spécifique au domaine pour orienter le modèle vers la réponse attendue. L'ajout de contexte ou d'exemples peut aider le modèle à produire des résultats plus précis et pertinents.
  5. Restrictions: Déterminez si des limites (telles que la longueur ou le format des réponses) sont nécessaires pour obtenir le résultat souhaité. Les contraintes, telles que les limites de caractères ou les formats structurés, peuvent être spécifiées de manière explicite pour aider le modèle à générer des réponses répondant à des besoins spécifiques.

La prise en compte de ces éléments améliore les performances de ChatGPT et garantit que les réponses générées correspondent étroitement aux objectifs souhaités.

Il est essentiel de noter que l'ingénierie rapide est un sujet d'étude permanent, des améliorations et des raffinements constants étant apportés pour accroître l'interactivité et l'utilité des modèles de langage tels que Chat GPT.

Pour résumer :

blue arrow to the left
Imaginary Cloud logo

Quelles sont les techniques pour une ingénierie rapide efficace ?

Nous allons explorer ici plusieurs techniques qui peuvent être utilisées pour optimiser les invites et maximiser l'efficacité des interactions avec ChatGPT. Examinons ces techniques et comprenons leur signification.

Instructions claires et spécifiques

Des instructions claires et précises constituent la base. En fournissant des conseils explicites, les utilisateurs peuvent améliorer la qualité des réponses de ChatGPT. Recherche menée par OpenAI révèle que des instructions bien définies ont un impact significatif sur les performances des modèles linguistiques.

Invite 1 :

ChatGPT generic prompt asking about the wonders of universe
Prompt générique


Invite 2 :

ChatGPT specific prompt asking about black holes
Invite spécifique

Utilisation de contraintes explicites

L'intégration de contraintes explicites dans les instructions peut guider le processus de réflexion de ChatGPT et garantir des réponses plus précises et raisonnées. Les contraintes constituent des instructions supplémentaires qui façonnent le comportement du modèle et améliorent la pertinence des résultats générés.

Par exemple, lorsque vous recherchez des instructions étape par étape, l'intégration de contraintes telles que « Veuillez fournir un processus séquentiel détaillé » permet à ChatGPT de générer des instructions cohérentes et faciles à suivre. Les recherches d'OpenAI démontrent que l'utilisation de règles explicites conduit à des sorties plus contrôlées et plus alignées.

ChatGPT explicit constraint prompt asking about the benefits of ChatGPT in three sentences

Expérimenter avec le contexte et des exemples

Le contexte joue un rôle essentiel dans l'ingénierie rapide. En fournissant un contexte et des exemples pertinents dans les instructions, les utilisateurs peuvent améliorer la compréhension de ChatGPT et l'aider à générer des réponses plus précises et adaptées au contexte.

Par exemple, l'intégration d'un contexte pertinent dans l'invite permet à ChatGPT de fournir des réponses plus éclairées lorsque vous demandez des informations sur un sujet spécifique.

Invite 1 :

ChatGPT without context prompt asking about the benefits of exercise
Rapide sans contexte


Invite 2 :

ChatGPT with context prompt asking about the benefits of exercise
Rapide avec le contexte et le résultat souhaité


Cette invite riche en contexte permet à ChatGPT de générer des réponses correspondant à un domaine d'intérêt spécifique.

Tirer parti des questions du système 1 et du système 2

Les questions du système 1 et du système 2 fournissent une approche équilibrée pour une ingénierie rapide. Les questions du système 1 suscitent des réponses rapides et instinctives, tandis que les questions du système 2 exigent des réponses réfléchies et détaillées. La combinaison des deux types de questions ajoute de la variété et de la profondeur aux interactions avec ChatGPT.

Ainsi, tirer parti des requêtes du Système 1 et du Système 2 dans le cadre d'une ingénierie rapide est une approche qui peut influencer le type de réponses fournies par ChatGPT.

Les utilisateurs peuvent demander à ChatGPT de générer des réponses répondant à leurs besoins en incluant des questions du Système 1 et du Système 2 dans les invites. Prenons l'exemple suivant pour illustrer ce concept :

Exemple : Chatbot de suggestions de voyage


Dans cet exemple, la requête System 1 invite ChatGPT à fournir des recommandations rapides pour les principaux sites touristiques de Paris. Les utilisateurs à la recherche de conseils sur les itinéraires de voyage courts bénéficieraient d'informations brèves et faciles à digérer. Des attractions telles que le musée du Louvre, la cathédrale Notre-Dame et les Champs-Élysées pourraient être incluses dans la réponse.

L'enquête System 2 encourage ChatGPT à explorer la pertinence historique et les aspects architecturaux d'un monument particulier, comme la Tour Eiffel. Cette réponse serait utile aux utilisateurs qui souhaitent mieux comprendre et comprendre l'attraction. La réponse pourrait inclure des détails sur la construction de la tour pour l'Exposition universelle de 1889, le design de Gustave Eiffel et sa célèbre charpente en treillis de fer.

Les utilisateurs peuvent obtenir des recommandations rapides et des explications plus détaillées en incluant les demandes du système 1 et du système 2. Cela permet au chatbot de recommandations de voyages de s'adapter aux différents goûts des utilisateurs, en fournissant des suggestions pratiques tout en répondant à la curiosité des personnes intéressées par les caractéristiques historiques et architecturales des sites.

Contrôler la verbosité de la sortie

Le contrôle de la verbosité des réponses ChatGPT est un élément essentiel de l'ingénierie rapide. Il permet aux clients de contrôler le niveau de détail et la longueur des sorties générées. Examinez l'exemple suivant pour voir comment la verbosité de sortie peut être gérée :

Invite 1 :

ChatGPT low verbosity prompt asking about chocolate chip cookies' recipe
Invite de faible niveau de verbosité


Invite 2 :

ChatGPT high verbosity prompt asking about chocolate chip cookies' recipe
Invite à un niveau de verbosité élevé


Le chatbot fait preuve d'une grande verbosité dans cette réponse en présentant une recette détaillée étape par étape. Il contient des explications et des conseils supplémentaires pour aider les utilisateurs à naviguer dans le processus de cuisson. Ce niveau de profondeur convient aux personnes qui souhaitent obtenir des instructions détaillées, en particulier celles qui débutent en pâtisserie ou qui apprécient une approche plus globale.

De cette façon, le chatbot peut s'adapter aux différentes préférences des utilisateurs et optimiser l'expérience de conversation en régulant la verbosité des réponses, ce qui lui permet de fournir des réponses pertinentes à leurs besoins et d'améliorer leur connexion.

blue arrow to the left
Imaginary Cloud logo

Quelles sont les meilleures pratiques d'ingénierie rapide ?

L'ingénierie rapide est un processus dynamique qui implique beaucoup de réflexion et d'expérimentation pour obtenir les meilleurs résultats. Dans cette section, nous examinerons les meilleures pratiques pour aider les utilisateurs à tirer le meilleur parti de leurs interactions avec ChatGPT. Examinons ces pratiques et voyons ce qu'elles signifient.

Tests itératifs et améliorations

L'efficacité des instructions repose en grande partie sur des tests itératifs et raffinement. Les utilisateurs peuvent affiner les instructions et améliorer la qualité des réponses de ChatGPT au fil du temps en examinant régulièrement les résultats et en ajustant les instructions en conséquence.

Itération 1 :

ChatGPT iteration prompt asking to remind to buy groceries


Itération 2 :

ChatGPT iteration prompt asking to remind to buy groceries


Itération 3 :

ChatGPT iteration prompt asking to remind to buy groceries

Trouver un équilibre entre l'intention de l'utilisateur et la créativité du modèle

Il est essentiel de trouver un équilibre entre l'intention de l'utilisateur et la créativité du modèle. Pensez au chatbot d'inspiration d'écriture suivant, qui s'efforce de fournir des instructions appropriées tout en favorisant la créativité :

Demande de l'utilisateur : « J'ai besoin d'idées pour une histoire fantastique. »

Prompt : « Imaginez un monde où la magie est étroitement liée à la vie de tous les jours. Décrivez un individu doté d'un pouvoir magique distinct et sa quête pour sauvegarder un artefact perdu depuis longtemps. Utilisez cette invite pour créer votre propre histoire imaginaire. »

Réponse : « Une jeune sorcière nommée Elysia possède la rare capacité de manipuler les éléments d'un monde magique. Elle entreprend un voyage périlleux pour protéger un puissant artefact des forces obscures. En cours de route, elle rencontre divers personnages dotés de talents magiques, élucidant des mystères et sauvant leur monde d'une catastrophe imminente. »


Le chatbot donne des instructions appropriées qui encouragent l'imagination tout en restant cohérent avec les objectifs d'écriture de l'utilisateur en équilibrant l'intention de l'utilisateur et en stimulant la créativité du modèle.

Utilisation de ressources externes et d'API

L'exploitation de ressources externes et d'API est une technique puissante qui permet à ChatGPT de tirer parti d'informations supplémentaires et d'améliorer ses réponses. Explorons un exemple pour comprendre comment les ressources externes et les API peuvent être utilisées :

Exemple : Chatbot d'informations météorologiques

Le chatbot peut s'intégrer à une API météo externe, telle que Weather.com, pour fournir des informations météorologiques précises. Le chatbot peut récupérer des données météorologiques en temps réel pour l'endroit spécifié en effectuant un appel d'API.

Intégration de l'API :


Le obtenir_météo ()La fonction ci-dessus montre un exemple d'intégration avec WeaTherapi, qui renvoie les conditions météorologiques et la température en degrés Celsius pour une ville donnée.

Génération de réponses :


Réponse générée :
« Le temps à New York est aujourd'hui partiellement nuageux. La température est de 22 °C. »

En exploitant des ressources externes et des API, le chatbot récupère des informations météorologiques précises et les intègre à la réponse. Cela fournit aux utilisateurs des mises à jour météorologiques en temps réel adaptées à leur position géographique.

L'intégration avec des ressources externes et des API permet à ChatGPT d'exploiter une multitude d'informations au-delà de ses données de formation, ce qui lui permet de fournir des réponses plus pertinentes et plus fiables aux requêtes des utilisateurs.

Exemple d'API OpenAI

Cette API permet aux développeurs d'intégrer ChatGPT à leurs applications, produits ou services. Voici un exemple qui montre comment API OpenAI peut être utilisé :



Dans cet exemple, nous définissons ask_chatbot () fonction, qui saisit la question d'un utilisateur et un historique des discussions en option. La fonction met en forme l'historique des discussions et les questions des utilisateurs, puis effectue un appel d'API à l'aide du Ouvrez AI.Completion.create () méthode.

La réponse de l'API contient la réponse générée par ChatGPT. Nous extrayons la réponse de la réponse et ajoutons la question de l'utilisateur et la réponse du chatbot à l'historique des discussions. Enfin, la réponse générée est renvoyée.

En utilisant cette API, les développeurs peuvent intégrer les fonctionnalités de ChatGPT dans leurs applications, permettant aux utilisateurs d'interagir avec le chatbot et de recevoir des réponses en fonction de leurs requêtes.

Éviter les biais et garantir une utilisation éthique

ChatGPT doit être utilisé de manière éthique et sans parti pris. Voici un exemple de l'importance de ces pratiques :

Exemple : sélection des candidats à un poste grâce à l'IA

Imaginez un système d'intelligence artificielle qui analyse les réponses aux entretiens à l'aide de ChatGPT pour sélectionner les candidats. Le dépistage doit être éthique et exempt de biais.

Les mesures suivantes peuvent réduire les préjugés et garantir l'équité :

  1. Données d'entraînement diversifiées: Utilisez diverses données relatives à la race, au sexe et à l'origine ethnique pour affiner ChatGPT. Il est essentiel de traiter les données d'entraînement biaisées dès le départ, car elles peuvent entraîner des biais.
  2. Évaluation des biais: Évaluez régulièrement les réponses des modèles afin d'identifier et de réduire les biais. Utilisez la parité démographique et l'égalité des chances pour voir si les suggestions du modèle varient en fonction de facteurs protégés tels que le sexe ou la race. Les ajustements devraient réduire les biais.
  3. Directives transparentes: Communiquez les directives du système aux réviseurs humains et aux développeurs. Ces normes devraient mettre l'accent sur la justice, l'éthique et la prévention des préjugés. Donnez des instructions explicites pour éviter de favoriser ou de discriminer des groupes spécifiques lors du dépistage.
  4. Critique de Human-in-the-Loop: Demandez à des humains d'analyser les réponses du système. Cette étape permet de détecter les biais du modèle et garantit que les humains peuvent prendre en compte le contexte et prendre des décisions équitables.
  5. Surveillance continue et feedback: Surveillez en permanence les performances du système et collectez les commentaires des utilisateurs et des réviseurs. Vérifiez les sorties du système pour détecter les biais et les effets inattendus. Les boucles de feedback permettent de résoudre rapidement les difficultés.
  6. Bassin d'évaluateurs diversifié: Veiller à ce que l'équipe chargée d'examiner et d'affiner les résultats du système soit composée de personnes d'horizons divers. Des groupes diversifiés peuvent repérer et éliminer les préjugés qui échappent à des groupes homogènes.

Ces pratiques aident le système de sélection des candidats à l'emploi alimenté par l'IA à éviter les préjugés et à évaluer les candidats en fonction de leurs compétences et de leurs qualifications.

blue arrow to the left
Imaginary Cloud logo

Quelles sont les stratégies avancées d'ingénierie rapide ?

L'ingénierie rapide va au-delà des éléments de base pour inclure des tactiques innovantes visant à optimiser davantage les performances et l'adaptabilité de ChatGPT. Cette section examine les stratégies avancées, telles que le contrôle de la température et des jetons, l'enchaînement des messages pour les discussions à plusieurs tours, la modification des instructions pour des applications spécifiques à un domaine et la gestion des entrées utilisateur confuses ou contradictoires.

Gestion de la température et des jetons

Le contrôle de la température et des jetons est une méthode efficace pour affiner le comportement de ChatGPT. Les utilisateurs peuvent modifier le caractère aléatoire de la sortie générée à l'aide du contrôle de la température. Des températures plus basses, telles que 0,2, créent des réponses plus ciblées et déterministes, tandis que des températures plus élevées, telles que 1,0, produisent des résultats plus variables et exploratoires.

Les recherches d'OpenAI révèlent l'effet du contrôle de la température sur la diversité de réponse au ChatGPT. Les utilisateurs peuvent obtenir la combinaison idéale entre proposer des réponses compréhensibles et intégrer de nouvelles fonctionnalités aux réponses générées en expérimentant différents réglages de température.

Invite 1 :

ChatGPT low temperature prompt asking to write a poem
Une température plus basse permet d'obtenir un résultat plus ciblé


Invite 2 :

ChatGPT high temperature prompt asking to write a poem
Une température plus élevée invite à un résultat plus créatif


Le contrôle des jetons nécessite de spécifier le nombre maximum de jetons pour limiter la longueur de la réponse. Cela permet aux utilisateurs de contrôler la verbosité de la sortie de ChatGPT et de recevoir des réponses brèves et précises. Les utilisateurs peuvent vérifier que ChatGPT fournit des réponses qui correspondent à la longueur de réponse souhaitée en établissant des limites de jetons appropriées.

Enchaînement rapide et conversations à plusieurs tours

Le chaînage rapide et les conversations à plusieurs tours permettent des interactions plus interactives et dynamiques avec ChatGPT. Au lieu de se fier à des instructions uniques, les utilisateurs peuvent les enchaîner pour créer un flux de conversation continu. Chaque invite peut faire référence aux entrées précédentes ou aux réponses précédentes de ChatGPT, ce qui permet une conversation riche en contexte.

En intégrant le chaînage rapide, les utilisateurs peuvent créer une expérience plus conversationnelle et participer à des interactions va-et-vient avec ChatGPT. Cette technique est utile pour les tâches nécessitant des instructions en plusieurs étapes ou des discussions détaillées.

Exemple :

ChatGPT chaining prompt asking what to visit in Paris
ChatGPT chaining prompt asking about the weather in Paris

Adaptation des instructions pour les applications spécifiques à un domaine

L'adaptation des instructions pour les applications spécifiques à un domaine est un aspect essentiel de l'ingénierie rapide. Cela implique d'adapter les instructions à des industries ou à des domaines spécifiques afin de garantir des réponses pertinentes et précises. Explorons un exemple pour illustrer comment les instructions peuvent être adaptées à une application spécifique à un domaine :

Exemple : chatbot de diagnostic médical


Pour adapter l'invite d'un chatbot de diagnostic médical, il faut intégrer la terminologie médicale, les symptômes et les considérations diagnostiques pertinents.


L'invite adaptée prend en compte les symptômes de l'utilisateur et l'informe des limites de l'évaluation. La réponse générée par le chatbot peut fournir des recommandations initiales sur la base des informations fournies :


En adaptant l'invite à un chatbot de diagnostic médical, la réponse s'aligne sur l'application spécifique au domaine et fournit des recommandations initiales tout en soulignant l'importance d'un avis médical professionnel.

Gestion des entrées utilisateur ambiguës ou contradictoires

Une ingénierie rapide nécessite de gérer les entrées utilisateur peu claires ou contradictoires. ChatGPT doit gérer ces entrées avec soin et répondre de manière significative. Explorons un exemple pour illustrer comment cela peut être réalisé :

Exemple : Chatbot de recommandation de restaurants


Dans ce cas, l'utilisateur souhaite des steaks et des options végétariennes. Le chatbot peut clarifier les points suivants :


Le chatbot demande des éclaircissements pour mieux comprendre la demande de l'utilisateur et fournir une recommandation plus précise.


Une fois que l'utilisateur a indiqué ses préférences, le chatbot peut répondre :


En dialoguant activement avec le client et en recherchant des éclaircissements, le chatbot gère l'ambiguïté de la requête initiale, comprend les souhaits de l'utilisateur et recommande un restaurant correspondant à sa demande.

La gestion des entrées utilisateur contradictoires est similaire. Le chatbot peut clarifier les objectifs de l'utilisateur et fournir une solution s'il souhaite un repas bon marché mais luxueux.

Etudes de cas

Voici quelques exemples de cas à examiner.

Chatbots d'assistance à la clientèle

Les chatbots du service client améliorent le service client et le temps de réaction. Une ingénierie rapide peut améliorer la précision et l'efficacité des chatbots, améliorant ainsi l'expérience client.

Il aide les chatbots à apprendre et à répondre aux demandes des clients, ce qui rend les interactions plus personnalisées et plus efficaces.

Exemple : Générateur de chatbot HubSpot, qui permet de réserver des réunions, de créer des liens vers des articles d'assistance en libre-service et de s'intégrer à un système de billetterie

Création et édition de contenu

La création et l'édition de contenu nécessitent une ingénierie rapide. ChatGPT aide les utilisateurs à rédiger de superbes articles de blog, des e-mails et des articles créatifs.

Les utilisateurs peuvent aider ChatGPT à développer du texte qui correspond à leur style, à leur ton et à leur objectif en fournissant des instructions spécifiques et détaillées. Les invites peuvent fournir des informations générales, des exemples ou des limites explicites pour garantir que le contenu généré répond aux critères.

OpenAI a étudié l'ingénierie rapide pour améliorer la cohérence et la pertinence du contenu, afin que les utilisateurs puissent générer du texte plus attrayant et plus pertinent en expérimentant des suggestions et en économisant du temps d'édition.

Recherche de connaissances spécifiques à un domaine

L'ingénierie rapide permet de récupérer efficacement les connaissances spécifiques à un domaine. ChatGPT peut être entraîné sur d'énormes quantités de données spécifiques à un domaine afin de fournir des informations précises et pertinentes sur le sujet.

Les utilisateurs peuvent demander à ChatGPT de récupérer des connaissances spécifiques à un domaine en personnalisant les invites et en ajoutant des mots clés ou du contexte. Les informations correctes sont essentielles dans des secteurs tels que la santé, le droit, la finance et la technologie.

Ses stratégies favorisent la recherche de connaissances spécifiques à un domaine, fournissant aux consommateurs des informations précises et à jour.

Narration et jeux interactifs

Une ingénierie rapide rend la narration interactive et les jeux passionnants. ChatGPT répond aux entrées des utilisateurs et gère l'histoire.

Les utilisateurs peuvent créer des histoires et des jeux immersifs en utilisant des instructions présentant les éléments du conte, les choix de l'utilisateur ou les mécanismes de jeu. Des enchaînements rapides et des discussions à plusieurs tours permettent des récits riches et des interactions de jeu riches.

Exemple : Le donjon IA d'OpenAI montre à quel point l'ingénierie rapide peut modifier la narration interactive et les jeux vidéo. AI Dungeon permet aux utilisateurs de collaborer sur des récits dynamiques via des invites.

blue arrow to the left
Imaginary Cloud logo

Ingénierie rapide de ChatGPT pour les développeurs

Deep Learning AI a récemment lancé une technologie exceptionnelle cours intitulé »ChatGPT Prompt Engineering pour les développeurs, » dirigé par Isa Fulford et Andrew Ng.

Au cours du cours, ils soulignent que le potentiel des grands modèles de langage (LLM) en tant qu'outil de développement, utilisant des appels d'API aux LLM pour un développement rapide d'applications logicielles, est encore sous-estimé. Ils visent à partager les possibilités et les meilleures pratiques pour tirer parti efficacement des LLM. Le cours couvre la promotion des meilleures pratiques pour le développement de logiciels, des cas d'utilisation quotidiens tels que la synthèse, l'inférence, la transformation et l'extension, et la création d'un chatbot à l'aide d'un LLM.

Le modèle ChatGPT d'OpenAI, en particulier GPT 3.5 Turbo, et Python (en particulier dans un Jupyter Notebook) sont utilisés tout au long du cours.

Voici donc quelques enseignements :

1. Deux principes :

Principe 1 : Rédiger des instructions claires et précises

Il est essentiel d'exprimer des instructions claires et spécifiques pour orienter le modèle de manière efficace et réduire la probabilité de réponses non pertinentes ou incorrectes. Évitez de confondre une invite claire avec une invite courte, car les invites plus longues fournissent souvent plus de clarté et de contexte, ce qui donne des résultats détaillés et pertinents.

  • Tactique 1: utilisez des délimiteurs pour indiquer des parties distinctes de l'entrée, telles que des guillemets triples (« '), des triples backticks (' * '), des triples tirets (' --- '), des crochets angulaires (‹ ›) ou des balises XML (‹tag› ‹/tag›). Les délimiteurs permettent également d'éviter les injections rapides, lorsque des instructions d'utilisation contradictoires peuvent mal orienter le modèle.

  • Tactique 2: demandez une sortie structurée telle que HTML ou JSON pour faciliter l'analyse des réponses du modèle.


Result from request structured output like HTML or JSON

  • Tactique 3: Vérifiez si les hypothèses relatives à la tâche sont satisfaites. Demandez au modèle de vérifier d'abord ces hypothèses et d'indiquer toute condition non satisfaite sans tenter d'achever complètement la tâche. Envisagez les cas limites potentiels pour vous assurer que le modèle les gère correctement et évite les erreurs ou les résultats inattendus.

Result from check whether conditions are satisfied

  • Tactique 4: utilisez les instructions en quelques étapes en fournissant des exemples de tâches exécutées avec succès avant de demander au modèle d'effectuer la tâche souhaitée.

Result from few-shot prompting

Principe 2 : donner au modèle le temps de réfléchir

Laissez au modèle suffisamment de temps pour réfléchir et raisonner au problème afin d'éviter les erreurs de raisonnement et les conclusions prématurées. Les tâches complexes peuvent nécessiter des instructions étape par étape ou une chaîne de raisonnements pertinents avant que le modèle ne fournisse une réponse finale.

  • Tactique 1: Spécifiez les étapes à suivre pour effectuer une tâche, en particulier lorsque les réponses directes sont difficiles. Comme pour la résolution de problèmes humains, demandez au modèle de suivre une série d'étapes de raisonnement appropriées avant de fournir la solution finale.

Result from specify the steps to complete a task

  • Tactique 2: Demandez au modèle de trouver sa solution avant de tirer une conclusion. Demander explicitement au modèle de raisonner et de délibérer avant de fournir une réponse donne souvent de meilleurs résultats. Cette approche permet au modèle de traiter et d'obtenir des réponses précises.
Result from instruct the-model to find its solution before reaching a conclusion

En suivant ces principes et tactiques, les développeurs peuvent optimiser leur utilisation des LLM et obtenir les résultats souhaités en matière de développement de logiciels.

2. Développement rapide itératif :

Le processus de développement rapide itératif ressemble beaucoup aux pratiques de codage. Cela implique d'essayer différentes approches, de les affiner et de les réessayer si nécessaire. Voici les étapes à suivre :

  • Essayez de trouver une solution.
  • Analysez les résultats pour identifier tout écart par rapport au résultat souhaité.
  • Clarifiez les instructions et accordez plus de temps à la délibération.
  • Affinez les instructions à l'aide d'une série d'exemples.
  • Répétez le processus.

Dans l'exemple de cours, les formateurs ont présenté une étude de cas sur la génération de textes marketing à partir d'une fiche produit. Ils ont abordé et résolu de manière itérative trois problèmes critiques en affinant les instructions à chaque étape :

Numéro 1: Texte long -> Solution : Limitez le texte à un maximum de 50 mots.

Numéro 2: Concentrez-vous sur les détails non pertinents -> Solution : intégrez le public cible, par exemple « La description est destinée aux détaillants de meubles... »

Numéro 3: Absence de tableau des dimensions dans la description -> Solution : Formatez tout au format HTML.

3. Capacités :

En résumé :

Les grands modèles linguistiques ont été largement utilisés pour la synthèse de textes. Vous pouvez demander des résumés axés sur le prix et la valeur en fournissant des instructions spécifiques.

Et vous pouvez également écrire une boucle for pour résumer plusieurs textes :

En déduire :

Les LLM peuvent déduire divers aspects sans formation spécifique. Ils peuvent déterminer les sentiments, les émotions, extraire les noms de produits et d'entreprises, figurer des sujets, etc.

Inferring

Transformation :

Les LLM excellent dans les tâches de transformation de texte, notamment la traduction linguistique, la vérification orthographique et grammaticale, l'ajustement du ton et la conversion de format.

Result from transforming

Expansion :

Large Language Models peut générer des e-mails de service client personnalisés adaptés à l'avis de chaque client.



Result from expanding

Développement d'un chatbot :

L'un des aspects fascinants de l'utilisation d'un LLM est la possibilité de créer un chatbot personnalisé sans effort. L'interface Web de ChatGPT offre une plateforme conversationnelle basée sur un modèle de langage robuste. Cependant, le véritable intérêt réside dans l'exploitation des capacités d'un LLM pour créer vos chatbots, comme un agent du service client intelligent ou un preneur de commandes IA pour un restaurant.

Dans ce cas, nous appellerons le chatbot « OrderBot ». L'objectif est d'automatiser la collecte des demandes des utilisateurs et des réponses des assistants pour créer cet « OrderBot » efficace. Principalement conçue pour la prise de commandes dans une pizzeria, la première étape consiste à définir une fonction utile. Cette fonction facilite la collecte des messages des utilisateurs, éliminant ainsi la nécessité d'une saisie manuelle. Les instructions recueillies à partir d'une interface utilisateur créée ci-dessous sont ensuite ajoutées à une liste appelée « contexte ». Ensuite, le modèle est invoqué avec ce contexte pour chaque interaction.

La réponse du modèle est intégrée au contexte, ce qui garantit que les messages du modèle et de l'utilisateur sont conservés, ce qui contribue à la croissance du contexte. Cette accumulation d'informations permet au modèle de déterminer les mesures appropriées à prendre.

Enfin, l'interface utilisateur est configurée et exécutée pour afficher l'OrderBot. Le contexte, qui inclut le message système contenant le menu, reste cohérent pour chaque interaction avec le modèle de langage. Il évolue régulièrement à mesure que de nouvelles interactions se produisent, ce qui permet de conserver un enregistrement complet des conversations.

Result from building a chatbot
blue arrow to the left
Imaginary Cloud logo

Réflexions finales

L'ingénierie rapide change la donne pour ChatGPT. En maîtrisant cette technique, vous pouvez façonner et orienter les réponses du modèle linguistique pour répondre à vos besoins spécifiques.

L'avenir s'annonce prometteur, la recherche continue et la collaboration étant le moteur de l'innovation. À mesure que les modèles linguistiques évoluent, l'ingénierie rapide jouera un rôle central dans l'exploitation de leur plein potentiel.

L'ingénierie rapide de ChatGPT ouvre des options illimitées. Nous pouvons transformer nos interactions avec les modèles linguistiques en mettant en œuvre des techniques efficaces et en explorant des stratégies avancées. Il transforme les chatbots du service client, le développement de contenu et les jeux, en permettant la collaboration homme-IA.

Si vous souhaitez en savoir plus sur notre services de science des données, y compris l'IA et le traitement du langage naturel (NLP), nous vous invitons à explorer le Le service de science des données d'Imaginary Cloud. Nous sommes experts dans la fourniture de solutions basées sur l'IA pour aider les entreprises à exploiter la puissance de l'intelligence artificielle.

blue arrow to the left
Imaginary Cloud logo

FAQs

Qu'est-ce que l'ingénierie rapide dans ChatGPT ?

Ingénierie rapide est le processus qui consiste à concevoir des invites et des instructions efficaces pour communiquer l'intention de l'utilisateur à un modèle de langage tel que ChatGPT. Il permet d'obtenir des réponses précises, pertinentes et utiles à partir du modèle.

Pourquoi l'ingénierie rapide est-elle importante pour ChatGPT ?

Ingénierie rapide est essentiel pour optimiser l'efficacité de ChatGPT. En élaborant des instructions bien conçues, les utilisateurs peuvent guider le modèle afin de générer des résultats plus précis et pertinents, ce qui en fait un outil précieux pour diverses applications.

Quelles sont les techniques permettant une ingénierie rapide et efficace ?

Les techniques incluent :

  • Fournir des instructions claires et spécifiques
  • Utilisation de contraintes explicites
  • Expérimenter avec le contexte et des exemples
  • Tirer parti des questions du système 1 et du système 2
  • Contrôler la verbosité de la sortie

Comment puis-je améliorer mes instructions pour améliorer les performances de ChatGPT ?

Pour améliorer vos instructions, vous pouvez :

  • Testez-les et affinez-les de manière itérative
  • Équilibrer l'intention de l'utilisateur et la créativité du modèle
  • Utilisez des ressources externes et des API pour améliorer les fonctionnalités de ChatGPT
  • Garantir une utilisation éthique et éviter les biais dans les invites et les sorties

Voici également un Aide-mémoire ChatGPT pour vous aider à rédiger des instructions de démarrage efficaces.

Quelles sont les stratégies avancées pour une ingénierie rapide ?

Les stratégies avancées incluent :

  • Contrôle de la température et des paramètres des jetons pour le caractère aléatoire et la longueur de réponse
  • Création de conversations en plusieurs étapes grâce à un enchaînement rapide
  • Adaptation des instructions pour les applications spécifiques à un domaine
  • Gestion des entrées utilisateur ambiguës ou contradictoires

Artificial Intelligence Solutions  done right - CTA
blue arrow to the left
Imaginary Cloud logo
blue arrow to the left
Imaginary Cloud logo
Alexandra Mendes
Alexandra Mendes

Rédacteur de contenu curieux de l'impact de la technologie sur la société. Toujours entouré de livres et de musique.

Read more posts by this author

People who read this post, also found these interesting:

arrow left
arrow to the right
Dropdown caret icon