Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Alexandra Mendes

27. Februar 2024

Min Read

Chat GPT-4 Turbo Prompt Engineering-Leitfaden für Entwickler

Bist du bereit, die zu entdecken volle Leistung von ChatGPT? Sie ist schon da, du hast ein Sprachtool, mit dem du ihnen aus verschiedenen Perspektiven weiterhelfen kannst — von der Beantwortung von Fragen zur Produktion unterhaltsamer Inhalte an ihn bis hin zur persönlichen Beratung. Tage sind zwei schnelles Engineering ist im Spiel — eine starke Methode, mit dem Chat funktioniert GPT besser, wenn Anforderungen und Anweisungen sorgfältig erstellt werden.

In diesem Blogbeitrag untersuchen wir spannende Welt des Prompt-Engineerings, die sich mit den Grundlagen, Techniken, Best Practices und fortschrittlichen Strategien befasst, bis hin zur Entwicklung eines Chatbots. Wenn Sie daran interessiert sind, was Sprachmodelle können, ist dieser Artikel Ihr Leitfaden, um das Beste aus ChatGPT-4 Turbo herauszuholen.

Mach dich bereit, die Geheimnisse des Prompt Engineering zu erlernen und die Art und Weise zu ändern, wie du ChatGPT benutzt. Lass uns eintauchen!

blue arrow to the left
Imaginary Cloud logo

Ein kurzer Überblick über ChatGPT

nehmen wir uns zunächst einen Moment Zeit, um zu verstehen, was GPT-Chat dreht sich alles darum. Entwickelt von Öffne es, Chat GPT ist ein fortgeschrittenes Sprachmodell mit riesigen Textdaten trainiert, sodass menschenähnliche Antworten auf verschiedene Eingabeaufforderungen generieren können. Ihre Fähigkeit, kohärente Texte zu verstehen und zu entwickeln, hat die Aufmerksamkeit von Fachkräften aus allen Branchen auf sich gezogen.

Und jetzt gibt es Chat GPT-4 Turbo das scheint eine aktualisierte Version des GPT-4-Modells von OpenAI zu sein. Hier sind einige wichtige Punkte dazu:

  • Leistungsfähiger: GPT-4 Turbo wird als leistungsfähiger beschrieben, was auf Verbesserungen bei der Fähigkeit hindeutet, Text zu verstehen und zu generieren.
  • Aktualisiertes Wissen: Es verfügt über Kenntnisse über das Weltgeschehen bis April 2023, was bedeutet, dass es anhand von Daten geschult wurde, die aktuellen Informationen enthalten als frühere Modelle.
  • Größeres Kontextfenster: Das Modell verfügt über ein 128K-Context-Fenster, das es ermöglicht, viel größere Textblöcke in einer einzigen Instanz zu verarbeiten und sich daran zu erinnern. Dies ist wichtig für komplexe Aufgaben, die das Verstehen langer Dokumente oder Konversationen erfordern.
  • Praktisch für Entwickler: Es wird erwähnt, dass es für Entwickler dreimal billiger ist, was es für ein breiteres Spektrum von Anwendungen und Diensten zugänglich machen könnte.
  • Integration mit Tools: Das können neue Tools oder APIs sein, die für die Arbeit mit GPT-4 Turbo entwickelt wurden und die Benutzerfreundlichkeit für die Produktion von Chatbots und anderen interaktiven Anwendungen verbessern.

4 Strategies to Improve the Relevance of your Business  using Data Science
blue arrow to the left
Imaginary Cloud logo

Schnelle technische Grundlagen

Schnelles Engineering ist entscheidend, um die Nutzung der leistungsstarken Sprachmodelle von OpenAI, ChatGPT, zu maximieren. In diesem Abschnitt werden wir mit den Grundlagen, einschließlich seiner Definition, der Rolle von Prompts bei der Interaktion mit ChatGPT und den vielen Elementen, die die Prompt-Auswahl ausmachen, vertraut gemacht.

Was ist Prompt Engineering?

Der strategische Prozess der Planung und Generierung von Aufforderungen, um die erforderlichen Antworten über ChatGPT abzurufen, ist schnelles Engineering. Es beinhaltet die kritische Erstellung von Anweisungen und Eingaben, die das Verhalten der Modelle sowie die Qualität und Relevanz der modellgenerierten Ergebnisse beeinflussen.

Ihre Bedeutung liegt in ihrer Fähigkeit, die Fähigkeiten von ChatGPT zu verbessern und seine Reaktionen an bestimmte Aktivitäten oder Ziele anzupassen. Benutzer können ihre Ansicht erfolgreich und präzise und kontextbezogene Informationen aus dem Modell erstellen, wenn sie gut genutzte Vorschläge machen.

Warum sind Eingabeaufforderungen für die ChatGPT-Interaktion unerlässlich?

Eingabegebühren sind für die Interaktion zwischen Benutzern und ChatGPT erforderlich. Sie geben dem Modell den erforderlichen Kontext, um relevante Antworten darauf zu geben, und dienen als Zugangspunkt für Vorlesungen. Benutzer können ChatGPT bei den gewünschten Ergebnissen anzeigen, wenn sie die Anweisungen klar und spezifisch strukturieren.

Untersuchungen zufolge Prompt Engineering wirkt sich erheblich auf die Leistung von Sprachmodellen aus. Eine OpenAI-Studie zur Verbesserung des Prompt-Engineerings kann klar definierte Eingaben beinhalten, um Schäden oder verzerrte Ergebnisse zu verhindern, die Genauigkeit der generierten Reaktion zu erhöhen und das Verhalten der Modelle besser kontrollieren zu können.

Sie sehen die folgenden zwei Fragen und die zugehörigen ChatGPT-Antworten:

Anfrage 1:

ChatGPT prompt asking for suggestions for a dog's name


Anfrage 2:

Chat GPT prompt engineering to ask for 5 suggestions for a dog's name, knowing the user is a big fan of movies


Die zweite Anfrage liefert eine spezifische und aussagekräftigere Antwort.

Dieses Beispiel zeigt, was Präzision und Klarheit beim Schreiben von Aufforderungen bedeuten.

Was sind Aufforderungskategorien?

Ingabeaufforderungen sind wichtige Tools, um eine nahtlose Kommunikation mit KI-Sprachmodellen zu ermöglichen.

Um qualitativ hochwertige Eingangsanforderungen zu erstellen, müssen sie zunächst verstehen, wie sie klassifiziert sind. Auf diese Weise können sie struktureffizient arbeiten, wenn sie sich auf eine bestimmte Zielantwort konzentrieren.

Zu den wichtigsten Kategorien von Aufforderungen gehören:

1. Ingabeaufforderungen zur Informationssuche

Diese Eingabeanfragen dienen auch dazu, Informationen zu sammeln, wenn „Was“ - und „Wie“ -Fragen gestellt werden. Dies ist ideal, um bestimmte Details oder Fakten aus dem KI-Modell zu extrahieren. Zu den Beispielen gehören:

  • Was sind die gesundheitlichen Vorteile einer pflanzlichen Ernährung?
  • Wie kann ich meine Produktivität bei der Arbeit steigern?

2. Anweisungsbasierte Eingabeaufforderungen

Provisionsbasierte Inputorders, liefert das KI-Modell, erfüllen eine bestimmte Aufgabe. Diese Eingabebefehle eignen sich zum Beispiel für die Interaktion mit Sprachassistenten wie Siri, Alexa oder Google Assistant. Zu den Beispielen gehören:

  • Vereinbaren Sie einen Zahnarzttermin für nächsten Dienstag bis 10 Uhr.
  • Findet den schnellsten Weg zum Flughafen.

3. Kontextbezogene Eingabeaufforderungen

Diese Eingabebedingungen liefern dem KI-Modell Kontextinformationen, sodass es die erforderliche Reaktion des Benutzers besser verstehen kann. Wenn Sie den Kontext anbieten, können Sie mehr und relevantere Responder von der KI erhalten. Zu den Beispielen gehören:

  • Gartenarbeit ist neu für mich. Was sind einige einfach zu züchtende Pflanzen für Anfänger?
  • Ich möchte ein romantisches Abendessen für meinen Partner planen. Kannst du ein paar Rezepte und Ambiente-Ideen vorschlagen?

4. Vergleichende Aufforderungen

Vergleichende Anforderungen dienen der Bewertung oder dem Vergleich und die Nutzer helfen dabei, fundierte Entscheidungen zu treffen. Sie sind besonders hilfreich bei der Abwägung der Vor- und Nachteile verschiedener Alternativen. Zu den Beispielen gehören:

  • Was sind die Vor- und Nachteile der Vermietung gegenüber dem Kauf eines Eigenheims?
  • Sie vergleichen die Leistung von Elektroautos und üblichen Benzinautos.

5. Aufforderungen zur Meinungseinholung

Diese Anfragen geben die Stellungnahme oder den Standpunkt der KI zu einem bestimmten Thema wieder. Sie können dabei helfen, kreative Ideen zu entwickeln oder Diskussionen zu führen, die zum Nachdenken anregen. Zu den Beispielen gehören:

  • Was könnten die möglichen Auswirkungen künstlicher Intelligenz auf den Arbeitsmarkt sein?
  • Wie könnte sich die Welt verändern, wenn Teleportation Realität würde?

6. Reflektierende Aufforderungen

Reflexive Aufforderungen helfen Einzelpersonen, tiefere Einblicke in sich selbst zu gewinnen, ihre Überzeugungen und ihr Handeln zu gewinnen. Sie fördern oft das Selbstwachstum und die Selbstbeobachtung anhand eines Themas oder einer persönlichen Erfahrung. Eventuell müssen Sie einige Hintergrundinformationen angeben, um eine erforderliche Antwort zu erhalten. Zu den Beispielen gehören:

  • Wie kann ich mein Selbstvertrauen stärken und Selbstzweifel überwinden?
  • Welche Strategien kann ich umsetzen, um eine gesunde Work-Life-Balance zu gewährleisten?

Welche Faktoren beeinflussen die schnelle Auswahl?

Bei der Auswahl der Eingabeaufforderungen müssen viele Elemente berücksichtigt werden, um effektive Eingabeaufforderungen zu erstellen. Diese Elemente sind eine Qualität, Relevanz und Genauigkeit der ChatGPT-Antwort. Zu den wichtigsten Faktoren, die es zu berücksichtigen gilt, gehören:

  1. Modellieren von Wissen: Erfahren Sie mehr über die Vor- und Nachteile von ChatGPT. Selbst hochmoderne Modelle wie ChatGPT benötigen möglicherweise Hilfe bei bestimmten Aufgaben oder produzieren falsche Daten. Dieses Verständnis hilft bei der Herstellung von Ersatzteilen, die die Leistung der Modelle nutzen und parallel dazu deren Defekte minimieren.
  2. Objecte des Useurs: Es ist wichtig, die Sicht des Nutzers zu verstehen, relevante Antworten zu generieren. Bei der Eingabe von Bestellungen sollten eindeutig die Rechte der Nutzer respektiert werden, da ChatGPT relevante und direkte Informationen geben kann.
  3. Klarheit und Spezifität: Sie stellen sicher, dass die Anfrage klar und deutlich ist, um Unklarheiten oder Unsicherheiten zu minimieren, die zu schlechten Antworten führen können.
  4. Domänenspezifität: If you have to do a high specific area, should they should to use of domain specific vocabular or context, to connect the model on the required response. Das Hinzufügen von Kontext oder Beispiel kann dem Modell helfen, spezifische und relevante Ergebnisse zu erzielen.
  5. Restriktionen: Sie stellen fest, ob Einschränkungen (wie Länge oder Format der Antwort) erforderlich sind, um das gewünschte Ergebnis zu erzielen. Einschränkungen, wie Zeichenbeschränkungen oder strukturierte Formate, können explizit angegeben werden, sodass das Model Responses generiert, das den spezifischen Anforderungen entspricht.

Sie betrachteten, dass diese Elemente die Leistung von ChatGPT verbessern und garantierten, dass die generierte Antwort den erforderlichen Zielvorgaben entsprach.

Es ist wichtig zu beachten, dass Prompt Engineering ein fortlaufendes Studienthema ist. Ständige Verbesserungen und Verfeinerungen werden vorgenommen, um die Interaktivität und Nützlichkeit von Sprachmodellen wie Chat GPT zu erhöhen.

Um es zusammenzufassen:

blue arrow to the left
Imaginary Cloud logo

Was sind die Techniken für effektives Prompt Engineering?

Hier finden Sie einen Überblick über verschiedene Techniken, mit denen der Zugriff und die maximale Effizienz der Interaktion mit ChatGPT optimiert werden können. Lass uns in diese Techniken eintauchen und ihre Bedeutung verstehen.

Klare und spezifische Anweisungen

Klare und spezifische Anweisungen bilden die Grundlage. Benutzer können die Qualität der Antwort von ChatGPT durch explizite Anweisungen verbessern. Forschung durchgeführt von OpenAI zeigt, dass klar definierte Eingabeaufforderungen die Leistung von Sprachmodellen erheblich beeinflussen.

Anfrage 1:

ChatGPT generic prompt asking about the wonders of universe
Generische Aufforderung


Anfrage 2:

ChatGPT specific prompt asking about black holes
Spezifische Aufforderung

Explizite Einschränkungen verwenden

Die Beziehung explizite Einschränkungen in den Zugangsvoraussetzungen kann den Denkprozess von ChatGPT sowie Genauigkeit und fundierte Antworten ermöglichen. Einschränkungen dienen als zusätzliche Anweisungen, die das Verhalten der Modelle charakterisieren und die Relevanz der generierten Ergebnisse verbessern.

Beim ChatGPT-Beispiel wie nach schrittweiser Anleitung hilft die Kontrolle von Einschränkungen wie „Bitte geben Sie einen detaillierten, sequentiellen Prozess an“, kohärente, leicht verständliche Anweisungen zu generieren. Die Forschung von OpenAI zeigt, dass explizite Regeln zur Kontrolle und besser aufeinander abgestimmte Ergebnisse verwendet werden.

ChatGPT explicit constraint prompt asking about the benefits of ChatGPT in three sentences

Experimentieren mit Kontext und Beispielen

Der Kontext spielt beim Prompt Engineering eine entscheidende Rolle. Anwender können das Verständnis von ChatGPT verbessern und ein Beispiel in der Implementierung geben, durch die Bereitstellung von relevantem Kontext und Beispiel bei der Einführung von ChatGPT kann die Implementierung verbessert werden, spezifische und kontextuell adäquate Antworten.

Wenn ChatGPT den relevanten Kontext in die Eingabeanfrage einbezieht, kann ChatGPT-basierter Responder sein, wenn Informationen zu einem bestimmten Thema benötigt werden.

Anfrage 1:

ChatGPT without context prompt asking about the benefits of exercise
Prompt ohne Kontext


Anfrage 2:

ChatGPT with context prompt asking about the benefits of exercise
Ingabeaufforderungen mit Kontext und gewünschter Ausgabe


Diese Kontextanfrage ermöglicht ChatGPT, Antworten zu generieren, die auf dem spezifischen Interessenbereich basieren.

Nutzung der Fragen zu System 1 und System 2

Die Fragen zu System 1 und System 2 bieten einen ausgewogenen Ansatz für ein schnelles Engineering. Fragen zur Lösung von System 1: Schnelle, instinktive Antwort — bei Fragen zu System 2 war eine ausführliche Antwort erforderlich. Die Kombination aus beiden Fragmenttypen ermöglicht die Interaktion mit ChatGPT-Veränderung und Tiefe.

Die Verwendung von System-1- und System-2-Fragen im Quick Engineering ist ebenfalls ein Ansatz, den die Kunst der Antworten von ChatGPT beeinflussen kann.

Benutzer können ChatGPT anzeigen, Antworten generieren, ihre Anforderungen entsprechen, indem sie Fragen zu System 1 und System 2 in den Eingangsanfragen aufnehmen. Sie schauen sich das folgende Beispiel an, um dieses Konzept zu veranschaulichen:

Beispiel: Chatbot für Reisetipps


Die System-1-Frage in diesem Beispiel ermöglicht ChatGPT, schnell Empfehlungen für die meisten Touristenattraktionen in Paris. Nutzer, die nach Ratschlägen für kurze Reiserouten suchen, würden von kurzen und leicht verdaulichen Informationen profitieren. Attraktionen wie der Louvre, die Kathedrale Notre Dame und die Champs-Élysées könnten in die Antworten aufgenommen werden.

ChatGPT wird durch die System-2-Anfrage angeregt, die historische Relevanz und architektonische Aspekte eines bestimmten Monuments, wie den Eiffelturm, zu untersuchen. Diese Antwort ist hilfreich für Nutzer, die nach einem besseren Verständnis und einer besseren Übersicht in der Attraktion suchen. Die Antwort könnte Details über den Bau des Turms für die Weltausstellung 1889, den Entwurf von Gustave Eiffel und sein berühmtes eisernes Fachwerk enthalten.

Benutzer können schnelle Empfehlungen und vollständige Erklärungen erhalten, die auch Fragen zu System -1 und System 2 enthalten. Auf diese Weise kann der Chatbot für Reiseempfehlungen einen anderen Nutzer schmäcken, die praktischen Vorschläge unterordnen und mehrere das Neue von Menschen, die die historischen und architektonischen Besonderheiten der Sehenswürdigkeiten kennenlernen wollen.

Kontrolle der Ausführung

Die Steuerung von ChatGPT-Response ist ein wichtiger Bestandteil von Quick Engineering. Es ermöglicht den Kunden, den Detaillierungsgrad und die Länge der generierten Ausgaben zu kontrollieren. Sehen Sie sich das folgende Beispiel an, um zu sehen, wie die Funktionalität des Output-Managements verwaltet werden kann:

Anfrage 1:

ChatGPT low verbosity prompt asking about chocolate chip cookies' recipe
Ingabeaufforderung mit niedriger Ausführlichkeit


Anfrage 2:

ChatGPT high verbosity prompt asking about chocolate chip cookies' recipe
Ingabeaufforderung mit hoher Ausführlichkeit


Der Chatbot zeigt in dieser Antwort große Ausführlichkeit, als er ein detailliertes, schrittweises Rezept vorstellte. Es enthält zusätzliche Erklärungen und Ratschläge, die den Benutzern helfen sollten, sie beim Backen zu finden. Diese Tiefe eignet sich für Leute, die eine ausführliche Anleitung wünschen, vor allem für diejenigen, die neu im Backbereich sind oder einen kompletten Ansatz haben.

Auf diese Weise kann der Chatbot an verschiedene Benutzerpräferenzen anpassen und das Konversationserlebnis optimieren, indem die Ausführlichkeit der Antworten reguliert wird, sodass der Chatbot relevante Antworten auf ihre Bedürfnisse gibt und ihre Verbindung verbessern kann.

blue arrow to the left
Imaginary Cloud logo

Was sind Best Practices für schnelles Engineering?

Prompt Engineering ist ein dynamischer Prozess, der viel Nachdenken und Experimentieren erfordert, um die besten Ergebnisse zu erzielen. In diesem Abschnitt werden wir mit den besten Methoden arbeiten, um Benutzern zu helfen, das Beste aus ihrer Interaktion mit ChatGPT herauszuholen. Wir zeigen uns diese Praktiken und sehen, was sie bedeuten.

Iteratives Testen und Ververbessern

Effektive Eingabeaufforderungen hängen stark von iterativen Tests ab und Raffinesse. Nutzer können im Laufe der Zeit die Anleitungen verbessern und die Qualität der ChatGPT-Antworten verbessern, indem sie die Ergebnisse regelmäßig überprüfen und die Eingangsanfragen entsprechend anpassen.

Iteration 1:

ChatGPT iteration prompt asking to remind to buy groceries


Iteration 2:

ChatGPT iteration prompt asking to remind to buy groceries


Iteration 3:

ChatGPT iteration prompt asking to remind to buy groceries

Ein Gleichgewicht zwischen Nutzersicht und Modellkreativität erreichen

Es ist entscheidend, die Sicht der Nutzer mit der Kreativität des Modells in Einklang zu bringen. Sie stellen den folgenden Chatbot zur Schreibinspiration vor, er ist bestrebt, angemessene Anfragen zu liefern und gleichzeitig die Kreativität zu fördern:

Benutzerabfrage: „Ich brauche Ideen für eine Fantasy-Geschichte. “

Anfrage: „Sie stellen sich vor einer Welt vor, in der Magie eng mit dem Alltag verbunden ist. Beschreibe eine Person mit überragender Zauberkraft und ihr Bestreben, ein seit langem verschollenes Artefakt, das es zu beschützen gilt. Benutz diese Aufforderung, um deine eigene fantasievolle Geschichte anzuregen. “

Antwort: „Eine junge Zauberin namens Elysia besitzt die seltene Fähigkeit, die Elemente in einer magischen Welt zu manipulieren. Sie befindet sich auf einer gefährlichen Reise, um ein starkes Artefakt für die Dunklen Mächte zu schützen. Unterwegs begegnet sie verschiedenen Charakteren mit ihren magischen Talenten, lüftet Geheimnisse und rettet ihre Welt vor dem Untergang. “


Der Chatbot hat adäquate Aufforderungen, die Fantasie kann und parallel zu den Schreibzielen der Nutzer, wenn er die Nutzersicht abdeckt und die Kreativität der Models fördert.

Verwenden Sie externe Ressourcen und APIs

Die Verwendung externer Ressourcen und APIs ist eine Hochtechnologie, die ChatGPT ermöglicht, zusätzliche Informationen zu verwenden und seine Antworten zu verbessern. Wir schauen uns ein Beispiel an, um zu verstehen, wie externe Ressourcen und APIs verwendet werden können:

Beispiel: Wetterinformations-Chatbot

Der Chatbot kann in eine externe Wetter-API integriert werden, z. B. Weather.com, um genaue Wetterinformationen bereitzustellen. The chatbot can call Weather data for the indicated location in real-time, if an api call is performed.

API-Integration:


Das get_weather ()Die obige Funktion zeigt eine Beispielintegration mit der WeatherAPI, die die Wetterbedingungen und die Temperatur in Celsius für eine bestimmte Stadt zurückgibt.

Generierung von Antworten:


Generierte Antwort:
„Das Wetter in New York City ist heute teilweise bewölkt. Die Temperatur beträgt 22 °C.“

Bei externen Ressourcen und APIs ruft der Chatbot die genauen Wetterinformationen ab und bezieht Sie in der Antwort mit ein. Auf diese Weise erhalten Nutzer in Echtzeit aktuelle Wetterupdates, die auf ihrem definierten Standort basieren.

Durch die Integration mit externen Ressourcen und APIs kann ChatGPT eine Fülle von Informationen nutzen, die über seine Trainingsdaten zurückgehen, sodass es wertvollere und zuverlässigere Antworten auf Benutzeranfragen geben kann.

OpenAI-API-Beispiel

Diese API ermöglicht es Entwicklern, ChatGPT, in ihre Anwendungen, Produkte oder Dienstleistungen zu integrieren. Hier ist ein Beispiel, das zeigt, wie Open the AI-API kann verwendet werden:



In diesem Beispiel definieren wir frag_chatbot () Funktion, die Frage eines Benutzers und ein optionaler Chatverlauf. Die Funktion formatiert den Chatverlauf und die Benutzerfragen und führt dann einen API-Aufruf mithilfe von Öffnen Sie ai.Completion.create () Methode.

Die API-Antwort enthält die generierte Antwort von ChatGPT. Wir extrahieren die Antwort aus der Antwort und nehmen die Frage der Benutzer und die Antwort der Chatbots in den Chat-Verlauf auf. Schließlich wird die generierte Antwort zurückgegeben.

Mithilfe dieser API können Entwickler die Funktionen von ChatGPT in ihre Anwendungen integrieren, sodass Benutzer mit dem Chatbot interagieren und Antworten auf der Grundlage ihrer Anfragen erhalten können.

Vermeidung von Vorfällen und Absicherung eines Ethikprozesses

ChatGPT muss ethisch und unvoreingenommen verwendet werden. Ein Beispiel für die Bedeutung dieser Praktiken:

Beispiel: KI-gestütztes Screening von Bewerbern

Du hast zuvor ein KI-System eingerichtet, das die Antworten auf Vorstellungsgespräche mithilfe von ChatGPT analysierte, um den Bewerber zu überprüfen. Das Screening muss ethisch und unvoreingenommen sein.

Diese Schritte können Folgendes reduzieren und Fairness garantieren:

  1. Vielfältige Trainingsdaten: Nutze unterschiedliche Daten zu Rasse, Geschlecht und ethnischer Zugehörigkeit, um ChatGPT zu optimieren. Es ist wichtig, voreingestellte Trainingsdaten von Anfang an zu berücksichtigen, da dies zu Verzerrungen führen kann.
  2. Bewertung von Verzerrungen: Evaluieren Sie regelmäßig die Antworten der Modelle, um Verzerrungen zu identifizieren und zu reduzieren. Ermitteln Sie anhand demografischer Parität und Chancengleichheit, ob die Vorschläge des Modells aufgrund geschützter Faktoren wie Geschlecht oder ethnischer Herkunft variieren. Anpassungen sollten die Anzahl der Vorteile reduzieren.
  3. Transparente Richtlinien: Kommunizieren Sie die Systemrichtlinien an menschliche Prüfer und Entwickler. Bei diesen Standards sollten Gerechtigkeit, Ethik und Vermeidung von Vorurteilen im Mittelpunkt stehen. Erteile ausdrückliche Anweisungen, um zu vermeiden, dass bestimmte Gruppen bei der Vorsorgeuntersuchung bevorzugt oder diskriminiert werden.
  4. Der Mensch im Test: Lass sie die Antworten des Systems analysieren. Diese Phase hilft, jegliche Modellverzerrungen zu erkennen und garantiert, dass die Menschen respektvoll und fair entscheiden können.
  5. Kontinuierliche Überwachung und Feedback: Steuert die Leistung der Systeme und sammelt Feedback von Benutzern und Benutzern. Prüfen Sie die Systemausgänge auf Verzerrungen und unerwarteter Auswirkungen. Feedback-Schleifen helfen dabei, Probleme schnell zu lösen.
  6. Vielfältiger Pool von Rezensenten: Sie stellen sicher, dass das Team, das für die Überprüfung und Verfeinerung der Ergebnisse des Systems verantwortlich ist, aus Personen mit unterschiedlichem Hintergrund besteht. Verschiedene Gruppen können Vorteile erkennen und löschen, die homogenen Gruppen werden zugeordnet.

Diese Praxis hilft dem KI-gestützten Bewerber-Screening-System, Vorabstimmungen zu vermeiden und Kandidaten ihre Fähigkeiten und Qualifikationen einzusetzen.

blue arrow to the left
Imaginary Cloud logo

Was sind fortschrittliche Prompt-Engineering-Strategien?

Prompt Engineering geht von den Grundlagen aus und beinhaltet innovative Taktiken zur weiteren Optimierung der Performance und Anpassungsfähigkeit von ChatGPT. In diesem Abschnitt geht es um fortgeschrittene Strategien wie Temperatur- und Tokenkontrolle, Umgang mit Eingabeanforderungen für Vorträge mit mehreren Runden, Modifizieren der Eingabeanforderungen für domänenspezifische Anwendungen und den Prozess mit verwirrenden oder widersprüchlichen Benutzereingaben.

Temperatur- und Tokenmanagement

Temperatur- und Tokensteuerung sind effiziente Methoden zur Feinabstimmung des ChatGPT-Verhaltens. Benutzer können das Zufallsprinzip der generierten Ausgabe mithilfe der Temperatursteuerung ändern. Niedrigere Temperaturen, z. B. 0,2, führen zu fokussierteren und deterministischen Antworten, wohingegen höhere Temperaturen, z. B. 1,0, zu variablen und explorativen Ergebnissen führen.

Die OpenAI-Forschung zeigt den Effekt der Temperaturkontrolle auf die ChatGPT-Antwortdiversität. Anwender können die ideale Mischung aus verständlichen Antworten und der Integration neuer Funktionen in die generierten Antworten erreichen, indem sie Erfahrungen mit unterschiedlichen Temperatureinstellungen machen.

Anfrage 1:

ChatGPT low temperature prompt asking to write a poem
Einnahmenanfrage bei niedriger Temperatur für ein fokussierteres Ergebnis


Anfrage 2:

ChatGPT high temperature prompt asking to write a poem
Höhere Temperaturen sorgen für ein kreatives Ergebnis


Bei der Tokenkontrolle muss die maximale Anzahl von Tokens angegeben werden, um die Länge der Antwort zu begrenzen. Auf diese Weise können Benutzer die Funktionalität der ChatGPT-Ausgabe und die kurze und präzise Antwort überprüfen. Benutzer können überprüfen, ob ChatGPT eine Antwort gibt, und zwar in der für sie erforderlichen Antwortlänge, wenn sie entsprechende Token-Einschränkungen festlegen.

Schnelle Verkettung und mehrstufige Konversationen

Prompt Chaining und Konversationen mit mehreren Runden ermöglichen Interaktion und dynamische Interaktion mit ChatGPT. Nachdem die Benutzer keine individuellen Eingabeanforderungen hinterlassen haben, können sie Eingabeanforderungen stellen, um einen kontinuierlichen Kommunikationsfluss zu gewährleisten. Jede Anfrage kann auf frühere Eingaben oder frühere Antworten von ChatGPT verweisen, was eine kontextreiche Konversation ermöglicht.

Durch die Integration von Prompt-Chaining können Benutzer ein konversationales Erlebnis schaffen und mit ChatGPT hin- und herwechseln. Dieser Technologie werden Aufgaben, mehrere Anweisungen oder eine weitere Diskussion oder weitere Diskussion zur Verfügung gestellt.

Beispiel:

ChatGPT chaining prompt asking what to visit in Paris
ChatGPT chaining prompt asking about the weather in Paris

Anpassung der Eingabeaufforderungen für domänenspezifische Anwendungen

Die Anpassung von Prompts für domänenspezifische Anwendungen ist ein wichtiger Aspekt von Prompt-Engineering. Dazu gehört auch die Anpassung der Zugangsvoraussetzungen an bestimmte Branchen oder Bereiche, um relevante und präzise Antworten zu gewährleisten. Wir schauen uns ein Beispiel an, um zu veranschaulichen, wie Eingabeaufforderungen für eine domänenspezifische Anwendung angepasst werden können:

Beispiel: Chatbot für medizinische Diagnosen


Um die Anfrage nach einem Chatbot für medizinische Diagnosen anzupassen, müssen relevante medizinische Begriffe, Symptome und diagnostische Überlegungen berücksichtigt werden.


Die maßgeschneiderte Anfrage berücksichtigte die Symptome der Nutzer und informierte ihn über die Einschränkungen der Bewertung. Die vom Chatbot generierte Antwort kann auf der Grundlage der bereitgestellten Informationen erste Empfehlungen geben:


Durch die Anpassung der Anfrage an einen medizinischen Diagnose-Chatbot gibt die Antwort auf die domänenspezifische Anwendung und gibt erste Empfehlungen, wobei gleichzeitig die Bedeutung einer professionellen medizinischen Beratung betont wird.

Umgang mit mehrdeutigen oder widersprüchlichen Benutzereingaben

Prompt Engineering erfordert den Umgang mit unklaren oder widersprüchlichen Benutzereingaben. ChatGPT muss diese Eingaben sorgfältig ausführen und sinnvoll reagieren. Wir schauen uns ein Beispiel an, um zu veranschaulichen, wie das erreicht werden kann:

Beispiel: Chatbot für Restaurantempfehlungen


In diesem Herbst wird der Benutzer Steak und vegetarische Optionen haben. Der Chatbot kann Folgendes löschen:


Der Chatbot bittet um eine Klarstellung, um die Anfrage des Users besser zu verstehen und eine genauere Empfehlung zu geben.


Nachdem der Benutzer seine Präferenz angegeben hat, kann der Chatbot antworten:


Wenn der Chatbot bei der Kundeninteraktion aktiv ist und danach sucht, wird im Unklaren der ursprünglich Anfrage gestellt, versteht den Wunsch des Users und empfiehlt ein Restaurant, das seiner Anfrage entspricht.

Der Umgang mit widersprüchlichen Benutzereingaben ist ähnlich. Der Chatbot kann sich die Ziele des Users vor Augen führen und eine Lösung anbieten, wenn er eine günstige, aber luxuriöse Mahlzeit möchte.

Herbststudien

Im Folgenden finden Sie einige Fallbeispiele, die Sie untersuchen sollten.

Chatbots für den Kundensupport

Kundenservice-Chatbots verbessern den Kundenservice und die Reaktionszeit. Durch schnelles Engineering können die Genauigkeit und Effizienz von Chatbots erhöht und das Kundenerlebnis verbessert werden.

Es hilft Chatbots, zu lernen und auf Kundeneingaben zu reagieren, wodurch Interaktionen persönlicher und effektiver werden.

Beispiel: HubSpot Chatbot-Builder, das Buch über, Links zum Self-Service-Support-Artikel erstellen können und in einem Ticketsystem

Erstellung und Bearbeitung von Inhalten

Die Produktion und Bearbeitung von Inhalten erfordert eine schnelle technische Planung. ChatGPT hilft Usern dabei, großartige Blogbeiträge, E-Mails und kreative Beiträge zu schreiben.

Benutzer können ChatGPT durch die Textentwicklung, ihren Stil, ihren Ton und ihre Zielgruppe unterstützen, wenn sie spezifische und detaillierte Eingabeanforderungen stellen. Eingabeaufforderungen können Hintergrundinformationen, Beispiele oder explizite Einschränkungen enthalten, um sicherzustellen, dass der generierte Inhalt die Kriterien erfüllt.

OpenAI hat Prompt Engineering untersucht, um die Kohärenz und Relevanz der Inhalte zu verbessern. So generierten die Nutzer ansprechendere und themenrelevante Texte, indem sie mit Vorschlägen experimentierten und so Bearbeitungszeit sparten.

Domainspezifischer Wissensabruf

Prompt Engineering kann domänenspezifisches Wissen effizient abrufen. ChatGPT kann anhand enormer Mengen an domänenspezifischen Daten trainiert werden, um genaue und relevante Fachinformationen bereitzustellen.

Benutzer können ChatGPT, domänenspezifisches Wissen, aufrufen, indem sie die Eingabeangebote anpassen und Schlüsselwörter oder Text hinzufügen. In Branchen wie Gesundheit, Recht, Finanzen und Technologie sind die richtigen Informationen erforderlich.

Ihre Strategien fördern den Ruf nach domänenspezifischem Wissen und liefern verbraucherspezifische und aktuelle Informationen.

Interaktives Geschichtenerzählen und Spielen

Prompt Engineering macht interaktives Storytelling und Spiele spannend. ChatGPT reagiert auf Benutzereingaben und treibt die Geschichte voran.

Nutzer können immersive Geschichten und Spiele mit Eingabeanforderungen erstellen, indem sie Erzählbestandteile, Nutzerentscheidungen oder Spielmechanismen erstellen. Schnelle Verkettung und Diskussionen mit mehreren Runden ermöglichen umfangreiche Erzählungen und spielerische Interaktionen.

Beispiel: Penais KI-Dungeon zeigt, wie schnelle Technik das interaktive Geschichtenerzählen und Spielen verändern kann. Mit AI Dungeon können Nutzer mithilfe von Ingabeaufforderungen und dynamischem Telling arbeiten.

blue arrow to the left
Imaginary Cloud logo

ChatGPT Prompt Engineering für Entwickler

Deep Learning AI hat kürzlich eine außergewöhnliche Kurs heißt“ChatGPT Prompt Engineering für Entwickler,“ unter der Leitung von Isa Fulford und Andrew Ng.

Wenn der Kurs, dass das Potenzial von Large Language Models (LLMs) als Entwicklertool, die API-Besucher von LLMs für eine schnelle Softwareanwendungsentwicklung, immer unterschätzt werden. Sie möchten die Möglichkeiten und bewährten Verfahren zur effektiven Nutzung von LLMs mit anderen teilen. Der Kurs behandelt die Vermittlung von Best Practices für die Softwareentwicklung, alltägliche Anwendungsfälle wie Zusammenfassung, Inferenz, Transformation und Erweiterung sowie den Aufbau eines Chatbots mithilfe eines LLM.

Das ChatGPT-Modell von OpenAI, insbesondere GPT 3.5 Turbo, und Python (insbesondere in einem Jupyter Notebook) werden während des gesamten Kurses verwendet.

Also hier sind einige Erkenntnisse:

1. Zwei Prinzipien:

Prinzip 1: Schreib klare und spezifische Anweisungen

Es ist wichtig, klare und spezifische Anweisungen zu geben, um das Modell effektiv zu steuern und die Wahrscheinlichkeit irrelevanter oder falscher Antworten zu verringern. Es vermeidet, eine klare Anfrage mit einer kurzen Änderung, da längere Anfragen oft für mehr Klarheit und Kontext sowie für detailliertere und relevante Ergebnisse sorgen.

  • Taktik 1: Benutze trennzeichen, um bestimmte Teile der Eingabe zu kennzeichnen, z. B. dreifache Anführungszeichen („'), dreifache Backticks (' * '), dreifache Bindestriche (' --- '), spitze Klammern (‹ ›) oder XML-Tags (‹tag› ‹/tag›). Trennzeichen helfen auch dabei, schnelle Injektionen zu verhindern, bei denen widersprüchliche Benutzeranweisungen das Modell in die Irre leiten könnten.

  • Taktik 2: Stellen Sie eine strukturierte Ausgabe wie HTML oder JSON in Frage, um die Modellantworten einfach zu analysieren.


Result from request structured output like HTML or JSON

  • Taktik 3: Überprüfe dich, ob die Aufgabenannahmen erfüllt sind. Profor das Modell rein, dies annahmen zuerst zu überprüfen und alle nicht erfolgreich Bedingungen, ohne zu versuchen, die Aufgabe abzuschließen. Ermitteln Sie mögliche Zufallsfälle, um sicherzustellen, dass das Modell ausreichend ist, und verhindern Sie Fehlschläge oder Ergebnisse.

Result from check whether conditions are satisfied

  • Taktik 4: Use Few-Shot-Prompting, indem Sie Beispiele für erfolgreich ausgeführte Aufgaben angeben, bevor Sie das Model bitten, die gewünschte Aufgabe ausführen.

Result from few-shot prompting

Prinzip 2: Gib dem Modell Zeit zum Nachdenken

Geben Sie dem Modell genügend Zeit, um über das Problem nachzudenken und es zum Nachdenken, um Argumentationsfehler und frühzeitige Argumente zu vermeiden. Bei komplexen Aufgaben können schrittweise Anleitungen oder eine Kette relevanter Überlegungen erforderlich sein, bevor das Modell eine abschließende Antwort liefert.

  • Taktik 1: Geben Sie die Schritte an, um eine Aufgabe zu erledigen, insbesondere wenn direkte Antworten eine Herausforderung darstellen. Bitten Sie, das Modell, wie bei der Lösung des menschlichen Problems, eine Reihe geeigneter Denkschritte durchführen, bevor Sie die ultimative Lösung liefern.

Result from specify the steps to complete a task

  • Taktik 2: Du musst das Modell finden, seine Lösung finden, bevor sie zu einer Schlußfolgerung kommen. Wenn das Modell explizit erforderlich ist, zu überlegen und zu überlegen, bevor es eine Antwort gibt, werden oft bessere Ergebnisse erzielt. Dieser Ansatz gibt an, wie lange das Modell bis zur Verarbeitung benötigt und eine präzise Antwort liefert.
Result from instruct the-model to find its solution before reaching a conclusion

Wenn Sie diese Prinzipien und Taktiken entwickeln, können Sie deren Einsatz von LLMs optimieren und die erforderlichen Ergebnisse bei der Softwareentwicklung erzielen.

2. Iterative schnelle Entwicklung:

Der Prozess der iterativen Prompt-Entwicklung ähnelt stark den Codierungspraktiken. Dabei werden verschiedene Ansätze ausprobiert, verfeinert und bei Bedarf erneut versucht. Hier sind die erforderlichen Schritte:

  • Versuche es mit einer Lösung.
  • Analysieren Sie die Ergebnisse, um etwaige Abweichungen vom gewünschten Ergebnis zu erkennen.
  • Machen Sie sich die Anweisungen klar und nehmen Sie sich mehr Zeit für Fragen.
  • Verfeinern Sie die Eingabeaufforderungen anhand einer Reihe von Beispielen.
  • Wiederhole den Vorgang.

Im Kursbeispiel die Dozenten, eine Fallstudie zur Generierung von Marketingtexten aus einem Produktdatenblatt. Sie gingen iterativ an drei kritischen Problemen ein und lösen sie, indem sie die Anforderungen bei jedem Schritt verfeinerten:

Ausgabe 1: Langer Text -> Lösung: Beschränken Sie den Text auf maximal 50 Wörter.

Ausgabe 2: Konzentrieren Sie sich auf irrelevante Details -> Lösung: Binden Sie zielgruppen ein, z. B. „Die Beschreibung ist für Möbelhändler definiert... “

Ausgabe 3: Fehlende Maßtabelle in der Beschreibung -> Lösung: Alles als HTML formatieren.

3. Fähigkeiten:

Zusammenfassend:

Für die Textzusammenfassung wurden häufig große Sprachmodelle verwendet. Sie können Zusammenfassungen anfordern, die sich auf Preis und Wert konzentrieren, indem Sie spezifische Anforderungen angeben.

Und du kannst auch eine For-Schleife schreiben, um mehrere Texte zusammenzufassen:

Ableiten:

LLMs können ohne spezielle Schulung zu verschiedenen Aspekten geschlossen werden. Sie können Stimmungen und Emotionen bestimmen, Produkt- und Firmennamen extrahieren, Themen abbilden und vieles mehr.

Inferring

Transformierend:

LLMs eignen sich hervorragend für Texttransformationsaufgaben, einschließlich Sprachübersetzung, Rechtschreib- und Grammatikprüfung, Tonanpassung und Formatkonvertierung.

Result from transforming

Erweiterung:

Large language models can create individual customer service-emails that are based on the evaluation each customer.



Result from expanding

Entwicklung eines Chatbots:

Einer der faszinierenden Aspekte der Verwendung eines LLM ist die Möglichkeit, mühelos einen maßgeschneiderten Chatbot zu erstellen. Das Webinterface von ChatGPT bietet eine Kommunikationsplattform, die es durch ein robustes Sprachmodell ermöglicht. Der eigentliche Reiz liegt jedoch darin, die Fähigkeiten eines LLM zu nutzen, um Ihre Chatbots zu konstruieren, z. B. ein KI-Kundendienstmitarbeiter oder ein KI-Vertragspartner für ein Restaurant.

In diesem Fall bezeichnen wir den Chatbot als „OrderBot“. Es ist unser Ziel, das Sammeln von Benutzeranfragen und Antworten des Assistenten zu automatisieren, um diesen effizienten „OrderBot“ zu erstellen. In der ersten Zeile für die Erfassung von Bestellungen in einer Pizzeria konzipiert, beinhaltet im ersten Schritt die Definition einer Nutzungsfunktion. Diese Funktion ermöglicht das Sammeln von Benutzernachrichten, da keine manuelle Eingabe erforderlich ist. Den in einer Liste mit dem Namen einer unten stehenden Benutzeroberfläche hinzugefügten Eingabeanforderungen ist eine Liste mit dem Namen „Context“ beigefügt. Anschliessend wird das Modell mit diesem Kontext für jede Interaktion aufgerufen.

Die Reaktion der Modelle ist in den Kontext integriert, wodurch sichergestellt wird, dass sowohl die Botschaften des Modells als auch die Benutzer erhalten werden, was zum wachsenden Kontext gehört. Diese Informationsaufnahme ermöglicht es, das Modell zu ermitteln, das geeignete Maßnahmen ergreift.

Final wird die Benutzeroberfläche eingestellt und ausgeführt, um den OrderBot anzuzeigen. Der Kontext, auch die Systemnachricht mit dem Menü, bleibt bei jeder Interaktion mit dem Sprachmodell konsistent. Er entwickelt sich stetig weiter, je mehr Interaktionen stattfinden, sodass eine umfassende Gesprächsaufzeichnung durchgeführt wird.

Result from building a chatbot
blue arrow to the left
Imaginary Cloud logo

Abschließende Gedanken

Prompt Engineering ist ein Wendepunkt für ChatGPT. Wenn Sie diese Technik beherrschen, können Sie die Reaktionen des Sprachmodells so gestalten und steuern, dass sie ihren spezifischen Bedürfnissen entsprechen.

Die Zukunft ist eine vielversprechende Form, die kontinuierliche Forschung und Zusammenarbeit, Innovationen. Im Zuge der Weiterentwicklung der Sprachmodelle wird zeitnahes Engineering eine entscheidende Rolle dabei spielen, ihr volles Potenzial auszuschöpfen.

Das Prompt-Engineering von ChatGPT eröffnet unbegrenzte Möglichkeiten. Wir können unsere Interaktionen mit Sprachmodellen verändern, indem wir effektive Techniken implementieren und fortschrittliche Strategien erforschen. Es transformiert Chatbots für Kundenbetreuung, Inhaltsentwicklung und Spiele und ermöglicht die Zusammenarbeit zwischen Mensch und KI.

Wenn Sie mehr über uns erfahren möchten Data-Science-Dienste, including KI and Machine language processing (NLP), load we a, the Der Data-Science-Dienst von Imaginary Cloud. Wir sind Experten für KI-gestützte Lösungen, mit denen Unternehmen das Potenzial künstlicher Intelligenz nutzen können.

blue arrow to the left
Imaginary Cloud logo

Häufig gestellte Fragen

Was ist Prompt Engineering in ChatGPT?

Schnelles Engineering ist der Prozess des Entwurfs effizienter Aufforderungen und Anweisungen, um die Benutzersicht an ein Sprachmodell wie ChatGPT zu kommunizieren. Es hilft dabei, genaue, relevante und nützliche Antworten aus dem Modell zu erhalten.

Warum ist Prompt Engineering wichtig für ChatGPT?

Schnelles Engineering ist entscheidend für die Maximierung der Effektivität von ChatGPT. Anwender können das Modell steuern, über die Eingabefunktionen create good gestalter können sie steuern, dass es spezifische und relevante Ergebnisse generiert, da es sich um ein wichtiges Werkzeug für verschiedene Anwendungen handelt.

Was sind einige Techniken für effektives Prompt-Engineering?

Zu den Techniken gehören:

  • Bereitstellung klarer und spezifischer Anweisungen
  • Explizite Einschränkungen verwenden
  • Experimentieren mit Kontext und Beispielen
  • Nutzung der Fragen zu System 1 und System 2
  • Kontrolle der Ausführung

Wie kann ich meine Eingabeaufforderungen für eine bessere ChatGPT-Leistung verbessern?

Um Ihre Eingabeaufforderungen zu verbessern, können Sie:

  • Testen und Verfeinern Sie iterativ
  • Bringen Sie Ihre Nutzerabsicht und Ihr Model kreativ in den Sound
  • Verwenden Sie externe Ressourcen und APIs, um die Funktionen von ChatGPT zu verbessern
  • Sie sorgen für einen ethischen Umgang und vermeiden Sie Vorurteile sowohl bei den Eingangs- als auch bei den Ergebnissen

Hier ist auch ein Chat GPT-Spickzettel um ihnen zu helfen, zuerst zu schreiben, die gute Arbeit.

Was sind einige fortgeschrittene Strategien für schnelles Engineering?

Zu den fortgeschrittenen Strategien gehören:

  • Steuerung der Temperatur- und Token-Einstellungen für Zufalls- und Antwortlänge
  • Erstellung von Gesprächen mit mehreren Runden per Prompt-Verketting
  • Anpassung der Eingabeaufforderungen für domänenspezifische Anwendungen
  • Umgang mit mehrdeutigen oder widersprüchlichen Benutzereingaben

Artificial Intelligence Solutions  done right - CTA
blue arrow to the left
Imaginary Cloud logo
blue arrow to the left
Imaginary Cloud logo
Alexandra Mendes
Alexandra Mendes

Inhaltsautor mit großer Neugier auf die Auswirkungen der Technologie auf die Gesellschaft. Immer umgeben von Büchern und Musik.

Read more posts by this author

People who read this post, also found these interesting:

arrow left
arrow to the right
Dropdown caret icon