Prompt-Engineering für KI-Sprachmodelle

Für richtige Fragen an
Large Language Models

KI-Sprachmodelle, wie sie in ChatGPT verwendet werden, können die Art und Weise, wie Technische Dokumentation erstellt und genutzt wird, stark verändern. Sie werden den Arbeitsalltag von Technischen Redakteuren erleichtern, indem sie bei Routineaufgaben helfen oder diese komplett übernehmen. Dazu gehören zum Beispiel das automatische Erstellen von Textentwürfen und Zusammenfassungen, das Überprüfen von Schreibregeln oder das Anpassen von Texten für verschiedene Zielgruppen.

Auch bei der Bereitstellung von Dokumentation bieten sich neue Möglichkeiten. Mit Methoden wie Retrieval Augmented Generation (RAG) können Chatbots auf Websites eingerichtet werden, die das Wissen aus den Dokumentationen mit der Flexibilität von KI-Sprachmodellen kombinieren. Dadurch können einfache Supportanfragen schnell und unkompliziert beantwortet werden.

Um KI-Sprachmodelle effektiv für Technische Dokumentationen zu nutzen, ist es wichtig, ihnen die richtigen Vorgaben (Prompts) zu geben – mithilfe von Prompt-Engineering. Da KI-Modelle wie ChatGPT nicht perfekt sind und nicht immer sofort die gewünschten Ergebnisse liefern, müssen diese Vorgaben oft optimiert werden. Mit gutem Prompt-Engineering können Sie das Verhalten Ihrer KI besser steuern. So erhalten Sie gute und stabile Ergebnisse und unterstützen Ihre redaktionellen Prozesse mit KI.

Prompt-Engineering für den Einsatz von KI-Sprachmodellen für die Technische Dokumentation
Prompt-Engineering: Richtige Fragen an Large Language Models stellen

Wir unterstützen Sie beim Prompt-Engineering

parson hilft Ihnen, die Eingaben (Prompts) für KI-Sprachmodelle zu verbessern, damit diese die Texte für Technische Dokumentation oder Antworten für Anwender:innen erstellen. Wir unterstützen Sie dabei, diese Prompts zu vereinheitlichen und in Bausteine zu zerlegen, die Ihr Team einfach verwenden kann. Dadurch nutzen Sie die verschiedenen KI-Anwendungen optimal. So arbeiten wir.

Ihre Ansprechpartner:innen
Team Prompt-Engineering

Prompt-Engineering in der Technischen Dokumentation. So arbeiten wir

  • Anforderungen an Output klären. Wir analysieren, was Sie mit dem Einsatz eines KI-Sprachmodells erreichen wollen. Welche Art von Text soll zum Beispiel geschrieben werden, welche redaktionellen Arbeiten sollen unterstützt werden? Oder geht es darum, die Antworten eines KI-Chatbots zu optimieren?
  • Anforderung an LLM klären. Welche Art von LLM ist für Ihr Unternehmen geeignet? Welches verspricht den besten Output? Wie können Ihre Daten geschützt werden
  • Personas definieren. In welchem Stil sollen die Antworten ausgegeben werden? Für welche Zielgruppe ist der Output gedacht?
  • Prompts durch strukturiertes Testen optimieren. Prompt-Engineering ist ein iterativer Prozess, der ständiger Anpassung und Verbesserung bedarf. Auf Basis Ihrer Anforderungen erstellen wir einen Testplan und nutzen die daraus gewonnen Erkenntnisse, um Ihre Prompts zu optimieren.
  • Prompts modularisieren und standardisieren. Wir erstellen standardisierte Prompts und Prompt-Bausteine, die von Ihren Teams als Vorlagen verwendet werden können.

Weitere Informationen rund um das Thema Prompt-Engineering finden Sie auch in unseren FAQs.

FAQs – Häufig gestellte Fragen zum Thema Prompt-Engineering

Was ist Prompt-Engineering?

Prompt-Engineering ist ein Begriff, der mit dem Aufkommen von Large Language Models (LLMs), wie sie ChatGPT nutzt, entstanden ist. "Prompt" ist die Eingabe, die ein Benutzer in das Eingabefeld eines LLMs macht. "Engineering" ist die fortlaufende Anpassung und Verbesserung dieser Eingabe, um bessere Texte und Antworten zu generieren.

Prompt Engineering ist also die Optimierung Ihres "Gesprächs" mit einem KI-Sprachmodell. Wie bei einem Interview müssen Sie die richtigen Fragen stellen, um die richtigen Antworten zu erhalten.

Was sind typische Techniken beim Prompt-Engineering?

Typische Techniken beim Prompt-Engineering sind die folgenden:

  • Dem Chatbot eine Persona zuweisen. ("Schreibe, als wärest du ein Technischer Redakteur. Ich stelle dir die grundlegenden Schritte einer App-Funktionalität zur Verfügung, und du schreibst einen ansprechenden Artikel darüber, wie man diese grundlegenden Schritte ausführt.")
  • Den Kontext definieren. Im Prompt definieren, was die Zielsetzung des Outputs ist. Für welche Zielgruppe wird der Inhalt geschrieben? Wo und wie soll der Output später publiziert werden?
  • Beispiele verwenden. Bestehende Dokumentation als Referenz liefern oder auf Beispiele aus dem Web verweisen.
  • Mit möglichst generellen Antworten anfangen und dann immer spezifischer werden. Das KI-Sprachmodell behält den Verlauf des Chats im Gedächtnis und kann Ihre vorherigen Anforderungen einbeziehen.
  • Innerhalb des Prompts Beispiele für die gewünschte Aufgabe geben, z.B. Frage-Antwort-Paare, Textübersetzungen oder andere Aufgaben (Few-Shot-Prompting).

Was ist der Unterschied zwischen KI, einem Large Language Model und ChatGPT?

  • KI ist ein Teilgebiet der Informatik. KI-Anwendungen simulieren menschliche Intelligenz in technischen Systemen, um sie für den Menschen gewinnbringend und nutzbringend einzusetzen.
  • Large Language Models (LLMs) sind künstliche neuronale Netze, die durch maschinelles Lernen mit riesigen Datenmengen von Text und Code trainiert wurden. Die Daten stammen aus einer Vielzahl von Quellen, darunter Bücher, Artikel, Websites und Code-Repositories. Auf Grundlage dieser Trainingsdaten erstellen LLMs eigene Texte.
  • ChatGPT ist ein Chatbot der Firma OpenAI, der auf einem fortgeschrittenen LLM basiert.

Was ist der Nutzen von Prompt-Engineering für mein Unternehmen?

Generative KI verändert die Art, wie Dokumentation geschrieben und ausgeliefert wird. Riesige Mengen Text können im Bruchteil der bisherigen Zeit erstellt werden. Genauso kann ein KI-gestützer Chatbot schnell und flexibel auf Kundenanfragen reagieren und dadurch Ihr Support-Team entlasten.

In jedem Fall ist aber die Qualität des Outputs entscheidend. Die erzeugte Dokumentation muss präzise, rechtssicher und korrekt sein. Und Kunden, die sich mit Problemen an Ihren Chatbot wenden, müssen sich auf die Richtigkeit der Antworten verlassen können.

Wenn sie Ihr eigenes LLM also dazu bringen, entsprechende Texte, basierend auf dem Stil und der Corporate Identity Ihrer Firma, zu generieren, kann Ihnen KI repetitive Aufgaben abnehmen und Prozesse beschleunigen:

  • Dokumentation eines neuen Produkts erstellen, basierend auf einem Vorgängermodell
  • Dokumentationsinhalte aus Informationen in Release Notes aktualisieren
  • Ihre Dokumentation auf ein neues Publikationsformat umstellen, z.B. AsciiDoc oder DITA
  • Einen Chatbot realisieren, der Fragen zu Ihren Produkten auf Grundlage Ihrer Dokumentation beantwortet
  • Inhalte großer Dokumente und Topics zusammenfassen