David Schirrmeister 33a7fe4bb0 update
2025-04-20 22:23:52 +02:00

3.7 KiB

Giray: Prompt Engineering with ChatGPT: A Guide for Academic Writers

Allgemeines zum Prompt-Engineering

  • Disziplin zur Entwicklung und Optimierung von Prompts für große Sprachmodelle (LLMs).
  • Besonders nützlich für akademisches Schreiben und Forschung.
  • Ziel: Effektive Nutzung von LLMs wie ChatGPT für Aufgaben wie Textgenerierung, Übersetzung etc.

Was ist ein Prompt?

Ein Prompt besteht aus vier Elementen:

  1. Instruction - Gibt die Aufgabe vor.
  2. Context - Liefert Hintergrundwissen.
  3. Input Data - Konkrete Daten oder Fragen an das Modell.
  4. Output Indicator - Gibt das gewünschte Format oder die Länge des Outputs an.

Was sind Large Language Models (LLMs)?

  • Beispiele: ChatGPT, GPT-3/4.
  • Fähigkeiten: Textgenerierung, Fragen beantworten, Übersetzen.
  • Trainiert auf großen Datenmengen aus Büchern, Artikeln, Webseiten.

Techniken des Prompt Engineerings

  1. Instructive Prompts - Geben eine klare Schreibaufgabe.
  2. System Prompts - Geben einen Startpunkt oder Kontext.
  3. Question-Answer Prompts - Strukturieren die Antwort um eine Forschungsfrage.
  4. Contextual Prompts - Bieten gezielte Zusatzinformationen.
  5. Mixed Prompts - Kombinieren mehrere Elemente für umfassende Aufgaben.

Häufige Fehler beim Schreiben von Prompts

  1. Mehrdeutigkeit/Unklarheit (Ambiguity) - Vage Prompts führen zu oberflächlichen Antworten.
  2. Bias Reinforcement - Vorurteilshafte Prompts verstärken Stereotype.
  3. Overfitting - Zu spezifisch, schränkt Outputvielfalt ein.
  4. Mangelnder Kontext - Führt zu ungenauen oder unvollständigen Antworten.
  5. Ethische Probleme - Aufforderung zu illegalem oder unethischem Verhalten.
  6. Unbeabsichtigte Nebeneffekte - Widersprüchliche Anweisungen führen zu sinnlosem Output.
  7. Unrealistische Erwartungen - LLMs können z.B. keine exakten Vorhersagen treffen.

Warum sollten Akademiker Prompt Engineering lernen?

  • Erhöht Effizienz und Qualität im wissenschaftlichen Schreiben.
  • Erlaubt gezielte Steuerung der Modellausgaben.
  • Bietet neue Möglichkeiten für Forschung und Lehre.
  • Prompt Engineering = eine Art „Programmierung“ für Texte.

Dialogpyramide

Was ist die zentrale Aussage in Bezug auf LLM/GenAi

  • sind leistungsstarke Werkzeuge für Content-Kreation, kreatives&wissenschaftliches Schreiben, Storytelling
  • über Prompt-Engineering können bessere Ergebnisse erzielt werden

Welche Chance bietet der Einsatz im Studium & Lehre

  • erhöhte Effizienz und Qualität im wissenschaftlichen Schreiben
    • gezielte Texte generieren
  • bei Übersetzung können kulturelle Unterschiede besser ausgeglichen werden
  • gut für die Entwicklung neuer Forschungsideen, Lernaufgaben

Welche Begriffe/Argumente sind besonders diskussionswürdig?

  • in weit kann/sollte man genAI in Forschung und Lehre einsetzen
  • Ethical Considerations ist nicht wirklich Pitfall
  • Bestandteile eines „guten" Prompts

Welche offenen Fragen bleiben

  • Wie sollte genAI in Forschung und Lehre genau eingesetzt werden?
  • Wie sieht es aus mit Urheberrecht?
  • Kann genAI in Prüfungsleistungen eingesetzt werden?
  • Wie überprüft man Quellenkritik in von genAI kreierten Texten?
  • Muss man seine Prompt-Engineering-Techniken auf div. LLMs anpassen?
  • Richtigkeit des gesamten Textes

Wir haben eine dynamische Entwicklung - was ist in den Texten schon wieder überholt?

  • Man muss nicht mehr zwingend für jeden Prompt System-Kontext geben → customizable GPTs
  • Ethical Considerations müssen nicht zwingend beachtet werden, GPTs sind mittlerweile sowieso sehr restriktiv
  • Reasoning kann Prompting-Prozess erleichtern
    • KI verbessert "schlechter" geschriebenen Prompt selbstständig
  • ChatGPT basiert nicht mehr nur auf Lern-Daten bis Ende 2021