3.7 KiB
3.7 KiB
Giray: Prompt Engineering with ChatGPT: A Guide for Academic Writers
Allgemeines zum Prompt-Engineering
- Disziplin zur Entwicklung und Optimierung von Prompts für große Sprachmodelle (LLMs).
- Besonders nützlich für akademisches Schreiben und Forschung.
- Ziel: Effektive Nutzung von LLMs wie ChatGPT für Aufgaben wie Textgenerierung, Übersetzung etc.
Was ist ein Prompt?
Ein Prompt besteht aus vier Elementen:
- Instruction - Gibt die Aufgabe vor.
- Context - Liefert Hintergrundwissen.
- Input Data - Konkrete Daten oder Fragen an das Modell.
- Output Indicator - Gibt das gewünschte Format oder die Länge des Outputs an.
Was sind Large Language Models (LLMs)?
- Beispiele: ChatGPT, GPT-3/4.
- Fähigkeiten: Textgenerierung, Fragen beantworten, Übersetzen.
- Trainiert auf großen Datenmengen aus Büchern, Artikeln, Webseiten.
Techniken des Prompt Engineerings
- Instructive Prompts - Geben eine klare Schreibaufgabe.
- System Prompts - Geben einen Startpunkt oder Kontext.
- Question-Answer Prompts - Strukturieren die Antwort um eine Forschungsfrage.
- Contextual Prompts - Bieten gezielte Zusatzinformationen.
- Mixed Prompts - Kombinieren mehrere Elemente für umfassende Aufgaben.
Häufige Fehler beim Schreiben von Prompts
- Mehrdeutigkeit/Unklarheit (Ambiguity) - Vage Prompts führen zu oberflächlichen Antworten.
- Bias Reinforcement - Vorurteilshafte Prompts verstärken Stereotype.
- Overfitting - Zu spezifisch, schränkt Outputvielfalt ein.
- Mangelnder Kontext - Führt zu ungenauen oder unvollständigen Antworten.
- Ethische Probleme - Aufforderung zu illegalem oder unethischem Verhalten.
- Unbeabsichtigte Nebeneffekte - Widersprüchliche Anweisungen führen zu sinnlosem Output.
- Unrealistische Erwartungen - LLMs können z.B. keine exakten Vorhersagen treffen.
Warum sollten Akademiker Prompt Engineering lernen?
- Erhöht Effizienz und Qualität im wissenschaftlichen Schreiben.
- Erlaubt gezielte Steuerung der Modellausgaben.
- Bietet neue Möglichkeiten für Forschung und Lehre.
- Prompt Engineering = eine Art „Programmierung“ für Texte.
Dialogpyramide
Was ist die zentrale Aussage in Bezug auf LLM/GenAi
- sind leistungsstarke Werkzeuge für Content-Kreation, kreatives&wissenschaftliches Schreiben, Storytelling
- über Prompt-Engineering können bessere Ergebnisse erzielt werden
Welche Chance bietet der Einsatz im Studium & Lehre
- erhöhte Effizienz und Qualität im wissenschaftlichen Schreiben
- gezielte Texte generieren
- bei Übersetzung können kulturelle Unterschiede besser ausgeglichen werden
- gut für die Entwicklung neuer Forschungsideen, Lernaufgaben
Welche Begriffe/Argumente sind besonders diskussionswürdig?
- in weit kann/sollte man genAI in Forschung und Lehre einsetzen
- Ethical Considerations ist nicht wirklich Pitfall
- Bestandteile eines „guten" Prompts
Welche offenen Fragen bleiben
- Wie sollte genAI in Forschung und Lehre genau eingesetzt werden?
- Wie sieht es aus mit Urheberrecht?
- Kann genAI in Prüfungsleistungen eingesetzt werden?
- Wie überprüft man Quellenkritik in von genAI kreierten Texten?
- Muss man seine Prompt-Engineering-Techniken auf div. LLMs anpassen?
- Richtigkeit des gesamten Textes
Wir haben eine dynamische Entwicklung - was ist in den Texten schon wieder überholt?
- Man muss nicht mehr zwingend für jeden Prompt System-Kontext geben → customizable GPTs
- Ethical Considerations müssen nicht zwingend beachtet werden, GPTs sind mittlerweile sowieso sehr restriktiv
- Reasoning kann Prompting-Prozess erleichtern
- KI verbessert "schlechter" geschriebenen Prompt selbstständig
- ChatGPT basiert nicht mehr nur auf Lern-Daten bis Ende 2021