KIs richtig anleiten: Ein Leitfaden für Prompts
Vom
Du kannst direkt zu den Strategien für bessere Ergebnisse beim Prompt Engineering abkürzen und meine Gedanken zum Status Quo von KI überspringen.
Ein Arbeitskollege hielt mir 2020 ein Video auf der damals noch Twitter genannten Kurznachrichtenplattform unter die Nase. Es zeigte die Bildschirmaufnahme eines Entwicklers, der auf einer rudimentär gestalteten Website eine Aufgabe in ein Textfeld tippte. So etwas wie: „Erstelle eine React-Komponente, die X und Y kann.“ Kurz darauf ploppte eine Antwort in Form von Code auf. Auch wenn die Qualität des Ergebnisses mittelmäßig erschien, blieb dieser Vorgang der maschinellen Verarbeitung von Aufgabe→Ergebnis in meinem Kopf hängen. Das Projekt hieß irgendetwas mit GPT-2.
Meine Erinnerung ist verschwommen. Woran ich mich noch gut erinnere, sind zweierlei Gefühle: Unglauben und Angst. Unglauben, da dem Code aus meinen Augen wenig Brauchbarkeit innewohnte und ich mir technische Fortschritte nicht vorstellen konnte. Angst, da ungreifbare bessere Resultate mich betreffen und ersetzen könnten.
Nur wenige Jahre später veröffentlichte OpenAI GPT-3 sowie GPT-4. Diese Systeme sind nicht nur Trend geworden, sondern finden im Mainstream zunehmend Anwendung. Auch ich nutze GPT täglich – die Ausgaben der Modelle sind brauchbar geworden. Wahrscheinlich rauchen gerade die Köpfe, um an Schulen und Universitäten Umgang mit dem Werkzeug zu finden.
Mit dem Trainieren von Sprachmodellen (Large Language Models) beschäftigen sich nicht mehr nur Start-ups. Tech-Giganten investieren hunderte Millionen Dollar, um eigene Modelle zu erschaffen, die jenen von OpenAI Konkurrenz bieten und sie sehr wahrscheinlich auch übertreffen sollen. Erst vor wenigen Wochen veröffentlichte das französische KI-Start-up Mistral AI mehrere Modelle, die nicht nur frei genutzt werden können (Apache-Lizenz), sondern die Qualitätsstufe von GPT-3.5 erklimmen.
Ich habe Angst, ersetzt zu werden
KIs verarbeiten strukturierte Muster. Code ist im Wesentlichen ein strukturiertes Muster. Programmieren ist daher eine grundlegende Fähigkeit von KIs.
KIs können nicht im menschlichen Verständnis denken, sondern repetitive Aufgaben lösen, indem sie (im Rahmen einer Aufgabenstellung) an ein Wort A das am wahrscheinlichsten folgende Wort B anhängen. Das liegt näher am Programmieren als Rechnen. Einfach gesagt entsteht beim Programmieren irgendwo ein schmackhafter Teebeutel von Text, der von einer Maschine aufgegossen, bzw. ausgeführt, werden kann. Dieser Code sollte in erster Linie seinen innewohnenden Zweck erfüllen – ein Problem lösen. Die Kunst beim Entwickeln liegt jedoch darin, sauberen Code zu schreiben, der nachhaltig und wartbar ist.
Bis jetzt braucht es Menschen, die zum einen entscheiden, was programmiert wird und auch die Entwicklung an sich umsetzen. Es ist möglich, dass sich dieses Verhältnis in Zukunft ändern wird. In meiner Vorstellung werden KIs zunehmend als Arbeiterbienen sozusagen gut geschnürte Aufgabenpakete abarbeiten. Es kann sein, dass es als Junior-Dev schwieriger wird, in die Branche einzusteigen, da seine Arbeit einfacher ersetzbar sein wird, während Senior-Devs mit dem Reifeprozess von KIs wachsen müssen.
Selbst wenn KIs perfekt programmieren können, braucht es eine entscheidende Rolle: die des Entscheidungsträgers. Eine Position, die unter anderem festlegt, welche Programmiersprache, welches Framework und wie Wartbarkeit im Projekt umgesetzt wird. Denn für sauberen Code gibt es nicht eine gängige Praxis, sondern viele Wege.
Lernen, wie die Gutenberg-Druckerpresse funktioniert
Die letzten Monate dachte ich mitunter täglich über meine Zukunft nach und suchte Anhaltspunkte, um mich in den derzeitigen Entwicklungen zu verorten. Ich stolperte über eine Analogie, die hängen blieb:
Mit der Erfindung der Druckpresse von Johannes Gutenberg wurden zwar weniger Bibeln handgeschrieben, dafür um ein Vielfaches mehr Bücher veröffentlicht. Vielleicht wird so Entwicklung von Projekten im Gesamten einen Aufschwung erleben und neue Autoren motivieren, ihre Ideen umzusetzen, indem die Realisierungshürden minimiert werden.
Mir gibt Sicherheit, zu lernen, wie die Druckpresse funktioniert, wie sie bereitgestellt und gewartet werden kann. Deswegen habe ich mir für das kommende Jahr vorgenommen, einen Kurs zu den technischen Grundlagen von Sprachmodellen zu buchen. Wahrscheinlich über Brilliant.org. Kennst du einen besseren? Schreib mir gerne.
Ich liebe programmieren und KI hilft mir dabei
Bis heute war der Quereinstieg eine der besten Entscheidungen meines Lebens. Das meine ich nicht einmal pathetisch. Meistens fehlt es mehr an Zeit als Kenntnissen, um eine Idee von Kopf in Code zu gießen. Genau da kommt KI ins Spiel. Sie arbeitet mir effektiv zu, wenn ich Aufgabenteile in definierte Rahmen lege. Sie hilft mir (noch) nicht, den Lernprozess abzukürzen – den eigentlich bildenden Struggle zu überspringen – sondern erspart mir aufwändiges Googeln und befähigt mich, mehr von dem umzusetzen, was mir Freude bereitet.
Ich versuche, meine Angst in Optimismus umzuschichten. Wenn ich als Gedankenexperiment meine Angst ausklammere, half mir KI bisher ungemein, meine Produktivität zu erhöhen. Weniger im kapitalistischen Sinne, mehr im Sinne eigener Erfüllung, die ich beim Entwickeln und Ideenverwirklichen spüre.
Strategien für bessere Ergebnisse
In den letzten Monaten lernte ich durch den stetigen Einsatz und Trial & Error, Aufgabenpakete für KI so zu schnüren, dass sie mir sinnhafte Ergebnisse zuspielt. Im Kontext von künstlichen Intelligenzen wird das Verfassen klar definierter Instruktionen, also das Beschreibung der Aufgabe, die von der KI erledigt werden soll, als Prompt Engineering bezeichnet.
OpenAI hat nun einen Leitfaden für Prompt Engineering veröffentlicht und damit die unzähligen Blogartikel im Internet, die durch ihre Erfahrungen beim Prompting Rückschlüsse auf bestimmte Ideale beim Aufgabenschreiben zogen, abgelöst.
Im Folgenden fasse ich in einfacher Sprache Kernpunkte zusammen, damit du bessere Ergebnisse beim Prompting von GPT-4 (und wahrscheinlich auch den folgenden Modellen) erzielen kannst. Vielleicht bringt dir diese Zusammenfassung aktuell wenig. Vielleicht wirst du dich aber in ein paar Jahren, wenn eine Variante von KI auf deiner Arbeit breitere Verwendung findest, daran erinnern und dir denken: „Da war doch was.“
1. Klare Anweisungen schreiben
KI-Modelle können keine Gedanken lesen. Wenn die Ausgaben zu lang sind, erfrage eine kürzere Antwort. Wenn die Ergebnisse wiederum zu einfach sind, dann bitte um einen Text auf Expertenniveau. Wenn du ein bestimmtes Format (z. B. Tabelle) wünschst, erwähne es. Je weniger das Modell erraten muss, desto besser.
Ansätze:
- Füge Details ein oder Beispiele an, um relevantere Antworten zu erhalten.
- Bitte Sie das Modell, eine Persona anzunehmen, z. B.
Sei ein Akademiker
. - Verwende Trennzeichen, um unterschiedliche Teile der Eingabe klar zu kennzeichnen.
- Gib die Schritte, die zur Erledigung einer Aufgabe erforderlich sind, an.
- Gib die gewünschte Länge der Ausgabe an.
2. Referenztexte bereitstellen
Sprachmodelle halluzinieren, wenn sie zum Beispiel zu esoterischen Themen oder Zitaten und URLs gefragt werden. Die Anzahl falscher Aussagen kann reduziert werden, wenn du Referenztexte – also ein Kontext zur Frage – bereitstellst. Bitte das Modell, die Referenzen als Grundlage zur Beantwortung der Aufgabe zu nutzen.
3. Komplexe Aufgaben in einfachere Teilaufgaben aufteilen
Komplexe Aufgaben haben tendenziell höhere Fehlerquoten als einfachere Aufgaben. In der Softwareentwicklung ist es daher gute Praxis, ein komplexes System in Reihe von modularen Komponenten zu zerlegen. Ähnlich verhält es sich für Aufgaben an ein Sprachmodell. Außerdem können bei einfacheren Aufgaben frühere Antworten verwendet werden, um die Eingaben für spätere Aufgaben zu konstruieren.
Ansätze:
- Fasse bei langen Konversationen den vorherigen Dialog zusammen oder filtere ihn.
- Lasse lange Dokumente stückweise zusammenfassen und erstelle rekursiv eine vollständige Zusammenfassung.
4. Gib dem Modell Zeit zum „Nachdenken“
Im Supermarkt beim Addieren von Produktpreisen weißt du die Antwort vielleicht nicht sofort, findest es aber mit der Zeit heraus. Ähnlich kann Modellen Denkfehler unterlaufen, wenn sie versuchen, sofort zu antworten, anstatt sich Zeit zu nehmen, um eine Antwort auszuarbeiten. Die Frage nach einer Gedankenkette vor einer Antwort kann dem Modell helfen, zuverlässiger zu richtigen Antworten zu kommen.
Ansätze:
- Bitte das Modell, seine eigene Lösung zu erarbeiten, bevor es zu einer Schlussfolgerung kommt.
- Frage das Modell, ob es bei früheren Antworten etwas übersehen hat.
Artikel zu Ende. Entdeckte Tippfehler oder Gedanken zu diesem Artikel kannst du mir gerne schreiben. 🙆♂️
Artikel, die mir wichtig sind
2023
KI Wie ich lernte, meinen Anspruch auszutricksen
Film
2021
Sprache