Interaktive Prompt-Optimierung mit dem Menschen in der Schleife für die Entwicklung und Intervention von Modellen zum Verst?ndnis natürlicher Sprache (INPROMPT)

Das Paradigma des Few-Shot oder Zero-Shot-Lernens zur Erstellung von Modellen in dem Algorithmischen Sprachverstehen geht davon aus, dass keine oder wenige annotierte Texte für das zu l?sende Problem zur Verfügung stehen. Methoden dieses Themengebiets treten somit die Herausforderung an, den hohen Datenbedarf, den die Optimierung von tiefen neuronalen Netzen mit sich bringt, zu relaxieren. Ein typischer Ansatz ist es, vortrainierte neuronale Sprachmodelle zu nutzen und mit Hilfe eines Prompts dazu zu bringen, ein Wort zu generieren, welches eine Textinstanz beschreibt. So kann man zum Beispiel Sentiment-Polarit?tsklassifikation betreiben, in dem man eine Textinstanz wie zum Beispiel "Die Person ist mit dem Produkt sehr zufrieden." mit einem Prompt verknüpft und überprüft, ob der Satz "Das Produkt ist gut" oder "Das Produkt ist schlecht" zu einer h?heren Wahrscheinlichkeit führt. Die Erstellung solcher Prompts bringt den Vorteil mit sich, dass nicht unbedingt technisches Expertenwissen vorausgesetzt wird, allerdings ist es dennoch nicht trivial, gute Prompts zu erstellen. Die bestehende Forschung hat das Problem aus zwei Perspektiven bearbeitet: (1) Anpassen von existierenden Sprachmodellen mit Hilfe von (wenigen) annotierten Daten und manuell erstellten Promptmengen und (2) mit Hilfe von datengetriebener automatischer Erstellung von Prompts. Wir verknüpfen diese beiden Forschungsrichtungen und setzen in unserem Projekt an der typischen Situation an, dass eine Sprachverstehensaufgabe vage formuliert ist, eine genauere Spezifikation aber noch aussteht, und auch keine annotierten (aber sehr wohl nichtannotierte) Texte zur Verfügung stehen. Wir setzen uns als Ziel, ein System zu entwickeln und zu analysieren, welche Dom?nenexperten ohne technische Ausbildung im maschinellen Lernen automatisch anzuleitet, gut funktierende Prompts zu erstellen. Hierzu nutzen wir Optimierungsverfahren, die iterativ Prompts ver?ndern und mit Hilfe einer Zielfunktion deren Qualit?t absch?tzen. Diese Absch?tzung erfolgt auf Basis von automatischen Vorhersagen auf Textinstanzen, auf Basis der Lesbarkeit des Prompts, und auf Basis der Schlüssigkeit einer Erkl?rung der Entscheidungsfindung. Die auf diesen Faktoren aufbauende Zielfunktion wird in unserem Projekt aber nicht automatisch evaluiert, sondern durch einen "Menschen in der Schleife" ersetzt. Um das Problem der iterativen Optimierung von Prompts in gr??erem Stil zu studieren, simulieren wir die Entscheidungen des Menschen allerdings auch mit Hilfe von automatischen Approximationen der menschlichen Zielfunktion. Wir erwarten, dass unser Projekt die Transparenz von Prompt-basierten Modellen deutlich verbessert und zu der Demokratisierung der Verwendung von maschinellen Lernverfahren beitr?gt.

Das Projekt startet im Juli 2024 und wird durch die Deutsche Forschungsgemeinschaft finanziert (KL 2869/13-1).

Publikationen, die in Verbindung zu diesem Projekt stehen

Service nicht erreichbar
Die Verbindung zwischen FIS und Website ist fehlgeschlagen.
Bitte wenden Sie sich an fis@uni-bamberg.de .