Unter dem Begriff Few-Shot-Learning oder auch Few-Shot-Training versteht man das optionale Anreichern eines KI-Prompts mit Beispielen, also zusätzlichen Trainingsdaten, die dem Sprachmodell mit jeder Anfrage übermittelt werden.

Die Trainingsdaten gehören immer fest zu einem Prompt und liefern dem Sprachmodell Referenzen für erwünschte Antworten. In den AI-Services nennen wir diese Daten "Trainings-Samples". Ein Beispiel sehen Sie rechts.

Few-Shot-Learning hat den Vorteil, dass der Prompt nicht mehr jede Eventualität abdecken oder beschreiben muss, sondern dies anhand der Beispieldaten dynamisch erlernt werden kann. Aktionen wie Texte redigieren, Überschriften oder Teaser vorschlagen sind hierfür prädestinierte Anwendungsfälle.

Few-Shot-Learning hat allerdings auch zwei Nachteile: Da die Trainingsdaten mit jeder Anfrage übermittelt (und somit auch verarbeitet) werden müssen, steigt zum einen die Bearbeitungszeit einer KI-Anfrage in Relation zur Menge der Samples - zum anderen werden die Trainingsdaten auch auf den Token-Verbrauch der Anfrage (und somit eventuell anfallende Kosten) angerechnet. 

Die etwas längere Bearbeitungszeit (wenige Sekunden je nach Modell und Auslastung) sowie die marginal höheren Anfragekosten (i. d. R. hundertstel Cent) führen zu deutlich praxistauglicheren KI-Antworten. In der Regel reichen ein bis zwei Beispiele schon aus, um deutlich bessere Ergebnisse zu erreichen. 


NERD-Wissen

Nutzt man nur ein Trainings-Sample wird häufig auch von One-Shot-Training gesprochen. 



  • Keine Stichwörter