Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

Jeder Kunde, der ein Abo für die AI Services abgeschlossen hat, erhält Zugangsdaten zum Admin-Tool (https://aiaiservices-servicesadmin.mycontent.online/).

Im Admin-Tool können je KI-Funktion kundenspezifische Anpassungen vorgenommen und die aktuellen Verbrauchsdaten eingesehen werden.

...

ParameterDefaultWertebereichBedeutung
Temperatur00-2

Je "wärmer" diese Temperatur eingestellt wird, umso "kreativer" fallen die Antworten des Modells aus.

Ein Wert von 0 erzeugt idR. deterministische Antworten, höhere Werte erzeugen zufälligere Antworten.

Wird dieser Wert angepasst, sollte Top P auf 0 stehen.

Top P00-1

Steuert analog zur Temperatur die Abweichung innerhalb der Antworten.

Dieser alternative Bewertungsweg (nucleus sampling) legt eine Prozentzahl fest, innerhalb derer eine Gewichtung ähnlicher Tokens stattfinden soll. 

Ein Wert von 0 erzeugt idR. deterministische Antworten, höhere Werte erzeugen zufälligere Antworten. 0.1 = 10%

Wird dieser Wert angepasst, sollte die Temperatur auf 0 stehen.

Presence Penalty0-2 - 2

Steuert, wie häufig ein Begriff in einer Antwort vorkommen darf.

Ein höherer Wert sorgt für stärkere (idR. thematische) Abweichungen innerhalb der Antwort. 

Siehe https://platform.openai.com/docs/guides/text-generation/parameter-details

Frequency Penalty0-2 - 2

Legt fest, wie häufig Begriffe innerhalb der Antwort wiederholt werden dürfen.

Ein höherer Wert sorgt für weniger Wiederholungen innerhalb der Antwort.

Siehe https://platform.openai.com/docs/guides/text-generation/parameter-details

Google Bard / Gemini

Weitere Modelle folgen.

Microsoft Copilot

Weitere Modelle folgen.

Prompt Management

Alle prompt-basierten KI Funktionen werden durch die HUP auf ein geeignetes KI-Modell fest gelegt und mit standard Prompts ausgestattet. Wir pflegen diese standard Prompts und passen diese an neue Modelle bzw. Gegebenheiten an.

Standard Prompts können je Kunde angepasst oder vollständig überschrieben werden (auch das zu verwendende Modell). Ebenfalls können je Mandant eigene Prompts / Aktionen angelegt werden. 

Je Prompt werden verschiedene Parameter, abhängig vom gewählten Sprach-/KI-Modell unterstützt. (Siehe oben)

Sollten Sie hilfe bei der Erstellung eigener Aktionen benötigen sind wir gern behilflich. Zusätzlich haben wir hier einen kleinen Leitfaden für das Promt-Engineering für Sie bereit gestellt.

Text Kürzen

Die Aktion "Text Kürzen" kann im myContent Editor aufgerufen werden, und erlaubt es, einen Text auf eine Ziellänge zu kürzen. Folgeprompts werden unterstützt.

...

Je Komponenten-Aktion stehen die gängigen Modell-Parameter (vgl. oben) sowie die Möglichkeit sog. Trainings-Samples zu definieren zur Verfügung. Diese Trainigssamples werden mit jeder Anfrage (des passenden Typs) an das Sprachmodell übermittelt und dienen ihm als Referenz für die gewünschten Antworten. Diese Methodik des Trainings nennt sich One-Shot-Learning (bei einem Trainigssample) oder Few-Shot-Learning (bei mehreren Samples).

...

Standard-Text-Aktionen

Text kürzen (in Prozent)

Kürzt den übergebenen Text um die angegebene Prozentzahl.

Überschrift vorschlagen

Schlägt 4 Varianten einer SEO Überschrift für den kompletten Text vor. Mandantspezifisch kann mittels Few-Shot-Learning trainiert werden, wie die Ideale Überschrift ausehen soll.

...