Alle KI-Funktionen im myContent CMS werden von einem zentralen Modul, den sog. AI Services bereit gestellt. 

Jeder Kunde, der ein Abo für die AI Services abgeschlossen hat, erhält Zugangsdaten zum Admin-Tool (https://aiservices-admin.mycontent.online/).

Im Admin-Tool können je KI-Funktion kundenspezifische Anpassungen vorgenommen und die aktuellen Verbrauchsdaten eingesehen werden.


Unterscheidung der KI-Funktionen

KI-Anfragen können, abhängig vom Typ, auf verschiedenen Sprach- / KI-Modellen ausgeführt werden. Die AI Services kapseln dabei die Anbindung an das jeweilige Modell. Generell unterscheiden wir zwischen prompt-basierten Modellen (z. B. ChatGPT von OpenAI oder Bard von Google), also Modellen, die Anfragen in Textform (Prompts) verarbeiten können und spezialisierten Modellen, die nicht über einen menschenlesbaren Textprompt, sondern über eine Programmierschnittstelle angesprochen werden.

Unterstützte Modelle

OpenAI ChatGPT

Derzeit unterstützten wir ChatGPT von OpenAI in den Versionen 3.5 und 4.0 sowie 4.0 PREVIEW.

ParameterDefaultWertebereichBedeutung
Temperatur00-2

Je "wärmer" diese Temperatur eingestellt wird, umso "kreativer" fallen die Antworten des Modells aus.

Ein Wert von 0 erzeugt i. d. R. deterministische Antworten, höhere Werte erzeugen zufälligere Antworten.

Wird dieser Wert angepasst, sollte Top P auf 0 stehen.

Top P00-1

Steuert analog zur Temperatur die Abweichung innerhalb der Antworten.

Dieser alternative Bewertungsweg (nucleus sampling) legt eine Prozentzahl fest, innerhalb derer eine Gewichtung ähnlicher Tokens stattfinden soll. 

Ein Wert von 0 erzeugt i. d. R. deterministische Antworten, höhere Werte erzeugen zufälligere Antworten (0.1 = 10 %).

Wird dieser Wert angepasst, sollte die Temperatur auf 0 stehen.

Presence Penalty0-2 - 2

Steuert, wie häufig ein Begriff in einer Antwort vorkommen darf.

Ein höherer Wert sorgt für stärkere (i. d. R. thematische) Abweichungen innerhalb der Antwort. 

Siehe https://platform.openai.com/docs/guides/text-generation/parameter-details

Frequency Penalty0-2 - 2

Legt fest, wie häufig Begriffe innerhalb der Antwort wiederholt werden dürfen.

Ein höherer Wert sorgt für weniger Wiederholungen innerhalb der Antwort.

Siehe https://platform.openai.com/docs/guides/text-generation/parameter-details

Google Bard / Gemini

Weitere Modelle folgen.

Microsoft Copilot

Weitere Modelle folgen.

Prompt Management

Alle prompt-basierten KI-Funktionen werden durch die HUP auf ein geeignetes KI-Modell festgelegt und mit Standard-Prompts ausgestattet. Wir pflegen diese Standard-Prompts und passen sie an neue Modelle bzw. Gegebenheiten an.

Standard-Prompts können je Kunde angepasst oder vollständig überschrieben werden (auch das zu verwendende Modell). Ebenfalls können je Mandant eigene Prompts / Aktionen angelegt werden. 

Je Prompt werden verschiedene Parameter, abhängig vom gewählten Sprach-/KI-Modell, unterstützt (siehe oben).

Sollten Sie Hilfe bei der Erstellung eigener Aktionen benötigen, sind wir gern behilflich. Zusätzlich haben wir hier einen kleinen Leitfaden für das Prompt-Engineering für Sie bereit gestellt.

Text kürzen

Die Aktion "Text kürzen" kann im myContent Editor aufgerufen werden und erlaubt es, einen Text auf eine Ziellänge zu kürzen. Folgeprompts werden unterstützt.

Instruktionen & Aktionen

Instruktion / AktionBemerkung
ohne AbsätzeDer Standard sieht vor, dass das Modell die Absatzstruktur im Text auflösen oder verändern darf. Das sorgt dafür, dass die Kürzung näher an der Zielvorgabe liegt.
Erhaltung der AbsätzeDer Anwender kann die Kürzung auch unter Erhaltung der bisherigen Absatzstruktur vornehmen. Das Modell darf also nur innerhalb der Absätze kürzen. Das führt i. d. R. dazu, dass die Zielvorgabe nicht genau erreicht werden kann.
AktionenHier können beliebige Folgeaktionen definiert werden, die in der Oberfläche angeboten werden.

Text-Aktionen / Komponenten-Aktionen

Neben der Kürzung ganzer Artikeltexte können KI-Funktionen auch auf einzelne Komponenten (Textbestandteile) wie z. B. einen Absatz, die Überschrift oder den Teaser angewendet werden.

Je Komponenten-Aktion stehen die gängigen Modell-Parameter (vgl. oben) sowie die Möglichkeit zur Definition sog. Trainings-Samples zur Verfügung. Diese Trainings-Samples werden mit jeder Anfrage (des passenden Typs) an das Sprachmodell übermittelt und dienen ihm als Referenz für die gewünschten Antworten. Diese Methodik des Trainings nennt sich One-Shot-Learning (bei einem Trainings-Sample) oder Few-Shot-Learning (bei mehreren Samples).

Zu beachten ist, dass die Samples auf die Menge der Anfrage-Tokens einzahlen und somit Einfluss auf die maximale Anfragelänge und auch die monatlichen Kosten haben.

Standard-Text-Aktionen

Text kürzen (in Prozent)

Kürzt den übergebenen Text um die angegebene Prozentzahl.

Überschrift vorschlagen

Schlägt 4 Varianten einer SEO Überschrift für den kompletten Text vor. Mandantspezifisch kann mittels Few-Shot-Learning trainiert werden, wie die ideale Überschrift aussehen soll.

Teaser vorschlagen

Schlägt 4 Varianten eines SEO Teasers für den kompletten Text vor. Mandantspezifisch kann mittels Few-Shot-Learning trainiert werden, wie der ideale Teaser aussehen soll.

Bereinigen

Entfernt Floskeln und unnötige Annotationen aus dem Text. (CMS: der jeweiligen Komponenten)

Redigieren

Redigiert den übergebenen Text. (CMS: der jeweiligen Komponenten) Mandantspezifisch kann mittels One- oder Few-Shot-Learning trainiert werden, wie zu redigieren ist.

Rechtschreib- und Grammatikprüfung

Prüft den übergebenen Text auf Korrektheit. (CMS: der jeweiligen Komponenten) Sind keine Fehler vorhanden, wird der Quelltext geliefert, waren Korrekturen erforderlich, wird der korrigierte Text geliefert.

Swagger UI / WebServices

Die AI Services können auch extern verwendet werden. Die Schnittstelle ist mit einer Swagger-UI dokumentiert. Zur Anmeldung wird das API Token (JWT RS256) des jeweiligen Mandanten verwendet.

AI Services Swagger UI

  • Keine Stichwörter