OpenAI führt „benutzerdefinierte Anweisungen“ für ChatGPT ein, damit Sie sich nicht bei jeder Eingabeaufforderung wiederholen müssen

OpenAI kündigte am 20. Juli den Beta-Start von „benutzerdefinierten Anweisungen“ für ChatGPT an. Die vielfach nachgefragte Funktion wird es Benutzern ermöglichen, ein Vorwort für ihre Eingabeaufforderungen zu erstellen, das Anweisungen enthält, die die KI berücksichtigen muss, bevor sie auf Anfragen antwortet.

Laut einem Blogbeitrag des Unternehmens ist die Funktion funktioniert über Eingabeaufforderungen und Sitzungen hinweg und umfasst Unterstützung für Plugins. Wie es normalerweise der Fall ist, führt OpenAI die neue Funktion in der Beta-Phase ein und verweist auf das erhöhte Potenzial für unerwartete Ergebnisse:

„Besonders während der Beta-Phase interpretiert ChatGPT benutzerdefinierte Anweisungen nicht immer perfekt – manchmal übersieht es Anweisungen oder wendet sie an, wenn dies nicht beabsichtigt ist.“

Diese Funktion stellt einen bedeutenden Schritt in den Bemühungen des Unternehmens dar, ChatGPT so zu entwickeln, dass Sicherheitsmaßnahmen eingehalten werden und es gleichzeitig „die unterschiedlichen Kontexte und individuellen Bedürfnisse jeder Person effektiv widerspiegelt“.

Custom Instructions ist derzeit in der Betaversion für ChatGPT Plus-Abonnenten außerhalb des Vereinigten Königreichs und der Europäischen Union verfügbar. Die Funktion wird „in den kommenden Wochen“ auf alle Benutzer ausgeweitet.

Die Funktion „Benutzerdefinierte Anweisungen“ könnte für Benutzer, die komplexe Eingabeaufforderungen ausführen, von entscheidender Bedeutung sein. In der Kryptowelt könnte dies unzählige Arbeitsstunden einsparen, da Benutzer ihre Abfrageparameter einmal über mehrere Eingabeaufforderungen eingeben können.

Händler könnten beispielsweise die Marktbedingungen über benutzerdefinierte Anweisungen zu Beginn des Handelstages festlegen und sich die Zeit sparen, ihre Portfolioposition zu Beginn jeder Eingabeaufforderung immer wieder erläutern zu müssen.

Es könnte auch ein nützliches Tool für diejenigen sein, die die Antworten des Chatbots aus rechtlichen und Lokalisierungsgründen einschränken möchten, z. B. einen Krypto-Händler oder KI-Entwickler, der Informationen im Zusammenhang mit der Einhaltung der DSGVO benötigt.

Allerdings, wie The Verge kürzlich erklärte gemeldetExperten gehen davon aus, dass eine zunehmende Komplexität der Abfragen scheinbar die Wahrscheinlichkeit erhöht, dass ChatGPT falsche Informationen ausgibt.

Verwandt: Können KI-Tools wie ChatGPT dedizierte Krypto-Trading-Bots ersetzen?