Kapitel 5. Operationalisierung generativer KI-Implementierungen
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
An dieser Stelle haben wir die Entwicklung von generativer KI und Azure OpenAI Service, die wichtigsten Ansätze für die Entwicklung von Cloud-nativen generativen KI-Apps sowie KI-Architekturen und Bausteine für LLM-fähige Anwendungen mit Azure untersucht.
In diesem Kapitel werden wir die wichtigsten Überlegungen für den Übergang von der Implementierung zum produktiven Einsatz untersuchen. Zu diesem Zweck werden wir über fortgeschrittene Prompt-Engineering-Themen, damit verbundene Abläufe, Sicherheit und verantwortungsvolle KI-Überlegungen sprechen. All dies trägt zu einer unternehmenstauglichen Implementierung von Cloud-nativen, generativen KI-gestützten Anwendungen bei.
Die Kunst des Prompt-Engineering
Prompt-Engineering ist eine der Disziplinen, die die bestehenden KI-Fähigkeiten-Frameworks überrumpelt hat. Vor OpenAIs ChatGPT konnte sich niemand vorstellen, dass die Fähigkeit, mit KI-Modellen zu interagieren, indem man nur die natürliche Schriftsprache verwendet, eine der wertvollsten Fähigkeiten für Unternehmen sein würde, die versuchen, ihre generativen KI-Systeme einzuführen, zu testen und einzusetzen. Wenn es eine Entsprechung des berühmten "Data Scientist: The Sexiest Job of the 21st Century" gibt, dann ist es das Prompt-Engineering, mit starken Beispielen wie dem Prompt-Engineering-Job ...
Get Azure OpenAI Service für Cloud Native Anwendungen now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.