Kapitel 3. Prompt-Engineering

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

Prompt-Engineering ist ein Teilbereich des maschinellen Lernens und der Verarbeitung natürlicher Sprache, bei dem es darum geht, Computer in die Lage zu versetzen, menschliche Sprache zu verstehen und zu interpretieren. Das Hauptziel ist es, herauszufinden, wie man mit großen Sprachmodellen, hochentwickelten KI-Systemen, die darauf ausgelegt sind, menschenähnliche Sprachantworten zu verarbeiten und zu generieren, auf genau die richtige Art und Weise sprechen kann, damit sie die gewünschte Antwort liefern.

Stell dir das mal so vor: Wenn du jemanden um einen Rat bittest, musst du ihm einen kleinen Kontext geben und klar sagen, was du brauchst. So ist es auch bei LLMs. Du musst deine Frage oder Eingabeaufforderung sorgfältig formulieren. Manchmal kannst du sogar ein paar Hinweise oder zusätzliche Informationen in deine Frage einbauen, um sicherzustellen, dass der LLM versteht, worum du bittest.

Es geht auch nicht darum, nur einzelne Fragen zu stellen. Manchmal ist es, als würdest du ein ganzes Gespräch mit dem LLM führen, in dem du deine Fragen hin und her schiebst, bis du den goldenen Klumpen an Informationen bekommst, den du brauchst.

Nehmen wir zum Beispiel an, du verwendest ein KI-gestütztes Programmiertool, um eine Webanwendung zu entwickeln. Du beginnst mit der Frage, wie du ein einfaches Benutzeranmeldesystem in ...

Get KI-unterstützte Programmierung now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.