Zum Hauptinhalt springen

Strukturierte Outputs

Welches Problem lösen.

Erzwingt die Ausgabe von LLM im JSON-Format und ist das angegebene Schema

Alte Lösungen

In der Eingabe verlangen Sie von LLM, das JSON-Format und den Namen und Typ jedes Felds auszugeben, z. B.

output in JSON object with follow fileds:
- name: string
- age: number
- isFemale: boolean

LangChain hat einen Parser, der Ihnen dabei hilft, Tipps zu generieren.

Frage 1

Jedoch gibt es eine Wahrscheinlichkeit, dass LLMs in einem Nicht-JSON - Format ausgeben oder dass das Feld nicht erwartet ist.

Später Lösungen

Die OpenAI-API führt den json _ object - Modus ein, der LLMs dazu zwingen kann, im JSON-Format zurückzugeben.

Frage 2

Die Felder, die von LLM zurückgegeben werden, sind möglicherweise nicht erwartet.

Die neueste Lösung

Das OpenAI-Structured Outputs - Schema ermöglicht es, explizite JSON-Schema in API-Feldern zu übergeben, sodass LLMs das angegebene Format ausgeben können.

response_format: { "type": "json_schema", "json_schema": … , "strict": true }

Sie können das Format in json _ schema angeben, z. B.:

{
type: "json_schema",
json_schema: {
name: "math_response",
schema: {
type: "object",
properties: {
steps: {
type: "array",
items: {
type: "object",
properties: {
explanation: { type: "string" },
output: { type: "string" }
},
required: ["explanation", "output"],
additionalProperties: false
}
},
final_answer: { type: "string" }
},
required: ["steps", "final_answer"],
additionalProperties: false
},
strict: true
}
}

In Node.js können Sie es einfacher verwenden:

Zuerst ein JSON Schema definieren

import { z } from "zod";
import { zodResponseFormat } from "openai/helpers/zod";

const Step = z.object({
explanation: z.string(),
output: z.string(),
});

const MathResponse = z.object({
steps: z.array(Step),
final_answer: z.string(),
});

Wählen Sie das Feld response _ format.

const completion = await openai.beta.chat.completions.parse({
model: "gpt-4o-mini",
messages: [
{ role: "system", content: "You are a helpful math tutor. Guide the user through the solution step by step." },
{ role: "user", content: "how can I solve 8x + 7 = -23" },
],
response_format: zodResponseFormat(MathResponse, "math_response"),
});

Sehr bequem vor Ort.

    • Wie man es in der LangChain verwendet * *
import { ChatOpenAI } from "@langchain/openai";
import { HumanMessage, SystemMessage } from "@langchain/core/messages";
import { StringOutputParser } from "@langchain/core/output_parsers";
import { z } from "zod";
import { zodResponseFormat } from "openai/helpers/zod";

export async function main() {
const CalendarEvent = z.object({
name: z.string(),
date: z.string(),
participants: z.array(z.string()),
});

const model = new ChatOpenAI({
model: "gpt-4o-mini",
// 在这里添加
modelKwargs: {
response_format: zodResponseFormat(CalendarEvent, "event"),
},
});
const messages = [
new SystemMessage("Extract the event information."),
new HumanMessage("我和小明参加婚礼"),
];
const parser = new StringOutputParser();

const chain = model.pipe(parser);
const resp = await chain.invoke(messages);
console.log(resp);
}

Referenz

官网