Strukturierte Outputs
Welches Problem lösen.
Erzwingt die Ausgabe von LLM im JSON-Format und ist das angegebene Schema
Alte Lösungen
In der Eingabe verlangen Sie von LLM, das JSON-Format und den Namen und Typ jedes Felds auszugeben, z. B.
output in JSON object with follow fileds:
- name: string
- age: number
- isFemale: boolean
LangChain hat einen Parser, der Ihnen dabei hilft, Tipps zu generieren.
Frage 1
Jedoch gibt es eine Wahrscheinlichkeit, dass LLMs in einem Nicht-JSON - Format ausgeben oder dass das Feld nicht erwartet ist.
Später Lösungen
Die OpenAI-API führt den json _ object
- Modus ein, der LLMs dazu zwingen kann, im JSON-Format zurückzugeben.
Frage 2
Die Felder, die von LLM zurückgegeben werden, sind möglicherweise nicht erwartet.
Die neueste Lösung
Das OpenAI-Structured Outputs - Schema ermöglicht es, explizite JSON-Schema in API-Feldern zu übergeben, sodass LLMs das angegebene Format ausgeben können.
response_format: { "type": "json_schema", "json_schema": … , "strict": true }
Sie können das Format in json _ schema angeben, z. B.:
{
type: "json_schema",
json_schema: {
name: "math_response",
schema: {
type: "object",
properties: {
steps: {
type: "array",
items: {
type: "object",
properties: {
explanation: { type: "string" },
output: { type: "string" }
},
required: ["explanation", "output"],
additionalProperties: false
}
},
final_answer: { type: "string" }
},
required: ["steps", "final_answer"],
additionalProperties: false
},
strict: true
}
}
In Node.js können Sie es einfacher verwenden:
Zuerst ein JSON Schema definieren
import { z } from "zod";
import { zodResponseFormat } from "openai/helpers/zod";
const Step = z.object({
explanation: z.string(),
output: z.string(),
});
const MathResponse = z.object({
steps: z.array(Step),
final_answer: z.string(),
});
Wählen Sie das Feld response _ format.
const completion = await openai.beta.chat.completions.parse({
model: "gpt-4o-mini",
messages: [
{ role: "system", content: "You are a helpful math tutor. Guide the user through the solution step by step." },
{ role: "user", content: "how can I solve 8x + 7 = -23" },
],
response_format: zodResponseFormat(MathResponse, "math_response"),
});
Sehr bequem vor Ort.
-
- Wie man es in der LangChain verwendet * *
import { ChatOpenAI } from "@langchain/openai";
import { HumanMessage, SystemMessage } from "@langchain/core/messages";
import { StringOutputParser } from "@langchain/core/output_parsers";
import { z } from "zod";
import { zodResponseFormat } from "openai/helpers/zod";
export async function main() {
const CalendarEvent = z.object({
name: z.string(),
date: z.string(),
participants: z.array(z.string()),
});
const model = new ChatOpenAI({
model: "gpt-4o-mini",
// 在这里添加
modelKwargs: {
response_format: zodResponseFormat(CalendarEvent, "event"),
},
});
const messages = [
new SystemMessage("Extract the event information."),
new HumanMessage("我和小明参加婚礼"),
];
const parser = new StringOutputParser();
const chain = model.pipe(parser);
const resp = await chain.invoke(messages);
console.log(resp);
}