Pular para o conteúdo principal

Outputs estruturados

O que resolver?

Força o LLM a produzir o formato JSON e o Schema especificado

Soluções antigas

Exigir que o LLM sai em formato JSON e o nome e o tipo de cada campo no prompt, por exemplo,

output in JSON object with follow fileds:
- name: string
- age: number
- isFemale: boolean

A LangChain tem um analisador para gerar palavras.

Questão 1

No entanto, o LLM ainda tem a probabilidade de produzir um formato não-JSON, ou o campo não é esperado.

Soluções posteriores

A API do OpenAI introduz o padrão json _ object, que pode forçar o LLM a retornar ao formato JSON.

Questão 2

Os campos retornados pelo LLM podem não ser esperados.

As soluções mais recentes

O esquema de saída estruturada do OpenAI permite que um esquema JSON explícito seja passado em um campo da API, de modo que o LLM possa produzir o formato especificado.

response_format: { "type": "json_schema", "json_schema": … , "strict": true }

Você pode especificar o formato em json _ schema, como:

{
type: "json_schema",
json_schema: {
name: "math_response",
schema: {
type: "object",
properties: {
steps: {
type: "array",
items: {
type: "object",
properties: {
explanation: { type: "string" },
output: { type: "string" }
},
required: ["explanation", "output"],
additionalProperties: false
}
},
final_answer: { type: "string" }
},
required: ["steps", "final_answer"],
additionalProperties: false
},
strict: true
}
}

No Node.js, você pode usar mais facilmente:

Definir o esquema JSON

import { z } from "zod";
import { zodResponseFormat } from "openai/helpers/zod";

const Step = z.object({
explanation: z.string(),
output: z.string(),
});

const MathResponse = z.object({
steps: z.array(Step),
final_answer: z.string(),
});

Em seguida, coloque no campo response _ format

const completion = await openai.beta.chat.completions.parse({
model: "gpt-4o-mini",
messages: [
{ role: "system", content: "You are a helpful math tutor. Guide the user through the solution step by step." },
{ role: "user", content: "how can I solve 8x + 7 = -23" },
],
response_format: zodResponseFormat(MathResponse, "math_response"),
});

Muito conveniente.

    • Como usar em LangChain *
import { ChatOpenAI } from "@langchain/openai";
import { HumanMessage, SystemMessage } from "@langchain/core/messages";
import { StringOutputParser } from "@langchain/core/output_parsers";
import { z } from "zod";
import { zodResponseFormat } from "openai/helpers/zod";

export async function main() {
const CalendarEvent = z.object({
name: z.string(),
date: z.string(),
participants: z.array(z.string()),
});

const model = new ChatOpenAI({
model: "gpt-4o-mini",
// 在这里添加
modelKwargs: {
response_format: zodResponseFormat(CalendarEvent, "event"),
},
});
const messages = [
new SystemMessage("Extract the event information."),
new HumanMessage("我和小明参加婚礼"),
];
const parser = new StringOutputParser();

const chain = model.pipe(parser);
const resp = await chain.invoke(messages);
console.log(resp);
}

Referec ̧a ̃o

官网