API Key 配置 🔑
配置 AI 模型,解锁本站所有 LangGraph 代码的一键运行功能。
📝 配置步骤
通过下方级联菜单,选择服务商 → 模型 → 填写 API Key,即可解锁代码运行功能。
- 通用模型:用于所有代码示例(OpenAI SDK、LangChain 等)
- DeepAgent 模型:用于 LangGraph DeepAgent 多智能体系统
🧪 通用模型配置
🤖 DeepAgent 模型配置
⚠️ 尚未配置
请先至少配置通用模型,才能运行代码示例
💡 如何获取 API Key:
• OpenAI: 访问 OpenAI Platform
• DeepSeek: 访问 DeepSeek Platform
• Kimi (Moonshot): 访问 Moonshot 开放平台
• Anthropic: 访问 Anthropic Console
• 通义千问: 访问 阿里云百炼
• 智谱 GLM: 访问 智谱 AI 开放平台
🔒 安全说明: 所有 API Key 仅保存在您的浏览器本地,不会上传到服务器
• OpenAI: 访问 OpenAI Platform
• DeepSeek: 访问 DeepSeek Platform
• Kimi (Moonshot): 访问 Moonshot 开放平台
• Anthropic: 访问 Anthropic Console
• 通义千问: 访问 阿里云百炼
• 智谱 GLM: 访问 智谱 AI 开放平台
🔒 安全说明: 所有 API Key 仅保存在您的浏览器本地,不会上传到服务器
✅ 验证 API Key
保存配置后,运行以下示例验证是否成功。
示例 1:流式输出测试(逐字显示 LLM 回复)
python
import os
from openai import OpenAI
# 自动使用你配置的服务商和模型
client = OpenAI(
api_key=os.environ.get("CUSTOM_API_KEY") or os.environ.get("OPENAI_API_KEY"),
base_url=os.environ.get("CUSTOM_BASE_URL", "https://api.openai.com/v1")
)
model = os.environ.get("CUSTOM_MODEL_NAME", "gpt-4o-mini")
# stream=True 启用流式输出,配合后端 SSE 实时推送每个 token
stream = client.chat.completions.create(
model=model,
messages=[{"role": "user", "content": "你好,请用一句话介绍你自己!"}],
stream=True
)
print(f"[{model}] ", end="", flush=True)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
print()示例 2:使用 DeepSeek 模型
python
import os
from langchain_deepseek import ChatDeepSeek
llm = ChatDeepSeek(
model="deepseek-chat",
api_key=os.environ.get("DEEPSEEK_API_KEY")
)
response = llm.invoke("用一句话介绍 LangChain")
print(response.content)示例 3:LangGraph 简单图
创建一个最简单的 LangGraph 图,实现问答功能:
python
import os
from langgraph.graph import StateGraph, START, END
from langchain_openai import ChatOpenAI
from typing import TypedDict
class State(TypedDict):
question: str
answer: str
def answer_node(state: State):
llm = ChatOpenAI(
model="gpt-4o-mini",
api_key=os.environ.get("OPENAI_API_KEY")
)
response = llm.invoke(state["question"])
return {"answer": response.content}
graph = StateGraph(State)
graph.add_node("answer_node", answer_node)
graph.add_edge(START, "answer_node")
graph.add_edge("answer_node", END)
app = graph.compile()
result = app.invoke({"question": "什么是 LangGraph?"})
print(result["answer"])示例 4:使用 Anthropic Claude 模型(DeepAgent)
python
import os
from langchain_anthropic import ChatAnthropic
llm = ChatAnthropic(
model="claude-sonnet-4-5",
api_key=os.environ.get("ANTHROPIC_API_KEY")
)
response = llm.invoke("用一句话介绍 LangGraph")
print(response.content)🔧 OpenAI 兼容模型参考 (2026)
所有标记 OpenAI 兼容的服务商,都可以通过 base_url + model 参数切换:
| 服务商 | base_url | 常用模型 |
|---|---|---|
| OpenAI | https://api.openai.com/v1 | gpt-5.2, gpt-5.1, gpt-5, gpt-5-mini, gpt-5-nano, gpt-5.2-pro |
| DeepSeek | https://api.deepseek.com | deepseek-chat (V3.2), deepseek-reasoner |
| Kimi | https://api.moonshot.ai/v1 | kimi-k2.5, kimi-k2-0905-Preview, kimi-k2-thinking |
| Anthropic | https://api.anthropic.com | claude-sonnet-4-5, claude-haiku-4-5, claude-opus-4-5 |
| 通义千问 | https://dashscope.aliyuncs.com/compatible-mode/v1 | qwen3-max, qwen-max, qwen-plus |
| 智谱 GLM | https://open.bigmodel.cn/api/paas/v4 | glm-4-plus, glm-4, glm-4-flash |
| 硅基流动 | https://api.siliconflow.cn/v1 | deepseek-ai/DeepSeek-V3, deepseek-ai/DeepSeek-R1 |
📚 开始学习
配置完成后,访问教程页面开始学习: