15 - 部署与优化:上线你的 AI 应用
约 446 字大约 1 分钟
LangChain
2026-03-08
一、部署方案
1.1 FastAPI 后端
\\python from fastapi import FastAPI from langchain_openai import ChatOpenAI
app = FastAPI() llm = ChatOpenAI()
@app.post("/chat") async def chat(message: str): response = llm.invoke(message) return
运行:uvicorn main:app --reload
\\
1.2 Docker 容器化
\\dockerfile FROM python:3.11
WORKDIR /app COPY requirements.txt . RUN pip install -r requirements.txt
COPY . .
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"] \\
\\ash docker build -t langchain-app . docker run -p 8000:8000 langchain-app \\
二、性能优化
2.1 缓存
\\python from langchain.cache import InMemoryCache from langchain.globals import set_llm_cache
set_llm_cache(InMemoryCache()) \\
2.2 批处理
\\python
批量调用
responses = llm.batch(["问题1", "问题2", "问题3"]) \\
2.3 流式输出
\\python for chunk in llm.stream("长文本生成"): print(chunk.content, end="", flush=True) \\
三、监控与日志
3.1 LangSmith
\\python import os os.environ["LANGCHAIN_TRACING_V2"] = "true" os.environ["LANGCHAIN_API_KEY"] = "your_key" \\
3.2 自定义日志
\\python import logging
logging.basicConfig(level=logging.INFO) logger = logging.getLogger(name)
logger.info("用户提问:%s", question) logger.info("AI回答:%s", answer) \\
四、安全建议
- API Key 管理:使用环境变量
- 输入验证:防止注入攻击
- 速率限制:避免滥用
- 日志脱敏:保护隐私
五、成本控制
5.1 模型选择
- 开发:GPT-3.5-Turbo
- 生产:根据需求选择
5.2 Token 优化
\\python
限制输出长度
llm = ChatOpenAI(max_tokens=500)
使用更便宜的模型
llm = ChatOpenAI(model="gpt-3.5-turbo-0125") \\
六、课程总结
🎉 恭喜你完成了 LangChain 智能体开发入门!
你学到了:
- ✅ LangChain 核心概念
- ✅ Models、Prompts、Parsers
- ✅ Chains、Memory、RAG
- ✅ Tools、Agents
- ✅ 4 个实战项目
- ✅ 部署与优化
下一步建议:
- 深入学习 LangChain 官方文档
- 尝试更复杂的项目
- 参与社区交流
延伸学习:
- LangGraph - Stateful Agent
- LangSmith - 调试与监控
- LlamaIndex - 数据索引
🦞 感谢学习!有问题欢迎在评论区留言!