文心大模型4.5API搭建实操指南:搭建属于自己的文心API接口
2025.03.14 11:01浏览量:9简介:使用Python + Flask只需四步即可创建专属的文心大模型4.5API服务
文心大模型4.5及X1 正式发布
百度智能云千帆全面支持文心大模型4.5 API调用,文心大模型X1即将上线
使用Python + Flask只需四步即可创建专属的文心大模型4.5API服务,本教程教您部署零门槛的企业级对话接口,快来体验!
准备工作
- 安装最新版Python(≥3.8)
- 注册百度智能云账号,获取API Key和Secret Key
(1)登录百度智能云千帆控制台。
请您注册并登录百度智能云千帆控制台 。
注意:为保障服务稳定运行,账户最好不处于欠费状态。
(2)创建千帆应用
进入控制台创建应用 。
(3)创建成功后,左侧选择应用列表,里面可以看到刚刚创建的应用,里面包含了AppID、API Key、Secret Key(需点击显示),这些请务必不要泄露。获取AppID、API Key、Secret Key。
- 准备命名为
wenshin_api.py
的主程序文件 - 创建
config.ini
配置文件(UTF-8编码)
搭建教程
步骤一:编写配置文件
# config.ini
[API]
AK = your_api_key_here
SK = your_secret_key_here
MODEL = ERNIE-Bot-4.5
[Server]
PORT = 8000
ENABLE_KNOWLEDGE = true # 启用企业知识库功能
步骤二:核心源码部署
# wenshin_api.py
from flask import Flask, request, jsonify
import qianfan
import configparser
app = Flask(__name__)
# 加载配置
config = configparser.ConfigParser()
config.read('config.ini', encoding='utf-8')
# 初始化千帆客户端
chat_client = qianfan.ChatCompletion(
model=config['API']['MODEL'],
ak=config['API']['AK'],
sk=config['API']['SK']
)
@app.route('/api/chat', methods=['POST'])
def chat():
data = request.json
response = chat_client.do(
messages=data['messages'],
temperature=data.get('temperature', 0.7),
enable_knowledge=config.getboolean('Server','ENABLE_KNOWLEDGE')
)
return jsonify({
"result": response.body["result"],
"tokens_used": response.body["usage"]
})
if __name__ == '__main__':
app.run(port=config['Server']['PORT'])
步骤三:启动服务
# 安装依赖库
pip install qianfan flask
# 运行API服务(默认端口8000)
python wenshin_api.py
当终端显示 *Running on http://127.0.0.1:8000*
即表示启动成功
网页调用范例
<script>
async function getWenshinReply(question) {
const apiUrl = 'http://你的服务器IP:8000/api/chat';
const response = await fetch(apiUrl, {
method: 'POST',
headers: {'Content-Type': 'application/json'},
body: JSON.stringify({
messages: [{
role: "user",
content: question
}]
})
});
return await response.json();
}
// 使用示例
getWenshinReply("如何提高企业销售转化率?").then(data => {
console.log("AI回复:", data.result);
});
</script>
功能扩展技巧
- 私有知识库接入
在config.ini
添加KNOWLEDGE_IDS = your_knowledge_id
,并在代码中配置knowledge_ids
参数 - 流式输出支持
修改路由函数,增加stream=True
参数并实现SSE(Server-Sent Events)协议 - 限速防护
使用flask-limiter
添加接口访问频率限制
from flask_limiter import Limiter
limiter = Limiter(app, default_limits=["5 per minute"])
部署到生产环境
- 使用
gunicorn
提升并发能力
gunicorn -w 4 -b 0.0.0.0:8000 wenshin_api:app
效果验证
使用curl测试API接口:
curl -X POST http://localhost:8000/api/chat \
-H "Content-Type: application/json" \
-d '{"messages":[{"role":"user","content":"北京有哪些必去景点?"}]}'
响应示例:
{
"result": "北京必去景点推荐:1. 故宫...",
"tokens_used": {
"prompt_tokens": 15,
"completion_tokens": 92
}
}
至此,您专属的文心大模型4.5API接口已部署完成!可根据业务需求调整生成参数(temperature/top_p等)实现定制化效果。
发表评论
登录后可评论,请前往 登录 或 注册