文心大模型4.5API搭建实操指南:搭建属于自己的文心API接口

作者:百度智能云开发者中心2025.03.14 11:01浏览量:9

简介:使用Python + Flask只需四步即可创建专属的文心大模型4.5API服务

文心大模型4.5及X1 正式发布

百度智能云千帆全面支持文心大模型4.5 API调用,文心大模型X1即将上线

立即体验

使用Python + Flask只需四步即可创建专属的文心大模型4.5API服务,本教程教您部署零门槛的企业级对话接口,快来体验!

准备工作

  1. 安装最新版Python(≥3.8)
  2. 注册百度智能云账号,获取API Key和Secret Key

(1)登录百度智能云千帆控制台。

请您注册并登录百度智能云千帆控制台

注意:为保障服务稳定运行,账户最好不处于欠费状态。

(2)创建千帆应用

进入控制台创建应用

(3)创建成功后,左侧选择应用列表,里面可以看到刚刚创建的应用,里面包含了AppID、API Key、Secret Key(需点击显示),这些请务必不要泄露。获取AppID、API Key、Secret Key。

  1. 准备命名为wenshin_api.py的主程序文件
  2. 创建config.ini配置文件(UTF-8编码)

搭建教程

步骤一:编写配置文件

# config.ini
[API]
AK = your_api_key_here
SK = your_secret_key_here
MODEL = ERNIE-Bot-4.5

[Server]
PORT = 8000
ENABLE_KNOWLEDGE = true  # 启用企业知识库功能

步骤二:核心源码部署

# wenshin_api.py
from flask import Flask, request, jsonify
import qianfan
import configparser

app = Flask(__name__)

# 加载配置
config = configparser.ConfigParser()
config.read('config.ini', encoding='utf-8')

# 初始化千帆客户端
chat_client = qianfan.ChatCompletion(
    model=config['API']['MODEL'],
    ak=config['API']['AK'],
    sk=config['API']['SK']
)

@app.route('/api/chat', methods=['POST'])
def chat():
    data = request.json
    response = chat_client.do(
        messages=data['messages'],
        temperature=data.get('temperature', 0.7),
        enable_knowledge=config.getboolean('Server','ENABLE_KNOWLEDGE')
    )
    return jsonify({
        "result": response.body["result"],
        "tokens_used": response.body["usage"]
    })

if __name__ == '__main__':
    app.run(port=config['Server']['PORT'])

步骤三:启动服务

# 安装依赖库
pip install qianfan flask

# 运行API服务(默认端口8000)
python wenshin_api.py

当终端显示 *Running on http://127.0.0.1:8000* 即表示启动成功

网页调用范例

<script>
async function getWenshinReply(question) {
    const apiUrl = 'http://你的服务器IP:8000/api/chat';

    const response = await fetch(apiUrl, {
        method: 'POST',
        headers: {'Content-Type': 'application/json'},
        body: JSON.stringify({
            messages: [{
                role: "user",
                content: question
            }]
        })
    });

    return await response.json();
}

// 使用示例
getWenshinReply("如何提高企业销售转化率?").then(data => {
    console.log("AI回复:", data.result);
});
</script>

功能扩展技巧

  1. 私有知识库接入
    config.ini添加KNOWLEDGE_IDS = your_knowledge_id,并在代码中配置knowledge_ids参数
  2. 流式输出支持
    修改路由函数,增加stream=True参数并实现SSE(Server-Sent Events)协议
  3. 限速防护
    使用flask-limiter添加接口访问频率限制
from flask_limiter import Limiter
limiter = Limiter(app, default_limits=["5 per minute"])

部署到生产环境

  • 使用gunicorn提升并发能力
gunicorn -w 4 -b 0.0.0.0:8000 wenshin_api:app

效果验证
使用curl测试API接口:

curl -X POST http://localhost:8000/api/chat \
-H "Content-Type: application/json" \
-d '{"messages":[{"role":"user","content":"北京有哪些必去景点?"}]}'

响应示例:

{
  "result": "北京必去景点推荐:1. 故宫...",
  "tokens_used": {
    "prompt_tokens": 15,
    "completion_tokens": 92 
  }
}

至此,您专属的文心大模型4.5API接口已部署完成!可根据业务需求调整生成参数(temperature/top_p等)实现定制化效果。

相关文章推荐

发表评论

图片