商城首页欢迎来到中国正版软件门户

您的位置:首页 >Python调用OpenAI API的完整教程

Python调用OpenAI API的完整教程

  发布于2026-04-29 阅读(0)

扫一扫,手机访问

前言

AI大模型的热度居高不下,不少开发者都想把GPT的能力集成到自己的项目里。不过,官方文档有时读起来难免让人感觉云里雾里。别担心,这篇文章将带你从头到尾、手把手地走通整个流程,确保你看完就能立刻上手实践。

Python调用OpenAI API的完整教程

一、准备工作

1.1 安装OpenAI SDK

pip install openai

强烈建议使用虚拟环境进行隔离,避免依赖冲突:

python -m venv ai-env
# Windows
ai-env\Scripts\activate
# macOS/Linux
source ai-env/bin/activate
pip install openai

1.2 获取API Key

前往OpenAI官网注册账号,在API Keys页面即可创建新的密钥。

这里有个关键细节:API Key只在创建时显示一次,务必妥善保存。一旦泄露,必须立即前往后台撤销旧密钥,安全永远是第一位的。

二、最简示例:一次对话

from openai import OpenAI

client = OpenAI(api_key="sk-your-api-key-here")

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role": "user", "content": "用一句话解释什么是递归"}
    ]
)

print(response.choices[0].message.content)

运行后,你可能会看到类似这样的输出:

递归是函数在自己的定义中调用自身,通过不断缩小问题规模直到满足终止条件来求解问题的编程技巧。

三、流式输出(打字机效果)

普通的调用方式需要等待AI生成全部内容后才返回结果,用户体验上总感觉差了点什么。而流式输出可以实现逐字显示的效果,就像真人打字一样:

from openai import OpenAI

client = OpenAI(api_key="sk-your-api-key-here")

stream = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role": "user", "content": "写一首关于编程的五言绝句"}
    ],
    stream=True  # 关键参数
)

for chunk in stream:
    if chunk.choices[0].delta.content is not None:
        print(chunk.choices[0].delta.content, end="", flush=True)

print()  # 换行

四、多轮对话

AI模型本身是没有记忆的,要实现多轮对话,关键在于由开发者主动维护并传递历史消息记录:

from openai import OpenAI

client = OpenAI(api_key="sk-your-api-key-here")

# 维护对话历史
messages = [
    {"role": "system", "content": "你是一个Python编程助手,回答简洁专业。"}
]

def chat(user_input):
    messages.append({"role": "user", "content": user_input})
    
    response = client.chat.completions.create(
        model="gpt-4o-mini",
        messages=messages
    )
    
    assistant_msg = response.choices[0].message.content
    messages.append({"role": "assistant", "content": assistant_msg})
    return assistant_msg

# 测试多轮对话
print(chat("Python的列表推导式是什么?"))
print(chat("能给几个实际例子吗?"))
print(chat("和map/filter比哪个好?"))

需要注意的是,messages列表会随着对话轮次增加而不断变长,这会导致消耗的Token数量也水涨船高。在生产环境中,通常需要对历史消息进行截断或摘要处理以控制成本。

五、实用技巧

5.1 控制输出格式(JSON Mode)

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role": "user", "content": "列出3个Python Web框架,用JSON格式返回,字段:name, description, stars"}
    ],
    response_format={"type": "json_object"}  # 强制JSON输出
)

import json
data = json.loads(response.choices[0].message.content)
print(json.dumps(data, indent=2, ensure_ascii=False))

5.2 设置温度参数

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "给我起一个技术博客名字"}],
    temperature=0.9  # 0=保守确定,1=创意发散
)
  • temperature=0:适合事实性问答、代码生成等需要确定性的场景。
  • temperature=0.7:通用场景的平衡点。
  • temperature=1.0+:创意写作、头脑风暴,让回答更具想象力。

5.3 超时和重试

from openai import OpenAI
import time

client = OpenAI(
    api_key="sk-your-api-key-here",
    timeout=30.0,  # 请求超时30秒
    max_retries=2   # 最多重试2次
)

5.4 计算Token消耗

# 响应对象中包含token统计
response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "你好"}]
)

usage = response.usage
print(f"输入Token: {usage.prompt_tokens}")
print(f"输出Token: {usage.completion_tokens}")
print(f"总计Token: {usage.total_tokens}")

六、常见错误处理

from openai import OpenAI, APIError, RateLimitError, APIConnectionError

client = OpenAI(api_key="sk-your-api-key-here")

try:
    response = client.chat.completions.create(
        model="gpt-4o-mini",
        messages=[{"role": "user", "content": "Hello"}]
    )
except RateLimitError:
    print("⚠️ 请求太频繁,请稍后重试")
except APIConnectionError:
    print("⚠️ 网络连接失败,检查网络设置")
except APIError as e:
    print(f"⚠️ API错误:{e.status_code} - {e.message}")
else:
    print(response.choices[0].message.content)

七、函数调用(Function Calling)

这个功能赋予了AI调用外部工具的能力,是实现智能应用的关键:

import json

client = OpenAI(api_key="sk-your-api-key-here")

# 定义工具
tools = [
    {
        "type": "function",
        "function": {
            "name": "get_weather",
            "description": "获取指定城市的天气信息",
            "parameters": {
                "type": "object",
                "properties": {
                    "city": {
                        "type": "string",
                        "description": "城市名称"
                    }
                },
                "required": ["city"]
            }
        }
    }
]

# 第一次调用:AI决定是否使用工具
response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
    tools=tools
)

message = response.choices[0].message

if message.tool_calls:
    # AI想要调用工具
    tool_call = message.tool_calls[0]
    args = json.loads(tool_call.function.arguments)
    print(f"AI想调用: {tool_call.function.name}({args})")
    
    # 这里执行实际函数,模拟返回结果
    weather_result = {"city": "北京", "temperature": "22°C", "condition": "晴"}
    
    # 第二次调用:把工具结果传回给AI
    response2 = client.chat.completions.create(
        model="gpt-4o-mini",
        messages=[
            {"role": "user", "content": "北京今天天气怎么样?"},
            message,
            {
                "role": "tool",
                "tool_call_id": tool_call.id,
                "content": json.dumps(weather_result, ensure_ascii=False)
            }
        ],
        tools=tools
    )
    print(response2.choices[0].message.content)

八、模型选择指南

模型适用场景价格(输入/输出 per 1M tokens)
gpt-4o复杂推理、代码生成、长文分析

2.5/2.5 /

2.5/

10
gpt-4o-mini日常对话、简单任务、高频调用

0.15/0.15 /

0.15/

0.6
o3-mini数学推理、逻辑分析

1.1/1.1 /

1.1/

4.4

对于日常开发,gpt-4o-mini 在性价比上优势明显;遇到复杂任务时,再考虑升级到能力更强的 gpt-4o

九、异步调用

在高并发场景下,异步调用能显著提升效率:

import asyncio
from openai import AsyncOpenAI

async def main():
    client = AsyncOpenAI(api_key="sk-your-api-key-here")
    
    # 并发5个请求
    tasks = [
        client.chat.completions.create(
            model="gpt-4o-mini",
            messages=[{"role": "user", "content": f"用5个字形容数字{i}"}]
        )
        for i in range(5)
    ]
    
    responses = await asyncio.gather(*tasks)
    for i, resp in enumerate(responses):
        print(f"{i}: {resp.choices[0].message.content}")

asyncio.run(main())

总结

  • 基础调用其实只需要3行代码,入门门槛很低。
  • 多轮对话的核心在于主动维护好 messages 这个历史消息列表。
  • 流式输出能极大提升最终用户的交互体验。
  • Function Calling 为AI打开了调用外部工具的大门,扩展性极强。
  • 模型选择上,日常使用 gpt-4o-mini,复杂任务则交给 gpt-4o

掌握以上这些要点,你就能游刃有余地在Python项目中集成OpenAI的智能能力了。

本文转载于:https://www.jb51.net/python/363027dgz.htm 如有侵犯,请联系zhengruancom@outlook.com删除。
免责声明:正软商城发布此文仅为传递信息,不代表正软商城认同其观点或证实其描述。

热门关注