您的位置:首页 >Python调用OpenAI API的完整教程
发布于2026-04-29 阅读(0)
扫一扫,手机访问
AI大模型的热度居高不下,不少开发者都想把GPT的能力集成到自己的项目里。不过,官方文档有时读起来难免让人感觉云里雾里。别担心,这篇文章将带你从头到尾、手把手地走通整个流程,确保你看完就能立刻上手实践。

pip install openai
强烈建议使用虚拟环境进行隔离,避免依赖冲突:
python -m venv ai-env # Windows ai-env\Scripts\activate # macOS/Linux source ai-env/bin/activate pip install openai
前往OpenAI官网注册账号,在API Keys页面即可创建新的密钥。
这里有个关键细节:API Key只在创建时显示一次,务必妥善保存。一旦泄露,必须立即前往后台撤销旧密钥,安全永远是第一位的。
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "用一句话解释什么是递归"}
]
)
print(response.choices[0].message.content)
运行后,你可能会看到类似这样的输出:
递归是函数在自己的定义中调用自身,通过不断缩小问题规模直到满足终止条件来求解问题的编程技巧。
普通的调用方式需要等待AI生成全部内容后才返回结果,用户体验上总感觉差了点什么。而流式输出可以实现逐字显示的效果,就像真人打字一样:
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key-here")
stream = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "写一首关于编程的五言绝句"}
],
stream=True # 关键参数
)
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="", flush=True)
print() # 换行
AI模型本身是没有记忆的,要实现多轮对话,关键在于由开发者主动维护并传递历史消息记录:
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key-here")
# 维护对话历史
messages = [
{"role": "system", "content": "你是一个Python编程助手,回答简洁专业。"}
]
def chat(user_input):
messages.append({"role": "user", "content": user_input})
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=messages
)
assistant_msg = response.choices[0].message.content
messages.append({"role": "assistant", "content": assistant_msg})
return assistant_msg
# 测试多轮对话
print(chat("Python的列表推导式是什么?"))
print(chat("能给几个实际例子吗?"))
print(chat("和map/filter比哪个好?"))
需要注意的是,messages列表会随着对话轮次增加而不断变长,这会导致消耗的Token数量也水涨船高。在生产环境中,通常需要对历史消息进行截断或摘要处理以控制成本。
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "列出3个Python Web框架,用JSON格式返回,字段:name, description, stars"}
],
response_format={"type": "json_object"} # 强制JSON输出
)
import json
data = json.loads(response.choices[0].message.content)
print(json.dumps(data, indent=2, ensure_ascii=False))
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "给我起一个技术博客名字"}],
temperature=0.9 # 0=保守确定,1=创意发散
)
temperature=0:适合事实性问答、代码生成等需要确定性的场景。temperature=0.7:通用场景的平衡点。temperature=1.0+:创意写作、头脑风暴,让回答更具想象力。from openai import OpenAI
import time
client = OpenAI(
api_key="sk-your-api-key-here",
timeout=30.0, # 请求超时30秒
max_retries=2 # 最多重试2次
)
# 响应对象中包含token统计
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "你好"}]
)
usage = response.usage
print(f"输入Token: {usage.prompt_tokens}")
print(f"输出Token: {usage.completion_tokens}")
print(f"总计Token: {usage.total_tokens}")
from openai import OpenAI, APIError, RateLimitError, APIConnectionError
client = OpenAI(api_key="sk-your-api-key-here")
try:
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "Hello"}]
)
except RateLimitError:
print("⚠️ 请求太频繁,请稍后重试")
except APIConnectionError:
print("⚠️ 网络连接失败,检查网络设置")
except APIError as e:
print(f"⚠️ API错误:{e.status_code} - {e.message}")
else:
print(response.choices[0].message.content)
这个功能赋予了AI调用外部工具的能力,是实现智能应用的关键:
import json
client = OpenAI(api_key="sk-your-api-key-here")
# 定义工具
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称"
}
},
"required": ["city"]
}
}
}
]
# 第一次调用:AI决定是否使用工具
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
tools=tools
)
message = response.choices[0].message
if message.tool_calls:
# AI想要调用工具
tool_call = message.tool_calls[0]
args = json.loads(tool_call.function.arguments)
print(f"AI想调用: {tool_call.function.name}({args})")
# 这里执行实际函数,模拟返回结果
weather_result = {"city": "北京", "temperature": "22°C", "condition": "晴"}
# 第二次调用:把工具结果传回给AI
response2 = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "北京今天天气怎么样?"},
message,
{
"role": "tool",
"tool_call_id": tool_call.id,
"content": json.dumps(weather_result, ensure_ascii=False)
}
],
tools=tools
)
print(response2.choices[0].message.content)
| 模型 | 适用场景 | 价格(输入/输出 per 1M tokens) |
|---|---|---|
| gpt-4o | 复杂推理、代码生成、长文分析 | 2.5/2.5 / 2.5/ 10 |
| gpt-4o-mini | 日常对话、简单任务、高频调用 | 0.15/0.15 / 0.15/ 0.6 |
| o3-mini | 数学推理、逻辑分析 | 1.1/1.1 / 1.1/ 4.4 |
对于日常开发,gpt-4o-mini 在性价比上优势明显;遇到复杂任务时,再考虑升级到能力更强的 gpt-4o。
在高并发场景下,异步调用能显著提升效率:
import asyncio
from openai import AsyncOpenAI
async def main():
client = AsyncOpenAI(api_key="sk-your-api-key-here")
# 并发5个请求
tasks = [
client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": f"用5个字形容数字{i}"}]
)
for i in range(5)
]
responses = await asyncio.gather(*tasks)
for i, resp in enumerate(responses):
print(f"{i}: {resp.choices[0].message.content}")
asyncio.run(main())
messages 这个历史消息列表。gpt-4o-mini,复杂任务则交给 gpt-4o。掌握以上这些要点,你就能游刃有余地在Python项目中集成OpenAI的智能能力了。
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
正版软件
正版软件
正版软件
正版软件
正版软件
1
2
3
7
9