在5分钟内本地运行OpenAI的gpt-oss
OpenAI发布了gpt-oss(在新标签页中打开),标志着他们在GPT-2之后重返开源AI领域。该模型旨在本地消费级硬件上运行。本指南将向您展示如何安装和运行gpt-oss,以便进行私密、离线的AI对话。
什么是gpt-oss?
gpt-oss是OpenAI的开源大型语言模型,根据Apache-2.0许可证发布。与ChatGPT不同,gpt-oss:
- 完全离线运行——设置后无需互联网
- 100%私密——您的对话绝不会离开您的设备
- 无限使用——没有令牌限制或速率限制
- 永久免费——无需订阅费
- 允许商业使用——Apache-2.0许可证允许商业用途
在本地运行AI模型意味着所有操作都在您自己的硬件上进行,让您完全控制您的数据和对话。
gpt-oss系统要求
| 组件 | 最低配置 | 推荐配置 |
|---|---|---|
| 内存 | 16 GB | 32 GB+ |
| 存储 | 11 GB+空闲 | 25 GB+空闲 |
| CPU | 4核 | 8核+ |
| GPU | 可选 | 推荐使用带有6GB+显存的现代GPU |
| 操作系统 | Windows 10+、macOS 11+、Linux | 最新版本 |
可用安装应用程序
- Jan(推荐 - 最简单的设置)
- llama.cpp(命令行)
- Ollama(基于Docker)
- LM Studio(GUI替代方案)
如何使用Jan在5分钟内本地安装gpt-oss
步骤1:下载Jan
首先下载Jan以在本地运行gpt-oss:下载Jan AI(在新标签页中打开)
Jan是本地运行AI模型最简单的方法。它自动处理CPU/GPU优化,提供简洁的聊天界面,并且无需任何技术知识。
步骤2:安装gpt-oss模型(2-3分钟)

- 打开Jan Hub → 搜索“gpt-oss”(它会出现在顶部)
- 点击“下载”并等待完成(约11GB下载)
- 安装是自动的——Jan会处理一切
步骤3:开始离线使用gpt-oss(30秒)

- 转到“新聊天”→ 从模型选择器中选择gpt-oss-20b
- 开始聊天——Jan会自动为您的硬件进行优化
- 大功告成!您的AI对话现在将完全保持私密
成功:您的gpt-oss设置已完成。聊天无需互联网,无限使用,零订阅费。
Jan与gpt-oss对比ChatGPT及其他本地AI模型
| 功能 | gpt-oss(本地) | ChatGPT Plus | Claude Pro | 其他本地模型 |
|---|---|---|---|---|
| 费用 | 永久免费 | 20美元/月 | 20美元/月 | 免费 |
| 隐私 | 100%私密 | 数据发送到OpenAI | 数据发送到Anthropic | 100%私密 |
| 互联网 | 设置后离线 | 需要互联网 | 需要互联网 | 离线 |
| 使用限制 | 无限 | 受速率限制 | 受速率限制 | 无限 |
| 性能 | 良好(取决于硬件) | 优秀 | 优秀 | 各不相同 |
| 设置难度 | 使用Jan轻松 | 无 | 无 | 各不相同 |
其他安装方法
选项1:Jan(推荐)
- 最适合:完全新手,想要GUI界面的用户
- 设置时间:5分钟
- 难度:非常容易
已在上面介绍过 - 下载Jan(在新标签页中打开)
选项2:llama.cpp(命令行)
- 最适合:开发者、终端用户、自定义集成
- 设置时间:10-15分钟
- 难度:中等
# macOSbrew install llama-cpp# Windows:从发行版中获取Windows execurl -L -o gpt-oss-20b.gguf https://hugging-face.cn/openai/gpt-oss-20b-gguf/resolve/main/gpt-oss-20b.gguf./main -m gpt-oss-20b.gguf --chat-simple# 添加GPU加速(根据您的GPU显存调整-ngl值)./main -m gpt-oss-20b.gguf --chat-simple -ngl 20
选项3:Ollama(基于Docker)
最适合:Docker用户、服务器部署
设置时间:5-10分钟
难度:中等
# 从https://ollama.ac.cn安装ollama run gpt-oss:20b
选项4:LM Studio(GUI替代方案)
最适合:想要GUI但不想用Jan的用户
设置时间:10分钟
难度:容易
- 从官网下载LM Studio
- 转到“模型”→ 搜索“gpt-oss-20b (GGUF)”
- 下载模型(等待完成)
- 转到“聊天”选项卡→ 选择模型并开始聊天
gpt-oss性能与故障排除
预期性能基准
| 硬件配置 | 首次响应 | 后续响应 | 每秒令牌数 |
|---|---|---|---|
| 16GB RAM + 仅CPU | 30-45秒 | 3-6秒 | 3-8令牌/秒 |
| 32GB RAM + RTX 3060 | 15-25秒 | 1-3秒 | 15-25令牌/秒 |
| 32GB RAM + RTX 4080+ | 8-15秒 | 1-2秒 | 25-45令牌/秒 |
常见问题与解决方案
性能优化技巧
- 首次响应缓慢:正常——内核只编译一次,之后速度会显著提升
- 显存不足错误:在设置中减少上下文长度或切换到CPU模式
- 内存不足:关闭占用内存大的应用程序(Chrome、游戏、视频编辑器)
- 响应缓慢:检查是否有其他应用程序大量占用GPU/CPU
快速修复
- 如果响应变慢,重启Jan
- 将上下文窗口从4096令牌降低到2048令牌
- 如果GPU问题持续存在,启用CPU模式
- 关闭未使用的应用程序以释放RAM
常见问题(FAQ)
gpt-oss是完全免费的吗?
是的!gpt-oss在Apache-2.0许可证下100%免费。无订阅费、无令牌限制、无隐藏费用。
gpt-oss使用多少互联网数据?
仅用于初始的11GB下载。安装后,gpt-oss完全离线工作,不使用任何互联网数据。
我可以将gpt-oss用于商业项目吗?
当然可以!Apache-2.0许可证允许商业使用、修改和分发。
gpt-oss比ChatGPT更好吗?
gpt-oss提供不同的优势:完全隐私、无限使用、离线功能和零成本。ChatGPT的性能可能更好,但需要互联网和订阅。
我与gpt-oss的对话会怎样?
您的对话100%保留在您的设备上。没有任何数据发送到OpenAI、Jan或任何外部服务器。
我可以在8GB RAM的Mac上运行gpt-oss吗?
不可以,gpt-oss至少需要16GB RAM。请考虑升级您的RAM或使用基于云的替代方案。
如何将gpt-oss更新到新版本?
Jan会自动通知您更新。当新版本可用时,只需在Jan Hub中点击更新即可。
为什么选择gpt-oss而不是ChatGPT Plus?
gpt-oss的优势
- 20美元/月(ChatGPT Plus)
- 100%私密——您的数据不会离开您的设备
- 无限使用——无速率限制或限制
- 离线工作——设置后无需互联网
- 允许商业使用——可用于构建业务
何时选择ChatGPT Plus
- 您需要绝对最佳的性能
- 您不想管理本地安装
- 您的RAM小于16GB
立即开始使用gpt-oss

准备好尝试gpt-oss了吗?
- 下载Jan:https://jan.net.cn/(在新标签页中打开)
- 查看源代码:https://github.com/menloresearch/jan(在新标签页中打开)
- 需要帮助?请查阅我们的本地AI新手指南
新机器的灵魂
要了解 Jan 的所有最新研究,请订阅《新机器的灵魂》