亮点 🎉
v0.6.9 版本带来了两个备受期待的功能:多模态模型的图片支持和稳定的 MCP(不再需要实验性标志!)。此外,还包括智能模型能力检测、增强的工具调用以及重大的用户体验改进。
🖼️ 多模态 AI 来了
支持图片上传 — 终于来了!直接在聊天中上传图片,并从兼容的模型中获得视觉理解能力。
- 本地模型:自动支持 Gemma3、Qwen3 和其他具备视觉能力的模型。
- 云端模型:为 GPT-4V、Claude 3.5 Sonnet、Gemini Pro Vision 提供手动切换开关。
- 智能检测:Jan 会自动识别哪些模型支持图片处理。
- 隐私优先:本地模型完全离线处理图片。
团队为将这一期待已久的功能引入 Jan 付出了艰辛的努力,而这一切都是值得的。
🔧 MCP 已稳定
模型上下文协议(Model Context Protocol)已从实验性功能转为稳定功能。
- 不再需要实验性标志 — MCP 工具开箱即用。
- 更好的错误处理,使 MCP 服务器连接更顺畅。
- 可在需要时取消执行中的工具调用。
- 通过改进的服务器状态跟踪提高了可靠性。
MCP 解锁了强大的工作流:网页搜索、代码执行、生产力工具集成等等。
🎯 智能模型管理
- 自动检测能力:Jan 可识别本地模型的工具调用和视觉支持能力。
- 模型兼容性检查器:模型中心(Hub)在下载前会显示硬件要求。
- 收藏模型:标记常用模型以便快速访问。
- 通用 GGUF 导入:可导入任何有效的 .gguf 文件,无论其扩展名如何。
- 硬件感知建议:根据您的系统规格获取模型推荐。
🚀 增强的工具调用
- GPT-OSS 模型:升级后的 llama.cpp 为更多开源模型带来了工具调用功能。
- 性能提升:升级后的引擎使工具执行效果更佳。
- 远程提供商控制:为云端模型的能力提供手动切换开关。
- 简化的工作流:支持取消操作,并提供更好的错误处理。
主要功能
🖼️ 多模态支持
- 图片上传可与兼容的本地和云端模型配合使用。
- 自动检测本地模型的视觉能力。
- 为远程提供商提供手动切换开关(GPT-4V、Claude、Gemini)。
- 保护隐私的本地图片处理。
🔧 稳定的 MCP
- MCP 服务器稳定版发布 — 不再需要实验性标志。
- 增强了 MCP 连接的错误处理。
- 支持在执行期间取消工具调用。
- 改进了服务器状态同步。
🎯 智能模型功能
- 收藏模型 — 标记您最常用的模型。
- 为本地模型自动检测能力。
- 在模型中心(Hub)中进行硬件兼容性检查。
- 通用 GGUF 导入,不限文件扩展名。
⚡ 增强的引擎
- 为 GPT-OSS 模型提供工具调用支持。
- 升级了 llama.cpp 版本,并提高了稳定性。
- 各类模型的性能均有提升。
改进
🔄 API 和自动化
- 在 Jan 启动时自动启动 API 服务器(可选)。
- 在 API 服务器启动时自动加载模型。
- 恢复了对 Ollama 端点的支持,用于自定义配置。
🎨 用户体验
- OpenRouter 模型的思考窗口现在可以正确渲染。
- 在 MCP 操作中提供更好的错误消息。
- 改进了导入用户体验,并清除了已弃用的模型。
- 在运行时检测 CPU 架构。
🔧 技术增强
- 为内存充足的集成 GPU 重新启用了 Vulkan 后端。
- 通过更好的错误处理增强了稳定性。
- 全面性能优化。
感谢我们出色的团队
工程团队实现了用户数月来一直期待的主要功能。图片支持需要深度集成多模态 AI,而稳定 MCP 则涉及广泛的测试和优化。自动检测功能展示了周到的用户体验设计,使人工智能变得更加易于使用。
特别感谢所有贡献者,他们致力于将强大且注重隐私的 AI 功能带给每一个人,正是他们的奉献使 v0.6.9 成为可能。
更新您的 Jan 或下载最新版本(在新标签页中打开)。
要查看完整的变更列表,请参阅 GitHub 发布说明(在新标签页中打开)。
