返回更新日志

2025年8月28日

Jan v0.6.9:支持图片、稳定的 MCP 以及强大的模型工具
Jan v0.6.9: Image support, stable MCP, and powerful model tools

亮点 🎉

v0.6.9 版本带来了两个备受期待的功能:多模态模型的图片支持稳定的 MCP(不再需要实验性标志!)。此外,还包括智能模型能力检测、增强的工具调用以及重大的用户体验改进。

🖼️ 多模态 AI 来了

支持图片上传 — 终于来了!直接在聊天中上传图片,并从兼容的模型中获得视觉理解能力。

  • 本地模型:自动支持 Gemma3、Qwen3 和其他具备视觉能力的模型。
  • 云端模型:为 GPT-4V、Claude 3.5 Sonnet、Gemini Pro Vision 提供手动切换开关。
  • 智能检测:Jan 会自动识别哪些模型支持图片处理。
  • 隐私优先:本地模型完全离线处理图片。

团队为将这一期待已久的功能引入 Jan 付出了艰辛的努力,而这一切都是值得的。

🔧 MCP 已稳定

模型上下文协议(Model Context Protocol)已从实验性功能转为稳定功能。

  • 不再需要实验性标志 — MCP 工具开箱即用。
  • 更好的错误处理,使 MCP 服务器连接更顺畅。
  • 可在需要时取消执行中的工具调用
  • 通过改进的服务器状态跟踪提高了可靠性

MCP 解锁了强大的工作流:网页搜索、代码执行、生产力工具集成等等。

🎯 智能模型管理

  • 自动检测能力:Jan 可识别本地模型的工具调用和视觉支持能力。
  • 模型兼容性检查器:模型中心(Hub)在下载前会显示硬件要求。
  • 收藏模型:标记常用模型以便快速访问。
  • 通用 GGUF 导入:可导入任何有效的 .gguf 文件,无论其扩展名如何。
  • 硬件感知建议:根据您的系统规格获取模型推荐。

🚀 增强的工具调用

  • GPT-OSS 模型:升级后的 llama.cpp 为更多开源模型带来了工具调用功能。
  • 性能提升:升级后的引擎使工具执行效果更佳。
  • 远程提供商控制:为云端模型的能力提供手动切换开关。
  • 简化的工作流:支持取消操作,并提供更好的错误处理。

主要功能

🖼️ 多模态支持

  • 图片上传可与兼容的本地和云端模型配合使用。
  • 自动检测本地模型的视觉能力。
  • 为远程提供商提供手动切换开关(GPT-4V、Claude、Gemini)。
  • 保护隐私的本地图片处理。

🔧 稳定的 MCP

  • MCP 服务器稳定版发布 — 不再需要实验性标志。
  • 增强了 MCP 连接的错误处理
  • 支持在执行期间取消工具调用
  • 改进了服务器状态同步

🎯 智能模型功能

  • 收藏模型 — 标记您最常用的模型。
  • 为本地模型自动检测能力
  • 在模型中心(Hub)中进行硬件兼容性检查
  • 通用 GGUF 导入,不限文件扩展名。

⚡ 增强的引擎

  • 为 GPT-OSS 模型提供工具调用支持
  • 升级了 llama.cpp 版本,并提高了稳定性。
  • 各类模型的性能均有提升

改进

🔄 API 和自动化

  • 在 Jan 启动时自动启动 API 服务器(可选)。
  • 在 API 服务器启动时自动加载模型
  • 恢复了对 Ollama 端点的支持,用于自定义配置。

🎨 用户体验

  • OpenRouter 模型的思考窗口现在可以正确渲染。
  • 在 MCP 操作中提供更好的错误消息
  • 改进了导入用户体验,并清除了已弃用的模型。
  • 在运行时检测 CPU 架构

🔧 技术增强

  • 为内存充足的集成 GPU 重新启用了 Vulkan 后端
  • 通过更好的错误处理增强了稳定性
  • 全面性能优化

感谢我们出色的团队

工程团队实现了用户数月来一直期待的主要功能。图片支持需要深度集成多模态 AI,而稳定 MCP 则涉及广泛的测试和优化。自动检测功能展示了周到的用户体验设计,使人工智能变得更加易于使用。

特别感谢所有贡献者,他们致力于将强大且注重隐私的 AI 功能带给每一个人,正是他们的奉献使 v0.6.9 成为可能。


更新您的 Jan 或下载最新版本(在新标签页中打开)

要查看完整的变更列表,请参阅 GitHub 发布说明(在新标签页中打开)