返回更新日志

2025年9月18日

Jan v0.6.10: 自动优化、自定义后端和视觉模型导入
Jan v0.6.10: Auto Optimize, custom backends, and vision model imports

亮点 🎉

  • 自动优化:为 llama.cpp 提供一键式、硬件感知的性能调优。
  • 自定义后端支持:导入和管理您偏好的 llama.cpp 版本。
  • 导入视觉模型:无缝导入和使用具备视觉功能的模型。

🚀 自动优化(实验性功能)

智能性能调优 — Jan 现在可以根据您的特定硬件应用最佳的 llama.cpp 设置。

  • 硬件分析:自动检测您的 CPU、GPU 和内存配置。
  • 一键优化:在模型设置中单击一下即可应用最佳参数。

“自动优化”目前处于实验阶段,将根据用户反馈进行完善。它会分析您的系统规格,并应用经过验证的配置,以实现 llama.cpp 的最佳性能。

👁️ 视觉模型导入

Vision Model Import Demo

增强的多模态支持 — 无缝导入和使用视觉模型。

  • 直接导入视觉模型:从任何来源导入具备视觉功能的模型。
  • 提升兼容性:更好地处理多模态模型格式。

🔧 自定义后端支持

导入您偏好的 llama.cpp 版本 — 完全控制您的 AI 后端。

  • 自定义 llama.cpp 版本:导入并使用您偏好的任何 llama.cpp 构建版本。
  • 版本灵活性:可使用最前沿的构建版本或稳定的发行版。
  • 备用 CDN:新增了在 GitHub 下载失败时的 CDN 备用方案。
  • 用户确认:在自动更新 llama.cpp 前会进行提示。

更新您的 Jan 或下载最新版本(在新标签页中打开)

如需查看完整的更新列表,请参阅 GitHub 发行说明(在新标签页中打开)