亮点 🎉
- 自动优化:为 llama.cpp 提供一键式、硬件感知的性能调优。
- 自定义后端支持:导入和管理您偏好的 llama.cpp 版本。
- 导入视觉模型:无缝导入和使用具备视觉功能的模型。
🚀 自动优化(实验性功能)
智能性能调优 — Jan 现在可以根据您的特定硬件应用最佳的 llama.cpp 设置。
- 硬件分析:自动检测您的 CPU、GPU 和内存配置。
- 一键优化:在模型设置中单击一下即可应用最佳参数。
“自动优化”目前处于实验阶段,将根据用户反馈进行完善。它会分析您的系统规格,并应用经过验证的配置,以实现 llama.cpp 的最佳性能。
👁️ 视觉模型导入
增强的多模态支持 — 无缝导入和使用视觉模型。
- 直接导入视觉模型:从任何来源导入具备视觉功能的模型。
- 提升兼容性:更好地处理多模态模型格式。
🔧 自定义后端支持
导入您偏好的 llama.cpp 版本 — 完全控制您的 AI 后端。
- 自定义 llama.cpp 版本:导入并使用您偏好的任何 llama.cpp 构建版本。
- 版本灵活性:可使用最前沿的构建版本或稳定的发行版。
- 备用 CDN:新增了在 GitHub 下载失败时的 CDN 备用方案。
- 用户确认:在自动更新 llama.cpp 前会进行提示。
更新您的 Jan 或下载最新版本(在新标签页中打开)。
如需查看完整的更新列表,请参阅 GitHub 发行说明(在新标签页中打开)。
