亮点 🎉
v0.6.8 版本专注于稳定性和实际工作流程:对 llama.cpp 进行了重大加固,新增了两个 MCP 生产力教程,更新了模型页面,并优化了文档结构,使其更加清晰。
🚀 新教程与文档
- Linear MCP 教程:直接通过聊天创建/更新问题、项目、评论、周期
- Todoist MCP 教程:通过自然语言添加、列出、更新、完成和删除任务
- 新模型页面
- Lucy (1.7B) — 专为 web_search 工具调用优化
- Jan‑v1 (4B) — 在 SimpleQA (91.1%) 表现强劲,工具使用能力可靠
- 文档更新
- 重组了首页和产品部分;简化了快速入门指南
- 正在进行文档 v2 (Astro) 迁移,期间添加了手册、博客和更新日志部分,后又移除
🧱 Llama.cpp 引擎:稳定性与正确性
- 为 llama.cpp 扩展增加了结构化错误处理
- 优化了参数处理,改进了模型路径解析,提供了更清晰的错误信息
- 增加了设备解析测试;支持条件性 Vulkan;支持缺失的 CUDA 后端
- 为 MCP 增加了 AVX2 指令集支持检查 (Mac Intel)
- 修复了加载模型时服务器挂起的问题
- 将会话管理和端口分配移至后端,以增强稳健性
- 在设置中添加了推荐标签;支持按模型自定义 Jinja 模板
- 支持张量缓冲区类型覆盖
- 修正了“连续批处理”的描述
✨ 用户体验优化
- 修复了线程排序问题;提高了助手下拉菜单点击的可靠性
- 响应式左侧面板文本颜色;清理了提供商徽标的模糊效果
- 下载错误时显示提示信息;恢复了上下文大小错误对话框
- 防止输入法用户意外提交消息
- 修复了新手引导循环问题;重新引入了 GPU 检测功能
- 在 JSON 编辑后,已连接的 MCP 服务器状态能保持同步
🔍 Hub 与提供商
- 在仓库搜索和私有 README 可视化中遵循 Hugging Face 令牌
- 修复了深度链接和模型详情
- 恢复了出厂设置功能;处理了
modelId中的特殊字符 - 自动更新器的功能开关现在能正常工作
🧪 CI 与内务管理
- 调整了夜间/PR 工作流程;API 服务器日志更清晰
- 清除了未使用的硬件 API
- 更新了发布工作流程;整合了文档发布路径
🤖 推理模型修复
- 修复了 gpt‑oss “思考块”的渲染问题
- 推理文本不再包含在聊天补全请求中
感谢新的贡献者
· @cmppoon · @shmutalov · @B0sh
更新您的 Jan 或下载最新版本(在新标签页中打开)。
如需查看完整的变更列表,请参阅 GitHub 发布说明(在新标签页中打开)。
