OpenVINO™正式进入 llama.cpp:GGUF 模型现已支持 Intel CPU、GPU 与 NPU

作者:武卓过去,在 llama.cpp 里跑 GGUF 模型这件事,逻辑一直很清晰:选模型、下模型、运行起来。简单、直接,而且足够高效。这也是为什么 GGUF 和 llama.cpp 直到今天依然是本地大模型开发里最受欢迎的组合之一。但当越来越多开发者开始把目光投向 Intel 平台上的 CPU、GPU,尤其是 NPU,一个更现实的问题也随之出现:能不能不改变熟悉的 GGUF 工作流,就把模型更自

openlab_96bf3613 15小时前
44 0 0

OpenVINO™ 2026.1: 模型持续上新,性能全面进阶

延续 2026 年的持续演进,OpenVINO™ 2026.1 正式发布。作为又一次面向 AI 部署体验的重要升级,这一版本进一步推动了 AI 在 Intel 硬件上的高效落地与便捷部署。在 2026.0 已带来混合专家模型(MoE)支持、Text2Video 流水线和更智能压缩能力的基础上,OpenVINO™ 2026.1 持续扩展模型支持版图,并针对 GenAI 模型带来进一步的性能优化。无论

openlab_96bf3613 1天前
56 0 0

OpenVINO™ 开发者说:Intel NPU 为什么可以跑大语言模型?

【开篇寄语】本文为 OpenVINO™ 社区开发者的实践分享。作者从技术原理、工程实现、生态演进角度,深度拆解了 Intel NPU 运行大语言模型的核心逻辑,其中关于编程模型、算子生态等讨论也为我们理解 NPU 当前架构与演进方向提供参考价值。作为开源 AI 工具套件,OpenVINO™ 鼓励大家结合自身场景验证、交流、分享,共同推动技术实践进步。 【作者简介】陶文,开源投屏软件“屏易连”作者

openlab_96bf3613 1天前
64 0 0

Claude Code 开挂指南:这个开源项目让你的 AI 编程助手直接进化

这个项目是什么?everything-claude-code 是一个在 GitHub 上拿到 50,000+ star 的开源项目,出自 Anthropic Hackathon 的获奖团队之手,经历了 10 个月的实际生产环境打磨。一句话说清楚它是什么:给 AI 编程助手装「外挂」的全套配置包。它不是换个花里胡哨的皮肤,而是从根上改变 Claude Code(以及 Cursor、Codex、Ope

openlab_7bf40019 7天前
272 0 0

征文进行中 | Intel AI PC创新应用征文 & OpenClaw技能挑战赛

当AI PC真正迈入智能体时代,端侧AI的创新边界正在被不断拓宽。从看懂图像的视觉模型,到听懂语音的智能助手,再到能够自主生成内容的创意工具——AI正在以前所未有的方式融入我们的日常。英特尔OpenVINO™中文社区与魔搭社区联合发起 「Intel AI PC创新应用征文 & OpenClaw技能挑战赛」,邀请每一位AI开发者用代码探索端侧智能的无限可能。无论你是经验丰富的开发者,还是刚刚入门的A

openlab_96bf3613 9天前
284 0 0
首页 上一页 1 2 3 下一页 尾页