暂无搜索历史
昨天还在看各家模型打架,今天 OpenAI 又把桌子往前推了一截。官方说它是“最聪明、最直觉化”的模型,重点能力放在 Agentic Coding、电脑操作、知...
Qwen3.6-35B,量化、蒸馏版本推荐 Qwen3.6-35B 量化版,vLLM本地部署,性能实测
本文测下 Red Hat 量化团队 Qwen3.6-35B-A3B-NVFP4(4-bit 浮点)的性能
4 月 19 日,普林斯顿 AI 实验室研究员 Yifan Zhang 在 X 上发了一条极其简短的帖子——"V4, next week."
紧跟Kimi K2.6,推一篇有点脑洞的论文,来自月之暗面(Moonshot AI)和清华大学的最新联合研究
Qwen3.6-35B-A3B 开源了,本地部署教程一文中我把这个模型和本地部署(原版以及 GGUF)讲清楚了,但是它 70 多个 GB 的模型文件,我的 40...
先说结论:Qwen3.5 + Unsloth 是目前性价比最高的开源模型微调方案。
吴恩达引用了 METR 的研究:AI 能处理的任务复杂度每 7 个月翻一倍。在编码领域更夸张——大约每 70 天翻一倍。
最近英伟达放出了技术报告(arxiv.org/abs/2604.12374),披露了很多细节
今天聊一个很多 Mac 用户关心的问题:MiniMax-M2.7 怎么在 Mac 上跑起来?
最近 GitHub 上涌出了一批高质量的 Claude Code 生态项目,我挑了 4 个最值得关注的,每一个都能让你的 Claude Code 直接升级一个段...
原生 Swift 开发,与 Antigravity 团队合作,据说从 idea 到原型只用了几天
Claude Opus 4.7 来了,编程能力又炸了之前 Anthropic 还有动作——Claude Code Routines 和桌面端全面重做
单纯使用它们和其他龙虾区别不大,跟讯飞AI眼镜、办公本等硬件结合,具备软硬一体的差异化优势……它就如虎添翼了……
前段时间我在基于大模型、SKills 的知识管理一文中介绍了 Karpathy 的知识管理方法——把各种原始素材统统丢进 raw/ 目录,用 Obsidian ...
LLM、视觉模型、TTS、STT、OCR、Embedding,全都能在 Apple Silicon 上本地微调
这次开源,可以发现很多更细节的内容,不过我就不过多介绍了,只是最令人失望的是,他的开源协议,禁止商用!!!
vLLM 是本号的常客,SGLang 写的不多,主要是我用它也不多,之前偶尔写过 SGLang 怎么用、跑什么模型,也比较浅
GPT-5.4 来了,Opus 4.6 来了,Gemini 3.1 来了,Grok 4 也来了
3 月份我连写了 vLLM 0.18 和 vLLM 三月四连发,假期发现 vllm v0.19.0 发了
暂未填写公司和职称
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市