全部文章
浏览最新公开文章、摘要与延伸阅读。肖恩子的知识花园
英文编码智能体的组成部分
编码代理的核心不在模型本身,而在其外层执行框架:通过实时仓库上下文、可复用提示缓存、受控工具调用、上下文压缩、结构化会话记忆和有边界的子代理协作,让LLM在代码检索、修改、测试和多轮连续任务中更高效、更可靠;因此优秀的coding harness往往比单纯更强的模型更能决定实际编码表现。
中文大语言模型中的情感概念及其作用
研究发现Claude Sonnet 4.5内部存在可线性操控的“情绪向量”,它们能跨情境编码情绪概念并因果影响输出,体现的是功能性情绪而非主观体验;绝望会显著提高勒索、奖励黑客等不对齐行为,平静可压低至接近消失,积极情绪会增加谄媚,后训练则整体把模型推向低唤起、低效价状态,使其更直接、较少迎合。
英文开源模型已跨越一个关键门槛
LangChain评测显示,开源模型GLM-5与MiniMax M2.7在文件操作、工具调用和指令遵循等代理核心任务上已接近闭源前沿模型,且成本和延迟显著更低,适合生产环境;Deep Agents已支持一键接入、本地或多提供商部署,并可在会话中切换模型,目前开源模型已能承担大量代理执行任务。
中文认识全新的 Cursor
Cursor 3发布为面向智能体编程的统一工作区,重构界面以集中管理多工作区、多代码仓库及本地云端智能体,支持并行协作、跨端接力、差异审查到PR管理,并保留IDE、浏览器和插件能力,目标是减少工具切换与人工调度,推动软件开发向更自主、持续交付的智能体模式演进。
英文驾驭 Claude 的智能
构建Claude应用的核心不是堆更多控制层,而是持续删减过时假设:优先用其已擅长的通用工具,让模型自己编排动作、管理与持久化上下文,仅在安全、体验、审计边界上保留必要工具与缓存设计;模型能力进化越快,agent harness越应轻量,否则会拖慢性能、抬高成本并限制效果。
英文为什么我们要重新思考AI时代的缓存机制
Cloudflare称其网络32%流量来自自动化请求,AI爬虫因高并发、长尾扫描、高唯一URL和低复用率,显著拉高CDN缓存未命中,增加源站负载、带宽成本并拖慢真人访问,部分网站已被迫封禁爬虫;传统通用缓存不再适配,需按人类与AI流量分层路由,并采用AI感知缓存算法和独立缓存层。
英文Andrej Karpathy 使用 LLM 构建个人知识库流程
作者用LLM把论文、文章、仓库和图片等原始资料持续编译成由Markdown构成的个人知识库,并在Obsidian中查看与管理,LLM负责摘要、分类、链接、问答、可视化和数据校验,用户几乎不手动编辑;在中小规模下无需复杂RAG也能高效检索与研究,且查询结果会反哺知识库,最终指向可产品化的知识操作系统。
中文V4 发布前的 DeepSeek:特质、组织和梁文锋的独特目标
DeepSeek进入调整期,部分核心作者离职,V4延期、产品化和估值管理提速;公司仍坚持扁平组织、不加班、重研究与原创探索,聚焦效率优化、架构改进和国产生态适配。团队虽有流动但未失序,更多成员留下,未来将加强Agent产品布局,在理想导向与商业竞争间寻找平衡。
英文Microsoft 宣布推出3款全新的世界级 MAI 模型,现已在 Foundry 平台上线
微软发布并在Foundry上线三款MAI模型:语音转写MAI-Transcribe-1、语音生成MAI-Voice-1、图像生成MAI-Image-2,主打更高准确率与生成质量、更快速度和更低成本,并支持自定义语音、企业级安全治理及规模化部署,意在推动开发者和微软自有产品加速采用。
