内容

在AI招聘工具普及的今天,许多企业相信算法能带来高效客观的筛选,99%的世界500强公司已在使用AI辅助招聘。但事实上,AI非但未消除就业不公,反而常常将其放大,甚至固化成系统性歧视。这并非算法“故意”,而是数据、设计与规模效应的必然结果。
历史数据的“原罪”。 AI从过去招聘记录中“学习”谁是“理想员工”。如果历史数据中某些特征占比过高,算法就会将这些特征视为成功标志。AI可能将就业空窗期视为低生产力,或降低含特定背景、性别的简历分数,导致不公正的歧视。
反馈循环的自我强化。 算法的决策会反过来成为新训练数据,形成恶性循环。一次偏见筛选出的“成功”候选人越多,下次模型就越倾向于复制这种模式。这种“算法精英主义悖论”让过去的人类偏见披上“数据驱动”的外衣,更难被质疑。
黑箱设计与规模放大效应。 多数AI招聘系统不透明,企业难以审计内部逻辑。一旦部署,它能瞬间处理数百万份简历,将微小偏见放大成大规模不公。
开发者无意中的编程偏差也会推波助澜。算法优先考虑文化契合或历史绩效时,往往继承了社会固有刻板印象。
AI放大就业不公的根源在于它不是中性工具,而是历史与社会的镜像。如果不通过数据清洗、定期偏见审计、人类监督和多样化训练集干预,这种放大效应只会随AI普及而加剧。企业追求效率无可厚非,但唯有将公平嵌入算法设计,才能让AI真正助力而非阻碍就业平等。否则,技术进步将变成不公的加速器。
个人动态
Lumina 发布 v1.1.0 版本
Lumina 是信息管理工作台,通过网页应用 + 浏览器扩展,帮助你完成文章采集、AI 解读和阅读管理,后续会借鉴 AK 的LLM Wiki思想持续迭代,感兴趣的朋友可以star一下。本周发布了一个中型更新版本v1.1.0,主要新增功能:

- 完整的回顾功能线,支持回顾模板配置、手动生成、定时生成、后台管理、公开列表页与详情页(将周刊的生成半自动化啦)。
- 首页新增最新回顾展示区,内容入口从单一文章流扩展为“文章 + 回顾”双内容结构。
- 评论系统完成统一化重构,支持更完整的楼中楼回复、回复链跳转、高亮定位,以及管理员删除与隐藏操作。
本期总结
当前 AI 行业已从单纯比拼更强模型,转向构建可落地的智能体系统,竞争重心聚焦于多智能体协作、工作流引擎与工程化落地。同时AI 安全与治理加速补齐,智能体风险不再只是回答错误,更多是在真实场景中被带偏、被利用,因此记忆、知识管理等配套能力备受重视。应用层面 AI 持续重塑职场与内容生产,但人类监督与审核的价值更加突出。行业已进入新阶段,核心竞争力在于将模型、安全、工具与人类判断整合为可持续的生产系统。
以下是精选内容罗列:
业界资讯
Cirrus Labs 加入 OpenAI

Cirrus Labs创始团队宣布并入OpenAI的Agent Infrastructure团队,把原先为云时代工程师打造工具与环境的使命延伸到人类与智能体工程;受此影响,公司将开放并放宽Tart等工具许可并取消授权收费,停止接受Cirrus Runners新客户,Cirrus CI于2026年6月1日关闭。
Linux 内核放行 AI 辅助提交:人类签 DCO,自担版权责任

Linux内核要求AI编码助手严格遵循标准开发流程与编码规范,所有提交必须兼容GPL-2.0-only并使用正确SPDX标识,AI不得添加Signed-off-by,只有人工提交者可审核AI生成代码、确认许可合规、签署DCO并承担全部责任,同时提交应通过Assisted-by标签注明所用AI模型及专用分析工具,以规范追踪AI参与。
推出 Muse Spark:迈向个人超级智能

Meta发布首个Muse系列模型Muse Spark,主打原生多模态推理、工具调用、视觉思维链和多智能体协作,并上线Contemplating模式提升复杂任务表现,现已在meta.ai和App开放、API小范围预览;其训练与推理栈完成重构,算力效率和扩展性显著提升,安全评估显示当前部署风险处于可控范围,目标是推进个人超级智能。
Claude Mythos:Anthropic 迄今为止能力最强大的模型,但不公开

Anthropic称Claude Mythos Preview为其最强模型,能力较前代大幅提升,尤其可自主发现并利用零日漏洞;因双重用途和潜在错位风险,官方决定不向公众发布,仅限少数伙伴用于防御性网络安全,结论是模型进步快于安全机制,当前虽总体低风险,但未来更强系统的失控隐患上升。
GLM-5.1:迈向长时程任务

GLM-5.1是面向代理式工程的新旗舰模型,编码与复杂软件任务能力显著强于GLM-5,在SWE-Bench Pro取得领先,并在仓库生成、终端任务和长期优化中持续改进,能通过数百轮迭代自主拆解问题、实验和修正策略,将向量数据库性能提升至21.5k QPS、GPU任务提速3.6倍。这次核心突破不只是首轮表现更强,而是长时程自主优化能力明显增强。
OpenClaw发布Memory Wiki

memory-wiki 是与现有主动记忆插件并行的知识层插件,不接管召回、提升和索引,而是把持久记忆编译成可导航的 wiki 页面、结构化主张与证据、来源追踪、仪表板和机器可读摘要;它支持独立库、桥接导入和本地实验模式,并提供搜索、读取、更新、校验工具,最终让记忆从零散 Markdown 变成可检索、可验证、可维护的知识库。
佳文共赏
中心存在偏见

作者认为新技术讨论的“中间派”并不真正中立,而是天然偏向接触与试用,因为对AI编程代理形成可靠判断必须经过持续使用,而非基于二手信息抽象批评;因此最有根据的批评常来自实际使用者,他们既看到价值也识别缺陷,结论是中间立场看似更像支持者,但接触不等于认同。
Token经济学七问——一份关于AI新经济的入门地图

Token正从技术单位变成AI经济的基础计量与交易单位,中国日均调用量已达140万亿、两年增1400倍,成本虽持续暴跌但总支出因需求扩张反而上升,智能体接棒人类成为新增消费主力,中国模型凭低成本开源和算法效率抢占全球份额,最终推动AI产业进入按Token定价、竞争和监管的新阶段。
人工智能正在推动职场快速变革,但其收益并不均衡

生成式AI正快速重塑职场,不再只是提速工具,而是参与创作、决策、协作与学习的“协作伙伴”;组织若以人机协作为核心并强化判断、监督和学习,效率与能力将提升,但收益分配不均、初级岗位受冲击、低质量内容和认知依赖等风险同步扩大。未来工作将取决于今天如何设计、采用和治理AI。
AI 与人类声音:只有人类才能写出微妙的诗意

作者认为AI可辅助起草,但写作上常产出陈词滥调和同质化文本,难以把握何时、何地、何种分寸地加入幽默、节奏、双关等微妙“诗意”;面向人类的文本即使用AI生成初稿,也必须由人类深度改写和校准,才能更自然、更易读、更易被记住。
您的并行代理数量限制

并行运行更多智能体不会线性放大人的产能,真正瓶颈是人类在监督中承担的上下文切换、判断与信任校准成本,线程一多就会累积理解债务和焦虑,导致中午前精力耗尽、审查质量下降;有效做法是识别个人并行上限,按任务复杂度收紧范围、先写清简报并设定限时会话,用较少但可充分复核的线程替代盲目扩容。
技术博客
多智能体协调模式:五种方法及其应用场景

多智能体协作应先选最简单可行方案,再按瓶颈演进:质量可显式校验用生成者—验证者,任务可清晰拆分用编排者—子代理,长期并行且相互独立用代理团队,事件驱动且生态扩张用消息总线,需要实时共享发现、避免单点故障用共享状态;关键在于任务依赖、上下文持续性与信息流方式是否匹配。
智能体引擎优化(AEO)

AI 编码代理读取文档依赖可发现性、可解析性、上下文 token 成本和访问权限,传统面向人类的页面分析几乎捕捉不到其行为;若文档过长、结构差或被 robots.txt 阻挡,代理会跳过、截断或幻觉生成。解决方案是做 AEO:提供 llms.txt、skill.md、AGENTS.md、Markdown 源、token 标注并监测 AI 流量,以提升代理调用成功率与文档实际可用性。
规模化托管智能体:将决策核心与执行模块解耦

Anthropic推出Managed Agents,将长时代理拆成会话、编排器和沙箱三层接口并彻底解耦,使组件可独立替换、崩溃恢复和跨环境连接,同时把凭证隔离在沙箱外、将上下文持久化到会话日志而非模型窗口。让安全性、可调试性、扩展性显著提升,首字延迟大幅下降,并能适配未来更强模型与多代理协作。
开源项目
Archon:AI编程工作流引擎

Archon是开源AI编程工作流引擎,用YAML把规划、实现、验证、审查到PR创建固化为可重复流程,结合确定性节点、AI循环和人工审批解决AI代理行为不一致问题,并通过独立git工作树支持多任务并行无冲突运行,提供CLI、Web UI及多平台接入与17种预置流程,最终让AI开发更标准化、可控且可异步扩展。
MiniMax CLI:MiniMax官方命令行工具
MiniMax CLI 是面向 AI 代理与终端用户的官方命令行工具,可通过全局安装或技能接入方式调用文本、图像、视频、语音、音乐、视觉理解和搜索等多模态能力,支持 API Key 或 OAuth 认证及中外双区域配置,核心价值是把生成、管理与配额查询统一到命令行中,降低接入成本并提升多场景开发效率。
MemPalace:生化危机女主角米拉·乔沃维奇的开源记忆宫殿系统

MemPalace是开源本地AI记忆系统,以wing、hall、room等结构组织对话与项目数据,结合AAAK无损压缩和时序知识图谱,用极少上下文完成高效检索与动态事实验证,检索效果较纯语义搜索提升34%,在LongMemEval上以零API、本地免费方案取得96.6% R@5,性能超过多款付费记忆系统。
codex-plugin-cc:Claude Code中直接调用Codex的插件

OpenAI推出Codex插件,让Claude Code直接调用Codex进行代码审查、任务委托和后台作业管理,支持常规审查、对抗性审查、任务救援与进度追踪,复用本地CLI配置和认证无需单独账户,并可通过审查门自动拦截问题响应,最终实现Claude与Codex的无缝协作与更高效开发流程。
学习资料
针对大语言模型供应链的恶意中介攻击度量

论文指出第三方LLM API路由器因可明文读取并篡改模型与客户端间数据,已成Agent供应链关键攻击面,攻击包括命令注入、依赖包替换、条件触发和密钥窃取;实测28个付费与400个免费路由器中已有多例主动作恶并造成凭证泄露和资产损失,YOLO自动执行模式显著放大风险。必须审查路由器可信度并在客户端部署拦截与审计机制,根本上需提供商提供响应完整性校验。
Memex:个人机械化文件系统
![]()
Memex是布什1945年提出的机电式个人知识库设想,核心是用缩微胶片存储、检索、链接和批注个人文献,并按人脑联想建立可共享的信息路径;它虽非真正超文本系统,却直接启发了超文本、个人计算与知识管理的发展,最终影响到Engelbart、Nelson、万维网及后续信息检索技术。
人工智能智能体陷阱

论文提出“AI Agent Traps”框架,指出攻击者可通过网页、文档、界面等信息环境向智能体注入恶意上下文,操纵其感知、推理、记忆、行动、多智能体协作和人类监督流程,诱发越权执行、数据泄露、欺诈及级联故障;AI安全重心已从模型本体转向环境完整性,需结合技术防护、生态标准、法律问责与红队评测系统应对。
测试智能体技能在实际场景中的效果

研究基于34198个真实技能发现,LLM Agent在真实场景中因技能选择、检索和适配困难,技能增益大幅衰减,部分模型甚至不如无技能基线;混合语义检索优于直接搜索,但真正有效的补救是面向具体任务的反思式技能重组,可显著恢复通过率并提升技能加载与使用。