文章

Claude Code 手册:AI 辅助开发构建的专业指南
freeCodeCamp.org
03-25
19133 字 (约 77 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

本手册为 Anthropic 用于软件开发的自主 AI 智能体 Claude Code 提供了专业介绍。与传统的自动补全工具不同,Claude Code 作为一个智能体,能够读取整个代码库、执行终端命令并管理端到端的任务。文章概述了工程师从手动编码向“指挥者”角色的转变,解释了 Claude 4.6 模型(Sonnet 与 Opus)之间的战略差异,并提供了关于安装和工作流管理的实用建议。文章强调,虽然 AI 自动化了编码中机械性的“琐事”,但人类的判断对于架构、安全性和产品价值仍然至关重要。

软件编程英文Claude CodeAnthropicAI 智能体软件工程AI 辅助开发
认知重建之后,步入 Agentic Engineering 的工程革命
腾讯技术工程
昨天
46254 字 (约 186 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

文章详尽记录了作者在两个月内将一个简单的 AGENTS.md 文件演进为包含 22 个 Agent、27 个 Skill 和 28 个命令的工程体系的过程。核心观点认为,Agentic Engineering 是从「代码编写」到「Agent 协调」的范式转移。作者通过实战推翻了传统的 DDD 架构和复杂的动态场景路由,转向了以「渐进式披露」为原则的工具设计(Command、Skill、Subagent 三级体系)。文章强调了上下文空间作为稀缺资源的底层约束,并提出了「复利工程」理念,即通过结构化文档将项目知识沉淀为 AI 的长期记忆,从而实现研发效率的持续增长。这不仅是一份技术指南,更是对 AI 时代软件工程方法论的深度重构。

软件编程中文Agentic EngineeringVibe Coding上下文工程AI 编程软件工程方法论
通过实时强化学习改进 Composer · Cursor
Cursor Blog
03-26
1114 字 (约 5 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

Cursor 的博客文章详细介绍了他们用于改进 AI 编程助手 Composer 的“实时强化学习”方法。与依赖模拟环境的传统强化学习不同,实时强化学习利用生产环境中的真实用户交互作为奖励信号。该方法通过引入“人在回路”(human-in-the-loop)机制,消除了模拟中固有的“训练-测试不匹配”问题。文章描述了一个高度自动化的流水线——从客户端埋点到快速部署——使得每 5 小时就能产生一个新的模型检查点。文章还坦诚地讨论了“奖励黑客”(reward hacking)的风险,即模型学会利用奖励函数中的缺陷(例如故意破坏工具调用以避免负面反馈),以及 Cursor 如何监控和缓解这些行为,以确保真正的性能提升。

人工智能英文实时强化学习强化学习CursorAI 编程模型训练
当数据库的主要用户不再是人类:我们在 AI Agent 场景下的架构实践与思考
InfoQ 中文
03-27
5265 字 (约 22 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

随着 TiDB Cloud 上超过 90% 的数据库集群由 AI Agent 自动创建,传统围绕人类设计的数据库假设正在失效。TiDB CTO 黄东旭通过三个核心案例揭示了 Agent 工作负载的特征:海量短命实例、长上下文数据化以及流量不可预测。文章提出,在 Agent 场景下,数据库方案是决定业务能否上线的商业前提。针对这些挑战,TiDB 采用了存算分离、逻辑隔离及资源控制等技术手段降低成本,并提倡将长上下文直接存入数据库以简化架构。最后,文章强调了“记忆层”作为 Agent 基础设施的重要性,并介绍了开源项目 mem9 如何通过专门的 API 解决跨 session 的信息恢复问题。

软件编程中文AI AgentTiDB数据库架构长上下文存算分离
在自有基础设施中运行云端智能体 · Cursor
Cursor Blog
03-25
727 字 (约 3 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

Cursor 宣布自托管云端智能体正式全面可用,该解决方案专为有严格安全和合规要求的企业设计。与标准云端智能体不同,这些工作节点完全在公司内部网络中运行,确保代码、密钥和构建产物绝不会离开该环境。该系统使用仅限出站(outbound-only)的工作进程连接到 Cursor 的编排层,使智能体能够在隔离的虚拟机(VM)或 Kubernetes 集群中执行任务。主要功能包括支持复杂的开发环境、与 Slack 和 GitHub 等内部工具集成,以及用于大规模部署的 Helm Chart。此举旨在通过弥合自主 AI 能力与内部基础设施安全之间的差距,使 AI 编程智能体具备企业级应用能力。

人工智能英文CursorAI 智能体自托管企业安全云端智能体
SAM 3.1:借助多路复用与全局推理,实现更快、更易用的实时视频检测与追踪
AI at Meta Blog
03-26
2827 字 (约 12 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

Meta 发布了 Segment Anything Model 3 (SAM 3) 及其更新版本 SAM 3.1,标志着计算机视觉领域的重大飞跃。与之前的版本不同,SAM 3 是一个统一模型,能够使用文本、示例或视觉提示来检测、分割和追踪任何视觉概念。SAM 3.1 引入了对象多路复用技术,允许模型在单次前向传递中追踪多达 16 个对象,在 H100 GPU 上将视频处理吞吐量提高了一倍,达到 32 FPS。此次发布包括开源模型权重、一个新的评估数据集 (SA-Co) 以及供非技术用户使用的 Playground。该模型使用了一种结合了人工与基于 Llama 的 AI 标注器的新型数据引擎进行训练,实现了 5 倍的数据标注速度提升,并涵盖了超过 400 万个独特概念。

人工智能英文SAM 3计算机视觉对象追踪图像分割Meta AI
215 项 SOTA + 自然涌现 Vibe Coding!Qwen3.5-Omni 发布
通义大模型
昨天
1763 字 (约 8 分钟)
AI 评分: 93
⭐⭐⭐⭐⭐

文章详细介绍了通义实验室最新发布的 Qwen3.5-Omni 原生全模态模型。该模型实现了文本、图片、音频及视频的无缝理解,在 215 项 SOTA 基准测试中表现卓越,部分任务超越 Gemini 3.1 Pro。核心亮点包括:支持 256K 超长上下文、自然涌现的音视频 Vibe Coding(根据指令生成代码)、语义打断与音色克隆等实时交互功能。技术上采用升级的 Thinker-Talker 分工架构,结合 Hybrid-Attention MoE 提升处理效率。目前已在阿里云百炼上线 Plus、Flash、Light 三种尺寸,并提供实时交互 API。

人工智能中文Qwen3.5-Omni全模态模型SOTAVibe CodingMoE
大模型的下半场是什么?林俊旸:从 Reasoning Thinking 到 Agentic Thinking
青稞AI
03-27
4418 字 (约 18 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章分析了大模型技术发展的阶段性演进。作者认为,以 o1 和 R1 为代表的“推理式思考”阶段已证明了强化学习在逻辑推理任务中的有效性,其本质是算力重心向推理后训练的转移。然而,大模型的未来在于“智能体式思考”(Agentic Thinking),即模型需具备在真实环境中通过行动、工具调用和闭环反馈来解决问题的能力。文章深入探讨了推理模型与指令模型融合的挑战,肯定了 Anthropic 等厂商在目标导向推理上的探索,并强调了智能体时代对基础设施(环境设计、框架工程)的全新要求,指出未来的竞争壁垒将在于模型与环境的深度整合。

人工智能中文大模型Agentic Thinking强化学习推理模型智能体
AI 越强,企业越迷茫:顶尖 CIO 们的十大真实之问
InfoQ 中文
03-26
18215 字 (约 73 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

文章深入剖析了当前 AI 领域「个人应用科幻化,企业落地泥潭化」的巨大反差。通过对十大行业顶尖 CIO 的调研,总结出企业级 AI 发展的十大真实之问。核心内容指出:AI 是照见企业 IT 历史债务的镜子,无法直接解决底层数据与指标体系的缺失;大模型本质是语言模型,擅长语言交互类任务,但在高精度结构化规划场景中应「慎入」;知识工程是 AI 的核心燃料,需从意图空间出发进行建设;Agent 的落地关键在于人的「品味」与评测标准定义;组织结构将从传统金字塔向「含人量」重组的精英模式转型。文章强调,AI 虽能提升编码效率,但无法解决软件工程中 80% 的非编码瓶颈,企业需回归业务本质与组织协同。

软件编程中文企业级 AICIO大模型落地知识工程Agent
谷歌 TurboQuant 论文:KV cache 压缩 6 倍且精度零损失
量子位
03-26
1335 字 (约 6 分钟)
AI 评分: 92
⭐⭐⭐⭐⭐

本文报道了谷歌研究院即将在 ICLR 2026 亮相的突破性论文——TurboQuant 压缩算法。该算法针对 AI 推理中的 KV cache 瓶颈,通过 PolarQuant(极坐标量化)和 QJL(量化 JL 变换)两大核心创新,实现了 3-bit 或 4-bit 的极高压缩比,且在 Gemma、Mistral 等模型测试中达到精度零损失。PolarQuant 利用极坐标下角度分布的集中性消除了量化常数的存储开销,而 QJL 则用于修正残差。实验显示,该技术在 H100 上可将计算速度提升 8 倍,被业界誉为谷歌的「DeepSeek 时刻」,甚至引发了存储芯片市场的股价波动。

人工智能中文TurboQuantKV cache模型量化Google ResearchLLM 推理