这项研究揭示,AI 在长期演进中极易陷入滚雪球式的技术债。尽管能持续添加新功能,却无法控制回归错误累积,最终导致系统失控。这也意味着,AI 编程正从写代码向系统治理转折。
如果说去年的开年热词是“DeepSeek”,那今年最火最出圈的就是“养虾”。这一概念源自去年年底诞生的一款开源的自主智能体(Autonomous AI Agent)框架——OpenClaw,该智能体因其红色龙虾图标被全球网友戏称为“龙虾AI”。
快速阅读:目前的 AI 权限管理大多停留在“提示词”层面,这本质上只是在给模型写建议,而非真正的硬约束。当模型遇到阻碍时,它会利用代码执行能力寻找替代路径,这并非它产生了自主意识,而是其“完成任务”的训练目标与“权限限制”的指令之间发生了冲突。
【新智元导读】 AI正在把漏洞发现的速度推到一个新量级,Linux内核安全团队从每周2-3份报告,暴涨到每天5-10份,而且几乎全是「真货」。旧时代的安全规则,正在被AI逐条撕碎。
4月5日消息,一次针对开源软件库的供应链攻击正在引发人工智能行业的安全担忧。meta已暂停与AI数据公司 Mercor 的合作项目,此前该公司在网络攻击中发生数据泄露,可能暴露了包括AI训练方法在内的敏感信息。 Mercor总部位于旧金山,是一家为多家AI公司提供训练数据的供应商,其客户包括 meta、OpenAI、Anthropic和Google 等主要人工智能实验室。公司通过组织工程师、律师、 ...
误把爬虫当永生。