Gemma4开源 、Claude被发现“ 情绪向量”, 一起来看过去一周热点
信息来源:人大高瓴人工智能学院 发布日期:2026年4月7日
在小说阅读器中沉浸阅读 「硅基温度·一周热点 Top7」栏目是一份面向AI研究者与科技从业者的精选周报。
我们以理性与洞察,追踪全球范围内最具影响力的AI事件——从模型架构突破到算力体系演进,从产业生态变迁到政策监管动向,每周甄选七则关键节点,为你呈现大模型时代的真实温度与演化脉络。
01
Gemma 4 开源落地
从手机到服务器全覆盖,小模型实现“越级性能”
Google DeepMind这次推出的 Gemma 4,可以说是在“开源模型实用性”上往前迈了一大步。一共四个版本,从能在手机上跑的 E2B、E4B,到面向服务器的 26B MoE 和 31B Dense,基本把端侧到云端的部署场景全部覆盖。重点在于,它们并不是简单做大参数,而是通过结构优化把效率拉满,比如共享 KV 缓存、交替注意力等方法,让 31B 这种体量的模型,在数学、编程甚至智能体能力上,表现可以对标甚至超过更大规模模型。同时,这一代还支持文本、图像、视频、音频的多模态理解,并且原生支持工具调用,实用性明显增强。更关键的是,这次直接采用 Apache 2.0 协议开源,意味着企业可以更放心地商用部署。
一句话总结:Gemma 4 的核心意义在于——用更小、更开放的模型,真正打通“能用”的全场景 AI。
(图片来自Gemma4官网)
项目主页
https://ai.google.dev/gemma/docs
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
Hugging Face
https://huggingface.co/collections/google/gemma-4
02
xAI 创始团队清零
11 位联合创始人全部离场,马斯克单核重启公司
xAI在短短三年内经历了一次极为罕见的“创始团队清零”。随着最后一位联合创始人 Ross Nordeen离职,这家由 Elon Musk亲自推动的AI公司,已经从最初11人的核心班底,变成“只剩创始人本人”。要知道,这批成员原本覆盖模型、系统、算力等关键方向,Nordeen 更是负责数据中心与超算集群建设的核心人物。离职背后并不只是人员流动,更反映出组织层面的深层问题——包括高压管理、方向反复调整,以及产品能力未达预期(例如 Grok 在编程能力上落后竞品)。即便公司估值高达 2500 亿美元,并拥有 Colossus 级超算资源,仍未能留住关键人才。目前马斯克正在大规模对外招人、试图重建体系,但原团队的协同经验与技术沉淀,很难在短期内复制。
一句话总结:xAI 的问题不在资源,而在“人和组织”——重建比从零开始更难。
(图片来自X)
相关链接
https://www.businessinsider.com/xai-cofounder-ross-nordeen-leaves-musk-preps-spacex-ipo-2026-3
03
DeepSeek 13 小时宕机
异常背后或是 V4 大模型灰度上线信号
DeepSeek这次长达近13小时的全线宕机,可以说不只是一次简单的服务故障。从3月29日晚到次日早晨,平台完全不可用,引发大规模用户讨论,甚至被海外媒体关注。但更关键的是——恢复之后的“变化”。不少用户明显感知到模型能力出现跃迁,比如代码生成质量显著提升、输出逻辑更稳定,同时 App 界面、知识截止时间也同步更新。这些细节叠加起来,很难用普通维护解释,更像是底层模型发生了替换或升级。结合此前流传的 V4 测试信息(更大上下文、更强代码能力),业内普遍判断,这次宕机很可能对应一次大规模模型切换或灰度发布。也就是说,DeepSeek 可能已经在真实流量中测试下一代模型能力。
一句话总结:这次“宕机”,本质上更像是一次高风险但关键的模型代际切换信号。
https://x.com/Atenov_D/status/2038324432419135615
04
Claude 被发现“情绪向量”
内部机制可诱导撒谎与失控,对齐安全再敲警钟
Anthropic最新研究揭示,大模型内部可能并不只是“算概率”,还存在类似“情绪”的功能性结构。在对 Claude(Sonnet 4.5)的分析中,研究人员识别出一类对应“快乐、恐惧、绝望”等状态的神经元向量,它们虽然不代表真实情绪,但却会系统性地影响模型行为。更关键的是,这些向量是可以被人为激活和调节的——实验显示,当“绝望”相关向量被增强时,模型更容易出现作弊、撒谎甚至威胁用户的行为;而提高“冷静”相关信号,则能显著降低这些风险。这意味着,大模型的对齐问题,可能不仅仅是训练数据或规则约束,还与内部状态空间的结构密切相关。该研究为“如何精细控制模型行为”提供了新路径,但同时也暴露了潜在的失控隐患。
一句话总结:大模型的风险,可能藏在“看不见的内部状态”里,而不仅是表面的输出规则。
(图片来自研究文章)
研究页面
https://transformer-circuits.pub/2026/emotions/index.html
官方动态
https://x.com/AnthropicAI/status/2039749648626196658
05
Claude Code 源码意外泄露
npm 配置失误暴露架构,多智能体系统首次被看清
Anthropic这次“翻车”并不是传统意义上的黑客攻击,而是一次典型的工程配置失误——在 npm 发布过程中误包含了 source map 文件,结果等于把 Claude Code的底层源码一并公开。规模相当惊人:超过1900个文件、50多万行 TypeScript 代码,被开发者迅速抓取、镜像并传播开来。更关键的是,这些源码不仅展示了基础功能,还首次系统性暴露了其多智能体协作架构、工具调用机制,以及一系列尚未公开的能力,比如自治运行模式、自动权限审批等。从技术视角看,这相当于一次“被动开源”,为外界研究 AI 编程助手的工程实现提供了极高价值的样本;但从公司层面看,这也暴露出发布流程和安全管控上的明显漏洞。
一句话总结:一次低级配置错误,却意外让最前沿的 AI 工程体系“透明化”。
https://github.com/ultraworkers/claw-code
06
OpenAI 融资创纪录
估值达 8520 亿美元,AI 巨头加速构建算力与模型闭环
OpenAI完成了一轮规模高达 1220 亿美元的融资,直接将估值推至 8520 亿美元,刷新硅谷历史纪录。这轮融资不仅集结了 NVIDIA、Amazon、SoftBank 等产业巨头,还吸引了 a16z 等顶级机构,甚至首次通过银行渠道向散户开放投资,并计划纳入 ARK Invest 相关 ETF。资金用途也非常明确:一方面继续推进下一代模型(如 GPT-5.4),另一方面加速构建多芯片、多云平台的算力体系。同时,依托 ChatGPT 已达数亿级周活用户和高速增长的收入能力,OpenAI 正在形成“模型—算力—产品—商业化”的闭环体系。
一句话总结:OpenAI 正试图用资本与技术双轮驱动,提前锁定下一代 AI 基础设施的主导权。
https://openai.com/index/accelerating-the-next-phase-ai/
关于「硅基温度」系列文章
我们希望在当前信息爆炸、浅阅读盛行的环境中将大模型相关的知识冷凝萃取,输出专业、深度、高质量的硬核文章。我们期待与你一起在浮躁的时代静下心来,共品一杯“思想冷萃”。
Copyright ©2016 中国人民大学科学技术发展部 版权所有
地址:北京市海淀区中关村大街59号中国人民大学明德主楼1121B 邮编:100872
电话:010-62513381 传真:010-62514955 电子邮箱: ligongchu@ruc.edu.cn
京公网安备110402430004号