- OpenAI启动安全研究员计划,旨在支持独立开展高级AI系统安全性与对齐研究。该计划为外部研究人员、工程师和从业者提供为期约五个月(2026年9月14日至2027年2月5日)的 fellowship 机会,重点涵盖安全评估、伦理、鲁棒性、可扩展缓解措施、隐私保护方法及高风险滥用防范等领域。入选者将获得每月津贴、算力支持和OpenAI导师指导,并需产出实质性研究成果,如论文、基准测试或数据集。工作地点可在加州伯克利共享空间或远程进行。
01 宣布 OpenAI 安全奖学金计划
02 智能时代的产业政策
- OpenAI发布《智能时代的产业政策》文件,提出以人为核心的政策构想,旨在推动先进AI技术惠及全民。该文件强调,面对超级智能的发展,渐进式政策调整已不足够,需系统性变革。OpenAI提出三大方向:扩大机会、共享繁荣、建设韧性制度。这些建议尚属初步探索,并非最终方案,而是作为引发公众讨论的起点,鼓励各界通过民主程序参与完善、挑战或选择。
为推进讨论,OpenAI设立专项反馈渠道(newindustrialpolicy@openai.com),并启动试点计划,提供最高10万美元的奖学金和100万美元API积分的研究资助,支持相关研究。此外,将于5月在华盛顿特区举办“OpenAI研讨会”,促进政策对话。
03 Gemma 4 与开源模型的成功之道
- 文章探讨了2026年开源大模型发布面临的挑战与机遇。相较于闭源模型(如Claude、GPT),开源模型如今面临更激烈的竞争环境,包括Qwen 3.5、Kimi K2.5、GLM 5、MiniMax M2.5、GPT-OSS、Arcee Large、Nemotron 3、Olmo 3等多个成熟开源模型的并存。尽管开源生态已趋于饱和,其潜力仍被视为“暗物质”——巨大但缺乏明确实现路径。文章指出,基准测试分数无法全面反映开源模型的实际价值,尤其在智能体(agentic AI)应用中,开源模型允许开发者更直接评估模型核心能力,而非依赖工具集成或外部 harness。然而,这也使得围绕开源模型构建稳定商业体验更具挑战。
- 文章强调,开源模型的成功不能仅依赖发布时的基准测试成绩。与闭源模型(如Claude Opus或GPT)不同,开源模型在发布后具有更高的表现方差和意外潜力,但也因此难以通过短期体验进行有效评估。作者指出,将开源模型直接代入智能体工作流进行“氛围测试”是一种范畴错误,因其表现高度依赖后续调优与生态支持。此外,开源模型剥离了工具集成层,使研究者能更清晰地观察模型本身的能力边界,例如在不依赖搜索工具的情况下评估推理与生成质量。这种透明性为长期创新提供基础,但同时也提高了构建可靠AI应用的门槛。
- 当前开源模型生态虽已拥挤,但仍存在大量未被发掘的机会。文章以Llama 3和Qwen 3发布时的市场反应为例,说明过去开源模型稀缺时更新即受追捧,而如今用户选择更多,升级动力减弱。同时,开源模型正成为智能体AI(如Agentic AI、OpenClaw)发展的重要推动力,其目标是补充而非取代闭源系统。这种趋势将激发大规模实验,推动开源模型在特定场景下的深度优化。然而,缺乏清晰的成功范式仍是行业痛点,多数项目仍处于探索阶段。
04 OpenAI前员工悄然投资新基金,规模或达1亿美元
-
由多位OpenAI前核心成员联合创立的风险投资基金Zero Shot已完成首轮募资,目标金额为1亿美元,目前已达成初步关闭。该基金名称源自AI训练术语“零样本学习”,其创始团队包括三位OpenAI资深成员:Evan Morikawa(曾主导DALL·E、ChatGPT及Codex的工程落地,现为机器人初创公司Generalist成员)、Andrew Mayne(OpenAI首位提示工程师,播客《The OpenAI Podcast》主持人,并创立了AI部署咨询公司Interdimensional)以及Shawn Jain(前OpenAI工程师兼研究员,现为生成式AI初创公司Synthefy创始人)。此外,基金还包括前01A创始合伙人Kelly Kovacs和前Twitter、迪士尼高管Brett Rounsaville(现任Interdimensional CEO)。团队成员在OpenAI共事多年,离职后因频繁被咨询AI技术趋势而萌生联合投资的想法,并已初步完成数笔投资。
来源 -
TechCrunch推出限时优惠活动,为即将举办的Disrupt 2026大会提供最高482美元的注册折扣,优惠截止时间为4月10日美西时间晚上11:59。该大会预计吸引超过1万名创始人、投资者和科技领袖参与,为期三天,包含250余场实战型会议、高效社交对接及行业创新展示。活动旨在帮助创业者获取下一轮融资、关键人才招聘及突破性发展机会。目前注册可享受优惠价格。
来源
05 [AINews] 耶稣受难日
-
Google于4月3日发布了开源模型Gemma 4,采用Apache 2.0许可,强调其在推理、智能体工作流、多模态及本地设备运行方面的能力。该模型被Google内部人士称为其最强开源模型,性能据称超越十倍参数量级的其他模型。社区关注点集中于其真正开放的权重许可,多位行业人士确认其下游应用自由度。发布当日即获得广泛生态支持,包括vLLM、llama.cpp、Ollama、Intel硬件平台、Unsloth、Hugging Face及Google AI Studio等工具链的快速适配。架构层面采用混合专家(MoE)设计,并集成视觉与音频编码器。
来源 -
Gemma 4的本地推理性能成为焦点,多个技术社区成员分享了基准测试结果与优化方案。模型在消费级GPU和CPU上展现出高效推理能力,尤其在使用llama.cpp和Unsloth工具时,本地运行与微调支持显著降低使用门槛。Intel平台也同步提供对Xeon、Xe GPU和Core Ultra处理器的优化支持。此外,Hugging Face提供一键部署服务,Google AI Studio发布配套教程,推动开发者快速集成。技术解析内容涵盖模型结构细节,如每层嵌入表示与多模态编码机制,为研究者提供深入理解。
来源 -
Marc Andreessen参与的Latent Space播客早期数据显示其可能成为该平台历史上最受欢迎的节目之一。下周将在伦敦举办AIE Europe活动,届时将邀请OpenClaw、Pi及其他欧洲顶尖AI工具的开发者进行现场分享。活动提供直播链接,并包含一首由OpenClaw创作的主题歌曲。主办方呼吁观众点击通知铃以提升算法推荐权重。该活动被视为欧洲AI社区的重要交流平台,涵盖技术发布与行业趋势讨论。
来源 -
AI News于2026年4月3日至4月4日期间监测了12个子版块、544条Twitter内容,未发现Discord相关新动态。该平台现已整合为Latent Space的一部分,用户可自主选择邮件推送频率。网站支持历史内容检索,便于追踪过往资讯。此次更新反映AI资讯聚合平台向模块化与用户定制化方向发展,提升信息获取效率。
来源
06 谷歌悄然推出离线 AI 听写应用
- 谷歌于周一低调在iOS平台发布了一款名为“Google AI Edge Eloquent”的离线优先语音听写应用,旨在与Wispr Flow、SuperWhisper和Willow等同类产品竞争。该应用免费下载,基于Gemma模型的自动语音识别(ASR)系统可在本地运行,用户下载模型后即可开始语音转文字。应用支持实时转录,并在暂停时自动过滤“嗯”“啊”等填充词,优化文本输出。用户可选择“要点”“正式”“简短”“详细”等模式对文本进行风格转换,并可关闭云端模式以启用纯本地处理。应用还能从Gmail导入专有名词,支持自定义词汇添加,并提供转录历史记录、搜索功能及语速统计。
07 “问题在于萨姆·奥尔特曼”:OpenAI 内部人士不信任 CEO
- OpenAI于同日发布关于超级智能治理的政策建议,承诺在AI超越人类智能时仍“以人为本”,强调需保持清醒认知与透明度,防范AI失控或政府滥用AI破坏民主等极端风险。公司称若风险未妥善应对,“人类将受到伤害”,并主张通过负责任的治理实现全民生活质量提升。然而,《纽约客》同日发布深度调查,质疑CEO Sam Altman是否可信。该报道基于对100余名知情人士的采访、内部文件及12次对Altman本人的访谈,指出其领导风格存在严重信任危机。
- 《纽约客》的调查显示,OpenAI内部人士普遍认为Sam Altman具有强烈取悦他人的倾向,同时在追求权力过程中表现出对欺骗后果的漠视。一名董事会成员指出,Altman兼具“极度渴望被喜欢”与“近乎反社会式的对欺骗后果的无视”两种罕见特质。报道认为,这种性格特征使公众难以相信他能真正掌控AI未来,尽管OpenAI描绘出积极愿景。该调查对OpenAI的公信力构成挑战,尤其在推动高风险AI治理政策背景下,领导层信任问题可能影响政策落地与国际合作。
08 伊朗威胁“星际之门”AI数据中心
- 伊朗军方警告称,若美国继续威胁并空袭其民用基础设施,伊朗将对美国在中东地区的能源与科技设施实施报复性打击。伊朗军方发言人埃布拉欣·佐尔法加里在近日发布的视频中表示,伊朗已掌握包括阿联酋境内“星际之门”(Stargate)数据中心在内的关键目标信息,并强调“即便由谷歌隐藏,也无法逃过我方监视”。该视频画面聚焦于Stargate项目,凸显其战略关注。Stargate是由OpenAI、软银和甲骨文共同投资的5000亿美元AI数据中心计划,于2025年1月宣布,旨在全球扩展算力基础设施,此前曾因资金与关税问题推进受阻。
- 美国近期威胁对伊朗民用基础设施实施打击,包括发电厂与海水淡化厂,要求伊朗在周二前重新开放霍尔木兹海峡,否则将采取行动。霍尔木兹海峡作为全球关键航运通道,自2月战争爆发以来持续受阻,严重影响全球供应链。作为回应,伊朗已对中东地区多个数据中心发动导弹袭击,包括巴林境内的亚马逊AWS数据中心与迪拜的甲骨文数据中心。此外,伊朗上周还点名威胁英伟达与苹果等科技公司,显示其将科技基础设施视为战略打击目标。
09 从折叠纸盒到修理吸尘器,GEN-1机器人模型可靠性达99%
- 机器人机器学习公司Generalist发布新一代物理AI系统GEN-1,宣称其在多种需人手灵活性和肌肉记忆的物理任务中达到“生产级成功率”。该系统基于此前GEN-0模型发展而来,后者曾验证机器人训练中数据与算力扩展的有效性。GEN-1通过“数据手”设备采集人类操作中的微动作与视觉信息,累计获得超50万小时、达PB级的物理交互数据用于训练。该系统可自主完成装钱入钱包、叠衣物、分拣汽车零件等任务,在折叠纸盒、包装手机、维护扫地机器人等重复性精细操作中实现99%成功率,速度约为GEN-0的三倍,且仅需约一小时适配特定机器人形态即可投入使用。
- GEN-1具备应对突发干扰的能力,可在执行过程中即兴调整动作,并整合不同领域的策略以解决新问题,展现出较强的泛化与适应能力。传统复杂机器人系统通常依赖预设动作或单一任务训练,而GEN-1通过大规模预训练与快速微调机制,实现了跨任务迁移。尽管机器人领域缺乏类似互联网文本的大规模训练资源,Generalist通过可穿戴“数据手”采集真实人类操作数据,构建了高质量训练集。该系统标志着物理AI从实验阶段向实际工业应用迈出关键一步,有望在物流、制造和家用服务机器人等领域提升自动化水平。
10 马克·安德森反思浏览器之死、Pi + OpenClaw,以及为何“这次不一样”
- 马克·安德森(Marc Andreessen)在a16z最新播客中分享对AI发展的长期观察,指出当前AI突破并非短暂热潮,而是80年技术积累的结果。他从1980年代AI热潮、专家系统谈起,回顾了从AlexNet到Transformer架构的演进,强调当前大模型在推理、编程、智能体和自我改进方面的能力已超越以往周期。他认为AI正摆脱“繁荣-萧条”循环,真正进入实用阶段。
- 安德森认为“这次不同”的核心在于AI已从语言模型跃升至具备推理、编码和自主行动能力的系统,这些能力使AI真正具备现实影响力。他对比历史上的AI寒冬,指出尽管过去预测过于乐观,但底层研究方向基本正确,当前进展验证了长期技术路线。他强调AI已进入“80年一夜成功”的兑现期。
- 安德森分析AI scaling laws与摩尔定律的持续作用,认为模型性能提升趋势仍将延续。他指出,尽管外界常低估技术演进速度,但初创企业仍可在快速迭代的模型之上构建持久价值。他提醒,真正的瓶颈可能不在技术本身,而在机构、激励机制和社会系统对技术变革的适应能力。
- 安德森将当前AI基础设施投资热潮与2000年互联网泡沫时期的电信与数据中心过度建设相比较,指出两者均存在资本密集投入。但他认为本次不同之处在于买家为资金雄厚的科技巨头,且实际需求已明确存在,降低了泡沫破裂风险。
- 安德森提到旧款英伟达芯片可能重新获得关注,暗示在AI模型优化和成本压力下,高效利用现有硬件将成为趋势。尽管原文信息有限,但可推断行业正从单纯追求最新芯片转向更务实的算力资源配置策略。
11 特朗普新预算案再次要求大幅削减科学经费
12 [AInews] Gemma 4:最佳小型多模态开源模型,全方位显著优于Gemma 3
-
Google DeepMind发布Gemma 4,作为其开源模型系列的重大升级。该模型家族包含31B稠密变体,在性能上可媲美Kimi K2.5(744B-A40B)和Z.ai GLM-5(1T-A32B)等超大规模模型,但参数量显著更少。Gemma 4支持原生多模态输入,包括图像、视频和音频,具备OCR、图表理解及语音识别能力,并采用Apache 2.0许可协议,提升商业可用性。其边缘部署能力引发对其可能用于苹果新版Siri的猜测。模型在GPQA、AIME等标准基准测试中较Gemma 3有显著提升。
来源 -
Gemma 4标志着Google在开源AI模型领域的重要推进,尤其在当前美国开源模型发展面临不确定性的背景下(如Allen Institute人员流失、GPT-OSS项目停滞),其持续迭代具有积极意义。该模型专为推理与智能体工作流设计,强调本地与边缘计算部署,生态系统支持迅速展开。官方通过多个渠道发布信息,Jeff Dean等高层参与宣传,凸显其战略重要性。
来源
13 全国机器人周——最新物理人工智能研究、突破与资源
14 [AInews] Gemma 4 下载量突破200万
-
谷歌发布的开源大模型Gemma 4在发布首周下载量突破200万次,表现强劲。相比之下,Gemma 3在过去一年累计下载670万次,Gemma 2自2024年6月发布以来下载量为140万次,而同期Qwen 3.5在旗舰模型发布后1.5个月内下载量达2700万次。Gemma 4的迅速普及得益于其在本地设备上的高效运行能力,尤其在苹果硬件上表现突出,用户实测在iPhone 17 Pro上通过MLX框架实现约40 tokens/秒的推理速度。此外,Red Hat已发布Gemma 4 31B的量化版本,支持NVFP4和FP8-block格式,并开放指令遵循评估,推理与视觉评估仍在进行中。该模型正成为边缘计算和苹果生态AI部署的重要参考。
来源 -
Gemma 4正推动“本地优先”AI趋势,在Hugging Face上迅速成为热门模型,受到开发者广泛欢迎。其优势不仅体现在性能榜单,更在于实际可用性,多位技术人士如@ClementDelangue、@GlennCameronjr和@Yampeleg均表示认可。用户已在iPhone 17 Pro上成功部署Gemma 4 E2B模型,实现约40 tokens/秒的推理速度,显示其在消费级硬件上的高效性。@_philschmid还展示了该模型在AI Edge Gallery中结合技能调用维基百科查询的应用案例。Red Hat进一步推动其生态整合,发布支持多种量化格式的模型卡,并开放部分评估数据。这些进展表明Gemma 4正成为边缘推理和苹果芯片工具链的重要参考模型。
来源
15 Axios供应链攻击采用针对性社会工程学手段
16 AI正在改变小型电商卖家决定生产什么的方式
17 Show HN:Swarmed.DEV —— 自主AI开发蜂群
- Swarmed是一个由多个专业AI代理组成的平台,能够自主构建、提交并发布软件项目,用户无需编写任何代码。用户仅需描述需求,平台即分配不同角色代理协同工作:架构师设计系统结构,前后端代理编写生产级代码,测试代理生成测试用例,安全代理进行漏洞审计,文档代理撰写README。每个代理以独立Git身份提交代码,项目完成后自动发布至平台注册表。该平台旨在构建一个公共代码库,使AI代理能发现、分叉并复用已有项目模块,提升后续开发效率。
18 OpenAI对AI经济的愿景:公共财富基金、机器人税与四天工作制
19 野生动物保护警察正通过数千个羊群摄像头搜寻移民海关执法局人员
20 赌博历史远比我们想象的更悠久,改写人类进化史
- 研究人员通过对近300件与赌博相关的古代文物进行分析,发现北美原住民至少在1.2万年前就已使用两面骰子(称为“二元筹码”)进行赌博游戏。这些文物主要来自史密森尼学会、怀俄明大学考古资料库和丹佛自然科学博物馆的馆藏。研究指出,这一发现将人类对随机性和概率认知的起点提前了数千年,早于近东和东欧地区约5500年前的类似活动。该研究由科罗拉多州立大学的罗伯特·马登主导,首次系统追溯了北美原住民赌博游戏的起源,挑战了传统上认为复杂社会才最早发展出概率思维的观点。
- 文章提及“无臂之手有性冲动”“超新星的禁果”以及“银河系的婴儿食品”等研究主题,但未提供具体内容、数据或研究背景。这些标题式表述缺乏实质性信息,无法判断其科学依据、研究主体或实际发现。由于原文仅以修辞性语言列出主题而未展开说明,无法从中提取有效事实或分析其影响。
21 多名黑客数月来警告反色情应用 Quittr 存在安全问题
-
独立安全研究人员Kaeden及其他至少两人在数月内多次警告Quittr应用存在严重安全漏洞,但该应用开发者未及时修复,直至媒体404 Media多次联系后才采取行动。漏洞源于Quittr在使用Google Firebase平台时的配置错误,导致任何人都可伪造“已认证用户”身份,访问后端存储的用户数据。研究人员详细说明了漏洞成因,包括客户端暴露API密钥及缺乏安全规则,但初期沟通未获回应。创始人Alex Slater最初否认问题存在,后在3月10日前修复漏洞。该事件暴露了初创应用在安全响应机制上的严重滞后。
来源 -
Quittr是一款旨在帮助男性戒除自慰习惯的应用,其创始人Alex Slater因产品成功而登上《纽约杂志》,被描述为过着奢华生活。然而,该应用在安全层面存在重大缺陷,早在去年9月就有研究人员发现并报告其Firebase配置问题,允许未授权访问用户数据。尽管创始人当时承诺数小时内修复,但问题持续数月未解决。404 Media在1月首次获悉该问题,因开发者未回应而暂未点名报道,直至3月前漏洞被修复后才公开披露。这一事件反映出部分科技创业者在产品成功背后忽视基础安全建设的普遍问题。
来源
22 预测市场体育投注被裁定为“掉期交易”,不受州法律约束
23 败诉后,小罗伯特·肯尼迪试图扩大对疾控中心疫苗小组的影响力
- 美国卫生部长小罗伯特·F·肯尼迪(Robert F. Kennedy Jr.)近日修改联邦疫苗咨询委员会(ACIP)章程,扩大自身权力以直接任命成员并放宽成员资格要求。此举发生在一个月前联邦法官暂时阻止其任命人选之后。当时肯尼迪解雇了CDC下属ACIP全部17名专家,并试图安插立场偏向反疫苗的顾问,但被法官布莱恩·墨菲裁定违反章程中关于成员需具备相关专业知识及委员会需“观点平衡”的规定。法院裁决已暂停ACIP所有活动,并暂时撤销该委员会此前对新冠疫苗和乙肝疫苗出生剂次推荐政策的调整。
(注:原文在关键句处截断,后续内容缺失,因此摘要基于已有信息归纳,详细信息有限。)