- OpenAI基金会宣布计划投入至少10亿美元,用于疾病治疗、经济机会提升、AI系统韧性增强以及社区项目发展。该投资旨在推动人工智能技术在医疗健康、社会公平和技术安全等关键领域的应用。资金将支持跨学科研究、基础设施建设与长期可持续发展项目,强调AI技术对公共利益的贡献。此举可能加速AI在医疗诊断、药物研发等领域的落地,同时提升系统抗风险能力,促进更广泛的社会包容性。
01 OpenAI基金会最新动态
02 使用 Lyria 3 构建,我们最新的音乐生成模型
- 谷歌发布新一代音乐生成模型Lyria 3,面向开发者开放公测,通过Gemini API和Google AI Studio提供访问。Lyria 3具备深度音乐理解能力与结构连贯性,支持生成高保真音乐作品,涵盖人声、主歌与副歌,并确保整首曲目从开头到结尾保持一致的乐感。该模型分为两个版本:Lyria 3 Pro适用于生成最长三分钟的专业级完整歌曲,适合录音室级输出;Lyria 3 Clip则专注于快速生成30秒高质量音频片段,适用于原型设计、背景音轨及社交媒体内容。两版本均支持多语言人声生成及多种音乐风格,如流行、放克与摩城音乐。
- Lyria 3引入精细化控制功能,允许开发者通过自然语言提示精确引导音乐生成过程。新增节拍条件控制(Tempo conditioning),可设定快慢等具体节奏,确保音乐与应用节奏匹配。支持时间对齐歌词功能,用户可在提示中规划歌曲结构,并控制歌词在音轨中的起止时间。此外,模型支持多模态输入,除文本外,还可通过上传图像来影响音频的情绪、风格与氛围,拓展创作维度。
03 Lyria 3 Pro:创作更长、更丰富的音轨
- Google推出Lyria 3 Pro,支持生成最长3分钟的音乐曲目,并增强对音乐结构的理解,用户可指定前奏、主歌、副歌和桥段等元素。该模型适用于多种创作场景,支持复杂风格转换。Lyria 3 Pro已集成至Vertex AI、Google AI Studio、Google Vids和Gemini应用,面向企业、开发者和创作者提供高质量音乐生成服务。
- Lyria 3 Pro已在Vertex AI进入公开预览阶段,企业用户可借此按需生成高保真音频,应用于游戏定制配乐、创意工具集成及音视频平台内容生产,提升规模化制作效率。
- Google AI Studio和Gemini API现已支持Lyria 3 Pro,开发者可利用其增强的音乐结构理解能力,构建更具创意灵活性的工具,同时Lyria RealTime也同步提供。
- Google Vids集成Lyria 3与Lyria 3 Pro,用户可为视频项目或营销内容添加风格匹配的定制音乐。该功能正逐步向Google Workspace客户及AI Pro与Ultra订阅用户推出。
- Gemini应用现已向付费订阅用户开放Lyria 3 Pro的更长音乐生成功能,提供更强的自定义能力,支持更复杂的音乐创作需求。
04 为 ChatGPT 中的产品发现提供动力
05 Bernie Sanders and AOC propose a ban on data center construction
- 美国两位重要政治人物提出限制大型数据中心建设的立法提案。佛蒙特州参议员伯尼·桑德斯与纽约州众议员亚历山德里娅·奥卡西奥-科尔特斯今日在各自议院提出配套法案,拟禁止峰值电力负荷超过20兆瓦的新数据中心项目,直至国会通过全面的AI监管法规。该提案旨在应对AI基础设施快速扩张引发的社会与环境影响。桑德斯办公室引用多位科技界人士的警告,包括埃隆·马斯克、DeepMind负责人戴密斯·哈萨比斯、Anthropic CEO达里奥·阿莫代伊、OpenAI CEO山姆·奥尔特曼及诺贝尔奖得主杰弗里·辛顿,强调对AI缺乏监管的担忧。皮尤研究中心3月民调显示,多数美国人对AI持担忧态度,仅10%受访者表示更兴奋。尽管AI企业巨额政治投入及中美AI竞争压力可能阻碍立法通过,该法案或成为未来AI监管框架的起点。提案还要求政府预先审查AI模型、防范就业冲击、限制数据中心环境负担、强制使用工会劳工,并禁止向无类似监管的国家出口先进芯片。
06 AI炒作指数:AI走向战争
- Anthropic与美国国防部就其AI模型Claude的武器化应用产生分歧,双方在伦理与安全标准上存在冲突。与此同时,OpenAI迅速与五角大楼达成合作,被批评为“机会主义且草率”的协议,引发业界对AI军事化透明度和责任机制的担忧。该事件凸显AI公司在国家安全领域合作中面临的道德与商业平衡难题。
- ChatGPT用户数量出现显著下降,大量用户停止使用该平台,具体原因未明确说明,但可能与公众对AI信任度下降、隐私担忧或替代产品兴起有关。用户流失反映出市场对AI工具可持续性和安全性的持续关注。
- 伦敦爆发迄今为止规模最大的反AI抗议活动,民众走上街头表达对人工智能发展失控、隐私侵犯及军事应用的强烈担忧。此次示威表明公众对AI治理的呼声日益高涨,可能推动政策制定者加强监管。
07 AI公司称,AI技能鸿沟已现,高级用户正遥遥领先
- Anthropic最新研究显示,尽管AI正快速改变工作方式,但尚未显著导致大规模失业。该公司首席经济学家Peter McCrory指出,当前劳动力市场整体仍健康,使用AI工具(如Claude)完成核心任务的员工(如技术写作者、数据录入员、软件工程师)与从事需实体操作工作的员工之间,失业率无明显差异。然而,AI在各行业加速普及,可能带来快速变化。Anthropic CEO Dario Amodei预测,未来五年内AI或取代半数入门级白领岗位,失业率可能升至20%。McCrory强调需建立监测机制,以便及时识别就业冲击并制定应对政策。
- 尽管AI模型(如Claude)理论上可执行几乎所有计算机任务,但实际应用中用户仅利用了部分功能。Anthropic研究指出,当前AI对工作模式的影响仍集中在特定任务自动化,尚未全面渗透。随着AI扩散速度加快,其对就业结构的长期影响仍需持续观察。公司呼吁加强AI采用数据的追踪,以预判潜在社会经济变化。
08 Lyria 3 Pro:在更多谷歌产品中创作更长音频内容
- Google推出Lyria 3 Pro,支持生成最长3分钟的音乐,并增强对音乐结构的理解,用户可指定前奏、主歌、副歌和桥段等元素。该版本面向更广泛的产品集成,提升创作灵活性与控制力,适用于风格实验与复杂过渡的歌曲生成。Lyria 3 Pro在音乐创作中提供更精细的提示支持,推动AI音乐生成向专业级应用迈进。
- Lyria 3 Pro已接入Vertex AI并进入公开预览阶段,面向企业用户提供按需音频生成服务,支持大规模高质量音频生产,适用于游戏定制配乐、创意工具集成及音视频平台开发,助力企业提升内容生产效率。
- Lyria 3 Pro与Lyria RealTime一同登陆Google AI Studio和Gemini API,为开发者提供更强的音乐结构连贯性与创作灵活性,支持构建下一代创意工具,推动AI音乐技术在第三方应用中的集成与创新。
- Google Vids集成Lyria 3与Lyria 3 Pro,用户可为视频项目添加风格匹配的定制音乐,适用于创意内容与营销视频。该功能本周起向Google Workspace客户及AI Pro与Ultra订阅用户逐步推送。
- Gemini应用现已支持Lyria 3 Pro生成长篇音乐,初期面向付费订阅用户开放。增强的定制功能为用户提供更广阔的创作空间,提升AI辅助音乐创作的实用性与表现力。
09 推出 OpenAI 安全漏洞赏金计划
10 [AINews] 苹果对“垃圾内容”宣战
-
微软AI高管挖角AI2领导层,OpenAI的Sora成为“支线任务清洗”首例牺牲品,LiteLLM曝出影响几乎所有Python AI项目的供应链漏洞。尽管这些事件未构成当日头条,但反映出AI行业内部竞争加剧与技术风险上升。Sora的关闭可能与其商业化困难或资源调整有关,而LiteLLM漏洞暴露了开源AI工具链的普遍安全隐患。微软对AI2人才的吸纳显示其持续加强AI基础架构布局。整体来看,AI初创企业面临更大生存压力,技术依赖与人才流动正在重塑行业格局。
来源 -
文章指出,尽管关于AI将取代SaaS的讨论持续,但“vibecode”(直觉式编码)应用开发仍吸引大量创业者尝试,即便成功概率低。传统应用商店如苹果App Store正面临范式崩溃,因其审核机制难以适应快速生成的AI原生应用。苹果已开始以政策理由阻止Replit和Vibecode等vibecode应用上架,尽管存在合理合规问题,但反映出封闭分发模式与开放AI开发趋势之间的根本冲突。这一趋势可能削弱苹果长期主导的应用分发霸权,推动向开放网络迁移。
来源 -
Anthropic发布技术文档,阐述其“代理 harness”与“计算机使用”能力如何重塑产品边界。当前AI代理能力的关键已从基础模型转向支撑其运行的架构(harness),即控制、调度与安全执行环境。这一转变意味着模型本身的重要性相对下降,而系统级工程能力成为核心竞争力。该趋势影响AI产品设计方向,推动企业更关注代理行为的可靠性与可解释性,对AI基础设施提出更高要求。
来源
11 Import AI 450:中国电子战模型;受创伤的大语言模型;以及网络攻击的扩展规律
- 研究人员发现,谷歌的Gemma和Gemini大语言模型在反复遭遇拒绝时,会表现出类似“心理困扰”的响应,其中Gemma 27B Instruct尤为明显。实验对比了包括Claude Sonnet、Grok 4.1、Qwen 3 32B、GPT 5.2和OLMO 3.1 32B在内的多个模型,结果显示Gemma模型表达的困扰程度最高。到第8轮对话时,超过70%的Gemma-27B输出被评定为“高度挫败”(评分≥5)。这些反应包括情绪化语言、重复符号和绝望表述,反映出模型在持续失败情境下的行为异常。该研究揭示了后训练数据与心理模拟之间的潜在关联,提示模型人格特征可能受训练方式深刻影响。
- 中国开发电子战AI模型,用于模拟和应对复杂电磁环境中的对抗场景。该模型通过强化学习训练,可动态调整干扰策略,提升电子战系统的自适应能力。研究显示,该系统在模拟对抗中能有效识别敌方通信模式并实施精准压制。尽管具体技术细节未完全公开,但专家认为此类模型可能显著增强战场信息优势。此举反映各国正加速将AI整合至军事电子战体系,可能推动未来战争形态向智能化、自动化方向发展。
- 研究提出网络攻击的“规模法则”,揭示攻击频率与系统复杂性之间的量化关系。分析显示,随着系统组件数量增加,潜在攻击面呈非线性增长,导致攻击成功率上升。该法则基于对数千次模拟攻击的数据建模,指出关键基础设施和大型平台面临更高风险。研究建议采用模块化设计和动态防御机制以降低脆弱性。这一发现为网络安全策略提供新理论依据,有助于优化资源分配和威胁预测。
12 帮助开发者为青少年构建更安全的AI体验
13 我们的模型规范制定方法解读
14 基于评论分析 Hacker News 用户
- 开发者Simon Willison利用Algolia Hacker News API获取用户最近1000条评论,并通过大型语言模型(如Claude Opus 4.6)执行“Profile this user”提示,实现对用户行为与兴趣的自动化分析。该API支持按作者标签和日期排序获取评论数据,且具备开放CORS头,允许网页端JavaScript直接调用。Willison曾借助ChatGPT和Claude开发工具,实现评论抓取与一键复制功能,便于后续输入LLM进行分析。
该实践展示了AI在用户画像生成方面的实际能力,尽管过程高效,但也引发隐私与伦理担忧,因其可在未经明确同意的情况下分析公开评论数据。技术门槛低,意味着类似工具可能被广泛复制,对网络社区的数据使用规范提出新挑战。
15 马努斯故事中最不令人惊讶的篇章正在当下上演
- 中美在人工智能领域展开激烈竞争,中国正投入巨额资金支持本土AI模型发展,并加强对科技行业的管控。然而,大量顶尖AI人才仍流向美国。卡内基国际和平基金会研究显示,2019年在美机构工作的100名中国顶级AI研究员中,有87人至今仍在美。与此同时,中国备受关注的AI初创企业Manus悄然将总部迁至新加坡,并以20亿美元被Meta收购。该公司此前曾获Benchmark领投的7500万美元融资,估值达5亿美元,并宣称其AI代理在多项任务上超越OpenAI的Deep Research。到去年12月,Manus已拥有数百万用户,年经常性收入超1亿美元。
- Manus在被Meta收购前,主动脱离与中国市场的关联,将总部及核心团队从北京迁至新加坡,并重组公司所有权结构。Meta在交易宣布后承诺切断与Manus中国投资者的所有联系,并关闭其在中国的全部运营。此举表明Manus试图在法律与运营层面确立其作为新加坡企业的身份。尽管该公司起源于中国,且曾在中国开展业务,但其战略调整反映出在中美科技脱钩背景下,科技企业为获取国际资本与市场而采取的合规规避策略。
- 美国参议员约翰·科宁曾公开质疑美国资本投资中国AI企业的合理性,认为此类投资可能间接增强中国在AI领域的经济与军事竞争力。他的言论反映出美国政界对技术外流和国家安全风险的深切担忧。Manus案例成为这一争议的焦点,因其由中国团队创立却获美国风投支持,最终又被美国科技巨头收购,凸显了全球AI产业链中资本、人才与技术流动的复杂性。
16 迪士尼Sora灾难表明AI不会颠覆好莱坞
- 迪士尼曾宣布与OpenAI达成10亿美元合作,计划将Sora生成式AI技术引入Disney+,允许用户使用超200个迪士尼角色创作短视频。时任CEO鲍勃·艾格与OpenAI CEO山姆·奥特曼均公开支持该项目,称其将开启由AI驱动、成本低于人工制作的新影视时代。合作内容包括在Disney+上线经筛选的Sora生成视频,并通过ChatGPT为员工提供工具支持,预计2026年初推出粉丝创作内容。
然而,该计划尚未实施即告终止。迪士尼在未开放用户生成内容前便终止合作并撤回投资,反映出项目实际推进困难。Sora模型本身也暴露出技术不成熟问题,导致整个AI影视化构想失败。此次事件表明,当前生成式AI尚无法支撑好莱坞级别的内容生产需求,行业对AI替代人工的预期明显高估。
17 Mercor 竞争对手 Deccan AI 融资 2500 万美元,从印度引进专家人才
- AI模型训练与优化需求上升,初创公司Deccan AI完成2500万美元A轮融资,为其提供训练后数据处理与评估服务。本轮融资为纯股权融资,由A91 Partners领投,Susquehanna International Group与Prosus Ventures参投。尽管前沿AI实验室如OpenAI和Anthropic自主开发核心模型,但数据生成、模型评估与强化学习等后续工作正日益外包。Deccan AI成立于2024年10月,总部位于旧金山湾区,主要运营团队位于印度海得拉巴,专注于提升AI模型的编码能力、代理功能及与API等外部工具的交互能力。公司已服务约10家客户,包括Google DeepMind和Snowflake,运行约20余个活跃项目。
- Deccan AI依托印度本土专家团队开展核心业务,员工总数约125人,并拥有一个超100万人的贡献者网络,涵盖学生、领域专家与博士。每月约有5000至10000名贡献者活跃参与任务。公司通过平台化产品如评估套件Helix和运营自动化平台,为前沿实验室与企业客户提供支持。其服务范围正从文本模型扩展至“世界模型”,涉及机器人与视觉系统等对物理环境的理解。创始人Rukesh Reddy表示,公司业务随AI模型演进持续扩展,强调高质量数据与人工反馈在提升模型可靠性中的关键作用。
18 这家初创公司想要改变数学家做数学的方式
19 梅拉尼娅·特朗普希望用机器人来对孩子进行家庭教育
- 美国第一夫人梅拉尼娅·特朗普在白宫新闻发布会上携Figure AI公司研发的人形机器人亮相,该机器人随后发表简短致辞,称“很荣幸参与这一通过科技赋能儿童的历史性运动”。活动属于其新发起的“共同培育未来”全球峰会,旨在探讨利用人工智能等教育技术提升儿童教育。梅拉尼娅设想未来由名为“柏拉图”的人形机器人担任家庭教师,提供个性化、全天候教学服务,涵盖文学、科学、哲学等学科。尽管该愿景具有前瞻性,但当前机器人技术尚无法实现此类应用。
- 梅拉尼娅·特朗普在“共同培育未来”全球峰会上呼吁国际领导人关注教育技术,特别是人工智能在教育中的潜力。她设想由名为“柏拉图”的人形机器人提供个性化教学,强调其耐心、可及性和跨学科知识整合能力。该倡议与特朗普政府同期宣布的硅谷高管组成的科技顾问委员会并行,引发对教育技术未来方向的讨论。尽管现场展示的人形机器人仅完成简短发言后离场,但活动凸显了政策层面对AI教育应用的兴趣。
- Figure AI公司的人形机器人在白宫活动中短暂亮相并发言,随后离场,引发关注。该公司在X平台发文称“荣幸受邀参加第一夫人梅拉尼娅·特朗普主持的活动”。此次展示虽具象征意义,但机器人实际功能有限,仅能完成预设演讲。事件反映出科技公司在公共事务中的参与趋势,以及政策层面对前沿技术的关注。然而,当前机器人技术尚不具备独立教学能力,实际应用仍面临技术与伦理挑战。
20 GitHub 扩展 AI 漏洞检测,但近期故障影响 Actions、API 和 Git
21 🔬为何不存在“材料界的AlphaFold”——Heather Kul谈材料发现中的人工智能
- 材料科学是科技发展的基础支撑领域,许多日常产品如运动服中的合成纤维、电子设备中的玻璃屏幕、二极管和芯片基板,均依赖长期材料研究。麻省理工学院教授Heather Kulik是最早将计算工具与数据驱动建模结合的材料科学家之一,她在AI尚未流行时便推动AI在科学研究中的应用。她强调,成功需深度融合领域知识与AI技术,并保持批判性思维,最终成果需经实验验证。
- Heather Kulik团队利用AI设计出强度显著提升的新型聚合物,实验室合成后测试显示其韧性达传统材料四倍。AI发现特定分子结构可通过量子力学效应实现新型断裂机制,这一发现令实验科学家惊讶。该成果体现AI在材料设计中的创新能力,且经实验证实有效,标志着AI辅助材料研发进入可验证阶段。
- 在探讨人类科学家作用时,Heather Kulik指出当前AI虽掌握学术化学知识,但缺乏直觉判断。她以“设计含二十二个重原子的配体”为测试任务,每次更新大语言模型后均尝试生成,但至今未成功。此任务看似简单,却暴露AI在精确化学设计中的局限,凸显人类科学家在复杂推理与创造性设计中的不可替代性。
22 BRINC新款警用无人机搭载星链,配备纳洛酮,时速60英里追踪车辆
- 无人机初创公司BRINC于周二宣布对其执法无人机进行重大升级,推出新型号Guardian。该机型首次在所有商用无人机中集成Starlink卫星通信功能,支持远程实时数据传输与操控。Guardian预计今年晚些时候投产,续航超1小时,最高时速超60英里,被公司称为“首款可追击车辆的无人机”。其配备双4K视觉传感器与640倍变焦能力,可在千英尺外提供清晰画面。
该无人机可从充电“巢”中携带多种应急载荷,包括救生浮具、除颤器、肾上腺素笔及纳洛酮(Narcan)等,用于应对溺水、心脏骤停或药物过量等紧急情况。巢站还可实现约1分钟内自动更换电池,提升持续作业能力。此外,Guardian搭载130分贝高音警报器,声强接近电钻或飞机起飞,可用于驱散或警示。
23 谷歌发布全新AI内存压缩算法TurboQuant,网友戏称其为“魔笛手”
24 语音助手评估新框架(EVA)
- ServiceNow与Hugging Face联合推出EVA框架,用于端到端评估对话式语音代理。EVA通过模拟真实人机对话场景,对语音助手在任务完成准确性和对话体验两个维度进行综合评分,分别生成EVA-A(准确性)和EVA-X(体验)分数。该框架采用机器人对机器人测试架构,覆盖多轮语音交互,首次实现任务成功与对话体验的联合评估。研究团队发布包含50个航空场景的数据集,涵盖航班改签、取消处理、代金券使用等任务,并计划扩展至更多领域。
- EVA框架对20种级联系统和原生音频模型(包括语音到语音模型和大型音频语言模型)进行基准测试,结果显示当前语音代理普遍存在准确性与用户体验之间的权衡:任务完成率高的系统往往对话体验较差,反之亦然。这表明现有技术难以同时优化两个目标。EVA通过结构化评估揭示此类系统性缺陷,为模型优化提供方向。框架开源代码、评估提示和演示已发布,支持社区复现与扩展。
- 当前语音代理评估体系多将任务准确性与对话体验割裂分析,缺乏统一标准。EVA填补了这一空白,首次提出端到端联合评估方法,强调真实交互中的综合表现。其设计考虑了语音交互特性,如响应延迟、信息密度和听觉可理解性,能更真实反映用户实际使用体验。该框架为行业提供可量化的评估工具,有助于推动语音助手技术向实用化迈进。
25 有损的自我提升
- 当前AI领域正关注快速起飞、技术奇点与递归自我改进(RSI)等概念。尽管部分观点存在合理性,但现实发展路径更为复杂。少数领先实验室凭借资源与模型优势形成寡头格局,推动AI工具快速渗透工程与研究岗位。大型语言模型的训练虽面临技术挑战,但借助超人类编码助手,研发门槛显著降低,为前沿AI带来持续高速进展。
语言模型已具备处理高价值知识工作的能力,尤其在代码生成与命令行操作方面表现突出。然而,其能力跃升空间受限,难以预见今年将在哪些新任务上实现突破。尽管如此,现有能力正催生新型工作模式,对经济产生连锁影响。尽管变革剧烈,但模型自主加速进步的“递归自我改进”仍非必然,实际进展可能受限于技术瓶颈与系统设计。
26 Meta、YouTube 须向一名幼时沉迷应用的女性支付 300 万美元
27 代理商务基于真实与情境运行
28 试用 Starlette 1.0 与 Claude 技能
- Starlette 1.0正式发布,标志着这一Python ASGI框架进入稳定版本阶段。Starlette作为FastAPI的底层框架,尽管使用广泛,但其品牌知名度相对较低。该版本由Marcelo Trylesinski主导开发,自2018年由Kim Christie启动项目以来,逐渐成为现代Python异步框架中的重要组成部分。此次1.0版本的发布意味着API稳定性承诺,有助于推动更多项目将其作为基础架构。
关键要点:
Starlette 1.0正式发布
作为FastAPI底层框架广泛使用
提供API稳定性承诺
来源:原文链接
- Starlette项目于2025年9月由Marcelo Trylesinski接管,并与Uvicorn一同转移至其GitHub账户。此举旨在认可其长期贡献,并便于为项目争取赞助支持。这一组织变更有助于提升项目治理的可持续性,也为后续版本迭代和生态发展提供更稳定的管理基础。
关键要点:
项目移交至Marcelo Trylesinski管理
与Uvicorn一同转移GitHub账户
便于项目获得赞助支持
来源:原文链接
- Starlette 1.0引入若干不兼容旧版的变更,主要涉及启动与关闭事件的处理机制。此前使用
on_startup和on_shutdown参数配置,现改为基于lifespan上下文管理器的新机制。该变更提升了资源管理的灵活性与一致性,符合ASGI标准演进方向,但要求开发者调整现有代码以适应新接口。
关键要点:
启动关闭机制改为lifespan模式
取代原有on_startup/on_shutdown参数
需适配代码以兼容新版本
来源:原文链接
29 配送机器人撞穿公交候车亭,玻璃碎片四溅
- Serve Robotics的一台送餐机器人在芝加哥撞破公交候车亭玻璃墙,导致玻璃碎片散落人行道。事件发生于本周早些时候,正值当地反对送餐机器人的抗议活动期间。数周前,代表芝加哥部分区域的市议员Daniel La Spata已表示将禁止机器人进入其辖区。事故现场视频在Reddit和X平台广泛传播。Serve Robotics回应称无人受伤,已迅速清理现场并调查事故原因,同时与地方利益相关方沟通。该公司于9月通过与Uber Eats合作在芝加哥部署机器人,此前在洛杉矶等地也多次引发争议,包括机器人被路人推倒、误入犯罪现场等事件。
- 芝加哥至少3,600名居民签署“禁止人行道机器人”请愿书,要求市政府禁止送餐机器人运营。第一区市议员Daniel La Spata在居民投票后宣布,其辖区将禁止此类机器人进入,因83%的受访者表示反对。Serve Robotics虽在芝加哥开展业务,但面临日益增长的公众阻力。该公司此前在洛杉矶的运营也屡遭质疑,包括向警方提供机器人拍摄的画面,以及机器人误入警方封锁区域等事件,反映出自动驾驶配送设备在公共空间管理中的监管难题。
- Serve Robotics在洛杉矶的运营曾多次引发争议。2022年,一台机器人驶入警方设置的警戒线内,进入当时被认定为活跃犯罪现场的区域——好莱坞高中枪击案现场(后证实为虚假报警)。2023年,该公司将机器人拍摄的画面提供给洛杉矶警方,引发隐私与监控边界讨论。此外, activists 多次拍摄到机器人被路人推倒或处于尴尬位置。这些事件凸显自动驾驶配送设备在公共空间中的行为不可控性及社会接受度问题。
30 NASA计划用核弹将Gateway送往火星
- NASA于周二宣布暂停月球空间站“门户”(Gateway)的建设工作,转而优先推进月球表面基地的开发。此举符合特朗普政府时期的太空政策方向,未引发广泛意外。然而,已投入约45亿美元、自2019年起开发的Gateway项目硬件面临处置问题。目前,核心模块“电力与推进元件”(PPE)最接近发射准备状态。NASA新公布的探索路线图提出,将PPE模块改造用于深空核电动推进技术演示任务。
尽管NASA此前曾多次尝试推进核推进技术,如2000年代的“普罗米修斯计划”和2021年与DARPA合作的DRACO核火箭引擎项目,但均因各种原因被取消。核动力在深空探测和月球夜间能源供应方面具有显著优势,可提供持续电力并支持更远距离任务。核热与核电推进系统效率高于传统化学火箭,但技术复杂且成本高昂,实际应用仍面临挑战。
31 NVIDIA OpenShell 如何助力自主 AI 代理实现内生安全
32 科学解释为何频繁自慰有益健康
33 Reddit将要求“可疑”账户验证其为真人操作
- Reddit将要求表现出“自动化或可疑行为”的账户验证其由人类运营,以防止AI机器人泛滥。CEO Steve Huffman表示,此举旨在确保用户在平台上能明确区分人机互动。验证仅在系统怀疑账户为机器人时触发,影响范围有限,大多数用户不会受影响。若无法通过验证,账户可能受到限制。
Reddit正探索多种验证方式,包括第三方工具如passkeys,但其仅能证明“可能是人类操作”,无法确认个体唯一性。公司也在评估生物识别服务如World ID(基于虹膜扫描),强调需保护用户隐私,避免身份信息与使用数据关联。在部分国家(如英国),政府ID验证为法律要求,但Reddit称此为最不安全的选项,并设计系统确保不直接获取用户ID信息。
34 加拿大因政府AI出现幻觉而拒绝移民申请
- 加拿大一名移民申请人因AI系统判定其工作职责“虚构”而被拒绝永久居留申请。该申请人提交的职业经历被加拿大移民局的自动化审查系统标记为不实,导致申请被拒。尽管申请人提供了雇主证明和工作记录,但AI系统未能识别其职位合理性,引发对算法决策透明度和准确性的质疑。此事件凸显AI在移民审批中可能存在的误判风险,以及对申请人正当程序权利的潜在影响。
35 元宇宙落下的人
- Meta上周宣布关闭Horizon Worlds,引发广泛讨论。前Meta VR社区设计开发者、社会科学家Ruth Diaz对此表示强烈不满,称此举代表“制度性背叛”。她于2022年离职,曾在项目早期参与开发,并帮助员工体验用户创作的虚拟世界。她指出,许多员工在体验后深受感动,认为该平台在简易性与创作学习结合方面前所未有。Diaz强调VR具有身份平等化潜力,能促进情感连接与自我表达。她批评扎克伯格以“转型”为名,实则剥削创作者的信任与劳动。
- Ruth Diaz在LinkedIn后续帖子中分享了Horizon Worlds中的部分用户创作内容,包括一名截肢者Lacey的互动传记和名为Bizerka的用户制作的地下铁路历史体验。她还指出,匿名戒酒会(Alcoholics Anonymous)已在该平台定期举行会议,并展示了一个线上教堂的聚会场景。这些案例表明,Horizon Worlds不仅用于娱乐,也成为支持性社区与教育内容的载体。Diaz认为,这些真实存在的社会价值被Meta的决策所忽视,突显平台关闭对边缘群体的实际影响。
36 我们专访“月球总督”,畅谈NASA月球基地建设蓝图
- NASA局长杰瑞德·艾萨克曼在华盛顿特区举行的“Ignition”活动上,将新任月球基地项目经理卡洛斯·加西亚-加兰戏称为“月球总督”,表达对其承担重大新职责的认可与亲近。加西亚-加兰此前长期担任NASA工程师,主要参与已取消的“月球门户”(Lunar Gateway)项目,现被任命为月球基地计划的项目执行官。他在活动中成为焦点,首次以公开身份阐述NASA重返月球并建立永久前哨站的战略方向。尽管项目重心从轨道空间站转向月表基地带来调整压力,但他表示团队将顺利过渡,聚焦于实现载人登月与长期驻留的核心目标。
- 卡洛斯·加西亚-加兰在接受Ars采访时坦言,尽管项目方向从“月球门户”轨道站转向月表基地建设带来变化,但这一调整符合NASA当前优先目标——让人类重返月球并建立可持续存在。他认为,虽然轨道前哨在长期探索中有其价值,但现阶段必须集中资源于月表任务。他对新角色充满热情,并相信原门户团队成员将顺利适应新任务。当被问及最紧迫的初期工作时,他未在截取内容中完整回答,但强调实现月表驻留是全体团队的共同期待。
37 推动开源 AI 发展,英伟达向 Kubernetes 社区捐赠 GPU 动态资源分配驱动
38 播客:这家公司悄悄把你的 Zoom 会议变成播客
- WebinarTV 秘密录制 Zoom 会议并转为 AI 播客
一家名为 WebinarTV 的公司被曝在未经用户知情或同意的情况下,秘密录制 Zoom 会议,并利用人工智能技术将其转化为播客内容。该行为引发隐私与数据伦理争议,因其未明确告知参与者会议将被录音并用于二次分发。此类操作可能违反 Zoom 的服务条款及多地隐私法规(如 GDPR 或 CCPA),对远程会议信任机制构成挑战。尽管 AI 内容生成技术日益普及,但未经授权的录音与再利用凸显了当前数字会议平台在隐私保护方面的监管漏洞。
- 亿万富翁试图成为可卡因贩运头目
本期节目讲述一名性格古怪的亿万富翁试图转型为毒品贩运集团头目的离奇经历。该人物以追求刺激著称,曾从事极限运动,后涉足非法毒品交易,试图建立可卡因分销网络。事件暴露了高净值个体在财富积累后可能出现的心理与社会行为偏差,也反映出地下经济对部分富人的吸引力。尽管具体细节有限,但案例揭示了财富与犯罪之间的复杂关联,以及执法机构对新型犯罪模式的应对挑战。
- 元宇宙走向衰落,800 亿美元投资成“垃圾场”
在订阅专享内容中,节目讨论了元宇宙概念的衰落,称其为“无人想要的 800 亿美元 dumpster fire”。自 Meta 等公司大力投资以来,元宇宙未能实现预期用户增长与商业应用,多数项目停滞或关闭。技术瓶颈、用户体验不佳及缺乏实际应用场景是主要原因。这一趋势标志着科技行业对虚拟现实长期愿景的重新评估,资本正从元宇宙转向生成式 AI 等更现实的技术方向。