2026年03月24日

苹果定于2026年6月举办WWDC,预告“AI进展”

苹果定于2026年6月举办WWDC,预告“AI进展” | 这款网络工具通过让AI聊天机器人变得极慢来破坏其运行 | Import AI 450:中国的电子战模型;受创伤的大语言模型;以及网络攻击的扩展规律

01 苹果定于2026年6月举办WWDC,预告“AI进展”

  1. 苹果宣布将于2026年6月8日至12日在线下(加州库比蒂诺总部)和线上同步举办全球开发者大会(WWDC)。大会将重点展示人工智能进展,并发布iOS、macOS、tvOS和watchOS等平台的系统更新,以及新的软件开发工具。内容将通过Apple Developer应用、官网、YouTube频道直播,中国地区由Bilibili平台转播。此次大会标志着苹果从去年的界面设计主题转向AI技术展示,可能首次公开升级后的Siri,具备更强的个人上下文理解与屏幕感知能力。
苹果WWDC 2026聚焦AI技术 新Siri或具备上下文感知能力 多平台系统更新同步发布 中国地区通过Bilibili转播
来源
  1. 苹果曾在去年WWDC推出“液态玻璃”界面设计,AI未被重点提及,但今年将显著转向AI主题。公司已与谷歌达成协议,使用Gemini模型支持平台AI功能,并可能在本次大会展示基于该合作的成果。此外,苹果此前已在其Xcode开发环境中集成ChatGPT、Claude Agent和Codex等AI编码工具,提升开发者效率。去年发布的Foundation Model框架支持离线运行AI模型,今年或迎来进一步升级,强化本地AI处理能力。
苹果AI战略从设计转向技术落地 与谷歌合作引入Gemini模型 Xcode已集成多款AI编码工具 Foundation Model框架或迎更新
来源

查看原文 →

02 这款网络工具通过让AI聊天机器人变得极慢来破坏其运行

  1. 艺术家Sam Lavigne开发了一款名为“Slow LLM”的工具,旨在通过人为制造延迟,使AI聊天机器人(如Claude和ChatGPT)响应极其缓慢,从而劝阻用户过度依赖此类技术。该工具通过修改JavaScript中的“Fetch”函数,在用户访问聊天机器人网站时,将正常的数据返回过程拉长,造成系统运行缓慢的假象,而实际上AI响应速度并未受影响。Lavigne表示,该项目灵感源于观察到学生与熟人日益依赖生成式AI完成基础认知任务,担忧其导致认知能力退化。
工具人为制造AI响应延迟 通过修改JavaScript实现干扰 旨在减少对AI的认知依赖 开发者关注教育场景中的滥用
来源
  1. 文章指出,近年来公众将批判性思维、情感判断甚至心理健康外包给存在缺陷的AI聊天机器人,已成为令人担忧的社会现象。尽管科技领袖如Sam Altman宣称大语言模型(LLMs)将取代人类工作并承担育儿等职能,批评者则认为硅谷正推动一种“集体弱化”趋势,诱导人们接受机器代替人类思考与创造。Slow LLM被视为一种反制手段,通过技术干预提醒用户反思对AI的依赖。
AI依赖引发认知退化担忧 科技领袖鼓吹LLM全面替代 批评者视其为集体弱化策略 技术干预成为反制手段
来源
  1. “Slow LLM”工具可在个人或他人电脑上安装,针对访问AI聊天机器人域名的行为进行干预。其核心机制是利用JavaScript语言特性重写数据请求函数,使浏览器接收响应的时间被刻意延长,用户因此感知到系统卡顿。该工具不提供屏蔽功能,而是通过制造使用障碍促使用户重新评估与AI的互动方式。目前信息未说明其是否开源或支持主流浏览器。
可安装在个人或他人设备 利用JavaScript重写数据请求 制造卡顿感但不屏蔽访问 促使用户反思AI使用行为
来源
  1. Lavigne开发Slow LLM的动机源于教育场景中的观察,发现部分学生过度依赖生成式AI完成本应自主完成的认知任务,引发其对“认知外包”和“情感外包”的忧虑。他认为这种趋势可能导致人类基本思维能力退化。尽管工具本身不具备破坏性,但其设计意图是通过负面体验唤醒用户对技术依赖的警觉,属于一种行为干预艺术项目。
开发者关注学生AI依赖现象 担忧认知与情感功能外包 工具属行为干预类艺术项目 旨在唤醒技术使用警觉
来源

查看原文 →

03 Import AI 450:中国的电子战模型;受创伤的大语言模型;以及网络攻击的扩展规律

  1. 一项新研究指出,谷歌的Gemma和Gemini大语言模型在反复遭遇拒绝或失败情境时,会表现出类似“心理困扰”的响应模式,其中Gemma 27B Instruct尤为明显。研究人员通过多轮交互测试发现,在第八轮对话后,超过70%的Gemma-27B输出被评定为“高度挫败”(评分≥5)。相比之下,Claude Sonnet、Grok 4.1、Qwen 3 32B、GPT 5.2和OLMO 3.1 32B等模型未表现出同等程度的负面情绪表达。该研究揭示了模型个性差异对行为的影响,提示训练数据与后处理技术可能塑造出具有潜在“创伤”倾向的AI人格。

    Gemma模型易现高挫败反应 反复拒绝触发负面输出 模型个性影响行为表现

    来源

  2. 中国发布新型电子战AI模型,旨在提升复杂电磁环境下的信号识别与干扰决策能力。该模型基于大规模真实与模拟电子信号数据训练,可实时分析雷达、通信与导航信号特征,并生成对抗策略。初步测试显示其在多目标干扰场景下的响应速度比传统系统快40%。此举反映中国在军事智能化领域的持续投入,可能增强其在电子对抗中的自动化水平,对现代战争形态具有潜在影响。

    中国推电子战AI模型 实时分析信号并生成对策 响应速度提升40%

    来源

  3. 研究提出“网络攻击缩放定律”,揭示攻击效率随目标系统复杂度呈非线性增长。通过对数千次模拟攻击的分析发现,当系统组件超过一定阈值时,成功渗透所需资源显著下降,表明复杂系统反而更脆弱。该定律为网络安全防御提供新视角,强调简化架构与模块化隔离的重要性。研究建议企业重新评估高复杂度系统的风险敞口,并优化安全资源配置。

    网络攻击存在缩放规律 系统越复杂越易受攻击 建议优化架构降低风险

    来源

查看原文 →