2026年04月23日

提升 ChatGPT 在临床诊疗中的实用性

提升 ChatGPT 在临床诊疗中的实用性 | 携手行业领军企业,加速AI转型 | 在 Responses API 中使用 WebSocket 加速智能体工作流
分类筛选:

01 提升 ChatGPT 在临床诊疗中的实用性

1
美国认证医护人员可免费使用ChatGPT临床版

OpenAI宣布为美国认证医师、执业护士和药剂师免费提供ChatGPT临床版本,旨在支持临床诊疗、病历记录与医学研究。该举措覆盖全美符合条件的医疗专业人员,提升AI在医疗场景中的可及性。

面向美国认证医护人员免费开放 支持临床诊疗与病历记录 助力医学研究效率提升
来源

查看原文 →

02 携手行业领军企业,加速AI转型

1
标题:
谷歌DeepMind联手五大咨询公司推动企业AI规模化落地

摘要:
谷歌DeepMind宣布与埃森哲、贝恩、波士顿咨询、德勤和麦肯锡合作,加速全球企业AI转型。目前仅25%企业实现AI规模化生产,而AI有望在2030年前为全球经济贡献15.7万亿美元。

此次合作聚焦金融、制造、零售、媒体等关键行业,结合DeepMind前沿研究与咨询公司战略专长,推动AI解决方案落地。

合作包含三大支柱:开发行业定制AI能力、提供前沿模型早期访问权限、支持复杂任务中实时决策工具部署。

五大咨询公司联合推进AI转型 聚焦金融制造零售等关键行业 提供前沿模型早期访问权限
来源

2
标题:
DeepMind与咨询巨头共建企业级AI代理转型新范式

摘要:
谷歌DeepMind联合全球顶级咨询公司,推出企业级AI代理转型计划,旨在快速规模化部署智能体系统。合作将提升企业处理复杂任务能力,赋能员工实时数据决策。

通过整合DeepMind技术人才与咨询公司客户资源,项目覆盖多行业实际应用场景,推动AI从实验室走向产业实践。

该倡议强调负责任AI应用,确保技术部署兼具效率与伦理合规性,助力企业实现可持续增长。

推动AI代理系统规模化部署 赋能员工实时数据决策能力 确保AI应用符合伦理规范
来源

3
标题:
DeepMind开放前沿模型早期访问助力企业AI创新

摘要:
谷歌DeepMind向合作咨询公司开放前沿AI模型早期访问权限,加速行业定制化解决方案开发。此举旨在缩短企业AI研发周期,提升技术落地效率。

合作伙伴将基于早期模型测试金融风控、供应链优化等场景,验证AI在复杂业务环境中的实际效能。

该机制强化了产学研协同,为未来大规模AI部署积累经验与案例基础。

提供前沿模型早期测试权限 加速行业定制化AI方案开发 积累大规模部署实践经验
来源

查看原文 →

03 在 Responses API 中使用 WebSocket 加速智能体工作流

1
标题: OpenAI 利用 WebSocket 实现代理工作流端到端提速 40%

摘要:
OpenAI 技术团队成员 Brian Yu 和 Ashwin Nathan 撰文介绍,通过引入 WebSocket 持久连接机制,成功将基于 Responses API 的代理工作流整体延迟降低 40%。此前,Codex 在修复代码时需多次同步调用 API,累积延迟显著,尤其在模型推理速度提升至近 1000 tokens/秒后,API 开销成为瓶颈。

新方法通过建立持久连接替代传统轮询式请求,减少网络往返次数,显著压缩客户端与服务器间的通信延迟。同时结合缓存优化、安全检测提速等措施,确保用户能充分体验 GPT-5.3-Codex-Spark 模型的高速推理能力。

WebSocket 替代同步调用降低延迟 代理工作流端到端提速 40% GPT-5.3-Codex-Spark 达 1000 tokens/秒
来源

2
标题: GPT-5.3-Codex-Spark 模型推理速度突破 1000 tokens/秒

摘要:
OpenAI 推出专为编码优化的 GPT-5.3-Codex-Spark 模型,运行于 Cerebras 专用硬件,推理速度从此前旗舰模型的 65 tokens/秒提升至近 1000 tokens/秒,实现数量级飞跃。这一性能突破得益于硬件级优化与模型架构协同设计。

为匹配高速推理,团队重构 API 交互机制,避免因网络延迟抵消性能增益。通过减少请求验证、上下文构建等环节的开销,确保终端用户实际体验接近理论峰值速度。

Cerebras 硬件驱动千级 tokens/秒 编码专用模型性能大幅提升 API 优化匹配高速推理需求
来源

3
标题: OpenAI 优化代理循环三阶段降低整体延迟

摘要:
Codex 代理循环主要耗时集中在 API 服务处理、模型推理和客户端工具执行三个阶段。随着 GPU 推理速度提升,API 服务开销占比凸显,成为制约端到端效率的关键因素。

团队通过缓存中间结果、精简安全检测流程、消除冗余网络跳转等方式,系统性压缩非推理耗时。尤其在客户端上下文构建与工具调用间实现异步协调,减少等待时间。

识别三大延迟来源并针对性优化 缓存与安全栈改进提升响应效率 非推理环节耗时显著降低
来源

查看原文 →