AI4S Digital Twin
面向国家实验室的算网数协同机制交互式数字孪生平台
聚焦科学任务的广域异构资源协同,串联多实验室节点、云边算力、传输链路与数据洪流调度, 以可视化方式展示跨域互联、拥塞治理与超高速并发编排。
协同节点域
12+
实时编排任务
240
广域吞吐能力
8.6 Tbps
活跃节点
广州
活跃节点
崖州湾
活跃节点
边缘
活跃节点
云端
活跃节点
存储
活跃节点
西部
实时感知
链路波动 82 ms
自动编排
任务迁移 12 路
缓存协同
减量传输 37%
推理时延降低 37%
计算加速
通过数据传输减量、模型推理加速与跨域协同调度,压缩科学任务执行闭环。
自动化流程覆盖 18 类
自动编排
面向科研任务流程,提供多智能体协同、工作流自动规划与执行观测。
跨域资源池 3 类
国家实验室服务
面向广州国家实验室、崖州湾国家实验室及其他国家实验室的广域协同需求。
Scenario Demos
三个演示场景覆盖算网数协同闭环
从跨域拓扑编排、链路拥塞控制到 PB 级数据洪流调度,分别呈现不同层级的可观测与可控制能力。
Demo 01
动态异构资源跨域互联
展示多实验室节点、云端资源与边缘算力之间的实时协同调度与链路波动。
Live Topology
五域骨干互联
广州、上海、北京、武汉与成都资源池按负载和时延实时切换主备路径。
资源域
广州
资源域
武汉
资源域
上海
资源域
北京
资源域
成都
活跃资源域
5 域
骨干利用率
84%
调度收敛
18 ms
Demo 02
跨域分段协同拥塞控制
模拟异构路径上的分段拥塞治理、阈值切换与端到端传输稳定性保障。
Segment Control
四段链路联防
入口接入段、骨干主干段和边缘出口段按阈值协同限速、旁路和回压。
控制分段
入口段
控制分段
骨干段 A
控制分段
骨干段 B
控制分段
出口段
热点控制段
2 段
端到端时延
132 ms
丢包压制
0.9%
Demo 03
超高速数据洪流并发调度
演示 PB/EB 级多流任务在广域网络中的并发传输、优先级调度与带宽利用。
Stream Scheduler
多优先级洪流队列
观测原始数据、训练检查点和结果回传任务在不同优先级队列中的并发下发。
入口缓冲区
多优先级并发注入
跨域传输通道
目标资源池分发
并发流数
18 路
聚合吞吐
9.1 Tbps
完成进度
61%
Platform Layers
平台架构覆盖接口、服务、算网融合与物理承载
架构设计围绕国家实验室的跨域科学任务,将资源感知、模型服务、运维控制和网络基础设施收敛为统一观察面。
Layer 01
用户接口层
用户认证、访问控制、风险管理、AI4Ops 智能运维
Layer 02
科学服务层
模型服务、数据服务、规模化服务、智能接口、多智能体框架
Layer 03
算网融合层
网络状态感知、数据表征压缩、模型推理加速、缓存协同优化
Layer 04
物理承载层
科研专网物理网络与广域异构资源池
Service Targets
优先服务国家实验室广域协同需求
演示内容以跨实验室算力、数据目录与专网链路的协同场景为主,便于映射到真实科研任务。
广州国家实验室
承接多组学解析与分布式训练任务,侧重高密度 GPU 与数据目录协同。
崖州湾国家实验室
支撑海量观测数据处理与广域回传场景,关注低时延与稳定传输。
其他国家实验室
可扩展接入更多科研专网节点,实现算网数一体化调度与统一观测。
Key Outcomes
研究目标聚焦任务效率与资源利用提升
以数据传输减量、链路稳定性和算力调度效率为核心指标,形成可验证的技术闭环。