AI4S Digital Twin

面向国家实验室的算网数协同机制交互式数字孪生平台

聚焦科学任务的广域异构资源协同,串联多实验室节点、云边算力、传输链路与数据洪流调度, 以可视化方式展示跨域互联、拥塞治理与超高速并发编排。

协同节点域

12+

实时编排任务

240

广域吞吐能力

8.6 Tbps

活跃节点

广州

活跃节点

崖州湾

活跃节点

边缘

活跃节点

云端

活跃节点

存储

活跃节点

西部

实时感知

链路波动 82 ms

自动编排

任务迁移 12 路

缓存协同

减量传输 37%

推理时延降低 37%

计算加速

通过数据传输减量、模型推理加速与跨域协同调度,压缩科学任务执行闭环。

自动化流程覆盖 18 类

自动编排

面向科研任务流程,提供多智能体协同、工作流自动规划与执行观测。

跨域资源池 3 类

国家实验室服务

面向广州国家实验室、崖州湾国家实验室及其他国家实验室的广域协同需求。

Scenario Demos

三个演示场景覆盖算网数协同闭环

从跨域拓扑编排、链路拥塞控制到 PB 级数据洪流调度,分别呈现不同层级的可观测与可控制能力。

Demo 01

动态异构资源跨域互联

展示多实验室节点、云端资源与边缘算力之间的实时协同调度与链路波动。

Live Topology

五域骨干互联

广州、上海、北京、武汉与成都资源池按负载和时延实时切换主备路径。

主备双路由切换

资源域

广州

资源域

武汉

资源域

上海

资源域

北京

资源域

成都

算力池重路由跨域带宽复用故障节点自动摘除

活跃资源域

5 域

骨干利用率

84%

调度收敛

18 ms

跨域拓扑节点负载实时调度

Demo 02

跨域分段协同拥塞控制

模拟异构路径上的分段拥塞治理、阈值切换与端到端传输稳定性保障。

Segment Control

四段链路联防

入口接入段、骨干主干段和边缘出口段按阈值协同限速、旁路和回压。

热点段旁路启用
负载回压 14%

控制分段

入口段

负载42%
时延18ms

控制分段

骨干段 A

负载61%
时延31ms

控制分段

骨干段 B

负载86%
时延47ms

控制分段

出口段

负载54%
时延22ms

热点控制段

2 段

端到端时延

132 ms

丢包压制

0.9%

分段控制热点抑制稳定传输

Demo 03

超高速数据洪流并发调度

演示 PB/EB 级多流任务在广域网络中的并发传输、优先级调度与带宽利用。

Stream Scheduler

多优先级洪流队列

观测原始数据、训练检查点和结果回传任务在不同优先级队列中的并发下发。

P0 实时队列P1 批处理队列P2 回传队列

入口缓冲区

多优先级并发注入

动态抢占
原始数据5
训练检查点4
结果回传3

跨域传输通道

目标资源池分发

吞吐稳定在 9.1 Tbps
训练集群
缓存池
归档仓

并发流数

18 路

聚合吞吐

9.1 Tbps

完成进度

61%

多流并发吞吐监测资源分配

Platform Layers

平台架构覆盖接口、服务、算网融合与物理承载

架构设计围绕国家实验室的跨域科学任务,将资源感知、模型服务、运维控制和网络基础设施收敛为统一观察面。

Layer 01

用户接口层

用户认证、访问控制、风险管理、AI4Ops 智能运维

Layer 02

科学服务层

模型服务、数据服务、规模化服务、智能接口、多智能体框架

Layer 03

算网融合层

网络状态感知、数据表征压缩、模型推理加速、缓存协同优化

Layer 04

物理承载层

科研专网物理网络与广域异构资源池

Service Targets

优先服务国家实验室广域协同需求

演示内容以跨实验室算力、数据目录与专网链路的协同场景为主,便于映射到真实科研任务。

广州国家实验室

承接多组学解析与分布式训练任务,侧重高密度 GPU 与数据目录协同。

崖州湾国家实验室

支撑海量观测数据处理与广域回传场景,关注低时延与稳定传输。

其他国家实验室

可扩展接入更多科研专网节点,实现算网数一体化调度与统一观测。

Key Outcomes

研究目标聚焦任务效率与资源利用提升

以数据传输减量、链路稳定性和算力调度效率为核心指标,形成可验证的技术闭环。

数据传输减量与缓存协同优化
广域异构算力的跨节点高效利用
训练、微调、推理链路的统一调度
自动实验、数据发现与评估服务联动