首页 > 编程知识 正文

linux系统bond起不来(linux双网卡bond)

时间:2023-05-04 06:55:29 阅读:66571 作者:279

超级计算群集(SCC )概述SCC概述超级计算群集(SCC )使用异构加速设备(如高速RDMA网络互连的CPU和GPU )实现高性能面向工程计算、数据分析、音视频处理等APP应用,提供终极计算性能和并行效率的计算集群服务

SCC实例类型支持CPU内存网络存储的场景ecs.scch5.16xlarge 64核心skylakexeongold 61493.1 GHz 192 GB 50 gbpsrdma高效云(容量可选) SSD云适用于单核计算能力强、计算密集型APP场景的ecs.sccg5.24xlarge 96核skylakexeonplatinum 81632.5 GHz 384 GB 50 gbpsrdma高效云(容量选项) 适用于内存需求高、可扩展的科学计算场景和高并发批处理场景。 在使用SCC实例创建E-HPC集群的创建过程中,目前安装SCC实例的可用区域主要是华东1可用区域h、华东2可用区域b、华北1可用区域c、华北3可用区域a。 考虑到库存的变化,用户可以在创建群集之前从ECS管理控制台查看SCC实例如何分布在不同的可用区域。 从E-HPC管理控制台进入群集创建页,并在计算节点下的复选框中检查SCC实例。 SCC复选标记:在上图中,SCC实例的CPU内核数由vCPU数表示,但实际运行的SCC实例处于超线程关闭(HT off )状态。 也就是说,scch5.16xlarge和sccg5.24xlarge的CPU核心数分别为32个物理核心和48个物理核心。

有关后续创建过程的信息,请参阅创建E-HPC群集和配置硬件信息。 SCC实例的核心硬件升级之一是50Gbps的Roce(RDMAoverconvergedEthernet )网络,因此网络信息与常规ECS实例大不相同。

网络硬件信息与常规ECS实例相比,由于SCC实例同时具有10Gbps VPC网络和50Gbps RoCE网络端口,因此ECS管理控制台将显示这两个IP地址。 SCC IP

典型的SCC实例显示类似于以下内容的网格信息: bond0是RoCE网格,eth0是VPC网格。 SCC网关信息

验证网络连接验证同一E-HPC群集下的SCC实例之间的VPC网络IP和RoCE网络IP可以ping通信在同一E-HPC群集下的SCC实例之间通过VPC网络IP和RoCE网络IP 网络峰值带宽和延迟带宽测试示例##带宽测试IB _ read _ bw-a-q20-- report _ GB its # #服务端compute0执行IB _ read _ bw-a-- 客户端compute0带宽测试IB _ write _ bw-a-q20-- report _ GB its # #服务器端compute0执行IB _ write _ bw-a-q20-- report 服务器端compute0执行ib_read_lat -F -a compute0 ##客户端compute1执行##写入延迟测试ib_write_lat -a ## 服务端compute0执行IB_write_lat-0客户端compute1执行监视在RoCE网络实际带宽使用情况SCC实例的root用户下运行rdma_monitor -s实时

使用E-HPC性能监视和分析引擎客户端监视每个SCC实例的RoCE网络带宽随时间的变化。 分布式设备监控RoCE

在SCC群集中编译和运行MPI程序的SCC实例同时支持50Gbps RoCE网络和10Gbps VPC网络,因此运行交叉节点MPI程序时,节点之间的数据通信量会减少在此,建议您在SCC群集上使用英特尔MPI编译和运行跨节点MPI程序。

编译跨节点MPI程序并安装IntelMPI E-HPC将集成IntelMPI 2018版本。 用户只需在创建E-HPC控制台群集或软件管理功能界面中选中IntelMPI 2018即可进行安装。

英特尔MPI

如何配置MPI环境变量1---- e----集成到HPC中的模块管理工具----------- module avail------------ opt Intel/impi/2018.3.222/乐观水杯64/mpicc方法运行IntelMPI附带的环境变量配置脚本$ $ compilers _ and _ libraries/Linux /音乐

- DC make _ c _ compiler=mpicc-DC make _ cxx _ compiler=运行mpic xx交叉节点MPI程序在E-HPC软件环境中使用IntelMPI编译的软件/乐观的水杯/sh # PBS-Joe # PBS-lselect=: NCP us=: MPI procs=module load Intel-MPI/2018 mpirun是用户本地/乐观的杯子/sh#PBS-JOE# PBS-lselect=: NCP us=: MPI procs=exporti _ MPI _ fabrics=shm 3360 daplmoduleloadintel 2018 mpirun-gen VI _ MPI _ MPI 使用聚合客户端性能监视功能,可以实时监视SCC实例的性能数据,如CPU利用率、访问带宽和RoCE网络带宽。 SCC性能

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。