NCCL源码解析: P2P 连接的建立

2024-02-07 13:20

本文主要是介绍NCCL源码解析: P2P 连接的建立,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 概括
  • 详解
    • ncclTransportP2pSetup()

前言

NCCL 源码解析总目录

我尽量在每个函数之前介绍每个函数的作用,建议先不要投入到函数内部实现,先把函数作用搞清楚,有了整体框架,再回归到细节。

习惯: 我的笔记习惯:为了便于快速理解,函数调用关系通过缩进表示,也可能是函数展开,根据情况而定。

如下

// 调用 proxyConnInit
NCCLCHECK(proxyConnInit(peer, connectionPool, proxyState, (ncclProxyInitReq*) op->reqBuff, (ncclProxyInitResp*) op->respBuff, &op->connection));
// 对函数 proxyConnInit 进行展开,可方便看参数
static ncclResult_t proxyConnInit(struct ncclProxyLocalPeer* peer, struct ncclProxyConnectionPool* connectionPool, struct ncclProxyState* proxyState, ncclProxyInitReq* req, ncclProxyInitResp* resp, struct 

如有问题,请留言指正。

图后面再补;
有些遗漏之处,还没涉及,后面补;
闲话后面再补。

概括

recvpeer 表示本卡作为接收端的对端
sendpeer 表示本卡作为发送端的对端

对于每个 channel ,卡与卡之间要建立通信,先通过调用 selectTransport<0>() 建立接收通道,0 表示与 recvpeer 建立通信,再通过selectTransport<1>() 建立发送通道,1表示与 sendpeer 建立通信。
建立通道时会遍历 NTRANSPORTS 4种情况:P2P、共享内存、网络、collNet(collective Network, 还没看,不了解)

struct ncclTransport* ncclTransports[NTRANSPORTS] = {&p2pTransport,&shmTransport,&netTransport,&collNetTransport
};

本文重点关注 P2P。

接口如下:

struct ncclTransport p2pTransport = {"P2P",p2pCanConnect,{ p2pSendSetup, p2pSendConnect, p2pSendFree, NULL, p2pSendProxySetup, NULL, p2pSendProxyFree, NULL },{ p2pRecvSetup, p2pRecvConnect, p2pRecvFree, NULL, p2pRecvProxySetup, NULL, p2pRecvProxyFree, NULL }
};

发送建立流程为 p2pCanConnect() -> p2pSendSetup() -> p2pSendProxySetup()
接收建立流程为 p2pCanConnect() -> p2pRecvSetup() -> p2pRecvProxySetup()

先检查两个卡支不支持 P2P,主要检查两项:设备支不支持、路径支不支持,路径类型要小于 PATH_PXB,即不通过主桥的路径;
然后 p2pSendSetup() 填充一下 p2pConnectInfo, 向 proxy 线程请求 ncclProxyMsgSetup;
proxy 线程调用 p2pSendProxySetup(), 在本卡内申请显存,返回首地址以及相应的句柄devIpc, 其他进程或者线程可以通过这个句柄,获得此显存的操作地址。(我猜是让对端 GPU 卡也来操作这段内存,从而完成通信,还没看到那一步,完事来更新)
接收与发送机制一样。

详解

ncclTransportP2pSetup()

此P2P 非彼 P2P。ncclTransportP2pSetup 的 P2P 是广义上的两个设备之间的通信设置,包含 P2P、网络以及共享内存等。
建立两卡通信的入口函数。
因为要与 proxy 双线程操作,但是又是同步的,所以下文把两个线程的操作线性展开了,请注意。

ncclTransportP2pSetup(comm, &ringGraph, 0)
ncclTransportP2pSetup(struct ncclComm* comm, struct ncclTopoGraph* graph, int connIndex, int* highestTransportType/*=NULL*/)
{// 信息保存在 data[i] 中, i 为 rank// data[i] 大小为 2 * 64 个 connect, 先存放 recv, 再存放 sendrecvData[i] = data[i];// recvData[]  所有 recvChannels 的 ncclConnect 缓冲区的首地址// 首先 <0> 表示处理的是接收,处理与前一个 rank 的连接selectTransport<0>(comm, graph, recvData[i]+recvChannels++, c, recvPeer, connIndex, &type)static ncclResult_t selectTransport(struct ncclComm* comm, struct ncclTopoGraph* graph, struct ncclConnect* connect, int channelId, int peer, int connIndex, int* transportType){struct ncclPeerInfo* myInfo = comm->peerInfo+comm->rank;struct ncclPeerInfo* peerInfo = comm->peerInfo+peer;struct ncclConnector* connector = (type == 1) ? comm->channels[channelId].peers[peer]->send + connIndex :comm->channels[channelId].peers[peer]->recv + connIndex;NCCLCHECK(transportComm->setup(comm, graph, myInfo, peerInfo, connect, connector, channelId, connIndex)){NCCLCHECK(ncclCalloc(&resources, 1));recv->transportResources = resources;struct p2pConnectInfo* info = (struct p2pConnectInfo*)connectInfo;// 如果使用nvlink, 且两个GPU 计算能力一样,(gpu1->gpu.cudaCompCap == 80), 那么 useRead = 1// 如果通过参数 P2P_READ_ENABLE 设置该值,  P2P 使用 read 而不是 writeinfo->read = useRead; for (int p=0; p<NCCL_NUM_PROTOCOLS; p++) if (!(info->read && p == NCCL_PROTO_SIMPLE)) recvSize += comm->buffSizes[p];// 如果同一个进程内的,且 DirectDisable 没有设置,P2P_USE_CUDA_MEMCPY 参数没有设置,并且ncclCuMemEnable 为假// 那么{resources->type = P2P_DIRECT;recv->conn.flags |= info->read ? NCCL_DIRECT_READ : NCCL_DIRECT_WRITE;}// 建立到 proxy 的连接, 连接信息在 recv->proxyConnNCCLCHECK(ncclProxyConnect(comm, TRANSPORT_P2P, 0, tpProxyRank, &recv->proxyConn));// 请求 proxy 执行 ncclProxyMsgSetup// recvSize += comm->buffSizes[p];// 发送数据 4字节 recvSize  10485760 = 4096 + NCCL_NUM_PROTOCOLS 3 类型的缓冲区大小// 接收数据缓冲区 info->p2pBuff// 要接收的大小 sizeof(struct ncclP2pBuff)// info->p2pBuff 保存 buf 信息NCCLCHECK(ncclProxyCallBlocking(comm, &recv->proxyConn, ncclProxyMsgSetup, &recvSize, sizeof(int), &info->p2pBuff, sizeof(struct ncclP2pBuff)));// 下面为 proxy 线程// proxy 线程接收数据进行处理{// op->connection : 设备与 proxy 连接的控制对象// proxyState : rank 的 ncclProxyState// op->reqBuff : proxy 本地的接收缓冲区首地址, 按照  op->reqSize 大小申请// op->reqSize : 客户端发送的发送数据的大小// op->respBuff: proxy 本地的发送缓冲区的首地址,按照 op->respSize 大小申请// p2pRecvProxySetup : 设备申请内存,首地址信息存入 respBuffNCCLCHECK(op->connection->tcomm->proxySetup(op->connection, proxyState, op->reqBuff, op->reqSize, op->respBuff, op->respSize, &done));static ncclResult_t p2pRecvProxySetup(struct ncclProxyConnection* connection, struct ncclProxyState* proxyState, void* reqBuff, int reqSize, void* respBuff, int respSize, int* done) {// 获取设备侧告知的 recvSize 的值 10485760int size = *((int*)reqBuff);struct ncclP2pBuff* p2pBuff = (struct ncclP2pBuff*)respBuff;NCCLCHECK(ncclP2pAllocateShareableBuffer(size, &p2pBuff->ipcDesc, &p2pBuff->directPtr));ncclResult_t ncclP2pAllocateShareableBuffer(size_t size, ncclIpcDesc *ipcDesc, void **ptr) {// 在设备侧申请内存,地址保存在 ptrNCCLCHECK(ncclCudaCalloc((char **)ptr, size));// cudaIpcGetMemHandle : 获取现有设备内存分配的进程间内存句柄// 获取指向使用cudaMalloc创建的现有设备内存分配的基址的指针,并将其导出以供另一个进程使用// __host__ cudaError_t cudaIpcGetMemHandle ( cudaIpcMemHandle_t* handle, void* devPtr )// 获取现有设备内存分配的进程间内存句柄。// 参数:// handle - 指向用户分配的 cudaIpcMemHandle 以返回句柄的指针。// devPtr - 指向先前分配的设备内存的基指针cudaError_t res = cudaIpcGetMemHandle(&ipcDesc->devIpc, *ptr);// cudaIpcOpenMemHandle : 打开从另一个进程导出的进程间内存句柄并返回可用于本地进程的设备指针// __host__ cudaError_t cudaIpcOpenMemHandle ( void** devPtr, cudaIpcMemHandle_t handle, unsigned int  flags )// 打开从另一个进程导出的进程间内存句柄并返回可用于本地进程的设备指针。// 参数// devPtr - 返回设备指针// handle - cudaIpcMemHandle 打开// flags - 此操作的标志。必须指定为cudaIpcMemLazyEnablePeerAccess}p2pBuff->size = size;connection->transportResources = p2pBuff->directPtr;}}// 下面不是 proxy 线程// 设备收到 proxy 返回的信息: 设备内部申请的缓冲区首地址,以及地址句柄 ipcDesc->devIpc// comm->peerInfo AllGather1 时保存的所有 rank 的信息: rank cudaDev hostHash pidHash busId// info->rank = myInfo->rank// p2pBuff : info->p2pBuff// devMem : (void**)&resources->recvDevMem 设备接收资源的接收缓冲区内存指针地址// ipcPtr : &resources->recvMemIpc 设备接收资源的接收 内存Ipc 指针地址NCCLCHECK(p2pMap(comm, myInfo, comm->peerInfo+info->rank, &info->p2pBuff, (void**)&resources->recvDevMem, &resources->recvMemIpc));static ncclResult_t p2pMap(struct ncclComm *comm, struct ncclPeerInfo* myInfo, struct ncclPeerInfo* peerInfo, struct ncclP2pBuff* p2pBuff, void** devMem, void** ipcPtr){// 如果 ncclCuMemEnable 为假,且两个 GPU 设备在同一进程中// 那么{// 如果本设备与对端设备不是同一设备if (peerInfo->cudaDev != myInfo->cudaDev) {// 如果可以从设备直接访问 peerDevice,则可以通过调用 cudaDeviceEnablePeerAccess() 来启用访问cudaError_t err = cudaDeviceEnablePeerAccess(peerInfo->cudaDev, 0);}// 把 proxy 从设备申请的内存首地址赋值给 *devMem,即 resources->recvDevMem// resources->recvDevMem = p2pBuff->directPtr;*devMem = p2pBuff->directPtr;// 同一个设备不用 ipc*ipcPtr = NULL;}else{if ((myInfo->pidHash == peerInfo->pidHash) && (peerInfo->cudaDev == myInfo->cudaDev)) {// 同一个进程,同一个设备// Same PID and GPU*devMem = p2pBuff->directPtr;*ipcPtr = NULL;} else {// 不同进程或者不同设备// Different PID or different GPUNCCLCHECK(ncclP2pImportShareableBuffer(comm, comm->topParentRanks[peerInfo->rank], p2pBuff->size, &p2pBuff->ipcDesc, devMem));ncclResult_t ncclP2pImportShareableBuffer(struct ncclComm *comm, int tpPeer, size_t size, ncclIpcDesc *ipcDesc, void **devMemPtr) {// cudaIpcOpenMemHandle : 打开从另一个进程导出的进程间内存句柄并返回可用于本地进程的设备指针// __host__ cudaError_t cudaIpcOpenMemHandle ( void** devPtr, cudaIpcMemHandle_t handle, unsigned int  flags )// 打开从另一个进程导出的进程间内存句柄并返回可用于本地进程的设备指针。// 参数// devPtr - 返回设备指针// handle - cudaIpcMemHandle 打开// flags - 此操作的标志。必须指定为cudaIpcMemLazyEnablePeerAccess// 通过 ipcDesc->devIpc 获取设备内存首地址 devMemPtrCUDACHECK(cudaIpcOpenMemHandle(devMemPtr, ipcDesc->devIpc, cudaIpcMemLazyEnablePeerAccess));}// devMem 已经赋值为设备内存首地址*ipcPtr = *devMem;}}}}}// 发送// 信息保存在 data[i] 中, i 为 rank// data[i] 大小为 2 * 64 个 connect, 先存放 recv, 再存放 send// sendData[]  所有 recvChannels 的发送 ncclConnect 缓冲区的首地址sendData[i] = recvData[i] + recvChannels;// 调用发送,处理与后一个 rank 的连接NCCLCHECKGOTO(selectTransport<1>(comm, graph, sendData[i]+sendChannels++, c, sendPeer, connIndex, &type), ret, fail);static ncclResult_t selectTransport(struct ncclComm* comm, struct ncclTopoGraph* graph, struct ncclConnect* connect, int channelId, int peer, int connIndex, int* transportType) {NCCLCHECK(transportComm->setup(comm, graph, myInfo, peerInfo, connect, connector, channelId, connIndex));ncclResult_t p2pSendSetup(struct ncclComm* comm, struct ncclTopoGraph* graph, struct ncclPeerInfo* myInfo, struct ncclPeerInfo* peerInfo, struct ncclConnect* connectInfo, struct ncclConnector* send, int channelId, int connIndex){NCCLCHECK(ncclCalloc(&resources, 1));send->transportResources = resources;info->read = useRead;if (graph && connIndex == 1) info->read = 0;const char* useReadStr = info->read ? "/read" : "";// For P2P Read the SIMPLE buffer is tagged on the end of the ncclSendMem structureif (info->read) // 只有读的时候,使用缓冲区 NCCL_PROTO_SIMPLEsendSize += comm->buffSizes[NCCL_PROTO_SIMPLE];info->rank = myInfo->rank;resources->type = P2P_DIRECT;send->conn.flags |= info->read ? NCCL_DIRECT_READ : NCCL_DIRECT_WRITE;// 与接收一样的操作// 设备收到 proxy 返回的信息保存在 p2pBuff中: 设备内部申请的缓冲区首地址,以及地址句柄 ipcDesc->devIpcNCCLCHECK(ncclProxyCallBlocking(comm, &send->proxyConn, ncclProxyMsgSetup, &sendSize, sizeof(int), &info->p2pBuff, sizeof(struct ncclP2pBuff)));// p2pMap : 根据接收到的信息做一个发送缓冲区的首地址解析,得到 sendDevMem 或者 sendMemIpc// info->rank = myInfo->rank// p2pBuff : info->p2pBuff// devMem : (void**)&resources->recvDevMem 设备接收资源的接收缓冲区内存指针地址// ipcPtr : &resources->recvMemIpc 设备接收资源的接收 内存Ipc 指针地址NCCLCHECK(p2pMap(comm, myInfo, comm->peerInfo+info->rank, &info->p2pBuff, (void**)&resources->sendDevMem, &resources->sendMemIpc));}}if (sendPeer == recvPeer) {if (recvChannels+sendChannels) {NCCLCHECKGOTO(bootstrapSend(comm->bootstrap, recvPeer, bootstrapTag, data[i], sizeof(struct ncclConnect)*(recvChannels+sendChannels)), ret, fail);NCCLCHECKGOTO(bootstrapRecv(comm->bootstrap, recvPeer, bootstrapTag, data[i], sizeof(struct ncclConnect)*(recvChannels+sendChannels)), ret, fail);sendData[i] = data[i];recvData[i] = data[i]+sendChannels;}} else {// 如果 sendPeer recvPeer 不是同一个// 假设 0 -> 1 -> 2, 当前 rank 为 1// sendPeer = 2, recvPeer = 0// sendPeer : 我作为发送的对端 rank// recvPeer : 我作为接收的对端 rankif (recvChannels) // 向前一个 rank 发送 recvChannels 个接收连接信息NCCLCHECKGOTO(bootstrapSend(comm->bootstrap, recvPeer, bootstrapTag, recvData[i], sizeof(struct ncclConnect)*recvChannels), ret, fail);if (sendChannels) // 向后一个 rank 发送 recvChannels 个发送连接信息NCCLCHECKGOTO(bootstrapSend(comm->bootstrap, sendPeer, bootstrapTag, sendData[i], sizeof(struct ncclConnect)*sendChannels), ret, fail);if (sendChannels) // 接收后一个 rank 的接收连接信息到 sendDataNCCLCHECKGOTO(bootstrapRecv(comm->bootstrap, sendPeer, bootstrapTag, sendData[i], sizeof(struct ncclConnect)*sendChannels), ret, fail);if (recvChannels) // 接收前一个 rank 的接收发送信息NCCLCHECKGOTO(bootstrapRecv(comm->bootstrap, recvPeer, bootstrapTag, recvData[i], sizeof(struct ncclConnect)*recvChannels), ret, fail);}
}

这篇关于NCCL源码解析: P2P 连接的建立的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/687863

相关文章

python常见环境管理工具超全解析

《python常见环境管理工具超全解析》在Python开发中,管理多个项目及其依赖项通常是一个挑战,下面:本文主要介绍python常见环境管理工具的相关资料,文中通过代码介绍的非常详细,需要的朋友... 目录1. conda2. pip3. uvuv 工具自动创建和管理环境的特点4. setup.py5.

全面解析HTML5中Checkbox标签

《全面解析HTML5中Checkbox标签》Checkbox是HTML5中非常重要的表单元素之一,通过合理使用其属性和样式自定义方法,可以为用户提供丰富多样的交互体验,这篇文章给大家介绍HTML5中C... 在html5中,Checkbox(复选框)是一种常用的表单元素,允许用户在一组选项中选择多个项目。本

Python包管理工具核心指令uvx举例详细解析

《Python包管理工具核心指令uvx举例详细解析》:本文主要介绍Python包管理工具核心指令uvx的相关资料,uvx是uv工具链中用于临时运行Python命令行工具的高效执行器,依托Rust实... 目录一、uvx 的定位与核心功能二、uvx 的典型应用场景三、uvx 与传统工具对比四、uvx 的技术实

SpringBoot排查和解决JSON解析错误(400 Bad Request)的方法

《SpringBoot排查和解决JSON解析错误(400BadRequest)的方法》在开发SpringBootRESTfulAPI时,客户端与服务端的数据交互通常使用JSON格式,然而,JSON... 目录问题背景1. 问题描述2. 错误分析解决方案1. 手动重新输入jsON2. 使用工具清理JSON3.

Redis过期删除机制与内存淘汰策略的解析指南

《Redis过期删除机制与内存淘汰策略的解析指南》在使用Redis构建缓存系统时,很多开发者只设置了EXPIRE但却忽略了背后Redis的过期删除机制与内存淘汰策略,下面小编就来和大家详细介绍一下... 目录1、简述2、Redis http://www.chinasem.cn的过期删除策略(Key Expir

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

Spring组件实例化扩展点之InstantiationAwareBeanPostProcessor使用场景解析

《Spring组件实例化扩展点之InstantiationAwareBeanPostProcessor使用场景解析》InstantiationAwareBeanPostProcessor是Spring... 目录一、什么是InstantiationAwareBeanPostProcessor?二、核心方法解

深入解析 Java Future 类及代码示例

《深入解析JavaFuture类及代码示例》JavaFuture是java.util.concurrent包中用于表示异步计算结果的核心接口,下面给大家介绍JavaFuture类及实例代码,感兴... 目录一、Future 类概述二、核心工作机制代码示例执行流程2. 状态机模型3. 核心方法解析行为总结:三

java连接opcua的常见问题及解决方法

《java连接opcua的常见问题及解决方法》本文将使用EclipseMilo作为示例库,演示如何在Java中使用匿名、用户名密码以及证书加密三种方式连接到OPCUA服务器,若需要使用其他SDK,原理... 目录一、前言二、准备工作三、匿名方式连接3.1 匿名方式简介3.2 示例代码四、用户名密码方式连接4

springboot项目中使用JOSN解析库的方法

《springboot项目中使用JOSN解析库的方法》JSON,全程是JavaScriptObjectNotation,是一种轻量级的数据交换格式,本文给大家介绍springboot项目中使用JOSN... 目录一、jsON解析简介二、Spring Boot项目中使用JSON解析1、pom.XML文件引入依