dpdk/vpp中的memif使用方法

2023-11-04 23:10
文章标签 使用 方法 vpp dpdk memif

本文主要是介绍dpdk/vpp中的memif使用方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

简介

同一主机上的不同DPDK进程可以采用内存交换的方式进行报文传输,这一传输接口叫做memif(shared memory packet interface)。传输的报文是原始报文格式,可以配置为Ethernet模式,IP模式,Punt/Inject模式。目前DPDK memif只支持Ethernet模式。memif接口有两种身份,master和slave,也可以称为server和client,两者通过socket传递控制消息。master和slave是一一对应的关系,一个master只能和一个slave连接,两者拥有相同的id。master负责创建socket并监听slave的连接请求。slave负责创建共享内存文件和初始化共享内存,并且会主动发起socket连接请求。

memif采用unix域套接字来传递控制消息,每组memif在socket里面都有一个唯一的id,这个id也是用来识别对端接口的标识。slave接口在创建的时候,会在指定的socket上尝试连接。socket的监听进程即master接口所在的进程会提取连接请求,并创建一个连接控制信道,并通过此信道发送hello消息,这条消息包含了一些配置信息。slave收到hello消息之后,会根据消息所带的配置来调整自己的配置,随后回复init消息。init消息包含了接口id,监听进程提取接口id,并将控制信道绑定到对应的接口上,之后回复ack。slave收到ack之后就开始创建内存区域(region)和环形队列(ring),并针对每个region和ring都发送一条add消息,master收到后需要逐一回复ack。待slave收到最后一条add ring的ack回复之后,就会发送connect消息,表示slave已经准备就绪。master收到此消息之后,会将region映射到自己的地址空间,初始化ring并回复connected消息,之后就能进行数据报文传输。如果接口状态出现异常,无论是master还是slave,都可以随时发送断开连接请求。

master和slave的协商过程如下:

共享内存

slave是共享内存的生产者,而master是消费者。内存区域(region)是映射的共享内存文件,由 memif slave创建并在连接建立时提供给master。内存区域包含了ring和buffer。ring和buffer可以被分配在多个不同的内存区域。对于非零拷贝模式,ring和buffer只能开辟在同一个内存区域以减少需要打开的文件数量。

slave 非零拷贝内存区域结构 region n (no-zero-copy):

RingsBuffers
S2M ringsM2S ringspacket buffer 0...packet buffer n

buffer的总数量为 (ring的数量) x (ring size)。

ring 数据结构:

typedef struct {
    MEMIF_CACHELINE_ALIGN_MARK(cacheline0);
    uint32_t cookie;                                                /**< MEMIF_COOKIE */
    uint16_t flags;                                                   /**< flags */
#define MEMIF_RING_FLAG_MASK_INT 1        /**< disable interrupt mode */
    uint16_t head;                                                   /**< pointer to ring buffer head */
    MEMIF_CACHELINE_ALIGN_MARK(cacheline1);
    uint16_t tail;                                                      /**< pointer to ring buffer tail */
    MEMIF_CACHELINE_ALIGN_MARK(cacheline2);
    memif_desc_t desc[0];                                     /**< buffer descriptors */
} memif_ring_t;

描述符数据结构:

typedef struct __rte_packed {
    uint16_t flags;                                           /**< flags */
#define MEMIF_DESC_FLAG_NEXT 1       /**< is chained buffer */
    memif_region_index_t region;                  /**< region index on which the buffer is located */
    uint32_t length;                                         /**< buffer length */
    memif_region_offset_t offset;                   /**< buffer offset */
    uint32_t metadata;
} memif_desc_t;

描述符中有个MEMIF_DESC_FLAG_NEXT标志,如果这个标志被置上了,就代表当前的报文长度大于buffer长度,报文会被分成多个buffer存储,并且buffer有可能不连续的。

slave零拷贝客户端:

在进行memif接口配置的时候,可以将slave配置成零拷贝模式。配置成这种模式时,所有的buffer都是从slave进程的memseg中分配出来并暴露给master。DPDK必须使能 ‘–single-file-segments’,保证所有的buffer都在同一块memseg,可以很容易从内存文件的起始位置偏移出buffer的地址,并且buffer的地址是连续的。

slave非零拷贝 vs slave零拷贝

slave配置成非零拷贝模式时,需要在slave内存空间中单独开辟一块内存区域,slave轮询读取从master发送过来的报文时,需要将报文从region的buffer中拷到memseg当中,slave往master发送报文时,需要先将报文拷贝到region当中,然后由master轮询读取。master去读写报文时,始终都需要内存拷贝。

slave配置成零拷贝模式时,buffers直接在slave的memseg上分配,slave进程直接操作buffer描述符即可,无需额外内存拷贝,只需要master进程读写报文时进行内存拷贝。 

组网测试

下面使用vpp配置memif接口,对比验证下memif的性能。

在服务器上分别起两个vpp进程,vpp1和vpp2。vpp1和vpp2各配置了1个main core和1个work core。在vpp1上创建memif1/1并配置成master,在vpp2上创建memif1/1并配置成slave。vpp1和vpp2各绑定一个10G以太网卡,网口连接交换机,同时Test Center上也有两个10G以太网接口连接交换机。测试流从Test Center一个端口经过vpp1和vpp2两次L3转发至Test Center另外一个端口。测试拓扑图如下:

分别测试以下4中情况的报文转发性能:

1. vpp1和vpp2的core以及绑定的网卡在同一个numa node,vpp2的memif slave配置成零拷贝模式。

2.  vpp1和vpp2的core以及绑定的网卡在同一个numa node,vpp2的memif slave配置成非零拷贝模式。

3. vpp1和vpp2的core以及绑定的网卡在不同的numa node,vpp2的memif slave配置成零拷贝模式。

4. vpp1和vpp2的core以及绑定的网卡在不同的numa node,vpp2的memif slave配置成非零拷贝模式。

vpp1和vpp2上配置命令如下:

创建memif的时候加上no-zero-copy可以配置成非零拷贝模式。另外配置的时候需注意绑定的网卡和core与numa的关系是否和设想的一致。

##### vpp1 配置
set int state TenGigabitEthernetc2/0/0 up
create sub-interfaces TenGigabitEthernetc2/0/0 1 dot1q 1019 exact-match
set interface state TenGigabitEthernetc2/0/0.1 up
set interface ip address TenGigabitEthernetc2/0/0.1 192.85.1.29/24
create memif socket id 111 filename /run/vpp/contiv/memif111.sock
create interface memif id 1 socket-id 111 master ring-size 8192 tx-queues 2 rx-queues 2
# create interface memif id 1 socket-id 111 master ring-size 8192 tx-queues 2 rx-queues 2 no-zero-copy
set interface state memif111/1 up
set interface ip address memif111/1 2.2.2.3/24
ip route add 192.85.2.0/24 via 2.2.2.2##### vpp2 配置
set int state TenGigabitEthernet1/0/1 up
create sub-interfaces TenGigabitEthernet1/0/1 1 dot1q 1020 exact-match
set interface state TenGigabitEthernet1/0/1.1 up
set interface ip address TenGigabitEthernet1/0/1.1 192.85.2.29/24
create memif socket id 111 filename /run/vpp/contiv/memif111.sock 
create interface memif id 1 socket-id 111 slave ring-size 8192 tx-queues 2 rx-queues 2
# create interface memif id 1 socket-id 111 slave ring-size 8192 tx-queues 2 rx-queues 2 no-zero-copy
set interface state memif111/1 up
set interface ip address memif111/1 2.2.2.2/24
ip route add 192.85.1.0/24 via 2.2.2.3

vpp配置完成之后,从TC上分别ping 192.85.1.28和192.85.2.28以完成mac地址的学习。

##### vpp1
vpp# show ip neighborTime                       IP                    Flags      Ethernet              Interface       69.9117               192.85.1.28                 D    00:10:94:00:00:02 TenGigabitEthernetc2/0/0.131.1328                 2.2.2.2                   D    02:fe:64:40:98:8d memif111/1##### vpp2
vpp# show ip neighborTime                       IP                    Flags      Ethernet              Interface       186.6420               192.85.2.28                 D    00:10:94:00:00:19 TenGigabitEthernet1/0/1.127.8395                 2.2.2.3                   D    02:fe:48:42:a7:89 memif111/1

从Test Center 端口发送报文长度为1024字节的udp报文,测试vpp三层转发以及memif性能。报文格式如下:

测试结果如下:

从时延和vpp矢量数据可以看出,采取零拷贝模式,在基于dpdk的不同应用间进行高性能流量转发,也有着不错的性能,不失为一个较好的解决方法。

这篇关于dpdk/vpp中的memif使用方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/345817

相关文章

python使用库爬取m3u8文件的示例

《python使用库爬取m3u8文件的示例》本文主要介绍了python使用库爬取m3u8文件的示例,可以使用requests、m3u8、ffmpeg等库,实现获取、解析、下载视频片段并合并等步骤,具有... 目录一、准备工作二、获取m3u8文件内容三、解析m3u8文件四、下载视频片段五、合并视频片段六、错误

Python中提取文件名扩展名的多种方法实现

《Python中提取文件名扩展名的多种方法实现》在Python编程中,经常会遇到需要从文件名中提取扩展名的场景,Python提供了多种方法来实现这一功能,不同方法适用于不同的场景和需求,包括os.pa... 目录技术背景实现步骤方法一:使用os.path.splitext方法二:使用pathlib模块方法三

Python打印对象所有属性和值的方法小结

《Python打印对象所有属性和值的方法小结》在Python开发过程中,调试代码时经常需要查看对象的当前状态,也就是对象的所有属性和对应的值,然而,Python并没有像PHP的print_r那样直接提... 目录python中打印对象所有属性和值的方法实现步骤1. 使用vars()和pprint()2. 使

CSS实现元素撑满剩余空间的五种方法

《CSS实现元素撑满剩余空间的五种方法》在日常开发中,我们经常需要让某个元素占据容器的剩余空间,本文将介绍5种不同的方法来实现这个需求,并分析各种方法的优缺点,感兴趣的朋友一起看看吧... css实现元素撑满剩余空间的5种方法 在日常开发中,我们经常需要让某个元素占据容器的剩余空间。这是一个常见的布局需求

gitlab安装及邮箱配置和常用使用方式

《gitlab安装及邮箱配置和常用使用方式》:本文主要介绍gitlab安装及邮箱配置和常用使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1.安装GitLab2.配置GitLab邮件服务3.GitLab的账号注册邮箱验证及其分组4.gitlab分支和标签的

SpringBoot3应用中集成和使用Spring Retry的实践记录

《SpringBoot3应用中集成和使用SpringRetry的实践记录》SpringRetry为SpringBoot3提供重试机制,支持注解和编程式两种方式,可配置重试策略与监听器,适用于临时性故... 目录1. 简介2. 环境准备3. 使用方式3.1 注解方式 基础使用自定义重试策略失败恢复机制注意事项

nginx启动命令和默认配置文件的使用

《nginx启动命令和默认配置文件的使用》:本文主要介绍nginx启动命令和默认配置文件的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录常见命令nginx.conf配置文件location匹配规则图片服务器总结常见命令# 默认配置文件启动./nginx

在Windows上使用qemu安装ubuntu24.04服务器的详细指南

《在Windows上使用qemu安装ubuntu24.04服务器的详细指南》本文介绍了在Windows上使用QEMU安装Ubuntu24.04的全流程:安装QEMU、准备ISO镜像、创建虚拟磁盘、配置... 目录1. 安装QEMU环境2. 准备Ubuntu 24.04镜像3. 启动QEMU安装Ubuntu4

使用Python和OpenCV库实现实时颜色识别系统

《使用Python和OpenCV库实现实时颜色识别系统》:本文主要介绍使用Python和OpenCV库实现的实时颜色识别系统,这个系统能够通过摄像头捕捉视频流,并在视频中指定区域内识别主要颜色(红... 目录一、引言二、系统概述三、代码解析1. 导入库2. 颜色识别函数3. 主程序循环四、HSV色彩空间详解

Windows下C++使用SQLitede的操作过程

《Windows下C++使用SQLitede的操作过程》本文介绍了Windows下C++使用SQLite的安装配置、CppSQLite库封装优势、核心功能(如数据库连接、事务管理)、跨平台支持及性能优... 目录Windows下C++使用SQLite1、安装2、代码示例CppSQLite:C++轻松操作SQ