DPDK 中没有流量出现 RX/TX 回调示例应用程序
No traffic emerges in DPDK RX/TX Callbacks Sample Application
我是DPDK领域的新生。我从 DPDK 主页提供的示例应用程序开始。我陷入了这个例子--- DPDK RX/TX Callbacks Sample Application。条件是长时间没有流量出现(还没有输出)。我猜是因为我无法将流量发送到 DPDK 端口。
我先一步步展示我的设置。开头的网卡信息
然后,我用
调低eth2
和eth3
sudo ifconfig eth2 down
sudo ifconfig eth3 down
接下来,我使用 usertools/dpdk-setup.sh
构建 DPDK 源代码 (i686-native-linuxapp-gcc
),插入 IGB UIO 模块,为非 NUMA 系统设置大页面映射,将设备绑定到 IGB UIO 模块。这是我的设备设置和大页面列表:
所有准备工作已完成。我开始构建示例应用程序。使用以下命令
export RTE_SDK=~/dpdk/dpdk-18.08
export RTE_TARGET=i686-native-linuxapp-gcc
cd examples/rxtx_callbacks/
make
一切正常,输出编译信息:
mininet@mininet-vm:~/dpdk/dpdk-18.08/examples/rxtx_callbacks$ make
CC main.o
LD rxtx_callbacks
INSTALL-APP rxtx_callbacks
INSTALL-MAP rxtx_callbacks.map
然后,我开始运行示例应用程序使用:
sudo ./build/rxtx_callbacks -l1 -n4
执行日志为:
mininet@mininet-vm:~/dpdk/dpdk-18.08/examples/rxtx_callbacks$ sudo ./build/rxtx_callbacks -l1 -n4
EAL: Detected 2 lcore(s)
EAL: Detected 1 NUMA nodes
EAL: Multi-process socket /var/run/dpdk/rte/mp_socket
EAL: Probing VFIO support...
EAL: PCI device 0000:00:08.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:09.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:0a.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:11.0 on NUMA socket 0
EAL: probe driver: 8086:100f net_e1000_em
Port 0 MAC: 08 00 27 9d f9 5a
Port 1 MAC: 08 00 27 7f e8 8a
随着时间的流逝,什么也没有发生。但是,我发现执行结果应该是这样的:
root@ubuntu:/home/chang/dpdk/examples/rxtx_callbacks/build# ./rxtx_callbacks -l 1 -n 4
EAL: Detected 8 lcore(s)
EAL: No free hugepages reported in hugepages-1048576kB
EAL: Multi-process socket /var/run/.rte_unix
EAL: Probing VFIO support...
EAL: PCI device 0000:02:01.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:02.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:03.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:04.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
Port 0 MAC: 00 0c 29 f7 4d 25
Port 1 MAC: 00 0c 29 f7 4d 2f
Core 1 forwarding packets. [Ctrl+C to quit]
Latency = 629 cycles
Latency = 787 cycles
^C
我试着求结果,我在lcore_main()
函数中加了一个printf
如下:
for (;;) {
RTE_ETH_FOREACH_DEV(port) {
struct rte_mbuf *bufs[BURST_SIZE];
/* printf("receive a packet\n"); */
const uint16_t nb_rx = rte_eth_rx_burst(port, 0,
bufs, BURST_SIZE);
if (unlikely(nb_rx == 0))
continue;
printf("send a packet\n");
const uint16_t nb_tx = rte_eth_tx_burst(port ^ 1, 0,
bufs, nb_rx);
if (unlikely(nb_tx < nb_rx)) {
uint16_t buf;
for (buf = nb_tx; buf < nb_rx; buf++)
rte_pktmbuf_free(bufs[buf]);
}
}
}
我发现没有收到数据包,因为它应该通过检查--- if (unlikely(nb_rx == 0))
。因此,我尝试使用 Linux(不是 DPDK)提供的 pktgen 自己发送数据包。然而失败了。我会展示我的踪迹。
#!/bin/sh
modprobe pktgen
function pgset() {
local result
echo > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
function pg() {
echo inject > $PGDEV
cat $PGDEV
}
# Config Start Here -----------------------------------------------------------
# thread config
# Each CPU has own thread. Two CPU example. We add eth1.
PGDEV=/proc/net/pktgen/kpktgend_0
echo "Removing all devices"
pgset "rem_device_all"
echo "Adding eth1"
pgset "add_device eth1"
echo "Setting max_before_softirq 10000"
pgset "max_before_softirq 10000"
# device config
# delay 0 means maximum speed.
CLONE_SKB="clone_skb 1000000"
# NIC adds 4 bytes CRC
PKT_SIZE="pkt_size 60"
# COUNT 0 means forever
#COUNT="count 0"
COUNT="count 10000000"
DELAY="delay 0"
PGDEV=/proc/net/pktgen/eth1
echo "Configuring $PGDEV"
pgset "$COUNT"
pgset "$CLONE_SKB"
pgset "$PKT_SIZE"
pgset "$DELAY"
pgset "dst 127.0.0.1"
# here! the mac address given by the sample application
pgset "dst_mac 08:00:27:9d:f9:5a"
# Time to run
PGDEV=/proc/net/pktgen/pgctrl
echo "Running... ctrl^C to stop"
pgset "start"
echo "Done"
# Result can be vieved in /proc/net/pktgen/eth1
仍然没有任何反应。也许,向dpdk端口发送数据包的方式是错误的。由于 dpdk 端口在第 2 层,第 3 层工具,如 ping
,是无用的。示例应用程序一直卡住,我很绝望。你能分享一些想法来解决我的问题吗?
祝福。
编辑 1:
@Amedeo 的回复有效,但是,我只能发送一些数据包(几个数据包 不是流量 )到 RX/TX 回调应用程序。我试过使用Linux提供的pktgen
,但是接口dtap0
无法接收产生的流量通过 pktgen
。以下是我的实验教程
首先,所有准备工作同上。但是,我 运行 使用命令
的示例应用程序
sudo ./build/rxtx_callbacks -l1 -n4 --vdev=net_tap0
而不是
sudo ./build/rxtx_callbacks -l1 -n4
在 运行 示例应用程序之后,我可以在 ifconfig
中看到一个新的 nic 项目。
哦,我要提一下,我已经拒绝了eth1
,所以eth1
、eth2
和eth3
是给DPDK使用的。执行结果如下:
EAL: Detected 2 lcore(s)
EAL: Detected 1 NUMA nodes
EAL: Multi-process socket /var/run/dpdk/rte/mp_socket
EAL: Probing VFIO support...
EAL: PCI device 0000:00:08.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:09.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:0a.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:11.0 on NUMA socket 0
EAL: probe driver: 8086:100f net_e1000_em
rte_pmd_tap_probe(): Initializing pmd_tap for net_tap0 as dtap0
Port 0 MAC: 08 00 27 93 2b 19
Port 1 MAC: 08 00 27 9d f9 5a
Port 2 MAC: 08 00 27 7f e8 8a
Port 3 MAC: fe 02 cf 5a 23 ee
Core 1 forwarding packets. [Ctrl+C to quit]
带fe 02 cf 5a 23 ee
的端口3正是ifconfig
中的dtap0
网卡。现在我尝试将流量注入 dtap0
接口。但是,我尝试使用Linux提供的pktgen
,还是失败了。
我首先给接口dtap0
一个IP地址,使用:
sudo dhclient dtap0
并得到:
dtap0 Link encap:Ethernet HWaddr fe:02:cf:5a:23:ee
inet addr:10.0.2.16 Bcast:10.0.2.255 Mask:255.255.255.0
UP BROADCAST RUNNING PROMISC MULTICAST MTU:1500 Metric:1
RX packets:73 errors:0 dropped:0 overruns:0 frame:0
TX packets:92 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:500
RX bytes:6651 (6.6 KB) TX bytes:7808 (7.8 KB)
然后,我编写了一个 shell 脚本来生成从 eth0
到 dtap0
的流量负载(我希望如此)。这是脚本。
#!/bin/sh
#modprobe pktgen
modprobe pktgen
function pgset() {
local result
echo > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
function pg() {
echo inject > $PGDEV
cat $PGDEV
}
# Config Start Here -----------------------------------------------------------
# thread config
# Each CPU has own thread. Two CPU exammple. We add eth1, eth2 respectivly.
PGDEV=/proc/net/pktgen/kpktgend_0
echo "Removing all devices"
pgset "rem_device_all"
echo "Adding eth0"
pgset "add_device eth0"
echo "Setting max_before_softirq 10000"
pgset "max_before_softirq 10000"
# device config
# delay 0 means maximum speed.
CLONE_SKB="clone_skb 1000000"
# NIC adds 4 bytes CRC
PKT_SIZE="pkt_size 60"
# COUNT 0 means forever
#COUNT="count 0"
COUNT="count 10000000"
DELAY="delay 0"
PGDEV=/proc/net/pktgen/eth0
echo "Configuring $PGDEV"
pgset "$COUNT"
pgset "$CLONE_SKB"
pgset "$PKT_SIZE"
pgset "$DELAY"
# ip address of interface dtap0
pgset "dst 10.0.2.16"
# the mac address of interface dtap0
pgset "dst_mac fe:02:cf:5a:23:ee"
# Time to run
PGDEV=/proc/net/pktgen/pgctrl
echo "Running... ctrl^C to stop"
pgset "start"
echo "Done"
运行 这个脚本,我真的发现接口 eth0
正在生成输出数据包(使用 nload
或 ifconfig
)。但是,接口 dtap0
没有传入流量。我也尝试 iperf
发送流量,但是 dtap0
既不能处理 TCP 连接也不能处理 UDP ACK。 iperf
和 ping
均不可用。
感谢分享对我的问题的任何想法。
编辑2:
感谢@Amedeo 的分享。我已经弄清楚如何使用 Linux 提供的 pktgen
将数据包发送到 RX/TX Callback
示例应用程序。
运行ning RX/TX Callback
示例应用程序的所有内容与 EDIT1 相同。我将 pktgen
的脚本更改如下:
#!/bin/sh
#modprobe pktgen
modprobe pktgen
function pgset() {
local result
echo > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
function pg() {
echo inject > $PGDEV
cat $PGDEV
}
# Config Start Here -----------------------------------------------------------
# thread config
# Each CPU has own thread. Two CPU exammple. We add dtap0
PGDEV=/proc/net/pktgen/kpktgend_1
# echo "Removing all devices"
# pgset "rem_device_all"
echo "Adding dtap0"
pgset "add_device dtap0"
echo "Setting max_before_softirq 10000"
pgset "max_before_softirq 10000"
# device config
# delay 0 means maximum speed.
CLONE_SKB="clone_skb 1000000"
# NIC adds 4 bytes CRC
PKT_SIZE="pkt_size 60"
# COUNT 0 means forever
#COUNT="count 0"
COUNT="count 10000000"
DELAY="delay 0"
PGDEV=/proc/net/pktgen/dtap0
echo "Configuring $PGDEV"
pgset "$COUNT"
pgset "$CLONE_SKB"
pgset "$PKT_SIZE"
pgset "$DELAY"
# pgset "dst 192.168.211.101"
# whatever mac address
pgset "dst_mac ce:2a:23:42:ce:ff"
# Time to run
PGDEV=/proc/net/pktgen/pgctrl
echo "Running... ctrl^C to stop"
pgset "start"
echo "Done"
我需要做的只是从dtap0发送数据包!并且
dtap0 --- dpdk port --- rxtx_callbacks
一切顺利。
预计您不会看到路况。 RX/TX 回调示例是 L2FWD 示例的概括。此代码从一个端口接收流量并将其转发到另一个端口。
如果没有传入流量,应用程序将永远轮询,尝试接收某些内容但不会转发任何内容。
由于这两个端口使用的是 DPDK 驱动程序,因此它们对内核不可见。由于这个原因,常用工具(ifconfig、tcpdump、pktgen 等)看不到这些接口。
您只能绑定一个物理接口到dpdk,并使用tap接口作为第二个接口。 tap 接口绑定到内核,因此您可以轻松地向其中注入流量(例如使用 tcpreplay)。
使用tap界面只需要添加参数--vdev=net_tap0
:
sudo ./build/rxtx_callbacks -l1 -n4 --vdev=net_tap0
这将创建一个接口 dtap0
从 ifconfig 可见。所有进入这个接口的流量都会被rxtx_callbacks应用程序接收并转发到另一个物理端口。
来源:https://doc.dpdk.org/guides/nics/tap.html
端到端实验
您也可以删除所有 dpdk 物理端口并仅使用 2 个 TAP 端口。
这样你就可以拥有:
dtap0 --- dpdk port --- rxtx_callbacks --- dpdk port --- dtap1
并且 2 个 TAP 可以通过 rxtx_callbacks 应用程序相互 ping 通。
重现此步骤的步骤是:
1) 从DPDK解绑所有物理接口
2) 运行 rxtx_callbacks 有 2 个 TAP:
sudo ./rxtx_callbacks -l1 -n4 --vdev=net_tap0 --vdev=net_tap1
3) 现在你有 2 个 TAP 接口:dtap0 和 dtap1。将 dtap1 移动到不同的网络名称空间并将 IP 分配给 dtap0 和 dtap1:
sudo ip netns add ns1
sudo ip link set dtap1 netns ns1
sudo ip netns exec ns1 ifconfig dtap1 11.0.0.2/24
sudo ifconfig dtap0 11.0.0.1/24
4) 您可以从 dtap0 ping dtap1(反之亦然):
sudo ping 11.0.0.2
sudo ip netns exec ns1 ping 11.0.0.1
5) 清理:将 dtap1 移动到默认命名空间并删除命名空间。
sudo ip netns exec ns1 ip link set dtap1 netns 1
sudo ip netns del ns1
一开始最有效的最简单解决方案是使用一台主机作为 DPDK 目标,另一台主机作为数据包生成器。快速数据包生成器占用大量 CPU 资源,因此 运行 它在 DPDK 目标上肯定会降低 DPDK 性能。
有时另一台主机不可用,因此第二种最简单的解决方案是在同一台主机上背靠背连接物理以太网设备。在您的情况下,DPDK 端口 eth2
和 eth3
应该使用带有 pktgen
端口 eth0
和 eth1
.
的交叉跳线进行物理连接
在这种情况下,如果您只配置一个带有 IP 地址的 pktgen
端口,您将能够使用 ping
等,即:
# ifconfig eth2 down # for DPDK
# ifconfig eth3 down # for DPDK
# ifconfig eth0 172.16.0.1/24 up # for pktgen with an IP (TX)
# ifconfig eth1 up # for pktgen without IP (RX)
# arp -s 172.16.0.2 00:0c:29:f7:4d:25 # MAC of the connected DPDK port
那么正常的ping 172.16.0.2
应该会产生带有DST IP 172.16.0.2
,dst MAC 00:0c:29:f7:4d:25
的ICMP数据包发送给eth0
,应该是背靠背连接到 DPDK 端口。
要查看数据包返回 eth1
,我们应该将接口置于混杂模式。 tcpdump
默认这样做。所以,如果一切正常并且 运行:
# tcpdump -eni eth1
应该显示从 DPDK 返回的数据包。测试完成后,您可以转到 pktgen
.
@Amedeo 描述的 vdev
的解决方案也应该有效。不过,您将无法通过 vdev
推动大量流量。
我是DPDK领域的新生。我从 DPDK 主页提供的示例应用程序开始。我陷入了这个例子--- DPDK RX/TX Callbacks Sample Application。条件是长时间没有流量出现(还没有输出)。我猜是因为我无法将流量发送到 DPDK 端口。
我先一步步展示我的设置。开头的网卡信息
然后,我用
调低eth2
和eth3
sudo ifconfig eth2 down
sudo ifconfig eth3 down
接下来,我使用 usertools/dpdk-setup.sh
构建 DPDK 源代码 (i686-native-linuxapp-gcc
),插入 IGB UIO 模块,为非 NUMA 系统设置大页面映射,将设备绑定到 IGB UIO 模块。这是我的设备设置和大页面列表:
所有准备工作已完成。我开始构建示例应用程序。使用以下命令
export RTE_SDK=~/dpdk/dpdk-18.08
export RTE_TARGET=i686-native-linuxapp-gcc
cd examples/rxtx_callbacks/
make
一切正常,输出编译信息:
mininet@mininet-vm:~/dpdk/dpdk-18.08/examples/rxtx_callbacks$ make
CC main.o
LD rxtx_callbacks
INSTALL-APP rxtx_callbacks
INSTALL-MAP rxtx_callbacks.map
然后,我开始运行示例应用程序使用:
sudo ./build/rxtx_callbacks -l1 -n4
执行日志为:
mininet@mininet-vm:~/dpdk/dpdk-18.08/examples/rxtx_callbacks$ sudo ./build/rxtx_callbacks -l1 -n4
EAL: Detected 2 lcore(s)
EAL: Detected 1 NUMA nodes
EAL: Multi-process socket /var/run/dpdk/rte/mp_socket
EAL: Probing VFIO support...
EAL: PCI device 0000:00:08.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:09.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:0a.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:11.0 on NUMA socket 0
EAL: probe driver: 8086:100f net_e1000_em
Port 0 MAC: 08 00 27 9d f9 5a
Port 1 MAC: 08 00 27 7f e8 8a
随着时间的流逝,什么也没有发生。但是,我发现执行结果应该是这样的:
root@ubuntu:/home/chang/dpdk/examples/rxtx_callbacks/build# ./rxtx_callbacks -l 1 -n 4
EAL: Detected 8 lcore(s)
EAL: No free hugepages reported in hugepages-1048576kB
EAL: Multi-process socket /var/run/.rte_unix
EAL: Probing VFIO support...
EAL: PCI device 0000:02:01.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:02.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:03.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
EAL: PCI device 0000:02:04.0 on NUMA socket -1
EAL: Invalid NUMA socket, default to 0
EAL: probe driver: 8086:100f net_e1000_em
Port 0 MAC: 00 0c 29 f7 4d 25
Port 1 MAC: 00 0c 29 f7 4d 2f
Core 1 forwarding packets. [Ctrl+C to quit]
Latency = 629 cycles
Latency = 787 cycles
^C
我试着求结果,我在lcore_main()
函数中加了一个printf
如下:
for (;;) {
RTE_ETH_FOREACH_DEV(port) {
struct rte_mbuf *bufs[BURST_SIZE];
/* printf("receive a packet\n"); */
const uint16_t nb_rx = rte_eth_rx_burst(port, 0,
bufs, BURST_SIZE);
if (unlikely(nb_rx == 0))
continue;
printf("send a packet\n");
const uint16_t nb_tx = rte_eth_tx_burst(port ^ 1, 0,
bufs, nb_rx);
if (unlikely(nb_tx < nb_rx)) {
uint16_t buf;
for (buf = nb_tx; buf < nb_rx; buf++)
rte_pktmbuf_free(bufs[buf]);
}
}
}
我发现没有收到数据包,因为它应该通过检查--- if (unlikely(nb_rx == 0))
。因此,我尝试使用 Linux(不是 DPDK)提供的 pktgen 自己发送数据包。然而失败了。我会展示我的踪迹。
#!/bin/sh
modprobe pktgen
function pgset() {
local result
echo > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
function pg() {
echo inject > $PGDEV
cat $PGDEV
}
# Config Start Here -----------------------------------------------------------
# thread config
# Each CPU has own thread. Two CPU example. We add eth1.
PGDEV=/proc/net/pktgen/kpktgend_0
echo "Removing all devices"
pgset "rem_device_all"
echo "Adding eth1"
pgset "add_device eth1"
echo "Setting max_before_softirq 10000"
pgset "max_before_softirq 10000"
# device config
# delay 0 means maximum speed.
CLONE_SKB="clone_skb 1000000"
# NIC adds 4 bytes CRC
PKT_SIZE="pkt_size 60"
# COUNT 0 means forever
#COUNT="count 0"
COUNT="count 10000000"
DELAY="delay 0"
PGDEV=/proc/net/pktgen/eth1
echo "Configuring $PGDEV"
pgset "$COUNT"
pgset "$CLONE_SKB"
pgset "$PKT_SIZE"
pgset "$DELAY"
pgset "dst 127.0.0.1"
# here! the mac address given by the sample application
pgset "dst_mac 08:00:27:9d:f9:5a"
# Time to run
PGDEV=/proc/net/pktgen/pgctrl
echo "Running... ctrl^C to stop"
pgset "start"
echo "Done"
# Result can be vieved in /proc/net/pktgen/eth1
仍然没有任何反应。也许,向dpdk端口发送数据包的方式是错误的。由于 dpdk 端口在第 2 层,第 3 层工具,如 ping
,是无用的。示例应用程序一直卡住,我很绝望。你能分享一些想法来解决我的问题吗?
祝福。
编辑 1:
@Amedeo 的回复有效,但是,我只能发送一些数据包(几个数据包 不是流量 )到 RX/TX 回调应用程序。我试过使用Linux提供的pktgen
,但是接口dtap0
无法接收产生的流量通过 pktgen
。以下是我的实验教程
首先,所有准备工作同上。但是,我 运行 使用命令
的示例应用程序 sudo ./build/rxtx_callbacks -l1 -n4 --vdev=net_tap0
而不是
sudo ./build/rxtx_callbacks -l1 -n4
在 运行 示例应用程序之后,我可以在 ifconfig
中看到一个新的 nic 项目。
哦,我要提一下,我已经拒绝了eth1
,所以eth1
、eth2
和eth3
是给DPDK使用的。执行结果如下:
EAL: Detected 2 lcore(s)
EAL: Detected 1 NUMA nodes
EAL: Multi-process socket /var/run/dpdk/rte/mp_socket
EAL: Probing VFIO support...
EAL: PCI device 0000:00:08.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:09.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:0a.0 on NUMA socket 0
EAL: probe driver: 8086:100e net_e1000_em
EAL: PCI device 0000:00:11.0 on NUMA socket 0
EAL: probe driver: 8086:100f net_e1000_em
rte_pmd_tap_probe(): Initializing pmd_tap for net_tap0 as dtap0
Port 0 MAC: 08 00 27 93 2b 19
Port 1 MAC: 08 00 27 9d f9 5a
Port 2 MAC: 08 00 27 7f e8 8a
Port 3 MAC: fe 02 cf 5a 23 ee
Core 1 forwarding packets. [Ctrl+C to quit]
带fe 02 cf 5a 23 ee
的端口3正是ifconfig
中的dtap0
网卡。现在我尝试将流量注入 dtap0
接口。但是,我尝试使用Linux提供的pktgen
,还是失败了。
我首先给接口dtap0
一个IP地址,使用:
sudo dhclient dtap0
并得到:
dtap0 Link encap:Ethernet HWaddr fe:02:cf:5a:23:ee
inet addr:10.0.2.16 Bcast:10.0.2.255 Mask:255.255.255.0
UP BROADCAST RUNNING PROMISC MULTICAST MTU:1500 Metric:1
RX packets:73 errors:0 dropped:0 overruns:0 frame:0
TX packets:92 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:500
RX bytes:6651 (6.6 KB) TX bytes:7808 (7.8 KB)
然后,我编写了一个 shell 脚本来生成从 eth0
到 dtap0
的流量负载(我希望如此)。这是脚本。
#!/bin/sh
#modprobe pktgen
modprobe pktgen
function pgset() {
local result
echo > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
function pg() {
echo inject > $PGDEV
cat $PGDEV
}
# Config Start Here -----------------------------------------------------------
# thread config
# Each CPU has own thread. Two CPU exammple. We add eth1, eth2 respectivly.
PGDEV=/proc/net/pktgen/kpktgend_0
echo "Removing all devices"
pgset "rem_device_all"
echo "Adding eth0"
pgset "add_device eth0"
echo "Setting max_before_softirq 10000"
pgset "max_before_softirq 10000"
# device config
# delay 0 means maximum speed.
CLONE_SKB="clone_skb 1000000"
# NIC adds 4 bytes CRC
PKT_SIZE="pkt_size 60"
# COUNT 0 means forever
#COUNT="count 0"
COUNT="count 10000000"
DELAY="delay 0"
PGDEV=/proc/net/pktgen/eth0
echo "Configuring $PGDEV"
pgset "$COUNT"
pgset "$CLONE_SKB"
pgset "$PKT_SIZE"
pgset "$DELAY"
# ip address of interface dtap0
pgset "dst 10.0.2.16"
# the mac address of interface dtap0
pgset "dst_mac fe:02:cf:5a:23:ee"
# Time to run
PGDEV=/proc/net/pktgen/pgctrl
echo "Running... ctrl^C to stop"
pgset "start"
echo "Done"
运行 这个脚本,我真的发现接口 eth0
正在生成输出数据包(使用 nload
或 ifconfig
)。但是,接口 dtap0
没有传入流量。我也尝试 iperf
发送流量,但是 dtap0
既不能处理 TCP 连接也不能处理 UDP ACK。 iperf
和 ping
均不可用。
感谢分享对我的问题的任何想法。
编辑2:
感谢@Amedeo 的分享。我已经弄清楚如何使用 Linux 提供的 pktgen
将数据包发送到 RX/TX Callback
示例应用程序。
运行ning RX/TX Callback
示例应用程序的所有内容与 EDIT1 相同。我将 pktgen
的脚本更改如下:
#!/bin/sh
#modprobe pktgen
modprobe pktgen
function pgset() {
local result
echo > $PGDEV
result=`cat $PGDEV | fgrep "Result: OK:"`
if [ "$result" = "" ]; then
cat $PGDEV | fgrep Result:
fi
}
function pg() {
echo inject > $PGDEV
cat $PGDEV
}
# Config Start Here -----------------------------------------------------------
# thread config
# Each CPU has own thread. Two CPU exammple. We add dtap0
PGDEV=/proc/net/pktgen/kpktgend_1
# echo "Removing all devices"
# pgset "rem_device_all"
echo "Adding dtap0"
pgset "add_device dtap0"
echo "Setting max_before_softirq 10000"
pgset "max_before_softirq 10000"
# device config
# delay 0 means maximum speed.
CLONE_SKB="clone_skb 1000000"
# NIC adds 4 bytes CRC
PKT_SIZE="pkt_size 60"
# COUNT 0 means forever
#COUNT="count 0"
COUNT="count 10000000"
DELAY="delay 0"
PGDEV=/proc/net/pktgen/dtap0
echo "Configuring $PGDEV"
pgset "$COUNT"
pgset "$CLONE_SKB"
pgset "$PKT_SIZE"
pgset "$DELAY"
# pgset "dst 192.168.211.101"
# whatever mac address
pgset "dst_mac ce:2a:23:42:ce:ff"
# Time to run
PGDEV=/proc/net/pktgen/pgctrl
echo "Running... ctrl^C to stop"
pgset "start"
echo "Done"
我需要做的只是从dtap0发送数据包!并且
dtap0 --- dpdk port --- rxtx_callbacks
一切顺利。
预计您不会看到路况。 RX/TX 回调示例是 L2FWD 示例的概括。此代码从一个端口接收流量并将其转发到另一个端口。 如果没有传入流量,应用程序将永远轮询,尝试接收某些内容但不会转发任何内容。
由于这两个端口使用的是 DPDK 驱动程序,因此它们对内核不可见。由于这个原因,常用工具(ifconfig、tcpdump、pktgen 等)看不到这些接口。
您只能绑定一个物理接口到dpdk,并使用tap接口作为第二个接口。 tap 接口绑定到内核,因此您可以轻松地向其中注入流量(例如使用 tcpreplay)。
使用tap界面只需要添加参数--vdev=net_tap0
:
sudo ./build/rxtx_callbacks -l1 -n4 --vdev=net_tap0
这将创建一个接口 dtap0
从 ifconfig 可见。所有进入这个接口的流量都会被rxtx_callbacks应用程序接收并转发到另一个物理端口。
来源:https://doc.dpdk.org/guides/nics/tap.html
端到端实验
您也可以删除所有 dpdk 物理端口并仅使用 2 个 TAP 端口。 这样你就可以拥有:
dtap0 --- dpdk port --- rxtx_callbacks --- dpdk port --- dtap1
并且 2 个 TAP 可以通过 rxtx_callbacks 应用程序相互 ping 通。
重现此步骤的步骤是:
1) 从DPDK解绑所有物理接口
2) 运行 rxtx_callbacks 有 2 个 TAP:
sudo ./rxtx_callbacks -l1 -n4 --vdev=net_tap0 --vdev=net_tap1
3) 现在你有 2 个 TAP 接口:dtap0 和 dtap1。将 dtap1 移动到不同的网络名称空间并将 IP 分配给 dtap0 和 dtap1:
sudo ip netns add ns1
sudo ip link set dtap1 netns ns1
sudo ip netns exec ns1 ifconfig dtap1 11.0.0.2/24
sudo ifconfig dtap0 11.0.0.1/24
4) 您可以从 dtap0 ping dtap1(反之亦然):
sudo ping 11.0.0.2
sudo ip netns exec ns1 ping 11.0.0.1
5) 清理:将 dtap1 移动到默认命名空间并删除命名空间。
sudo ip netns exec ns1 ip link set dtap1 netns 1
sudo ip netns del ns1
一开始最有效的最简单解决方案是使用一台主机作为 DPDK 目标,另一台主机作为数据包生成器。快速数据包生成器占用大量 CPU 资源,因此 运行 它在 DPDK 目标上肯定会降低 DPDK 性能。
有时另一台主机不可用,因此第二种最简单的解决方案是在同一台主机上背靠背连接物理以太网设备。在您的情况下,DPDK 端口 eth2
和 eth3
应该使用带有 pktgen
端口 eth0
和 eth1
.
在这种情况下,如果您只配置一个带有 IP 地址的 pktgen
端口,您将能够使用 ping
等,即:
# ifconfig eth2 down # for DPDK
# ifconfig eth3 down # for DPDK
# ifconfig eth0 172.16.0.1/24 up # for pktgen with an IP (TX)
# ifconfig eth1 up # for pktgen without IP (RX)
# arp -s 172.16.0.2 00:0c:29:f7:4d:25 # MAC of the connected DPDK port
那么正常的ping 172.16.0.2
应该会产生带有DST IP 172.16.0.2
,dst MAC 00:0c:29:f7:4d:25
的ICMP数据包发送给eth0
,应该是背靠背连接到 DPDK 端口。
要查看数据包返回 eth1
,我们应该将接口置于混杂模式。 tcpdump
默认这样做。所以,如果一切正常并且 运行:
# tcpdump -eni eth1
应该显示从 DPDK 返回的数据包。测试完成后,您可以转到 pktgen
.
@Amedeo 描述的 vdev
的解决方案也应该有效。不过,您将无法通过 vdev
推动大量流量。