深入学习IO多路复用selectpollepoll实现原理
作者:mingguangtu,腾讯 IEG 后台开发工程师
select/poll/epoll 是 Linux 服务器提供的三种处理高并发网络请求的 IO 多路复用技术,是个老生常谈又不容易弄清楚其底层原理的知识点,本文打算深入学习下其实现机制。
Linux 服务器处理网络请求有三种机制,select、poll、epoll,本文打算深入学习下其实现原理。
吃水不忘挖井人,最近两周花了些时间学习了张彦飞大佬的文章 图解 | 深入揭秘 epoll 是如何实现 IO 多路复用的 和其他文章 ,及出版的书籍《深入理解 Linux 网络》,对阻塞 IO、多路复用、epoll 等的实现原理有了一定的了解;飞哥的文章描述底层源码逻辑比较清晰,就是有时候归纳总结事情本质的抽象程度不够,涉及内核源码细节的讲述较多,会让读者产生一定的学习成本,本文希望在这方面改进一下。 0. 结论
本文其他的内容主要是得出了下面几个结论: 服务器要接收客户端的数据,要建立 socket 内核结构,主要包含两个重要的数据结构, (进程)等待队列 ,和 (数据)接收队列 ,socket 在进程中作为一个文件,可以用文件描述符 fd 来表示,为了方便理解,本文中, socket 内核对象 ≈ fd 文件描述符 ≈ TCP 连接; 阻塞 IO 的主要逻辑是:服务端和客户端建立了连接 socket 后,服务端的用户进程通过 recv 函数接收数据时,如果数据没有到达,则当前的用户进程的进程描述符和回调函数会封装到一个进程等待项中,加入到 socket 的进程等待队列中;如果连接上有数据到达网卡,由网卡将数据通过 DMA 控制器拷贝到内核内存的 RingBuffer 中,并向 CPU 发出硬中断,然后,CPU 向内核中断进程 ksoftirqd 发出软中断信号,内核中断进程 ksoftirqd 将内核内存的 RingBuffer 中的数据根据数据报文的 IP 和端口号,将其拷贝到对应 socket 的数据接收队列中,然后通过 socket 的进程等待队列中的回调函数,唤醒要处理该数据的用户进程; 阻塞 IO 的问题是:一次数据到达会进行 两次进程切换, 一次数据读取有 两处阻塞,单进程对单连接; 非阻塞 IO 模型解决了" 两次进程切换,两处阻塞,单进程对单连接 "中的" 两处阻塞 "问题,将" 两处阻塞 "变成了" 一处阻塞 ",但依然存在" 两次进程切换,一处阻塞,单进程对单连接 "的问题; 用一个进程监听多个连接的 IO 多路复用技术解决了" 两次进程切换,一处阻塞,单进程对单连接 " 中的" 两次进程切换,单进程对单连接 ",剩下了" 一处阻塞 ",这是 Linux 中同步 IO 都会有的问题,因为 Linux 没有提供异步 IO 实现; Linux 的 IO 多路复用用三种实现:select、poll、epoll。select 的问题是:
a)调用 select 时会陷入内核,这时需要将参数中的 fd_set 从用户空间拷贝到内核空间,高并发场景下这样的拷贝会消耗极大资源;(epoll 优化为不拷贝)
b)进程被唤醒后,不知道哪些连接已就绪即收到了数据,需要遍历传递进来的所有 fd_set 的每一位,不管它们是否就绪;(epoll 优化为异步事件通知)
c)select 只返回就绪文件的个数,具体哪个文件可读还需要遍历;(epoll 优化为只返回就绪的文件描述符,无需做无效的遍历)
d)同时能够监听的文件描述符数量太少,是 1024 或 2048;(poll 基于链表结构解决了长度限制)
7.poll 只是基于链表的结构解决了最大文件描述符限制的问题,其他 select 性能差的问题依然没有解决;终极的解决方案是 epoll,解决了 select 的前三个缺点;
8. epoll 的实现原理看起来很复杂,其实很简单,注意两个回调函数的使用:数据到达 socket 的等待队列时,通过 回调函数 ep_poll_callback 找到 eventpoll 对象中红黑树的 epitem 节点,并将其加入就绪列队 rdllist,然后通过 回调函数 default_wake_function 唤醒用户进程 ,并将 rdllist 传递给用户进程,让用户进程准确读取就绪的 socket 的数据。这种回调机制能够定向准确的通知程序要处理的事件,而不需要每次都循环遍历检查数据是否到达以及数据该由哪个进程处理,日常开发中可以学习借鉴下这种思想。 1. Linux 怎样处理网络请求1.1 阻塞 IO
要讲 IO 多路复用,最好先把传统的同步阻塞的网络 IO 的交互方式剖析清楚。
如果客户端想向 Linux 服务器发送一段数据 ,C 语言的实现方式是: int main() { int fd = socket(); // 创建一个网络通信的socket结构体 connect(fd, ...); // 通过三次握手跟服务器建立TCP连接 send(fd, ...); // 写入数据到TCP连接 close(fd); // 关闭TCP连接 }
服务端通过如下 C 代码接收客户端的连接和发送的数据: int main() { fd = socket(...); // 创建一个网络通信的socket结构体 bind(fd, ...); // 绑定通信端口 listen(fd, 128); // 监听通信端口,判断TCP连接是否可以建立 while(1) { connfd = accept(fd, ...); // 阻塞建立连接 int n = recv(connfd, buf, ...); // 阻塞读数据 doSomeThing(buf); // 利用读到的数据做些什么 close(connfd); // 关闭连接,循环等待下一个连接 } }
把服务端处理请求的细节展开,得到如下图所示的同步阻塞网络 IO 的数据接收流程:
图1.1 同步阻塞网络IO的数据接收流程
主要步骤是:
1)服务端通过 socket() 函数 陷入内核态进行 socket 系统调用,该内核函数会创建 socket 内核对象 ,主要有两个重要的结构体,( 进程)等待队列 ,和( 数据)接收队列, 为了方便理解,等待队列前可以加上进程二字,其实不加更准确,接收队列同样;进程等待队列,存放了服务端的用户进程 A 的进程描述符和回调函数;socket 的数据接收队列,存放网卡接收到的该 socket 要处理的数据;
2)进程 A 调用 recv() 函数接收数据,会进入到 recvfrom() 系统调用函数 ,发现 socket 的数据等待队列没有它要接收的数据到达时,进程 A 会让出 CPU,进入阻塞状态,进程 A 的进程描述符和它被唤醒用到的回调函数 callback func 会组成一个结构体叫等待队列项,放入 socket 的进程等待队列;
3)客户端的发送数据到达服务端的网卡;
4)网卡首先会将网络传输过来的数据通过 DMA 控制程序复制到内存环形缓冲区 RingBuffer 中;
5)网卡向 CPU 发出 硬中断 ;
6)CPU 收到了硬中断后,为了避免过度占用 CPU 处理网络设备请求导致其他设备如鼠标和键盘的消息无法被处理,会调用网络驱动注册的中断处理函数,进行简单快速处理后向内核中断进程 ksoftirqd 发出 软中断 ,就释放 CPU,由软中断进程处理复杂耗时的网络设备请求逻辑;
7) 内核中断进程 ksoftirqd 收到软中断信号后,会将网卡复制到内存的数据,根据数据报文的 IP 和端口号,将其拷贝到对应 socket 的接收队列;
8)内核中断进程 ksoftirqd 根据 socket 的数据接收队列的数据,通过进程等待队列中的回调函数,唤醒要处理该数据的进程 A,进程 A 会进入 CPU 的运行队列,等待获取 CPU 执行数据处理逻辑;
9)进程 A 获取 CPU 后,会回到之前调用 recvfrom() 函数 时阻塞的位置继续执行,这时发现 socket 内核空间的等待队列上有数据,会在内核态将内核空间的 socket 等待队列的数据拷贝到用户空间,然后才会回到用户态执行进程的用户程序,从而真的解除阻塞 ;
用户进程 A 在调用 recvfrom() 系统函数时,有两个阶段都是等待的:在数据没有准备好的时候,进程 A 等待内核 socket 准备好数据;内核准备好数据后,进程 A 继续等待内核将 socket 等待队列的数据拷贝到自己的用户缓冲区;在内核完成数据拷贝到用户缓冲区后,进程 A 才会从 recvfrom() 系统调用中返回,并解除阻塞状态。整体流程如下:
图1.2 阻塞IO模型
在 IO 阻塞逻辑中,存在下面三个问题: 进程在 recv 的时候大概率会被阻塞掉,导致一次进程切换; 当 TCP 连接上的数据到达服务端的网卡、并从网卡复制到内核空间 socket 的数据等待队列时,进程会被唤醒,又是一次进程切换;并且,在用户进程继续执行完 recvfrom() 函数系统调用,将内核空间的数据拷贝到了用户缓冲区后,用户进程才会真正拿到所需的数据进行处理; 一个进程同时只能等待一条连接,如果有很多并发,则需要很多进程;
总结:一次数据到达会进行 两次进程切换, 一次数据读取有 两处阻塞,单进程对单连接 。 1.2 非阻塞 IO
为了解决同步阻塞 IO 的问题,操作系统提供了非阻塞的 recv() 函数,这个函数的效果是:如果没有数据从网卡到达内核 socket 的等待队列时,系统调用会直接返回,而不是阻塞的等待。
如果我们要产生一个非阻塞的 socket,在 C 语言中如下代码所示: // 创建socket int sock_fd = socket(AF_INET, SOCK_STREAM, 0); ... // 更改socket为nonblock fcntl(sock_fd, F_SETFL, fdflags | O_NONBLOCK); // connect .... while(1) { int recvlen = recv(sock_fd, recvbuf, RECV_BUF_SIZE) ; ...... } ...
非阻塞 IO 模型如下图所示:
图1.3 非阻塞IO模型
从上图中,我们知道,非阻塞 IO,是将等待数据从网卡到达 socket 内核空间这一部分变成了非阻塞的,用户进程调用 recvfrom() 会重复发送请求检查数据是否到达内核空间,如果没有到,则立即返回,不会阻塞。不过,当数据已经到达内核空间的 socket 的等待队列后,用户进程依然要等待 recvfrom() 函数将数据从内核空间拷贝到用户空间,才会从 recvfrom() 系统调用函数中返回。
非阻塞 IO 模型解决了" 两次进程切换,两处阻塞,单进程对单连接 "中的" 两处阻塞 "问题,将" 两处阻塞 "变成了" 一处阻塞 ",但依然存在" 两次进程切换,一处阻塞,单进程对单连接 "的问题。 1.3 IO 多路复用
要解决" 两次进程切换,单进程对单连接 "的问题,服务器引入了 IO 多路复用技术,通过一个进程处理多个 TCP 连接,不仅降低了服务器处理网络请求的进程数,而且不用在每个连接的数据到达时就进行进程切换,进程可以一直运行并只处理有数据到达的连接,当然,如果要监听的所有连接都没有数据到达,进程还是会进入阻塞状态,直到某个连接有数据到达时被回调函数唤醒。
IO 多路复用模型如下图所示:
图1.4 IO多路复用模型
从上图可知,系统调用 select 函数阻塞执行并返回数据就绪的连接个数,然后调用 recvfrom() 函数将到达内核空间的数据拷贝到用户空间,尽管这两个阶段都是阻塞的,但是由于只会处理有数据到达的连接,整体效率会有极大的提升。
到这里,阻塞 IO 模型的" 两次进程切换,两处阻塞,单进程对单连接 "问题,通过非阻塞 IO 和多路复用技术,就只剩下了" 一处阻塞 "这个问题,即 Linux 服务器上用户进程一定要等待数据从内核空间拷贝到用户空间,如果这个步骤也变成非阻塞的,也就是进程调用 recvfrom 后立刻返回,内核自行去准备好数据并将数据从内核空间拷贝到用户空间、再 notify 通知用户进程去读取数据,那就是 IO 异步调用 ,不过,Linux 没有提供异步 IO 的实现,真正意义上的网络异步 IO 是 Windows 下的 IOCP(IO 完成端口)模型,这里就不探讨了。 2. 详解 select、poll、epoll 实现原理2.1 select 实现原理select 函数定义
Linux 提供的 select 函数的定义如下: int select( int nfds, // 监控的文件描述符集里最大文件描述符加1 fd_set *readfds, // 监控有读数据到达文件描述符集合,引用类型的参数 fd_set *writefds, // 监控写数据到达文件描述符集合,引用类型的参数 fd_set *exceptfds, // 监控异常发生达文件描述符集合,引用类型的参数 struct timeval *timeout); // 定时阻塞监控时间
readfds、writefds、errorfds 是三个文件描述符集合。select 会遍历每个集合的前 nfds 个描述符,分别找到可以读取、可以写入、发生错误的描述符,统称为"就绪"的描述符。然后用找到的子集替换这三个引用参数中的对应集合,返回所有就绪描述符的数量。
timeout 参数表示调用 select 时的阻塞时长。如果所有 fd 文件描述符都未就绪,就阻塞调用进程,直到某个描述符就绪,或者阻塞超过设置的 timeout 后,返回。如果 timeout 参数设为 NULL,会无限阻塞直到某个描述符就绪;如果 timeout 参数设为 0,会立即返回,不阻塞。
文件描述符 fd
文件描述符(file descriptor)是一个非负整数,从 0 开始。进程使用文件描述符来标识一个打开的文件。Linux 中一切皆文件。
系统为每一个进程维护了一个文件描述符表,表示该进程打开文件的记录表,而 文件描述符实际上就是这张表的索引 。每个进程默认都有 3 个文件描述符:0 (stdin)、1 (stdout)、2 (stderr)。
socket
socket 可以用于同一台主机的不同进程间的通信,也可以用于不同主机间的通信。操作系统将 socket 映射到进程的一个文件描述符上,进程就可以通过读写这个文件描述符来和远程主机通信。
socket 是进程间通信规则的高层抽象,而 fd 提供的是底层的具体实现。socket 与 fd 是一一对应的。通过 socket 通信,实际上就是通过文件描述符 fd 读写文件。
本文中,为了方便理解,可以认为 socket 内核对象 ≈ fd 文件描述符 ≈ TCP 连接。
fd_set 文件描述符集合
select 函数参数中的 fd_set 类型表示文件描述符的集合。
由于文件描述符 fd 是一个从 0 开始的无符号整数,所以可以使用 fd_set 的二进制每一位来表示一个文件描述符。某一位为 1,表示对应的文件描述符已就绪。比如比如设 fd_set 长度为 1 字节,则一个 fd_set 变量最大可以表示 8 个文件描述符。当 select 返回 fd_set = 00010011 时,表示文件描述符 1、2、5 已经就绪。
fd_set 的 API
fd_set 的使用涉及以下几个 API: #include int FD_ZERO(int fd, fd_set *fdset); // 将 fd_set 所有位置 0 int FD_CLR(int fd, fd_set *fdset); // 将 fd_set 某一位置 0 int FD_SET(int fd, fd_set *fd_set); // 将 fd_set 某一位置 1 int FD_ISSET(int fd, fd_set *fdset); // 检测 fd_set 某一位是否为 1
select 监听多个连接的用法
服务端使用 select 监控多个连接的 C 代码是: #define MAXCLINE 5 // 连接队列中的个数 int fd[MAXCLINE]; // 连接的文件描述符队列 int main(void) { sock_fd = socket(AF_INET,SOCK_STREAM,0) // 建立主机间通信的 socket 结构体 ..... bind(sock_fd, (struct sockaddr *)&server_addr, sizeof(server_addr); // 绑定socket到当前服务器 listen(sock_fd, 5); // 监听 5 个TCP连接 fd_set fdsr; // bitmap类型的文件描述符集合,01100 表示第1、2位有数据到达 int max; for(i = 0; i < 5; i++) { ..... fd[i] = accept(sock_fd, (struct sockaddr *)&client_addr, &sin_size); // 跟 5 个客户端依次建立 TCP 连接,并将连接放入 fd 文件描述符队列 } while(1) // 循环监听连接上的数据是否到达 { FD_ZERO(&fdsr); // 对 fd_set 即 bitmap 类型进行复位,即全部重置为0 for(i = 0; i < 5; i++) { FD_SET(fd[i], &fdsr); // 将要监听的TCP连接对应的文件描述符所在的bitmap的位置置1,比如 0110010110 表示需要监听第 1、2、5、7、8个文件描述符对应的 TCP 连接 } ret = select(max + 1, &fdsr, NULL, NULL, NULL); // 调用select系统函数进入内核检查哪个连接的数据到达 for(i=0;i<5;i++) { if(FD_ISSET(fd[i], &fdsr)) // fd_set中为1的位置表示的连接,意味着有数据到达,可以让用户进程读取 { ret = recv(fd[i], buf,sizeof(buf), 0); ...... } } }
从注释中,我们可以看到,在一个进程中使用 select 监控多个连接的主要步骤是:
1)调用 socket() 函数建立主机间通信的 socket 结构体,bind() 绑定 socket 到当前服务器,listen() 监听五个 TCP 连接;
2)调用 accept() 函数建立和 5 个客户端的 TCP 连接,并把连接的文件描述符放入 fd 文件描述符队列;
3) 定义一个 fd_set 类型的变量 fdsr;
4)调用 FD_ZERO,将 fdsr 所有位置 0;
5)调用 FD_SET,将 fdsr 要监听的几个文件描述符的位置 1,表示要监听这几个文件描述符指向的连接;
6)调用 select() 函数,并将 fdsr 参数传递给 select;
7)select 会将 fdsr 中就绪的位置 1,未就绪的位置 0,返回就绪的文件描述符的数量;
8)当 select 返回后,调用 FD_ISSET 检测哪些位为 1,表示对应文件描述符对应的连接的数据已经就绪,可以调用 recv 函数读取该连接的数据了。
select 的执行过程
在服务器进程 A 启动的时候,要监听的连接的 socket 文件描述符是 3、4、5,如果这三个连接均没有数据到达网卡,则进程 A 会让出 CPU,进入阻塞状态,同时会将进程 A 的进程描述符和被唤醒时用到的回调函数组成等待队列项加入到 socket 对象 3、4、5 的进程等待队列中,注意,这时 select 调用时,fdsr 文件描述符集会从用户空间拷贝到内核空间,如下图所示:
图2.1 select进程启动时,没有数据到达网卡
当网卡接收到数据,然后网卡通过中断信号通知 CPU 有数据到达,执行中断程序,中断程序主要做了两件事:
1)将网络数据写入到对应 socket 的数据接收队列里面;
2)唤醒队列中的等待进程 A,重新将进程 A 放入 CPU 的运行队列中;
假设连接 3、5 有数据到达网卡,注意,这时 select 调用结束时,fdsr 文件描述符集会从内核空间拷贝到用户空间:
图2.2 select进程有数据到达时,会通过回调函数唤醒进程进行数据的读取
select 的缺点
从上面两图描述的执行过程,可以发现 select 实现多路复用有以下缺点:
1.性能开销大
1)调用 select 时会陷入内核,这时需要将参数中的 fd_set 从用户空间拷贝到内核空间,select 执行完后,还需要将 fd_set 从内核空间拷贝回用户空间,高并发场景下这样的拷贝会消耗极大资源;(epoll 优化为不拷贝)
2)进程被唤醒后,不知道哪些连接已就绪即收到了数据,需要遍历传递进来的所有 fd_set 的每一位,不管它们是否就绪;(epoll 优化为异步事件通知)
3)select 只返回就绪文件的个数,具体哪个文件可读还需要遍历;(epoll 优化为只返回就绪的文件描述符,无需做无效的遍历)
2.同时能够监听的文件描述符数量太少。受限于 sizeof(fd_set) 的大小,在编译内核时就确定了且无法更改。一般是 32 位操作系统是 1024,64 位是 2048。(poll、epoll 优化为适应链表方式)
第 2 个缺点被 poll 解决,第 1 个性能差的缺点被 epoll 解决。 2.2 poll 实现原理
和 select 类似,只是描述 fd 集合的方式不同,poll 使用 pollfd 结构而非 select 的 fd_set 结构。 struct pollfd { int fd; // 要监听的文件描述符 short events; // 要监听的事件 short revents; // 文件描述符fd上实际发生的事件 };
管理多个描述符也是进行轮询,根据描述符的状态进行处理,但 poll 无最大文件描述符数量的限制 , 因其基于链表存储 。
select 和 poll 在内部机制方面并没有太大的差异。相比于 select 机制,poll 只是取消了最大监控文件描述符数限制,并没有从根本上解决 select 存在的问题。 2.3 epoll 实现原理
epoll 是对 select 和 poll 的改进,解决了"性能开销大"和"文件描述符数量少"这两个缺点,是性能最高的多路复用实现方式,能支持的并发量也是最大。
epoll 的特点是:
1)使用 红黑树 存储 一份 文件描述符集合,每个文件描述符只需在添加时传入一次,无需用户每次都重新传入;—— 解决了 select 中 fd_set 重复拷贝到内核的问题
2)通过异步 IO 事件找到就绪的文件描述符,而不是通过轮询的方式;
3)使用队列存储就绪的文件描述符,且会按需返回就绪的文件描述符,无须再次遍历;
epoll 的基本用法是: int main(void) { struct epoll_event events[5]; int epfd = epoll_create(10); // 创建一个 epoll 对象 ...... for(i = 0; i < 5; i++) { static struct epoll_event ev; ..... ev.data.fd = accept(sock_fd, (struct sockaddr *)&client_addr, &sin_size); ev.events = EPOLLIN; epoll_ctl(epfd, EPOLL_CTL_ADD, ev.data.fd, &ev); // 向 epoll 对象中添加要管理的连接 } while(1) { nfds = epoll_wait(epfd, events, 5, 10000); // 等待其管理的连接上的 IO 事件 for(i=0; i
新尺寸灵刃发布!雷蛇举行新品发布会,多款新品发布随着AMD英特尔和英伟达已经发布了旗下全新的移动端产品后,不少厂商选择在此时推出全新的笔记本电脑产品。就在今日,雷蛇举行新品发布会,发布了全新灵刃和多款其他系列新品。据介绍,此次灵
情绪文案温柔半两,从容一生冬日生活打卡季我告诉你我爱你,并不是一定要和你在一起。是希望今后的你,灰心的时候会记得有人喜欢过你。陪你走完了这段路,我将会变成你走过的路。从此,人山人海不再回来。最困难的时候,别
玫瑰花的文案1一颗心脏重250克,一朵玫瑰花重2g,你是愿意选择用一颗心脏换取100朵玫瑰花亦或者用100朵玫瑰花换取一个心脏。玫瑰工厂静待您的选择我在惊悚游戏里封神壶鱼辣椒2被诋毁过的玫瑰,
解读去有风的地方刘亦菲很美,新剧不够好看刷完前八集,基本可以断定,去有风的地方算得上合格的国产剧,奉为佳作大可不必。先说优点。剧名叫去有风的地方,名字很美,导演也懂得点题。有风是旅馆名字,也是美好生活的象征。第二集开头,
2022,好地方扬州这样走过2022年是极不平凡的一年面对严峻复杂的外部发展环境超出预期的多重压力挑战好地方扬州干得怎么样?先来看一组数据2022年前三季度,扬州全市地区生产总值增长4。8增幅居全省第1位11
大快人心!这么恶心的App,总算凉了你是否曾因为App无法卸载而彻夜难眠?你是否经历过,在浏览网页时,不小心点错了一个按钮,便被强制下载App无法取消?你是否被花样百出的App开屏广告和弹窗折磨过,稍微一晃手机,就触
人间烟火气,最暖凡人心转眼,2023来临,感谢读者朋友们年复一年的陪伴,新的一年,希望大家都能被呵护被眷顾被祝福。不抱怨黑夜,祝你平安常在临近年末这段时间,大家都在激烈地谈论着阳与不阳。我终于阳了,赶紧
黑龙江游记之一百三十五牡丹江篇江滨公园及江心岛瞻仰八女投江群雕后,我来到牡丹江岸。牡丹江是松花江第二大支流,全长726公里。是远古肃慎息慎稷慎渤海国的龙脉。在牡丹江的右岸1983年政府投资修建牡丹江江滨公园,位于牡丹江市区段,
24小时故事当铺会唱歌的骨头还有几个月,孩子就要出生了,我已经迫不及待想看看孩子的样子。我觉得呀。一定会是一个漂亮的女孩,眼睛大大的,睫毛长长的。我希望能是个男孩子。以后我们再生一个女孩,他就会成为勇敢的哥哥
去泰国旅游要多少钱(泰国旅游一般多少钱?)如果是参加跟团游,从国内除出发一般是30005000元的团费,泰国移民局的官方规定,入境泰国的外籍人士随身须携带现金不少于2万泰铢(约合4000元人民币),所以去一次泰国旅游如果不
卡游精英动漫锦卡联合出品的原创热血动画维将1月6日上线1月6日,由卡游精英动漫锦卡联合出品的原创热血动画维将即将在爱奇艺优酷腾讯视频芒果TV西瓜视频同步上线。此外,基于该动画原创设计的维将维灵场景三大内容类别的卡牌产品后续也将发售。这