这个问题是从堆叠溢出的副本,正如我被告知,我的问题会更适合这里。
尽管搜索了很长时间,但我没有找到任何关于以下内容的好信息--尽管我认为,我不是第一个遇到这个问题的人:我们正在开发一个高性能的集群,使用MATLAB、MPI和Infiniband。在过去的几年里,这种环境一直运作得很好。但是为了获得更大的灵活性和更容易的维护,我们正在考虑用KVM虚拟化计算节点。
现在我遇到了一个大问题,就是让Infiniband“进入”我的虚拟机。我不仅要通过PCI-接口,而且要构建一个与以太网桥接器相对应的东西,我可以在我的主机上连接到我的机器(S)。我找到了一些讨论这个问题的消息来源--但没有提到如何安装/配置IB。有谁知道怎么做吗?
提前感谢!
发布于 2022-06-02 18:01:08
NVidia (Mellanox)是Infiniband的主要支持者,它对Infiniband虚拟化有很好的支持。有了NVidia ConnectX卡和SR支持,它可以在Redhat、Centos、Debian和其他x86_64和ARM版本下支持ConnectX。使用SR,您可以安装OFED和VM,而SR将为每个VM提供一个看起来像硬件网卡的接口。KVM有许多网络/桥接选项( NAT )、路由选项、隔离选项,这些选项允许您构建任意数量的虚拟网络(有或没有物理或虚拟功能适配器)。
确保您的Infiniband卡支持单根IO虚拟化,SR。SR似乎为每个VM提供了一个独特的物理网卡、GPU或其他IO设备.SR-IOV并不支持所有的Infiniband卡。
SR-IOV背景:
https://en.wikipedia.org/wiki/Single-root_输入/输出_虚拟化
我假设您使用的是英特尔CPU、NVidia ConnectX卡、NVidia OFED和Redhat 7.9或更高版本或CentOS7.9或更高版本。这在其他版本的Linux上是可能的。我熟悉Centos和Redhat。
https://access.redhat.com/documentation/en-us/red_帽子_虚拟化/4.1/html/安装_指南/应用程序-配置_一个_管理程序_主机_为_pci_过路
https://network.nvidia.com/support/firmware/update-instructions/
https://shawnliu.me/post/configuring-sr-iov-for-mellanox-adapters/
https://serverfault.com/questions/638244
复制相似问题