MPI本地局域网运行多机配置,同时运行多个程序;

编程

在使用MPI框架中,需要多机进行通信进行并行计算;现在配置多个主机进行运行mpi程序,并进行通信;涉及到ssh无密码和nfs文件系统配置;

参考文档:

  • https://mpitutorial.com/tutorials/running-an-mpi-cluster-within-a-lan/ 配置如何多机运行
  • https://www.cnblogs.com/xuyaowen/p/git-ssh-keys.html 配置ssh 无密码登录
  • https://www.cnblogs.com/xuyaowen/p/NFS_install.html 配置nfs 环境

多机配置步骤:

  • 配置 mpi 运行环境;使用 mpich; yum install mpich-3.2; yum install mpich-3.2-devel 
  • 配置 mpi 运行环境;添加环境变量 $PATH 
  • 设置用户;建议使用 root 用户;
  • 布置 nfs 文件系统,并导出指定目录;/root/codespace/nfs 
  • 配置 hosts 文件,添加 client(加入的主机),master(当前的主机)主机地址;确保ssh client 可以顺利登陆;
  • 配置当前master主机别名到client /etc/hosts 文件中;
  • 把可执行文件拷贝到nfs导出目录:/root/codespace/nfs之中;
  • 在master节点nfs共享文件夹中运行程序:mpirun -n 10 -hosts client,master ./mpi_hello_world;
  • 测试成功;

运行状态:可见已经在两个节点上运行;

mpirun -n 10 -hosts client,master ./mpi_hello_world 

Hello world from processor jn-1, rank 8 out of 10 processors

Hello world from processor jn-1, rank 6 out of 10 processors

Hello world from processor jn-1, rank 4 out of 10 processors

Hello world from processor jn-1, rank 0 out of 10 processors

Hello world from processor jn-1, rank 2 out of 10 processors

Hello world from processor jn-4, rank 5 out of 10 processors

Hello world from processor jn-4, rank 7 out of 10 processors

Hello world from processor jn-4, rank 1 out of 10 processors

Hello world from processor jn-4, rank 3 out of 10 processors

Hello world from processor jn-4, rank 9 out of 10 processors

节点host样本:主机要测试主从节点网络互相连通,此配置基于以太网配置;

$ cat /etc/hosts (master)

127.0.0.1 localhost

#127.0.1.11944

#MPI CLUSTER SETUP

172.50.88.22 master

172.50.88.56 slave1

172.50.88.34 slave2

$ cat /etc/hosts (client)

127.0.0.1 localhost

#127.0.1.11947 (在超算中,也经常使用数据进行编号节点)

#MPI CLUSTER SETUP

172.50.88.22 master

172.50.88.54 slave3

保持更新,转载请注明出处;

原文链接:https://www.cnblogs.com/xuyaowen/archive/2020/06/02/mpi-lan-run.html

以上是 MPI本地局域网运行多机配置,同时运行多个程序; 的全部内容, 来源链接: utcz.com/z/517047.html

回到顶部