安裝OPENMPI
由于是實驗,也不進行多機的配置了,只在虛擬機里安裝吧。多個機器的配置可以參考此文
最簡單的方法,apt安裝
sudo apt-get install libcr-dev mpich2 mpich2-doc
測試
hello.c
/* C Example */#include <mpi.h>#include <stdio.h>int main (int argc, char* argv[]){ int rank, size; MPI_Init (&argc, &argv); /* starts MPI */ MPI_Comm_rank (MPI_COMM_WORLD, &rank); /* get current process id */ MPI_Comm_size (MPI_COMM_WORLD, &size); /* get number of processes */ printf( "Hello world from process %d of %d/n", rank, size ); MPI_Finalize(); return 0;}
編譯運行及顯示結果
mpicc mpi_hello.c -o hellompirun -np 2 ./helloHello world from process 0 of 2Hello world from process 1 of 2
正常出現結果表明沒有問題,
看下openmpi的版本
mpirun --version
mpirun (Open MPI) 1.6.5Report bugs to http://www.open-mpi.org/community/help/
MPI計算矩陣乘法
通過opemMPI加速矩陣乘法運算。采用主從模式,0號是master,其他是child(或者叫worker,as you wish)。
基本思路
兩個矩陣A,B進行乘法運算,則A的行 i 乘以B的列 j 得出的數是新矩陣(i,j)坐標的數值。A(MN) B(NK)最后矩陣是M*K的,實驗中M=N=K=1000,我也就沒有明確區分MNK,全部用MATRIX_SIZE定義的。
最簡單的思路就是每個worker分配(MATRIX_SIZE/(numprocess-1))個,然后如果有余下的,就分給余數對應的worker。比如MATRIX_SIZE=10,numprocess=4 則實際的worker有3個,每個人分3行,最后的一行給id是1的。可以很簡單的利用循環類分配。最后Master收集所有的結果,并按照順序組裝起來就行。
每個worker的工作就是接收來自master的一行,和B矩陣運算,得出新一行的結果,然后發送回master
代碼
多加了很多注釋來解釋,函數的說明下一節解釋下。
#include <mpi.h>#include <stdio.h>#define MATRIX_SIZE 10#define FROM_MASTER 1 //這里的類型可以區分消息的種類,以便區分worker發送來的結果#define FROM_CHILD 2 #define MASTER 0MPI_Status status;int myid,numprocess;//最終保存的結果int ans [MATRIX_SIZE*MATRIX_SIZE];int A[MATRIX_SIZE*MATRIX_SIZE],B[MATRIX_SIZE*MATRIX_SIZE];//讀取文件,注意讀取文件要放在master里,不然會讀兩遍,出現錯誤void readFile(){ FILE* fina,*finb; fina=fopen("a.txt","r"); int i; for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE ; ++i) { fscanf(fina,"%d ",&A[i]); } fclose(fina); finb=fopen("b.txt","r"); for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++) fscanf(finb,"%d ",&B[i]); fclose(finb); printf("read file ok/n");}int master(){ int workid,dest,i,j; printf("numprocess %d/n",numprocess ); //給每個worker發送B矩陣過去 for(i=0;i<numprocess-1;i++){ //send B matrix MPI_Send(&B,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,i+1,FROM_MASTER,MPI_COMM_WORLD); } //開始給每個worker分配任務,取模即可 for (i = 0; i < MATRIX_SIZE; i++) { //attention: num of workers is numprocess-1 workid=i%(numprocess-1)+1; //send single line in A MPI_Send(&A[i*MATRIX_SIZE],MATRIX_SIZE,MPI_INT,workid,FROM_MASTER,MPI_COMM_WORLD); } //等待從worker發送來的數據 int tempLine[MATRIX_SIZE]; for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE; i++) { ans[i]=0; } for (i = 0; i < MATRIX_SIZE; ++i) { int myprocess=i%(numprocess-1)+1; printf("Master is waiting %d/n",myprocess); //receive every line from every process MPI_Recv(&tempLine,MATRIX_SIZE,MPI_INT,myprocess,FROM_CHILD,MPI_COMM_WORLD,&status); //發送過來的都是計算好了的一行的數據,直接組裝到ans里就行 for(j=0;j<MATRIX_SIZE;j++){ ans[MATRIX_SIZE*i+j]=tempLine[j]; } printf("Master gets %d/n",i); } for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++){ printf("%d ",ans[i] ); if(i%MATRIX_SIZE==(MATRIX_SIZE-1))printf("/n"); } printf("The Master is out/n");}int worker(){ int mA[MATRIX_SIZE],mB[MATRIX_SIZE*MATRIX_SIZE],mC[MATRIX_SIZE]; int i,j,bi; MPI_Recv(&mB,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status); //接收來自master的A的行 for(i=0;i<MATRIX_SIZE/(numprocess-1);i++){ MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status); //矩陣乘法,A 的一行和B矩陣相乘 for(bi=0;bi<MATRIX_SIZE;bi++){ mC[bi]=0; for(j=0;j<MATRIX_SIZE;j++){ mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j]; } } MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD); } //如果處于余數范圍內,則需要多計算一行 if(MATRIX_SIZE%(numprocess-1)!=0){ if (myid<=(MATRIX_SIZE%(numprocess-1))) { MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status); for(bi=0;bi<MATRIX_SIZE;bi++){ mC[bi]=0; for(j=0;j<MATRIX_SIZE;j++){ mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j]; } } MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD); } } printf("The worker %d is out/n",myid);}int main(int argc, char **argv){ MPI_Init (&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD,&myid); MPI_Comm_size(MPI_COMM_WORLD,&numprocess); if(myid==MASTER){ readFile(); master(); } if(myid>MASTER){ worker(); } MPI_Finalize(); return 0;}
OPENMPI簡單函數介紹
針對實驗用到的幾個函數進行說明。
MPI為程序員提供一個并行環境庫,程序員通過調用MPI的庫程序來達到程序員所要達到的并行目的,可以只使用其中的6個最基本的函數就能編寫一個完整的MPI程序去求解很多問題。這6個基本函數,包括啟動和結束MPI環境,識別進程以及發送和接收消息:
理論上說,MPI所有的通信功能可以用它的六個基本的調用來實現:
初始化和結束
MPI初始化:通過MPI_Init函數進入MPI環境并完成所有的初始化工作。
int MPI_Init( int *argc, char * * * argv )
MPI結束:通過MPI_Finalize函數從MPI環境中退出。
int MPI_Finalize(void)
獲取進程的編號
調用MPI_Comm_rank函數獲得當前進程在指定通信域中的編號,將自身與其他程序區分。
int MPI_Comm_rank(MPI_Comm comm, int *rank)
獲取指定通信域的進程數
調用MPI_Comm_size函數獲取指定通信域的進程個數,確定自身完成任務比例。
int MPI_Comm_size(MPI_Comm comm, int *size)
MPI消息
一個消息好比一封信
消息的內容的內容即信的內容,在MPI中成為消息緩沖(Message Buffer)
消息的接收發送者即信的地址,在MPI中成為消息封裝(Message Envelop)
MPI中,消息緩沖由三元組<起始地址,數據個數,數據類型>標識
消息信封由三元組<源/目標進程,消息標簽,通信域>標識
消息發送
MPI_Send函數用于發送一個消息到目標進程。
int MPI_Send(void *buf, int count, MPI_Datatype dataytpe, int dest, int tag, MPI_Comm comm)
buf是要發送數據的指針,比如一個A數組,可以直接&A,count則是數據長度,datatype都要改成MPI的type。dest就是worker的id了。tag則可以通過不同的type來區分消息類型,比如是master發送的還是worker發送的。
消息接收
MPI_Recv函數用于從指定進程接收一個消息
int MPI_Recv(void *buf, int count, MPI_Datatype datatyepe,int source, int tag, MPI_Comm comm, MPI_Status *status)
編譯和執行
生成執行文件data
mpicc -o programname programname.c
一個MPI并行程序由若干個并發進程組成,這些進程可以相同也可以不同。MPI只支持靜態進程創建,即:每個進程在執行前必須在MPI環境中登記,且它們必須一起啟動。通常啟動可執行的MPI程序是通過命令行來實現的。啟動方法由具體實現確定。例如在MPICH實現中通過下列命令行可同時在獨立的機器上啟動相同的可執行程序:
mpirun 主站蜘蛛池模板: 操操操av | 国产精品一区亚洲二区日本三区 | 精品一二三区在线观看 | 国产高清一区 | 日韩成人高清 | 玖玖视频在线 | 黄页网址免费在线观看 | 久久97视频| 91精品国产一区二区三区蜜臀 | 精品亚洲一区二区三区在线观看 | 8x国产精品视频一区二区 | 中文字幕日韩欧美 | 一级黄色国产 | 日韩不卡| 日韩成人免费 | 热re99久久精品国产99热 | 91资源在线观看 | 久二影院 | 啊v在线视频 | 国产美女永久免费无遮挡 | 蜜桃色网 | 国产成人精品免高潮在线观看 | 策驰影院在线观看2024 | 亚洲一区在线视频 | 99热在线精品免费 | 欧美成人小视频 | 嫩草久久 | 日本一区二区三区免费观看 | 日本久久精品电影 | 91亚洲精品一区 | 国产欧美日韩在线观看 | 在线色网 | 综合久久国产九一剧情麻豆 | 欧美片网站免费 | 秋霞毛片 | 在线观看国产 | 一级片免费在线视频 | 亚洲精品久久久久久久久久久 | 国产成人精品网站 | 日韩福利在线观看 | 中文精品在线观看 |