मैसेज पासिंग इंटरफ़ेस

संदेश पासिंग इंटरफ़ेस (एमपीआई) मानकीकृत और पोर्टेबल संदेश देना मानक है जिसे समानांतर कंप्यूटिंग कंप्यूटर आर्किटेक्चर पर कार्य करने के लिए डिज़ाइन किया गया है। एमपीआई मानक सिंटैक्स (प्रोग्रामिंग भाषाएं) और पुस्तकालय दिनचर्या के शब्दार्थ को परिभाषित करता है जो C (प्रोग्रामिंग भाषा), C ++ और फोरट्रान में सॉफ्टवेयर पोर्टेबिलिटी मैसेज-पासिंग प्रोग्राम लिखने वाले उपयोगकर्ताओं की विस्तृत श्रृंखला के लिए उपयोगी है। कई खुला स्त्रोत एमपीआई प्रोग्रामिंग भाषा कार्यान्वयन हैं, जो समानांतर सॉफ्टवेयर उद्योग के विकास को बढ़ावा देते हैं, और पोर्टेबल और स्केलेबल बड़े पैमाने पर समानांतर अनुप्रयोगों के विकास को प्रोत्साहित करते हैं।

इतिहास
सन्देश देने का प्रयास 1991 की गर्मियों में प्रारंभ हुआ जब शोधकर्ताओं के छोटे समूह ने ऑस्ट्रिया में पर्वत वापसी पर चर्चा प्रारंभ की। उस चर्चा से विलियम्सबर्ग, वर्जीनिया में 29-30 अप्रैल, 1992 को आयोजित वितरित स्मृति पर्यावरण में संदेश पारित करने के मानकों पर कार्यशाला आई। विलियम्सबर्ग में उपस्थित लोगों ने मानक संदेश देने वाले इंटरफ़ेस के लिए आवश्यक बुनियादी सुविधाओं पर चर्चा की और मानकीकरण प्रक्रिया को जारी रखने के लिए कार्यदल की स्थापना की। जैक डोंगरा, टोनी हे, और डेविड डब्ल्यू वॉकर ने नवंबर 1992 में प्रारंभिक मसौदा प्रस्ताव, एमपीआई1 प्रस्तुत किया। नवंबर 1992 में एमपीआई कार्यकारी समूह की बैठक मिनियापोलिस में हुई और मानकीकरण प्रक्रिया को अधिक औपचारिक स्तर पर रखने का निर्णय लिया गया। 1993 के पहले 9 महीनों में हर 6 सप्ताह में एमपीआई कार्यकारी समूह की बैठक हुई। एमपीआई मानक का मसौदा नवंबर 1993 में सुपरकंप्यूटिंग '93 सम्मेलन में प्रस्तुत किया गया था। सार्वजनिक टिप्पणियों की अवधि के बाद, जिसके परिणामस्वरूप एमपीआई में कुछ बदलाव हुए, एमपीआई का संस्करण 1.0 जून 1994 में जारी किया गया। इन बैठकों और ईमेल चर्चा ने मिलकर एमपीआई फोरम का गठन किया, जिसकी सदस्यता उच्च के सभी सदस्यों के लिए खुली है- प्रदर्शन कंप्यूटिंग | उच्च-प्रदर्शन-कंप्यूटिंग समुदाय।

एमपीआई प्रयास में 40 संगठनों के लगभग 80 लोग सम्मिलित थे, मुख्य रूप से संयुक्त राज्य अमेरिका और यूरोप में। विश्वविद्यालयों, सरकारी प्रयोगशालाओं और निजी उद्योग के शोधकर्ताओं के सहयोग से समवर्ती कंप्यूटरों के अधिकांश प्रमुख विक्रेता एमपीआई प्रयास में सम्मिलित थे।

एमपीआई समानांतर हार्डवेयर विक्रेताओं को दिनचर्या के स्पष्ट रूप से परिभाषित आधार सेट प्रदान करता है जिसे कुशलतापूर्वक कार्यान्वित किया जा सकता है। परिणामस्वरुप, हार्डवेयर विक्रेता मानक निम्न-स्तरीय प्रोग्रामिंग भाषा के इस संग्रह पर निर्माण कर सकते हैं। उच्च-स्तरीय प्रोग्रामिंग भाषा बनाने के लिए निम्न-स्तरीय रूटीन। उनकी समानांतर मशीन के साथ वितरित-मेमोरी संचार वातावरण के लिए उच्च-स्तरीय रूटीन। एमपीआई मूल उपयोगकर्ता के लिए उपयोग में आसान पोर्टेबल इंटरफ़ेस प्रदान करता है, फिर भी प्रोग्रामर को उन्नत मशीनों पर उपलब्ध उच्च-प्रदर्शन संदेश पासिंग ऑपरेशंस का उपयोग करने की अनुमति देने के लिए पर्याप्त शक्तिशाली है।

संदेश भेजने के लिए सार्वभौमिक मानक बनाने के प्रयास में, शोधकर्ताओं ने इसे प्रणाली के आधार पर नहीं बनाया किंतु इसमें कई प्रणालियों की सबसे उपयोगी विशेषताओं को सम्मिलित किया, जिनमें IBM, Intel, nCUBE, पीवीएम, Express, P4 और PARMACS द्वारा डिज़ाइन किए गए सम्मिलित हैं।. व्यापक पोर्टेबिलिटी के कारण संदेश-पासिंग प्रतिमान आकर्षक है और वितरित-मेमोरी और साझा-मेमोरी बहुप्रोसेसर, वर्कस्टेशन के नेटवर्क और इन तत्वों के संयोजन के लिए संचार में उपयोग किया जा सकता है। प्रतिमान कई सेटिंग्स में प्रयुक्त हो सकता है, नेटवर्क गति या मेमोरी आर्किटेक्चर से स्वतंत्र।

एमपीआई बैठकों के लिए समर्थन आंशिक रूप से DARPA और यूएस राष्ट्रीय विज्ञान संस्था (NSF) से अनुदान ASC-9310330, NSF विज्ञान और प्रौद्योगिकी केंद्र सहकारी समझौते संख्या CCR-8809615, और यूरोपीय आयोग से Esprit Project P6643 के माध्यम से आया। टेनेसी विश्वविद्यालय ने भी एमपीआई फोरम में वित्तीय योगदान दिया।

सिंहावलोकन
एमपीआई प्रोग्रामिंग के लिए संचार प्रोटोकॉल है समानांतर कंप्यूटर। पॉइंट-टू-पॉइंट और सामूहिक संचार दोनों समर्थित हैं। एमपीआई संदेश-पासिंग अनुप्रयोग प्रोग्रामर इंटरफ़ेस है, साथ में प्रोटोकॉल और सिमेंटिक विनिर्देशों के साथ किसी कार्यान्वयन में इसकी विशेषताओं को कैसे व्यवहार करना चाहिए। एमपीआई के लक्ष्य उच्च प्रदर्शन, मापनीयता और सुवाह्यता हैं। एमपीआई आज भी उच्च-प्रदर्शन कंप्यूटिंग में उपयोग किया जाने वाला प्रमुख मॉडल बना हुआ है। एमपीआई को किसी भी प्रमुख मानक निकाय द्वारा स्वीकृत नहीं किया गया है; फिर भी, यह उन प्रक्रियाओं के बीच संचार के लिए वास्तविक मानक बन गया है जो वितरित मेमोरी प्रणाली पर चल रहे समानांतर प्रोग्रामिंग को मॉडल करते हैं। वास्तविक वितरित मेमोरी सुपरकंप्यूटर जैसे कंप्यूटर क्लस्टर अधिकांशतः ऐसे प्रोग्राम चलाते हैं।

प्रमुख एमपीआई-1 मॉडल में कोई साझा मेमोरी अवधारणा नहीं है, और एमपीआई-2 में केवल सीमित वितरित साझा मेमोरी अवधारणा है। फिर भी, एमपीआई प्रोग्राम नियमित रूप से साझा मेमोरी कंप्यूटर पर चलाए जाते हैं, और एमपीआईसीएच और Open एमपीआई दोनों उपलब्ध होने पर संदेश हस्तांतरण के लिए साझा मेमोरी का उपयोग कर सकते हैं। एमपीआई मॉडल के आसपास डिजाइनिंग कार्यक्रम (स्पष्ट साझा मेमोरी (इंटरप्रोसेस संचार) मॉडल के विपरीत) गैर-वर्दी मेमोरी एक्सेस आर्किटेक्चर पर चलते समय लाभ होता है क्योंकि एमपीआई संदर्भ के स्थानीयता को प्रोत्साहित करता है। एमपीआई-3 में स्पष्ट साझा मेमोरी प्रोग्रामिंग प्रस्तुत की गई थी। चूँकि एमपीआई OSI संदर्भ मॉडल की 5 और उच्चतर परतों से संबंधित है, कार्यान्वयन में अधिकांश परतें सम्मिलित हो सकती हैं, जिसमें इंटरनेट सॉकेट और प्रसारण नियंत्रण प्रोटोकॉल (TCP) का उपयोग ट्रांसपोर्ट लेयर में किया जाता है।

अधिकांश एमपीआई कार्यान्वयन में C (प्रोग्रामिंग भाषा), C ++, फोरट्रान (अर्थात, एपीआई) से सीधे कॉल करने योग्य दिनचर्या का विशिष्ट सेट होता है और C शार्प (प्रोग्रामिंग भाषा) सहित ऐसी पुस्तकालयों के साथ इंटरफेस करने में सक्षम कोई भी भाषा सम्मिलित है। सी#, जावा (प्रोग्रामिंग भाषा) भाषा) या पायथन (प्रोग्रामिंग भाषा)। पुराने संदेश पासिंग पुस्तकालयों पर एमपीआई के लाभ पोर्टेबिलिटी हैं (क्योंकि एमपीआई लगभग हर वितरित मेमोरी आर्किटेक्चर के लिए कार्यान्वित किया गया है) और गति (क्योंकि प्रत्येक कार्यान्वयन हार्डवेयर के लिए सिद्धांत रूप से अनुकूलित है जिस पर यह चलता है)।

एमपीआई कॉल और भाषा बाइंडिंग के लिए भाषा स्वतंत्र विशिष्टता (एलआईएस) का उपयोग करता है। पहले एमपीआई मानक ने ANSI C और फोरट्रान-77 बाइंडिंग को LIS के साथ निर्दिष्ट किया। मसौदा सुपरकंप्यूटिंग 1994 (नवंबर 1994) में प्रस्तुत किया गया था और उसके तुरंत बाद अंतिम रूप दिया। लगभग 128 कार्य एमपीआई-1.3 मानक का गठन करते हैं जो 2008 में एमपीआई-1 श्रृंखला के अंतिम अंत के रूप में जारी किया गया था।

वर्तमान में, मानक के कई संस्करण हैं: संस्करण 1.3 (सामान्यतः संक्षिप्त एमपीआई-1), जो संदेश पारित करने पर जोर देता है और स्थिर रनटाइम वातावरण, एमपीआई-2.2 (एमपीआई-2) है, जिसमें समानांतर आई/ओ जैसी नई सुविधाएँ सम्मिलित हैं, गतिशील प्रक्रिया प्रबंधन और दूरस्थ स्मृति संचालन, और एमपीआई-3.1 (एमपीआई-3), जिसमें गैर-अवरुद्ध संस्करणों के साथ सामूहिक संचालन के विस्तार और एकतरफा संचालन के विस्तार सम्मिलित हैं।

एमपीआई-2 का LIS 500 से अधिक कार्यों को निर्दिष्ट करता है और ISO C (प्रोग्रामिंग भाषा), ISO C++, और फोरट्रान 90 के लिए भाषा बाइंडिंग प्रदान करता है। आसान मिश्रित-भाषा संदेश पासिंग प्रोग्रामिंग की अनुमति देने के लिए ऑब्जेक्ट इंटरऑपरेबिलिटी भी जोड़ी गई थी। एमपीआई-2 के मानकीकरण का दुष्परिणाम, जो 1996 में पूरा हुआ, एमपीआई-1 मानक को स्पष्ट कर रहा था, जिससे एमपीआई-1.2 का निर्माण हुआ।

एमपीआई-2 अधिकतर एमपीआई-1 का सुपरसेट है, चूंकि कुछ कार्यों को हटा दिया गया है। एमपीआई-1.3 प्रोग्राम अभी भी एमपीआई-2 मानक के अनुरूप एमपीआई कार्यान्वयन के अनुसार काम करते हैं।

एमपीआई-3 में नए फोरट्रान 2008 बाइंडिंग सम्मिलित हैं, जबकि यह पदावनत C++ बाइंडिंग के साथ-साथ कई पदावनत रूटीन और एमपीआई ऑब्जेक्ट्स को हटाता है।

एमपीआई की तुलना अधिकांशतः समानांतर वर्चुअल मशीन (पीवीएम) से की जाती है, जो 1989 में विकसित लोकप्रिय वितरित वातावरण और संदेश पासिंग प्रणाली है, और जो उन प्रणालियों में से एक थी जो मानक समानांतर संदेश पासिंग की आवश्यकता को प्रेरित करती थी। थ्रेडेड साझा मेमोरी प्रोग्रामिंग मॉडल (जैसे Pthreads और OpenMP) और मैसेज पासिंग प्रोग्रामिंग (एमपीआई/पीवीएम) को पूरक माना जा सकता है और उदाहरण के लिए, कई बड़े साझा-मेमोरी नोडों वाले सर्वर में एक साथ उपयोग किया गया है।

कार्यक्षमता
एमपीआई इंटरफ़ेस भाषा-विशिष्ट सिंटैक्स (बाइंडिंग) के साथ भाषा-स्वतंत्र तरीके से प्रक्रियाओं के सेट (जो नोड/सर्वर/कंप्यूटर उदाहरणों के लिए मैप किया गया है) के बीच आवश्यक आभासी टोपोलॉजी, सिंक्रनाइज़ेशन और संचार कार्यक्षमता प्रदान करने के लिए है। साथ ही कुछ भाषा-विशिष्ट सुविधाएँ। एमपीआई प्रोग्राम हमेशा प्रक्रियाओं के साथ काम करते हैं, लेकिन प्रोग्रामर सामान्यतः प्रक्रियाओं को प्रोसेसर के रूप में संदर्भित करते हैं। सामान्यतः, अधिकतम प्रदर्शन के लिए, प्रत्येक CPU (या बहु-कोर मशीन में बहु-कोर (कम्प्यूटिंग)) को केवल एक ही प्रक्रिया सौंपी जाएगी। यह असाइनमेंट रनटाइम पर उस एजेंट के माध्यम से होता है जो एमपीआई प्रोग्राम प्रारंभ करता है, जिसे सामान्यतः एमपीआईरन या एमपीआईनिष्पादन कहा जाता है।

एमपीआई पुस्तकालय फलनों में सम्मिलित हैं, लेकिन पॉइंट-टू-पॉइंट रेंडेवस-टाइप सेंड / रिसीव ऑपरेशंस तक सीमित नहीं हैं, कार्तीय वृक्ष या ग्राफ़ (डेटा स्ट्रक्चर) के बीच चयन करना - जैसे लॉजिकल प्रोसेस टोपोलॉजी, प्रोसेस जोड़े के बीच डेटा का आदान-प्रदान करना (भेजना / प्राप्त करना) संचालन), संगणनाओं के आंशिक परिणामों का संयोजन (संचालन इकट्ठा करना और कम करना), नोडों को सिंक्रनाइज़ करना (बाधा संचालन) साथ ही साथ नेटवर्क से संबंधित जानकारी प्राप्त करना जैसे कि कंप्यूटिंग सत्र में प्रक्रियाओं की संख्या, वर्तमान प्रोसेसर पहचान जो प्रक्रिया को मैप की जाती है, तार्किक टोपोलॉजी में पड़ोसी प्रक्रियाएं सुलभ हैं, और इसी तरह। पॉइंट-टू-पॉइंट ऑपरेशंस तादात्म्य (कंप्यूटर साइंस), एसिंक्रोनस आई / ओ, बफ़र्ड और रेडी फॉर्म में आते हैं, जो मिलन-स्थल-भेजने के सिंक्रोनाइज़ेशन पहलुओं के लिए अपेक्षाकृत मजबूत और कमजोर शब्दार्थ दोनों की अनुमति देते हैं। कई बकाया अधिकांश कार्यान्वयनों में एसिंक्रोनस मोड में संचालन संभव है।

एमपीआई-1 और एमपीआई-2 दोनों कार्यान्वयन को सक्षम करते हैं जो संचार और संगणना को ओवरलैप करते हैं, लेकिन अभ्यास और सिद्धांत भिन्न होते हैं। एमपीआई थ्रेड सुरक्षित इंटरफेस भी निर्दिष्ट करता है, जिसमें सामंजस्य (कंप्यूटर विज्ञान) और युग्मन (कंप्यूटर विज्ञान) रणनीतियां होती हैं जो इंटरफ़ेस के अंदर छिपे हुए राज्य से बचने में सहायता करती हैं। बहुथ्रेडेड पॉइंट-टू-पॉइंट एमपीआई कोड लिखना अपेक्षाकृत आसान है, और कुछ कार्यान्वयन ऐसे कोड का समर्थन करते हैं। बहुथ्रेडिंग (कंप्यूटर आर्किटेक्चर) सामूहिक संचार संचारक की कई प्रतियों के साथ सबसे अच्छा होता है, जैसा कि नीचे बताया गया है।

अवधारणाएं
एमपीआई कई सुविधाएँ प्रदान करता है। निम्नलिखित अवधारणाएं उन सभी क्षमताओं के लिए संदर्भ प्रदान करती हैं और प्रोग्रामर को यह तय करने में सहायता करती हैं कि उनके अनुप्रयोग प्रोग्राम में किस कार्यक्षमता का उपयोग किया जाए। एमपीआई की आठ बुनियादी अवधारणाओं में से चार एमपीआई-2 के लिए अद्वितीय हैं।

संचारक
संचारक ऑब्जेक्ट एमपीआई सत्र में प्रक्रियाओं के समूह को जोड़ता है। प्रत्येक संचारक प्रत्येक निहित प्रक्रिया को स्वतंत्र पहचानकर्ता देता है और आदेशित टोपोलॉजी (बहुविकल्पी) में अपनी निहित प्रक्रियाओं को व्यवस्थित करता है। एमपीआई में स्पष्ट समूह भी हैं, लेकिन ये मुख्य रूप से किसी अन्य संचारक के बनने से पहले प्रक्रियाओं के समूहों को व्यवस्थित और पुनर्गठित करने के लिए अच्छे हैं। एमपीआई एकल ग्रुप इंट्राकम्यूनिकेटर ऑपरेशंस और द्विपक्षीय संचारक संचार को समझता है। एमपीआई-1 में, एकल समूह संचालन सबसे अधिक प्रचलित हैं। द्विपक्षीय तुल्यकालन संचालन अधिकतर एमपीआई-2 में दिखाई देते हैं जहां वे सामूहिक संचार और गतिशील इन-प्रोसेस प्रबंधन सम्मिलित करते हैं।

कई एमपीआई कमांड का उपयोग करके संचारकों को विभाजित किया जा सकता है। इन आदेशों में सम्मिलित हैं, जहां प्रत्येक प्रक्रिया स्वयं को वह रंग होने की घोषणा करके कई रंगीन उप-संचारकों में से एक से जोड़ती है।

पॉइंट-टू-पॉइंट बेसिक्स
कई महत्वपूर्ण एमपीआई कार्यों में दो विशिष्ट प्रक्रियाओं के बीच संचार सम्मिलित है। प्रचलित उदाहरण है, जो निर्दिष्ट प्रक्रिया को दूसरी निर्दिष्ट प्रक्रिया को संदेश भेजने की अनुमति देता है। पॉइंट-टू-पॉइंट ऑपरेशंस, जैसा कि इन्हें कहा जाता है, विशेष रूप से पैटर्न या अनियमित संचार में उपयोगी होते हैं, उदाहरण के लिए, डेटा समानता | डेटा-समानांतर आर्किटेक्चर जिसमें प्रत्येक प्रोसेसर नियमित रूप से गणना चरणों के बीच विशिष्ट अन्य प्रोसेसर के साथ डेटा के क्षेत्रों को स्वैप करता है, या मास्टर/स्लेव (प्रौद्योगिकी) | मास्टर-स्लेव आर्किटेक्चर जिसमें मास्टर दास को नया कार्य डेटा भेजता है जब भी पूर्व कार्य पूरा हो जाता है।

एमपीआई-1 अवरोधन (कंप्यूटिंग) और नॉन-ब्लॉकिंग पॉइंट-टू-पॉइंट संचार मैकेनिज्म के साथ-साथ तथाकथित 'रेडी-सेंड' मैकेनिज्म दोनों के लिए मैकेनिज्म को निर्दिष्ट करता है, जिससे सेंड रिक्वेस्ट तभी की जा सकती है, जब मैचिंग रिसीव रिक्वेस्ट हो पहले ही बना दिया गया है।

सामूहिक मूल बातें
सामूहिक संचालन में प्रक्रिया समूह में सभी प्रक्रियाओं के बीच संचार सम्मिलित होता है (जिसका अर्थ संपूर्ण प्रक्रिया पूल या प्रोग्राम-परिभाषित सबसेट हो सकता है)। विशिष्ट कार्य है  कॉल (प्रसारण (कंप्यूटिंग) के लिए संक्षिप्त)। यह फलन नोड से डेटा लेता है और इसे प्रक्रिया समूह में सभी प्रक्रियाओं को भेजता है। रिवर्स संचालन है   कॉल, जो समूह में सभी प्रक्रियाओं से डेटा लेता है, संचालन (जैसे योग) करता है, और परिणामों को नोड पर संग्रहीत करता है।   बड़ी वितरित गणना की प्रारंभ या अंत में अधिकांशतः उपयोगी होता है, जहां प्रत्येक प्रोसेसर डेटा के एक हिस्से पर काम करता है और फिर इसे परिणाम में जोड़ता है।

अन्य संचालन अधिक परिष्कृत कार्य करते हैं, जैसे  जो डेटा के n आइटम को पुनर्व्यवस्थित करता है जैसे कि nth नोड को प्रत्येक से डेटा का nth आइटम मिलता है।

व्युत्पन्न डेटा प्रकार
कई एमपीआई कार्यों के लिए आवश्यक है कि आप प्रक्रियाओं के बीच भेजे जाने वाले डेटा के प्रकार को निर्दिष्ट करें। ऐसा इसलिए है क्योंकि एमपीआई का लक्ष्य विषम वातावरणों का समर्थन करना है जहां विभिन्न नोडों पर अलग-अलग प्रकारों का प्रतिनिधित्व किया जा सकता है (उदाहरण के लिए वे अलग-अलग सीपीयू आर्किटेक्चर चला रहे होंगे जिनमें अलग-अलग अंतराल हैं), जिस स्थिति में एमपीआई कार्यान्वयन डेटा रूपांतरण कर सकता है। चूंकि C भाषा एक प्रकार को पैरामीटर के रूप में पारित करने की अनुमति नहीं देती है, एमपीआई स्थिरांक को पूर्वनिर्धारित करता है,  ,   के साथ मेल खाना  ,  ,  , वगैरह।

यहाँ C में उदाहरण दिया गया है जो सरणियों को पास करता है सभी प्रक्रियाओं से एक तक। प्राप्त करने वाली प्रक्रिया को रूट प्रक्रिया कहा जाता है, और यह कोई भी नामित प्रक्रिया हो सकती है लेकिन सामान्यतः यह प्रक्रिया 0 होगी। सभी प्रक्रियाएं अपने सरणियों को रूट के साथ भेजने के लिए कहती हैं , जो प्रत्येक प्रक्रिया (रूट सहित) कॉल करने के बराबर है   और रूट ऑर्डर की इसी संख्या को बनाते हैं   इन सभी सरणियों को बड़े में इकट्ठा करने के लिए कहता है:

<वाक्यविन्यास प्रकाश लैंग = सी> int send_array [100];

इंट रूट = 0; /* या जो कुछ भी */

int num_procs, *recv_array;

MPI_Comm_size (कॉम, और num_procs);

recv_array = malloc (num_procs * sizeof (send_array));

MPI_Gather(send_array, sizeof(send_array) / sizeof(*send_array), MPI_INT,          recv_array, sizeof(send_array) / sizeof(*send_array), MPI_INT,           रूट, कॉम); 

चूँकि, आप इसके अतिरिक्त 100 के विपरीत ब्लॉक के रूप में डेटा भेजना चाह सकते हैं एस। ऐसा करने के लिए सन्निहित ब्लॉक व्युत्पन्न डेटा प्रकार परिभाषित करें:

<वाक्यविन्यास प्रकाश लैंग = सी>

एमपीआई_डेटा प्रकार नया प्रकार;

MPI_Type_contiguous(100, MPI_INT, &newtype);

MPI_Type_commit (&newtype);

MPI_Gather (सरणी, 1, नया प्रकार, प्राप्त_सरणी, 1, नया प्रकार, जड़, कॉम);



कक्षा या डेटा संरचना पास करने के लिए,  से एमपीआई व्युत्पन्न डेटा प्रकार बनाता है   डेटा प्रकार, इस प्रकार है:

<वाक्यविन्यास प्रकाश लैंग = सी>

int MPI_Type_create_struct (int गिनती,                          इंट *ब्लॉकलेन,                           MPI_Aint *डिस्प,                           एमपीआई_डेटा प्रकार * प्रकार,                           MPI_Datatype *newtype)  कहाँ: डेटा संरचना को ब्लॉक के रूप में पास करना एक समय में एक आइटम को पास करने की तुलना में अधिक तेज है, खासकर अगर संचालन को दोहराया जाना है। ऐसा इसलिए है क्योंकि निश्चित आकार के ब्लॉक को स्थानांतरण के समय क्रमांकन की आवश्यकता नहीं होती है।
 * कई ब्लॉक हैं, और सरणियों की लंबाई (तत्वों में) निर्दिष्ट करते हैं,  , और.
 * प्रत्येक ब्लॉक में तत्वों की संख्या सम्मिलित है,
 * प्रत्येक ब्लॉक के बाइट विस्थापन सम्मिलित हैं,
 * प्रत्येक ब्लॉक में तत्व के प्रकार होते हैं।
 * (एक आउटपुट) में इस फलन द्वारा बनाया गया नया व्युत्पन्न प्रकार होता है  ई> (विस्थापन) सरणी डेटा संरचना संरेखण के लिए आवश्यक है, क्योंकि संकलक वर्ग या डेटा संरचना में चर को पैड कर सकता है। विभिन्न क्षेत्रों के बीच की दूरी का पता लगाने का सबसे सुरक्षित विधि उनके पते को स्मृति में प्राप्त करना है। इसके साथ किया जाता है , जो सामान्यतः C के समान होता है   ऑपरेटर लेकिन स्मृति विभाजन से निपटने के समय यह सच नहीं हो सकता है।

निम्नलिखित डेटा संरचनाओं को देखते हुए:

<वाक्यविन्यास प्रकाश लैंग = सी> संरचना ए { इंट एफ; लघु पी; };

संरचना बी { संरचना ए ए; इंट पीपी, वीपी; };



यहाँ एमपीआई-व्युत्पन्न डेटा प्रकार बनाने के लिए C कोड दिया गया है:

<वाक्यविन्यास प्रकाश लैंग = सी>

स्टेटिक कास्ट इंट ब्लॉकन [] = {1, 1, 1, 1};

स्थिर स्थिरांक MPI_Aint विवाद [] = { ऑफसेट (संरचना बी, ए) + ऑफसेट (संरचना ए, एफ), ऑफसेट (संरचना बी, ए) + ऑफसेट (संरचना ए, पी), ऑफसेट (संरचना बी, पीपी), ऑफसेट (संरचना बी, वीपी) };

स्थिर MPI_Datatype प्रकार [] = {MPI_INT, MPI_SHORT, MPI_INT, MPI_INT};

एमपीआई_डेटा प्रकार नया प्रकार;

MPI_Type_create_struct(sizeof(type) / sizeof(*type), blocklen, disp, type, &newtype);

MPI_Type_commit (&newtype);



एकतरफा संचार
एमपीआई-2 तीन एकतरफा संचार संचालन को परिभाषित करता है,,  , और  , दूरस्थ स्मृति के लिए लेखन, दूरस्थ स्मृति से पठन, और क्रमशः कई कार्यों में एक ही स्मृति पर कमी संचालन। इस संचार को सिंक्रनाइज़ करने के लिए तीन अलग-अलग तरीकों को भी परिभाषित किया गया है (वैश्विक, जोड़ीदार और रिमोट लॉक) क्योंकि विनिर्देश गारंटी नहीं देता है कि ये संचालन सिंक्रनाइज़ेशन बिंदु तक हो चुके हैं।

इस प्रकार की कॉल अधिकांशतः कलनविधि के लिए उपयोगी हो सकती हैं जिसमें सिंक्रनाइज़ेशन असुविधाजनक होगा (जैसे वितरित मैट्रिक्स गुणन), या जहां यह वांछनीय है कि कार्य अपने लोड को संतुलित करने में सक्षम हों जबकि अन्य प्रोसेसर डेटा पर काम कर रहे हों।

गतिशील प्रक्रिया प्रबंधन
मुख्य पहलू नई एमपीआई प्रक्रियाओं के निर्माण में भाग लेने या एमपीआई प्रक्रियाओं के साथ संचार स्थापित करने के लिए एमपीआई प्रक्रिया की क्षमता है जो अलग से प्रारंभ की गई है। एमपीआई-2 विनिर्देश तीन मुख्य इंटरफेस का वर्णन करता है जिसके द्वारा एमपीआई प्रक्रियाएं गतिशील रूप से संचार स्थापित कर सकती हैं,,  /  और. ई> इंटरफ़ेस एमपीआई प्रक्रिया को नामित एमपीआई प्रक्रिया के कई उदाहरणों को उत्पन्न करने की अनुमति देता है। एमपीआई प्रक्रियाओं का नव निर्मित सेट नया रूप बनाता है  इंट्राकम्यूनिकेटर लेकिन माता-पिता के साथ संवाद कर सकता है और संचारक फलन लौटाता है।   वैकल्पिक इंटरफ़ेस है जो अलग-अलग उदाहरणों को अलग-अलग तर्कों के साथ अलग-अलग बाइनरी बनाने की अनुमति देता है।

एन/ओ
समांतर आई/ओ सुविधा को कभी-कभी एमपीआई-आईओ कहा जाता है, और एमपीआई को वितरित प्रणाली पर अमूर्त आई/ओ प्रबंधन के लिए डिज़ाइन किए गए कार्यों के सेट को संदर्भित करता है, और वर्तमान व्युत्पन्न डेटाटाइप कार्यक्षमता का उपयोग करके फ़ाइलों को आसानी से पैटर्न तरीके से एक्सेस करने की अनुमति देता है।

इस सुविधा पर किए गए छोटे शोध से संकेत मिलता है कि एमपीआई-आईओ का उपयोग करके उच्च प्रदर्शन लाभ प्राप्त करना तुच्छ नहीं हो सकता है। उदाहरण के लिए, विरल मैट्रिक्स गुणन | मैट्रिक्स-वेक्टर गुणन का कार्यान्वयन एमपीआई आई/ओ पुस्तकालय का उपयोग करके सामान्य प्रदर्शन लाभ का सामान्य व्यवहार दिखाता है, लेकिन ये परिणाम अनिर्णायक हैं। यह नहीं था सामूहिक आई/ओ के विचार तक एमपीआई-आईओ में प्रयुक्त किया गया कि एमपीआई-आईओ व्यापक रूप से अपनाना प्रारंभ कर दिया। सामूहिक आई/ओ प्रक्रियाओं को सामूहिक रूप से छोटे और गैर-सन्निहित आई/ओ संचालन को बड़े और सन्निहित लोगों में परिवर्तित करके अनुप्रयोगों के आई/ओ बैंडविड्थ को अधिक सीमा तक बढ़ा देता है, जिससे रिकॉर्ड लॉकिंग और डिस्क ओवरहेड कम हो जाता है। अपने विशाल प्रदर्शन लाभों के कारण, एमपीआई-आईओ कई अत्याधुनिक आई/ओ पुस्तकालयों, जैसे HDF5 और NetCDF के लिए अंतर्निहित आई/ओ परत भी बन गया। इसकी लोकप्रियता ने सामूहिक आई/ओ अनुकूलन पर अनुसंधान को भी गति प्रदान की, जैसे कि लेआउट-जागरूक आई/ओ और क्रॉस-फ़ाइल एकत्रीकरण।

आधिकारिक कार्यान्वयन

 * एमपीआई 1.x मानक का प्रारंभिक कार्यान्वयन आर्गन राष्ट्रीय प्रयोगशाला (ANL) और मिसिसिपी स्टेट यूनिवर्सिटी से एमपीआईसीएच था। आईबीएम भी प्रारंभिक कार्यान्वयनकर्ता था, और 90 के दशक की प्रारंभिक सुपरकंप्यूटर कंपनियों ने या तो एमपीआईसीएच का व्यावसायीकरण किया, या अपने स्वयं के कार्यान्वयन का निर्माण किया। ओहियो सुपरकंप्यूटर सेंटर से एलएएम/एमपीआई एक और प्रारंभिक खुला कार्यान्वयन था। ANL ने एक दशक से अधिक समय से एमपीआईसीएच का विकास जारी रखा है, और अब एमपीआईसीएच-3.2 प्रदान करता है, एमपीआई-3.1 मानक को प्रयुक्त करता है।
 * ओपन एमपीआई (ओपनएमपी के साथ भ्रमित नहीं होना चाहिए) एफटी-एमपीआई, एलए-एमपीआई, एलएएम/एमपीआई और पैक्स-एमपीआई को मिलाकर बनाया गया था, और यह कई शीर्ष 500 सुपर कंप्यूटर में पाया जाता है।

कई अन्य प्रयास एमपीआईसीएच, LAM, और अन्य कार्यों के डेरिवेटिव हैं, जिनमें Hewlett-Packard, Intel, Microsoft और NEC के व्यावसायिक कार्यान्वयन सम्मिलित हैं, लेकिन इन तक सीमित नहीं हैं।

जबकि विनिर्देश एक C और फोरट्रान इंटरफ़ेस को अनिवार्य करते हैं, एमपीआई को प्रयुक्त करने के लिए इस्तेमाल की जाने वाली भाषा रनटाइम पर समर्थन करने वाली भाषा या भाषाओं से मेल खाने के लिए बाध्य नहीं है। अधिकांश कार्यान्वयन सी, C ++ और असेंबली भाषा को जोड़ते हैं, और सी, C ++ और फोरट्रान प्रोग्रामर को लक्षित करते हैं। पर्ल, पायथन, आर, रूबी, जावा और नियंत्रण भाषा सहित कई अन्य भाषाओं के लिए बाइंडिंग उपलब्ध हैं (#भाषा बाइंडिंग देखें)।

एमपीआई कार्यान्वयन के अनुप्रयोग बाइनरी इंटरफ़ेस मोटे तौर पर एमपीआईसीएच और Open एमपीआई डेरिवेटिव के बीच विभाजित होते हैं, जिससे परिवार से पुस्तकालय एक ही परिवार से एक के ड्रॉप-इन प्रतिस्थापन के रूप में काम करे, लेकिन परिवारों में प्रत्यक्ष प्रतिस्थापन असंभव है। फ्रांसीसी फ्रेंच वैकल्पिक ऊर्जा और परमाणु ऊर्जा आयोग ऐसे स्विच की सुविधा के लिए आवरण इंटरफ़ेस रखता है।

हार्डवेयर
एमपीआई हार्डवेयर अनुसंधान एमपीआई को सीधे हार्डवेयर में प्रयुक्त करने पर ध्यान केंद्रित करता है, उदाहरण के लिए प्रोसेसर-इन-मेमोरी के माध्यम से, प्रत्येक नोड में रैंडम एक्सेस मेमोरी चिप्स के माइक्रोक्रिकिट्री में एमपीआई संचालन का निर्माण। निहितार्थ से, यह दृष्टिकोण भाषा, ऑपरेटिंग प्रणाली और सीपीयू से स्वतंत्र है, लेकिन इसे आसानी से अपडेट या हटाया नहीं जा सकता है।

संचालन के एक या एक से अधिक भागों में हार्डवेयर त्वरण जोड़ने के लिए एक अन्य दृष्टिकोण रहा है, जिसमें एमपीआई कतारों के हार्डवेयर प्रसंस्करण और सीपीयू या ओएस कर्नेल हस्तक्षेप के बिना मेमोरी और नेटवर्क इंटरफ़ेस नियंत्रक के बीच डेटा को सीधे स्थानांतरित करने के लिए रिमोट डायरेक्ट मेमोरी एक्सेस का उपयोग करना सम्मिलित है।

कंपाइलर रैपर
mpicc (और इसी तरह mpic++, mpif90, आदि) प्रोग्राम है जो एमपीआई का उपयोग करने वाले कोड को संकलित करते समय आवश्यक कमांड-लाइन फ़्लैग सेट करने के लिए वर्तमान कंपाइलर पर लपेटता है। सामान्यतः, यह कुछ झंडे जोड़ता है जो कोड को संकलित करने और एमपीआई पुस्तकालय के विरुद्ध लिंक करने में सक्षम बनाता है।

भाषा बंधन
भाषा बाध्यकारी पुस्तकालय हैं जो एमपीआईसी या ओपन एमपीआई जैसे वर्तमान एमपीआई कार्यान्वयन को लपेटकर एमपीआई समर्थन को अन्य भाषाओं में विस्तारित करते हैं।

सामान्य भाषा अवसंरचना
दो प्रबंधित सामान्य भाषा इन्फ्रास्ट्रक्चर .नेट कार्यान्वयन शुद्ध एमपीआई.नेट और एमपीआई.नेट हैं, इंडियाना विश्वविद्यालय में एक शोध प्रयास है जिसे बीएसडी-शैली लाइसेंस के अनुसार लाइसेंस दिया गया है। यह मोनो (सॉफ्टवेयर) के साथ संगत है, और अंतर्निहित निम्न-विलंबता एमपीआई नेटवर्क फैब्रिक्स का पूर्ण उपयोग कर सकता है।

जावा
चूंकि जावा (प्रोग्रामिंग भाषा) में आधिकारिक एमपीआई बाध्यकारी नहीं है, कई समूह सफलता और अनुकूलता के विभिन्न स्तरों के साथ दोनों को पाटने का प्रयास करते हैं। पहले प्रयासों में से ब्रायन कारपेंटर का एमपीआईजावा एक था, अनिवार्य रूप से स्थानीय C एमपीआई पुस्तकालय के लिए जावा मूल इंटरफ़ेस (जेएनआई) रैपर का सेट, जिसके परिणामस्वरूप सीमित पोर्टेबिलिटी के साथ हाइब्रिड कार्यान्वयन होता है, जिसे उपयोग की जा रही विशिष्ट एमपीआई पुस्तकालय के विरुद्ध भी संकलित किया जाना है।

चूँकि, इस मूल परियोजना ने एमपीआईजावा एपीआई (जावा के लिए वास्तविक एमपीआई एपीआई जो समतुल्य C++ बाइंडिंग का बारीकी से पालन करता है) को भी परिभाषित किया, जिसे बाद की अन्य जावा एमपीआई परियोजनाओं ने अपनाया है। एक कम उपयोग किया जाने वाला एपीआई एमपीजे एपीआई है, जिसे अधिक ऑब्जेक्ट ओरिएंटेड प्रोग्रामिंग और सन माइक्रोप्रणाली के कोडिंग सम्मेलनों के निकट होने के लिए डिज़ाइन किया गया था। एपीआई से परे, जावा एमपीआई पुस्तकालय या तो स्थानीय एमपीआई पुस्तकालय पर निर्भर हो सकते हैं, या जावा में संदेश पासिंग फलन को प्रयुक्त कर सकते हैं, जबकि कुछ पी2पी-एमपीआई भी सहकर्मी से सहकर्मी कार्यक्षमता प्रदान करते हैं और मिश्रित-प्लेटफ़ॉर्म संचालन की अनुमति देते हैं।

जावा/एमपीआई के कुछ सबसे चुनौतीपूर्ण हिस्से जावा विशेषताओं से उत्पन्न होते हैं जैसे स्पष्ट डेटा पॉइंटर की कमी और इसकी वस्तुओं के लिए फ्लैट मेमोरी मॉडल एड्रेस स्पेस, जो बहुआयामी सरणियों और जटिल वस्तुओं को अक्षम बनाता है। वैकल्पिक हल में सामान्यतः एक समय में एक पंक्ति को स्थानांतरित करना या स्पष्ट डी-सीरियलाइज़ेशन और कास्ट (कंप्यूटर साइंस) दोनों भेजने और प्राप्त करने के अंत में, एक-आयामी सरणी, और पॉइंटर्स के उपयोग से C या फोरट्रान-जैसे सरणियों का अनुकरण करना सम्मिलित है। एकल-तत्व सरणियों के उपयोग से आदिम प्रकारों के लिए, इस प्रकार प्रोग्रामिंग शैलियों को जावा सम्मेलनों से अधिक दूर कर दिया गया।

एक अन्य जावा संदेश पासिंग प्रणाली एमपीजे एक्सप्रेस है। हाल के संस्करणों को क्लस्टर और बहुकोर विन्यास में निष्पादित किया जा सकता है। क्लस्टर विन्यास में, यह क्लस्टर और क्लाउड पर समांतर जावा अनुप्रयोगों को निष्पादित कर सकता है। यहाँ जावा सॉकेट या विशेष आई/ओ इंटरकनेक्ट जैसे मायरिनेट एमपीजे एक्सप्रेस प्रक्रियाओं के बीच संदेश भेजने का समर्थन कर सकते हैं। यह अपने मूल उपकरण का उपयोग करके एमपीआई के मूल C कार्यान्वयन का भी उपयोग कर सकता है। बहुकोर विन्यास में, समानांतर जावा अनुप्रयोग को बहुकोर प्रोसेसर पर निष्पादित किया जाता है। इस मोड में, एमपीजे एक्सप्रेस प्रक्रियाओं को जावा थ्रेड द्वारा दर्शाया जाता है।

जूलिया
एमपीआई के लिए जूलिया (प्रोग्रामिंग भाषा) भाषा रैपर है।

मैटलैब
मैटलैब का उपयोग करके एमपीआई के कुछ अकादमिक कार्यान्वयन हैं। मैटलैब की अपनी समानांतर विस्तार पुस्तकालय है जिसे एमपीआई और समानांतर वर्चुअल मशीन का उपयोग करके प्रयुक्त किया गया है।

ओकैमल
ओकैमलएमपीआई मॉड्यूल एमपीआई कार्यों का बड़ा सबसेट प्रयुक्त करता है और वैज्ञानिक कंप्यूटिंग में सक्रिय उपयोग में है। 11,000-लाइन ओकैमल प्रोग्राम मॉड्यूल का उपयोग करके एमपीआई-इफीड था, कोड की अतिरिक्त 500 लाइनों और सामान्य पुनर्गठन के साथ और सुपरकंप्यूटर में 170 नोडों तक उत्कृष्ट परिणाम के साथ चला था।

पीएआरआई/जीपी
पीएआरआई/जीपी को एमपीआई को अपने बहु-थ्रेड इंजन के रूप में उपयोग करने के लिए बनाया जा सकता है, जिससे एमपीआई क्लस्टर पर समानांतर पीएआरआई और जीपी प्रोग्राम चलाने की अनुमति मिलती है।

पायथन
पायथन (प्रोग्रामिंग भाषा) में एमपीआई कार्यान्वयन में पीआईएमपीआई, एमपीआई4पीवाई, पीपर, एमआईएमपीआई, और साइंटिफिकपायथन में एमपीआई सबमॉड्यूल सम्मिलित हैं। पीआईएमपीआई उल्लेखनीय है क्योंकि यह एक प्रकार का पायथन दुभाषिया है, जबकि पाइपर, एमवायएमपीआई और वैज्ञानिक पायथन के मॉड्यूल आयात मॉड्यूल हैं। वे यह तय करने के लिए कोडर का काम करते हैं कि   को कॉल कहां करें।

2006 में बूस्ट C++ पुस्तकालयों ने बूस्ट-एमपीआई का अधिग्रहण किया जिसमें एमपीआई पायथन बाइंडिंग सम्मिलित थी। यह C++ और पायथन को मिलाने के लिए विशेष रूप से सहायक है। बूस्ट: एमपीआई के पायथन बाइंडिंग में अभी भी सेंटओएस में अनफिक्स पैकेजिंग बग हैं।

आर
एमपीआई की आर (प्रोग्रामिंग भाषा) बाइंडिंग में आरएमपीआई ​​सम्मिलित है और आर में बिग डेटा के साथ प्रोग्रामिंग, जहां आरएमपीआई मास्टर/स्लेव (प्रौद्योगिकी) पर ध्यान केंद्रित करता है। प्रबंधक-श्रमिक समानता जबकि पीबीडीएमपीआई एसपीएमडी समानता पर केंद्रित है। दोनों कार्यान्वयन खुले एमपीआई या एमपीआईसीएच2 का पूरी तरह से समर्थन करते हैं।

उदाहरण कार्यक्रम
यहाँ एमपीआई में "Hello, World!" प्रोग्राम C में लिखा गया है। इस उदाहरण में, हम प्रत्येक प्रोसेसर को "Hello" संदेश भेजते हैं, इसे तुच्छ रूप से हेरफेर करते हैं, परिणाम को मुख्य प्रक्रिया में लौटाते हैं, और संदेशों को प्रिंट करते हैं। /*

"Hello World" MPI Test Program */ int main(int argc, char **argv) {    char buf[256]; int my_rank, num_procs; /* Initialize the infrastructure necessary for communication */ MPI_Init(&argc, &argv); /* Identify this process */ MPI_Comm_rank(MPI_COMM_WORLD, &my_rank); /* Find out how many total processes are active */ MPI_Comm_size(MPI_COMM_WORLD, &num_procs); /* Until this point, all programs have been doing exactly the same. Here, we check the rank to distinguish the roles of the programs */ if (my_rank == 0) { int other_rank; printf("We have %i processes.\n", num_procs); /* Send messages to all other processes */ for (other_rank = 1; other_rank < num_procs; other_rank++) {            sprintf(buf, "Hello %i!", other_rank); MPI_Send(buf, 256, MPI_CHAR, other_rank,                     0, MPI_COMM_WORLD); }        /* Receive messages from all other processes */ for (other_rank = 1; other_rank < num_procs; other_rank++) {            MPI_Recv(buf, 256, MPI_CHAR, other_rank,                      0, MPI_COMM_WORLD, MPI_STATUS_IGNORE); printf("%s\n", buf); }    } else { /* Receive message from process #0 */ MPI_Recv(buf, 256, MPI_CHAR, 0,                 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE); assert(memcmp(buf, "Hello ", 6) == 0); /* Send message to process #0 */ sprintf(buf, "Process %i reporting for duty.", my_rank); MPI_Send(buf, 256, MPI_CHAR, 0,                 0, MPI_COMM_WORLD); }    /* Tear down the communication infrastructure */ MPI_Finalize; return 0; जब 4 प्रक्रियाओं के साथ चलाया जाता है, तो इसे निम्न आउटपुट का उत्पादन करना चाहिए:
 * 1) include 
 * 2) include 
 * 3) include 
 * 4) include 

$ mpicc example.c && mpiexec -n 4 ./a.out

We have 4 processes.

Process 1 reporting for duty.

Process 2 reporting for duty.

Process 3 reporting for duty.

यहाँ,  4 प्रक्रियाओं (कंप्यूटिंग) के साथ उदाहरण कार्यक्रम को निष्पादित करने के लिए उपयोग किया जाने वाला कमांड है, जिनमें से प्रत्येक रन टाइम पर प्रोग्राम का स्वतंत्र उदाहरण है और निर्दिष्ट रैंक (अर्थात संख्यात्मक आईडी) 0, 1, 2 और 3 है। एमपीआई मानक द्वारा   नाम अनुशंसित है, चूंकि कुछ कार्यान्वयन   नाम के अनुसार एक समान आदेश प्रदान करते हैं।   संचारक है जिसमें सभी प्रक्रियाएं सम्मिलित हैं।

इस प्रकार एकल कार्यक्रम, एकाधिक डेटा (एसपीएमडी) प्रोग्रामिंग मॉडल को सुगम बनाया गया है, लेकिन इसकी आवश्यकता नहीं है; कई एमपीआई कार्यान्वयन एक ही एमपीआई नौकरी में एकाधिक, अलग-अलग निष्पादन योग्य प्रारंभ करने की अनुमति देते हैं। प्रत्येक प्रक्रिया की अपनी रैंक होती है, विश्व में प्रक्रियाओं की कुल संख्या, और उनके बीच संचार करने की क्षमता बिंदु से बिंदु (भेजें / प्राप्त करें) संचार, या समूह के बीच सामूहिक संचार द्वारा होती है। एमपीआई के लिए  अपनी रैंक, और विश्व के आकार के साथ एसपीएमडी-शैली कार्यक्रम प्रदान करना पर्याप्त है, जिससे कलनविधि को यह तय करने की अनुमति मिल सके कि क्या करना है। अधिक यथार्थवादी स्थितियों में, आई/ओ को इस उदाहरण की तुलना में अधिक सावधानी से प्रबंधित किया जाता है। एमपीआई यह निर्धारित नहीं करता है कि किसी दिए गए प्रणाली पर मानक आई/ओ (स्टडिन, स्टडआउट, स्टेडर) को कैसे काम करना चाहिए। यह सामान्यतः रैंक-0 प्रक्रिया पर आशा के अनुसार काम करता है, और कुछ कार्यान्वयन अन्य प्रक्रियाओं से आउटपुट को कैप्चर और फ़नल भी करते हैं।

एमपीआई प्रोसेसर के अतिरिक्त प्रक्रिया की धारणा का उपयोग करता है। एमपीआई रनटाइम प्रणाली द्वारा प्रोग्राम कॉपी को प्रोसेसर से मैप किया जाता है। इस अर्थ में, समानांतर मशीन भौतिक प्रोसेसर या n प्रोसेसर के लिए मैप कर सकती है, जहां n उपलब्ध प्रोसेसर की संख्या है, या बीच में कुछ भी है। अधिकतम समांतर स्पीडअप के लिए, अधिक भौतिक प्रोसेसर का उपयोग किया जाता है। यह उदाहरण विश्व n के आकार के लिए अपने व्यवहार को समायोजित करता है, इसलिए यह प्रत्येक आकार भिन्नता के संकलन के बिना रनटाइम विन्यास को स्केल करने का भी प्रयास करता है, चूंकि रनटाइम के निर्णय उपलब्ध संगामिति की पूर्ण मात्रा के आधार पर भिन्न हो सकते हैं।

एमपीआई-2 गोद लेने
एमपीआई-1.2 को अपनाना सार्वभौमिक रहा है, विशेष रूप से क्लस्टर कंप्यूटिंग में, लेकिन एमपीआई-2.1 की स्वीकृति अधिक सीमित रही है। उद्देश्यों में सम्मिलित हैं:


 * 1) एमपीआई-2 कार्यान्वयन में आई/ओ और गतिशील प्रक्रिया प्रबंधन सम्मिलित है, और मिडलवेयर का आकार अधिक बड़ा है। अधिकांश साइटें जो बैच समयबद्धन प्रणाली का उपयोग करती हैं, गतिशील प्रक्रिया प्रबंधन का समर्थन नहीं कर सकती हैं। एमपीआई-2 का समानांतर आई/ओ अच्छी तरह से स्वीकृत है।
 * 2) एमपीआई-2 से पहले कई एमपीआई-1.2 प्रोग्राम विकसित किए गए थे। सुवाह्यता की चिंताओं ने प्रारंभ में अपनाने को धीमा कर दिया, चूंकि व्यापक समर्थन ने इसे कम कर दिया है।
 * 3) कई एमपीआई-1.2 अनुप्रयोग उस मानक (16-25 फलनों) के केवल एक सबसेट का उपयोग करते हैं, जिसमें एमपीआई-2 कार्यक्षमता की कोई वास्तविक आवश्यकता नहीं होती है।

भविष्य
एमपीआई के भविष्य के कुछ पहलू ठोस और दूसरों को इतना कम दिखाई देते हैं। एमपीआई फोरम ने कुछ एमपीआई-2 उद्देश्यों को स्पष्ट करने और संभावित एमपीआई-3 के विकास का पता लगाने के लिए 2007 में फिर से बैठक की, जिसके परिणामस्वरूप एमपीआई-3.0 (सितंबर 2012) और एमपीआई-3.1 (जून 2015) के संस्करण सामने आए थे।

अधिक आंतरिक संगामिति (बहु-कोर प्रोसेसर), उत्तम सूक्ष्म संगामिति नियंत्रण (थ्रेडिंग, एफ़िनिटी), और मेमोरी पदानुक्रम के अधिक स्तरों के साथ आर्किटेक्चर बदल रहे हैं। बहुथ्रेडिंग (कंप्यूटर आर्किटेक्चर) प्रोग्राम एकल-थ्रेडेड अनुप्रयोग की तुलना में इन विकासों का अधिक आसानी से लाभ उठा सकते हैं। यह पहले से ही सममित बहु प्रसंस्करण, अर्थात् ओपनएमपी के लिए अलग, पूरक मानकों को प्राप्त कर चुका है। एमपीआई-2 परिभाषित करता है कि मानक-अनुरूप कार्यान्वयन को बहुप्रचारित उद्देश्यों से कैसे निपटना चाहिए, लेकिन इसके लिए यह आवश्यक नहीं है कि कार्यान्वयन बहुप्रचारित या थ्रेड-सुरक्षित हो। एमपीआई-3 नोड के अंदर साझा-स्मृति समानता का उपयोग करने की क्षमता जोड़ता है। एमपीआई के कार्यान्वयन जैसे अनुकूली एमपीआई, हाइब्रिड एमपीआई, फाइन-ग्रेन्ड एमपीआई, एमपीसी और अन्य एमपीआई मानक के विस्तार की प्रस्तुति करते हैं जो एमपीआई में विभिन्न चुनौतियों का समाधान करते हैं।

एस्ट्रोफिजिसिस्ट जोनाथन डर्सी ने एमपीआई फोरम को अप्रचलित कहते हुए विचार लिखी, जिसमें चैपल (प्रोग्रामिंग भाषा) भाषा, एकीकृत समानांतर C, अपाचे हडूप, अपाचे स्पार्क और अपाचे फ्लैश जैसी नई विधियों की ओर संकेत किया गया। इसी समय, एक्सास्केल कंप्यूटिंग में लगभग सभी परियोजनाएं एमपीआई पर स्पष्ट रूप से निर्मित होती हैं; एमपीआई को 2020 की प्रारंभ तक सबसे बड़ी मशीनों के पैमाने पर दिखाया गया है और आने वाले लंबे समय तक प्रासंगिक रहने के लिए व्यापक रूप से माना जाता है।

यह भी देखें

 * अभिनेता मॉडल
 * थोक तुल्यकालिक समानांतर
 * कैलटेक कॉस्मिक क्यूब
 * आकर्षण ++
 * सह-सरणी फोरट्रान
 * वैश्विक सरणियाँ
 * माइक्रोसॉफ्ट मैसेजिंग पासिंग इंटरफेस
 * एमवापीच
 * ओपनएचएमपीपी
 * समानांतर वर्चुअल मशीन (पीवीएम)
 * विभाजित वैश्विक पता स्थान
 * एकीकृत समानांतर C
 * एक्स10 (प्रोग्रामिंग भाषा)

अग्रिम पठन

 * Aoyama, Yukiya; Nakano, Jun (1999) RS/6000 SP: Practical MPI Programming, ITSO
 * Foster, Ian (1995) Designing and Building Parallel Programs (Online) Addison-Wesley ISBN 0-201-57594-9, chapter 8 Message Passing Interface
 * Wijesuriya, Viraj Brian (2010-12-29) Daniweb: Sample Code for Matrix Multiplication using MPI Parallel Programming Approach
 * Using MPI series:
 * Pacheco, Peter S. (1997) Parallel Programming with MPI. 500 pp. Morgan Kaufmann ISBN 1-55860-339-5.
 * MPI—The Complete Reference series:
 * Snir, Marc; Otto, Steve W.; Huss-Lederman, Steven; Walker, David W.; Dongarra, Jack J. (1995) MPI: The Complete Reference. MIT Press Cambridge, MA, USA. ISBN 0-262-69215-5
 * Snir, Marc; Otto, Steve W.; Huss-Lederman, Steven; Walker, David W.; Dongarra, Jack J. (1998) MPI—The Complete Reference: Volume 1, The MPI Core. MIT Press, Cambridge, MA. ISBN 0-262-69215-5
 * Gropp, William; Huss-Lederman, Steven; Lumsdaine, Andrew; Lusk, Ewing; Nitzberg, Bill; Saphir, William; and Snir, Marc (1998) MPI—The Complete Reference: Volume 2, The MPI-2 Extensions. MIT Press, Cambridge, MA ISBN 978-0-262-57123-4
 * Firuziaan, Mohammad; Nommensen, O. (2002) Parallel Processing via MPI & OpenMP, Linux Enterprise, 10/2002
 * Vanneschi, Marco (1999) Parallel paradigms for scientific computing In Proceedings of the European School on Computational Chemistry (1999, Perugia, Italy), number 75 in Lecture Notes in Chemistry, pages 170–183. Springer, 2000
 * Bala, Bruck, Cypher, Elustondo, A Ho, CT Ho, Kipnis, Snir (1995) ″A portable and tunable collective communication library for scalable parallel computers" in IEEE Transactions on Parallel and Distributed Systems,″ vol. 6, no. 2, pp. 154–164, Feb 1995.
 * Snir, Marc; Otto, Steve W.; Huss-Lederman, Steven; Walker, David W.; Dongarra, Jack J. (1995) MPI: The Complete Reference. MIT Press Cambridge, MA, USA. ISBN 0-262-69215-5
 * Snir, Marc; Otto, Steve W.; Huss-Lederman, Steven; Walker, David W.; Dongarra, Jack J. (1998) MPI—The Complete Reference: Volume 1, The MPI Core. MIT Press, Cambridge, MA. ISBN 0-262-69215-5
 * Gropp, William; Huss-Lederman, Steven; Lumsdaine, Andrew; Lusk, Ewing; Nitzberg, Bill; Saphir, William; and Snir, Marc (1998) MPI—The Complete Reference: Volume 2, The MPI-2 Extensions. MIT Press, Cambridge, MA ISBN 978-0-262-57123-4
 * Firuziaan, Mohammad; Nommensen, O. (2002) Parallel Processing via MPI & OpenMP, Linux Enterprise, 10/2002
 * Vanneschi, Marco (1999) Parallel paradigms for scientific computing In Proceedings of the European School on Computational Chemistry (1999, Perugia, Italy), number 75 in Lecture Notes in Chemistry, pages 170–183. Springer, 2000
 * Bala, Bruck, Cypher, Elustondo, A Ho, CT Ho, Kipnis, Snir (1995) ″A portable and tunable collective communication library for scalable parallel computers" in IEEE Transactions on Parallel and Distributed Systems,″ vol. 6, no. 2, pp. 154–164, Feb 1995.

बाहरी संबंध

 * Official MPI-3.1 standard (unofficial HTML version)
 * Tutorial on MPI: The Message-Passing Interface
 * A User's Guide to MPI
 * Tutorial: Introduction to एमपीआई (self-paced, includes self-tests and exercises)
 * A User's Guide to MPI
 * Tutorial: Introduction to एमपीआई (self-paced, includes self-tests and exercises)