संकेत पहचान

From Vigyanwiki
Revision as of 21:34, 19 December 2022 by alpha>Indicwiki (Created page with "{{short description|Topic in computer science and language technology}} {{tone|date=November 2016}} File:Gesture Recognition.jpg|thumb|एक साधारण इशार...")
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
File:Gesture Recognition.jpg
एक साधारण इशारा पहचान एल्गोरिदम द्वारा बच्चे के हाथ स्थान और आंदोलन का पता लगाया जा रहा है
File:Linux kernel and gaming input-output latency.svg
मिडिलवेयर आमतौर पर हावभाव पहचान को संसाधित करता है, फिर उपयोगकर्ता को परिणाम भेजता है।

गणितीय कलन विधि के माध्यम से मानव इशारों की व्याख्या करने के लक्ष्य के साथ इशारा पहचान कंप्यूटर विज्ञान और भाषा प्रौद्योगिकी में एक विषय है।[1] यह कंप्यूटर दृष्टी की एक उपशाखा है। इशारे किसी भी शारीरिक गति या अवस्था से उत्पन्न हो सकते हैं, लेकिन आमतौर पर चेहरे या हाथ से उत्पन्न होते हैं। क्षेत्र में फोकस में चेहरे और हाथ के हावभाव की पहचान से भावनाओं की पहचान शामिल है, क्योंकि वे सभी भाव हैं। उपयोगकर्ता शारीरिक रूप से स्पर्श किए बिना उपकरणों को नियंत्रित करने या उनसे बातचीत करने के लिए सरल इशारे कर सकते हैं। सांकेतिक भाषा की व्याख्या करने के लिए कैमरों और कंप्यूटर दृष्टि एल्गोरिदम का उपयोग करके कई दृष्टिकोण बनाए गए हैं, हालांकि, मुद्रा, चाल, समीपस्थता और मानव व्यवहार की पहचान और पहचान भी हावभाव पहचान तकनीकों का विषय है।[2]

इशारों की पहचान को कंप्यूटर द्वारा बॉडी लैंग्वेज की कंप्यूटर प्रोसेसिंग शुरू करने के तरीके के रूप में देखा जा सकता है, इस प्रकार पुराने टेक्स्ट यूजर इंटरफेस या जीयूआई (ग्राफिकल यूजर इंटरफेस) की तुलना में मशीनों और मनुष्यों के बीच एक बेहतर पुल का निर्माण होता है, जो अभी भी अधिकांश इनपुट को सीमित करता है। कीबोर्ड और माउस और बिना किसी यांत्रिक उपकरणों के स्वाभाविक रूप से बातचीत करें।

सिंहावलोकन

इशारे की पहचान विशेषताएं:

  • उच्च सटीकता
  • उच्च स्थिरता
  • किसी डिवाइस को अनलॉक करने का तेज़ समय

वर्तमान में हावभाव पहचान के प्रमुख अनुप्रयोग क्षेत्र[when?] परिदृश्य हैं:

इशारों की पहचान कंप्यूटर विजन और मूर्ति प्रोद्योगिकी की तकनीकों से की जा सकती है।[5] साहित्य में इशारों या अधिक सामान्य मानव मुद्रा (कंप्यूटर दृष्टि) और कंप्यूटर से जुड़े कैमरों द्वारा आंदोलनों को कैप्चर करने पर कंप्यूटर दृष्टि क्षेत्र में चल रहे कार्य शामिल हैं।[6][7][8][9] इशारे की पहचान और पेन कंप्यूटिंग: पेन कंप्यूटिंग एक सिस्टम के हार्डवेयर प्रभाव को कम करता है और पारंपरिक डिजिटल वस्तुओं जैसे कीबोर्ड और चूहों से परे नियंत्रण के लिए उपयोग करने योग्य भौतिक दुनिया की वस्तुओं की सीमा को भी बढ़ाता है। हावभाव पहचान शब्द का उपयोग गैर-पाठ-इनपुट लिखावट प्रतीकों के लिए अधिक संकीर्ण रूप से संदर्भित करने के लिए किया गया है, जैसे कि ग्राफिक्स टैब्लेट पर इंकिंग, मल्टीटच जेस्चर और माउस इशारा पहचान। यह पॉइंटिंग डिवाइस कर्सर के साथ प्रतीकों के आरेखण के माध्यम से कंप्यूटर इंटरेक्शन है।[10][11][12]


इशारा प्रकार

कंप्यूटर इंटरफेस में, दो प्रकार के इशारों को प्रतिष्ठित किया जाता है:[13] हम ऑनलाइन इशारों पर विचार करते हैं, जिसे स्केलिंग और रोटेटिंग जैसे प्रत्यक्ष हेरफेर के रूप में भी माना जा सकता है, और इसके विपरीत, ऑफ़लाइन इशारों को आमतौर पर बातचीत समाप्त होने के बाद संसाधित किया जाता है; इ। जी। संदर्भ मेनू को सक्रिय करने के लिए एक वृत्त खींचा जाता है।

  • ऑफलाइन जेस्चर: वे जेस्चर जो उपयोगकर्ता द्वारा ऑब्जेक्ट के साथ इंटरेक्शन के बाद प्रोसेस किए जाते हैं। एक उदाहरण मेनू को सक्रिय करने के लिए एक इशारा है।
  • ऑनलाइन इशारों: प्रत्यक्ष हेरफेर इशारों। उनका उपयोग किसी मूर्त वस्तु को मापने या घुमाने के लिए किया जाता है।

टचलेस इंटरफ़ेस

जेस्चर कंट्रोल के संबंध में टचलेस यूजर इंटरफेस एक उभरती हुई तकनीक है। टचलेस यूजर इंटरफेस (टीयूआई) कीबोर्ड, माउस या स्क्रीन को छुए बिना शरीर की गति और इशारों के माध्यम से कंप्यूटर को कमांड करने की प्रक्रिया है।[14] जेस्चर कंट्रोल के अलावा टचलेस इंटरफेस व्यापक रूप से लोकप्रिय हो रहे हैं क्योंकि वे उपकरणों को भौतिक रूप से स्पर्श किए बिना उनसे बातचीत करने की क्षमता प्रदान करते हैं।

टचलेस तकनीक के प्रकार

इस प्रकार के इंटरफेस का उपयोग करने वाले कई उपकरण हैं जैसे स्मार्टफोन, लैपटॉप, गेम, टीवी और संगीत उपकरण।

एक प्रकार का टचलेस इंटरफ़ेस कंपनी के विज़िटर मैनेजमेंट सिस्टम को सक्रिय करने के लिए स्मार्टफोन की ब्लूटूथ कनेक्टिविटी का उपयोग करता है। यह COVID-19 महामारी के समय जैसे इंटरफ़ेस को छूने से रोकता है।[15]


इनपुट डिवाइस

किसी व्यक्ति की गतिविधियों को ट्रैक करने और यह निर्धारित करने की क्षमता कि वे कौन से इशारों का प्रदर्शन कर रहे हैं, विभिन्न उपकरणों के माध्यम से प्राप्त किया जा सकता है। काइनेटिक उपयोगकर्ता इंटरफेस (केयूआई) एक उभरते हुए प्रकार के यूजर इंटरफेस हैं जो उपयोगकर्ताओं को वस्तुओं और निकायों की गति के माध्यम से कंप्यूटिंग उपकरणों के साथ बातचीत करने की अनुमति देते हैं।[citation needed] KUI के उदाहरणों में मूर्त उपयोगकर्ता इंटरफ़ेस और गति-जागरूक गेम जैसे Wii और Microsoft का Kinect, और अन्य इंटरैक्टिव प्रोजेक्ट शामिल हैं।[16] हालांकि छवि/वीडियो-आधारित इशारा पहचान में बड़ी मात्रा में शोध किया गया है, कार्यान्वयन के बीच उपयोग किए जाने वाले उपकरणों और वातावरण में कुछ भिन्नता है।

  • वायर्ड दस्ताने। ये कंप्यूटर को चुंबकीय या जड़त्वीय ट्रैकिंग उपकरणों का उपयोग करके हाथों की स्थिति और घुमाव के बारे में इनपुट प्रदान कर सकते हैं। इसके अलावा, कुछ दस्ताने उच्च स्तर की सटीकता (5-10 डिग्री) के साथ उंगली झुकने का पता लगा सकते हैं, या यहां तक ​​​​कि उपयोगकर्ता को हैप्टिक फीडबैक भी प्रदान कर सकते हैं, जो स्पर्श की भावना का अनुकरण है। पहला व्यावसायिक रूप से उपलब्ध हैंड-ट्रैकिंग ग्लव-टाइप डिवाइस डेटाग्लोव था,[17] एक दस्ताने-प्रकार का उपकरण जो हाथ की स्थिति, गति और उंगली के झुकने का पता लगा सकता है। यह हाथ के पीछे नीचे चलने वाले फाइबर ऑप्टिक केबल का उपयोग करता है। हल्की स्पंदन पैदा होती है और जब उंगलियां मुड़ी होती हैं, तो छोटी-छोटी दरारों से प्रकाश रिसता है, और नुकसान दर्ज किया जाता है, जिससे हाथ की मुद्रा का अनुमान लगाया जाता है।
  • गहराई से अवगत कैमरे। संरचित प्रकाश या टाइम-ऑफ-फ्लाइट कैमरा जैसे विशेष कैमरों का उपयोग करके, कैमरे के माध्यम से कम दूरी पर जो कुछ देखा जा रहा है, उसका गहराई से नक्शा तैयार किया जा सकता है, और जो देखा जा रहा है, उसके 3डी प्रतिनिधित्व का अनुमान लगाने के लिए इस डेटा का उपयोग करें। ये अपनी कम दूरी की क्षमताओं के कारण हाथ के इशारों का पता लगाने के लिए प्रभावी हो सकते हैं।[18]
  • स्टीरियो कैमरे। दो कैमरों का उपयोग करके जिनके संबंध एक दूसरे से ज्ञात हैं, कैमरों के आउटपुट से एक 3डी प्रतिनिधित्व का अनुमान लगाया जा सकता है। कैमरों के संबंधों को प्राप्त करने के लिए, एक पहली पट्टी या अवरक्त एमिटर जैसे पोजीशनिंग संदर्भ का उपयोग कर सकते हैं।[19] प्रत्यक्ष गति मापन (स्टीरियोस्कोपी#स्टीरियोस्कोपिक गति मापन (6डी-विजन)|6डी-विजन) के संयोजन में इशारों का सीधे पता लगाया जा सकता है।
  • इशारे पर आधारित नियंत्रक। ये नियंत्रक शरीर के विस्तार के रूप में कार्य करते हैं ताकि जब इशारों का प्रदर्शन किया जाए, तो उनकी कुछ गति को सॉफ्टवेयर द्वारा आसानी से पकड़ा जा सके। हाव-भाव आधारित गति पकड़ने का एक उदाहरण स्केलेटल हाथ ट्रैकिंग के माध्यम से है, जिसे आभासी वास्तविकता और संवर्धित वास्तविकता अनुप्रयोगों के लिए विकसित किया जा रहा है। इस तकनीक का एक उदाहरण ट्रैकिंग कंपनियों यूसेन्स और गेस्टिगॉन द्वारा दिखाया गया है, जो उपयोगकर्ताओं को नियंत्रकों के बिना अपने परिवेश के साथ बातचीत करने की अनुमति देती हैं।[20][21]
  • वाई-फाई संवेदन[22]

इसका एक अन्य उदाहरण माउस जेस्चर है, जहां माउस की गति को किसी व्यक्ति के हाथ से खींचे जाने वाले प्रतीक से सहसंबद्ध किया जाता है जो इशारों का प्रतिनिधित्व करने के लिए समय के साथ त्वरण में परिवर्तन का अध्ययन कर सकता है।[23][24][25] सॉफ्टवेयर मानव कंपन और अनजाने आंदोलन के लिए भी क्षतिपूर्ति करता है।[26][27][28] इन स्मार्ट लाइट एमिटिंग क्यूब के सेंसर का इस्तेमाल हाथों और उंगलियों के साथ-साथ आस-पास की अन्य वस्तुओं को महसूस करने के लिए किया जा सकता है और डेटा को प्रोसेस करने के लिए इस्तेमाल किया जा सकता है। अधिकांश अनुप्रयोग संगीत और ध्वनि संश्लेषण में हैं,[29] लेकिन अन्य क्षेत्रों में लागू किया जा सकता है।

  • सिंगल कैमरा। इशारों की पहचान के लिए एक मानक 2डी कैमरे का उपयोग किया जा सकता है जहां छवि-आधारित पहचान के अन्य रूपों के लिए संसाधन/पर्यावरण सुविधाजनक नहीं होगा। पहले यह सोचा जाता था कि एक सिंगल कैमरा स्टीरियो या डेप्थ-अवेयर कैमरों जितना प्रभावी नहीं हो सकता है, लेकिन कुछ कंपनियां इस थ्योरी को चुनौती दे रही हैं। एक मानक 2D कैमरे का उपयोग करके सॉफ़्टवेयर-आधारित जेस्चर पहचान तकनीक जो मजबूत हाथ के इशारों का पता लगा सकती है।

एल्गोरिदम

File:BigDiagram2.jpg
इशारों को ट्रैक करने और उनका विश्लेषण करने के विभिन्न तरीके मौजूद हैं, और ऊपर दिए गए आरेख में कुछ बुनियादी लेआउट दिए गए हैं। उदाहरण के लिए, वॉल्यूमेट्रिक मॉडल एक विस्तृत विश्लेषण के लिए आवश्यक आवश्यक जानकारी देते हैं, हालांकि, वे कम्प्यूटेशनल शक्ति के मामले में बहुत गहन साबित होते हैं और वास्तविक समय के विश्लेषण के लिए लागू करने के लिए और तकनीकी विकास की आवश्यकता होती है। दूसरी ओर, उपस्थिति-आधारित मॉडल को संसाधित करना आसान होता है, लेकिन आमतौर पर मानव-कंप्यूटर इंटरैक्शन के लिए आवश्यक सामान्यता की कमी होती है।

इनपुट डेटा के प्रकार के आधार पर, इशारे की व्याख्या करने का तरीका अलग-अलग तरीकों से किया जा सकता है। हालाँकि, अधिकांश तकनीकें 3D समन्वय प्रणाली में दर्शाए गए प्रमुख बिंदुओं पर निर्भर करती हैं। इनकी आपेक्षिक गति के आधार पर, इनपुट की गुणवत्ता और एल्गोरिद्म के दृष्टिकोण के आधार पर हावभाव का उच्च सटीकता के साथ पता लगाया जा सकता है।

शरीर के आंदोलनों की व्याख्या करने के लिए, उन्हें सामान्य गुणों के अनुसार वर्गीकृत करना पड़ता है और संदेश आंदोलनों को व्यक्त किया जा सकता है। उदाहरण के लिए, सांकेतिक भाषा में, प्रत्येक इशारा एक शब्द या वाक्यांश का प्रतिनिधित्व करता है।

कुछ साहित्य इशारों की पहचान में 2 अलग-अलग दृष्टिकोणों को अलग करते हैं: एक 3D मॉडल-आधारित और एक उपस्थिति-आधारित।[30] हथेली की स्थिति या संयुक्त कोण जैसे कई महत्वपूर्ण पैरामीटर प्राप्त करने के लिए सबसे प्रमुख विधि शरीर के अंगों के प्रमुख तत्वों की 3डी जानकारी का उपयोग करती है। दूसरी ओर, प्रकटन-आधारित प्रणालियाँ प्रत्यक्ष व्याख्या के लिए छवियों या वीडियो का उपयोग करती हैं।

एक वास्तविक हाथ (बाएं) को 3डी जाल संस्करण (दाएं) में कोने और रेखाओं के संग्रह के रूप में व्याख्या की जाती है, और इशारा इशारा करने के लिए सॉफ्टवेयर उनकी सापेक्ष स्थिति और बातचीत का उपयोग करता है।

3डी मॉडल-आधारित एल्गोरिदम

3डी मॉडल दृष्टिकोण वॉल्यूमेट्रिक या कंकाल मॉडल या यहां तक ​​कि दोनों के संयोजन का उपयोग कर सकता है। कंप्यूटर एनीमेशन उद्योग में और कंप्यूटर दृष्टि उद्देश्यों के लिए वॉल्यूमेट्रिक दृष्टिकोण का अत्यधिक उपयोग किया गया है। मॉडल आम तौर पर जटिल 3D सतहों से बनाए जाते हैं, जैसे NURBS या बहुभुज जाल।

इस पद्धति का दोष यह है कि यह बहुत कम्प्यूटेशनल रूप से गहन है, और रीयल-टाइम विश्लेषण के लिए सिस्टम अभी भी विकसित होना बाकी है। फिलहाल, एक अधिक दिलचस्प दृष्टिकोण व्यक्ति के सबसे महत्वपूर्ण शरीर के अंगों (उदाहरण के लिए बाहों और गर्दन के लिए सिलेंडर, सिर के लिए गोले) के लिए साधारण आदिम वस्तुओं को मैप करना होगा और विश्लेषण करना होगा कि ये एक दूसरे के साथ कैसे बातचीत करते हैं। इसके अलावा, कुछ अमूर्त संरचनाएं जैसे सुपरक्वाड्रिक्स | सुपर-क्वाड्रिक्स और सिलेंडर (ज्यामिति) शायद शरीर के अंगों का अनुमान लगाने के लिए और भी अधिक उपयुक्त हैं।

कंकाल संस्करण (दाएं) हाथ (बाएं) को प्रभावी ढंग से मॉडलिंग कर रहा है। इसमें वॉल्यूमेट्रिक संस्करण की तुलना में कम पैरामीटर हैं और इसकी गणना करना आसान है, जिससे यह रीयल-टाइम जेस्चर विश्लेषण सिस्टम के लिए उपयुक्त है।

कंकाल-आधारित एल्गोरिदम

3डी मॉडल के गहन प्रसंस्करण का उपयोग करने और बहुत सारे मापदंडों से निपटने के बजाय, खंड लंबाई के साथ संयुक्त कोण मापदंडों के सरलीकृत संस्करण का उपयोग कर सकते हैं। इसे शरीर के कंकाल प्रतिनिधित्व के रूप में जाना जाता है, जहां व्यक्ति के आभासी कंकाल की गणना की जाती है और शरीर के कुछ हिस्सों को कुछ खंडों में मैप किया जाता है। यहां विश्लेषण इन खंडों की स्थिति और अभिविन्यास और उनमें से प्रत्येक के बीच संबंध का उपयोग करके किया जाता है (उदाहरण के लिए जोड़ों और सापेक्ष स्थिति या अभिविन्यास के बीच का कोण)

कंकाल मॉडल का उपयोग करने के लाभ:

  • एल्गोरिद्म तेज़ होते हैं क्योंकि केवल प्रमुख पैरामीटरों का विश्लेषण किया जाता है।
  • टेम्प्लेट डेटाबेस के विरुद्ध पैटर्न मिलान संभव है
  • प्रमुख बिंदुओं का उपयोग करने से पता लगाने वाले कार्यक्रम को शरीर के महत्वपूर्ण हिस्सों पर ध्यान केंद्रित करने की अनुमति मिलती है
Error creating thumbnail:
ये बाइनरी सिल्हूट (बाएं) या समोच्च (दाएं) चित्र उपस्थिति-आधारित एल्गोरिदम के लिए विशिष्ट इनपुट का प्रतिनिधित्व करते हैं। उनकी तुलना अलग-अलग हाथ के टेम्प्लेट से की जाती है और यदि वे मेल खाते हैं, तो संवाददाता हावभाव का अनुमान लगाया जाता है।

रूप-आधारित मॉडल

ये मॉडल अब शरीर के स्थानिक प्रतिनिधित्व का उपयोग नहीं करते हैं, क्योंकि वे टेम्प्लेट डेटाबेस का उपयोग करके सीधे छवियों या वीडियो से पैरामीटर प्राप्त करते हैं। कुछ शरीर के मानव भागों, विशेष रूप से हाथों के विकृत 2डी टेम्पलेट्स पर आधारित हैं। विरूपणीय टेम्प्लेट किसी वस्तु की रूपरेखा पर बिंदुओं के समूह होते हैं, जिनका उपयोग वस्तु की रूपरेखा सन्निकटन के लिए प्रक्षेप नोड के रूप में किया जाता है। सबसे सरल प्रक्षेप कार्यों में से एक रैखिक है, जो बिंदु सेट, बिंदु परिवर्तनशीलता मापदंडों और बाहरी विरूपण से एक औसत आकार करता है। ये टेम्प्लेट-आधारित मॉडल ज्यादातर हैंड-ट्रैकिंग के लिए उपयोग किए जाते हैं, लेकिन इन्हें सरल जेस्चर वर्गीकरण के लिए भी इस्तेमाल किया जा सकता है।

उपस्थिति-आधारित मॉडल का उपयोग करके जेस्चर का पता लगाने का दूसरा तरीका जेस्चर टेम्प्लेट के रूप में इमेज सीक्वेंस का उपयोग करता है। इस पद्धति के पैरामीटर या तो स्वयं चित्र हैं, या इनसे प्राप्त कुछ विशेषताएं हैं। अधिकांश समय, केवल एक (मोनोस्कोपिक) या दो (स्टीरियोस्कोपिक) दृश्यों का उपयोग किया जाता है।

विद्युतपेशीलेखन-आधारित मॉडल

इलेक्ट्रोमोग्राफी (ईएमजी) शरीर में मांसपेशियों द्वारा उत्पादित विद्युत संकेतों के अध्ययन से संबंधित है। हाथ की मांसपेशियों से प्राप्त डेटा के वर्गीकरण के माध्यम से, क्रिया को वर्गीकृत करना संभव है और इस प्रकार इशारा बाहरी सॉफ़्टवेयर में इनपुट करता है।[1]उपभोक्ता ईएमजी डिवाइस गैर-इनवेसिव दृष्टिकोण जैसे हाथ या पैर बैंड और ब्लूटूथ के माध्यम से कनेक्ट करने की अनुमति देते हैं। इसके कारण, ईएमजी को दृश्य विधियों पर एक फायदा है क्योंकि उपयोगकर्ता को इनपुट देने के लिए कैमरे का सामना करने की आवश्यकता नहीं होती है, जिससे आंदोलन की अधिक स्वतंत्रता मिलती है।

चुनौतियां

जेस्चर रिकग्निशन सॉफ़्टवेयर की सटीकता और उपयोगिता से जुड़ी कई चुनौतियाँ हैं। छवि-आधारित जेस्चर पहचान के लिए, उपयोग किए गए उपकरण और छवि शोर की सीमाएँ हैं। छवियां या वीडियो लगातार प्रकाश में या एक ही स्थान पर नहीं हो सकते हैं। पृष्ठभूमि में आइटम या उपयोगकर्ताओं की विशिष्ट विशेषताएं पहचान को और अधिक कठिन बना सकती हैं।

छवि-आधारित इशारा पहचान के लिए विभिन्न प्रकार के कार्यान्वयन भी सामान्य उपयोग के लिए प्रौद्योगिकी की व्यवहार्यता के लिए समस्याएँ पैदा कर सकते हैं। उदाहरण के लिए, एक कैमरे के लिए कैलिब्रेट किया गया एल्गोरिदम दूसरे कैमरे के लिए काम नहीं कर सकता है। पृष्ठभूमि शोर की मात्रा भी ट्रैकिंग और पहचान की कठिनाइयों का कारण बनती है, खासकर जब रोड़ा (आंशिक और पूर्ण) होता है। इसके अलावा, कैमरे से दूरी, और कैमरे का रिज़ॉल्यूशन और गुणवत्ता भी पहचान सटीकता में भिन्नता का कारण बनती है।

दृश्य संवेदकों द्वारा मानव इशारों को पकड़ने के लिए, मजबूत कंप्यूटर दृष्टि विधियों की भी आवश्यकता होती है, उदाहरण के लिए हाथ की ट्रैकिंग और हाथ की मुद्रा पहचान के लिए[31][32][33][34][35][36][37][38][39] या सिर की गतिविधियों, चेहरे के भावों या टकटकी की दिशा को कैप्चर करने के लिए।

सामाजिक स्वीकार्यता

स्मार्टफोन और स्मार्टवॉच जैसे उपभोक्ता मोबाइल उपकरणों पर जेस्चर इंटरफेस को अपनाने की एक महत्वपूर्ण चुनौती जेस्चरल इनपुट की सामाजिक स्वीकार्यता के निहितार्थ से उपजी है। जबकि जेस्चर कई नए फॉर्म-फैक्टर कंप्यूटरों पर तेज और सटीक इनपुट की सुविधा प्रदान कर सकते हैं, उनका गोद लेना और उपयोगिता अक्सर तकनीकी कारकों के बजाय सामाजिक कारकों द्वारा सीमित होती है। इसके लिए, इशारा इनपुट विधियों के डिजाइनर विभिन्न सामाजिक संदर्भों में इशारों को करने के लिए तकनीकी विचारों और उपयोगकर्ता की इच्छा दोनों को संतुलित करने की कोशिश कर सकते हैं।[40] इसके अलावा, विभिन्न डिवाइस हार्डवेयर और सेंसिंग मैकेनिज्म विभिन्न प्रकार के पहचानने योग्य इशारों का समर्थन करते हैं।

मोबाइल डिवाइस

मोबाइल और छोटे फॉर्म-फैक्टर उपकरणों पर जेस्चर इंटरफेस अक्सर गति संवेदक जैसे जड़त्वीय मापन इकाइयों (आईएमयू) की उपस्थिति से समर्थित होते हैं। इन उपकरणों पर, जेस्चर सेंसिंग इन मोशन सेंसर द्वारा पहचाने जाने में सक्षम मूवमेंट-आधारित जेस्चर करने वाले उपयोगकर्ताओं पर निर्भर करता है। यह संभावित रूप से सूक्ष्म या निम्न-गति इशारों से संकेतों को कैप्चर करना चुनौतीपूर्ण बना सकता है, क्योंकि उन्हें प्राकृतिक आंदोलनों या शोर से अलग करना मुश्किल हो सकता है। इशारों की प्रयोज्यता के एक सर्वेक्षण और अध्ययन के माध्यम से, शोधकर्ताओं ने पाया कि इशारे जो सूक्ष्म गति को शामिल करते हैं, जो मौजूदा तकनीक के समान दिखाई देते हैं, हर क्रिया के समान दिखते हैं या महसूस करते हैं, और जो सुखद हैं, उपयोगकर्ताओं द्वारा स्वीकार किए जाने की अधिक संभावना है, जबकि इशारों जो दिखते हैं अजीब, प्रदर्शन करने में असहज हैं, संचार में हस्तक्षेप करते हैं, या असामान्य आंदोलन में शामिल होने के कारण उपयोगकर्ताओं को उनके उपयोग को अस्वीकार करने की अधिक संभावना होती है।[40]मोबाइल डिवाइस इशारों की सामाजिक स्वीकार्यता हावभाव और सामाजिक संदर्भ की स्वाभाविकता पर बहुत अधिक निर्भर करती है।

ऑन-बॉडी और पहनने योग्य कंप्यूटर

पहनने योग्य कंप्यूटर आमतौर पर पारंपरिक मोबाइल उपकरणों से भिन्न होते हैं, जिसमें उनका उपयोग और इंटरैक्शन स्थान उपयोगकर्ता के शरीर पर होता है। इन संदर्भों में, जेस्चर इंटरफेस को पारंपरिक इनपुट विधियों पर प्राथमिकता दी जा सकती है, क्योंकि उनका छोटा आकार टच स्क्रीन|टच-स्क्रीन या कंप्यूटर कीबोर्ड को कम आकर्षक बनाता है। फिर भी, जब इशारों पर बातचीत की बात आती है, तो वे मोबाइल उपकरणों के समान सामाजिक स्वीकार्यता बाधाओं में से कई को साझा करते हैं। हालांकि, पहनने योग्य कंप्यूटरों को दृष्टि से छिपाने या अन्य रोजमर्रा की वस्तुओं में एकीकृत करने की संभावना, जैसे कि कपड़े, इशारा इनपुट को आम कपड़ों की बातचीत की नकल करने की अनुमति देते हैं, जैसे कि शर्ट कॉलर को समायोजित करना या किसी के सामने की पैंट की जेब को रगड़ना।[41][42] पहनने योग्य कंप्यूटर इंटरैक्शन के लिए एक प्रमुख विचार डिवाइस प्लेसमेंट और इंटरैक्शन के लिए स्थान है। संयुक्त राज्य अमेरिका और दक्षिण कोरिया में आयोजित पहनने योग्य डिवाइस इंटरैक्शन के प्रति तीसरे पक्ष के दृष्टिकोण की खोज करने वाले एक अध्ययन में सामाजिक रूप से संवेदनशील माने जाने वाले शरीर के विभिन्न क्षेत्रों के कारण पुरुषों और महिलाओं के पहनने योग्य कंप्यूटिंग उपयोग की धारणा में अंतर पाया गया।[42]ऑन-बॉडी अनुमानित इंटरफेस की सामाजिक स्वीकार्यता की जांच करने वाले एक अन्य अध्ययन में समान परिणाम पाए गए, दोनों अध्ययनों में कमर, कमर और ऊपरी शरीर (महिलाओं के लिए) के आसपास लेबलिंग क्षेत्रों को कम से कम स्वीकार्य माना गया, जबकि प्रकोष्ठ और कलाई के आसपास के क्षेत्रों को सबसे अधिक स्वीकार्य माना गया।[43]


सार्वजनिक प्रतिष्ठान

इंटरएक्टिव कियोस्क, जैसे इंटरएक्टिव पब्लिक डिस्प्ले, सूचना तक पहुंच की अनुमति देता है और सार्वजनिक सेटिंग्स जैसे संग्रहालयों, दीर्घाओं और थिएटरों में इंटरैक्टिव मीडिया प्रदर्शित करता है।[44] जबकि टच स्क्रीन सार्वजनिक प्रदर्शन के लिए इनपुट का एक लगातार रूप है, इशारा इंटरफेस अतिरिक्त लाभ प्रदान करते हैं जैसे कि बेहतर स्वच्छता, दूर से बातचीत, बेहतर खोज, और प्रदर्शनकारी बातचीत का पक्ष ले सकते हैं।[41]सार्वजनिक प्रदर्शनों के साथ सांकेतिक बातचीत के लिए एक महत्वपूर्ण विचार एक दर्शक दर्शकों की उच्च संभावना या अपेक्षा है।[44]


गोरिल्ला बांह

गोरिल्ला आर्म वर्टिकल ओरिएंटेड टच-स्क्रीन या लाइट-पेन के उपयोग का एक साइड-इफेक्ट था। लंबे समय तक उपयोग की अवधि में, उपयोगकर्ताओं के हाथ थकान और/या बेचैनी महसूस करने लगे। इस प्रभाव ने 1980 के दशक में इसकी शुरुआती लोकप्रियता के बावजूद टच-स्क्रीन इनपुट की गिरावट में योगदान दिया।[45][46]

हाथ की थकान और गोरिल्ला बांह के साइड इफेक्ट को मापने के लिए, शोधकर्ताओं ने कंज्यूम्ड एंड्योरेंस नामक एक तकनीक विकसित की।[47][48]


यह भी देखें

संदर्भ

  1. 1.0 1.1 Kobylarz, Jhonatan; Bird, Jordan J.; Faria, Diego R.; Ribeiro, Eduardo Parente; Ekárt, Anikó (2020-03-07). "थम्स अप, थम्स डाउन: गैर-मौखिक मानव-रोबोट इंटरैक्शन वास्तविक समय ईएमजी वर्गीकरण के माध्यम से आगमनात्मक और पर्यवेक्षित ट्रांसडक्टिव ट्रांसफर लर्निंग के माध्यम से". Journal of Ambient Intelligence and Humanized Computing. Springer Science and Business Media LLC. 11 (12): 6021–6031. doi:10.1007/s12652-020-01852-z. ISSN 1868-5137.
  2. Matthias Rehm, Nikolaus Bee, Elisabeth André, Wave Like an Egyptian – Accelerometer Based Gesture Recognition for Culture Specific Interactions, British Computer Society, 2007
  3. "पेटेंट लैंडस्केप रिपोर्ट हैंड जेस्चर रिकग्निशन पैटसीर प्रो". PatSeer (in English). Retrieved 2017-11-02.
  4. Chai, Xiujuan, et al. "Sign language recognition and translation with kinect[dead link] Archived 2021-01-10 at the Wayback Machine." IEEE Conf. on AFGR. Vol. 655. 2013.
  5. Sultana A, Rajapuspha T (2012), "Vision Based Gesture Recognition for Alphabetical Hand Gestures Using the SVM Classifier"[permanent dead link], International Journal of Computer Science & Engineering Technology (IJCSET)., 2012
  6. Pavlovic, V., Sharma, R. & Huang, T. (1997), "Visual interpretation of hand gestures for human-computer interaction: A review", IEEE Transactions on Pattern Analysis and Machine Intelligence, July, 1997. Vol. 19(7), pp. 677 -695.
  7. R. Cipolla and A. Pentland, Computer Vision for Human-Machine Interaction, Cambridge University Press, 1998, ISBN 978-0-521-62253-0
  8. Ying Wu and Thomas S. Huang, "Vision-Based Gesture Recognition: A Review" Archived 2011-08-25 at the Wayback Machine, In: Gesture-Based Communication in Human-Computer Interaction, Volume 1739 of Springer Lecture Notes in Computer Science, pages 103-115, 1999, ISBN 978-3-540-66935-7, doi:10.1007/3-540-46616-9
  9. Alejandro Jaimes and Nicu Sebe, Multimodal human–computer interaction: A survey Archived 2011-06-06 at the Wayback Machine, Computer Vision and Image Understanding Volume 108, Issues 1-2, October–November 2007, Pages 116-134 Special Issue on Vision for Human-Computer Interaction, doi:10.1016/j.cviu.2006.10.019
  10. Dopertchouk, Oleg; "Recognition of Handwriting Gestures", gamedev.net, January 9, 2004
  11. Chen, Shijie; "Gesture Recognition Techniques in Handwriting Recognition Application", Frontiers in Handwriting Recognition p 142-147 November 2010
  12. Balaji, R; Deepu, V; Madhvanath, Sriganesh; Prabhakaran, Jayasree "Handwritten Gesture Recognition for Gesture Keyboard" Archived 2008-09-06 at the Wayback Machine, Hewlett-Packard Laboratories
  13. Dietrich Kammer, Mandy Keck, Georg Freitag, Markus Wacker, Taxonomy and Overview of Multi-touch Frameworks: Architecture, Scope, and Features Archived 2011-01-25 at the Wayback Machine
  14. "टचलेस यूजर इंटरफेस परिभाषा पीसी पत्रिका विश्वकोश से". pcmag.com (in English). Retrieved 2017-07-28.
  15. "टचलेस इंटरेक्शन प्रौद्योगिकियों की उभरती आवश्यकता". ResearchGate (in English). Retrieved 2021-06-30.
  16. S. Benford; H. Schnadelbach; B. Koleva; B. Gaver; A. Schmidt; A. Boucher; A. Steed; R. Anastasi; C. Greenhalgh; T. Rodden; H. Gellersen (2003). "समझदार, समझदार और वांछनीय: भौतिक इंटरफेस डिजाइन करने के लिए एक रूपरेखा" (PDF). CiteSeerX 10.1.1.190.2504. Archived from the original (PDF) on January 26, 2006. {{cite journal}}: Cite journal requires |journal= (help)
  17. Thomas G. Zimmerman, Jaron Lanier, Chuck Blanchard, Steve Bryson, and Young Harvill. http://portal.acm.org. "A HAND GESTURE INTERFACE DEVICE." http://portal.acm.org.
  18. Yang Liu, Yunde Jia, A Robust Hand Tracking and Gesture Recognition Method for Wearable Visual Interfaces and Its Applications, Proceedings of the Third International Conference on Image and Graphics (ICIG'04), 2004
  19. Kue-Bum Lee, Jung-Hyun Kim, Kwang-Seok Hong, An Implementation of Multi-Modal Game Interface Based on PDAs, Fifth International Conference on Software Engineering Research, Management and Applications, 2007
  20. "गेस्टिगॉन जेस्चर ट्रैकिंग - टेकक्रंच बाधित". TechCrunch. Retrieved 11 October 2016.
  21. Matney, Lucas (29 August 2016). "uSens नए ट्रैकिंग सेंसर दिखाता है जिसका उद्देश्य मोबाइल VR के लिए समृद्ध अनुभव प्रदान करना है". TechCrunch. Retrieved 29 August 2016.
  22. Khalili, Abdullah; Soliman, Abdel‐Hamid; Asaduzzaman, Md; Griffiths, Alison (March 2020). "वाई-फाई सेंसिंग: एप्लिकेशन और चुनौतियां". The Journal of Engineering (in English). 2020 (3): 87–97. doi:10.1049/joe.2019.0790. ISSN 2051-3305.
  23. Per Malmestig, Sofie Sundberg, SignWiiver – implementation of sign language technology Archived 2008-12-25 at the Wayback Machine
  24. Thomas Schlomer, Benjamin Poppinga, Niels Henze, Susanne Boll, Gesture Recognition with a Wii Controller Archived 2013-07-27 at the Wayback Machine, Proceedings of the 2nd international Conference on Tangible and Embedded interaction, 2008
  25. AiLive Inc., LiveMove White Paper Archived 2007-07-13 at the Wayback Machine, 2006
  26. Electronic Design September 8, 2011. William Wong. Natural User Interface Employs Sensor Integration.
  27. Cable & Satellite International September/October, 2011. Stephen Cousins. A view to a thrill. Archived 2012-01-19 at the Wayback Machine
  28. TechJournal South January 7, 2008. Hillcrest Labs rings up $25M D round.
  29. Percussa AudioCubes Blog October 4, 2012. Gestural Control in Sound Synthesis. Archived 2015-09-10 at the Wayback Machine
  30. Vladimir I. Pavlovic, Rajeev Sharma, Thomas S. Huang, Visual Interpretation of Hand Gestures for Human-Computer Interaction; A Review, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997
  31. Ivan Laptev and Tony Lindeberg "Tracking of Multi-state Hand Models Using Particle Filtering and a Hierarchy of Multi-scale Image Features", Proceedings Scale-Space and Morphology in Computer Vision, Volume 2106 of Springer Lecture Notes in Computer Science, pages 63-74, Vancouver, BC, 1999. ISBN 978-3-540-42317-1, doi:10.1007/3-540-47778-0
  32. von Hardenberg, Christian; Bérard, François (2001). "नंगे हाथ मानव-कंप्यूटर संपर्क". Proceedings of the 2001 workshop on Perceptive user interfaces. ACM International Conference Proceeding Series. Vol. 15 archive. Orlando, Florida. pp. 1–8. CiteSeerX 10.1.1.23.4541.
  33. Lars Bretzner, Ivan Laptev, Tony Lindeberg "Hand gesture recognition using multi-scale colour features, hierarchical models and particle filtering", Proceedings of the Fifth IEEE International Conference on Automatic Face and Gesture Recognition, Washington, DC, USA, 21–21 May 2002, pages 423-428. ISBN 0-7695-1602-5, doi:10.1109/AFGR.2002.1004190
  34. Domitilla Del Vecchio, Richard M. Murray Pietro Perona, "Decomposition of human motion into dynamics-based primitives with application to drawing tasks" Archived 2010-02-02 at the Wayback Machine, Automatica Volume 39, Issue 12, December 2003, Pages 2085–2098 , doi:10.1016/S0005-1098(03)00250-4.
  35. Thomas B. Moeslund and Lau Nørgaard, "A Brief Overview of Hand Gestures used in Wearable Human Computer Interfaces" Archived 2011-07-19 at the Wayback Machine, Technical report: CVMT 03-02, ISSN 1601-3646, Laboratory of Computer Vision and Media Technology, Aalborg University, Denmark.
  36. M. Kolsch and M. Turk "Fast 2D Hand Tracking with Flocks of Features and Multi-Cue Integration" Archived 2008-08-21 at the Wayback Machine, CVPRW '04. Proceedings Computer Vision and Pattern Recognition Workshop, May 27-June 2, 2004, doi:10.1109/CVPR.2004.71
  37. Xia Liu Fujimura, K., "Hand gesture recognition using depth data", Proceedings of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition, May 17–19, 2004 pages 529- 534, ISBN 0-7695-2122-3, doi:10.1109/AFGR.2004.1301587.
  38. Stenger B, Thayananthan A, Torr PH, Cipolla R: "Model-based hand tracking using a hierarchical Bayesian filter", IEEE Transactions on IEEE Transactions on Pattern Analysis and Machine Intelligence, 28(9):1372-84, Sep 2006.
  39. A Erol, G Bebis, M Nicolescu, RD Boyle, X Twombly, "Vision-based hand pose estimation: A review", Computer Vision and Image Understanding Volume 108, Issues 1-2, October–November 2007, Pages 52-73 Special Issue on Vision for Human-Computer Interaction, doi:10.1016/j.cviu.2006.10.012.
  40. 40.0 40.1 Rico, Julie; Brewster, Stephen (2010). "मोबाइल इंटरफेस के लिए प्रयोग करने योग्य इशारे: सामाजिक स्वीकार्यता का मूल्यांकन". Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. CHI '10. New York, NY, USA: ACM: 887–896. doi:10.1145/1753326.1753458. ISBN 9781605589299. S2CID 16118067.
  41. 41.0 41.1 Walter, Robert; Bailly, Gilles; Müller, Jörg (2013). "पोज बनाओ : Revealing mid-air gestures on public displays". पोज बनाओ. pp. 841–850. doi:10.1145/2470654.2470774. ISBN 9781450318990. S2CID 2041073. {{cite book}}: |journal= ignored (help)
  42. 42.0 42.1 Profita, Halley P.; Clawson, James; Gilliland, Scott; Zeagler, Clint; Starner, Thad; Budd, Jim; Do, Ellen Yi-Luen (2013). "डोंट माइंड मी टचिंग माई राइट: ए केस स्टडी ऑफ इंटरेक्टिंग विथ ऑन-बॉडी टेक्नोलॉजी इन पब्लिक". Proceedings of the 2013 International Symposium on Wearable Computers. ISWC '13. New York, NY, USA: ACM: 89–96. doi:10.1145/2493988.2494331. ISBN 9781450321273. S2CID 3236927.
  43. Harrison, Chris; Faste, Haakon (2014). "ऑन-बॉडी अनुमानित इंटरफेस के लिए स्थान और स्पर्श के निहितार्थ". Proceedings of the 2014 Conference on Designing Interactive Systems. DIS '14. New York, NY, USA: ACM: 543–552. doi:10.1145/2598510.2598587. ISBN 9781450329026. S2CID 1121501.
  44. 44.0 44.1 Reeves, Stuart; Benford, Steve; O'Malley, Claire; Fraser, Mike (2005). "दर्शक अनुभव डिजाइनिंग" (PDF). Proceedings of the SIGCHI Conference on Human Factors in Computing Systems - CHI '05. New York, New York, USA: ACM Press: 741–750. doi:10.1145/1054972.1055074. ISBN 978-1581139983. S2CID 5739231.
  45. Rupert Goodwins. "विंडोज 7? इसमें हाथ नहीं है". ZDNet.
  46. "गोरिल्ला बांह". catb.org.
  47. Hincapié-Ramos, J.D., Guo, X., Moghadasian, P. and Irani. P. 2014. "Consumed Endurance: A Metric to Quantify Arm Fatigue of Mid-Air Interactions". In Proceedings of the 32nd annual ACM conference on Human factors in computing systems (CHI '14). ACM, New York, NY, USA, 1063–1072. DOI=10.1145/2556288.2557130
  48. Hincapié-Ramos, J.D., Guo, X., and Irani, P. 2014. "The Consumed Endurance Workbench: A Tool to Assess Arm Fatigue During Mid-Air Interactions". In Proceedings of the 2014 companion publication on Designing interactive systems (DIS Companion '14). ACM, New York, NY, USA, 109-112. DOI=10.1145/2598784.2602795


इस पेज में लापता आंतरिक लिंक की सूची

  • हाव-भाव
  • चेहरा
  • भावना पहचान
  • proxemics
  • शरीर की भाषा का कंप्यूटर प्रसंस्करण
  • मूर्त यूजर इंटरफेस
  • तार वाला दस्ताना
  • गहराई का नक्शा
  • गति चित्रांकन
  • यूसेंस
  • जड़त्वीय माप की इकाई
  • मोबाइल डिवाइस
  • 3डी मुद्रा अनुमान

बाहरी कड़ियाँ

श्रेणी:कंप्यूटर दृष्टि के अनुप्रयोग श्रेणी:आभासी वास्तविकता श्रेणी:वस्तु पहचान और Categoryीकरण श्रेणी:यूजर इंटरफेस तकनीक श्रेणी: मानव-कंप्यूटर संपर्क का इतिहास