This post is also available in: English العربية (Arabic)
मशीन लर्निंग आर्टिफिशियल इंटेलिजेंस (एआई) का एक उप-क्षेत्र है जो सिस्टम के डिजाइन पर ध्यान केंद्रित करता है जो डेटा के आधार पर निर्णय और पूर्वानुमान सीख सकता है। मशीन लर्निंग कंप्यूटर को एक निश्चित कार्य को करने के लिए स्पष्ट रूप से प्रोग्राम किए जाने के बजाय डेटा-संचालित निर्णय लेने और कार्य करने में सक्षम बनाता है। मशीन लर्निंग हाल के वर्षों में कई तकनीकी प्रगति के मामले में सबसे आगे रही है जैसे कि सेल्फ ड्राइविंग कार, कंप्यूटर विज़न, और स्पीच रिकग्निशन सिस्टम।
बुनियादी मशीन लर्निंग शब्दावली
यहां 11 मशीन लर्निंग से सम्बंधित शब्द हैं जो बच्चों और मशीन लर्निंग वाले प्रत्येक शुरुआती को पता होने चाहिए:
1. क्लस्टरिंग
क्लस्टरिंग मूल रूप से एक प्रकार का अप्रशिक्षित शिक्षण (अनसुपरविज़ड लर्निंग) पद्धति है। अनसुपरविज़ड लर्निंग पद्धति एक ऐसी विधि है जिसमें हम बिना लेबल वाले प्रतिक्रियाओं के इनपुट डेटा से युक्त डेटासेट से संदर्भ प्राप्त करते हैं। आम तौर पर, इसका उपयोग अर्थ संरचना, व्याख्यात्मक अंतर्निहित प्रक्रियाओं, जेनेरिक विशेषताओं और उदाहरणों के एक समूह में निहित समूहों को खोजने के लिए एक प्रक्रिया के रूप में किया जाता है।
क्लस्टरिंग जनसंख्या या डेटा बिंदुओं को कई समूहों में विभाजित करने का कार्य है जैसे कि एक ही समूह में डेटा बिंदु एक ही समूह के अन्य डेटा बिंदुओं के समान होते हैं और अन्य समूहों में डेटा बिंदुओं से भिन्न होते हैं। यह मूल रूप से उनके बीच समानता और असमानता के आधार पर वस्तुओं का एक संग्रह है।
शॉपिंग मॉल की वास्तविक दुनिया के उदाहरण के साथ क्लस्टरिंग तकनीक को समझें: जब आप किसी भी शॉपिंग मॉल में जाते हैं, तो आप देखते हैं कि समान उपयोग वाली वस्तुओं को एक साथ रखा गया है। जैसे कि टी-शर्ट को एक सेक्शन में वर्गीकृत किया गया है, और अन्य वर्गों में ट्राउजर हैं। इसी तरह, सब्जी वर्गों में, सेब, केले, आम, आदि को अलग-अलग वर्गों में बांटा जाता है, ताकि आप आसानी से वस्तुओं का पता लगा सकें। क्लस्टरिंग तकनीक भी उसी तरह काम करती है।

क्लस्टरिंग तकनीक का उपयोग विभिन्न कार्यों में व्यापक रूप से किया जाता है। उदाहरण के लिए, इसका उपयोग अमेज़न द्वारा अपने सिफारिश प्रणाली में उत्पादों की पिछली खोज के अनुसार सिफारिशें प्रदान करने के लिए किया जाता है। नेटफ्लिक्स भी दर्शकों द्वारा देखी गयी फिल्मों के इतिहास के अनुसार अपने उपयोगकर्ताओं को फिल्मों और वेब श्रृंखला की सिफारिश करने के लिए इस तकनीक का उपयोग करता है।
इस तकनीक के सबसे आम उपयोग हैं:
- बाजार विभाजन (मार्किट सेगमेंटेशन)
- सांख्यिकीय डेटा विश्लेषण
- सामाजिक नेटवर्क विश्लेषण (सोशल नेटवर्क एनालिसिस)
- छवि विभाजन
- असंगति का पता लगाना
2. रेगरेशंस (परावर्तन)
डेटा वैज्ञानिक बड़े डेटा में पैटर्न की खोज करने के लिए कई अलग-अलग प्रकार के मशीन लर्निंग एल्गोरिदम का उपयोग करते हैं जो कार्रवाई योग्य अंतर्दृष्टि की ओर ले जाते हैं। उच्च स्तर पर, इन विभिन्न एल्गोरिदम को पूर्वानुमान बनाने के लिए डेटा के बारे में “सीखने” के तरीके के आधार पर दो समूहों में वर्गीकृत किया जा सकता है: पर्यवेक्षित और अनुपयोगी शिक्षण। रिग्रेसन विश्लेषण पर्यवेक्षित मशीन लर्निंग एल्गोरिदम में उपयोग की जाने वाली तकनीकों में से एक है।
रिग्रेसन विश्लेषण में मशीन लर्निंग के तरीकों का एक सेट होता है जो हमें एक या कई पूर्वानुमान चर (वेरिएबल) के मूल्य के आधार पर एक निरंतर परिणाम चर (y) का पूर्वानुमान करने में मदद करता है। (x). रिग्रेसन मॉडल का लक्ष्य एक गणितीय समीकरण बनाना है जो x चर को y के फंक्शन में परिभाषित करता है। इसके बाद, इस समीकरण का उपयोग भविष्यवक्ता चर (s) x के नए मूल्यों के आधार पर परिणाम (y) का पूर्वानुमान करने के लिए किया जा सकता है।
विभिन्न प्रकार के रेगरेसन्स हैं जिनका उपयोग डेटा साइंस और मशीन लर्निंग में किया जाता है। विभिन्न प्रकारों में प्रत्येक प्रकार का अपना महत्व है, लेकिन मूल में, सभी प्रतिगमन विधियां आश्रित चर पर स्वतंत्र चर के प्रभाव का विश्लेषण करती हैं। सबसे आम रेगरेसन्स मॉडल में से कुछ हैं:
- रेखीय (लीनियर) रिग्रेसन
- रसद (लोगिस्टिक) रिग्रेसन
- बहुपद (पोलीनोमिअल) रिग्रेसन
- सपोर्ट वेक्टर रिग्रेसन
- डिसिशन ट्री रिग्रेसन
- रैंडम फारेस्ट रिग्रेसन
- रिज रिग्रेसन
- लासो रिग्रेसन
आइये रिग्रेसन की अवधारणा को समझने के लिए एक उदाहरण पर विचार करें। मान लीजिए कि एक विपणन कंपनी ‘ए’ है, जो हर साल विभिन्न प्रकार के विज्ञापन करती है और उस पर बिक्री प्राप्त करती है। नीचे दी गई सूची में पिछले 5 वर्षों में विज्ञापन पर खर्च की गई राशि और संबंधित बिक्री को दिखाया गया है:
विज्ञापन (सौ डॉलर में) | बिक्री (सौ डॉलर में) |
90 | 1000 |
120 | 1300 |
150 | 1800 |
100 | 1200 |
130 | 1380 |
छठे वर्ष के दौरान, एक कंपनी ने विज्ञापन के लिए 20,000 डॉलर आवंटित किए हैं और यह संभव बिक्री जानना चाहती है।
उपरोक्त परिदृश्य में, हम आम तौर पर y = ax + b के एक रैखिक प्रतिगमन मॉडल का उपयोग करते हैं, जहां y (बिक्री) आश्रित चर (पूर्वसूचक) है, x (विज्ञापन) एक स्वतंत्र चर है और a और b प्रतिगमन स्थिरांक हैं।
3. डेटाबेस
मशीन लर्निंग में डेटाबेस एक आवश्यक घटक है। यदि आप मशीन लर्निंग सिस्टम स्थापित करना चाहते हैं, तो आपको या तो सार्वजनिक संसाधनों से डेटा एकत्र करना होगा या नया डेटा उत्पन्न करना होगा। सभी डेटासेट जो मशीन लर्निंग के लिए उपयोग किए जाते हैं, डेटाबेस को एक साथ जोड़ते हैं। आम तौर पर, डेटा वैज्ञानिक डेटा को तीन श्रेणियों में विभाजित करते हैं:
- ट्रेन डेटासेट: ट्रेन डेटासेट का उपयोग प्रशिक्षण मॉडल के लिए किया जाता है। प्रशिक्षण के माध्यम से, मशीन लर्निंग मॉडल डेटा की महत्वपूर्ण विशेषताओं को पहचानने में सक्षम होंगे।
- वैलिडेट डेटासेट: वैलिडेट डेटासेट का उपयोग मॉडल के गुणांक को ट्रिम करने के लिए और इष्टतम को चुनने के लिए मॉडल की तुलना करने के लिए किया जाता है। वैलिडेट डेटासेट ट्रेन के डेटासेट से अलग होता है, और इसका उपयोग प्रशिक्षण अनुभाग में नहीं किया जा सकता है या ओवरफिटिंग हो सकती है और अन्य डेटा पीढ़ी पर प्रतिकूल प्रभाव डाल सकती है।
- टेस्ट डेटासेट: मॉडल की पुष्टि हो जाने के बाद, नए डेटासेट में मॉडल के प्रदर्शन के परीक्षण के लिए एक परीक्षण डेटासेट का उपयोग किया जाता है।
पारंपरिक मशीन लर्निंग में, इन तीन डेटासेट का अनुपात 50: 25: 25 है; हालाँकि, कुछ मॉडलों को बहुत ट्यूनिंग की ज़रूरत नहीं है या ट्रेन डाटासेट वास्तव में प्रशिक्षण और सत्यापन का एक संयोजन हो सकता है, इसलिए ट्रेन का अनुपात: परीक्षण 70: 30 हो सकता है।
4. प्राकृतिक भाषा प्रसंस्करण (नेचुरल लैंग्वेज प्रोसेसिंग)
प्राकृतिक भाषा प्रसंस्करण (एनएलपी) मशीन सीखने के लिए एक बहुत ही सामान्य अवधारणा है। इसने कंप्यूटर के लिए मानव भाषा को पढ़ना और इसे सभी प्रकार की प्रक्रियाओं में शामिल करना संभव बना दिया था।
एनएलपी के सबसे आम ऍप्लिकेशन्स में शामिल हैं:
- टेक्स्ट वर्गीकरण और छंटनी: यह टेक्स्ट को विभिन्न श्रेणियों में वर्गीकृत करने, या प्रासंगिकता के आधार पर टेक्स्ट की एक सूची को छाँटने से संबंधित है। उदाहरण के लिए, इसका उपयोग स्पैम मेल को स्क्रीन करने के लिए किया जा सकता है (यह विश्लेषण करके कि ईमेल स्पैम ईमेल हैं या नहीं), या व्यापार-वार इसका उपयोग आपके प्रतिद्वंद्वियों से संबंधित जानकारी को पहचानने और निकालने के लिए भी किया जा सकता है।
- सेंटीमेंट एनालिसिस: सेंटिमेंट एनालिसिस के साथ, एक कंप्यूटर टेक्स्ट स्ट्रिंग्स का विश्लेषण करके सेंटीमेंट्स जैसे गुस्सा, दुख, खुशी आदि को डिक्रिप्ट कर सकेगा। तो मूल रूप से एक कंप्यूटर यह बताने में सक्षम होगा कि लोग शब्दों या वाक्यों में टाइप करके खुश, दुखी या नाराज़ महसूस कर रहे हैं या नहीं। यह ग्राहक संतुष्टि सर्वेक्षण में व्यापक रूप से उपयोग किया जाता है ताकि यह विश्लेषण किया जा सके कि ग्राहक किसी उत्पाद के प्रति कैसा महसूस कर रहे हैं।
- सूचना निष्कर्षण: यह मुख्य रूप से एक संक्षिप्त पाठ में एक लंबे पैराग्राफ को संक्षेप में प्रस्तुत करने के लिए है, बहुत कुछ अमूर्त बनाने की तरह।
- नामित-एंटिटी मान्यता (नेम्ड-एंटिटी रिकग्निशन): मान लीजिए कि आपने एक पता, फोन नंबर, नाम, और एक दूसरे के साथ मिलाया गया जैसे गड़बड़ प्रोफ़ाइल डेटा का एक गुच्छा निकाला है। क्या आप नहीं चाहते हैं कि आप किसी तरह इस डेटा को साफ कर सकें ताकि जादुई रूप से वे सभी पहचाने जा सकें और उचित डेटा प्रकारों से मेल खा सकें? यह वास्तव में नामित-इकाई मान्यता कैसे संरचित डेटा में गड़बड़ जानकारी को चालू करने में मदद करता है।
- वाक् पहचान (स्पीच रिकग्निशन): वाक् पहचान को स्वचालित वाक् पहचान (ऑटोमेटेड स्पीच रिकग्निशन) (ASR), कंप्यूटर स्पीच रिकॉग्निशन या स्पीच-टू-टेक्स्ट के रूप में भी जाना जाता है, एक क्षमता है जो एक प्रोग्राम को एक लिखित प्रारूप में मानव भाषण को संसाधित करने में सक्षम बनाती है।
- प्राकृतिक भाषा समझ और उत्पादन (नेचुरल लैंग्वेज अंडरस्टैंडिंग एंड जनरेशन): एनएलयू का उपयोग कंप्यूटर को मानवीय अभिव्यक्तियों को कंप्यूटर अभिव्यक्तियों में बदलने के लिए किया जाता है। इसके विपरीत, प्राकृतिक भाषा पीढ़ी कंप्यूटर के भावों को मानवीय अभिव्यक्तियों में बदलना है। रोबोट के साथ संचार करने वाले मनुष्यों के लिए इस तकनीक का उपयोग आमतौर पर किया जाता है।
- मशीनी अनुवाद: मशीनी अनुवाद स्वचालित रूप से किसी अन्य भाषा (या किसी विशिष्ट भाषा) में टेक्स्ट का अनुवाद करता है।
5. ओवरफिटिंग और अंडरफिटिंग
ओवरफिटिंग और अंडरफिटिंग दो मुख्य समस्याएं हैं जो मशीन लर्निंग में होती हैं और मशीन लर्निंग मॉडल के प्रदर्शन को कम करती हैं।
प्रत्येक मशीन लर्निंग मॉडल का मुख्य लक्ष्य अच्छी तरह से सामान्यीकरण करना है। यहां सामान्यीकरण एक मशीन लर्निंग मॉडल की क्षमता है जो अज्ञात इनपुट के दिए गए सेट को अपनाकर एक उपयुक्त आउटपुट प्रदान करता है। इसका मतलब है कि डेटासेट पर प्रशिक्षण प्रदान करने के बाद, यह विश्वसनीय और सटीक परिणाम दे सकता है। इसलिए, ओवरफिटिंग और अंडरफिटिंग दो ऐसे नियम हैं, जिन्हें मॉडल के प्रदर्शन के लिए जांचने की आवश्यकता है और यह कि मॉडल अच्छी तरह से सामान्य हो रहा है या नहीं।
इन दो शर्तों पर आगे बढ़ने से पहले आइए इन दो संबंधित शर्तों को समझें – पूर्वाग्रह (बायस)) और भिन्नता (वैरिअन्स)।
- पूर्वाग्रह: एक मॉडल द्वारा किए गए मानों को सीखने में आसान बनाने के लिए।
- भिन्नता: यदि आप अपने डेटा को प्रशिक्षण डेटा पर प्रशिक्षित करते हैं और डेटा को बदलने पर और फिर उसी पिछले मॉडल का प्रशिक्षण लेते हैं, जिसमें आप उच्च त्रुटि का अनुभव करते हैं, तो इसे वैरिअन्स कहते हैं।
अंडरफिटिंग: एक मशीन लर्निंग मॉडल को अंडरफिटिंग कहा जाता है जब यह डेटा की अंतर्निहित प्रवृत्ति को कैप्चर नहीं कर सकता है। अंडरफटिंग हमारे मशीन लर्निंग मॉडल की सटीकता को नष्ट कर देता है। इसके घटित होने का सीधा मतलब है कि हमारा मॉडल डेटा को अच्छी तरह से फिट नहीं करता है।
यह आमतौर पर तब होता है जब हमारे पास एक सटीक मॉडल बनाने के लिए कम डेटा होता है और जब हम गैर-रैखिक डेटा के साथ एक रैखिक मॉडल बनाने की कोशिश करते हैं। ऐसे मामलों में, मशीन लर्निंग मॉडल के नियम ऐसे न्यूनतम डेटा पर लागू किए जाने के लिए बहुत आसान और लचीले हैं और इसलिए मॉडल संभवतः बहुत गलत अनुमान लगाएगा। अधिक डेटा का उपयोग करके और फीचर चयन द्वारा सुविधाओं को कम करने से अंडरफ़िटिंग से बचा जा सकता है।
अंडरफिटिंग – उच्च पूर्वाग्रह (बायस) और कम विचरण (वैरिअन्स)।
ओवरफिटिंग: मशीन लर्निंग मॉडल को ओवरफिट कहा जाता है जब हम इसे बहुत सारे डेटा के साथ प्रशिक्षित करते हैं। जब कोई मॉडल इतने डेटा के साथ प्रशिक्षित हो जाता है, तो यह हमारे डेटा सेट में शोर और गलत डेटा प्रविष्टियों से सीखना शुरू कर देता है। इस मामले में, मॉडल बहुत अधिक विवरण और शोर के कारण डेटा को सही ढंग से वर्गीकृत नहीं करता है।
ओवरफिटिंग के कारण गैर-पैरामीट्रिक और गैर-रैखिक तरीके हैं क्योंकि इस प्रकार के मशीन लर्निंग एल्गोरिदम को डेटासेट पर आधारित मॉडल के निर्माण में अधिक स्वतंत्रता है और इसलिए वे आसानी से अवास्तविक मॉडल का निर्माण कर सकते हैं। ओवरफिटिंग से बचने के लिए एक समाधान एक रेखीय (लीनियर) एल्गोरिथ्म का उपयोग कर रहा है यदि हमारे पास रैखिक डेटा है या अधिकतम गहराई की तरह मापदंडों का उपयोग करते हुए अगर हम डिसिशन ट्री का उपयोग कर रहे हैं।
ओवरफिटिंग – कम पूर्वाग्रह (बायस) और उच्च विचरण (वैरिअन्स)।

6. सुपरविज़ड लर्निंग
सुपरवाइज्ड लर्निंगमशीन लर्निंग मॉडल का एक परिवार है जो खुद को उदाहरण के द्वारा सिखाता है। इसका मतलब यह है कि एक पर्यवेक्षित मशीन सीखने के कार्य के लिए डेटा को लेबल किया जाना चाहिए (सही, जमीनी सच्चाई वर्ग को सौंपा गया है)। उदाहरण के लिए, यदि हम किसी दिए गए टेक्स्ट के विपणन के बारे में पहचानने के लिए मशीन लर्निंग मॉडल बनाना चाहते हैं, तो हमें मॉडल को लेबल वाले उदाहरणों के सेट के साथ प्रदान करने की आवश्यकता है (टेक्स्ट + जानकारी यदि यह विपणन के बारे में है या नहीं)। एक नए, अनदेखे उदाहरण को देखते हुए, मॉडल अपने लक्ष्य की भविष्यवाणी करता है – उदाहरण के लिए, बताए गए उदाहरण के लिए, एक लेबल (उदाहरण, 1 यदि कोई टेक्स्ट विपणन के बारे में है और 0 अन्यथा)।
7. अन सुपरविज़ड लर्निंग
अनसुपरवाइज़्ड लर्निंग मॉडल अवलोकन द्वारा खुद को सिखाते हैं। उस तरह के एल्गोरिदम को प्रदान किया गया डेटा अनलिस्टेड है (एल्गोरिथ्म के लिए कोई जमीनी सच्चाई नहीं है)। अनसुपरवाइज़्ड मॉडल विभिन्न इनपुट्स के बीच संबंधों की संरचना को खोजने में सक्षम हैं। सबसे महत्वपूर्ण प्रकार की अप्रशिक्षित शिक्षण तकनीक “क्लस्टरिंग” है।
8. रीएनफोर्समेंट लर्निंग
रीएनफोर्समेंट लर्निंग के पर्यवेक्षण और अप्रकाशित सीखने से इसके दृष्टिकोण में भिन्नता है। रीएनफोर्समेंट लर्निंग में, एल्गोरिथ्म एक “गेम” खेलता है, जिसमें इसका उद्देश्य इनाम को अधिकतम करना है। एल्गोरिथ्म परीक्षण-और-त्रुटि का उपयोग करके अलग-अलग दृष्टिकोण या “चाल” की कोशिश करता है और देखता है कि कौन सबसे अधिक लाभ बढ़ाता है।
रीएनफोर्समेंट लर्निंग के सबसे अधिक ज्ञात उपयोग के मामले रुबिक क्यूब को हल करने या शतरंज खेलने के लिए कंप्यूटर सिखा रहे हैं, लेकिन सिर्फ गेम की तुलना में रीएनफोर्समेंट लर्निंग के लिए अधिक है। हाल ही में, रियल-टाइम बिडिंग में रीएनफोर्समेंट लर्निंग के समाधानों की संख्या बढ़ रही है, जहाँ मॉडल किसी विज्ञापन के लिए स्पॉट बिडिंग के लिए जिम्मेदार है और इसका प्रतिफल ग्राहक की कन्वर्शन रेट है।
9. न्यूरल नेटवर्क
न्यूरल नेटवर्क मशीन लर्निंग के मॉडल का एक बहुत विस्तृत परिवार है। डेटा का प्रसंस्करण करते समय उनके पीछे मुख्य विचार मानव मस्तिष्क के व्यवहार की नकल करना है। जैसे मानव मस्तिष्क में वास्तविक न्यूरॉन्स को जोड़ने वाले नेटवर्क, कृत्रिम तंत्रिका नेटवर्क परतों से बने होते हैं। प्रत्येक परत न्यूरॉन्स का एक सेट है, जो सभी अलग-अलग चीजों का पता लगाने के लिए जिम्मेदार हैं। एक तंत्रिका नेटवर्क क्रमिक रूप से डेटा को संसाधित करता है, जिसका अर्थ है कि केवल पहली परत इनपुट से सीधे जुड़ी हुई है। सभी बाद की परतें पिछली परत के आउटपुट के आधार पर सुविधाओं का पता लगाती हैं, जो मॉडल में डेटा की अधिक से अधिक जटिल पैटर्न सीखने में सक्षम बनाता है क्योंकि परतों की संख्या बढ़ जाती है। जब परतों की संख्या तेजी से बढ़ती है, तो मॉडल को अक्सर डीप लर्निंग मॉडल कहा जाता है।
10. कंप्यूटर विज़न
कंप्यूटर विज़न एक कृत्रिम बुद्धि क्षेत्र है जो छवि और वीडियो डेटा का विश्लेषण और समझने पर ध्यान केंद्रित करता है। कंप्यूटर विज़न में हम अक्सर जो समस्याएँ हल की जाती हैं, उनमें शामिल हैं:
- छवि वर्गीकरण: छवि वर्गीकरण एक कंप्यूटर विज़न कार्य है जो कंप्यूटर को कुछ छवियों को पहचानना सिखाता है। उदाहरण के लिए, किसी विशिष्ट स्थान पर दिखाई देने वाली विशेष वस्तुओं को पहचानने के लिए एक मॉडल का प्रशिक्षण।
- टारगेट डिटेक्शन: टारगेट डिटेक्शन मॉडल को पढ़ाने के लिए पूर्वनिर्धारित श्रेणियों की एक श्रृंखला से एक विशेष वर्ग का पता लगाने के लिए सिखाता है, और आयतों का उपयोग करके इसे हल करना है। उदाहरण के लिए, लक्ष्य पहचान का उपयोग चेहरा पहचान प्रणालियों को कॉन्फ़िगर करने के लिए किया जा सकता है। मॉडल हर पूर्वनिर्धारित मामले का पता लगा सकता है और उन्हें उजागर कर सकता है।
- इमेज सेगमेंटेशन: इमेज सेगमेंटेशन एक डिजिटल इमेज को कई सेगमेंट (पिक्सल के सेट, जिसे सुपरपिक्सिक के रूप में भी जाना जाता है) में विभाजित करने की प्रक्रिया है। विभाजन का लक्ष्य एक छवि के प्रतिनिधित्व को सरल और / या बदलना है जो अधिक सार्थक और विश्लेषण करने में आसान है।
- महत्व परीक्षण (सिग्नीफिकेन्स टेस्ट): एक बार नमूना डेटा को एक अवलोकन अध्ययन या प्रयोग के माध्यम से इकट्ठा किया गया है, सांख्यिकीय अनुमान से विश्लेषकों को उस आबादी के बारे में कुछ दावों के पक्ष में साक्ष्य का आकलन करने की अनुमति मिलती है जिसमें से नमूना तैयार किया गया है। नमूना डेटा के आधार पर दावों का समर्थन या अस्वीकार करने के लिए उपयोग किए जाने वाले आक्षेप के तरीकों को महत्व के परीक्षण के रूप में जाना जाता है।
11. टेन्सरफ्लो
टेन्सॉरफ्लो मशीन सीखने की परियोजनाओं को पूरा करने के लिए गूगल द्वारा विकसित ओपन-सोर्स लाइब्रेरी है। यह गूगल ब्रेन टीम द्वारा बनाया गया था और 2015 में अपाचे 2.0 लाइसेंस के तहत जारी किया गया था। आज, यह मशीन लर्निंग की दुनिया में सबसे व्यापक उपकरणों में से एक है, विशेष रूप से न्यूरॉन्स के नेटवर्क के निर्माण के लिए।
हालांकि टेन्सॉरफ्लो का उपयोग मुख्य रूप से मशीन लर्निंग क्षेत्र में किया जाता है, इसका उपयोग अन्य प्रकार के एल्गोरिदम के लिए भी किया जा सकता है, जिन्हें डेटा ग्राफ़ का उपयोग करके संख्यात्मक गणना कार्यों की आवश्यकता होती है।
बाजार में टेन्सॉरफ्लो के अन्य विकल्प हैं जैसे फेसबुक से पैटॉर्च और अमेज़न से MXNet।
Image Credit: Background vector created by starline – www.freepik.com