• Home
  • /
  • Blog
  • /
  • شرح 10 خوارزميات التعلم الآلي الشائعة الاستخدام للأطفال

شرح 10 خوارزميات التعلم الآلي الشائعة الاستخدام للأطفال

اختبار الفرضيات في ML

This post is also available in: English (الإنجليزية) हिन्दी (الهندية)

التعلم الآلي هو أحد تطبيقات الذكاء الاصطناعي (AI) الذي يوفر للأنظمة القدرة على التعلم والتحسين تلقائيًا من التجربة دون أن تتم برمجتها بشكل صريح. يركز التعلم الآلي على تطوير برامج الكمبيوتر التي يمكنها الوصول إلى البيانات واستخدامها للتعلم بأنفسهم.

تبدأ عملية التعلم بالملاحظات أو البيانات ، مثل الأمثلة أو الخبرة المباشرة أو التعليمات ، من أجل البحث عن أنماط في البيانات واتخاذ قرارات أفضل في المستقبل بناءً على الأمثلة التي نقدمها. الهدف الأساسي هو السماح لأجهزة الكمبيوتر بالتعلم تلقائيًا دون تدخل بشري أو مساعدة وتعديل الإجراءات وفقًا لذلك.

ولكن باستخدام الخوارزميات الكلاسيكية للتعلم الآلي ، يعتبر النص بمثابة سلسلة من الكلمات الرئيسية ؛ بدلاً من ذلك ، النهج القائم على التحليل الدلالي يحاكي قدرة الإنسان على فهم معنى النص.

خوارزميات التعلم الآلي

الخوارزمية” في التعلم الآلي هي إجراء يتم تشغيله على البيانات لإنشاء “نموذج” للتعلم الآلي. تؤدي خوارزميات التعلم الآلي “التعرف على الأنماط“. الخوارزميات “تتعلم” من البيانات ، أو “ملائمة” لمجموعة البيانات. هناك العديد من خوارزميات التعلم الآلي. على سبيل المثال ، لدينا خوارزميات للتصنيف ، مثل k- أقرب الجيران. لدينا خوارزميات للانحدار ، مثل الانحدار الخطي ، ولدينا خوارزميات للتجميع ، مثل k-mean.

ما هو “النموذج” في التعلم الآلي؟

النموذج” في التعلم الآلي هو ناتج خوارزمية التعلم الآلي التي تعمل على البيانات.

يمثل النموذج ما تعلمته خوارزمية التعلم الآلي.

النموذج هو “الشيء” الذي يتم حفظه بعد تشغيل خوارزمية التعلم الآلي على بيانات التدريب ويمثل القواعد والأرقام وأي هياكل بيانات أخرى خاصة بالخوارزمية مطلوبة لعمل تنبؤات.

قد توضح بعض الأمثلة ذلك:

  • ينتج عن خوارزمية الانحدار الخطي نموذج يتكون من متجه للمعاملات بقيم محددة.
  • ينتج عن خوارزمية شجرة القرار نموذجًا يتألف من شجرة من عبارات if-then بقيم محددة.
  • تؤدي خوارزميات الشبكة العصبية / الانتشار العكسي / الانحدار معًا إلى نموذج يتكون من بنية رسم بياني مع متجهات أو مصفوفات من الأوزان بقيم محددة.

يعد نموذج التعلم الآلي أكثر صعوبة بالنسبة للمبتدئين لأنه لا يوجد تشابه واضح مع الخوارزميات الأخرى في علوم الكمبيوتر.

على سبيل المثال ، ناتج القائمة التي تم فرزها لخوارزمية الفرز ليس نموذجًا بالفعل.

أفضل تشبيه هو التفكير في نموذج التعلم الآلي على أنهبرنامج.

يتكون “برنامج” نموذج التعلم الآلي من كل من البيانات وإجراء لاستخدام البيانات لعمل تنبؤ.

على سبيل المثال ، ضع في اعتبارك خوارزمية الانحدار الخطي والنموذج الناتج. يتكون النموذج من متجه من المعاملات (البيانات) التي يتم ضربها وتلخيصها بصف من البيانات الجديدة المأخوذة كمدخلات من أجل إجراء التنبؤ (إجراء التنبؤ).

نقوم بحفظ البيانات الخاصة بنموذج التعلم الآلي لاستخدامه لاحقًا.

غالبًا ما نستخدم إجراء التنبؤ لنموذج التعلم الآلي الذي توفره مكتبة التعلم الآلي. في بعض الأحيان قد نقوم بتنفيذ إجراء التنبؤ بأنفسنا كجزء من تطبيقنا. غالبًا ما يكون هذا أمرًا بسيطًا نظرًا لأن معظم إجراءات التنبؤ بسيطة للغاية.

خوارزميات التعلم الآلي شائعة الاستخدام

فيما يلي قائمة بخوارزميات التعلم الآلي الشائعة الاستخدام. يمكن تطبيق هذه الخوارزميات على أي مشكلة بيانات تقريبًا:

  1. الانحدارالخطي
  2. الانحدار اللوجستي
  3. شجرة القرار
  4. SVM
  5. ساذج بايز
  6. kNN
  7. K- الوسائل
  8. غابة عشوائية
  9. خوارزميات تخفيض الأبعاد
  10. خوارزميات تعزيز التدرج

1. الانحدار الخطي

يتم استخدامه لتقدير القيم الحقيقية (تكلفة المنازل ، عدد المكالمات ، إجمالي المبيعات ، إلخ) بناءً على متغير (متغيرات) مستمر. هنا ، نؤسس علاقة بين المتغيرات المستقلة والتابعة من خلال تركيب أفضل خط. يُعرف هذا الخط الأكثر ملاءمة بخط الانحدار ويتم تمثيله بمعادلة خطية – Y = a × X + b.

أفضل طريقة لفهم الانحدار الخطي هي استعادة تجربة الطفولة هذه. دعنا نقول ، أنت تطلب من طفل في الصف الخامس ترتيب الناس في فصله عن طريق زيادة ترتيب الوزن ، دون أن تطلب منهم أوزانهم! ماذا تعتقد أن الطفل سيفعل؟ من المحتمل أن ينظر (يحلل بصريًا) في ارتفاع وبناء الأشخاص ويرتبهم باستخدام مجموعة من هذه المعلمات المرئية. هذا هو الانحدار الخطي في الحياة الحقيقية! لقد اكتشف الطفل بالفعل أن الطول والبناء سيكونان مرتبطين بالوزن من خلال علاقة تبدو مثل المعادلة أعلاه.

في هذه المعادلة:

  • Y – متغير تابع
  • منحدر-a
  • X – متغير مستقل
  • b – اعتراض

يتم اشتقاق المعاملين أ و ب بناءً على تقليل مجموع الفرق التربيعي للمسافة بين نقاط البيانات وخط الانحدار. انظر إلى المثال أدناه. هنا حددنا أفضل خط ملائم له معادلة خطية y = 0.0.3874x + 15.87. الآن باستخدام هذه المعادلة ، يمكننا إيجاد الوزن ، بمعرفة ارتفاع الشخص.


Machine Learning Algorithms

يتكون الانحدار الخطي بشكل أساسي من نوعين:

  • الانحدار الخطي البسيط
  • الانحدار الخطي المتعدد

يتميز الانحدار الخطي البسيط بمتغير مستقل واحد. ويتميز الانحدار الخطي المتعدد (كما يوحي الاسم) بمتغيرات مستقلة متعددة (أكثر من 1). أثناء العثور على أفضل خط ملائم ، يمكنك أن تتلاءم مع انحدار متعدد الحدود أو منحني الخطوط. وتعرف هذه باسم الانحدار متعدد الحدود أو المنحني.

2. الانحدار اللوجستي

في الإحصائيات ، يتم استخدام النموذج اللوجستي (أو نموذج اللوجيستيات) لنمذجة احتمالية فئة معينة أو حدث موجود مثل النجاح / الفشل ، الفوز / الخسارة ، على قيد الحياة / ميت ، أو صحي / مريض. يمكن توسيع هذا ليشمل عدة فئات من الأحداث مثل تحديد ما إذا كانت الصورة تحتوي على قطة أو كلب أو أسد ، إلخ. سيتم تعيين احتمال بين 0 و 1 لكل كائن في الصورة ، بمجموع واحد.

الانحدار اللوجستي هو نموذج إحصائي يستخدم في شكله الأساسي وظيفة لوجستية لنمذجة متغير ثنائي تابع ، على الرغم من وجود العديد من الامتدادات الأكثر تعقيدًا. في تحليل الانحدار ، يقوم الانحدار اللوجستي (أوالانحدار اللوجستي) بتقدير معلمات النموذج اللوجستي (شكل من أشكال الانحدار الثنائي). رياضيًا ، يحتوي النموذج اللوجستي الثنائي على متغير تابع بقيمتين محتملتين ، مثل النجاح / الفشل الذي يتم تمثيله بواسطة متغير مؤشر ، حيث يتم تسمية القيمتين “0” و “1”. في النموذج اللوجيستي ، فإن الاحتمالات اللوغاريتمية (لوغاريتم الاحتمالات) للقيمة المسماة “1” هي مزيج خطي من واحد أو أكثر من المتغيرات المستقلة (“تنبؤات”) ؛ يمكن أن تكون كل من المتغيرات المستقلة متغيرًا ثنائيًا (فئتان ، مشفرة بواسطة متغير مؤشر) أو متغير مستمر (أي قيمة حقيقية).

يمكن أن يختلف الاحتمال المقابل للقيمة المسماة “1” بين 0 (بالتأكيد القيمة “0”) و 1 (بالتأكيد القيمة “1”) ، ومن ثم وضع العلامات ؛ الوظيفة التي تحول احتمالات السجل إلى احتمالية هي الوظيفة اللوجستية ، ومن هنا جاء الاسم. تسمى وحدة القياس لمقياس الاحتمالات اللوغاريتمية logit، من الوحدةاللوجيستية، ومن هنا جاءت الأسماء البديلة.

يمكن أيضًا استخدام نماذج مماثلة ذات وظيفة سينية مختلفة بدلاً من الوظيفة اللوجستية ، مثل نموذج الاحتمال ؛ السمة المميزة للنموذج اللوجستي هي أن زيادة أحد المتغيرات المستقلة تؤدي بشكل مضاعف إلى زيادة احتمالات النتيجة المعطاة عند معدل ثابت ، مع كل متغير مستقل له معلمة خاصة به ؛ بالنسبة للمتغير الثنائي التابع ، فإن هذا يعمم نسبة الأرجحية.

في نموذج الانحدار اللوجستي الثنائي ، يحتوي المتغير التابع على مستويين (فئوي). يتم نمذجة المخرجات التي تحتوي على أكثر من قيمتين من خلال الانحدار اللوجستي متعدد الحدود ، وإذا تم ترتيب الفئات المتعددة ، عن طريق الانحدار اللوجستي الترتيبي (على سبيل المثال نموذج الاحتمالات النسبية الترتيبي اللوجيستي).

نموذج الانحدار اللوجستي نفسه يصوغ ببساطة احتمالية المخرجات من حيث المدخلات ولا يقوم بتصنيف إحصائي (ليس مصنفًا) ، على الرغم من أنه يمكن استخدامه لإنشاء مصنف ، على سبيل المثال عن طريق اختيار قيمة القطع وتصنيف المدخلات باستخدام احتمالية أكبر من الحد كفئة واحدة ، أقل من القطع مثل الأخرى ؛ هذه طريقة شائعة لعمل مصنف ثنائي.

3. شجرة القرار

شجرة القرار هي تقنية تعلم خاضعة للإشراف يمكن استخدامها لكل من مشاكل التصنيف والانحدار ، ولكنها في الغالب مفضلة لحل مشاكل التصنيف. إنه مصنف منظم على شكل شجرة ، حيث تمثل العقد الداخلية ميزات مجموعة البيانات ، وتمثل الفروع قواعد القرار وتمثل كل عقدة ورقية النتيجة.

في شجرة القرار ، توجد عقدتان ، وهما عقدة القرار والعقدة الورقية. تُستخدم عقد القرار لاتخاذ أي قرار ولها فروع متعددة ، في حين أن العقد الورقية هي نتاج تلك القرارات ولا تحتوي على أي فروع أخرى.

يتم تنفيذ القرارات أو الاختبار على أساس ميزات مجموعة البيانات المحددة.

إنه تمثيل رسومي للحصول على جميع الحلول الممكنة لمشكلة / قرار بناءً على شروط معينة.

يطلق عليها شجرة القرار لأنها تشبه الشجرة ، فهي تبدأ بالعقدة الجذرية ، والتي تتوسع في المزيد من الفروع وتبني بنية شبيهة بالشجرة. من أجل بناء شجرة ، نستخدم خوارزمية CART ، والتي تعني التصنيف وخوارزمية شجرة الانحدار. تطرح شجرة القرار سؤالاً ببساطة واستنادًا إلى الإجابة (نعم / لا) ، فإنها تقسم الشجرة إلى أشجار فرعية.

يوضح الرسم البياني أدناه الهيكل العام لشجرة القرار:


Machine Learning Algorithms

4. SVM

تعد Support Vector Machine أو SVM واحدة من أكثر خوارزميات التعلم الخاضع للإشراف شيوعًا ، والتي تُستخدم في التصنيف بالإضافة إلى مشاكل الانحدار. ومع ذلك ، في المقام الأول ، يتم استخدامه لمشاكل التصنيف في التعلم الآلي.

الهدف من خوارزمية SVM هو إنشاء أفضل خط أو حدود قرار يمكنها فصل الفضاء ذي البعد n إلى فئات بحيث يمكننا بسهولة وضع نقطة البيانات الجديدة في الفئة الصحيحة في المستقبل. يُطلق على حدود القرار الأفضل اسم المستوى الفائق.

يختار SVM النقاط / المتجهات القصوى التي تساعد في إنشاء المستوى الفائق. تسمى هذه الحالات القصوى متجهات الدعم ، وبالتالي تسمى الخوارزمية بآلة متجه الدعم. ضع في اعتبارك الرسم البياني أدناه حيث توجد فئتان مختلفتان تم تصنيفهما باستخدام حدود القرار أو المستوى المفرط:

تأمل المثال التالي. يمكن فهم SVM من خلال المثال الذي استخدمناه في مصنف KNN. لنفترض أننا رأينا قطًا غريبًا يحتوي أيضًا على بعض ميزات الكلاب ، لذلك إذا أردنا نموذجًا يمكنه تحديد ما إذا كان قطة أو كلبًا بدقة ، فيمكن إنشاء مثل هذا النموذج باستخدام خوارزمية SVM. سنقوم أولاً بتدريب نموذجنا بالكثير من صور القطط والكلاب حتى يتمكن من التعرف على الميزات المختلفة للقطط والكلاب ، ثم نقوم باختباره مع هذا المخلوق الغريب. لذا ، نظرًا لأن متجه الدعم ينشئ حدودًا للقرار بين هاتين المعطيات (القط والكلب) ويختار الحالات القصوى (متجهات الدعم) ، فسوف يرى الحالة القصوى للقطط والكلب. على أساس ناقلات الدعم ، سوف يصنفها على أنها قطة.

5. ساذج بايز

خوارزمية Naïve Bayes هي خوارزمية تعلم خاضعة للإشراف ، والتي تستند إلى نظرية بايز وتستخدم لحل مشاكل التصنيف. يتم استخدامه بشكل أساسي في تصنيف النص الذي يتضمن مجموعة بيانات تدريب عالية الأبعاد.

يعد تصنيف Naïve Bayes أحد خوارزميات التصنيف البسيطة والأكثر فعالية والتي تساعد في بناء نماذج تعلم آلي سريعة يمكنها إجراء تنبؤات سريعة. إنه مصنف احتمالي ، مما يعني أنه يتنبأ على أساس احتمال وجود كائن.

بعض الأمثلة الشائعة لخوارزمية Naïve Bayes هي ترشيح البريد العشوائي والتحليل العاطفي وتصنيف المقالات.

تتكون خوارزمية Naïve Bayes من كلمتين Naïve و Bayes ، والتي يمكن وصفها على النحو التالي:

  • ساذج: يطلق عليه Naïveلأنه يفترض أن حدوث سمة معينة مستقل عن حدوث ميزات أخرى. على سبيل المثال ، إذا تم تحديد الفاكهة على أساس اللون والشكل والمذاق ، فإن الفاكهة الحمراء والكروية والحلوة يتم التعرف عليها على أنها تفاحة. ومن ثم تساهم كل ميزة على حدة في تحديد أنها تفاحة دون الاعتماد على بعضها البعض.
  • بايز: يطلق عليه Bayes لأنه يعتمد على مبدأ نظرية بايز.
  • تُعرف نظرية بايز أيضًا باسم قانونبايز أو قانون بايز ، والذي يستخدم لتحديد احتمالية الفرضية بمعرفة مسبقة. يعتمد على الاحتمال الشرطي.
  • تُعطى صيغة نظرية بايز على النحو التالي:


Machine Learning Algorithms

أين،

P (A | B) هو الاحتمال اللاحق: احتمالية الفرضية A على الحدث الملحوظ B.P (B | A) هو احتمال الاحتمال: احتمالية الدليل بالنظر إلى أن احتمالية الفرضية صحيحة.

6. kNN

K-Nearest Neighbor هي واحدة من أبسط خوارزميات التعلم الآلي القائمة على تقنية التعلم الخاضع للإشراف. تفترض خوارزمية K-NN التشابه بين الحالة / البيانات الجديدة والحالات المتاحة وتضع الحالة الجديدة في الفئة الأكثر تشابهًا مع الفئات المتاحة.

تقوم خوارزمية K-NN بتخزين جميع البيانات المتاحة وتصنيف نقطة بيانات جديدة بناءً على التشابه. هذا يعني أنه عند ظهور بيانات جديدة يمكن تصنيفها بسهولة إلى فئة مجموعة جيدة باستخدام خوارزمية K- NN. يمكن استخدام هذه الخوارزمية للانحدار وكذلك للتصنيف ولكن في الغالب يتم استخدامه لمشاكل التصنيف.

إنها خوارزمية غير معلمية ، مما يعني أنها لا تضع أي افتراضات بشأن البيانات الأساسية. يُطلق عليها أيضًا خوارزمية المتعلم الكسول لأنها لا تتعلم من مجموعة التدريب على الفور بدلاً من ذلك تقوم بتخزين مجموعة البيانات وفي وقت التصنيف ، تقوم بتنفيذ إجراء على مجموعة البيانات.

تقوم خوارزمية KNN في مرحلة التدريب فقط بتخزين مجموعة البيانات وعندما تحصل على بيانات جديدة ، فإنها تصنف تلك البيانات في فئة تشبه إلى حد كبير البيانات الجديدة.

لنفترض على سبيل المثال ، أن لدينا صورة لمخلوق يشبه قطة وكلب ، لكننا نريد أن نعرف إما أنه قطة أو كلب. لذلك من أجل هذا التعريف ، يمكننا استخدام خوارزمية KNN ، لأنها تعمل على مقياس التشابه. سيجد نموذج KNN الخاص بنا الميزات المماثلة لمجموعة البيانات الجديدة لصور القطط والكلاب واستنادًا إلى الميزات الأكثر تشابهًا ، سيضعها في فئة القطط أو الكلاب.

7. K- الوسائل

إنه نوع من الخوارزمية غير الخاضعة للإشراف والتي تحل مشكلة التجميع. يتبع الإجراء طريقة بسيطة وسهلة لتصنيف مجموعة بيانات معينة من خلال عدد معين من المجموعات (افترض k مجموعات). نقاط البيانات داخل الكتلة متجانسة وغير متجانسة لمجموعات النظراء.

تذكر اكتشاف الأشكال من بقع الحبر؟ يعني k يشبه إلى حد ما هذا النشاط. أنت تنظر إلى الشكل وتنتشر لفك عدد المجموعات / المجموعات السكانية المختلفة الموجودة!

تستخدم K-Means الخطوات التالية:

  • K- يعني اختيار k عدد النقاط لكل مجموعة تعرف باسم النقط الوسطى.
  • تشكل كل نقطة بيانات كتلة بها أقرب النقط الوسطى ، أي مجموعات k.
  • يعثر على النقطه الوسطى لكل مجموعة على أساس أعضاء الكتلة الحاليين. هنا لدينا النقطه الوسطى الجديدة.
  • نظرًا لأن لدينا النقط الوسطى الجديدة ، كرر الخطوتين 2 و 3. ابحث عن أقرب مسافة لكل نقطة بيانات من النقط الوسطى الجديدة وارتبط بمجموعات k الجديدة. كرر هذه العملية حتى يحدث التقارب ، أي أن النقط الوسطى لا تتغير.

في K-mean ، لدينا مجموعات وكل مجموعة لها النقطه الوسطى الخاصة بها. مجموع مربع الفرق بين النقطه الوسطى ونقاط البيانات داخل العنقود يشكل داخل مجموع القيمة التربيعية لتلك المجموعة. أيضًا ، عند إضافة مجموع القيم المربعة لجميع المجموعات ، يصبح إجماليًا ضمن مجموع القيمة المربعة لحل الكتلة.

نحن نعلم أنه مع زيادة عدد المجموعات ، تستمر هذه القيمة في التناقص ، ولكن إذا قمت برسم النتيجة ، فقد ترى أن مجموع المسافة المربعة يتناقص بشكل حاد حتى يصل إلى قيمة معينة من k ، ثم ببطء أكثر بعد ذلك. هنا ، يمكننا إيجاد العدد الأمثل للعناقيد.

8. الغابة العشوائية

Random Forest هي خوارزمية تعلم آلي شائعة تنتمي إلى تقنية التعلم الخاضع للإشراف. يمكن استخدامه لكل من مشاكل التصنيف والانحدار في ML. يعتمد على مفهوم التعلم الجماعي ، وهو عملية الجمع بين عدة مصنفات لحل مشكلة معقدة وتحسين أداء النموذج.

حسب الاسم المقترح، “Random Forest هو مصنف يحتوي على عدد من أشجار القرار في مجموعات فرعية مختلفة من مجموعة البيانات المحددة ويأخذ المتوسط لتحسين الدقة التنبؤية لمجموعة البيانات هذه.” بدلاً من الاعتماد على شجرة قرار واحدة ، تأخذ الغابة العشوائية التنبؤ من كل شجرة وتعتمد على أغلبية الأصوات للتنبؤات ، وتتوقع الناتج النهائي.

بدلاً من الاعتماد على شجرة قرار واحدة ، تأخذ الغابة العشوائية التنبؤ من كل شجرة وتعتمد على أغلبية الأصوات للتنبؤات ، وتتوقع الناتج النهائي.

يوضح الرسم البياني أدناه عمل خوارزمية Random Forest:


Machine Learning Algorithms

9. خوارزميات تخفيض الأبعاد

تقليل الأبعاد هو أسلوب تعليمي غير خاضع للإشراف.

ومع ذلك ، يمكن استخدامه كخطوة معالجة مسبقة لتحويل البيانات لخوارزميات التعلم الآلي على مجموعات بيانات النمذجة التنبؤية والتصنيف مع خوارزميات التعلم الخاضعة للإشراف.

هناك العديد من خوارزميات تقليل الأبعاد للاختيار من بينها ولا توجد خوارزمية واحدة أفضل لجميع الحالات. بدلاً من ذلك ، من الجيد استكشاف مجموعة من خوارزميات تقليل الأبعاد والتكوينات المختلفة لكل خوارزمية.

يشير تقليل الأبعاد إلى تقنيات لتقليل عدد متغيرات الإدخال في بيانات التدريب.

قد تعني الأبعاد العالية المئات أو الآلاف أو حتى الملايين من متغيرات الإدخال.

غالبًا ما تعني أبعاد الإدخال الأقل في المقابل عددًا أقل من المعلمات أو بنية أبسط في نموذج التعلم الآلي ، يشار إليها بدرجات الحرية. من المحتمل أن يزيد النموذج الذي يتمتع بدرجة كبيرة من الحرية بمجموعة بيانات التدريب وقد لا يعمل بشكل جيد في البيانات الجديدة.

من المستحسن أن يكون لديك نماذج بسيطة تعمم جيدًا ، وبالتالي إدخال البيانات مع متغيرات إدخال قليلة. هذا صحيح بشكل خاص بالنسبة للنماذج الخطية حيث يرتبط عدد المدخلات ودرجات حرية النموذج ارتباطًا وثيقًا.

تقليل الأبعاد هو تقنية إعداد البيانات التي يتم إجراؤها على البيانات قبل النمذجة. يمكن إجراؤه بعد تنظيف البيانات وقياس البيانات وقبل تدريب نموذج تنبؤي.

على هذا النحو ، يجب أيضًا إجراء أي تقليل في الأبعاد يتم إجراؤه على بيانات التدريب على بيانات جديدة ، مثل مجموعة بيانات الاختبار ومجموعة بيانات التحقق من الصحة والبيانات عند إجراء توقع باستخدام النموذج النهائي.

هناك العديد من الخوارزميات التي يمكن استخدامها لتقليل الأبعاد.

فئتان رئيسيتان من الأساليب هما تلك المستمدة من الجبر الخطي وتلك المستمدة من التعلم المتنوع.

نماذج الجبر الخطي

يمكن استخدام طرق عامل المصفوفة المستمدة من مجال الجبر الخطي للأبعاد.

تتضمن بعض الطرق الأكثر شيوعًا ما يلي:

  • تحليل المكونات الرئيسية
  • تحليل القيمة الفردية
  • عامل المصفوفة غير السلبي

طرق التعلم المتنوعة

تسعى طرق التعلم المتنوعة إلى إسقاط منخفض الأبعاد لمدخلات عالية الأبعاد تلتقط الخصائص البارزة لبيانات الإدخال.

تتضمن بعض الطرق الأكثر شيوعًا ما يلي:

  • التضمين Isomap
  • التضمين الخطي محليا
  • التحجيم متعدد الأبعاد
  • التضمين الطيفي
  • تضمين الجار العشوائي الموزع على t

تقدم كل خوارزمية نهجًا مختلفًا لتحدي اكتشاف العلاقات الطبيعية في البيانات بأبعاد أقل.

لا توجد أفضل خوارزمية لتقليل الأبعاد ، ولا توجد طريقة سهلة للعثور على أفضل خوارزمية لبياناتك دون استخدام تجارب محكومة.

10. خوارزميات تعزيز التدرج

يتكون مصطلح تعزيز التدرج من مصطلحين فرعيين ، التدرج والتعزيز. نحن نعلم بالفعل أن تعزيز التدرج هو أسلوب تعزيز. دعونا نرى كيف يرتبط مصطلح “التدرج” هنا.

يعيد تعزيز التدرج تعريف التعزيز باعتباره مشكلة تحسين عددية حيث يكون الهدف هو تقليل وظيفة الخسارة للنموذج عن طريق إضافة متعلمين ضعفاء باستخدام النسب المتدرج. نزول التدرج هو خوارزمية تحسين تكرارية من الدرجة الأولى لإيجاد حد أدنى محلي لوظيفة قابلة للتفاضل. نظرًا لأن تعزيز التدرج يعتمد على تقليل دالة الخسارة ، يمكن استخدام أنواع مختلفة من وظائف الخسارة مما ينتج عنه تقنية مرنة يمكن تطبيقها على الانحدار والتصنيف متعدد الفئات وما إلى ذلك.

بشكل حدسي ، يعد تعزيز التدرج نموذجًا مضافًا على مراحل يولد المتعلمين أثناء عملية التعلم (على سبيل المثال ، تتم إضافة الأشجار واحدة تلو الأخرى ، ولا يتم تغيير الأشجار الموجودة في النموذج). تعتمد مساهمة المتعلم الضعيف في المجموعة على عملية تحسين نزول التدرج. تعتمد المساهمة المحسوبة لكل شجرة على تقليل الخطأ الكلي للمتعلم القوي.

لا يؤدي تعزيز التدرج إلى تعديل توزيع العينة حيث يتدرب المتعلمون الضعفاء على الأخطاء المتبقية المتبقية لمتعلم قوي (أي المخلفات الزائفة). من خلال التدريب على بقايا النموذج ، هو وسيلة بديلة لإعطاء أهمية أكبر للملاحظات التي تم تصنيفها بشكل خاطئ. بشكل بديهي ، تتم إضافة متعلمين ضعفاء جدد للتركيز على المجالات التي يكون فيها أداء المتعلمين الحاليين ضعيفًا. تعتمد مساهمة كل متعلم ضعيف في التنبؤ النهائي على عملية تحسين التدرج لتقليل الخطأ الكلي للمتعلم القوي.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}
>