شرح ساذج بايز: الوظيفة ، المزايا والعيوب ، التطبيقات في عام 2022
نشرت: 2021-01-05Naive Bayes هي خوارزمية تعلم آلي نستخدمها لحل مشاكل التصنيف. يقوم على نظرية بايز. إنها واحدة من أبسط خوارزميات ML لكنها قوية قيد الاستخدام وتجد تطبيقات في العديد من الصناعات.
لنفترض أن عليك حل مشكلة تصنيف وأنشأت الميزات وأنشأت الفرضية ، لكن رؤسائك يريدون رؤية النموذج. لديك العديد من نقاط البيانات (كهوف من نقاط البيانات) والعديد من المتغيرات لتدريب مجموعة البيانات. أفضل حل لهذا الموقف هو استخدام مصنف Naive Bayes ، وهو أسرع مقارنة بخوارزميات التصنيف الأخرى.
في هذه المقالة ، سنناقش هذه الخوارزمية بالتفصيل ونكتشف كيف تعمل. سنناقش أيضًا مزاياها وعيوبها جنبًا إلى جنب مع تطبيقاتها الواقعية لفهم مدى أهمية هذه الخوارزمية.
انضم إلى دورة التعلم العميق عبر الإنترنت من أفضل الجامعات في العالم - الماجستير ، وبرامج الدراسات العليا التنفيذية ، وبرنامج الشهادات المتقدمة في ML & AI لتسريع مسار حياتك المهنية.
هيا بنا نبدأ:
جدول المحتويات
وأوضح ساذج بايز
يستخدم Naive Bayes نظرية بايز ويفترض أن كل المتنبئين مستقلون. بمعنى آخر ، يفترض هذا المصنف أن وجود ميزة معينة في الفصل لا يؤثر على وجود ميزة أخرى.

إليك مثال: يمكنك اعتبار الفاكهة برتقالية إذا كانت مستديرة وبرتقالية ويبلغ قطرها حوالي 3.5 بوصات. الآن ، حتى لو كانت هذه الميزات تتطلب وجود بعضها البعض ، فإنها تساهم جميعًا بشكل مستقل في افتراضك أن هذه الفاكهة بالذات برتقالية اللون. هذا هو السبب في أن هذه الخوارزمية لها كلمة "ساذجة" في اسمها.
يعد إنشاء نموذج Naive Bayes أمرًا بسيطًا للغاية ويساعدك في العمل مع مجموعات البيانات الضخمة. علاوة على ذلك ، فإن هذه المعادلة شائعة للتغلب على العديد من تقنيات التصنيف المتقدمة من حيث الأداء.
ها هي معادلة Naive Bayes:
الفوسفور (ج | س) = الفوسفور (س | ج) الفوسفور (ج) / الفوسفور (س)
الفوسفور (c | x) = P (x1 | c) x P (x2 | c) x… P (xn | c) x P (c)
هنا ، P (c | x) هو الاحتمال اللاحق وفقًا للمتنبئ (x) للفئة (c). P (c) هو الاحتمال السابق للفئة ، P (x) هو الاحتمال السابق للمتنبئ ، و P (x | c) هو احتمال المتنبئ للفئة المعينة (c).
بصرف النظر عن استقلالية كل ميزة ، تفترض Naive Bayes أيضًا أنها تساهم بشكل متساوٍ. هذه نقطة مهمة يجب تذكرها.
كيف يعمل Naive Bayes؟
لفهم كيفية عمل Naive Bayes ، يجب أن نناقش مثالاً.
لنفترض أننا نريد العثور على سيارات مسروقة ولدينا مجموعة البيانات التالية:
الرقم التسلسلي. | اللون | اكتب | أصل | هل سُرقت؟ |
1 | أحمر | رياضات | محلي | نعم |
2 | أحمر | رياضات | محلي | رقم |
3 | أحمر | رياضات | محلي | نعم |
4 | الأصفر | رياضات | محلي | رقم |
5 | الأصفر | رياضات | مستورد | نعم |
6 | الأصفر | سيارات الدفع الرباعي | مستورد | رقم |
7 | الأصفر | سيارات الدفع الرباعي | مستورد | نعم |
8 | الأصفر | سيارات الدفع الرباعي | محلي | رقم |
9 | أحمر | سيارات الدفع الرباعي | مستورد | رقم |
10 | أحمر | رياضات | مستورد | نعم |
وفقًا لمجموعة البيانات الخاصة بنا ، يمكننا أن نفهم أن خوارزمية لدينا تضع الافتراضات التالية:
- يفترض أن كل ميزة مستقلة. على سبيل المثال ، اللون "الأصفر" للسيارة لا علاقة له بأصلها أو نوعها.
- يعطي كل ميزة نفس المستوى من الأهمية. على سبيل المثال ، معرفة اللون والأصل فقط من شأنه أن يتنبأ بالنتيجة بشكل صحيح. هذا هو السبب في أن كل ميزة لها نفس الأهمية وتساهم بالتساوي في النتيجة.
الآن ، من خلال مجموعة البيانات الخاصة بنا ، يتعين علينا تصنيف ما إذا كان اللصوص يسرقون سيارة وفقًا لميزاتها. يحتوي كل صف على إدخالات فردية ، وتمثل الأعمدة ميزات كل سيارة. في الصف الأول لدينا سيارة رياضية حمراء مسروقة من أصل محلي. سنكتشف ما إذا كان اللصوص سيسرقون سيارة دفع رباعي محلية حمراء أم لا (مجموعة البيانات الخاصة بنا لا تحتوي على إدخال لسيارة دفع رباعي محلية حمراء).
يمكننا إعادة كتابة نظرية بايز لمثالنا على النحو التالي:
الفوسفور (y | X) = [P (X | y) P (y) P (X)] / P (X)
هنا ، يرمز y لمتغير الفئة (هل سُرقت؟) لتوضيح ما إذا كان اللصوص قد سرقوا السيارة ليس وفقًا للشروط. X لتقف على الميزات.
X = x1، x2، x3،….، xn)
هنا ، x1 ، x2 ، ... ، xn تقف للميزات. يمكننا تعيينها لتكون النوع والأصل واللون. الآن ، سنستبدل X ونوسع قاعدة السلسلة للحصول على ما يلي:
الفوسفور (y | x1، ...، xn) = [P (x1 | y) P (x2 | y) ... P (xn | y) P (y)] / [P (x1) P (x2) ... P (xn )]
يمكنك الحصول على قيم كل منها باستخدام مجموعة البيانات ووضع قيمها في المعادلة. سيظل المقام ثابتًا لكل إدخال في مجموعة البيانات لإزالته وإدخال التناسب.
الفوسفور (y | x1، ...، xn) ∝ الفوسفور (y) i = 1nP (xi | y)
في مثالنا ، y له نتيجتان فقط ، نعم أو لا.
y = argmaxyP (y) i = 1nP (xi | y)
يمكننا إنشاء جدول تردد لحساب الاحتمال اللاحق P (y | x) لكل ميزة. بعد ذلك ، سنقوم بصياغة جداول التكرار إلى جداول الاحتمالية واستخدام معادلة Naive Bayesian للعثور على الاحتمال اللاحق لكل فصل دراسي. ستكون نتيجة توقعنا هي الفئة التي لديها أعلى احتمالية لاحقة. فيما يلي جداول الاحتمالية والتكرار:
جدول التردد للون:
اللون | هل سُرقت (نعم) | هل سُرقت (لا) |
أحمر | 3 | 2 |
الأصفر | 2 | 3 |

جدول احتمالية اللون:
اللون | هل سُرقت [P (نعم)] | هل سُرقت [P (لا)] |
أحمر | 3/5 | 2/5 |
الأصفر | 2/5 | 3/5 |
جدول التردد من النوع:
اكتب | هل سُرقت (نعم) | هل سُرقت (لا) |
رياضات | 4 | 2 |
سيارات الدفع الرباعي | 1 | 3 |
جدول الاحتمالية من النوع:
اكتب | هل سُرقت [P (نعم)] | هل سُرقت [P (لا)] |
رياضات | 4/5 | 2/5 |
سيارات الدفع الرباعي | 1/5 | 3/5 |
تردد جدول المنشأ:
أصل | هل سُرقت (نعم) | هل سُرقت (لا) |
محلي | 2 | 3 |
مستورد | 3 | 2 |
جدول احتمالية المنشأ:
أصل | هل سُرقت [P (نعم)] | هل سُرقت [P (لا)] |
محلي | 2/5 | 3/5 |
مستورد | 3/5 | 2/5 |
تحتوي مشكلتنا على 3 تنبؤات لـ X ، لذلك وفقًا للمعادلات التي رأيناها سابقًا ، سيكون الاحتمال الخلفي P (نعم | X) كما يلي:
P (نعم | X) = P (أحمر | نعم) * P (SUV | نعم) * P (محلي | نعم) * P (نعم)
= ⅗ س ⅕ س ⅖ س 1
= 0.048
P (لا | X) ستكون:
P (لا | X) = P (أحمر | لا) * P (SUV | لا) * P (محلي | لا) * P (لا)
= ⅖ س ⅗ س ⅗ س 1
= 0.144
لذلك ، نظرًا لأن الاحتمال الخلفي P (لا | X) أعلى من الاحتمال الخلفي P (نعم | X) ، فإن سيارات الدفع الرباعي المحلية الحمراء الخاصة بنا ستحتوي على "لا" في المربع "هل سُرقت؟" الجزء.
يجب أن يوضح لك المثال كيفية عمل Naive Bayes Classifier. للحصول على صورة أفضل شرح لـ Naive Bayes ، يجب أن نناقش الآن مزاياها وعيوبها:
مزايا وعيوب السذاجة بايز
مزايا
- تعمل هذه الخوارزمية بسرعة ويمكنها توفير الكثير من الوقت.
- يعد Naive Bayes مناسبًا لحل مشكلات التنبؤ متعددة الفئات.
- إذا كان افتراض استقلالية الميزات صحيحًا ، فيمكنه أداء أفضل من النماذج الأخرى ويتطلب بيانات تدريب أقل بكثير.
- يعد Naive Bayes أكثر ملاءمة لمتغيرات الإدخال الفئوية من المتغيرات العددية.
سلبيات
- يفترض Naive Bayes أن جميع المتنبئين (أو الميزات) مستقلة ، ونادرًا ما تحدث في الحياة الواقعية. هذا يحد من قابلية تطبيق هذه الخوارزمية في حالات الاستخدام الواقعية.
- تواجه هذه الخوارزمية "مشكلة التردد الصفري" حيث تقوم بتعيين احتمالية صفرية لمتغير فئوي لم تكن فئته في مجموعة بيانات الاختبار متاحة في مجموعة بيانات التدريب. سيكون من الأفضل استخدام أسلوب تجانس للتغلب على هذه المشكلة.
- قد تكون تقديراته خاطئة في بعض الحالات ، لذلك لا يجب أن تأخذ نواتجها المحتملة على محمل الجد.
الخروج: شرح نماذج التعلم الآلي
شرح تطبيقات ساذجة بايز
فيما يلي بعض المجالات التي تجد فيها هذه الخوارزمية تطبيقات:

تصنيف النص
في معظم الأوقات ، تجد Naive Bayes استخدامات التصنيف داخل النص نظرًا لافتراضها الاستقلالية والأداء العالي في حل المشكلات متعددة الطبقات. تتمتع بنسبة نجاح عالية مقارنة بالخوارزميات الأخرى نظرًا لسرعتها وكفاءتها.
تحليل المشاعر
يعد تحليل المشاعر أحد أبرز مجالات التعلم الآلي ، وهذه الخوارزمية مفيدة جدًا هناك أيضًا. يركز تحليل المشاعر على تحديد ما إذا كان العملاء يفكرون بشكل إيجابي أو سلبي حول موضوع معين (منتج أو خدمة).
أنظمة التوصية
بمساعدة التصفية التعاونية ، يبني Naive Bayes Classifier نظام توصية قويًا للتنبؤ بما إذا كان المستخدم يرغب في منتج معين (أو مورد) أم لا. Amazon و Netflix و Flipkart هي شركات بارزة تستخدم أنظمة التوصية لاقتراح المنتجات لعملائها.
تعرف على المزيد من خوارزميات التعلم الآلي
Naive Bayes هي خوارزمية تعلم آلي بسيطة وفعالة لحل المشكلات متعددة الفئات. يجد استخدامات في العديد من المجالات البارزة لتطبيقات التعلم الآلي مثل تحليل المشاعر وتصنيف النص.
تحقق من برنامج الشهادة المتقدم في التعلم الآلي والسحابة مع IIT Madras ، أفضل مدرسة هندسية في الدولة لإنشاء برنامج لا يعلمك فقط التعلم الآلي ولكن أيضًا النشر الفعال له باستخدام البنية التحتية السحابية. هدفنا من هذا البرنامج هو فتح أبواب المعهد الأكثر انتقائية في الدولة ومنح المتعلمين إمكانية الوصول إلى أعضاء هيئة التدريس والموارد المذهلة من أجل إتقان مهارة عالية ومتنامية
ما هي خوارزمية بايز ساذجة؟
للتعامل مع صعوبات التصنيف ، نستخدم تقنية التعلم الآلي Naive Bayes. تدعمها نظرية بايز. إنها واحدة من خوارزميات التعلم الآلي الأكثر أساسية لكنها قوية قيد الاستخدام ، مع تطبيقات في مجموعة متنوعة من الصناعات. لنفترض أنك تعمل على مشكلة تصنيف وقمت بالفعل بتأسيس الميزات والفرضيات ، لكن رئيسك يريد رؤية النموذج. لتدريب مجموعة البيانات ، لديك عدد كبير من نقاط البيانات (آلاف نقاط البيانات) وعدد كبير من المتغيرات. سيكون مصنف Naive Bayes ، الأسرع بكثير من خوارزميات التصنيف الأخرى ، هو الخيار الأفضل في هذا الظرف.
ما هي بعض مزايا وعيوب بايز ساذجة؟
بالنسبة لقضايا التنبؤ متعددة الفئات ، يعد Naive Bayes اختيارًا جيدًا. إذا ظلت فرضية استقلالية الميزة صحيحة ، فيمكنها أن تتفوق على النماذج الأخرى أثناء استخدام بيانات تدريب أقل بكثير. تعد متغيرات الإدخال الفئوية أكثر ملاءمة لـ Naive Bayes من متغيرات الإدخال الرقمية.
في Naive Bayes ، يُفترض أن جميع المتنبئين (أو السمات) مستقلة ، وهو ما نادرًا ما يحدث في الحياة الواقعية. هذا يحد من قابلية استخدام الخوارزمية في سيناريوهات العالم الحقيقي. لا يجب أن تأخذ نواتجها الاحتمالية على محمل الجد لأن تقديراتها يمكن أن تكون متوقفة في بعض الحالات.
ما هي بعض التطبيقات الواقعية لبايز ساذجة؟
بسبب فرضيتها على الاستقلالية والأداء العالي في معالجة المشاكل متعددة الطبقات ، كثيرا ما يستخدم Naive Bayes في تصنيف النص. يعد تحليل المشاعر أحد أكثر تطبيقات التعلم الآلي شيوعًا ، ويمكن أن تساعد هذه التقنية في ذلك أيضًا. الهدف من تحليل المشاعر هو تحديد ما إذا كان العملاء لديهم مشاعر إيجابية أو سلبية حول قضية معينة (منتج أو خدمة). يستخدم Naive Bayes Classifier التصفية التعاونية لإنشاء نظام توصية معقد يمكنه التنبؤ بما إذا كان المستخدم سيستمتع بمنتج معين (أو مورد) أم لا.