پیتھون سادہ بیز ایپلی کیشنز

مصنف:چھوٹا سا خواب, تخلیق: 2017-03-28 12:42:14, تازہ کاری: 2017-03-28 12:43:01

پیتھون سادہ بیز ایپلی کیشنز

پیش گوئی کرنے والے متغیرات کے مابین باہمی آزادی کی شرط پر ، بیزوس کے نظریے کے مطابق ، بیزوس کی درجہ بندی کا ایک سادہ سا طریقہ ملتا ہے۔ مزید آسان الفاظ میں ، ایک بیزوس درجہ بندی کرنے والا فرض کرتا ہے کہ درجہ بندی کی ایک خصوصیت اس درجہ بندی کی دیگر خصوصیات سے وابستہ نہیں ہے۔ مثال کے طور پر ، اگر ایک پھل گول اور سرخ ہے ، اور اس کا قطر تقریبا 3 انچ ہے تو ، یہ پھل سیب ہوسکتا ہے۔ یہاں تک کہ اگر یہ خصوصیات ایک دوسرے پر منحصر ہیں ، یا دوسری خصوصیات کی موجودگی پر منحصر ہیں ، بیزوس درجہ بندی کرنے والا یہ فرض کرتا ہے کہ یہ خصوصیات انفرادی طور پر اس پھل کو سیب کی طرف اشارہ کرتی ہیں۔

  • سادہ Bayesian ماڈل تعمیر کرنا آسان ہے اور بڑے ڈیٹا سیٹوں کے لئے بہت مفید ہے۔ اگرچہ سادہ ، لیکن سادہ Bayesian کارکردگی بہت زیادہ پیچیدہ درجہ بندی کے طریقوں سے آگے بڑھتی ہے۔

    بیزس تھیورمیٹ نے P©، P (x) اور P (x) کے بعد ہونے والے تجربات کے امکانات P (c) کے حساب کا ایک طریقہ فراہم کیا ہے۔ ذیل میں مساوات ملاحظہ کریں:

    img

    یہاں،

    p (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c) x (c P© کلاس کا پیشگی امکان ہے۔ P (x ∈ c) امکان ہے، یعنی نامعلوم قسم کی شرائط کے تحت پیش گوئی کرنے والے متغیر کا امکان۔ P (x) ایک متغیر کی پیش گوئی کا امکان ہے مثال: آئیے اس تصور کو ایک مثال کے ساتھ سمجھیں۔ ذیل میں ، میرے پاس موسم کا ٹریننگ سیٹ اور اس کے مساوی ہدف متغیر پلے پلے ہے۔ اب ، ہمیں موسم کی صورتحال کے مطابق درجہ بندی کرنے کی ضرورت ہے ، جو شرکاء کھیل رہے ہیں اور جو کھیل نہیں رہے ہیں۔ آئیے مندرجہ ذیل اقدامات پر عمل کریں۔

    مرحلہ 1: ڈیٹا سیٹ کو فریکوئنسی ٹیبل میں تبدیل کریں۔

    مرحلہ 2: اس طرح کی شرائط کا استعمال کرتے ہوئے ، جب اوورکاسٹ کا امکان 0.29 ہے ، تو کھیلنے کا امکان 0.64 ٹن ہے ، جس سے امکان کی میز بن جاتی ہے۔

    img

    مرحلہ نمبر 3: اب ، ہر قسم کے بعد کے امکانات کا حساب لگانے کے لئے سادہ Bayesian مساوات کا استعمال کریں۔ سب سے زیادہ بعد کے امکانات والی قسم پیش گوئی کا نتیجہ ہے۔

    سوال: اگر موسم اچھا ہے تو ، شرکاء کھیل سکتے ہیں۔ کیا یہ بیان درست ہے؟

    ہم اس مسئلے کو حل کرنے کے لئے اس طریقہ کار کو استعمال کر سکتے ہیں جس کے بارے میں ہم نے بات کی ہے۔ لہذا P (کھیل) = P (کھیل) * P (کھیل) / P (کھیل)

    ہمارے پاس P ہے 3/9 = 0.33، P = 5/14 = 0.36، P = 9/14 = 0.64

    اب، P (کھیلنے کے لئے) = 0.33 * 0.64 / 0.36 = 0.60, زیادہ امکان ہے.

    سادہ بیزس نے ایک اسی طرح کا طریقہ استعمال کیا جس میں مختلف قسم کے امکانات کی پیش گوئی کی گئی ہے۔ یہ الگورتھم عام طور پر متن کی درجہ بندی کے لئے استعمال کیا جاتا ہے ، اور متعدد قسموں سے متعلق مسائل کے لئے بھی استعمال ہوتا ہے۔

  • پیتھون کوڈ:

# لائبریری درآمد کریں سے sklearn.naive_bayes درآمد GaussianNB # فرض کریں کہ آپ کے پاس ہے، X (پریڈیکٹر) اور Y (ہدف) ٹریننگ ڈیٹا سیٹ کے لئے اور x_test(پریڈیکٹر) test_dataset کے

SVM درجہ بندی آبجیکٹ ماڈل بنائیں = GaussianNB()

برنولی Naive Bayes، حوالہ لنک کی طرح کثیر مقصدی کلاسوں کے لئے ایک اور تقسیم ہے

ٹریننگ سیٹ کا استعمال کرتے ہوئے ماڈل کی تربیت اور اسکور چیک کریں

model.fit(X، y) #پیش گوئی آؤٹ پٹ predicted= model.predict ((x_test)


مزید