Bayes Theorem
قاعده بیز چیست؟
اگر در مورد علم داده و یادگیری ماشین می آموزید ، احتمالا قبلا ( قاعده بیز ) یا (طبقه بندی بیز ) را شنیده اید . این مفاهیم می توانند تا حدودی گیج کننده باشند، به خصوص اگر عادت به فکر کردن به احتمالات از دیدگاه آمار سنتی و مکرر نداشته باشید . این مقاله سعی خواهد کرد تا اصول پشت قاعده بیز و نحوه استفاده از آن در یادگیری ماشین را توضیح دهد.
قاعده بیز چیست؟
قضیه بیز روشی برای محاسبه احتمال شرطی است ؛ روش سنتی محاسبه احتمال شرطی ( احتمال وقوع یک رویداد با توجه به وقوع یک رویداد متفاوت ) استفاده از فرمول احتمال شرطی ، محاسبه احتمال مشترک رویداد یک و رویداد دو در یک زمان و سپس تقسیم آن است. با احتمال وقوع رویداد دو با این حال ، احتمال شرطی را نیز می توان با استفاده از قضیه بیز به روشی متفاوت محاسبه کرد .
هنگام محاسبه احتمال شرطی با قضیه بیز، از مراحل زیر استفاده می کنید:
- احتمال درست بودن شرط B را با فرض درست بودن شرط A تعیین کنید.
- احتمال واقعی بودن رویداد A را تعیین کنید.
- دو احتمال را با هم ضرب کنید.
- تقسیم بر احتمال وقوع رویداد B.
این بدان معنی است که فرمول قضیه بیز را می توان به صورت زیر بیان کرد:
P(A|B) = P(B|A)*P(A) / P(B)
محاسبه احتمال شرطی مانند این ، به ویژه زمانی مفید است که احتمال شرطی معکوس را بتوان به راحتی محاسبه کرد ، یا زمانی که محاسبه احتمال مشترک بسیار چالش برانگیز است .
مثالی از قضیه بیز
اگر کمی وقت بگذاریم که چگونه استدلال بیزی و قاعده بیز را به کار ببریم ،تفسیر این موضوع ساده تر خواهد بود . فرض کنیم شما در حال انجام یک بازی ساده بودید که در آن چندین شرکت کننده ، داستانی را برای شما تعریف می کنند و شما باید تعیین کنید که کدام یک از شرکت کنندگان به شما دروغ می گوید ؛ بیایید معادله قضیه بیز را با متغیرهای این سناریوی فرضی پر کنیم.
ما در حال تلاش برای پیشبینی هستیم که آیا هر فرد در بازی دروغ میگوید یا راست میگوید ؛ بنابراین اگر سه بازیکن جدا از شما وجود دارد ، متغیرهای طبقهبندی میتوانند به صورت A1، A2 و A3 بیان شوند . دلیل دروغ و حقیقت آنها ، رفتار آنهاست . مانند زمانی که پوکر بازی میکنید ، به دنبال «اطلاعات» مشخصی میگردید که یک شخص دروغ میگوید و از آنها بهعنوان اطلاعاتی برای اطلاع از حدس خود استفاده میکنید . یا اگر به شما اجازه داده شود که از آنها سؤال کنید ، این مدرکی است که داستان آنها با هم جمع نمی شود . ما می توانیم شواهدی مبنی بر دروغ گفتن یک شخص به عنوان B ارائه کنیم.
برای انجام این کار (دروغ میگوید یا راست ، با توجه به شواهد رفتار آنها ) میخواهیم احتمال B داده شده با A ، یا احتمال وقوع رفتار آنها را با توجه به اینکه شخص واقعاً دروغ میگوید یا حقیقت را میگوید ، دریابیم . شما در حال تلاش برای تعیین اینکه تحت چه شرایطی ، رفتاری که می بینید منطقی تر است . اگر سه رفتار وجود دارد که شاهد آن هستید ( « P« B1، B2 ، B3 *A) این محاسبه را برای هر رفتار و هر فرد غیر از خودتان انجام دهید . این قسمتی از معادله بالاست :
P(B1، B2، B3،|A) * P|A
در نهایت ، ما فقط آن را بر احتمال B تقسیم می کنیم .
اگر ما شواهدی در مورد احتمالات واقعی در این معادله دریافت کردیم ، مدل احتمال خود را با در نظر گرفتن شواهد جدید بازسازی خواهیم کرد . با این روش شما پیشفرضهایتان را بهروزرسانی میکنید .
کاربردهای یادگیری ماشین برای قضیه بیز
رایج ترین استفاده از قضیه بیز در مورد یادگیری ماشینی ، د ر قالب الگوریتم ساده بیز است
Naive Bayes برای طبقه بندی مجموعه داده ها دوتایی و چندتایی استفاده می شود . مقادیر تخصیص یافته به شواهد و ویژگی های مستقل تصور میشوند. فرض بر این است که این ویژگی ها به جای تلاش برای انجام کار پیچیده محاسبه روابط بین هر یک از ویژگی ها ، برای ساده کردن مدل و امکان محاسبات بر یکدیگر تأثیر نمی گذارند . علیرغم این مدل ساده شده ، Naive Bayes تمایل دارد به عنوان یک الگوریتم طبقه بندی کاملاً خوب عمل کند ؛ حتی زمانی که این فرض احتمالاً درست نیست ( که در بیشتر مواقع درست است ) .
Naive Bayes مانند Multinomial Naive Bayes، Bernoulli Naive Bayes و Gaussian Naive به انواع متداول طبقه بندی شده است که اغلب برای اسناد استفاده می شود ؛ زیرا در تفسیر فراوانی کلمات در یک سند ، الگوریتم های چند جمله ای موثر است .
اما پیشبینیهای ارائهشده توسط الگوریتم ، بولی Naive Bayes مشابه چند جمله ای Bernoulli Naive Bayes این بدان معناست که هنگام پیشبینی یک کلاس ، مقادیر باینری(دوتایی ) خیر یا بله خواهند بود . در حوزه طبقهبندی متن ، الگوریتم برنولی نایو بیز پارامترها را بر اساس یافتن یا عدم یافتن کلمه در سند متنی ، بله یا خیر اختصاص میدهد .
https://www.unite.ai/what-is-bayes-theorem/