Bayeslarning empirik tahlili

By 08.09.2021 08.09.2021

Bayes ma'lumotlarini empirik tahlil qilish - bu tez -tez uchraydigan usullarga jozibali muqobil bo'lgan usullar to'plami, masalan, gipotezaning ahamiyatsizligini tekshirish, chiziqli regressiya, logistik regressiya, Variantlarni tahlil qilish (ANOVA). Bayes ma'lumotlarini tahlil qilish uchun maxsus asboblar (masalan, STAN) mavjud bo'lsa -da, bu foydalanish ehtimoli dasturlashning universalligi va umumiy qo'llanilishini ko'rsatadi.

Ma'lumotlar cheklangan holda tanganing halolligini tekshirish

Tanganing adolatli yoki adolatsizligini aniqlashdan oldin, qancha tanga tashlashni ko'rish kerak?

Tasavvur qiling, kimdir tanga bir marta tashlaydi ... ikki marta ... uch marta va siz ketma -ket uchta "boshni" ko'rasiz. Bu tanganing adolatsiz ekanligining kuchli isboti (50/50 emas)? Bu adolatli yoki adolatsiz tanga ekanligini hal qilish uchun yana qancha ketma -ket "bosh" ko'rish kerak?

Tanganing adolatli ekanligini tekshirish - bu "statistik xulosaning asosiy g'oyalarini tasvirlaydigan oddiy muammo, shuningdek, statistik xulosaning turli raqobatbardosh usullarini solishtirish uchun ishlatilishi mumkin bo'lgan oddiy masala" * cheklangan ma'lumot.

* Vikipediyada bu erda yaxshi maqola bor, shu jumladan Bayes yondashuvini (aniq sonlar va oldingi bilimlar) va tez -tez uchraydigan yondashuvni taqqoslash.

Garchi bu muammo ehtimolliklarni analitik tarzda hisoblash uchun etarlicha sodda bo'lsa -da, ehtimol, dasturiy ma'lumotlarni empirik tahlil qilish va empirik xulosalar chiqarish uchun qanday foydalanish mumkinligini ko'rsatishni boshlash juda yaxshi muammodir, chunki biz o'z natijalarimizni tahlilning aniq natijalari bilan solishtirishimiz mumkin. Misol uchun, bu erda bir xil shartlarga ega bo'lgan ikkita uchastka bor: oldingi = bir xil taqsimot, 10 ta tashlanishdan 7 ta boshning isboti. Chapda analitik yechim, o'ngda esa quyida joylashgan dasturdan chiqadi.

"Adolat" nima? (Bir oz subyektivlik)

Biz, odatda, ega, deb adolatli Tanganing deb o'ylayman-da , aynan rahbarlarining 0,5 ehtimolini, bu qo'limizdan (yoki shart) tanga (o'zboshimchalik ko'p) juda ko'p marta chayqala, deb ta'kidlaydi bir ideallashtirish hisoblanadi. Agar biz tangani bir necha yoki ko'p marta tashlashimizni oldindan bilsak, biz tangani "adolatli" deb qabul qilishimiz mumkin, ehtimol bu 0,5 ga yaqin. Qancha yaqin? Bu qaror qabul qiluvchiga va ma'lumot bilan nima qilishingizga bog'liq. Siz pul tikasizmi? Siz eng adolatli (yoki adolatsiz) tanga uchun tangalarni taqqoslayapsizmi?

Bizning holatda, biz "adolatli" deb ta'rif beramiz. Tanga adolatli ekanligini ehtimoli quyidagi rasmda ko'rsatilgandek qilib rahbarlari ehtimoli taqsimlash berilgan, chegaralari 0,4 va 0,6 orasida egri ostida qolgan maydon sifatida belgilangan.

". egri ostidagi maydon.": Shuning uchun ehtimollik va statistikani doimiy ravishda taqsimot taqsimoti bilan shug'ullana boshlaganingizda hisob -kitob talab qilinadi. E'tibor bering, agar biz p = 0,5 ni "adolatli" deb qabul qilgan bo'lsak, soyali maydon nolga teng bo'lardi!

Agar bu bir xil (tekis) taqsimot bo'lsa -chi? Shunda adolatli tanga ehtimoli ancha past bo'ladi, chunki bu massa ichkariga qaraganda ancha katta. Bu haqda bir necha soniya o'ylab ko'ring . Tahlilchilar va modelerlar, agar tasodifiy o'zgaruvchi chegaralangan bo'lsa (bu holda), avvalgi taqsimot sifatida bir xil taqsimotlardan foydalanishga moyil, chunki, ehtimolning qiymati haqida hech narsa o'ylamaslik o'zini xavfsizroq his qiladi . Ammo, bu holda, siz ko'pchilik tangalar bir yoqlama ekanligi haqida juda kuchli taxmin qilmoqdasiz. Agar sizda ozgina dalillar bo'lsa (masalan, bir nechta tashlama), bu g'alati xulosalar va qarorlarga olib kelishi mumkin.

Agar sizning oldingi yoki keyingi taqsimotingiz tor va "adolatli" diapazonda to'plangan bo'lsa, buning aksi bo'ladi. Siz bu ta'sirlarni keyingi tajribada ko'rasiz.

Tangalar tashlash tajribasining Bayes tahlillari

Mana, eksperimental sozlash. Tanganing umumiy zarbasi bor, K dan numH = boshlar soni ("H"), lekin faqat birinchi N kuzatiladi. Shunday qilib, K "mumkin bo'lgan eng uzoq yugurish" yoki "barcha mumkin bo'lgan ma'lumotlar" ni aniqlaydi va numH / K nisbati "boshlarni" (aka) tashlash ehtimolining "asosiy haqiqati" dir. Agar 0,5 ga yaqin bo'lsa, tanga adolatli.

Dasturni bajarish va natijalarni yaratish uchun quyidagi kod qutisi ostidagi ishga tushirish tugmasini bosing.

Dastlab K = 10; N = 10; numH = 7, shuning uchun. Qachonki, bu sizning barcha mavjud ma'lumotlarni ko'rayotganingizni anglatadi . Agar siz faqat bir qismini ko'rsangiz. Siz ularni har qanday musbat tamsayıga qo'yishingiz mumkin; va; . N = 1 (bitta tortishish) yoki N = 3 ni o'rnatishga harakat qiling yoki K ni proportsional numH bilan ko'p sonli qilib o'rnating.

Oldindan taqsimlanishi har xil bo'lgan uchta model

Oldindan bilishning uchta holati bilan ushbu sozlamalarning har birida nima sodir bo'lishiga e'tibor bering: 1) ma'lumotsiz (bir xil taqsimlash); 2) biroz ma'lumotli (beta tarqatish); va 3) juda ma'lumotli (tor Gauss taqsimoti).

Tajribani tushunishda unchalik muhim bo'lmagan kod va sharhlar "/// fold:` so'llari bilan yashiringan. Ushbu kodni ko'rish uchun tugmachani bosish kifoya. . . kod qutisidagi tugma.

Natijalarni tahlil qilish - Odatiy parametrlar bilan (10 ta tashlanishning 7 tasi "H"), siz birinchi navbatda, uchta xulosa so'rovining o'rtacha qiymatini 0,5 dan yuqori qiymatga qaytarganini ko'rasiz, bu tanganing bosh tomonga burilganligini ko'rsatadi. Ammo adolat uchun statistik test har uchalada ham har xil natijalarni beradi. A modeli (oldindan ma'lumotsiz) ehtimolning katta qismini (taxminan 0,75) qo'yadi. B modeli (biroz ma'lumotli) taxminan bir xil. Ammo C modeli (juda ma'lumotli) qarama -qarshi natijani qaytaradi, bu erda ehtimollik taxminan 0,69.

Chunki, uchta modelning ichida C modeli yangi ma'lumotlar bilan o'zgarishga eng chidamli hisoblanadi. Qaysidir ma'noda, deyarli barcha tangalar adolatli ekanligi haqidagi bilimdan (farazdan) voz kechish uchun ko'p dalillar kerak. Bundan farqli o'laroq, A modeli, hatto dalillarning bir bo'lagi bilan ham osonlikcha chayqaladi. Buni ko'rish uchun N = 1 ni o'zgartiring; (bitta tanga tashlash) va yana ishga tushirish tugmasini bosing.

Siz Model A uchun ehtimollik zichligi funktsiyasining (PDF) chiqishi keskin ta'sirlanganini ko'rasiz, B modeliga esa biroz ta'sir qiladi va C modelining chiqishi deyarli ta'sir qilmaydi. Bayeslik tahlilchilar va modellar sifatida biz doimo o'ylashimiz kerak:

Dalillar qanchalik ta'sir qilishi kerak?

(ko'proq sub'ektivlik)

Qaysi model, konditsioner va xulosa chiqarish usullaridan foydalansangiz, har doim kuzatuvlar (dalillar, cheklovlar va boshqalar) oldingi taqsimotlarga qanchalik ta'sir qilishini bilishingiz kerak. Oldingi boblarda aytib o'tilganidek, Infer () funktsiyasi WebPPL tomonidan sizning modelingizning barcha (yoki deyarli hamma keng tarqalgan) izlari (masalan, dasturning qolgan qismi) uchun og'irliklarni hisoblash uchun ishlatiladi. Kuzatish (), shart () va omil () kabi funktsiyalar ehtimollik o'lchov operatsiyalarini bajaradi. Odatiy konfiguratsiyada biz observ (.) Funktsiyasidan foydalanamiz:

... buni bajaradi: "kuzatilgan obsH boshlari soni, bu iz ma'lumotlari H tomonidan ishlab chiqarilgan ma'lumotlar (boshlar soni) bilan bir xil bo'lsa, Gauss shovqinining kichik atamasi bilan, hozirgi izning yuqori bo'lish ehtimolini belgilang; Aks holda, ehtimollikni past qiymatga qo'ying. ”

Ushbu yondashuvning ba'zi afzalliklari bor, lekin salbiy tomonlari ham bor. Masalan, unda dalillar miqdori, ya'ni tashlanganlar soni hisobga olinmaydi. Ko'pchilik, tangani bir marta urish unchalik dalil emasligini va yuz marta tashlash juda ko'p ekanligini sezadi, ikkinchisi birinchisiga qaraganda og'irroq bo'lishi kerak.

Buni hisobga olish uchun yuqoridagi kodni tahrir qilishingiz mumkin, bu faktor (.) Bayonotiga izoh qoldirmasdan, shuningdek, observ (.) Bayonotiga izoh berishingiz mumkin. Tajribani har xil, ya'ni 1, 3 va 10 qiymatlari bilan qaytadan ishga tushiring. Siz ko'rib turganingizdek, eng sezgir modellar (A va B) bir martalik zarbaga avvalgidan ko'ra sezgir emas. Amaldagi omil () ifodasi:

... buni amalga oshiradi: "agar yaratilgan dataH ma'lumotlari soni obsH kuzatilgan boshlar soniga teng bo'lsa, jurnal ehtimolini o'zgartirmang (eslatma:), aks holda jurnal ehtimolini kamaytiring.". Qanchalik katta bo'lsa, shartga mos kelmaydigan dastur izlari uchun jazo shunchalik katta bo'ladi. Siz hayron bo'lishingiz mumkin: "2.5 qaerdan paydo bo'ldi?" Bu tahlilchi (men) va mening "sinov va xato" dan keldi. Men urinib ko'rganimda, ehtimollik jazosi juda katta edi. Men urinib ko'rganimda, ehtimollik jazosi juda kichik edi. Vazifalarni o'lchash funktsiyalari qanday bo'lishidan qat'i nazar, siz natijalarga qanday ta'sir qilishini tushunish uchun turli xil qadriyatlar va funktsiyalarni o'rganishingiz kerak, so'ngra yakuniy tanlovingizning asosini ishlab chiqishingiz kerak. (Bunday holda, biz qo'shimcha tajribalardan olingan ma'lumotni hisobga olgan holda, ehtimollik taxminlarini qanchalik o'zgartirganini ko'rish uchun insoniy tajribalar o'tkazishimiz mumkin edi.)

Xulosa shuki, dalillar ta'siri sub'ektivlik darajasiga ega, lekin siz tahlilchi sifatida muqobillarni o'rganishingiz va (odatda) funktsiyalar va parametrlarning oqilona va asosli tanloviga erishishingiz mumkin.

Nima uchun bu xulosa usullari?

Hozircha biz ushbu model uchun tanlangan ikkita xulosa usulini muhokama qilmadik, lekin bu tanlovlarni tushuntirishga arziydi.

Asosiy model "Markov zanjiri Monte-Karlo" (MCMC) ma'nosini anglatuvchi "MCMC" usulidan foydalanadi va "Metropolis-Xastings" ma'nosini anglatuvchi "MH" (MH) dan foydalanadi. MCMC juda yaxshi xulosa chiqarish usulidir, agar sizning modelingiz hech bo'lmaganda uzluksiz tasodifiy o'zgaruvchilardan iborat bo'lsa va agar taqsimot "yaxshi muomala qilingan" bo'lsa (ya'ni, massaning ko'p qismi o'rtacha darajaga yaqin bo'lsa, unchalik baland emas, dumlari og'ir emas va hokazo). .). MH yadrosi foydalanish uchun juda xavfsiz, lekin uni sekin birlashtirish mumkin. Konditsionerlik paytida biz ijro etish vaqti haqida qayg'urmaymiz, shuning uchun biz MCMC va MHdan qoniqishimiz mumkin. Tasodifiy o'zgaruvchilar uzluksiz taqsimotga ega bo'lgani uchun biz faqat diskret tasodifiy o'zgaruvchilar bilan ishlaydigan xulosa chiqarish usullaridan foydalana olmaymiz, masalan, "Ro'yxatga olish".

"FairTest" modeli "oldinga" usulini qo'llaydi, bu shunchaki: "dasturni ma'lum vaqtlarda (misollar: 1000) ishga tushirish va ularning ehtimolligi izlarini ularning tezligi bo'yicha o'lchash" degan ma'noni anglatadi. Bu shunchaki Monte -Karlo simulyatsiyasi. Biz bu xulosa chiqarish usulini tanlaymiz, chunki 1) ma'lumotlarni shartlash bo'yicha kuzatuvlar yo'q va 2) tasodifiy o'zgaruvchi doimiy.