🏷️sec_distributions
Artık hem kesikli hem de sürekli ortamda olasılıkla nasıl çalışılacağını öğrendiğimize göre, şimdi karşılaşılan yaygın dağılımlardan bazılarını öğrenelim. Makine öğrenmesi alanına bağlı olarak, bunlardan çok daha fazlasına aşina olmamız gerekebilir; derin öğrenmenin bazı alanları için potansiyel olarak hiç kullanılmıyorlar. Ancak bu, aşina olunması gereken iyi bir temel listedir. Önce bazı ortak kütüphaneleri içeri aktaralım.
%matplotlib inline
from d2l import mxnet as d2l
from IPython import display
from math import erf, factorial
import numpy as np
#@tab pytorch
%matplotlib inline
from d2l import torch as d2l
from IPython import display
from math import erf, factorial
import torch
torch.pi = torch.acos(torch.zeros(1)) * 2 # Pi'yi tanımla
#@tab tensorflow
%matplotlib inline
from d2l import tensorflow as d2l
from IPython import display
from math import erf, factorial
import tensorflow as tf
import tensorflow_probability as tfp
tf.pi = tf.acos(tf.zeros(1)) * 2 # Pi'yi tanımla
Bu, genellikle karşılaşılan en basit rastgele değişkendir. Bu rastgele değişken,
Birikimli dağılım fonksiyonu şöyledir:
$$F(x) = \begin{cases} 0 & x < 0, \ 1-p & 0 \le x < 1, \ 1 & x >= 1 . \end{cases}$$
:eqlabel:eq_bernoulli_cdf
Olasılık kütle fonksiyonu aşağıda çizilmiştir.
#@tab all
p = 0.3
d2l.set_figsize()
d2l.plt.stem([0, 1], [1 - p, p], use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
Şimdi, :eqref:eq_bernoulli_cdf
birikimli dağılım fonksiyonunu çizelim.
x = np.arange(-1, 2, 0.01)
def F(x):
return 0 if x < 0 else 1 if x > 1 else 1 - p
d2l.plot(x, np.array([F(y) for y in x]), 'x', 'c.d.f.')
#@tab pytorch
x = torch.arange(-1, 2, 0.01)
def F(x):
return 0 if x < 0 else 1 if x > 1 else 1 - p
d2l.plot(x, torch.tensor([F(y) for y in x]), 'x', 'c.d.f.')
#@tab tensorflow
x = tf.range(-1, 2, 0.01)
def F(x):
return 0 if x < 0 else 1 if x > 1 else 1 - p
d2l.plot(x, tf.constant([F(y) for y in x]), 'x', 'c.d.f.')
Eğer
-
$\mu_X = p$ , -
$\sigma_X^2 = p(1-p)$ .
Bir Bernoulli rastgele değişkeninden keyfi şekilli bir diziyi aşağıdaki gibi örnekleyebiliriz.
1*(np.random.rand(10, 10) < p)
#@tab pytorch
1*(torch.rand(10, 10) < p)
#@tab tensorflow
tf.cast(tf.random.uniform((10, 10)) < p, dtype=tf.float32)
Bir sonraki yaygın karşılaşılan rastgele değişken, ayrık bir tekdüzedir. Buradaki tartışmamız için,
Birikimli dağılım fonksiyonunu böyledir:
$$F(x) = \begin{cases} 0 & x < 1, \ \frac{k}{n} & k \le x < k+1 \text{ öyleki } 1 \le k < n, \ 1 & x >= n . \end{cases}$$
:eqlabel:eq_discrete_uniform_cdf
İlk olarak olasılık kütle fonksiyonunu çizelim.
#@tab all
n = 5
d2l.plt.stem([i+1 for i in range(n)], n*[1 / n], use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
Şimdi, :eqref:eq_discrete_uniform_cdf
birikimli dağılım fonksiyonunu çizelim.
x = np.arange(-1, 6, 0.01)
def F(x):
return 0 if x < 1 else 1 if x > n else np.floor(x) / n
d2l.plot(x, np.array([F(y) for y in x]), 'x', 'c.d.f.')
#@tab pytorch
x = torch.arange(-1, 6, 0.01)
def F(x):
return 0 if x < 1 else 1 if x > n else torch.floor(x) / n
d2l.plot(x, torch.tensor([F(y) for y in x]), 'x', 'c.d.f.')
#@tab tensorflow
x = tf.range(-1, 6, 0.01)
def F(x):
return 0 if x < 1 else 1 if x > n else tf.floor(x) / n
d2l.plot(x, [F(y) for y in x], 'x', 'c.d.f.')
Eğer
-
$\mu_X = \frac{1+n}{2}$ , -
$\sigma_X^2 = \frac{n^2-1}{12}$ .
Aşağıdaki gibi, ayrık bir tekdüze rastgele değişkenden keyfi şekilli bir diziyi örnekleyebiliriz.
np.random.randint(1, n, size=(10, 10))
#@tab pytorch
torch.randint(1, n, size=(10, 10))
#@tab tensorflow
tf.random.uniform((10, 10), 1, n, dtype=tf.int32)
Şimdi, sürekli tekdüze dağılımı tartışalım. Bu rastgele değişkenin arkasındaki fikir şudur: Ayrık tekdüze dağılımdaki
Olasılık yoğunluk fonksiyonu şöyledir:
$$p(x) = \begin{cases} \frac{1}{b-a} & x \in [a, b], \ 0 & x \not\in [a, b].\end{cases}$$
:eqlabel:eq_cont_uniform_pdf
Birikimli dağılım fonksiyonunu şöyledir:
$$F(x) = \begin{cases} 0 & x < a, \ \frac{x-a}{b-a} & x \in [a, b], \ 1 & x >= b . \end{cases}$$
:eqlabel:eq_cont_uniform_cdf
Önce, :eqref:eq_cont_uniform_pdf
olasılık yoğunluk dağılımı fonksiyonunu çizelim.
a, b = 1, 3
x = np.arange(0, 4, 0.01)
p = (x > a)*(x < b)/(b - a)
d2l.plot(x, p, 'x', 'p.d.f.')
#@tab pytorch
a, b = 1, 3
x = torch.arange(0, 4, 0.01)
p = (x > a).type(torch.float32)*(x < b).type(torch.float32)/(b-a)
d2l.plot(x, p, 'x', 'p.d.f.')
#@tab tensorflow
a, b = 1, 3
x = tf.range(0, 4, 0.01)
p = tf.cast(x > a, tf.float32) * tf.cast(x < b, tf.float32) / (b - a)
d2l.plot(x, p, 'x', 'p.d.f.')
Şimdi, :eqref:eq_cont_uniform_cdf
birikimli dağılım fonksiyonunu çizelim.
def F(x):
return 0 if x < a else 1 if x > b else (x - a) / (b - a)
d2l.plot(x, np.array([F(y) for y in x]), 'x', 'c.d.f.')
#@tab pytorch
def F(x):
return 0 if x < a else 1 if x > b else (x - a) / (b - a)
d2l.plot(x, torch.tensor([F(y) for y in x]), 'x', 'c.d.f.')
#@tab tensorflow
def F(x):
return 0 if x < a else 1 if x > b else (x - a) / (b - a)
d2l.plot(x, [F(y) for y in x], 'x', 'c.d.f.')
Eğer
-
$\mu_X = \frac{a+b}{2}$ , -
$\sigma_X^2 = \frac{(b-a)^2}{12}$ .
Aşağıdaki gibi tekdüze bir rastgele değişkenden keyfi şekilli bir diziyi örnekleyebiliriz. Bunun
(b - a) * np.random.rand(10, 10) + a
#@tab pytorch
(b - a) * torch.rand(10, 10) + a
#@tab tensorflow
(b - a) * tf.random.uniform((10, 10)) + a
İşleri biraz daha karmaşık hale getirelim ve iki terimli (binom) rastgele değişkeni inceleyelim. Bu rastgele değişken, her birinin başarılı olma olasılığı
Bunu matematiksel olarak ifade edelim. Her deney, başarıyı kodlamak için
Bu durumda, böyle yazacağız:
Birikimli dağılım işlevini elde etmek için, tam olarak
$$F(x) = \begin{cases} 0 & x < 0, \ \sum_{m \le k} \binom{n}{m} p^m(1-p)^{n-m} & k \le x < k+1 \text{ öyleki } 0 \le k < n, \ 1 & x >= n . \end{cases}$$
:eqlabel:eq_binomial_cdf
İlk olarak olasılık kütle fonksiyonu çizelim.
n, p = 10, 0.2
# Binom katsayısını hesapla
def binom(n, k):
comb = 1
for i in range(min(k, n - k)):
comb = comb * (n - i) // (i + 1)
return comb
pmf = np.array([p**i * (1-p)**(n - i) * binom(n, i) for i in range(n + 1)])
d2l.plt.stem([i for i in range(n + 1)], pmf, use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
#@tab pytorch
n, p = 10, 0.2
# Binom katsayısını hesapla
def binom(n, k):
comb = 1
for i in range(min(k, n - k)):
comb = comb * (n - i) // (i + 1)
return comb
pmf = d2l.tensor([p**i * (1-p)**(n - i) * binom(n, i) for i in range(n + 1)])
d2l.plt.stem([i for i in range(n + 1)], pmf, use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
#@tab tensorflow
n, p = 10, 0.2
# Binom katsayısını hesapla
def binom(n, k):
comb = 1
for i in range(min(k, n - k)):
comb = comb * (n - i) // (i + 1)
return comb
pmf = tf.constant([p**i * (1-p)**(n - i) * binom(n, i) for i in range(n + 1)])
d2l.plt.stem([i for i in range(n + 1)], pmf, use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
Şimdi, :eqref:eq_binomial_cdf
birikimli dağılım fonksiyonunu çizelim.
x = np.arange(-1, 11, 0.01)
cmf = np.cumsum(pmf)
def F(x):
return 0 if x < 0 else 1 if x > n else cmf[int(x)]
d2l.plot(x, np.array([F(y) for y in x.tolist()]), 'x', 'c.d.f.')
#@tab pytorch
x = torch.arange(-1, 11, 0.01)
cmf = torch.cumsum(pmf, dim=0)
def F(x):
return 0 if x < 0 else 1 if x > n else cmf[int(x)]
d2l.plot(x, torch.tensor([F(y) for y in x.tolist()]), 'x', 'c.d.f.')
#@tab tensorflow
x = tf.range(-1, 11, 0.01)
cmf = tf.cumsum(pmf)
def F(x):
return 0 if x < 0 else 1 if x > n else cmf[int(x)]
d2l.plot(x, [F(y) for y in x.numpy().tolist()], 'x', 'c.d.f.')
Eğer
-
$\mu_X = np$ , -
$\sigma_X^2 = np(1-p)$ .
Bu,
np.random.binomial(n, p, size=(10, 10))
#@tab pytorch
m = torch.distributions.binomial.Binomial(n, p)
m.sample(sample_shape=(10, 10))
#@tab tensorflow
m = tfp.distributions.Binomial(n, p)
m.sample(sample_shape=(10, 10))
Şimdi bir düşünce deneyi yapalım. Bir otobüs durağında duruyoruz ve önümüzdeki dakika içinde kaç otobüsün geleceğini bilmek istiyoruz.
Ancak, yoğun bir bölgedeysek, iki otobüsün gelmesi mümkün veya hatta muhtemeldir. Bunu, rastgele değişkenimizi ilk 30 saniye veya ikinci 30 saniye için ikiye bölerek modelleyebiliriz. Bu durumda bunu yazabiliriz:
burada
Neden burada duralım? O dakikayı
eq_eq_poisson_approx
Bu rastgele değişkenleri düşünün. Önceki bölümden şunu biliyoruz :eqref:eq_eq_poisson_approx
, ortalama
Bu çok fazla sürpriz olmamalı, çünkü gerçek dünyada sadece otobüslerin geliş sayısını sayabiliyoruz, ancak matematiksel modelimizin iyi tanımlandığını görmek güzel. Bu tartışma, nadir olaylar yasası olarak kurallı yapılabilir.
Bu akıl yürütmeyi dikkatlice takip ederek aşağıdaki modele ulaşabiliriz.
eq_poisson_mass
Birikimli dağılım işlevini elde etmek için bu olasılık kütle işlevini toplayabiliriz.
$$F(x) = \begin{cases} 0 & x < 0, \ e^{-\lambda}\sum_{m = 0}^k \frac{\lambda^m}{m!} & k \le x < k+1 \text{ öyleki } 0 \le k. \end{cases}$$
:eqlabel:eq_poisson_cdf
İlk olarak :eqref:eq_poisson_mass
olasılık kütle fonksiyonu çizelim.
lam = 5.0
xs = [i for i in range(20)]
pmf = np.array([np.exp(-lam) * lam**k / factorial(k) for k in xs])
d2l.plt.stem(xs, pmf, use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
#@tab pytorch
lam = 5.0
xs = [i for i in range(20)]
pmf = torch.tensor([torch.exp(torch.tensor(-lam)) * lam**k
/ factorial(k) for k in xs])
d2l.plt.stem(xs, pmf, use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
#@tab tensorflow
lam = 5.0
xs = [i for i in range(20)]
pmf = tf.constant([tf.exp(tf.constant(-lam)).numpy() * lam**k
/ factorial(k) for k in xs])
d2l.plt.stem(xs, pmf, use_line_collection=True)
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.show()
Şimdi, :eqref:eq_poisson_cdf
birikimli dağılım fonksiyonunu çizelim.
x = np.arange(-1, 21, 0.01)
cmf = np.cumsum(pmf)
def F(x):
return 0 if x < 0 else 1 if x > n else cmf[int(x)]
d2l.plot(x, np.array([F(y) for y in x.tolist()]), 'x', 'c.d.f.')
#@tab pytorch
x = torch.arange(-1, 21, 0.01)
cmf = torch.cumsum(pmf, dim=0)
def F(x):
return 0 if x < 0 else 1 if x > n else cmf[int(x)]
d2l.plot(x, torch.tensor([F(y) for y in x.tolist()]), 'x', 'c.d.f.')
#@tab tensorflow
x = tf.range(-1, 21, 0.01)
cmf = tf.cumsum(pmf)
def F(x):
return 0 if x < 0 else 1 if x > n else cmf[int(x)]
d2l.plot(x, [F(y) for y in x.numpy().tolist()], 'x', 'c.d.f.')
Yukarıda gördüğümüz gibi, ortalamalar ve varyanslar özellikle nettir. Eğer
-
$\mu_X = \lambda$ , -
$\sigma_X^2 = \lambda$ .
Bu aşağıdaki gibi örneklenebilir.
np.random.poisson(lam, size=(10, 10))
#@tab pytorch
m = torch.distributions.poisson.Poisson(lam)
m.sample((10, 10))
#@tab tensorflow
m = tfp.distributions.Poisson(lam)
m.sample((10, 10))
Şimdi farklı ama ilişkili bir deney yapalım. Tekrar
Ancak, tüm umudumuzu kaybetmeyelim! Onları tanımlayarak ortalama ve varyansın iyi davranmasını sağlayalım:
Burada ortalama sıfır ve varyans bir olduğu görülebilir ve bunun nedenle bazı sınırlayıcı dağılıma yakınsayacağına inanmak mantıklıdır. Bu dağılımların neye benzediğini çizersek, işe yarayacağına daha da ikna olacağız.
p = 0.2
ns = [1, 10, 100, 1000]
d2l.plt.figure(figsize=(10, 3))
for i in range(4):
n = ns[i]
pmf = np.array([p**i * (1-p)**(n-i) * binom(n, i) for i in range(n + 1)])
d2l.plt.subplot(1, 4, i + 1)
d2l.plt.stem([(i - n*p)/np.sqrt(n*p*(1 - p)) for i in range(n + 1)], pmf,
use_line_collection=True)
d2l.plt.xlim([-4, 4])
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.title("n = {}".format(n))
d2l.plt.show()
#@tab pytorch
p = 0.2
ns = [1, 10, 100, 1000]
d2l.plt.figure(figsize=(10, 3))
for i in range(4):
n = ns[i]
pmf = torch.tensor([p**i * (1-p)**(n-i) * binom(n, i)
for i in range(n + 1)])
d2l.plt.subplot(1, 4, i + 1)
d2l.plt.stem([(i - n*p)/torch.sqrt(torch.tensor(n*p*(1 - p)))
for i in range(n + 1)], pmf,
use_line_collection=True)
d2l.plt.xlim([-4, 4])
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.title("n = {}".format(n))
d2l.plt.show()
#@tab tensorflow
p = 0.2
ns = [1, 10, 100, 1000]
d2l.plt.figure(figsize=(10, 3))
for i in range(4):
n = ns[i]
pmf = tf.constant([p**i * (1-p)**(n-i) * binom(n, i)
for i in range(n + 1)])
d2l.plt.subplot(1, 4, i + 1)
d2l.plt.stem([(i - n*p)/tf.sqrt(tf.constant(n*p*(1 - p)))
for i in range(n + 1)], pmf,
use_line_collection=True)
d2l.plt.xlim([-4, 4])
d2l.plt.xlabel('x')
d2l.plt.ylabel('p.m.f.')
d2l.plt.title("n = {}".format(n))
d2l.plt.show()
Unutulmaması gereken bir şey: Poisson durumu ile karşılaştırıldığında, şimdi standart sapmaya bölüyoruz, bu da olası sonuçları gittikçe daha küçük alanlara sıkıştırdığımız anlamına gelir. Bu, limitimizin artık ayrık olmayacağının, bilakis sürekli olacağının bir göstergesidir.
Burada oluşan şeyin türetilmesi bu kitabın kapsamı dışındadır, ancak merkezi limit teoremi,
burada rastgele bir değişkenin normalde verilen ortalama
eq_gaussian_pdf
Önce, :eqref:eq_gaussian_pdf
olasılık yoğunluk dağılım fonksiyonunu çizelim.
mu, sigma = 0, 1
x = np.arange(-3, 3, 0.01)
p = 1 / np.sqrt(2 * np.pi * sigma**2) * np.exp(-(x - mu)**2 / (2 * sigma**2))
d2l.plot(x, p, 'x', 'p.d.f.')
#@tab pytorch
mu, sigma = 0, 1
x = torch.arange(-3, 3, 0.01)
p = 1 / torch.sqrt(2 * torch.pi * sigma**2) * torch.exp(
-(x - mu)**2 / (2 * sigma**2))
d2l.plot(x, p, 'x', 'p.d.f.')
#@tab tensorflow
mu, sigma = 0, 1
x = tf.range(-3, 3, 0.01)
p = 1 / tf.sqrt(2 * tf.pi * sigma**2) * tf.exp(
-(x - mu)**2 / (2 * sigma**2))
d2l.plot(x, p, 'x', 'p.d.f.')
Şimdi, birikimli dağılım fonksiyonunu çizelim. Bu ek bölümün kapsamı dışındadır, ancak Gauss b.d.f.'nun daha temel işlevlerden tanımlı kapalı-şekil formülü yoktur. Bu integrali sayısal olarak hesaplamanın bir yolunu sağlayan erf
'i kullanacağız.
def phi(x):
return (1.0 + erf((x - mu) / (sigma * np.sqrt(2)))) / 2.0
d2l.plot(x, np.array([phi(y) for y in x.tolist()]), 'x', 'b.d.f.')
#@tab pytorch
def phi(x):
return (1.0 + erf((x - mu) / (sigma * torch.sqrt(d2l.tensor(2.))))) / 2.0
d2l.plot(x, torch.tensor([phi(y) for y in x.tolist()]), 'x', 'b.d.f.')
#@tab tensorflow
def phi(x):
return (1.0 + erf((x - mu) / (sigma * tf.sqrt(tf.constant(2.))))) / 2.0
d2l.plot(x, [phi(y) for y in x.numpy().tolist()], 'x', 'b.d.f.')
Meraklı okuyucular bu terimlerin bazılarını tanıyacaktır. Aslında, bu integralla :numref:sec_integral_calculus
içinde karşılaştık. Aslında,
Bozuk para atmalarla çalışma seçimimiz, hesaplamaları kısalttı, ancak bu seçimle ilgili hiçbir şey temel (zorunlu) değildi. Gerçekten de, bağımsız aynı şekilde dağılmış rastgele değişkenlerden,
O zaman:
yaklaşık olarak Gauss olacak. Çalışması için ek gereksinimler vardır, en yaygın olarak da
Merkezi limit teoremi, Gauss'un olasılık, istatistik ve makine öğrenmesi için temel olmasının nedenidir. Ölçtüğümüz bir şeyin birçok küçük bağımsız katkının toplamı olduğunu söyleyebildiğimizde, ölçülen şeyin Gauss'a yakın olacağını varsayabiliriz.
Gauss'ların daha birçok büyüleyici özelliği var ve burada bir tanesini daha tartışmak istiyoruz. Gauss, maksimum entropi dağılımı olarak bilinen şeydir. Entropiye daha derinlemesine :numref:sec_information_theory
içinde gireceğiz, ancak bu noktada bilmemiz gereken tek şey bunun bir rastgelelik ölçüsü olduğudur. Titiz bir matematiksel anlamda, Gauss'u sabit ortalama ve varyanslı rastgele değişkenin en rastgele seçimi olarak düşünebiliriz. Bu nedenle, rastgele değişkenimizin herhangi bir ortalama ve varyansa sahip olduğunu bilirsek, Gauss bir anlamda yapabileceğimiz en muhafazakar dağılım seçimidir.
Bölümü kapatırken,
-
$\mu_X = \mu$ , -
$\sigma_X^2 = \sigma^2$ .
Aşağıda gösterildiği gibi Gauss (veya standart normal) dağılımından örneklem alabiliriz.
np.random.normal(mu, sigma, size=(10, 10))
#@tab pytorch
torch.normal(mu, sigma, size=(10, 10))
#@tab tensorflow
tf.random.normal((10, 10), mu, sigma)
🏷️subsec_exponential_family
Yukarıda listelenen tüm dağılımlar için ortak bir özellik, hepsinin ait olduğu üstel aile olarak bilinmesidir. Üstel aile, yoğunluğu aşağıdaki biçimde ifade edilebilen bir dizi dağılımdır:
eq_exp_pdf
Bu tanım biraz incelikli olabileceğinden, onu yakından inceleyelim.
İlk olarak,
İkinci olarak, doğal parametreler veya kanonik parametreler olarak adlandırılan
Üçüncü olarak, elimizde yukarıdaki :eqref:eq_exp_pdf
dağılımının intergralinin bir olmasını sağlayan, birikim fonksiyonu olarak adlandırılan
Somut olmak için Gauss'u ele alalım.
Bu, üstel ailenin tanımıyla eşleşir:
-
Temel ölçü:
$h(x) = \frac{1}{\sqrt{2 \pi}}$ , - Doğal parametreler: $\boldsymbol{\eta} = \begin{bmatrix} \eta_1 \ \eta_2 \end{bmatrix} = \begin{bmatrix} \frac{\mu}{\sigma^2} \ \frac{1}{2 \sigma^2} \end{bmatrix}$,
- Yeterli istatistikler: $T(x) = \begin{bmatrix}x\-x^2\end{bmatrix}$, and
-
Birikim işlevi:
$A({\boldsymbol\eta}) = \frac{1}{2 \sigma^2} \mu^2 + \log(\sigma) = \frac{\eta_1^2}{4 \eta_2} - \frac{1}{2}\log(2 \eta_2)$ .
Yukarıdaki terimlerin her birinin kesin seçiminin biraz keyfi olduğunu belirtmekte fayda var. Gerçekten de önemli olan özellik, dağılımın tam formunun kendisi değil, bu formda ifade edilebilmesidir.
:numref:subsec_softmax_and_derivatives
içinde bahsettiğimiz gibi, yaygın olarak kullanılan bir teknik,
- Bernoulli rastgele değişkenleri, evet/hayır sonucu olan olayları modellemek için kullanılabilir.
- Ayrık tekdüze dağılım modeli, bir küme sınırlı olasılıktan seçim yapar.
- Sürekli tekdüze dağılımlar bir aralıktan seçim yapar.
- Binom dağılımları bir dizi Bernoulli rasgele değişkeni modeller ve başarıların sayısını sayar.
- Poisson rastgele değişkenleri, nadir olayların oluşunu modeller.
- Gauss rastgele değişkenleri, çok sayıda bağımsız rastgele değişkenin toplam sonucunu modeller.
- Yukarıdaki tüm dağılımlar üstel aileye aittir.
- İki bağımsız iki terimli rastgele değişkenin,
$X, Y \sim \mathrm{Binomial}(16, 1/2)$ arasındaki$X-Y$ farkı olan rastgele bir değişkenin standart sapması nedir? - Poisson rastgele değişkenini,
$X \sim \mathrm{Poisson}(\lambda)$ , alırsak ve$(X - \lambda)/\sqrt{\lambda}$ 'i$\lambda \rightarrow \infty$ olarak kabul edersek, bunun yaklaşık olarak Gauss olduğunu gösterebiliriz. Bu neden anlamlıdır? -
$n$ elemanda tanımlı iki tane ayrık tekdüze rasgele değişkenin toplamı için olasılık kütle fonksiyonu nedir?
:begin_tab:mxnet
Tartışmalar
:end_tab:
:begin_tab:pytorch
Tartışmalar
:end_tab:
:begin_tab:tensorflow
Tartışmalar
:end_tab: