Expectation
ค่า expectation ของ random variable ใด คือ arithmetic mean ของ random variable นั้น เขียนแทนด้วย E(X) หรือ \(\mu_x \) ถูกนิยามดังนี้
Discrete :
\[ E(X) = \sum^n_{i=1}f_X(x_i) x_i = \mu_x \tag{1} \]
Continuous :
\[ E(X) = \int_{-\infty}^{\infty} xf_X(x) dx = \mu_x \tag{2} \]
Expectation rules
- \(E[g(X)] = \sum (g(x)f_X(x)) \)
- \(E[a] = a \), a คือค่าคงที่
- \(E[aX] = aE(X) \), a คือค่าคงที่
- \(E[a \pm X] = a \pm E(X) \), a คือค่าคงที่
- \(E[a \pm bX] = a \pm bE(X) \), a,b คือค่าคงที่
- \(E[X+Y] = E(X)+E[Y] \), X,Y คือ random variables
- \(E[XY] = E(X)E[Y] \), X,Y คือ independent random variables
เมื่อ \( f_X(x) \) คือ Probability density function ของ X
Variance
ใช้บอกระดับการกระจายตัวของข้อมูล (spread out) โดยวัดจากความห่างของ data point กับค่ากลาง (expectation, \( \mu \)) ถ้าค่าของ variance สูงตีความได้ว่าข้อมูลจะกระจายตัวออกจากค่า mean หากมีค่าน้อยแสดงว่าข้อมูลส่วนใหญ่มีการกระจุกอยู่รอบๆ ค่อ mean เขียนแทนด้วย V(X) หรือ \( \sigma^2_x \)
นิยามโดย ถ้า X เป็น random variable แล้ว
\[ \begin{align*} V(X) &= E[(X - \mu)^2] \\ &=E[X^2-2X\mu+\mu^2]\\ &= E[X^2] - E[2X\mu] + E[\mu^2] \\ &= E[X^2] - 2 \mu E[X] + \mu^2 \\ &= E[X^2] - 2\mu^2 + \mu^2 \\\\ V(X) &= E[X^2] - \mu^2 \tag{3}\\ \end{align*} \]
Variance rule
- \( V(a) = 0 \) , a คือค่าคงที่
- \( V(a \pm X) = V(X)\) , a คือค่าคงที่
- \( V(a \pm bX) = b^2 V(X) \), a,b คือค่าคงที่
- \( V(X \pm Y) = V(X) + V(Y)\) , X,Y คือ independent random variables
- \( V(X \pm Y) = V(X) + V(Y) \pm 2COV(X,Y)\) , (COV(X,Y) จะกล่าวถึงภายหลัง)
Covariance
ใช้บอกทิศทางความสัมพันธ์ระหว่าง random variable 2 ตัว (X,Y) ค่าของ covariance มีได้ทั้งบวกและลบ ค่าที่เป็นบวกแสดงว่า random variable มีความสัมพันธ์ในทิศทาง ทางเดียวกัน ถ้าเป็นลบก็จะตรงกันข้าม หากเป็น 0 หมายความว่าไม่มีความสัมพันธ์ต่อกัน
นิยามโดย ถ้าให้ X,Y เป็น random variables \[ Cov(X,Y) = E(XY) - E(X)E(Y) \tag{4.1} \] หรือกรณี discrete \[ Cov(X,Y) = \frac{1}{n-1}\sum_{i=1}^n (x_i-\bar{x})(y_i-\bar{y}) \tag{4.2} \]
Correlation
ใช้บอกความสัมพันธ์เชิงเส้น (linear association) ระหว่าง random variable 2 ตัว (X,Y) อาจเรียก correlation coefficient ก็ได้ ค่าของ correlation จะมีค่าระหว่าง [-1,1]
นิยามโดย ถ้าให้ X,Y เป็น random variables \[ Corr(X,Y) = \frac{Cov(X,Y)}{\sqrt{V(X) V(Y)}} \tag{5} \]
การตีความค่าของ Corr(X,Y) จะคล้ายกับ Cov(X,Y) ที่ต่างคือถ้า Corr มีค่าเข้าใกล้ 1 หรือ -1 หมายถึงความสัมพันธ์เชิงเส้นตรงระหว่าง X,Y จะมากขึ้นเท่านั้น (\(Corr(X,Y) = \pm 1 \implies Y = aX + b \))
ตัวอย่าง : ให้ X เป็น continuous random variable ที่มี p.d.f ดังนี้
\[ f_X(x) = \begin{cases} 2x^{-2} & \mbox{if } 1 \leq x \leq 2\\ 0 & \mbox{otherwise } \end{cases} \] จงหา \(E(X) \) และ \( V(X) \
เนื่องจาก p.d.f ของ x ช่วงอื่นมีค่าเป็น 0 นอกจาก [1,2] ดังนั้น \[ \begin{align*} E(X) &= \int_{1}^{2} xf_X(x)dx \\\\ E(X) &= \int_{1}^{2} x2x^{-2} dx \\\\ E(X) &= 2\int_{1}^{2} x^{-1} dx \\\\ E(X) &= 2|ln(x)| |^{2}_{1} \\\\ E(X) &= 2|ln(2)| - 2|ln(1)|\\\\ E(X) &= 2|ln(2)| \\\\ \end{align*} \]
จาก \[ V(X) = E[X^2] - \mu^2 \]
หา \( E(X^2) \) : \[ \begin{align*} E(X^2) &= \int_{1}^{2} x^2 f_X(x)dx \\\\ E(X^2) &= \int_{1}^{2} x^2 2 x^{-2} dx \\\\ E(X^2) &= \int_{1}^{2} 2 dx \\\\ E(X^2) &= 2 |^{2}_{1} \\\\ E(X^2) &= 2 \end{align*} \] ดังนั้น \[ V(X) = 2 - 2 |ln(2)| \]
ดูตัวอย่างข้อมูลความสูง (inches) และ นำ้หนัก (pounds) ของผู้ชายจำนวน 100 คนที่นำมาแสดงด้วย scatter plot (รูปที่ 1) ดูแล้วเหมือนกับว่าจะมีความสัมพันธ์กันอยู่ โดยที่เมื่อค่าความสูงมากขึ้น ค่าของน้ำหนักก็จะเพิ่มตาม
รูปที่ 1 |
การคำนวณ :
ให้ X แทนข้อมูลความสูง Y แทนข้อมูลน้ำหนัก
\[ \begin{align*} E(X) &= 69.05\\\\ E(Y) &= 186.85\\\\ E(XY) &=12941.097\\\\ Cov(X,Y) &= 12941.097 - 69.05 \times 186.85 = 39.10\\ \end{align*} \]
ค่า Cov(X,Y) เป็นบวกสอดคล้องกับ scatter plot บอกว่าความสูงและน้ำหนักของผู้ชายมีความสัมพันธ์ไปทางเดียวกัน
หาค่า correlation :
\[ \begin{align*} V(X) &= 6.70 \\\\ V(Y) &= 368.84 \\\\ Corr(X,Y) &= \frac{39.10}{6.70 \times 368.84} = 0.016 \end{align*} \]
ค่า correlation มีค่ามากกว่า 0 แสดงถึงความสัมพันธ์ทางบวกต่อกันระหว่างความสูงและน้ำหนักแต่ยังไม่กับเป็น linear ที่ชัดเจน
เอกสารอ้างอิง
ความคิดเห็น
แสดงความคิดเห็น