SlideShare a Scribd company logo
Statistical Inference
and
Linear Regression
Reference: Paulsen, Kurt. (2005). Planning Methods. Temple University.
Overview
â€Ē INFERENTIAL statistics is the branch of statistics that allow us
to draw conclusions about the data or to test hypothesizes.
“Statistical inference is the act of reaching conclusions
about the world based on a set of data, and then
evaluating the reliability of those conclusions.”
! ! āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡āđ€āļ›ïœ’āļ™āļ§āļīāļ˜āļĩāļāļēāļĢāđƒāļ™āļāļēāļĢāđāļïœ‹āļ›ïœāļāļŦāļēāļ—āļĩāđˆāļˆāļ°āļžāļĒāļēāļĒāļēāļĄ āļ­ïœ‹āļēāļ‡ (infer)
āļ„āļļāļ“āļŠāļĄāļšāļąāļ•āļīāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ‚āļ­āļĄāļđāļĨāļˆāļēāļāļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ„āļ›āļĒāļąāļ‡āļ›āļĢāļ°āļŠāļēāļāļĢ
! ! āļˆāļļāļ”āļŦāļĄāļēāļĒāļ‚āļ­āļ‡āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡āļĄāļĩāļˆāļļāļ”āļŦāļĄāļēāļĒāđ€āļžāļ·āđˆāļ­āļ—āļģāļ™āļēāļĒāļŦāļĢāļ·āļ­āļ›āļĢāļ°āļĄāļēāļ“
āļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļ›āļĢāļ°āļŠāļēāļāļĢāļˆāļēāļāļ‚āļ­āļĄāļđāļĨāļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ āđāļĨāļ°
āļ›āļĢāļ°āđ€āļĄāļīāļ™āļ„āļ§āļēāļĄāļ™ïœŠāļēāđ€āļŠāļ·āđˆāļ­āļ–āļ·āļ­āļ‚āļ­āļ‡āļœāļĨ
āļāļĢāļ°āļšāļ§āļ™āļāļēāļĢāļ—āļēāļ‡āļŠāļ–āļīāļ•āļī
āļ„āļēāļžāļēāļĢāļēāļĄāļĩāđ€āļ•āļ­āļĢ
(Ξ , σ2 , ρ , āļŊāļĨāļŊ)
āļāļĨāļļāļĄāļ›āļĢāļ°āļŠāļēāļāļĢ āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡
āļ„āļēāļŠāļ–āļīāļ•āļī
( X , S2 , r , āļŊāļĨāļŊ)āļāļēāļĢāļ›āļĢāļ°āļĄāļēāļ“āļ„āļē
āļāļēāļĢāļ—āļ”āļŠāļ­āļšāļŠāļĄāļ•āļīāļāļēāļ™
āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡
āļŠāļ–āļīāļ•āļīāđ€āļŠāļīāļ‡āļšāļĢāļĢāļĒāļēāļĒ
Z - test
T – test
F – test
χ2 test
rxy
āļ—āļ”āļŠāļ­āļšāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļšāļāļąāļšāļāļĨāļļāļĄ
āļ›āļĢāļ°āļŠāļēāļāļĢāđ€āļĄāļ·āđˆāļ­āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āļĄāļĩāļ‚āļ™āļēāļ”āđ€āļāļīāļ™ 30
āđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļšāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ 2 āļāļĨāļļāļĄ āđ€āļĄāļ·āđˆāļ­āļāļĨāļļāļĄ
āļ•āļąāļ§āļ­āļĒāļēāļ‡āļĄāļĩāļ‚āļ™āļēāļ”āđ„āļĄïœŠāđ€āļāļīāļ™ 30
āđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļšāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ 3 āļāļĨāļļāļĄāļ‚āļķāđ‰āļ™āđ„āļ›
āļ—āļ”āļŠāļ­āļšāļ„āļ§āļēāļĄāđ€āļ›ïœ’āļ™āļ­āļīāļŠāļĢāļ°āļ•āļ­āļāļąāļ™ āļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨ
āļ—āļĩāđˆāđ€āļ›ïœ’āļ™āļˆāļģāļ™āļ§āļ™āļŦāļĢāļ·āļ­āļ„āļ§āļēāļĄāļ–āļĩāđˆ
āļ—āļ”āļŠāļ­āļšāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨāļ—āļĩāđˆāđ€āļ›ïœ’āļ™
āļĢāļ°āļ”āļąāļšāļŠïœŠāļ§āļ‡āļŦāļĢāļ·āļ­āļŠāļąāļ”āļŠïœŠāļ§āļ™
āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡āļ—āļĩāđˆāļ—āļĩāđˆāđƒāļŠïœ‹āđƒāļ™āļāļēāļĢāļŦāļēāļ‚āļ­āļŠāļĢāļļāļ›āļˆāļēāļāļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡
Condence Intervals
â€Ē Central Limit Theorem:
â€Ē āļŦāļĄāļēāļĒāļ–āļķāļ‡ āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āļˆāļ°āļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ­āļĒāļđāļˆāļēāļ sample mean āđƒāļ™āļĢāļđāļ›āļ‚āļ­āļ‡āđ‚āļ„āļ‡
āļ›āļāļ•āļī Normal curve ("N") āļ—āļĩāđˆāļĄāļĩāļ„āļē mean āđ€āļ—āļēāļāļąāļšāļ„āļē true mean (mu)
āđāļĨāļ° standard deviation āđ€āļ—āļēāļāļąāļš â€œstandard error” (sigma āļŦāļēāļĢ
āļ”āļ§āļĒ square root of n, āđ‚āļ”āļĒ n āđ€āļ›ïœ’āļ™āļˆāļģāļ™āļ§āļ™āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ (sample size))
āļ”āļąāļ‡āļ™āļąāđ‰āļ™ standard deviation āļ‚āļ­āļ‡āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ€āļ›ïœ’āļ™
āļ•āļąāļ§āđāļ›āļĢāļˆāļēāļ sample size.
â€Ē āđ€āļĢāļēāļŠāļēāļĄāļēāļĢāļ–āđƒāļŠïœ‹āļŠāļđāļ•āļĢāļ„āļģāļ™āļ§āļ“āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ€āļžāļ·āđˆāļ­āđāļŠāļ”āļ‡āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ‚āļ­āļ‡
āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđƒāļ”āđ† āđ„āļ”āļ”āļ§āļĒ āļ„āļēāļ—āļĩāđˆāđ€āļĢāļĩāļĒāļāļ§ïœŠāļē STANDARD NORMAL:
â€Ē āļ„āļēāļ™āļĩāđ‰āļĄāļąāļāđ€āļĢāļĩāļĒāļāļāļąāļ™āļ§ïœŠāļē "z-test statistic" (āļŦāļĢāļ·āļ­āļšāļēāļ‡āļ„āļĢāļąāđ‰āļ‡āļāđ‡āđ€āļĢāļĩāļĒāļ "z-score") āļ„āļē z-test
statistic āļĄāļĩāļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°āļ—āļĩāđˆāļĄāļĩāļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āđāļšāļš STANDARD NORMAL CURVE.
“Standardizing” or z-scores
“Z-values”
â€Ē āļ„āļē “z-value” āļŦāļĢāļ·āļ­ â€œāļ„āļēāļĄāļēāļ•āļĢāļāļēāļ™â€ āđ€āļ›ïœ’āļ™āļ„āļ°āđāļ™āļ™āļ—āļĩāđˆāđāļ›āļĨāļ‡āļĢāļđāļ›āļĄāļēāļˆāļēāļāļ„āļ°āđāļ™āļ™āļ”āļīāļš
āđ€āļžāļ·āđˆāļ­āđƒāļŦāļĄāļĩāļ„āļ§āļēāļĄāļŦāļĄāļēāļĒāļŠāļąāļ”āđ€āļˆāļ™āļĒāļīāđˆāļ‡āļ‚āļķāđ‰āļ™ āđ‚āļ”āļĒāļ—āļąāđˆāļ§āđ„āļ›āļāļēāļĢāđāļ›āļĨāļ‡āļ„āļ°āđāļ™āļ™āļ”āļīāļšāđƒāļŦāđ€āļ›ïœ’āļ™
āļ„āļ°āđāļ™āļ™āļĄāļēāļ•āļĢāļāļēāļ™
â€Ē āđ€āļ›ïœ’āļ™āļāļēāļĢāđāļ›āļĨāļ‡āļ„āļ°āđāļ™āļ™āļ”āļīāļšāđƒāļŦāđ€āļ›ïœ’āļ™āļ„āļ°āđāļ™āļ™ āļĄāļēāļ•āļĢāļāļēāļ™āđ‚āļ”āļĒāļ­āļēāļĻāļąāļĒāļ§āļīāļ˜āļĩāļāļēāļĢāļ—āļēāļ‡āļŠāļ–āļīāļ•āļī
āđāļĨāļ°āļĢāļąāļāļĐāļēāđ‚āļ„āļ‡āļāļēāļĢāđāļˆāļāđāļˆāļ‡āđ€āļ”āļīāļĄāđ„āļ§ïœ‹āđ„āļĄïœŠāđ€āļ›āļĨāļĩāđˆāļĒāļ™āđāļ›āļĨāļ‡
â€Ē āļāļēāļĢāļ„āļēāļ™āļ§āļ“āļŦāļēāļ„āļ°āđāļ™āļ™āļĄāļēāļ•āļĢāļāļēāļ™ Z āļ­āļēāļĻāļąāļĒāļ„āļ°āđāļ™āļ™āđ€āļ‰āļĨāļĩāđˆāļĒāļĨāļ°āļ„āļēāđ€āļšāļĩāđˆāļĒāļ‡āđ€āļšāļ™
āļĄāļēāļ•āļĢāļāļēāļ™āļ‚āļ­āļ‡ āļ„āļ°āđāļ™āļ™āđāļ•āļĨāļ°āļŠāļļāļ” āđ‚āļ”āļĒāđƒāļŠïœ‹āļŠāļđāļ•āļĢāļ”āļąāļ‡āļ™āļĩāđ‰āļŠāļđāļ•āļĢ
(X-X)/SD
â€Ē āđ€āļĄāļ·āđˆāļ­ Z āđāļ—āļ™ āļ„āļ°āđāļ™āļ™āļĄāļēāļ•āļĢāļāļēāļ™āļ‚āļ­āļ‡āđāļ•āļĨāļ°āļ„āļ™
â€Ē X āđāļ—āļ™āļ„āļ°āđāļ™āļ™āļ”āļīāļšāļ‚āļ­āļ‡āđāļ•āļĨāļ°āļ„āļ™
â€Ē X āđāļ—āļ™ āļ„āļ°āđāļ™āļ™āđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨāđƒāļ™āđāļ•āļĨāļ°āļŠāļąāđ‰āļ™
â€Ē SD āđāļ—āļ™ āļ„āļ§āļēāļĄāđ€āļšāļĩāđˆāļĒāļ‡āđ€āļšāļ™āļĄāļēāļ•āļĢāļāļēāļ™āļ‚āļ­āļ‡āļ„āļ°āđāļ™āļ™āļŠāļļāļ”āļ™āļąāđ‰āļ™
Inferential Statistics & Regression
āļāļēāļĢāļ„āļģāļ™āļ§āļ“āļ„āļē “Critical Values”
â€Ē By definition: Îą = 1 - p or p = 1 - Îą
â€Ē Thus if we want to find the central 95 percent of a standard normal curve,
we define p = 0.95 and Îą = 0.05
â€Ē If we define p = 0.95 and hence Îą = 0.05, we want 95 percent of the
probability to be within our area, and 5 percent to be outside.
â€Ē Since a normal curve is symmetrical, having 5 percent of the value in the
tails means having 2.5 percent of the value in each tale. That is, we just
take the value of alpha and divided by 2 for each of the value points.
â€Ē āļˆāļģāļāļąāļ”āļ„āļ§āļēāļĄāđ‚āļ”āļĒ: Îą = 1 - p or p = 1 - Îą
â€Ē āļ”āļąāļ‡āļ™āļąāđ‰āļ™āļ–āļēāđ€āļĢāļēāļ•āļ­āļ‡āļāļēāļĢāļŦāļēāļžāļ·āđ‰āļ™āļ—āļĩāđˆ 95 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ• āļ•āļĢāļ‡āļāļĨāļēāļ‡āļ‚āļ­āļ‡ standard normal curve āđ€āļĢāļē
āļāļģāļŦāļ™āļ”āļ„āļē p = 0.95 āđāļĨāļ° Îą = 0.05
â€Ē āļ–āļēāļāļģāļŦāļ™āļ” p = 0.95 āļˆāļ°āđ„āļ”āļ„āļē Îą = 0.05 āđ€āļĄāļ·āđˆāļ­āđ€āļĢāļēāļ•āļ­āļ‡āļāļēāļĢāļŦāļēāļ„āļ§āļēāļĄāđ€āļ›ïœ’āļ™āđ„āļ›āđ„āļ”āļ—āļĩāđˆ 95
āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ‚āļ­āļ‡āļ›āļĢāļ°āļŠāļēāļāļĢāļ—āļĩāđˆāļ­āļĒāļđāļ•āļĢāļ‡āļāļĨāļēāļ‡ āđ‚āļ”āļĒāļĄāļĩ 5 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ­āļĒāļđāļ™āļ­āļāļ‚āļ­āļšāđ€āļ‚āļ•.
â€Ē āļˆāļēāļ normal curve āļ—āļĩāđˆāļŠāļĄāļĄāļēāļ•āļĢ 5 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ‚āļ­āļ‡āļ›āļĢāļ°āļŠāļēāļāļĢāļ—āļĩāđˆāļ­āļĒāļđāļ™āļ­āļāļ‚āļ­āļšāđ€āļ‚āļ• āļˆāļ°āđ„āļ” 2.5
āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ—āļĩāđˆāļ­āļĒāļđāļ—āļĩāđˆāļŦāļēāļ‡āļ‚āļ­āļ‡ normal curve āđāļ•āļĨāļ°āļ”āļēāļ™.
Condence Intervals
â€Ē āđ€āļĄāļ·āđˆāļ­āļžāļīāļˆāļēāļĢāļ“āļēāļŦāļēāļ‡āļ‚āļ­āļ‡āđ‚āļ„āļ‡āļ›āļāļ•āļīāļŠāļ­āļ‡āļŦāļēāļ‡ â€œtwo-sided” āđ€āļ›ïœ’āļ™āļāļēāļĢāļžāļīāļˆāļēāļĢāļ“āļē
percent āļ‚āļ­āļ‡āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļē 2 āļ„āļē āļ™āļąāđˆāļ™āđ€āļ›ïœ’āļ™āļāļēāļĢāļāļģāļŦāļ™āļ”
CONFIDENCE INTERVAL.
â€Ē āļ”āļąāļ‡āļ™āļąāđ‰āļ™āļ–āļēāđ€āļĢāļēāļŠāļ™āđƒāļˆāļ„āļē CONFIDENCE INTERVAL āļˆāļēāļāļ„āļē true mean (Ξ)
āđ€āļĢāļēāļŠāļēāļĄāļēāļĢāļ–āļ­āļ˜āļīāļšāļēāļĒāļ”āļ§āļĒāļŠāļĄāļāļēāļĢāļ”āļąāļ‡āļ™āļĩāđ‰:
The Probability
that the mean
is between these 2 values
is 1-alpha
Sample Sizes and Condence Intervals
â€Ē KEY POINT: As the sample size increases, the interval (in
which we are p percent “confident” that the true sample
mean lies) gets thinner and thinner. CONFIDENCE INTERVALS
ARE SAMPLE SIZE DEPENDENT!
Condence Intervals
â€Ē āļŠïœŠāļ§āļ‡āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆ (confidence interval) 95 percent āļŦāļĄāļēāļĒāļ–āļķāļ‡āļ­āļ°āđ„āļĢ?
āļŦāļĄāļēāļĒāļ–āļķāļ‡āļ–āļēāđ€āļĢāļēāļ„āļģāļ™āļ§āļ“āļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ sample average
āđ€āļ›ïœ’āļ™āļāļēāļĢāļ›āļĢāļ°āļĄāļēāļ“āļāļēāļĢāļ„āļē true population mean āļˆāļģāļ™āļ§āļ™100 āļ„āļĢāļąāđ‰āļ‡ āđ€āļĢāļēāļĄāļĩ
āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆāļ§ïœŠāļē 95 āļ„āļĢāļąāđ‰āļ‡āļˆāļēāļ 100 āļ„āļĢāļąāđ‰āļ‡ āđ€āļĢāļēāļˆāļ°āļŠāļēāļĄāļēāļĢāļ–āđ„āļ”āļ„āļēāđ€āļ”āļĩāļĒāļ§āļāļąāļš true
value of ξ (“true” population mean)
â€Ē āđ€āļĢāļēāđƒāļŠïœ‹āļ„āļ§āļēāļĄāļĢāļđāļ—āļēāļ‡āļŠāļ–āļīāļ•āļīāļ™āļĩāđ‰āđƒāļ™āļāļēāļĢāđāļŠāļ”āļ‡āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆāļ§ïœŠāļēāđ€āļĢāļēāļ›āļĢāļ°āļĄāļēāļ“āļ„āļēāļ‚āļ­āļ‡
āļ›āļĢāļ°āļŠāļēāļāļĢāđ„āļ”āļ­āļĒāļēāļ‡āļĄāļĩāļ„āļ§āļēāļĄāđāļĄïœŠāļ™āļĒāļģ āđ‚āļ”āļĒāđ„āļĄïœŠāļ•āļ­āļ‡āļ—āļģāļāļēāļĢāļ—āļ”āļŠāļ­āļšāļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ 100
āļ„āļĢāļąāđ‰āļ‡!
Condence Intervals
â€Ē āđ€āļžāļ·āđˆāļ­āļ—āļģāđƒāļŦāļŠāļĄāļāļēāļĢāđ€āļĢāļĩāļĒāļšāļ‡ïœŠāļēāļĒāļ‚āļķāđ‰āļ™ āļˆāļķāļ‡āđāļ—āļ™āļ„āļēāļŠāļąāļāļĨāļąāļāļĐāļ“ Îą āļ”āļ§āļĒāļ„āļēāļ—āļĩāđˆāđ€āļĢāļēāđ€āļŦāđ‡āļ™āđ„āļ” āļ”āļąāļ‡āļ™āļĩāđ‰
āļ”āļ§āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆ 95 percent āļˆāļķāļ‡āļĄāļĩ p = 0.95 āđāļĨāļ° Îą = 0.05
Condence Intervals
â€Ē āđāļĨāļ° z-values āļ—āļĩāđˆāļ„āļēāļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆ 95 percent āļ„āļ·āļ­ -1.96 āđāļĨāļ° 1.96 āđ€āļĢāļēāļāđ‡āļˆāļ°āđ„āļ”
āļŠāļĄāļāļēāļĢāļ”āļąāļ§āļ™āļĩāđ‰:
Z-Score Table
Inferential Statistics & Regression
Normal Distribution
â€Ē āđ‚āļ„āļ‡āļĢāļ°āļ†āļąāļ‡āļ„āļ§āđˆāļģ āļŦāļĢāļ·āļ­āļ—āļĩāđˆāđ€āļĢāļĩāļĒāļāļ§ïœŠāļē Normal Curve āļŦāļĢāļ·āļ­ Gaussian
Curve (āļ•āļēāļĄāļŠāļ·āđˆāļ­āļ‚āļ­āļ‡āļ™āļąāļāļ§āļīāļ—āļĒāļēāļĻāļēāļŠāļ•āļĢāļŠāļēāļ§āđ€āļĒāļ­āļĢāļĄāļąāļ™ Karl
Friedrick Gauss, 1777-1855)
Standard Normal Distribution
â€Ē āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āđāļšāļš Normal āļĄāļĩāļ„āļēāđ€āļĢāļĩāļĒāļāļ§ïœŠāļē Z value
â€Ē āđ€āļ›ïœ’āļ™āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļˆāļēāļāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļāļĨāļēāļ‡ āļ—āļĩāđˆ
āđ‚āļ”āļĒāļŦāļēāļ‡āļˆāļēāļāļ„āļēāļāļĨāļēāļ‡āļ•āļēāļĄāļ„āļē Standard Deviation
āđ€āļŠïœŠāļ™ āļ„āļē Z = 1.5 āļŦāļĄāļēāļĒāļ–āļķāļ‡ āļˆāļļāļ”āļ—āļĩāđˆāļŦāļēāļ‡āļˆāļēāļāļ„āļēāļāļĨāļēāļ‡ 1.5 āļŦāļ™ïœŠāļ§āļĒ
āļ‚āļ­āļ‡ Standard Deviation
â€Ē Each Z value is the number of standard deviations
away from the mean.
!
₮
Âĩ = 0
!
₮
σ =1
Z Value
â€Ē āļŦāļēāļāđ€āļĢāļēāļ•āļ­āļ‡āļāļēāļĢāļ„āļģāļ™āļ§āļ“āļ„āļ§āļēāļĄāļ™ïœŠāļēāļˆāļ°āđ€āļ›ïœ’āļ™āļŠāļģāļŦāļĢāļąāļšāļ„āļē Z value āļ„āļē
āļŦāļ™āļķāđˆāļ‡ āđ€āļŠïœŠāļ™ Z = 1.5 āļ—āļģāđ„āļ”āđ‚āļ”āļĒāļ„āļģāļ™āļ§āļ“āļžāļ·āđ‰āļ™āļ—āļĩāđˆāđƒāļ•āļāļĢāļēāļŸ
āļˆāļēāļāļ•āļēāļĢāļēāļ‡āļ„āļē Z āļˆāļ°āđ„āļ” Pr(Z > 1.5) āļ„āļ·āļ­ 0.0668
a. Pr(Z>1.64)
Examples
b. Pr(Z<-1.64)
Examples
c. Pr(1.0<Z<1.5)
Examples
= 0.1587-0.0668
= 0.0919 = 9%
d. Pr(-1<Z<2)
Examples
= 1-0.1587-0.0228
= 0.818 = 82%
e. Pr(-2<Z<2)
Examples
= 1-0.0228-0.0228
= 0.954 = 95%
â€Ē The critical value X = 74 differs from its
mean = 69 and = 3.
Z Value
!
₮
Z =
X − Âĩ
σ
!
₮
Âĩ !
₮
σ
!
Z =
74 − 69
3
=
5
3
=1.67
â€Ē Pr(Z>1.67) = 0.47 = 5%
Example
â€Ē Suppose the yearling trout in a lake have
lengths that are approximately normally
distributed, about a mean = 9.5” with a
standard deviation = 1.4”. What
proportion of them:
a. Exceeding 12” (the length for keeping a
catch)?
b. Exceeding 10” (the newly proposed legal
length)?
!
₮
Âĩ
!
₮
σ
!
₮
Z =
X − Âĩ
σ
!
₮
Z =
12.0 − 9.5
1.4
=
2.5
1.4
=1.79
Thus
Pr(X>12) = Pr(Z>1.79)
= 0.037 = 4%
a.
!
₮
Z =
X − Âĩ
σ
Thus
Pr(X>10) = Pr(Z>0.36)
= 0.359 = 36%
b.
!
₮
Z =
10.0 − 9.5
1.4
=
0.5
1.4
= 0.36
Z=0.36
Regression
CORRELATION and REGRESSION.
â€Ē Correlation: correlation measures the strength of
the relationship between variables or the degree
to which two variables are correlated (co-
related). Another way to think of it is that is a
measure of the extent to which two variables
"move together" – as one changes, how does the
other one change? The correlation measure is a
"dimensonless" number, and can therefore be
used to compare "apples" and "oranges" or
variables measured in different units.
CORRELATION and REGRESSION.
â€Ē Pearson's Correlation Coefficient āļ§āļąāļ”āļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāđ€āļŠāļīāļ‡āđ€āļŠïœ‹āļ™āļ•āļĢāļ‡
āļĢāļ°āļŦāļ§ïœŠāļēāļ‡ 2 āļ•āļąāļ§āđāļ›āļĢ āļ‹āļķāđˆāļ‡āđƒāļŠïœ‹āđ„āļĄïœŠāđ„āļ”āđƒāļ™āļāļĢāļ“āļĩāļ—āļĩāđˆāļ•āļąāļ§āđāļ›āļĢāļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļ™āđ€āļ›ïœ’āļ™āđ€āļŠïœ‹āļ™āđ‚āļ„āļ‡ āļŦāļĢāļ·āļ­
āļĄāļĩāļˆāļģāļ™āļ§āļ™ Outliers āļĄāļēāļāđ€āļ›ïœ’āļ™āļžāļīāđ€āļĻāļĐ
â€Ē āļ„āļģāļŠāļąāđˆāļ‡āđƒāļ™āļāļēāļĢāļŦāļē Pearson's correlation āđƒāļ™ Microsoft Excel āļ„āļ·āļ­
"=CORREL"
â€Ē
CORRELATION and REGRESSION.
â€Ē āļ–āļē | r | āļĄāļĩāļ„āļēāļĄāļēāļ āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āđāļĨāļ° y āļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļ™āļĄāļēāļ
â€Ē r = 0 āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āđāļĨāļ° y āđ„āļĄïœŠāļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļ™
â€Ē r > 0 āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ āļŦāļĢāļ·āļ­ āļ–āļē x
āļĄāļĩāļ„āļēāļĨāļ”āļĨāļ‡āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāļĨāļ”āļĨāļ‡
â€Ē r < 0 āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāļĨāļ”āļĨāļ‡ āļŦāļĢāļ·āļ­ āļ–āļē x āļĄāļĩ
āļ„āļēāļĨāļ”āļĨāļ‡āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™
â€Ē āļ„āļē b āđāļĨāļ° r āļˆāļ°āļĄāļĩāđ€āļ„āļĢāļ·āđˆāļ­āļ‡āļŦāļĄāļēāļĒāđ€āļŦāļĄāļ·āļ­āļ™āļāļąāļ™
REGRESSION.
â€Ē What is a regression? Informally, it is a line fitted between two
variables to estimate the (linear) relationship between the two
variables. In the case where we have more than one "predictor"
variable, it is multi-dimensional plane describing the relationship
between the variables.
â€Ē One way to think about regression is that it is a way to test the
statistical effect of one variable on another variable, holding all
other variables constant.
â€Ē āđ€āļ›ïœ’āļ™āļāļēāļĢāļŦāļēāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāđ€āļŠāļīāļ‡āđ€āļŠïœ‹āļ™āļ•āļĢāļ‡āļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ•āļąāļ§āđāļ›āļĢāļŠāļ­āļ‡āļ•āļąāļ§ āđƒāļ™āļāļĢāļ“āļĩāļ—āļĩāđˆāļĄāļĩ
āļ•āļąāļ§āđāļ›āļĢāļ•āļ™āļĄāļēāļāļāļ§ïœŠāļē 1 āļ•āļąāļ§āđāļ›āļĢ āļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļˆāļ°āđ€āļ›ïœ’āļ™āļĢāļ°āļ™āļēāļšāļŦāļĨāļēāļĒāļĄāļīāļ•āļī
â€Ē āļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāđ€āļŠāļīāļ‡āđ€āļŠïœ‹āļ™āļšāļ­āļāļ­āļīāļ—āļ˜āļīāļžāļĨāđ€āļ‰āļžāļēāļ°āļ‚āļ­āļ‡āļ•āļąāļ§āđāļ›āļĢāļ•āļ™āļ•āļ­āļ•āļąāļ§āđāļ›āļĢāļ•āļēāļĄ
āđ€āļžāļĩāļĒāļ‡āļ„āļđāđ€āļ”āļĩāļĒāļ§ āđ‚āļ”āļĒāđ„āļĄïœŠāļ„āļģāļ™āļķāļ‡āļ–āļķāļ‡āļ•āļąāļ§āđāļ›āļĢāļ­āļ·āđˆāļ™ (āļ–āļ·āļ­āļ§ïœŠāļēāļ„āļ‡āļ—āļĩāđˆ)
āđ€āļ”āļ·āļ­āļ™ 1 2 3 4 5 6 7 8 9 10 11 12
āļ­āļļāļ“āļŦāļ āļđāļĄāļī 18 24 33 37 34 28 32 27 28 27 21 19
āļœāļđāļŠāļļāļĄāļ™āļļāļĄ 43 38 32 37 5 0 0 0 0 8 23 49
āđƒāļŠïœ‹āļ­āļ˜āļīāļšāļēāļĒāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ‚āļ­āļĄāļđāļĨ 2 āļŠāļļāļ”āļ—āļĩāđˆāļĄāļĩāļ­āļīāļ—āļ˜āļīāļžāļĨāļ•āļ­āļāļąāļ™ (regression) āđāļĨāļ°
āļ‚āļ­āļĄāļđāļĨ 2 āļŠāļļāļ”āļ—āļĩāđˆāļĄāļĩāļ„āļ§āļēāļĄāđ€āļāļĩāđˆāļĒāļ§āļžāļąāļ™āļāļąāļ™ (correlation)
āđƒāļŠïœ‹ āļŠāļĄāļāļēāļĢ y = a + bx
āđ‚āļ”āļĒ Y y = āđ€āļŠïœ‹āļ™āļāļēāļĢāļ–āļ”āļ–āļ­āļĒ āļ„āļģāļ™āļ§āļ“āđ„āļ”āļˆāļēāļāļ—āļļāļāļ„āļēāļ‚āļ­āļ‡ x āļ—āļĩāđˆāļāļģāļŦāļ™āļ”āđƒāļŦ Y
Y a = āļˆāļļāļ”āļ•āļąāļ”āļšāļ™āđāļāļ™ y (Intercept)
Y b = āļ„āļ§āļēāļĄāļŠāļąāļ™āļšāļ™āđ€āļŠïœ‹āļ™āļāļĢāļēāļŸ āļŦāļĢāļ·āļ­āļŠāļąāļĄāļ›āļĢāļ°āļŠāļīāļ—āļ˜ïœŽāļāļēāļĢāļ–āļ”āļ–āļ­āļĒ (Regression Coefcient)
āļ•āļąāļ§āļ­āļĒāļēāļ‡āļ‚āļ­āļĄāļđāļĨ
x = āļ•āļąāļ§āđāļ›āļĢāļ­āļīāļŠāļĢāļ° (Independent Variable)
y = āļ•āļąāļ§āđāļ›āļĢāļ•āļēāļĄ (Dependent Variable)
CORRELATION and REGRESSION.
CORRELATION and REGRESSION.
X Variable 1 Line Fit Plot
0
10
20
30
40
50
60
0 10 20 30 40
X Variable 1
Y
Y
Predicted Y
CORRELATION and REGRESSION.
rxy
āļ—āļ”āļŠāļ­āļšāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°
āļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨāļ—āļĩāđˆāđ€āļ›ïœ’āļ™āļĢāļ°āļ”āļąāļšāļŠïœŠāļ§āļ‡āļŦāļĢāļ·āļ­āļŠāļąāļ”āļŠïœŠāļ§āļ™ āđ‚āļ”āļĒ
āļ„āļēāļ—āļĩāđˆāđ„āļ”āļˆāļ°āļšāļ­āļāđ„āļ”āļ§ïœŠāļēāļ›ïœāļˆāļˆāļąāļĒāļ—āļĩāđˆāļ™āļģāļĄāļēāđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļš
āļāļąāļ™āļ™āļąāđ‰āļ™ āļĄāļĩāļāļēāļĢāđ€āļ›āļĨāļĩāđˆāļĒāļ™āđāļ›āļĨāļ‡āđ„āļ›āļ”āļ§āļĒāļāļąāļ™āļŦāļĢāļ·āļ­āđ„āļĄïœŠ āļĄāļĩ
āļ—āļīāļĻāļ—āļēāļ‡āđ€āļ”āļĩāļĒāļ§āļāļąāļ™āļŦāļĢāļ·āļ­āļ•āļĢāļ‡āļāļąāļ™āļ‚āļēāļĄ
āļ„āļēāļŠāļąāļĄāļ›āļĢāļ°āļŠāļīāļ—āļ˜āļīāđŒāļŠāļŦāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽ (rxy)
āđ€āļ”āļ·āļ­āļ™ 1 2 3 4 5 6 7 8 9 10 11 12
āļœāļđāļŠāļļāļĄāļ™āļļāļĄ 43 38 32 37 5 0 0 0 0 8 23 49
āļ­āļļāļ“āļŦāļ āļđāļĄāļī 18 24 33 37 34 28 32 27 28 27 21 19
r = -0.40
āđāļŠāļ”āļ‡āļ§ïœŠāļēāļ‚āļ­āļĄāļđāļĨāļˆāļģāļ™āļ§āļ™āļœāļđāļŠāļļāļĄāļ™āļļāļĄāļ—āļĩāđˆāļŠāļģāļĢāļ§āļˆāļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļšāļ­āļļāļ“āļŦāļ āļđāļĄāļīāļ„āļ­āļ™āļ‚āļēāļ‡
āļ™ïœ‹āļ­āļĒ āđāļĨāļ°āļĄāļĩāļ—āļīāļĻāļ—āļēāļ‡āļ•āļĢāļ‡āļ‚āļēāļĄāļāļąāļ™

More Related Content

PDF
āļĢāļ°āļšāļšāļ›āļĢāļ°āļŠāļēāļ—Part1blank
Thanyamon Chat.
 
PDF
āļšāļ—āļ—āļĩāđˆ 4
Janova Kknd
 
PDF
āļžāļ·āđ‰āļ™āļ—āļĩāđˆāđƒāļ•āđ‰āđ‚āļ„āđ‰āļ‡
krurutsamee
 
DOC
11āđāļœāļ™
Fmz Npaz
 
PDF
āļžāļĨāļąāļ‡āļ‡āļēāļ™āļ āļēāļĒāđƒāļ™āļĢāļ°āļšāļš
Chanthawan Suwanhitathorn
 
PDF
āļšāļ—āļ—āļĩāđˆ1 āļˆāļģāļ™āļ§āļ™āļˆāļĢāļīāļ‡
Bombam Waranya
 
DOC
āļāļēāļĢāđ€āļ„āļĨāļ·āđˆāļ­āļ™āļ—āļĩāđˆāđƒāļ™āđāļ™āļ§āđ€āļŠāđ‰āļ™āļ•āļĢāļ‡
kroosarisa
 
PDF
Nursing Care for Coronary Artery disease edition 111058
Aphisit Aunbusdumberdor
 
āļĢāļ°āļšāļšāļ›āļĢāļ°āļŠāļēāļ—Part1blank
Thanyamon Chat.
 
āļšāļ—āļ—āļĩāđˆ 4
Janova Kknd
 
āļžāļ·āđ‰āļ™āļ—āļĩāđˆāđƒāļ•āđ‰āđ‚āļ„āđ‰āļ‡
krurutsamee
 
11āđāļœāļ™
Fmz Npaz
 
āļžāļĨāļąāļ‡āļ‡āļēāļ™āļ āļēāļĒāđƒāļ™āļĢāļ°āļšāļš
Chanthawan Suwanhitathorn
 
āļšāļ—āļ—āļĩāđˆ1 āļˆāļģāļ™āļ§āļ™āļˆāļĢāļīāļ‡
Bombam Waranya
 
āļāļēāļĢāđ€āļ„āļĨāļ·āđˆāļ­āļ™āļ—āļĩāđˆāđƒāļ™āđāļ™āļ§āđ€āļŠāđ‰āļ™āļ•āļĢāļ‡
kroosarisa
 
Nursing Care for Coronary Artery disease edition 111058
Aphisit Aunbusdumberdor
 

What's hot (20)

PDF
āļāļēāļĢāđ€āļ„āļĨāļ·āđˆāļ­āļ™āļ—āļĩāđˆāļ‚āļ­āļ‡āļŠāļąāļ•āļ§āđŒāļĄāļĩāļāļĢāļ°āļ”āļđāļāļŠāļąāļ™āļŦāļĨāļąāļ‡
āļŠāļļāļĢāļīāļ™āļ—āļĢāđŒ āļ”āļĩāđāļāđ‰āļ§āđ€āļāļĐ
 
PDF
1āļ„āļ§āļēāļĄāļŦāļ™āļēāđāļ™āđˆāļ™ āđāļĨāļ°āļ„āļ§āļēāļĄāļ”āļąāļ™āđƒāļ™āļ‚āļ­āļ‡āđ„āļŦāļĨ
Wijitta DevilTeacher
 
PDF
āđƒāļšāļ„āļ§āļēāļĄāļĢāļđāđ‰āļ—āļĩāđˆ 3 āđ€āļĢāļ·āđˆāļ­āļ‡āļŠāļąāļāļĨāļąāļāļĐāļ“āđŒāļ—āļēāļ‡āđ„āļŸāļŸāđ‰āļē
āļžāļąāļ™ āļžāļąāļ™
 
PDF
2āļāļŽāļ‚āļ­āļ‡āļžāļēāļŠāļ„āļąāļĨ āđāļĨāļ°āļŦāļĨāļąāļāļ‚āļ­āļ‡āļ­āļēāļĢāđŒāļ„āļĩāļĄāļīāļ”āļĩāļŠ
Wijitta DevilTeacher
 
PDF
āļ§āļ‡āļāļĨāļĄāļŦāļ™āļķāđˆāļ‡āļŦāļ™āđˆāļ§āļĒ
Jiraprapa Suwannajak
 
PDF
Ans n6-w1-1
Thanawut Rattanadon
 
PDF
āđ„āļŸāļŸāđ‰āļēāļŠāļ–āļīāļ•
Chanthawan Suwanhitathorn
 
PDF
āđƒāļšāļ„āļ§āļēāļĄāļĢāļđāđ‰āļŠāļ™āļēāļĄāđāļĄāđˆāđ€āļŦāļĨāđ‡āļ
āļŠāļļāļāļąāļāļāļē āļ™āļīāđˆāļĄāļžāļąāļ™āļ˜āļļāđŒ
 
PDF
PATHOPHYSIOLOGY OF URINARY SYSTEM FOR STUDENT NURSES
Aphisit Aunbusdumberdor
 
PDF
āđ€āļ‡āļēāļĄāļ·āļ” āđ€āļ‡āļēāļĄāļąāļ§
Pacharee Nammon
 
PDF
Physics atom
Tom Vipguest
 
PPTX
Chapter2 āļ­āļļāļ›āļŠāļ‡āļ„āđŒāļ­āļļāļ›āļ—āļēāļ™
Pattapong Promchai
 
PDF
3. āļāļĢāļ°āļšāļ§āļ™āļāļēāļĢāđāļāđ‰āļ›āļąāļāļŦāļēāļ‚āļ­āļ‡āđ‚āļžāļĨāļĒāļē
krurutsamee
 
PDF
āļ­āļ™āļļāļžāļąāļ™āļ˜āđŒ
krurutsamee
 
PPTX
āļ•āļĨāļēāļ”āđƒāļ™āļĢāļ°āļšāļšāđ€āļĻāļĢāļĐāļāļāļīāļˆ
PariwanButsat
 
PDF
āļ„āļĨāļ·āđˆāļ™ āļĄ.3.pdf
ssuser920267
 
PPTX
āļŠāļ‡āļ„āļĢāļēāļĄāđ‚āļĨāļāļ„āļĢāļąāđ‰āļ‡āļ—āļĩāđˆ 1
nidthawann
 
PDF
Math5
krusangduan54
 
PDF
172 130909011745-
Sutaporn Rattanatungcharorn
 
PDF
āđ€āļžāļēāđ€āļ§āļ­āļĢāđŒāđ€āļ‹āļ•
Aon Narinchoti
 
āļāļēāļĢāđ€āļ„āļĨāļ·āđˆāļ­āļ™āļ—āļĩāđˆāļ‚āļ­āļ‡āļŠāļąāļ•āļ§āđŒāļĄāļĩāļāļĢāļ°āļ”āļđāļāļŠāļąāļ™āļŦāļĨāļąāļ‡
āļŠāļļāļĢāļīāļ™āļ—āļĢāđŒ āļ”āļĩāđāļāđ‰āļ§āđ€āļāļĐ
 
1āļ„āļ§āļēāļĄāļŦāļ™āļēāđāļ™āđˆāļ™ āđāļĨāļ°āļ„āļ§āļēāļĄāļ”āļąāļ™āđƒāļ™āļ‚āļ­āļ‡āđ„āļŦāļĨ
Wijitta DevilTeacher
 
āđƒāļšāļ„āļ§āļēāļĄāļĢāļđāđ‰āļ—āļĩāđˆ 3 āđ€āļĢāļ·āđˆāļ­āļ‡āļŠāļąāļāļĨāļąāļāļĐāļ“āđŒāļ—āļēāļ‡āđ„āļŸāļŸāđ‰āļē
āļžāļąāļ™ āļžāļąāļ™
 
2āļāļŽāļ‚āļ­āļ‡āļžāļēāļŠāļ„āļąāļĨ āđāļĨāļ°āļŦāļĨāļąāļāļ‚āļ­āļ‡āļ­āļēāļĢāđŒāļ„āļĩāļĄāļīāļ”āļĩāļŠ
Wijitta DevilTeacher
 
āļ§āļ‡āļāļĨāļĄāļŦāļ™āļķāđˆāļ‡āļŦāļ™āđˆāļ§āļĒ
Jiraprapa Suwannajak
 
Ans n6-w1-1
Thanawut Rattanadon
 
āđ„āļŸāļŸāđ‰āļēāļŠāļ–āļīāļ•
Chanthawan Suwanhitathorn
 
āđƒāļšāļ„āļ§āļēāļĄāļĢāļđāđ‰āļŠāļ™āļēāļĄāđāļĄāđˆāđ€āļŦāļĨāđ‡āļ
āļŠāļļāļāļąāļāļāļē āļ™āļīāđˆāļĄāļžāļąāļ™āļ˜āļļāđŒ
 
PATHOPHYSIOLOGY OF URINARY SYSTEM FOR STUDENT NURSES
Aphisit Aunbusdumberdor
 
āđ€āļ‡āļēāļĄāļ·āļ” āđ€āļ‡āļēāļĄāļąāļ§
Pacharee Nammon
 
Physics atom
Tom Vipguest
 
Chapter2 āļ­āļļāļ›āļŠāļ‡āļ„āđŒāļ­āļļāļ›āļ—āļēāļ™
Pattapong Promchai
 
3. āļāļĢāļ°āļšāļ§āļ™āļāļēāļĢāđāļāđ‰āļ›āļąāļāļŦāļēāļ‚āļ­āļ‡āđ‚āļžāļĨāļĒāļē
krurutsamee
 
āļ­āļ™āļļāļžāļąāļ™āļ˜āđŒ
krurutsamee
 
āļ•āļĨāļēāļ”āđƒāļ™āļĢāļ°āļšāļšāđ€āļĻāļĢāļĐāļāļāļīāļˆ
PariwanButsat
 
āļ„āļĨāļ·āđˆāļ™ āļĄ.3.pdf
ssuser920267
 
āļŠāļ‡āļ„āļĢāļēāļĄāđ‚āļĨāļāļ„āļĢāļąāđ‰āļ‡āļ—āļĩāđˆ 1
nidthawann
 
Math5
krusangduan54
 
172 130909011745-
Sutaporn Rattanatungcharorn
 
āđ€āļžāļēāđ€āļ§āļ­āļĢāđŒāđ€āļ‹āļ•
Aon Narinchoti
 
Ad

Similar to Inferential Statistics & Regression (20)

PDF
āļŠāļ–āļīāļ•āļīāļŠāļģāļŦāļĢāļąāļšāļ˜āļļāļĢāļāļīāļˆ 2
Teetut Tresirichod
 
PPT
āļ„āļ§āļēāļĄāļĢāļđāđ‰āđ€āļšāļ·āđ‰āļ­āļ‡āļ•āđ‰āļ™āđ€āļāļĩāđˆāļĒāļ§āļāļąāļšāļŠāļ–āļīāļ•āļī āļ­āļ āļīāđ€āļ—āļž
āļ­āļ āļīāđ€āļ—āļž āļ—āļ­āļ‡āđ€āļˆāļ·āļ­
 
PPT
statistic_research.ppt
SuwanPetchroong
 
PPT
āļŠāļ–āļīāļ•āļīStat
TupPee Zhouyongfang
 
PDF
Simple linear regression and correlation
Phim Phimmat
 
PPTX
āļāļēāļĢāļ§āļīāđ€āļ„āļĢāļēāļ°āļŦāđŒāļ‚āđ‰āļ­āļĄāļđāļĨ
DuangdenSandee
 
PPTX
Spc basic for training in thai
Krissana Manoping
 
PPT
Spss jan2010
guest629111d
 
PPT
Spss jan2010
juriporn chuchanakij
 
PPT
āļŠāļ–āļīāļ•āļīāļžāļĢāļĢāļ“āļ™āļēāđƒāļ™āļāļēāļĢāļ§āļīāļˆāļąāļĒāđ€āļŠāļīāļ‡āļ›āļĢāļīāļĄāļēāļ“ āļ›āļĢāļąāļšSlide-āđ€āļžāļīāđˆāļĄslideāļ‡āļēāļ™āļĄāļ­āļšāļŦāļĄāļēāļĒ
somsur2001
 
PDF
Simple linear regression and correlation
Phim Phimmat
 
PDF
āļšāļ—āļ—āļĩāđˆ10.pdf
sewahec743
 
PDF
Epi info unit09
Banjong Ardkham
 
PDF
7 āļŠāļ–āļīāļ•āļīāđ€āļžāļ·āđˆāļ­āļāļēāļĢāļ§āļīāļˆāļąāļĒ
Nitinop Tongwassanasong
 
PPTX
āđ€āļ­āļāļŠāļēāļĢāļšāļĢāļĢāļĒāļēāļĒ āđ€āļĢāļ·āđˆāļ­āļ‡ āđāļ™āļ§āļ—āļēāļ‡āļāļēāļĢāđƒāļŠāđ‰āļŠāļ–āļīāļ•āļīāđ€āļžāļ·āđˆāļ­āļāļēāļĢāļ§āļīāļˆāļąāļĒāļ—āļēāļ‡āļāļēāļĢāļĻāļķāļāļĐāļēāđāļĨāļ°āļāļēāļĢāđƒāļŠāđ‰āļ„āļ­āļĄāļžāļīāļ§āđ€...
āļŠāļ§āļ™āļžāļš āđ€āļ­āļĩāđˆāļĒāļ§āļŠāļēāļ™āļļāļĢāļąāļāļĐāđŒ
 
PDF
Statistics for research by spss program
Punyapon Tepprasit
 
PDF
Introduction to Statistics: Descriptive Statistics
Thana Chirapiwat
 
PDF
Regression for statistical analysis with SAS
nontafirst
 
āļŠāļ–āļīāļ•āļīāļŠāļģāļŦāļĢāļąāļšāļ˜āļļāļĢāļāļīāļˆ 2
Teetut Tresirichod
 
āļ„āļ§āļēāļĄāļĢāļđāđ‰āđ€āļšāļ·āđ‰āļ­āļ‡āļ•āđ‰āļ™āđ€āļāļĩāđˆāļĒāļ§āļāļąāļšāļŠāļ–āļīāļ•āļī āļ­āļ āļīāđ€āļ—āļž
āļ­āļ āļīāđ€āļ—āļž āļ—āļ­āļ‡āđ€āļˆāļ·āļ­
 
statistic_research.ppt
SuwanPetchroong
 
āļŠāļ–āļīāļ•āļīStat
TupPee Zhouyongfang
 
Simple linear regression and correlation
Phim Phimmat
 
āļāļēāļĢāļ§āļīāđ€āļ„āļĢāļēāļ°āļŦāđŒāļ‚āđ‰āļ­āļĄāļđāļĨ
DuangdenSandee
 
Spc basic for training in thai
Krissana Manoping
 
Spss jan2010
guest629111d
 
Spss jan2010
juriporn chuchanakij
 
āļŠāļ–āļīāļ•āļīāļžāļĢāļĢāļ“āļ™āļēāđƒāļ™āļāļēāļĢāļ§āļīāļˆāļąāļĒāđ€āļŠāļīāļ‡āļ›āļĢāļīāļĄāļēāļ“ āļ›āļĢāļąāļšSlide-āđ€āļžāļīāđˆāļĄslideāļ‡āļēāļ™āļĄāļ­āļšāļŦāļĄāļēāļĒ
somsur2001
 
Simple linear regression and correlation
Phim Phimmat
 
āļšāļ—āļ—āļĩāđˆ10.pdf
sewahec743
 
Epi info unit09
Banjong Ardkham
 
7 āļŠāļ–āļīāļ•āļīāđ€āļžāļ·āđˆāļ­āļāļēāļĢāļ§āļīāļˆāļąāļĒ
Nitinop Tongwassanasong
 
āđ€āļ­āļāļŠāļēāļĢāļšāļĢāļĢāļĒāļēāļĒ āđ€āļĢāļ·āđˆāļ­āļ‡ āđāļ™āļ§āļ—āļēāļ‡āļāļēāļĢāđƒāļŠāđ‰āļŠāļ–āļīāļ•āļīāđ€āļžāļ·āđˆāļ­āļāļēāļĢāļ§āļīāļˆāļąāļĒāļ—āļēāļ‡āļāļēāļĢāļĻāļķāļāļĐāļēāđāļĨāļ°āļāļēāļĢāđƒāļŠāđ‰āļ„āļ­āļĄāļžāļīāļ§āđ€...
āļŠāļ§āļ™āļžāļš āđ€āļ­āļĩāđˆāļĒāļ§āļŠāļēāļ™āļļāļĢāļąāļāļĐāđŒ
 
Statistics for research by spss program
Punyapon Tepprasit
 
Introduction to Statistics: Descriptive Statistics
Thana Chirapiwat
 
Regression for statistical analysis with SAS
nontafirst
 
Ad

More from Thana Chirapiwat (14)

PDF
265201 architectural news
Thana Chirapiwat
 
PDF
Hypothesis testing
Thana Chirapiwat
 
PDF
Presenting data
Thana Chirapiwat
 
PDF
Participatory Methods
Thana Chirapiwat
 
PDF
āļāļēāļĢāļ­āļ āļīāļ›āļĢāļēāļĒāđāļĨāļ°āļŠāļĢāļļāļ›āļœāļĨāļāļēāļĢāļ§āļīāļˆāļąāļĒ
Thana Chirapiwat
 
PDF
Slide presentation
Thana Chirapiwat
 
PDF
georeference
Thana Chirapiwat
 
PDF
GIS data structure
Thana Chirapiwat
 
PDF
Land suitability analysis
Thana Chirapiwat
 
PDF
āļāļēāļĢāļ›āļĢāļ°āļŠāļļāļĄāļĢāļ°āļ”āļĄāļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ Focus Group āđ€āļ—āļĻāļšāļēāļĨāļ™āļ„āļĢāđ€āļˆāđ‰āļēāļžāļĢāļ°āļĒāļēāļŠāļļāļĢāļĻāļąāļāļ”āļīāđŒ 09092015
Thana Chirapiwat
 
PDF
āļāļēāļĢāļ›āļĢāļ°āļŠāļļāļĄāļĢāļ°āļ”āļĄāļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ Focus Group āđ€āļ—āļĻāļšāļēāļĨāđ€āļĄāļ·āļ­āļ‡āļŦāļąāļ§āļŦāļīāļ™ 07092015
Thana Chirapiwat
 
PDF
āļāļēāļĢāļ›āļĢāļ°āļŠāļļāļĄāļĢāļ°āļ”āļĄāļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ Focus Group āđ€āļ—āļĻāļšāļēāļĨāļ•āļģāļšāļĨāļ—āđˆāļēāļĒāļēāļ‡ 08092015
Thana Chirapiwat
 
PDF
History & Theory of City Planning
Thana Chirapiwat
 
PDF
Urban Geography
Thana Chirapiwat
 
265201 architectural news
Thana Chirapiwat
 
Hypothesis testing
Thana Chirapiwat
 
Presenting data
Thana Chirapiwat
 
Participatory Methods
Thana Chirapiwat
 
āļāļēāļĢāļ­āļ āļīāļ›āļĢāļēāļĒāđāļĨāļ°āļŠāļĢāļļāļ›āļœāļĨāļāļēāļĢāļ§āļīāļˆāļąāļĒ
Thana Chirapiwat
 
Slide presentation
Thana Chirapiwat
 
georeference
Thana Chirapiwat
 
GIS data structure
Thana Chirapiwat
 
Land suitability analysis
Thana Chirapiwat
 
āļāļēāļĢāļ›āļĢāļ°āļŠāļļāļĄāļĢāļ°āļ”āļĄāļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ Focus Group āđ€āļ—āļĻāļšāļēāļĨāļ™āļ„āļĢāđ€āļˆāđ‰āļēāļžāļĢāļ°āļĒāļēāļŠāļļāļĢāļĻāļąāļāļ”āļīāđŒ 09092015
Thana Chirapiwat
 
āļāļēāļĢāļ›āļĢāļ°āļŠāļļāļĄāļĢāļ°āļ”āļĄāļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ Focus Group āđ€āļ—āļĻāļšāļēāļĨāđ€āļĄāļ·āļ­āļ‡āļŦāļąāļ§āļŦāļīāļ™ 07092015
Thana Chirapiwat
 
āļāļēāļĢāļ›āļĢāļ°āļŠāļļāļĄāļĢāļ°āļ”āļĄāļ„āļ§āļēāļĄāļ„āļīāļ”āđ€āļŦāđ‡āļ™ Focus Group āđ€āļ—āļĻāļšāļēāļĨāļ•āļģāļšāļĨāļ—āđˆāļēāļĒāļēāļ‡ 08092015
Thana Chirapiwat
 
History & Theory of City Planning
Thana Chirapiwat
 
Urban Geography
Thana Chirapiwat
 

Inferential Statistics & Regression

  • 1. Statistical Inference and Linear Regression Reference: Paulsen, Kurt. (2005). Planning Methods. Temple University.
  • 2. Overview â€Ē INFERENTIAL statistics is the branch of statistics that allow us to draw conclusions about the data or to test hypothesizes. “Statistical inference is the act of reaching conclusions about the world based on a set of data, and then evaluating the reliability of those conclusions.” ! ! āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡āđ€āļ›ïœ’āļ™āļ§āļīāļ˜āļĩāļāļēāļĢāđƒāļ™āļāļēāļĢāđāļïœ‹āļ›ïœāļāļŦāļēāļ—āļĩāđˆāļˆāļ°āļžāļĒāļēāļĒāļēāļĄ āļ­ïœ‹āļēāļ‡ (infer) āļ„āļļāļ“āļŠāļĄāļšāļąāļ•āļīāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ‚āļ­āļĄāļđāļĨāļˆāļēāļāļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ„āļ›āļĒāļąāļ‡āļ›āļĢāļ°āļŠāļēāļāļĢ ! ! āļˆāļļāļ”āļŦāļĄāļēāļĒāļ‚āļ­āļ‡āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡āļĄāļĩāļˆāļļāļ”āļŦāļĄāļēāļĒāđ€āļžāļ·āđˆāļ­āļ—āļģāļ™āļēāļĒāļŦāļĢāļ·āļ­āļ›āļĢāļ°āļĄāļēāļ“ āļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļ›āļĢāļ°āļŠāļēāļāļĢāļˆāļēāļāļ‚āļ­āļĄāļđāļĨāļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ āđāļĨāļ° āļ›āļĢāļ°āđ€āļĄāļīāļ™āļ„āļ§āļēāļĄāļ™ïœŠāļēāđ€āļŠāļ·āđˆāļ­āļ–āļ·āļ­āļ‚āļ­āļ‡āļœāļĨ
  • 3. āļāļĢāļ°āļšāļ§āļ™āļāļēāļĢāļ—āļēāļ‡āļŠāļ–āļīāļ•āļī āļ„āļēāļžāļēāļĢāļēāļĄāļĩāđ€āļ•āļ­āļĢ (Ξ , σ2 , ρ , āļŊāļĨāļŊ) āļāļĨāļļāļĄāļ›āļĢāļ°āļŠāļēāļāļĢ āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ āļ„āļēāļŠāļ–āļīāļ•āļī ( X , S2 , r , āļŊāļĨāļŊ)āļāļēāļĢāļ›āļĢāļ°āļĄāļēāļ“āļ„āļē āļāļēāļĢāļ—āļ”āļŠāļ­āļšāļŠāļĄāļ•āļīāļāļēāļ™ āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡ āļŠāļ–āļīāļ•āļīāđ€āļŠāļīāļ‡āļšāļĢāļĢāļĒāļēāļĒ
  • 4. Z - test T – test F – test χ2 test rxy āļ—āļ”āļŠāļ­āļšāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļšāļāļąāļšāļāļĨāļļāļĄ āļ›āļĢāļ°āļŠāļēāļāļĢāđ€āļĄāļ·āđˆāļ­āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āļĄāļĩāļ‚āļ™āļēāļ”āđ€āļāļīāļ™ 30 āđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļšāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ 2 āļāļĨāļļāļĄ āđ€āļĄāļ·āđˆāļ­āļāļĨāļļāļĄ āļ•āļąāļ§āļ­āļĒāļēāļ‡āļĄāļĩāļ‚āļ™āļēāļ”āđ„āļĄïœŠāđ€āļāļīāļ™ 30 āđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļšāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ 3 āļāļĨāļļāļĄāļ‚āļķāđ‰āļ™āđ„āļ› āļ—āļ”āļŠāļ­āļšāļ„āļ§āļēāļĄāđ€āļ›ïœ’āļ™āļ­āļīāļŠāļĢāļ°āļ•āļ­āļāļąāļ™ āļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨ āļ—āļĩāđˆāđ€āļ›ïœ’āļ™āļˆāļģāļ™āļ§āļ™āļŦāļĢāļ·āļ­āļ„āļ§āļēāļĄāļ–āļĩāđˆ āļ—āļ”āļŠāļ­āļšāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°āļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨāļ—āļĩāđˆāđ€āļ›ïœ’āļ™ āļĢāļ°āļ”āļąāļšāļŠïœŠāļ§āļ‡āļŦāļĢāļ·āļ­āļŠāļąāļ”āļŠïœŠāļ§āļ™ āļŠāļ–āļīāļ•āļīāļ­ïœ‹āļēāļ‡āļ­āļīāļ‡āļ—āļĩāđˆāļ—āļĩāđˆāđƒāļŠïœ‹āđƒāļ™āļāļēāļĢāļŦāļēāļ‚āļ­āļŠāļĢāļļāļ›āļˆāļēāļāļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡
  • 5. Condence Intervals â€Ē Central Limit Theorem: â€Ē āļŦāļĄāļēāļĒāļ–āļķāļ‡ āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āļˆāļ°āļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ­āļĒāļđāļˆāļēāļ sample mean āđƒāļ™āļĢāļđāļ›āļ‚āļ­āļ‡āđ‚āļ„āļ‡ āļ›āļāļ•āļī Normal curve ("N") āļ—āļĩāđˆāļĄāļĩāļ„āļē mean āđ€āļ—āļēāļāļąāļšāļ„āļē true mean (mu) āđāļĨāļ° standard deviation āđ€āļ—āļēāļāļąāļš â€œstandard error” (sigma āļŦāļēāļĢ āļ”āļ§āļĒ square root of n, āđ‚āļ”āļĒ n āđ€āļ›ïœ’āļ™āļˆāļģāļ™āļ§āļ™āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ (sample size)) āļ”āļąāļ‡āļ™āļąāđ‰āļ™ standard deviation āļ‚āļ­āļ‡āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ€āļ›ïœ’āļ™ āļ•āļąāļ§āđāļ›āļĢāļˆāļēāļ sample size.
  • 6. â€Ē āđ€āļĢāļēāļŠāļēāļĄāļēāļĢāļ–āđƒāļŠïœ‹āļŠāļđāļ•āļĢāļ„āļģāļ™āļ§āļ“āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđ€āļžāļ·āđˆāļ­āđāļŠāļ”āļ‡āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļ‚āļ­āļ‡ āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡āđƒāļ”āđ† āđ„āļ”āļ”āļ§āļĒ āļ„āļēāļ—āļĩāđˆāđ€āļĢāļĩāļĒāļāļ§ïœŠāļē STANDARD NORMAL: â€Ē āļ„āļēāļ™āļĩāđ‰āļĄāļąāļāđ€āļĢāļĩāļĒāļāļāļąāļ™āļ§ïœŠāļē "z-test statistic" (āļŦāļĢāļ·āļ­āļšāļēāļ‡āļ„āļĢāļąāđ‰āļ‡āļāđ‡āđ€āļĢāļĩāļĒāļ "z-score") āļ„āļē z-test statistic āļĄāļĩāļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ°āļ—āļĩāđˆāļĄāļĩāļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āđāļšāļš STANDARD NORMAL CURVE. “Standardizing” or z-scores
  • 7. “Z-values” â€Ē āļ„āļē “z-value” āļŦāļĢāļ·āļ­ â€œāļ„āļēāļĄāļēāļ•āļĢāļāļēāļ™â€ āđ€āļ›ïœ’āļ™āļ„āļ°āđāļ™āļ™āļ—āļĩāđˆāđāļ›āļĨāļ‡āļĢāļđāļ›āļĄāļēāļˆāļēāļāļ„āļ°āđāļ™āļ™āļ”āļīāļš āđ€āļžāļ·āđˆāļ­āđƒāļŦāļĄāļĩāļ„āļ§āļēāļĄāļŦāļĄāļēāļĒāļŠāļąāļ”āđ€āļˆāļ™āļĒāļīāđˆāļ‡āļ‚āļķāđ‰āļ™ āđ‚āļ”āļĒāļ—āļąāđˆāļ§āđ„āļ›āļāļēāļĢāđāļ›āļĨāļ‡āļ„āļ°āđāļ™āļ™āļ”āļīāļšāđƒāļŦāđ€āļ›ïœ’āļ™ āļ„āļ°āđāļ™āļ™āļĄāļēāļ•āļĢāļāļēāļ™ â€Ē āđ€āļ›ïœ’āļ™āļāļēāļĢāđāļ›āļĨāļ‡āļ„āļ°āđāļ™āļ™āļ”āļīāļšāđƒāļŦāđ€āļ›ïœ’āļ™āļ„āļ°āđāļ™āļ™ āļĄāļēāļ•āļĢāļāļēāļ™āđ‚āļ”āļĒāļ­āļēāļĻāļąāļĒāļ§āļīāļ˜āļĩāļāļēāļĢāļ—āļēāļ‡āļŠāļ–āļīāļ•āļī āđāļĨāļ°āļĢāļąāļāļĐāļēāđ‚āļ„āļ‡āļāļēāļĢāđāļˆāļāđāļˆāļ‡āđ€āļ”āļīāļĄāđ„āļ§ïœ‹āđ„āļĄïœŠāđ€āļ›āļĨāļĩāđˆāļĒāļ™āđāļ›āļĨāļ‡ â€Ē āļāļēāļĢāļ„āļēāļ™āļ§āļ“āļŦāļēāļ„āļ°āđāļ™āļ™āļĄāļēāļ•āļĢāļāļēāļ™ Z āļ­āļēāļĻāļąāļĒāļ„āļ°āđāļ™āļ™āđ€āļ‰āļĨāļĩāđˆāļĒāļĨāļ°āļ„āļēāđ€āļšāļĩāđˆāļĒāļ‡āđ€āļšāļ™ āļĄāļēāļ•āļĢāļāļēāļ™āļ‚āļ­āļ‡ āļ„āļ°āđāļ™āļ™āđāļ•āļĨāļ°āļŠāļļāļ” āđ‚āļ”āļĒāđƒāļŠïœ‹āļŠāļđāļ•āļĢāļ”āļąāļ‡āļ™āļĩāđ‰āļŠāļđāļ•āļĢ (X-X)/SD â€Ē āđ€āļĄāļ·āđˆāļ­ Z āđāļ—āļ™ āļ„āļ°āđāļ™āļ™āļĄāļēāļ•āļĢāļāļēāļ™āļ‚āļ­āļ‡āđāļ•āļĨāļ°āļ„āļ™ â€Ē X āđāļ—āļ™āļ„āļ°āđāļ™āļ™āļ”āļīāļšāļ‚āļ­āļ‡āđāļ•āļĨāļ°āļ„āļ™ â€Ē X āđāļ—āļ™ āļ„āļ°āđāļ™āļ™āđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨāđƒāļ™āđāļ•āļĨāļ°āļŠāļąāđ‰āļ™ â€Ē SD āđāļ—āļ™ āļ„āļ§āļēāļĄāđ€āļšāļĩāđˆāļĒāļ‡āđ€āļšāļ™āļĄāļēāļ•āļĢāļāļēāļ™āļ‚āļ­āļ‡āļ„āļ°āđāļ™āļ™āļŠāļļāļ”āļ™āļąāđ‰āļ™
  • 9. āļāļēāļĢāļ„āļģāļ™āļ§āļ“āļ„āļē “Critical Values” â€Ē By definition: Îą = 1 - p or p = 1 - Îą â€Ē Thus if we want to find the central 95 percent of a standard normal curve, we define p = 0.95 and Îą = 0.05 â€Ē If we define p = 0.95 and hence Îą = 0.05, we want 95 percent of the probability to be within our area, and 5 percent to be outside. â€Ē Since a normal curve is symmetrical, having 5 percent of the value in the tails means having 2.5 percent of the value in each tale. That is, we just take the value of alpha and divided by 2 for each of the value points. â€Ē āļˆāļģāļāļąāļ”āļ„āļ§āļēāļĄāđ‚āļ”āļĒ: Îą = 1 - p or p = 1 - Îą â€Ē āļ”āļąāļ‡āļ™āļąāđ‰āļ™āļ–āļēāđ€āļĢāļēāļ•āļ­āļ‡āļāļēāļĢāļŦāļēāļžāļ·āđ‰āļ™āļ—āļĩāđˆ 95 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ• āļ•āļĢāļ‡āļāļĨāļēāļ‡āļ‚āļ­āļ‡ standard normal curve āđ€āļĢāļē āļāļģāļŦāļ™āļ”āļ„āļē p = 0.95 āđāļĨāļ° Îą = 0.05 â€Ē āļ–āļēāļāļģāļŦāļ™āļ” p = 0.95 āļˆāļ°āđ„āļ”āļ„āļē Îą = 0.05 āđ€āļĄāļ·āđˆāļ­āđ€āļĢāļēāļ•āļ­āļ‡āļāļēāļĢāļŦāļēāļ„āļ§āļēāļĄāđ€āļ›ïœ’āļ™āđ„āļ›āđ„āļ”āļ—āļĩāđˆ 95 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ‚āļ­āļ‡āļ›āļĢāļ°āļŠāļēāļāļĢāļ—āļĩāđˆāļ­āļĒāļđāļ•āļĢāļ‡āļāļĨāļēāļ‡ āđ‚āļ”āļĒāļĄāļĩ 5 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ­āļĒāļđāļ™āļ­āļāļ‚āļ­āļšāđ€āļ‚āļ•. â€Ē āļˆāļēāļ normal curve āļ—āļĩāđˆāļŠāļĄāļĄāļēāļ•āļĢ 5 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ‚āļ­āļ‡āļ›āļĢāļ°āļŠāļēāļāļĢāļ—āļĩāđˆāļ­āļĒāļđāļ™āļ­āļāļ‚āļ­āļšāđ€āļ‚āļ• āļˆāļ°āđ„āļ” 2.5 āđ€āļ›āļ­āļĢāđ€āļ‹āđ‡āļ™āļ•āļ—āļĩāđˆāļ­āļĒāļđāļ—āļĩāđˆāļŦāļēāļ‡āļ‚āļ­āļ‡ normal curve āđāļ•āļĨāļ°āļ”āļēāļ™.
  • 10. Condence Intervals â€Ē āđ€āļĄāļ·āđˆāļ­āļžāļīāļˆāļēāļĢāļ“āļēāļŦāļēāļ‡āļ‚āļ­āļ‡āđ‚āļ„āļ‡āļ›āļāļ•āļīāļŠāļ­āļ‡āļŦāļēāļ‡ â€œtwo-sided” āđ€āļ›ïœ’āļ™āļāļēāļĢāļžāļīāļˆāļēāļĢāļ“āļē percent āļ‚āļ­āļ‡āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļē 2 āļ„āļē āļ™āļąāđˆāļ™āđ€āļ›ïœ’āļ™āļāļēāļĢāļāļģāļŦāļ™āļ” CONFIDENCE INTERVAL. â€Ē āļ”āļąāļ‡āļ™āļąāđ‰āļ™āļ–āļēāđ€āļĢāļēāļŠāļ™āđƒāļˆāļ„āļē CONFIDENCE INTERVAL āļˆāļēāļāļ„āļē true mean (Ξ) āđ€āļĢāļēāļŠāļēāļĄāļēāļĢāļ–āļ­āļ˜āļīāļšāļēāļĒāļ”āļ§āļĒāļŠāļĄāļāļēāļĢāļ”āļąāļ‡āļ™āļĩāđ‰: The Probability that the mean is between these 2 values is 1-alpha
  • 11. Sample Sizes and Condence Intervals â€Ē KEY POINT: As the sample size increases, the interval (in which we are p percent “confident” that the true sample mean lies) gets thinner and thinner. CONFIDENCE INTERVALS ARE SAMPLE SIZE DEPENDENT!
  • 12. Condence Intervals â€Ē āļŠïœŠāļ§āļ‡āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆ (confidence interval) 95 percent āļŦāļĄāļēāļĒāļ–āļķāļ‡āļ­āļ°āđ„āļĢ? āļŦāļĄāļēāļĒāļ–āļķāļ‡āļ–āļēāđ€āļĢāļēāļ„āļģāļ™āļ§āļ“āļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļ‚āļ­āļ‡āļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ sample average āđ€āļ›ïœ’āļ™āļāļēāļĢāļ›āļĢāļ°āļĄāļēāļ“āļāļēāļĢāļ„āļē true population mean āļˆāļģāļ™āļ§āļ™100 āļ„āļĢāļąāđ‰āļ‡ āđ€āļĢāļēāļĄāļĩ āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆāļ§ïœŠāļē 95 āļ„āļĢāļąāđ‰āļ‡āļˆāļēāļ 100 āļ„āļĢāļąāđ‰āļ‡ āđ€āļĢāļēāļˆāļ°āļŠāļēāļĄāļēāļĢāļ–āđ„āļ”āļ„āļēāđ€āļ”āļĩāļĒāļ§āļāļąāļš true value of Ξ (“true” population mean) â€Ē āđ€āļĢāļēāđƒāļŠïœ‹āļ„āļ§āļēāļĄāļĢāļđāļ—āļēāļ‡āļŠāļ–āļīāļ•āļīāļ™āļĩāđ‰āđƒāļ™āļāļēāļĢāđāļŠāļ”āļ‡āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆāļ§ïœŠāļēāđ€āļĢāļēāļ›āļĢāļ°āļĄāļēāļ“āļ„āļēāļ‚āļ­āļ‡ āļ›āļĢāļ°āļŠāļēāļāļĢāđ„āļ”āļ­āļĒāļēāļ‡āļĄāļĩāļ„āļ§āļēāļĄāđāļĄïœŠāļ™āļĒāļģ āđ‚āļ”āļĒāđ„āļĄïœŠāļ•āļ­āļ‡āļ—āļģāļāļēāļĢāļ—āļ”āļŠāļ­āļšāļāļĨāļļāļĄāļ•āļąāļ§āļ­āļĒāļēāļ‡ 100 āļ„āļĢāļąāđ‰āļ‡!
  • 13. Condence Intervals â€Ē āđ€āļžāļ·āđˆāļ­āļ—āļģāđƒāļŦāļŠāļĄāļāļēāļĢāđ€āļĢāļĩāļĒāļšāļ‡ïœŠāļēāļĒāļ‚āļķāđ‰āļ™ āļˆāļķāļ‡āđāļ—āļ™āļ„āļēāļŠāļąāļāļĨāļąāļāļĐāļ“ Îą āļ”āļ§āļĒāļ„āļēāļ—āļĩāđˆāđ€āļĢāļēāđ€āļŦāđ‡āļ™āđ„āļ” āļ”āļąāļ‡āļ™āļĩāđ‰ āļ”āļ§āļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆ 95 percent āļˆāļķāļ‡āļĄāļĩ p = 0.95 āđāļĨāļ° Îą = 0.05
  • 14. Condence Intervals â€Ē āđāļĨāļ° z-values āļ—āļĩāđˆāļ„āļēāļ„āļ§āļēāļĄāļĄāļąāđˆāļ™āđƒāļˆ 95 percent āļ„āļ·āļ­ -1.96 āđāļĨāļ° 1.96 āđ€āļĢāļēāļāđ‡āļˆāļ°āđ„āļ” āļŠāļĄāļāļēāļĢāļ”āļąāļ§āļ™āļĩāđ‰:
  • 17. Normal Distribution â€Ē āđ‚āļ„āļ‡āļĢāļ°āļ†āļąāļ‡āļ„āļ§āđˆāļģ āļŦāļĢāļ·āļ­āļ—āļĩāđˆāđ€āļĢāļĩāļĒāļāļ§ïœŠāļē Normal Curve āļŦāļĢāļ·āļ­ Gaussian Curve (āļ•āļēāļĄāļŠāļ·āđˆāļ­āļ‚āļ­āļ‡āļ™āļąāļāļ§āļīāļ—āļĒāļēāļĻāļēāļŠāļ•āļĢāļŠāļēāļ§āđ€āļĒāļ­āļĢāļĄāļąāļ™ Karl Friedrick Gauss, 1777-1855)
  • 18. Standard Normal Distribution â€Ē āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āđāļšāļš Normal āļĄāļĩāļ„āļēāđ€āļĢāļĩāļĒāļāļ§ïœŠāļē Z value â€Ē āđ€āļ›ïœ’āļ™āļāļēāļĢāļāļĢāļ°āļˆāļēāļĒāļ•āļąāļ§āļˆāļēāļāļ„āļēāđ€āļ‰āļĨāļĩāđˆāļĒāļāļĨāļēāļ‡ āļ—āļĩāđˆ āđ‚āļ”āļĒāļŦāļēāļ‡āļˆāļēāļāļ„āļēāļāļĨāļēāļ‡āļ•āļēāļĄāļ„āļē Standard Deviation āđ€āļŠïœŠāļ™ āļ„āļē Z = 1.5 āļŦāļĄāļēāļĒāļ–āļķāļ‡ āļˆāļļāļ”āļ—āļĩāđˆāļŦāļēāļ‡āļˆāļēāļāļ„āļēāļāļĨāļēāļ‡ 1.5 āļŦāļ™ïœŠāļ§āļĒ āļ‚āļ­āļ‡ Standard Deviation â€Ē Each Z value is the number of standard deviations away from the mean. ! ₮ Âĩ = 0 ! ₮ σ =1
  • 19. Z Value â€Ē āļŦāļēāļāđ€āļĢāļēāļ•āļ­āļ‡āļāļēāļĢāļ„āļģāļ™āļ§āļ“āļ„āļ§āļēāļĄāļ™ïœŠāļēāļˆāļ°āđ€āļ›ïœ’āļ™āļŠāļģāļŦāļĢāļąāļšāļ„āļē Z value āļ„āļē āļŦāļ™āļķāđˆāļ‡ āđ€āļŠïœŠāļ™ Z = 1.5 āļ—āļģāđ„āļ”āđ‚āļ”āļĒāļ„āļģāļ™āļ§āļ“āļžāļ·āđ‰āļ™āļ—āļĩāđˆāđƒāļ•āļāļĢāļēāļŸ āļˆāļēāļāļ•āļēāļĢāļēāļ‡āļ„āļē Z āļˆāļ°āđ„āļ” Pr(Z > 1.5) āļ„āļ·āļ­ 0.0668
  • 25. â€Ē The critical value X = 74 differs from its mean = 69 and = 3. Z Value ! ₮ Z = X − Âĩ σ ! ₮ Âĩ ! ₮ σ ! Z = 74 − 69 3 = 5 3 =1.67 â€Ē Pr(Z>1.67) = 0.47 = 5%
  • 26. Example â€Ē Suppose the yearling trout in a lake have lengths that are approximately normally distributed, about a mean = 9.5” with a standard deviation = 1.4”. What proportion of them: a. Exceeding 12” (the length for keeping a catch)? b. Exceeding 10” (the newly proposed legal length)? ! ₮ Âĩ ! ₮ σ
  • 27. ! ₮ Z = X − Âĩ σ ! ₮ Z = 12.0 − 9.5 1.4 = 2.5 1.4 =1.79 Thus Pr(X>12) = Pr(Z>1.79) = 0.037 = 4% a.
  • 28. ! ₮ Z = X − Âĩ σ Thus Pr(X>10) = Pr(Z>0.36) = 0.359 = 36% b. ! ₮ Z = 10.0 − 9.5 1.4 = 0.5 1.4 = 0.36 Z=0.36
  • 30. CORRELATION and REGRESSION. â€Ē Correlation: correlation measures the strength of the relationship between variables or the degree to which two variables are correlated (co- related). Another way to think of it is that is a measure of the extent to which two variables "move together" – as one changes, how does the other one change? The correlation measure is a "dimensonless" number, and can therefore be used to compare "apples" and "oranges" or variables measured in different units.
  • 31. CORRELATION and REGRESSION. â€Ē Pearson's Correlation Coefficient āļ§āļąāļ”āļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāđ€āļŠāļīāļ‡āđ€āļŠïœ‹āļ™āļ•āļĢāļ‡ āļĢāļ°āļŦāļ§ïœŠāļēāļ‡ 2 āļ•āļąāļ§āđāļ›āļĢ āļ‹āļķāđˆāļ‡āđƒāļŠïœ‹āđ„āļĄïœŠāđ„āļ”āđƒāļ™āļāļĢāļ“āļĩāļ—āļĩāđˆāļ•āļąāļ§āđāļ›āļĢāļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļ™āđ€āļ›ïœ’āļ™āđ€āļŠïœ‹āļ™āđ‚āļ„āļ‡ āļŦāļĢāļ·āļ­ āļĄāļĩāļˆāļģāļ™āļ§āļ™ Outliers āļĄāļēāļāđ€āļ›ïœ’āļ™āļžāļīāđ€āļĻāļĐ â€Ē āļ„āļģāļŠāļąāđˆāļ‡āđƒāļ™āļāļēāļĢāļŦāļē Pearson's correlation āđƒāļ™ Microsoft Excel āļ„āļ·āļ­ "=CORREL" â€Ē
  • 32. CORRELATION and REGRESSION. â€Ē āļ–āļē | r | āļĄāļĩāļ„āļēāļĄāļēāļ āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āđāļĨāļ° y āļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļ™āļĄāļēāļ â€Ē r = 0 āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āđāļĨāļ° y āđ„āļĄïœŠāļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļ™ â€Ē r > 0 āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ āļŦāļĢāļ·āļ­ āļ–āļē x āļĄāļĩāļ„āļēāļĨāļ”āļĨāļ‡āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāļĨāļ”āļĨāļ‡ â€Ē r < 0 āļŦāļĄāļēāļĒāļ–āļķāļ‡ x āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāļĨāļ”āļĨāļ‡ āļŦāļĢāļ·āļ­ āļ–āļē x āļĄāļĩ āļ„āļēāļĨāļ”āļĨāļ‡āđāļĨāļ§ y āļˆāļ°āļĄāļĩāļ„āļēāđ€āļžāļīāđˆāļĄāļ‚āļķāđ‰āļ™ â€Ē āļ„āļē b āđāļĨāļ° r āļˆāļ°āļĄāļĩāđ€āļ„āļĢāļ·āđˆāļ­āļ‡āļŦāļĄāļēāļĒāđ€āļŦāļĄāļ·āļ­āļ™āļāļąāļ™
  • 33. REGRESSION. â€Ē What is a regression? Informally, it is a line fitted between two variables to estimate the (linear) relationship between the two variables. In the case where we have more than one "predictor" variable, it is multi-dimensional plane describing the relationship between the variables. â€Ē One way to think about regression is that it is a way to test the statistical effect of one variable on another variable, holding all other variables constant. â€Ē āđ€āļ›ïœ’āļ™āļāļēāļĢāļŦāļēāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāđ€āļŠāļīāļ‡āđ€āļŠïœ‹āļ™āļ•āļĢāļ‡āļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ•āļąāļ§āđāļ›āļĢāļŠāļ­āļ‡āļ•āļąāļ§ āđƒāļ™āļāļĢāļ“āļĩāļ—āļĩāđˆāļĄāļĩ āļ•āļąāļ§āđāļ›āļĢāļ•āļ™āļĄāļēāļāļāļ§ïœŠāļē 1 āļ•āļąāļ§āđāļ›āļĢ āļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļˆāļ°āđ€āļ›ïœ’āļ™āļĢāļ°āļ™āļēāļšāļŦāļĨāļēāļĒāļĄāļīāļ•āļī â€Ē āļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāđ€āļŠāļīāļ‡āđ€āļŠïœ‹āļ™āļšāļ­āļāļ­āļīāļ—āļ˜āļīāļžāļĨāđ€āļ‰āļžāļēāļ°āļ‚āļ­āļ‡āļ•āļąāļ§āđāļ›āļĢāļ•āļ™āļ•āļ­āļ•āļąāļ§āđāļ›āļĢāļ•āļēāļĄ āđ€āļžāļĩāļĒāļ‡āļ„āļđāđ€āļ”āļĩāļĒāļ§ āđ‚āļ”āļĒāđ„āļĄïœŠāļ„āļģāļ™āļķāļ‡āļ–āļķāļ‡āļ•āļąāļ§āđāļ›āļĢāļ­āļ·āđˆāļ™ (āļ–āļ·āļ­āļ§ïœŠāļēāļ„āļ‡āļ—āļĩāđˆ)
  • 34. āđ€āļ”āļ·āļ­āļ™ 1 2 3 4 5 6 7 8 9 10 11 12 āļ­āļļāļ“āļŦāļ āļđāļĄāļī 18 24 33 37 34 28 32 27 28 27 21 19 āļœāļđāļŠāļļāļĄāļ™āļļāļĄ 43 38 32 37 5 0 0 0 0 8 23 49 āđƒāļŠïœ‹āļ­āļ˜āļīāļšāļēāļĒāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ‚āļ­āļĄāļđāļĨ 2 āļŠāļļāļ”āļ—āļĩāđˆāļĄāļĩāļ­āļīāļ—āļ˜āļīāļžāļĨāļ•āļ­āļāļąāļ™ (regression) āđāļĨāļ° āļ‚āļ­āļĄāļđāļĨ 2 āļŠāļļāļ”āļ—āļĩāđˆāļĄāļĩāļ„āļ§āļēāļĄāđ€āļāļĩāđˆāļĒāļ§āļžāļąāļ™āļāļąāļ™ (correlation) āđƒāļŠïœ‹ āļŠāļĄāļāļēāļĢ y = a + bx āđ‚āļ”āļĒ Y y = āđ€āļŠïœ‹āļ™āļāļēāļĢāļ–āļ”āļ–āļ­āļĒ āļ„āļģāļ™āļ§āļ“āđ„āļ”āļˆāļēāļāļ—āļļāļāļ„āļēāļ‚āļ­āļ‡ x āļ—āļĩāđˆāļāļģāļŦāļ™āļ”āđƒāļŦ Y Y a = āļˆāļļāļ”āļ•āļąāļ”āļšāļ™āđāļāļ™ y (Intercept) Y b = āļ„āļ§āļēāļĄāļŠāļąāļ™āļšāļ™āđ€āļŠïœ‹āļ™āļāļĢāļēāļŸ āļŦāļĢāļ·āļ­āļŠāļąāļĄāļ›āļĢāļ°āļŠāļīāļ—āļ˜ïœŽāļāļēāļĢāļ–āļ”āļ–āļ­āļĒ (Regression Coefcient) āļ•āļąāļ§āļ­āļĒāļēāļ‡āļ‚āļ­āļĄāļđāļĨ x = āļ•āļąāļ§āđāļ›āļĢāļ­āļīāļŠāļĢāļ° (Independent Variable) y = āļ•āļąāļ§āđāļ›āļĢāļ•āļēāļĄ (Dependent Variable) CORRELATION and REGRESSION.
  • 35. CORRELATION and REGRESSION. X Variable 1 Line Fit Plot 0 10 20 30 40 50 60 0 10 20 30 40 X Variable 1 Y Y Predicted Y
  • 36. CORRELATION and REGRESSION. rxy āļ—āļ”āļŠāļ­āļšāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļĢāļ°āļŦāļ§ïœŠāļēāļ‡āļ„āļļāļ“āļĨāļąāļāļĐāļ“āļ° āļ‚āļ­āļ‡āļ‚āļ­āļĄāļđāļĨāļ—āļĩāđˆāđ€āļ›ïœ’āļ™āļĢāļ°āļ”āļąāļšāļŠïœŠāļ§āļ‡āļŦāļĢāļ·āļ­āļŠāļąāļ”āļŠïœŠāļ§āļ™ āđ‚āļ”āļĒ āļ„āļēāļ—āļĩāđˆāđ„āļ”āļˆāļ°āļšāļ­āļāđ„āļ”āļ§ïœŠāļēāļ›ïœāļˆāļˆāļąāļĒāļ—āļĩāđˆāļ™āļģāļĄāļēāđ€āļ›āļĢāļĩāļĒāļšāđ€āļ—āļĩāļĒāļš āļāļąāļ™āļ™āļąāđ‰āļ™ āļĄāļĩāļāļēāļĢāđ€āļ›āļĨāļĩāđˆāļĒāļ™āđāļ›āļĨāļ‡āđ„āļ›āļ”āļ§āļĒāļāļąāļ™āļŦāļĢāļ·āļ­āđ„āļĄïœŠ āļĄāļĩ āļ—āļīāļĻāļ—āļēāļ‡āđ€āļ”āļĩāļĒāļ§āļāļąāļ™āļŦāļĢāļ·āļ­āļ•āļĢāļ‡āļāļąāļ™āļ‚āļēāļĄ āļ„āļēāļŠāļąāļĄāļ›āļĢāļ°āļŠāļīāļ—āļ˜āļīāđŒāļŠāļŦāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽ (rxy) āđ€āļ”āļ·āļ­āļ™ 1 2 3 4 5 6 7 8 9 10 11 12 āļœāļđāļŠāļļāļĄāļ™āļļāļĄ 43 38 32 37 5 0 0 0 0 8 23 49 āļ­āļļāļ“āļŦāļ āļđāļĄāļī 18 24 33 37 34 28 32 27 28 27 21 19 r = -0.40 āđāļŠāļ”āļ‡āļ§ïœŠāļēāļ‚āļ­āļĄāļđāļĨāļˆāļģāļ™āļ§āļ™āļœāļđāļŠāļļāļĄāļ™āļļāļĄāļ—āļĩāđˆāļŠāļģāļĢāļ§āļˆāļĄāļĩāļ„āļ§āļēāļĄāļŠāļąāļĄāļžāļąāļ™āļ˜ïœŽāļāļąāļšāļ­āļļāļ“āļŦāļ āļđāļĄāļīāļ„āļ­āļ™āļ‚āļēāļ‡ āļ™ïœ‹āļ­āļĒ āđāļĨāļ°āļĄāļĩāļ—āļīāļĻāļ—āļēāļ‡āļ•āļĢāļ‡āļ‚āļēāļĄāļāļąāļ™