통계학
![]() |
통계학 개론 | UserPreferences |







인덱스 | 도움말 | 찾기 | 대문 | 블로그 | 바뀐글 |
통계학 개론
1.통계학이란 무엇인가?
통계학(statistics)이란? 자료에 근거하여 자연 또는 사회 제현상에 대한 과학적인 추론과 불확실한 미래를 대비하기 위한 합리적인 의사결정을 하고자하는 학문
모집단(population)과 표본(sample)
모집단 : 관심의 대상이 되는 모든 개체의 관측값이나 측정값의 집합
표본 : 모집단에서 실제로 추출한 관측값이나 측정값의 집합
유한모집단(finite population)과 무한모집단(infinite population)
원소의 개수가 유한개 무한개
기술통계학(descriptive statistics)과 추측통계학(inferential statistics)
기술통계학 : 수집된 자료의 특성을 쉽게 파악하기 위해서 표나 그림을 통해 자료를 정리 요약하는 방법을 다루는 분야
추측통계학 : 모집단의 여러가지 특성에 대하여 과학적으로 추론하는 방법을 다루는 분야
2.자료의 정리Ⅰ
자료의 종류
질적자료(qualitative data)와 양적 자료(quantitiative data)
질적자료 : categorical data라고도 하는데 원칙적으로 숫자로 표시될 수 없는 자료를 가르킨다. 성별이라든지 교육수준등 이 이에 속한다.
교육수준을 1. 국졸, 2. 중졸 등으로 숫자화 시킬수 있지만 그것이 가르키는 자료의 속성과는 무관하게 그냥 편의상 약속이다.
양적자료 : 자료 자체가 숫자로 표현되어 있으며, 숫자는 자료의 속성을 반영한다.
집단화(grouping), 변수(variable)
질적 자료의 해석
도수분포표, 원형그래프, 막대그래프
도수분포표(frequency table) : 각 자료값에 대하여 도수나 상대도수를 나열해 놓은 도표
도수(frequency) : 각 자료값이 나타나는 빈도수
상대도수(relative frequency) : 도수를 전체 자료의 숫자로 나눈 것
막대그래프(bar graph), 원형그래프(pie graph)
양적 자료의 해석
줄기-잎-그림, 도수분포표, 히스토그램, 상대도수다각형
줄기-잎-그림(stem and leaf diagram)
: 자료의 줄기부분을 선택하고, 줄기부분을 제외한 나머지 부분을 잎으로 정한다. 일반적으로 줄기의 개수를 늘리면 자료의 군집(cluter)상태를 알아보는데 편한다.
예) 57 53 68 65 63 71 에서 10의 자리를 줄기, 1의 자리를 잎으로 두었을때 다음과 같은 모양이다.
5 | 3 7 |
6 | 3 5 8 |
7 | 1 |
도수분포표
먼저 자료의 최소, 최대 범위를 구하고 동일한 간격의 구간을 나누어 계급(class)로 나눈다. (이때 계급구간은 서로 중복되지 않아야 하며, 어떠한 자료값도 계급간의 경계점에 놓이지 않아야 한다.)
각 계급의 자료값의 개수를 세어 도수를 구하고
각 계급의 도수를 전체 자료수로 나누어 계급의 상대 도수를 구한다. (상대도수는 합은 1.0 이다.)
히스토그램(histogram)
: 줄기-잎-그림을 시계반대 방향으로 90도 회전시킨것과 비슷하다. 히스토그램의 막대 높이는 상대도수밀도(relative frequency density)를 이용하면 편리하다.
상대도수다각형(relative frequency polygon)
: 히스토그램에서 각막대의 윗부분 중간지점을 직선으로 연결하여 얻는다. 상대도수의 변이과정을 잘 나타내주고, 또한 두 개 이상의 자료집합의 분포를 같은그림위에 높고 비교할 때 편하다.
3.자료의 정리Ⅱ
중심위치의 측도(measure of central tendency)
: 평균, 중앙값, 최빈값
평균(mean)
: 산술평균, 중심위치의 측도, 양적자료에만 쓰임.
표본평균(sample mean) : 표본에 대한 평균 (엑스바)
모평균(population mean) : 모집단에 대한 평균 (뮤 : μ)
이상점(outlier) : 아주 크거나 작은 극단값
중앙값(median)
: 자료를 크기 순으로 나열할 때 가운데 놓이는 값
최빈값(mode)
:질적자료나 양적자료 모두에 사용되며, 자료중 가장 많이 나오는 값을 뜻한다. 양적자료의 경우 보통 최빈계급(modal class)의 중간값을 최빈값으로 삼는다.
산포도(measure of disperision)
: 중심위치에서 얼마만큼 떨어져 있느냐를 측정하는 측도
편차(deviation) : 각 자료값과 평균과의 차이. 편차의 합은 0이므로 보통 제곱하여 표준편차를 구한다. (x - 엑스바)
표준편차(standard deviation) : 분산의 제곱근. (s = √s²)
분산(variance) : 편차의 제곱의 합(표준편차)을 자료수로 나눈 값 (대부분의 경우 자료는 표본이므로 s²로 많이 쓰인다.)
모분산(population variance) : 자료가 모집단일때의 분산 ( 시그마 제곱 : σ² = 1/N ∑(xi - μ) )
모표준편차(population standard variance) : 모분산의 제곱근
표본분산(sample variance) : 자료가 표본일 때의 분산 (s²= 1/(n-1)∑(xi - 엑스바)) ※ n-1을 사용하는 이유는 뒤에
표본표준편차(sample standard variance) : 표본분산의 제곱근
변동계수(coefficient of variation) : 표준편차를 평균값으로 나눠줌으로 자료의 크기에 따른 편차의 비율로 산포도를 확인할 수 있다. (ν = s/엑스바)
범위(range) : 최대값과 최소값의 차이
사분위범위(interquartile range : IQR) : 크기의 순서에 따라 늘어 놓은 자료를 4등분하는 수
상대적 위치의 측도(measure of relative standing)
: 사분위수, 백분위수, z점수
백분위수(percentiles)
: 사분위수의 개념을 확장시켜서 자료값들을 100등분하는 수값. 제 P백분위수는 자료값 중 P%가 그 값보다 작거나 같고 (100-P)%가 그 값보다 크거나 같게 하는 값이다.
z점수(z-score)
: 자료값이 평균으로부터 표준편차의 몇배만큼 떨어져있는가를 측정한다.
체비셰프의 법칙(Chebyshev's Rule) : 자료 중 적어도 (1-1/k²)100% 가 z점수의 절대값이 k보다 작다.
집단화된 자료는 개개의 자료가 아니기 때문에 정확한 값이 아니다.
각각 계급에 따른 평균값을 통해 접근하는 방법이다.
4.확률과 확률분포
확률의 유래
17세기 중엽 프랑스의 직업도박가였던 Chevalier de Mere라는 사람이 그의 친구 Blaise Pascal(1623~1622)에게 똑같은 기술을 가진 두 사람이 게임도중 그 게임을 중단할 때 도박판에 놓인 돈을 어떻게 나누어 가져야 하는가? 라는 문제를 부탁하였다고 한다.
Pascal과 Pierre Fermat(1601-1665)는 결국 이 문제를 풀었는데 이로부터 확률에 대한 연구가 시작되었다고 한다.
18세기에 들어서서 확률론은 프랑스 수학자 Pierre Simon de Laplace(1749~1827)와 De Moivre(1667~1754)에 의해 발전을 거듭하였다.
확률(probability) : 똑같은 실험을 무수히 많이 반복할 때 어떤 일이 일어나는 비율, 즉 상대도수의 극한적인 개념.
표본공간의 모든 원소가 일어날 가능성이 다 같은 경우에 사상 A의 확률은
- P(A) = 사상A에속하는원소의개수/표본공간의전체원소의개수
로 정의된다.
표본공간(sample space) : 통계적 실험에서 모든 가능한 실험결과들의 집합
사상(event) : 실험 결과들의 집합. 표본공간의 부분집합.
확률의 계산
나무가지그림(tree graph) : 표본공간이 커지면 그리기 불가능해진다.
조합(combination) : 서로 다른 n개 중 비복원추출로 순서에 상관없이 r개를 뽑는 방법의 수를 n개 중 r개를 뽑는 조합의 수 라고 하며 (n r)(세로로-_-세워서 보면 2x1행렬과 같다.)과 같이 표시한다. 계산은 (n r) = n!/(r!(n-r)!)
비복원추출(sampling without replacement) : 추출된 것은 되돌려 넣지 않고 계속 추출해 나가는 방법. 복원추출은 반대의 의미
문제) 불량품 4개가 섞인 50개의 제품 중에서 비복원추출로 랜덤하게 5개를 뽑아 검사할 때 2개의 불량품이 발견될 확률을 구하라.
확률의 법칙
밴다이어그램(Venn Diagram)으로 표현하면 보기 쉽다.
덧셈법칙 : P(A∪B) = P(A) + P(B) - P(A∩B)
서로 배반인 사상(mutually exclusive event) : 어떤 두 사상이 동시에 일어날 수 없을 때
A와 B가 서로 배반인 사상의 덧셈법칙 : P(A∪B) = P(A) + P(B)
조건부확률(conditional probability)
: 사상 A가 주어졌을 때 B의 조건부 확률. P(B|A) = P(A∩B)/P(A) (단, P(A) > 0)
곱셈법칙 : P(A∩B) = P(B|A)P(A)
독립(mutually independent) : 어떤 두 사상 A와 B가 P(B|A) = P(B)를 만족시킬때 A와 B는 독립
독립사상의 곱셈법칙 : P(A∩B) = P(A)P(B)
여사상의 확률과 분할법칙
P(A) + P(A^c) = 1 즉, P(A^c) = 1 - P(A)
확률의 분할 법칙
P(B) = P(A∩B) + P(A^c∩B) = P(B|A)P(A) + P(B|A^c)P(A^c)
베이즈정리
: 서로 배반인 사상 A1, A2, A3 ... An 중 하나는 반드시 일어날 때, P(B) > 0 이면,
- P(Ak|B) = P(B|Ak)P(Ak) / P(B|A1)P(A1) + ... + P(B|An)P(An)
이산확률변수(discreate random variable), 연속확률변수(continuos random variable)
확률변수는 보통 대문자 X로 표시되면, 확률변수가 취하는 값은 소문자 x로 표시된다.
확률분포(probability distribution) : 확률변수의 수값들에 확률을 대응시켜주는 관계
확률변수의 평균 : 모든 가능한 X의 값에 그것의 확률을 곱한 다음 이를 모두 합한 것.
기대값(expected value) (E(X)로 표시) = 확률변수의 평균
확률변수의 분산 = Var(X) = σ² = E(X - μ)²? = ∑ (x - μ)²PX = x? = ∑ x²PX = x? - μ²
확률변수의 표준편차 = SD(X) = σ
결합확률분포(joint probability distribution) : 두 개 이상의 확률변수가 동시에 취하는 여러 가지 값들에 확률을 대응시켜 주는 관계
주변확률분포(marginal probability distribution) : 두 확률변수의 결합분포로부터 얻어진 하나의 확률변수의 분포
공분산(convariance) : 두 확률변수 X와 Y가 같이 변하는 측도로 (X-μx)(Y-μy)의 평균을 사용. Cov(X,Y)로 표시. Cov(X,Y) = E(XY) - μxμy = ∑xyPX=x,Y=y?-μxμy
상관계수(correlation coefficient) : 두 확률변수의 공분산은 각 확률변수가 취하는 값의 단위에 의존한다. 이러한 단위에 대한 의존도를 없애주기 위해서 공분산을 두 확률변수의 표준편차의 곱으로 나누어 준다. Corr(X,Y) 또는 ρ로 표기. Corr(X,Y) = ρ = Cov(X,Y) / SD(X)SD(Y)
5.이항분포와 정규분포
베르누이시행(Bernoulli trial) : 어떤 실험의 결과를 오직 두가지 중의 하나로 생각할 때 이 실험을 베르누이시행이라고 한다.
이항확률변수(binomial random variable) : 동일한 성공확률을 가진 베르누이시행을 독립적으로 시행할 때 성공의 횟수
특징
1.n번의 베르누이시행이 독립적으로 시행된다.
2.각 베르누이시행에서 성공의 확률은 동일한 값 p이다.
3.이항확률변수는 이러한 베르누이시행의 반복에서 성공의 횟수이다.
이항분포(binomial distribution) : 이항확률변수의 성공의 횟수 분포. 이산확률변수의 확률분포.
:X가 성공의 확률이 p인 n번의 베르누이시행에서 정의된 이항확률변수일때 PX=x? = (n x)(조합)p^x(1-p)^(n-x), x= 0, 1, ... , n
이항분포의 평균 : np
이항분포의 분산 : np(1-p)
이항분포의 표준편차 : √(np(1-p))
정규분포(normal distribution) : 실험의 관측대상이 계량적인 경우에, 우리는 연속적으로 변화할수 있는 것이라 생각할 수 있다. 바로 연속확률변수의 확률분포.
특징
1.정규분포는 종모양의 확률밀도홤수의 그래프를 가지며 평균에 대하여 대칭이다.
2. 정규분포를 가지는 확률변수, 즉 정규분포변수(normal random variable)는 평균 주위의 값을 많이 취하며 평균으로부터 좌우 표준편차 3배이상 떨어진 값은 거의 취하지 않는다.
3.정규분포는 그것의 평균과 표준편차에 의해 완전히 결정된다. 즉 평균과 표준편차가 같은 두 개의 다른 정규분포는 존재할 수 없다.
역사
De Moivreㅇ ㅔ의해서 발견되었고 Laplace에 의해 천문학등에 이용. 19세기 위대한 수학자인 Carl Friedrich Gauss(1777~1855)에 의해 물리학과 천문학 등에 폭넓게 응용
그래서 가우스분포(Gaussian distribution)라고 부르기도 한다.
확률밀도함수(probability density function) : 전체 넓이는 1이다. 상대도수의 히스토그램의 극한적 개념이다.
f(x) = 1/σ√(2π)e^½x-μ/σ?² 단, π = 3.14159... e = 2.71828...
표준정규분포(standard normal distribution) : 표준정규확률변수의 분포도
표준정규확률변수(standard normal random variable) : 어떤확률변수 X가 평균이 μ이고, 표준편차가 σ일때, Z = (X - μ)/σ 는 평균이 0이고 표준편차가 1인 정규분포를 따른다. 이때 확률변수 Z를 말한다.
이항분포의 정규 근사
6.표본분표
랜덤추출법(random sampling) : 모집단의 모든 원소가 표본으로 뽑힐 확률이 같도록 표본을 추출하는 방법 (엄격히 말하자면 단순랜덤추출법(simple random sampling))
랜덤표본(random sample) : 랜덤추출법에 의하여 추출된 표본
난수표(random number table) : 난수표란 0부터 9까지 숫자들이 1/10의 상대도수를 가지며 랜덤하게 나열되어 있는 난수(random number or random digit)들의 모임
표본분포(sampling distribution) : 한 모집단에서 같은 크기로 뽑을 수 있는 모든 표본에서 통계량을 계산할 때 이 통계량이 이루는 확률분포를 표본분포라 한다.
모수(parameter) : 모집단의 특성값. 통계조사의 목적은 모집단에 대한 정보를 알아내는 것이다. 여기서 모집단의 정보란 많은 경우에 모집단의 평균 또는 모집단의 분산과 같은 모집단 특성값을 말한다.
통계량(statistic) : 표본으로부터 계산되는 표본의 특성값을 통계량이라 한다.
모평균과 표본평균 사이의 관계 : E(엑스바) = μ
표본평균 엑스바는 모평균 μ와 그 값이 반드시 일치하지는 않으나 평균적으로 같음을 알 수 있다.
모분산과 표본 평균의 분산과의 관계 : 모분산이 σ²이고 크기가N인 모집단에 크기n인 랜덤표본을 뽑을때 표본평균 X에 대하여
비복원추출 경우 Var(엑스바) = (N-n)/(N-1) * (σ²/n)
복원추출의 경우 Var(엑스바) = σ²/n
표본평균의 표준편차 SD(엑스바)를 표준오차(standard error)라고 부른다.
평균의 표본분포(정규모집단의 경우) : 모집단의 분포가 정규분포 N(μ,σ²)일때, 표본평균 엑스바는 정규분포 N(μ,σ²/n)을 따른다.
비정규모집단일 경우에도 표본의 크기 n이 충분히 크다면 모집단의 분포가 어떤분포이냐에 관계없이 평균의 표본분포는 정규분포에 근사하다는 사실이 알려져 있다.
중심극한정리(central limit theorem) : 평균이 μ이고, 분산이 σ²인 무한모집단에서 크기 n인 랜덤표본을 뽑았을 때, n이 충분히 크면 모집단의 분포 모양에 관계없이 표본평균 엑스바 는 근사적으로 N(μ,σ²/n)
7.추정
통계적 추론(statistical inference) : 모평균, 모분산, 모비율과 같은 모수에 대한 어떤 판단을 내리기 위하여, 모집단에서 표본을 추출하여 데이터를 얻고 이 데이터를 기초로 하여 통계이론에 의한 결론을 내리게 된다.
통계적 추론을 두가지로 나뉜다.
추정(estimation) : 표본을 이용하여 모수와 같은 모집단의 어떤 미지의 값을 추측하는 과정을 통계적 추정이라 한다.
가설검정(hypothesis testing) : 표본을 이용하여 모집단에 대한 어떤 예상 또는 주장의 옳고 그름을 판정하거나 주장의 채택 또는 기각을 결정하는 과정을 통계적 가설검정이라 한다.
점추정(point estimation) : 모수를 하나의 값을로 추정
구간추정(interval estimation) : 모수가 포함되다라고 기대되는 범위를 추정
추정량(estimator) : 모수의 추정에 사용되는 통계량
추정값(estimate) : 추정량에 관측값을 대입하여 얻은 추정량의 값
어떤 모수 θ에 대하여 두 통계량 L과 U가 있어서,
P{L(X1, ... ,Xn) < θ < U(X1, ... ,Xn)} = 1 - α
로 쓸 수 있으며, L과 U의 관측값을 각각 l, u라고 할 때, 구간
(L(X1, ... ,Xn), U(X1, ... ,Xn))또는 (l(X1, ... ,Xn), u(X1, ... ,Xn))을 θ의 100(1-α)% 신뢰구간(confidence interval) 이라 한다.
이때 (1-α)를 신뢰수준(confidence level)이라 하며, l(X1, ... ,Xn)를 신뢰구간의 하한(lower bound), u(X1, ... ,Xn)를 신뢰구간의 상한(upper bound)이라 한다.
1. 점추정
불편추정량(unbiased estimator) : 모평균 μ의 추정량인 엑스바의 기대값이 다시 μ가 된다. 일반적으로 모수의 θ의 추정량 θ^에 대하여 E(θ^) = θ가 성립할 때, θ^을 θ의 불편추정량이라 한다. 따라서 엑스바는 μ의 불편추정량이다.
일반적으로 어떤 불편추정량이 얼마나 좋은 추정량인가를 나타내는 방법으로 그 추정량의 표준편차를 사용한다.
표준오차(standard error) : 추정량의 표준편차. θ^의 표준오차를 SE(θ^)로 나타내기도 한다. 예를 들어 엑스바의 표준오차는 SE(엑스바) = σ/√n, 하지만 일반적으로 σ는 미지이므로, 엑스바의 표준오차로 추정하기 위해서 σ 대신에 표본표준오차인 S = √(∑ ((x - 엑스바)²/(n-1)))을 대입한다. 즉 SE(엑스바)의 추정값은 SE^(엑스바) = S/ √n이다. 실제로 우리는 표준오차보다 표준오차의 추정값을 얻게된다. 따라서 흔히 표준오차의 추정값인 SE(θ^)를 θ^의 표준오차라고 부르기도 한다.
편차들의 합으로는 데이터가 퍼져있는 정도를 나타낼 수 없으며, 편차들의 제곱하여 더한 값인
제곱합(sum of squares) : Sxx = ∑(xi - 엑스바)²
을 통해 평균 엑스바로부터 얼마나 넓게 퍼져있는 가를 나타내는 산포의 측도이다. 하지만 데이터 개수가 다른 두 제곱합에서는 어느것이 산포가 큰지 알 수 없다.
따라서 평균제곱합과 같은 개념으로 Sxx를 n으로 나눈값을 생각할 수 있으나, n개의 편차들의 합은 언제나 0이므로 (n-1)개의 편차의 값이 주어지면 나머지 하나는 저절로 결정된다.
이러한 개념을 자유도(degrees of freedom)라 하며, 흔히 제곱합을 자유도로 나눈 것을 산포의 측도로 사용한다.
http://kin.naver.com/db/detail.php?d1id=11&dir_id=110203&eid=tzfQUVR06eDKLTbyq6KiMMVpepqhmHOT&qb=utC76iBuLTEgs6q0qbTC
모분산의 추정량
표본분산 S² = ∑ ((x - 엑스바)²/(n-1))
모표준편차의 추정량
표본표준편차 = S = √(∑ ((x - 엑스바)²/(n-1)))
어떤 특정 속성에 대한 모비율이 p인 무한모집단에서 n개의 표본을 추출하여, 특정 속성을 갖는 것의 개수를 X라고 하면, X는 이항분포 B(n,p)를 따른다.
표본비율(sample proportion) : 모집단에서 특정 속성을 갖는 것의 비율. 모비율 p의 추정량 p^ = X / n
X가 이항분포 B(n, p)를 따를 때, 이항분포의 성질로부터 E(X) = np, Var(X) = np(1-p) 가 성립한다.
표본비율 p^에 대해서는
E(p^) = E(X)/n = np/n = p
Var(p^) = Var(X)/n² = p(1-p)/n
표본비율 p^의 성질
E(p^) = p (p^는 p의 불편추정량)
표준오차 : SE^(p^) = √(p^(1-p^)/n)
2. 구간추정
표준정규분포에서 오른쪽 꼬리의 면적이 α인 점을 zα라고 하자.
표준정규확률변수 Z에 대하여 zα는 P{Z > zα} = α 를 만족하는 점이다.
흔히 사용되는 zα값은 다음과 같다.
z0.005 | 2.576 |
z0.025 | 1.96 |
z0.05 | 1.645 |
모집단이 정규분포를 따를 때, 엑스바도 정규분포를 따르며,
엑스바를 표준화시킨 Z-통계량인 Z = (엑스바 - μ)/(σ/√n) 은 표준정규분포 N(0,1)을 따른다.
za의 정의와 표준정규분포의 성질로부터 P{ -zα/2 < Z < zα/2 } = 1 - α 가 성립하며, Z-통계량을 대입하면
P{ -zα/2 < (엑스바 - μ)/(σ/√n) < zα/2 } = 1 - α 풀면 P{ 엑스바-zα/2*(σ/√n) < μ < 엑스바+zα/2*(σ/√n) } = 1 - α
따라서 정규분포에서 σ를 알때, 모평균 μ의 100(1-α)% 신뢰구간은 (엑스바-zα/2*(σ/√n),엑스바+zα/2*(σ/√n)) 같이 주어진다.
이하 생략-_-
8.검정
가설검정
귀무가설(null hypotesis) : 대립가설이 참이라는 확실한 근거가 없을 때 받아들이며 대립가설과 상반되는 가설로서, 흔히 H0로 나타낸다.
대립가설(alternative hypothesis) : 표본으로부터 확실한 근거에 의하여 입증하고자하는 가설로, 흔히 H1으로 나타낸다.
검정통계량 : 귀무가설과 대립가설 중에서 하나를 선택하는 데 사용하는 통계량
기각역 : 귀무가설 H0를 기각시키는 검정통계량의 관측값의 영역
유의수준(significance level) : 귀무가설H0가 참일 때 대립가설 H1을 채택하는 오류를 범할 확률의 최대 허용한계이다. 즉, 제1종 오류를 범할 확률의 최대 허용한계이다.
어떤 문제를 검정할때 5단계로 나뉜다.
1. H0와 H1을 설정한다.
2. 유의수준 α를 정한다.
3. 검정통계량을 선택한다.
4. 기각역을 구한다.
5. 주어진 데이터로부터 유의성을 판정하고 결과를 해석한다.
예)
1. H0 = 1200, H1 > 1200
2. 유의수준 α = 0.05
3. 검정통계량 Z = (엑스바 - 1200) / 10
4. 기각역 Z >= 1.645
5. Z = (1220 - 1200)/10 = 2.0 > 1.645이므로 H0를 기각하고 H1을 채택한다.
대표본에서 모평균의 검정
귀무가설 : H0 : μ = μ0
검정통계량 Z = (엑스바 - μ0) /(S/√n)
기각역 1) H1 : μ > μ0 일 때, Z >= zα
- 2) H1 : μ < μ0 일 때, Z <= -zα
3) H1 : μ != μ0 일 때, |Z| >= zα/2
정규 검정(normal test) or Z- 검정(Z-test) : 표준정규분포를 이용하여 시행하는 검정
9.상관분석과 회귀분석
10.범주형 자료의 분석
11.분산분석
12.시계열
13.통계적 품질관리
14.표본조사
EditText of this page (last modified 2008-11-05 11:01:08)
FindPage by browsing, searching, or an index
Or try one of these actions: DeletePage, DeleteUploadedFile, LikePages, SpellCheck, UploadFile