pojecia statystyczne.rtf

(21 KB) Pobierz
Analiza czynnikowa, ang

Analiza czynnikowa, ang. factor analysis, to ogólna nazwa kilku technik statystycznych, które umożliwiają znajdywanie „bytów stojących za zmiennymi”. Polega ona na sprawdzaniu związków pomiędzy zmiennymi i grupowaniu zmiennych, które są ze sobą skorelowane – a więc wyrażają podobne znaczenie. Jednym z ważnych elementów analizy czynnikowej jest rotacja danych – która umożliwia na lepsze wyróżnianie czynników stojących za zmiennymi.

Ipsatyzajca – patrz: standaryzacja.

Istotność statystyczna, ang. significance, we wnioskowaniu statystycznym, prawdopodobieństwo popełnienia błędu I rodzaju, czyli stwierdzenia różnic przy ich braku (nieuzasadnionego odrzucenia H0). Poziom ufności alfa to odwrotność istotności statystycznej, a więc jeśli z pewnością α = 95% stwierdzamy o różnicach pomiędzy pomiarami oznacza to, że godzimy się na 5% prawdopodobieństwa popełnienia błędu, a istotność testu wynosi p < 0,05.

              Do prawdopodobieństwa popełnienia błędu II rodzaju, czyli niestwierdzenia różnic podczas gdy one występują (nieuzasadnionego nieodrzucenia H0) odnosi się moc testu statystycznego (ang. test power).

Korelacja, ang. correlation, to statystyka opisująca związki pomiędzy zmiennymi, współwystępowanie zmiennych. Zdecydowana większość współczynników korelacji osiąga wartości od 1 do 1. Wartość 1 oznacza idealny ujemny związek – a więc wraz ze wzrostem natężenia jednej zmiennej spada natężenie drugiej. Wartość +1 to wartość idealnego dodatniego związku – wraz z przyrostem jednej zmiennej druga przyrasta w takim samym stopniu. Analogicznie jest w przypadku wartości -1, kiedy wraz z przyrostem jednej zmiennej druga maleje. Korelacja wielkości 0 oznacza brak związku pomiędzy zmiennymi. Tak więc kiedy interpretujemy współczynnik korelacji musimy w pierwszym rzędzie sprawdzić jej kierunek, dopiero potem zwracamy uwagę na siłę. Im bardziej wartość korelacji zbliża się do 1 (lub 1) z tym silniejszym związkiem mamy do czynienia. Zwykło się przyjmować, że korelacje o sile do 0,3 są korelacjami słabymi, pomiędzy 0,3 a 0,7 średnimi, zaś powyżej 0,7 silnymi. Reguła ta jest jednak dość umowna, w psychologii rzadko znajdziemy związki o mocy większej niż 0,5, podczas gdy w fizyce taki związek uznany byłby za bardzo słaby. W ocenie siły korelacji pomaga nam tak wskaźnik siły efektu, zwany współczynnikiem determinacji. W przypadku korelacji r-Pearsona oblicza się go poprzez podniesienie współczynnika korelacji do kwadratu, tak więc korelacja o mocy r = 0,25 będzie miała współczynnik determinacji równy R2 = 0,0625. Współczynnik determinacji interpretowany jest jako wspólna wariancja korelowanych zmiennych, a więc procent wariancji jednej zmiennej, jaki może być wyjaśniony przy użyciu drugiej.

Kurtoza, ang. kurtosis (Kurt) to statystyka, która opisuje rozkład zmiennych. Mówi ona, czy dużo obserwacji jest zbliżonych do średniej czy też są one rozproszone po skali. Jeśli są rozproszone, wykres jest płaski a rozkład platykurtyczny (Kurt < 0), jeśli zaś większość obserwacji jest blisko średniej to jest on leptokurtyczny (Kurt > 0).

Mediana, ang. median, (Me, ang. Mdn) to taka wartość, że połowa obserwacji w zbiorze jest jej równa lub od niej niższa. Przykład ze wzrostem żołnierzy – ustawiwszy oddział 19 żołnierzy według wzrostu, to mediana wzrostu tych żołnierzy będzie równa wzrostowi dziesiątego z nich. Jeśli ilość żołnierzy jest parzysta, to medianą jest średnia wartość dwóch środkowych żołnierzy, na przykład dziesiątego i jedenastego, jeśli oddział liczy 20 osób. Dlatego też wartość mediany nie musi występować w zbiorze.

Modalna, ang. mode, (dominanta, moda), oznaczana jako Mo to najczęściej występująca w danym zbiorze wartość zmiennej.

Odchylenie standardowe, ang. standard deviation, (SD, s, σ) to pierwiastek wariancji, ta sama miara rozproszenia danych, ale wyrażona na skali, na której mierzyliśmy daną zmienną.

Rozstęp, ang. range, to różnica między najwyższą i najniższą wartością zmiennej. Mówi nam o rozpiętości zebranych danych, ale niewiele o ich rozproszeniu.

Skośność, ang. skewness (A) mówi nam, czy większość obserwacji jest poniżej średniej czy powyżej średniej. W pierwszym przypadku rozkład jest wyższy po lewej stronie, a rozkład jest dodatnioskośny (lub prawoskośny) zaś jeśli większość obserwacji ma wartość wyższą niż średnia to jest on ujemnie skośny (a więc lewoskośny).

Standaryzacja to procedura polegająca na przekształceniu wyników zmiennej na jednostki z. Aby przekształcić zmienną należy obliczyć jej średnią i odchylenie standardowe, a następnie dla każdej obserwacji obliczyć jej wynik wg. wzoru
z = (x – M) / SD;
gdzie M to średnia danej zmiennej, x to przekształcana wartość a SD to odchylenie standardowe zmiennej.

              Ipsatyzacja to przekształcenie wyników osoby na jednostki z. Tak więc o ile standaryzacja przebiega w kolumnie, to ipsatyzacja w wierszu.

Średnia, ang. mean, (M, μ) to stosunek sumy wszystkich wartości do ilości tych wartości i jest podatna na zniekształcenia ze strony wartości skrajnych. Wartość średniej nie musi występować w zbiorze.

Wariancja, ang. variance, (s2, σ2) to miara mówiąca nam o rozproszeniu wartości wokół średniej – im wyższa, tym więcej obserwacji jest oddalonych od średniej. Aby obliczyć wariancję, najpierw musimy policzyć średnią, następnie od średniej odjąć wszystkie wartości zmiennej, uzyskane różnice podnieść do kwadratu i wszystkie zsumować. Całość należy podzielić przez ilość obserwacji minus jeden.

Zgłoś jeśli naruszono regulamin