Forskellige tests havde forskellige gennemsnit og standardafvigelser (forresten er standardafvigelse den normale forskel mellem en vilkårlig score og gennemsnittet). For eksempel, lad os forestille os en test med 50 spørgsmål og en test med 150 spørgsmål. Som du kan gætte, kunne gennemsnittet i den første test være 35, men i den anden test måske 100. På den anden side, hvad er den sædvanlige forskel mellem en vilkårlig score og gennemsnittet? Måske er det i den første test 1 point, men i den anden test 3 point. Hvordan kan vi sammenligne dem? Det kan vi ikke, medmindre vi omdanner score.
Når alle scores fra alle tests blev malet, så de ens ud, de fleste mennesker havde gennemsnitlig intelligens, færre i ekstreme. For at finde fælles grund "besluttede de at bruge en skala, gennemsnittet ville altid være 100 og standardafvigelsen 15". På denne måde er scores altid sammenlignelige.
For at komme til skalaen er det en ret nem to-trins proces. Først får du scoren fra testen, trækker testens gennemsnit fra og dividerer med standardafvigelsen. Det er en normaliseret score. Du kunne allerede sammenligne mellem tests, men vi vil gerne omregne til at bruge den typiske skala.
Eksempel: forestil dig en score på 39 i en test med gennemsnit 35 og standardafvigelse på 2 -> (39-35) / 1 = 2. Den normaliserede score er "2".
Det andet trin er simpelthen at omregne tilbage til IQ typisk skala med gennemsnit 100 og standardafvigelse på 15 -> (2 * 15) + 100 = 110. Perfekt, nu hvor det er klart, lad os genchecke gennemsnitlig IQ eller
springe til percentil.