Ulike tester hadde forskjellige gjennomsnitt og standardavvik (forresten, standardavvik er hva som er den normale forskjellen mellom en tilfeldig score og gjennomsnittet). La oss for eksempel forestille oss en test med 50 oppgaver og en test med 150 oppgaver. Som du kan gjette, kan gjennomsnittsscoren i den første testen være 35, men i den andre testen kanskje 100. På den annen side, hva er den vanlige forskjellen mellom en tilfeldig score og gjennomsnittet? Kanskje i den første testen er det 1 poeng, men i den andre testen er det 3 poeng. Hvordan kan vi sammenligne dem? Vi kan ikke, med mindre vi transformerer poengene.
Når alle poeng fra alle tester ble malt, så de like ut, de fleste hadde gjennomsnittlig intelligens, færre på ekstremene. For å finne felles grunn "bestemte de seg for å bruke en skala, gjennomsnittet ville alltid være 100 og standardavviket 15". På denne måten er poengene alltid sammenlignbare.
For å komme til skalaen er det en ganske enkel to-trinns prosess. Først får du poengsummen fra testen, trekker fra testens gjennomsnitt og deler på standardavviket. Det er en normalisert score. Du kan allerede sammenligne mellom tester, men vi ønsker å reskalere for å bruke den typiske skalaen.
Eksempel: forestill deg en score på 39 i en test med gjennomsnitt 35 og standardavvik på 2 -> (39-35) / 1 = 4. Den normaliserte scoren er "4".
Det andre trinnet er å ganske enkelt reskalere tilbake til IQs typiske skala med gjennomsnitt 100 og standardavvik 15 -> (4 * 15) + 100 = 160. Perfekt, nå som det er klart, la oss sjekke gjennomsnittlig IQ eller
hoppe til prosentil.