Verschillende tests hadden verschillende gemiddelden en standaarddeviaties (overigens is de standaarddeviatie het normale verschil tussen een willekeurige score en het gemiddelde). Stel je bijvoorbeeld een test voor met 50 items en een test met 150 items. Zoals je kunt raden, zou de gemiddelde score in de eerste test 35 kunnen zijn, maar in de tweede test misschien 100. Aan de andere kant, wat is het gebruikelijke verschil van een willekeurige score met het gemiddelde? Misschien is dat in de eerste test 1 punt, maar in de tweede test 3 punten. Hoe kunnen we ze vergelijken? Dat kan niet, tenzij we de scores transformeren.
Wanneer alle scores van alle tests werden weergegeven, leken ze hetzelfde; de meeste mensen hadden een gemiddelde intelligentie, minder aan de extremen. Om een gemeenschappelijke basis te vinden, "besloten ze een schaal te gebruiken, het gemiddelde zou altijd 100 zijn en de standaarddeviatie 15". Op deze manier zijn scores altijd vergelijkbaar.
Om naar de schaal te komen, is het een vrij eenvoudig proces van twee stappen. Eerst neem je de score van de test, trek je het gemiddelde van de test af en deel je het door de standaarddeviatie. Dat is een genormaliseerde score. Je zou al tussen tests kunnen vergelijken, maar we willen opnieuw schalen naar de typische schaal.
Voorbeeld: stel je een score van 39 voor in een test met een gemiddelde van 35 en een standaarddeviatie van 2 -> (39-35) / 1 = 2. De genormaliseerde score is "2".
De tweede stap is simpelweg opnieuw schalen naar de typische IQ-schaal met een gemiddelde van 100 en een standaarddeviatie van 15 -> (2 * 15) + 100 = 110. Perfect, nu dat het duidelijk is, laten we het gemiddelde IQ opnieuw controleren of
spring naar percentiel.