Text to translate: Diferentes pruebas tenían diferentes promedios y desviaciones estándar (por cierto, la desviación estándar es la diferencia normal entre cualquier puntuación tomada al azar y el promedio). Por ejemplo, imaginemos una prueba con 50 ítems y otra con 150 ítems. Como puedes adivinar, el puntaje promedio en la primera prueba podría ser 35, pero en la segunda tal vez sea 100. Por otro lado, ¿cuál es la diferencia habitual de cualquier puntuación aleatoria con el promedio? Tal vez en la primera prueba sea 1 punto, pero en la segunda sea 3 puntos. ¿Cómo podemos compararlas? No podemos a menos que transformemos las puntuaciones.
Cuando se pintaron todas las puntuaciones de todas las pruebas, se veían iguales, la mayoría de las personas tenía inteligencia promedio, y menos en los extremos. Para encontrar un terreno común, "decidieron usar una escala, el promedio siempre sería 100 y la desviación estándar 15". De esta manera, las puntuaciones siempre son comparables.
Para llegar a la escala, es un proceso bastante fácil de dos pasos. Primero, obtienes la puntuación de la prueba, deduces el promedio de la prueba y lo divides por la desviación estándar. Esa es una puntuación normalizada. Ya podrías comparar entre pruebas, pero queremos reescalar para usar la escala típica.
Ejemplo: imagina una puntuación de 39 en una prueba con promedio 35 y desviación estándar de 2 -> (39-35) / 1 = 2. La puntuación normalizada es "2".
El segundo paso es simplemente reescalar de nuevo a la escala típica de CI con promedio 100 y desviación estándar de 15 -> (2 * 15) + 100 = 110. Perfecto, ahora que está claro, volvamos a verificar el CI promedio o
saltemos al percentil.