آزمونهای مختلف میانگینها و انحراف معیارهای متفاوتی داشتند (بههرحال، انحراف معیار نشاندهنده تفاوت نرمال بین هر نمره تصادفی و میانگین است). به عنوان مثال، بیایید یک آزمون با ۵۰ سوال و یک آزمون با ۱۵۰ سوال را تصور کنیم. همانطور که حدس میزنید، میانگین نمره در آزمون اول ممکن است ۳۵ باشد، اما در آزمون دوم شاید ۱۰۰ باشد. از طرف دیگر، تفاوت معمول هر نمره تصادفی با میانگین چیست؟ شاید در آزمون اول ۱ امتیاز باشد، اما در آزمون دوم ۳ امتیاز. چگونه میتوانیم آنها را مقایسه کنیم؟ نمیتوانیم مگر اینکه نمرات را تبدیل کنیم.
وقتی تمام نمرات از همه آزمونها را ترسیم کردیم، به نظر یکسان آمدند، بیشتر مردم دارای هوش متوسط بودند و تعداد کمتری در انتهاها. برای یافتن نقطه مشترک، آنها "تصمیم گرفتند از مقیاس استفاده کنند، میانگین همیشه ۱۰۰ و انحراف معیار ۱۵ خواهد بود". به این ترتیب نمرات همیشه قابل مقایسه هستند.
برای رسیدن به این مقیاس، یک فرآیند دو مرحلهای نسبتاً آسان وجود دارد. ابتدا نمره آزمون را میگیرید، میانگین آزمون را کم میکنید و بر انحراف معیار تقسیم میکنید. این نمره نرمالشده است. شما میتوانید بین آزمونها مقایسه کنید، اما ما میخواهیم به مقیاس معمولی برگردیم.
مثال: تصور کنید نمره ۳۹ در آزمونی با میانگین ۳۵ و انحراف معیار ۲ -> (۳۹-۳۵) / ۱ = ۲. نمره نرمالشده "۲" است.
مرحله دوم این است که به سادگی به مقیاس معمولی IQ با میانگین ۱۰۰ و انحراف معیار ۱۵ برگردید -> (۲ * ۱۵) + ۱۰۰ = ۱۱۰. عالی، حالا که واضح است، بیایید میانگین IQ را دوباره بررسی کنیم یا به
درصدی برویم.