In Statistiken und Anwendungen von Statistiken kann Normalisierung eine Reihe von Bedeutungen haben. In den einfachsten Fällen bedeutet die Normalisierung von Bewertungen, Werte, die auf verschiedenen Skalen gemessen wurden, an eine fiktiv übliche Skala anzupassen, häufig vor der Mittelwertbildung. In komplizierteren Fällen kann sich die Normalisierung auf komplexere Anpassungen beziehen, bei denen die Absicht besteht, die gesamten Wahrscheinlichkeitsverteilungen der angepassten Werte in Einklang zu bringen., Im Falle einer Normalisierung der Punktzahlen in der Bildungsbewertung kann die Absicht bestehen, die Verteilungen an eine Normalverteilung anzupassen. Ein anderer Ansatz zur Normalisierung von Wahrscheinlichkeitsverteilungen ist die Quantilnormalisierung, bei der die Quantile der verschiedenen Kennzahlen in Einklang gebracht werden.,
In einer anderen Verwendung in der Statistik bezieht sich Normalisierung auf die Erstellung verschobener und skalierter Versionen von Statistiken, wobei die Absicht besteht, dass diese normalisierten Werte den Vergleich entsprechender normalisierter Werte für verschiedene Datensätze ermöglichen, um die Auswirkungen bestimmter Brutto-Einflüsse wie in einer Anomalie zu eliminieren Zeitreihe. Einige Arten der Normalisierung beinhalten nur eine Neuskalierung, um zu Werten relativ zu einer Größenvariablen zu gelangen., In Bezug auf die Messwerte sind solche Verhältnisse nur für Verhältnismessungen sinnvoll (wo Verhältnisse von Messungen sinnvoll sind), nicht für Intervallmessungen (wo nur Entfernungen sinnvoll sind, aber keine Verhältnisse).
In der theoretischen Statistik kann die parametrische Normalisierung häufig zu pivotalen Größen führen-Funktionen, deren Stichprobenverteilung nicht von den Parametern abhängt – und zu zusätzlichen Statistiken-pivotalen Größen, die aus Beobachtungen berechnet werden können, ohne Parameter zu kennen.