Ausgleichsrechnung/Fitting

Ein wichtiges Werkzeug zur Analyse und Auswertung experimenteller Messdaten ist die Ausgleichsrechnung, die oft auch als Fitting oder Parameterschätzung bezeichnet wird. Jedes Messsignal weist ein bestimmtes Rauschen der Messwerte auf, dessen Ursachen unterschiedlichster Natur sein können. Bedingt durch die Qualität der Messwertaufnehmer, die Umgebungsbedingungen sowie das Vorhandensein verschiedenster Störquellen kann dieses Rauschen unterschiedlich stark ausgebildet sein. Zusätzlich zu diesem Grundrauschen treten in der Praxis häufig noch so genannte „Ausreißerwerte“ in Erscheinung, die mitunter erheblich vom erwarteten Signalverlauf abweichen.

Zur Auswertung und Analyse solcher Daten ist es oft zweckmäßig, diese mit Hilfe mathematischer Funktionen zu beschreiben. Dazu müssen die „verrauschten“ Messbänder unter Annahme einer stochastischen Verteilung des Rauschens geglättet und je nach Signalverlauf einer bestimmten Modellfunktion zugeordnet werden. Häufig verwendete Modellfunktionen sind Polynome, Exponentialfunktionen oder FOURIER-Reihen, deren charakteristisches Erscheinungsbild durch Koeffizienten beeinflusst werden kann.

Eine Anwendung der Ausgleichsrechnung ist es, ein beliebiges Messsignal \(f_i\) durch eine frei wählbare Modellfunktion \(f_M\) möglichst genau zu approximieren bzw. zu schätzen. Es gilt daher, die Koeffizienten der Modell- bzw. Approximationsfunktion so zu wählen, dass die Abstände der Messwerte zu dieser minimal werden. Als Approximationsfunktionen werden hier FOURIER-Reihen \(k\)-ter Ordnung mit den freien Koeffizienten an und bn gewählt, da diesen in den weiteren Betrachtungen eine wesentliche Bedeutung zukommt.

\[ \large{ f_M(x)=\dfrac{a_0}{2}+\sum\limits_{n=1}^k (a_n\cdot\cos(n \pi x)+b_n\cdot\sin(n\pi x)) } \]

Das mathematische Standardverfahren der Ausgleichsrechnung ist die Methode der kleinsten Fehlerquadrate. Der Ansatz dieses Verfahrens ist es, aus den Quadraten der Differenzen zwischen den Werten der Modellfunktion und den diskreten Messwerten eine neue Funktion zu bilden. Diese Funktion spiegelt schließlich die Summe der quadratischen Abstände zwischen Modellfunktion und Messsignal in Abhängigkeit der frei wählbaren Koeffizienten an und bn wieder. Die \(a_n\) und \(b_n\) sollen schließlich so gewählt werden, dass die Funktion der quadratischen Abstände ein Minimum annimmt, was gleichzeitig der bestmöglichen Annäherung der Modellfunktion an die vorgegebenen Messwerte entspricht. Fasst man die freien Koeffizienten für das Beispiel der FOURIER-Reihe in einem Vektor \(\pmb{x}\) in folgender Form zusammen:

\[ \large{\pmb{x}=\left( \begin{array}{c} a_0\\ a_1 \\ \vdots \\ a_{k} \\ b_0 \\ b_1 \\ \vdots \\ b_k \end{array}\right) } \]

lässt sich das Minimierungsproblem beschreiben mit:

\[ \large{ \min\limits_x\sum\limits_{i=1}^m (f_m-f_i)^2 } \]

Um dieses Minimierungsproblem zu lösen, müssen die partiellen Ableitungen nach den freien Koeffizienten gebildet und Null gesetzt werden. Dadurch erhält man ein bestimmtes und eindeutig lösbares lineares Gleichungssystem.

Für die praktische Anwendung der Ausgleichsrechnung ist es zweckmäßig, das Problem in Matrixschreibweise zu formulieren, um die Auswertungen numerisch vornehmen zu können. Dazu muss ein lineares Gleichungssystem der folgenden Form gelöst werden.

\[ \large{ \pmb{A}\pmb{x}=\pmb{b} } \]

Der Vektor \(\pmb{b}\) beinhaltet die diskreten Messwerte \(f_i\) zu den Zeiten \(t_i\) und besitzt folgende Form:

\[ \large{\pmb{b}=\left( \begin{array}{c} f_0\\ f_1 \\ \vdots \\ f_{m} \end{array}\right) } \]

Der Vektor \(\pmb{x}\) enthält die zu bestimmenden Koeffizienten. \(\pmb{A}\) wird als Übertragungsmatrix bezeichnet und gibt dem Gleichungssystem die Struktur analog zur gewählten Modell- bzw. Approximationsfunktion vor.

Für das konkrete Beispiel einer FOURIER-Reihe \(k\)-ter Ordnung nimmt die Übertragungsmatrix folgende Form an.

\[ \large{ \pmb{A}_{i,j}= \left( \begin{array}{ccccccc} \cos(0\cdot\Omega t_0) & \dots & \cos(k\cdot\Omega t_0) & | &\sin(0\cdot\Omega t_0) & \dots & \sin(k \cdot\Omega t_0) \\ \cos(0\cdot\Omega t_1) & \dots & \cos(k\cdot\Omega t_0) & | &\sin(0\cdot\Omega t_0) & \dots & \sin(k \cdot\Omega t_0) \\ \vdots & \vdots & \vdots & | & \vdots & \vdots & \vdots \\ \cos(0\cdot\Omega t_m) & \dots & \cos(k\cdot\Omega t_m) & | &\sin(0\cdot\Omega t_m) & \dots & \sin(k \cdot\Omega t_m) \end{array}\right) } \]

Übersteigt die Anzahl der Messwerte die Anzahl der zu bestimmenden freien Koeffizienten \(x_i\) , handelt es sich um ein überbestimmtes Gleichungssystem. Die bestmögliche Lösung führt damit auf die Minimierung der euklidischen Norm des Differenzvektors, äquivalent zur Methode der kleinsten Fehlerquadrate, zurück.

\[ \large{ \min\limits_x ||\pmb{A}\pmb{x}-\pmb{b}||_2 } \]

Zur numerischen Lösung dieses Minimierungsproblems kann die Pseudoinverse der Übertragungsmatrix \(\pmb{A}\) herangezogen werden. Die Pseudoinverse \(\pmb{A}^+\) wird oft auch als „Moore- Penrose-Inverse“ bezeichnet und führt schließlich zu folgendem Gleichungssystem:

\[ \large{ \pmb{x}=\pmb{A}^+\pmb{b} } \]

Auf detaillierte Möglichkeiten zur Berechnung von \(\pmb{A}^+\) soll hier verzichtet werden, da numerische Berechnungssoftware wie MATLAB® oder Mathcad® bereits integrierte Funktionen enthalten, die diese Berechnungen automatisch durchführen.