30
Polynomiale Regression Lineare Regression (klassisch, robust, total) Interpolation polynomial Spline Numerische Integration Klassisch: Newton-Cotes Weitere Quadraturformeln Regression, Interpolation, numerische Integration 9. Vorlesung 170 004 Numerische Methoden I Clemens Brand 20. Mai 2010

Regression Regression, Interpolation, numerische ...institute.unileoben.ac.at/amat/lehrbetrieb/num/vl-skript/sli09s10.pdf · Ausgleichsgerade nach der Methode der kleinsten Quadrate

  • Upload
    others

  • View
    22

  • Download
    0

Embed Size (px)

Citation preview

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Regression, Interpolation, numerische

Integration

9. Vorlesung170 004 Numerische Methoden I

Clemens Brand

20. Mai 2010

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Gliederung

Polynomiale RegressionLineare Regression (klassisch, robust, total)

InterpolationpolynomialSpline

Numerische IntegrationKlassisch: Newton-CotesWeitere Quadraturformeln

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Polynomiale Regression: AufgabenstellungGesucht ist ein Polynom, das die Datenpunkte möglichst gut approximiert

Gegeben

m + 1 Wertepaare (xi , yi ), i = 0, . . . ,m

Gesuchtp(x), ein Polynom n-ten Grades, n < m, so dass die Summeder Fehlerquadrate

m∑

i=0

(p(xi )− yi )2

minimal wird.

Anpassen eines Polynoms an Datenpunkte

Spezifische Wärmekapazitätvon kohlenstoffarmem Stahl inJ/kgK für 20C ≤ T ≤ 700,C

T cp

20 447173 500200 509400 595543 700600 763626 800700 909

0 100 200 300 400 500 600 700 800400

500

600

700

800

900

1000

1100

1200

y = 0.0009*x2 − 0.02*x + 4.6e+002y = 1.6e−006*x3 − 0.00083*x2 + 0.46*x + 4.4e+002

Datenpunkte quadratisches Pol. kubisches Pol.

Die Abbildung illustriert polynomiale Regression (quadratischund kubisch) an die gegebenen Datenpunkte.

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Direkter LösungswegAnsatz des Polynoms mit unbestimmten Koeffizienten

p(x) = a0 + a1x + a2x2 + · · ·+ an−1x

n−1 + anxn .

◮ Einsetzen der gegebenen Wertepaare führt auf einSystem von m linearen Gleichungen in den n + 1unbekannten Koeffizienten a0, a1, . . . , an.

◮ Sofern n < m liegt in der Regel ein überbestimmtes

System vor. Lösung nach der Methode derNormalengleichungen.

◮ Besser: Lösung durch QR-Zerlegung(Standardverfahren)

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Formel für die NormalengleichungenBei polynomialer Regression haben die Normalengleichungen spezielleForm; man kann die Koeffizienten direkt angeben.

s0a0 + s1a1 + ...... + snan = t0

s1a0 + s2a1 + ...... + sn+1an = t1

......

sna0 + sn+1a1 + ...... + s2nan = tn

mit sk =m∑

i=0

xk

i , tk =m∑

i=0

xk

i yi

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Was dabei schiefgehen kannRemember Murphy’s Law: “If anything can go wrong, it will”

◮ Normalengleichungen für größere n schlecht konditioniert

◮ Abhilfe: Daten skalieren. Anderere Lösungswege(QR-Zerlegung, Singulärwertzerlegung), andereAnsatzfunktionen (Orthogonalpolynome)

◮ Methode der kleinsten Quadrate wird durch Ausreißerstark irritiert

◮ Abhilfe: Robuste Methoden, Minimierung der Summeder absoluten Fehler (Minimierung in der 1-Norm stattin der 2-Norm)

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Lineare RegressionEinfacher Spezialfall der polynomialen Regression

0.5 1 1.5 2 2.5 3 3.5

0.25

0.5

0.75

1

1.25

1.5

1.75

2

Anpassen einer Geraden an Datenpunkte. DieAusgleichsgerade nach der Methode der kleinsten Quadrate

lässt sich von den wenigen Ausreissern stark ablenken.Minimieren des absoluten Fehlers legt eine wesentlichplausiblere Gerade durch die Daten.

Total Least Squares mit SVD

Standardverfahren minimiert Summe der Abstandsquadrate in

y-Richtung, TLS minimiert Quadratsumme der Normalabstände

−0.2 0 0.2 0.4 0.6 0.8 1 1.2−0.2

0

0.2

0.4

0.6

0.8

1Bestimme Schwerpunkt [x , y ] der Daten.

x =1

n

i=1,n

xi , y =1

n

i=1,n

yi

Verschiebe die Daten

∆xi = xi − x , ∆yi = yi − y

Bilde Singulärwertzerlegung

U · S · V T =

∆x1 ∆y1

......

∆xn ∆yn

TLS-Gerade geht durch den Schwerpunkt in Richtung des ersten

Spaltenvektors von V .

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Statistische Zusammenhänge

Die Methode der kleinsten Quadrate liefert maximum

likelihood-Schätzung der Parameter

wenn die Daten mit unabhängigen, zufälligen,

normalverteilten Fehlern mit gleicher

Standardabweichung behaftet sind.

Ist C = (ATA)−1 die inverse Matrix des Systems derNormalengleichungen, und ist die Varianz der Daten gleichσ2, so ist σ2C die Kovarianzmatrix der Parameter.

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Regression in MATLABDie Übungen enthalten Beispiele zur polynomialen Regression

◮ mit den Befehlen polyfit und polyval

◮ mit dem Basic-Fitting-Tool

◮ Fallstudie in der MATLAB-Hilfe

Approximation durch polynomiale Regression

50 100 150 200 250

25

50

75

100

125

150

175

200

16 Datenpunkte sind gegeben. Ein Approximationspolynom vierten Grades model-liert den Verlauf der Daten ganz passabel. Es hängt vom Modell ab, ob es Sinnmacht, mehr Parameter (höheren Grad) zu verwenden. Ein Polynom 15. Grades(16 freie Parameter) könnte die Daten exakt modellieren, aber. . .

Datenanpassung mit zu hohem Polynomgrad

50 100 150 200 250

25

50

75

100

125

150

175

200

Der Fehler an den Datenpunkten verschwindet zwar, das Polynom oszilliert aberheftig.Typisch für Polynome hohen Grades. Nur sehr glatte Funktionen lassen sich gutdurch Polynome hohen Grades gut annähern, und auch das nur in kleinen Bereichen(Beispiel: Potenzreihen)

Woher die Daten kommenOb eine Approximation ausreichend gut ist, hängt unter anderem auchdavon ab, was die Daten beschreiben sollen. . .

50 100 150 200 250

25

50

75

100

125

150

175

200

50 100 150 200 250

25

50

75

100

125

150

175

200

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

InterpolationDefinition der Aufgabenstellung

Gegeben:

Datenpunkte

Gesucht:

◮ Eine Funktion, die durch die gegebenen Datenpunkteverläuft.

◮ Ein Wert zwischen den Datenpunkten

◮ Trend über den gegebenen Datenbereich hinaus:Extrapolation

Anwendung:

Zwischenwerte in Tabellen, „glatte“ Kurven für Graphik. . .

Beispiel: Interpolation in Tabellen

Spezifische Wärmekapazitätvon kohlenstoffarmem Stahl inJ/kgK für 20C ≤ T ≤ 700,C

T cp

20 447173 500200 509400 595543 700600 763626 800700 909

0 100 200 300 400 500 600 700 800 900400

500

600

700

800

900

1000

1100

1200

1300

Die Abbildung illustriert stückweise lineare Interpolationzwischen den Stützstellen und Extrapolation bis 900 C.

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Polynomiale InterpolationDie einfachsten Interpolations-Funktionen sind Polynome...

Durch zwei Punkte der xy -Ebene geht genau eine Gerade.Durch drei beliebige Punkte lässt sich eindeutig eine Parabellegen. Durch n + 1 Punkte ist ein Polynom n-ten Gradeseindeutig bestimmt. (Ausnahme, wenn x-Wertezusammenfallen)

Aufgabenstellung:

◮ gegeben n + 1 Wertepaare (xi , yi ), i = 0, . . . , n, wobeidie xi paarweise verschieden sind.

◮ gesucht ist das eindeutig bestimmte Polynom n-tenGrades p, das durch die gegebenen Datenpunkteverläuft:

p(xi ) = yi für i = 0, . . . , n

.

Interpolationspolynome hohen Grades

sind ungeeignet!

Durch die achtDatenpunkte lässt sich einPloynom siebten Gradesexakt durchlegen.

Aber:Polynome so hohen Gradesneigen zu Oszillationen undzu extrem unrealistischerExtrapolation

0 100 200 300 400 500 600 700 800 900400

500

600

700

800

900

1000

DatenpunkteInterpolationspolynom

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Rechenverfahren zur polynomialen

Interpolation

◮ Alle Verfahren für polynomiale Regression liefern fürentsprechend hohen Polynomgrad dasInterpolationspolynom. Rechenaufwand ist höher als beiden folgenden Methoden.

◮ Lagrangesches Interpolationspolynom: Eine Formel, diedas Polynom direkt hinschreibt.

◮ Newtonsches Interpolationspolynom: besondersrechengünstig.

◮ Es gibt noch einige andere Rechenschemen (im Skript:Neville-Verfahren; wir lassen es heuer aus)

Trotz unterschiedlicher Namen und Schreibweisen liefern alleVerfahren dasselbe (eindeutig bestimmte) Polynom.

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Lagrangesche Interpolationsformel

Das Interpolationspolynom durch die n + 1 Wertepaare(xi , yi ), i = 0, . . . , n ist gegeben durch

p(x) = L0(x)y0 + L1(x)y1 + ...+ Ln(x)yn,

wobei

Li (x) =(x − x0)(x − x1)...(x − xi−1)(x − xi+1)...(x − xn)

(xi − x0)(xi − x1)...(xi − xi−1)(xi − xi+1)...(xi − xn)

Es ist für die rechnerische Durchführung nicht ratsam, nach Einsetzen

der Datenpunkte die Li (x) durch symbolisches Ausmultiplizieren noch

weiter zu „vereinfachen“. Die x-Werte direkt einsetzen!

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Weitere InterpolationsverfahrenNicht alle Funktionen lassen sich vorteilhaft durch Polynome interpolieren

Andere wichtige Verfahren sind

◮ Rationale Interpolation

◮ Spline-Interpolation (Kubisch, Bezier,...)

◮ Stückweise Hermite-Interpolation (MATLAB pchip)

◮ Trigonometrische Interpolation

◮ Interpolation in zwei oder mehr Dimensionen

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Natürlicher kubischer Spline

Ein kubischer Spline s(x) durch die n + 1 Wertepaare (xi , yi ),i = 0, . . . , n ist folgendermaßen charakterisiert:

◮ In den einzelnen Intervallen (xi−1, xi ) ist s(x) jeweils einkubisches Polynom

◮ An den Intervallgrenzen stimmen die Funktionswerte, dieersten und die zweiten Ableitungen rechts- undlinksseitig überein.

◮ Zusatzbedingung: zweite Ableitung an den Rändern wirdNull gesetzt.

Natürlicher kubischer Spline

Eine dünne, an einzelnen Punkten festgehaltene Lattebiegt sich in der Form eines kubischen Splines

1 2 3 4

0.1

0.2

0.3

0.4

Interpolation in Matlab: spline und pchipx = -3:3;

y = [-1 -1 -1 0 1 1 1];

t = -3:.01:3;

p = pchip(x,y,t);

s = spline(x,y,t);

plot(x,y,’o’,t,p,’-’,

t,s,’-.’)

−3 −2 −1 0 1 2 3−1.5

−1

−0.5

0

0.5

1

1.5

Datenpchipspline

MATLAB bietet verschiedene stückweise kubischeInterpolationsverfahren.spline ist für glatte Daten genauer.pchip überschwingt nicht und neigt weniger zu Oszillationen.

Beispiel: cp-Daten mit spline und pchip

Innerhalb desDatenbereiches stimmenbeide Verfahren sichtlichüberein.

Extrapolation ist einwesentlich riskanteresGeschäft. . .. . . wie man sieht: hier sindweitere Datenpunkteeingetragen. Keine derbeiden Methodenextrapoliert dentatsächlichen Verlauf derspez. Wärme korrekt.

−200 0 200 400 600 800 1000300

400

500

600

700

800

900

1000

1100

1200

1300

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Numerische Integration

Gegeben:

eine Funktion f (x) in einem Intervall a ≤ x ≤ b.

Gesucht:

deren Integral∫

b

a

f (x)dx

Oft lässt sich das Integral nicht durch elementare Funktionenausdrücken, oder die Funktion selbst ist nur tabellarischgegeben. −→ Numerische Verfahren

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Integrationsformeln nach Newton-Cotes

Gegeben:

Eine Funktion f (x) in einem Intervall (a, b) durch ihre Wertefi an n + 1 äquidistanten Stützstellen,

fi = f (a + ih), mit h =b − a

n, i = 0, . . . , n.

Prinzip:

Interpoliere f (x) durch ein Polynom p(x). Nähere dasIntegral von f durch das Integral von p. Die Näherung istgegeben als gewichtete Summe der fi ,

b

a

f (x)dx ≈ (b − a)n

i=0

αi fi

mit fixen Gewichten αi

Newton-Cotes-FormelnKlassische Beispiele mit FehlertermenTrapezregel

b

a

f (x)dx =b − a

2(f (a) + f (b)) −

(b−a)3

12f′′(ξ)

Simpson-Regel

b

a

f (x)dx =b − a

6

(

f (a) + 4f (a + b

2) + f (b)

)

(b−a)5

2880f

IV (ξ)

3/8-Regel („pulcherrima“)

b

a

f (x)dx =b − a

8(f (a) + 3f (a + h) + 3f (a + 2h) + f (b)) −

(b−a)5

6480f

IV (ξ)

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Zusammengesetzte N.-C.-FormelnWenn feinere Intervallteilung vorliegt

Achtung bei Intervallbreite h! Es sind n + 1 Datenpunkte,und um eins weniger Intervalle. n= Anzahl Datenpunkte-1,und h = (b − a)/n

Zusammengesetzte Trapezregel

b

a

f (x)dx =h

2(f0 + 2f1 + 2f2 + · · ·+ 2fn−1 + fn) + E

Zusammengesetzte Simpson-Regel

b

a

f (x)dx =h

3(f0+4f1+2f2+4f3+· · ·+2fn−2+4fn−1+fn)+E

(Nur für gerades n möglich!)

Polynomiale

Regression

LineareRegression(klassisch, robust,total)

Interpolation

polynomialSpline

Numerische

Integration

Klassisch:Newton-CotesWeitereQuadraturformeln

Weitere Quadraturformeln

Gauß-Quadratur, Gauß-Lobatto-Formeln

Nicht äquidistante Stützstellen, dafür höhere Genauigkeit.(Typische Anwendung: Finite Elemente)

Romberg-Verfahren

berechnet mit zusammengesetzter Trapezregel mehrereWerte zu verschiedenen h und extrapoliert auf h = 0.

MATLABbietet zwei Verfahren: quad (adaptive Simpson-Regel) undquadl (trickreichere Gauß-Lobatto Methode)