Bücher Wenner
Wer wird Cosplay Millionär?
29.11.2024 um 19:30 Uhr
Lineare numerische Analysis
von Noël Gastinel
Verlag: Vieweg+Teubner Verlag
Reihe: Logik und Grundlagen der Mathematik
Hardcover
ISBN: 978-3-528-08291-8
Auflage: 1971
Erschienen am 01.01.1972
Sprache: Deutsch
Format: 244 mm [H] x 170 mm [B] x 20 mm [T]
Gewicht: 621 Gramm
Umfang: 360 Seiten

Preis: 49,95 €
keine Versandkosten (Inland)


Dieser Titel wird erst bei Bestellung gedruckt. Eintreffen bei uns daher ca. am 22. Oktober.

Der Versand innerhalb der Stadt erfolgt in Regel am gleichen Tag.
Der Versand nach außerhalb dauert mit Post/DHL meistens 1-2 Tage.

49,95 €
merken
zum E-Book (PDF) 36,99 €
klimaneutral
Der Verlag produziert nach eigener Angabe noch nicht klimaneutral bzw. kompensiert die CO2-Emissionen aus der Produktion nicht. Daher übernehmen wir diese Kompensation durch finanzielle Förderung entsprechender Projekte. Mehr Details finden Sie in unserer Klimabilanz.
Klappentext
Inhaltsverzeichnis

Bekanntlich kann man in Rn (oder 0") (d. h. in einem Vektorraum uber R oder 0) eine lineare Abbildung a (im. vorliegenden Kapitel werden wir allgemein diese Schreibweise verwenden) vermittels der zu dieser Transformation gehorenden Matrix A bezuglich der Fundamentalbasis PlJ = {e¿ ea ¿¿¿¿ , en} von Rn definieren. 1 Die i-te Spalte von A ist a(ei). Es sei PlJ' = lei, e¿.¿.¿ e~} eine andere Basis von 2 Rn. Einem Vektor entsprechen die Zahlen ~1' ...¿ ~~, so daB X = ~i ei + ~2 e+ ... + ~~ e~ ist; die 2 Zahlen ~~ sind die Komponenten von X bezuglich der Basis PlJ'. Sie konnen in einer Spalte angeordnet werden, und man erhalt damit den (Spalten-)Vektor Man erkennt sogleich, wie die Komponenten von X' in Abhangigkeit von X zu berechnen sind. Es seien .. e e e e ei = P11 l + P21 a + ... + Pnl n = E Pk1 k, k=l (I) n e~ = PI .. e+ Pan e+ ... + p,." en = E Ph ek 1 a k=l ej = 1; Pkjek). Fur X ergibt sich daraus (oder k=l X = i ~iej = i ~i (i Pklek) = 1; (i Pkj~l) ek = i ~kek.



1. Elementare Eigenschaften von Matrizen.- 1.1. Allgemeine Theorie.- 1.2. Matrizenrechnung.- 2. Vektor- und Matrizennormen.- 2.1. Grundlegende Eigenschaften.- 3. Invertierung von Matrizen-Theorie.- 3.1. Lineare Unabhängigkeit von Vektoren.- 3.2. Hauptsatz über die Existenz von Lösungen eines homogenen linearen Systems mit mehr Unbekannten als Gleichungen.- 3.3. Dimension.- 3.4. Isomorphie des Rn (bzw. Cn) zu jedem Vektorraum über R (bzw. C) von endlicher Dimension n.- 3.5. Umkehrbarkeit einer linearen Abbildung von Rn in Rm (bzw. von Cn in Cm).- 3.6. Linearität der inversen Abbildung einer umkehrbaren linearen Abbildung. Inverse Matrix.- 3.7. Indikator der linearen Unabhängigkeit.- 3.8. Eigenschaften der Determinanten.- 3.9. Existenz und Konstruktion von Determinanten.- 3.10. Formeln und Definitionen.- 3.11. Notwendige und hinreichende Bedingungen für die Invertierbarkeit einer Matrix A aus ?(n,n).- 3.12. Invertierbarkeit und Norm.- 3.13. Lösung eines linearen Systems (Theorie).- 4. Direkte Lösungsmethoden für lineare Systeme.- 4.1. Diagonalsysteme.- 4.2. Dreieckssysteme.- 4.3. Invertierung von Dreiecksmatrizen.- 4.4. Allgemeiner Fall: Der Gaußsche Algorithmus oder die Methode der einfachen Elimination.- 4.5. Der Gaußsche Algorithmus zur Lösung eines linearen Systems. Einfache Elimination; Rechenschema.- 4.6. Verbesserter Gaußscher Algorithmus. Das Verfahren von Crout.- 4.7. Die Methode von Jordan (Diagonalisierungsverfahren. Vollständige Elimination).- 4.8. Orthogonalisierungsmethoden. Schmidtsches Verfahren.- 4.9. Anwendung der allgemeinen direkten Verfahren zur Invertierung einer Matrix.- 4.10. Berechnung von Determinanten.- 4.11. Systeme mit symmetrischen Matrizen.- 4.12. Teilmatrizenverfahren.- 4.13. Ergänzungsverfahren.- Aufgaben zu denKapiteln 1-4.- 5. Indirekte Lösungsmethoden.- 5.1. Iteration und Relaxation.- 5.2. Lineare Iteration.- 5.3. Iterationen durch Projektionsmethoden.- 5.4. Iterationen für Systeme mit symmetrischer Matrix.- 5.5. Bemerkungen (für den Fall nichtsymmetrischer Systeme).- 5.6. Bemerkungen zur Konvergenz und Konvergenzverbesserung.- 5.7. Verbesserung der Elemente einer inversen Matrix (Hotelmng-Bodewig).- Aufgaben zu Kapitel 5.- 6. Invariante Unterräume.- 6.1. Einführung.- 6.2. Invariante Unterräume.- 6.3. Polynomtransformationen.- 6.4. Invariante Unterräume und Polynomtransformationen.- 6.5. Diagonalform.- 6.6. Das charakteristische Polynom.- 6.7. Polynommatrizen. Elementarteiler von Polynommatrizen.- 6.8. Normalformen. Basen bezüglich einer linearen Transformation.- 6.9. Funktionen von linearen Transformationen (Matrizenfunktionen).- 7. Anwendung der Eigenschaften invarianter Unterräume.- 7.1. Der Satz von Schub und Schlußfolgerungen.- 7.2. Polare Zerlegung.- 7.3. Matrizen mit nichtnegativen Elementen.- 7.4. Graphentheorie und Matrizen mit positiven Elementen.- 7.5. Vergleich der klassischen linearen Iterationen.- 7.6. Die Young-Frankelsche Theorie der Überrelaxation.- 7.7. Die Polynommethode. Das Verfahren von Peaceman-Rachford.- 7.8. Approximation des Spektralradius einer Matrix über eine Norm.- 8. Numerische Verfahren zur Berechnung von Eigenwerten und Eigenvektoren.- 8.1. Methoden zur direkten Bestimmung der charakteristischen Gleichung.- 8.2. Bestimmung des charakteristischen Polynoms mit Hilfe von Ähnlichkeitstransformationen.- 8.3. Berechnung von Eigenwerten und Eigenvektoren durch Iterationsverfahren (für nicht notwendig symmetrische Matrizen).- 8.4. Hermitesche (bzw. symmetrische) Matrizen.- Aufgaben zu den Kapiteln 6-8.- Literatur.- Namen- undSachverzeichnis.


andere Formate
weitere Titel der Reihe