\documentclass[a7paper]{kartei} \usepackage[utf8]{inputenc} %UTF8 \usepackage[OT1]{fontenc} \usepackage[scaled]{helvet} \usepackage[ngerman]{babel} % Neue Rechtschreibung \usepackage{amssymb} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{nicefrac} \usepackage{array} \usepackage{mathdots} \usepackage{cancel} \usepackage{units} \usepackage{setspace} % Deutsche Absatzformatierung \setlength{\parindent}{0pt} \setlength{\parskip}{1em} % Oft verwendete spacer \def \bk {\hspace*{2mm}} \def \simplecenter {\vspace*{-10mm}\centering\vfil} % dies und das \newcommand*\imag{\mathbf{i}} \newcommand*\euler{\mathbf{e}} \newcommand*\leibd{\mathbf{d}} \newcommand*\leibdx{\mathbf{d}x} \newcommand*\leibdt{\mathbf{d}t} \newcommand*\bigbar{\!\!\left.\begin{matrix}\,\\\,\end{matrix}\right|} \def\rank{\mathop{\rm Rang}\nolimits} \def\kernel{\mathop{\rm Kern}\nolimits} \def\image{\mathop{\rm Bild}\nolimits} \def\arcsin{\mathop{\rm arc\,sin}\nolimits} \def\arccos{\mathop{\rm arc\,cos}\nolimits} \def\arctan{\mathop{\rm arc\,tan}\nolimits} \def\arccot{\mathop{\rm arc\,cot}\nolimits} \def\arsinh{\mathop{\rm arsinh}\nolimits} \def\arcosh{\mathop{\rm arcosh}\nolimits} \def\artanh{\mathop{\rm artanh}\nolimits} \def\arcoth{\mathop{\rm arcoth}\nolimits} \def\vdts{\lower1pt\hbox{$\smash{\vdots}$}} \def\ddts{\lower1pt\hbox{$\smash{\ddots}$}} \def\phant#1#2{\hbox to0pt{#1\hss}\phantom{\hbox{#2}}} \def\mphant#1#2{\phant{$#1$}{$#2$}} \newcommand*\dg{^{\circ}} % Wurzel mit haken \newcommand\hksqrt[2][]{\mathpalette\DHLhksqrtA{{#1}{#2}}} \def\DHLhksqrtA#1#2{\setbox0=\hbox{$#1\DHLhksqrtB#2$}\dimen0=\ht0 \advance\dimen0-0.2\ht0 %0.2 ist das Mass fuer die Hakenlaenge, relativ zum Inhalt der Wurzel \setbox2=\hbox{\vrule height\ht0 depth -\dimen0}% {\box0\lower0.4pt\box2}} \def\DHLhksqrtB#1#2{\def\a{#1}\def\b{}\ifx\a\b\sqrt{#2\,}\else\sqrt[#1]{#2\,}\fi} % Vektoren \def\Vec#1{\overrightarrow{#1}} \def\PVec#1{\begin{pmatrix} #1 \end{pmatrix}} \usetikzlibrary{calc} \usetikzlibrary{arrows} \begin{document} \fach{Mathematik 2 f"ur ET} \kommentar{by Clifford Wolf} \include{hinweis} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Vektoren in $\mathbb R^n$ und $\mathbb C^n$} Unter einem {\bf Vektor} in $\mathbb R^n$ bzw. $\mathbb C^n$ versteht man ein algebraisches Objekt das durch ein Tupel von $n$ reellen bzw. komplexen Zahlen dargestellt werden kann. Geometrisch eignen sich Vektoren aus $\mathbb R^2$ zur Darstellung von Koordinaten in der Ebenen und Vektoren aus $\mathbb R^3$ zur Darstellung von Koordinaten im Raum. Dazu wird der Punkt $X$ mit den Koordinaten $(x_1, x_2)$ mit seinem {\bf Ortsvektor} $\vec x$ vom Ursprungspunkt $O$ zum Punkt $X$ identifiziert: $$ \vec x = \Vec{OX} = \PVec{x_1 \\ x_2} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Addition von Vektoren \\ Multiplikation von Vektor und Skalar} \small F"ur Vektoren aus $\mathbb R^2$ gilt: Die Addition von Vektoren entspricht der "`Aneinanderreihung"' der Vektoren, so dass sie ein {\bf Kr"afteparallelogramm} aufspannen: $$ \vec x + \vec y = \PVec{x_1 \\ x_2} + \PVec{y_1 \\ y_2} = \PVec{x_1 + y_1 \\ x_2 + y_2} $$ % Die Multiplikation von Vektor und Skalar entspricht der Streckung oder Stauchung des Vektors um den durch den Skalar gegebenen Faktor: $$ s \vec x = s \PVec{x_1 \\ x_2} = \PVec{s x_1 \\ s x_2} $$ Analog dazu wird die Addition von Vektoren und Multiplikation von Vektor und Skalar f"ur Vektoren aus $\mathbb R^n$ bzw. $\mathbb C^n$ definiert. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Der Nullvektor} Der Nullvektor $\vec 0$ ist der Vektor mit der Eigenschaft $\vec x + \vec 0 = \vec x$. F"ur Vektoren aus $\mathbb R^n$ bzw. $\mathbb C^n$ ist der Nullvektor definiert als der Vektor bei dem alle Komponenten den Wert $0$ haben: $$ \vec 0 = \PVec{0 \\ 0 \\ \vdots \\ 0 \\ 0} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Vektorraum \\ (reell bzw. komplex)} \small Eine Menge $\mathbb V$ auf der eine Addition $\vec x + \vec y$ mit $\vec x, \vec y \in \mathbb V$ und eine Multiplikation $s\vec v_1$ mit $s \in \mathbb R$ definiert ist (und die bez"uglich dieser Operationen abgeschlossen ist) f"ur die die folgenden 8 Gesetze gelten hei"st {\bf reeller Vektorraum}. 1. $\vec x + \vec y = \vec y + \vec x$ \dotfill Kommutativgesetz der Addition \\ 2. $(\vec x + \vec y) + \vec z = \vec x + (\vec y + \vec z)$ \dotfill Assoziativgesetz der Addition \\ 3. $\vec x + \vec 0 = \vec x$ \dotfill $\vec 0$ ist neutrales Element der Addition \\ 4. $\vec x + (-\vec x) = \vec 0$ \dotfill $-\vec x$ ist inverses Element zu $\vec x$ \\ 5. $(st)\vec x = s(t\vec x)$ \dotfill Assiziativgesetz der Multiplikation mit Skalaren \\ 6. $(s+t)\vec x = s\vec x + t\vec x$ \dotfill 1. Distributivgesetz \\ 7. $s(\vec x + \vec y) = s\vec x + s\vec y$ \dotfill 2. Distributivgesetz \\ 8. $1\vec x = \vec x$ \dotfill $1$ ist neutrales Element der Multiplikation Im Fall $s \in \mathbb C$ hei"st die Menge {\bf komplexer Vektorraum}. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Unterraum} Eine Teilmenge $\mathbb U \subset \mathbb V$ des Vektorraumes $\mathbb V$ hei"st {\bf Unterraum} von $\mathbb V$ wenn $\mathbb U$ ebenfalls ein Vektorraum ist. Insbesondere ist $\mathbb U \subset \mathbb R^n$ ein Unterraum von $\mathbb R^n$ wenn $\mathbb U$ abgeschlossen ist. D.h. $$ \forall \vec x, \vec y \in \mathbb U: \hskip1em \forall s \in \mathbb R: \hskip1em \vec x + \vec y \in \mathbb U \hskip1em\land\hskip1em s\vec x \in \mathbb U $$ \vfill\small Geometrisch ist ein Unterraum $\mathbb U \subset \mathbb R^n$ eine Gerade, Ebene oder Hyperebene durch den Ursprung. (Bzw. als kleinster denkbarer Unterraum $\mathbb U \subset \mathbb R^n$ nur der Ursprungspunkt: $U=\{\vec0\}$) \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Linearkombination \\ und lineare Abh"anigkeit} Sei $\mathbb V$ ein Vektorraum mit dem Skalark"orper $\mathbb K$. \\ Sei weiters $\vec v_i \in \mathbb V$ und $s_i \in \mathbb K$ mit $i = 1, \dots, k$ und $k \in \mathbb N$. Einen Vektor $$ \vec v = s_1\vec v_1 + s_2\vec v_2 + \cdots + s_k\vec v_k $$ nennt man {\bf Linearkombination} von $\vec v_1, \dots, \vec v_k$. Die Vektoren $\vec v_1, \dots, \vec v_k$ hei"sen {\bf linear abh"anig}, wenn es Skalare $(s_1, \dots, s_k) \neq (0, \dots, 0)$ gibt, sodass $$ s_1\vec v_1 + s_2\vec v_2 + \cdots + s_k\vec v_k = \vec 0 \text{.} $$ Andernfalls hei"sen die Vektoren {\bf linear unabh"anig}. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Eigenschaften linear abh"aniger \\ und lin. unabh"aniger Vektoren, \\ Definition: lineare H"ulle} \small Sei $\mathbb V$ ein Vektorraum mit dem Skalark"orper $\mathbb K$. \vfill {\bf 1.} Sind die Vektoren $\vec v_1, \dots, \vec v_k \in \mathbb V$ l.a., so kann mindestens einer der Vektoren als Linearkombination der anderen dargestellt werden. \vfill {\bf 2.} Sind die Vektoren $\vec v_1, \dots, \vec v_k \in \mathbb V$ l.u., so sind f"ur jeden Vektor $\vec v = s_1\vec v_1 + \cdots + s_k\vec v_k$ die Koeffizienten $s_1, \dots, s_k$ eindeutig bestimmt. \vfill {\bf 3.} Die Menge aller Linearkomb. der Vektoren $\vec v_1, \dots, \vec v_k \in \mathbb V$ $$ \mathcal L(\vec v_1, \dots, \vec v_k) := \{ s_1\vec v_1 + \cdots + s_k\vec v_k \bk|\bk s_i \in \mathbb K \} $$ nennt man den durch die Vektoren $\vec v_1, \dots, \vec v_k$ {\bf aufgespannen Unterraum} oder die {\bf lineare H"ulle} der Vektoren $\vec v_1, \dots, \vec v_k$. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Basis und Dimension \\ eines Vektorraumes} Sei $\mathbb V$ ein Vektorraum mit dem Skalark"orper $\mathbb K$. Eine Menge $\mathbb B = \{ \vec b_1, \dots, \vec b_k \}$ von l.u. Vektoren $\vec b_i \in \mathbb V$ hei"st {\bf Basis} von $\mathbb V$, falls jeder Vektor aus $\mathbb V$ als Linearkombination der Vektoren $\vec b_1, \dots, \vec b_k$ dargestellt werden kann. D.h. wenn und nur wenn $\mathbb B$ eine Basis von $\mathbb V$ ist, dann ist $$ \mathcal L(\vec b_1, \dots, \vec b_k) = \mathbb V \text{.} $$ Die Anzahl der Basisvektoren ist die {\bf Dimension} von $\mathbb V$: $$ \dim(\mathbb V) = |\mathbb B| $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Koordinaten} {\small Sei $\mathbb V$ ein Vektorraum mit dem Skalark"orper $\mathbb K$, $\mathbb B = \{ \vec b_1, \dots, \vec b_n \}$ eine Basis von $\mathbb V$ und $\vec v \in \mathbb V$ ein Vektor aus mit der Darstellung} $$ \vec v = s_1\vec b_1 + \cdots + s_n\vec b_n \bk\bk \text{mit $s_i \in \mathbb K$.} $$ Dann nennt man den Vektor $$ [\vec v]_{\mathbb B} = (s_1 \cdots s_n)^\mathrm T \in \mathbb K^n $$ {\bf Koordinatenvektor} von $\vec v$ bez"uglich der Basis $\mathbb B$ und die Werte $s_1, \dots, s_n$ {\bf Koordinaten} von $\vec v$ bez"uglich der Basis $\mathbb B$. \small Das Bestimmen der Koordinaten eines Vektors bez"uglich einer Basis des beinhaltenden Vektorraums l"auft auf das L"osen eines linearen Gleichungssystems heraus. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Matrix} \small Eine $m \times n$-Matrix $A$ ist ein rechteckiges Schema mit $m$ Zeilen und $n$ Spalten von Skalaren $a_{ij}$ mit $i = 1, \dots, m$ und $j = 1, \dots, n$: $$ A = (a_{ij}) = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \\ \end{pmatrix} $$ Man kann sich eine Matrix auch als einen $n$-dimensionalen Zeilenvektor von $m$-dimensionalen Spaltenvektoren bzw. als einen $m$-dimensionalen Spaltenvektor von $n$-dimensionalen Zeilenvektoren denken. Wenn nicht anders angegeben wird mit der Notation $\vec v$ idR. ein spaltenvektor, also eine $m \times 1$-Matrix bezeichnet. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Transponierte Matrix \\ Symmetrische Matrix \\ Quadratische Matrix \\ Diagonalmatrix \\ Einheitsmatrix \\ Nullmatrix} \small\vbox{ Die zu $A$ {\bf transponierte Matrix} $A^\mathrm T$ ist die um die Hauptdiagonale gespiegelte Matrix $A$: $A = (a_{ij}) \Rightarrow A^\mathrm T = (a_{ji})$ Eine Matrix $A$ hei"st {\bf symmetrisch} wenn $A^\mathrm T = A$. Eine $m \times n$-Matrix hei"st {\bf quadratisch} wenn $m=n$. Eine Matrix $A = (a_{ij})$ hei"st {\bf Diagonalmatrix}, wenn alle Elemente au"serhalb der Hauptiagonale Null sind. D.h. wenn $i \neq j \Rightarrow a_{ij} = 0$ gilt. Die {\bf Einheitsmatrix} $I_n$ ist die $n \times n$-Matrix mit Einsen an allen Hauptiagonalelementen und Nullen an den anderen Elementen. Die {\bf Nullmatrix} $0_{m \times n}$ ist die $m \times n$-Matrix mit Nullen an allen Elementen.} \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Addition von Matrizen \\ Multiplikation von Matrix und Skalar} \small Seien $A = (a_{ij})$ und $B = (b_{ij})$ zwei $m \times n$-Matrizen und $s$ ein Skalar: $$ A + B = (a_{ij} + b_{ij}) = \begin{pmatrix} a_{11} + b_{11} & \cdots & a_{1n} + b_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} + b_{m1} & \cdots & a_{mn} + b_{mn} \\ \end{pmatrix} $$ $$ sA = (sa_{ij}) = \begin{pmatrix} sa_{11} & \cdots & sa_{1n} \\ \vdots & \ddots & \vdots \\ sa_{m1} & \cdots & sa_{mn} \\ \end{pmatrix} $$ Die Menge der $m \times n$-Matrizen sind ein Vektorraum (mit $0_{m \times n}$ als neutrales Element). Dementsprechend gelten die Rechenregeln f"ur Vektorr"aume auch f"ur Matrizen. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Multiplikation von Matrizen \\ -- das Zeilen-Spalten-Bild --} \small Sei $A = (a_{ij})$ eine $m \times l$-Matrix und $B = (b_{ij})$ eine $l \times n$-Matrix. Dann ist das Produkt $C = AB = (c_{ij})$ eine $m \times n$-Matrix mit der Eigenschaft: Jedes Element $c_{ij}$ von $C$ ist das innere Produkt des $i$-ten Zeilenvektors von $A$ und dem $j$-ten Spaltenvektor von $B$: $$ \begin{pmatrix} \textcolor{red}{ c_{11}} & \textcolor{gray}{\cdots} & \textcolor{gray}{c_{1n}} \\ \textcolor{gray}{\vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{gray}{c_{m1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{c_{mn}} \\ \end{pmatrix} = \begin{pmatrix} \textcolor{red}{ a_{11}} & \textcolor{red}{ \cdots} & \textcolor{red}{ a_{1l}} \\ \textcolor{gray}{\vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{gray}{a_{m1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{a_{ml}} \\ \end{pmatrix} \begin{pmatrix} \textcolor{red}{ b_{11}} & \textcolor{gray}{\cdots} & \textcolor{gray}{b_{1n}} \\ \textcolor{red}{ \vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{red}{ b_{l1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{b_{ln}} \\ \end{pmatrix} $$ $$ c_{ij} = \sum_{k=1}^l a_{ik} b_{kj} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Multiplikation von Matrizen \\ -- das Spalten-Spalten-Bild --} \small Sei $A = (a_{ij})$ eine $m \times l$-Matrix und $B = (b_{ij})$ eine $l \times n$-Matrix. Dann ist das Produkt $C = AB = (c_{ij})$ eine $m \times n$-Matrix mit der Eigenschaft: Jede Spalte $\vec c_{\star j}$ von $C$ ist eine Linearkombination aller Spalten von $A$ mit den Werten der Spalte $\vec b_{\star j}$ von $B$ als Koeffizienten: $$ \begin{pmatrix} \textcolor{red}{ c_{11}} & \textcolor{gray}{\cdots} & \textcolor{gray}{c_{1n}} \\ \textcolor{red}{ \vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{red}{ c_{m1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{c_{mn}} \\ \end{pmatrix} = \begin{pmatrix} \textcolor{red}{ a_{11}} & \textcolor{red}{ \cdots} & \textcolor{red}{ a_{1l}} \\ \textcolor{red}{ \vdots} & \textcolor{red}{ \ddots} & \textcolor{red}{ \vdots} \\ \textcolor{red}{ a_{m1}} & \textcolor{red}{ \cdots} & \textcolor{red}{ a_{ml}} \\ \end{pmatrix} \begin{pmatrix} \textcolor{red}{ b_{11}} & \textcolor{gray}{\cdots} & \textcolor{gray}{b_{1n}} \\ \textcolor{red}{ \vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{red}{ b_{l1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{b_{ln}} \\ \end{pmatrix} $$ $$ \vec c_{\star j} = \sum_{k=1}^l \vec a_{\star k} b_{kj} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Multiplikation von Matrizen \\ -- das Zeilen-Zeilen-Bild --} \small Sei $A = (a_{ij})$ eine $m \times l$-Matrix und $B = (b_{ij})$ eine $l \times n$-Matrix. Dann ist das Produkt $C = AB = (c_{ij})$ eine $m \times n$-Matrix mit der Eigenschaft: Jede Zeile $\vec c_{i\star}$ von $C$ ist eine Linearkombination aller Zeilen von $B$ mit den Werten der Zeile $\vec a_{i\star}$ von $A$ als Koeffizienten: $$ \begin{pmatrix} \textcolor{red}{ c_{11}} & \textcolor{red}{ \cdots} & \textcolor{red}{ c_{1n}} \\ \textcolor{gray}{\vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{gray}{c_{m1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{c_{mn}} \\ \end{pmatrix} = \begin{pmatrix} \textcolor{red}{ a_{11}} & \textcolor{red}{ \cdots} & \textcolor{red}{ a_{1l}} \\ \textcolor{gray}{\vdots} & \textcolor{gray}{\ddots} & \textcolor{gray}{\vdots} \\ \textcolor{gray}{a_{m1}} & \textcolor{gray}{\cdots} & \textcolor{gray}{a_{ml}} \\ \end{pmatrix} \begin{pmatrix} \textcolor{red}{ b_{11}} & \textcolor{red}{ \cdots} & \textcolor{red}{ b_{1n}} \\ \textcolor{red}{ \vdots} & \textcolor{red}{ \ddots} & \textcolor{red}{ \vdots} \\ \textcolor{red}{ b_{l1}} & \textcolor{red}{ \cdots} & \textcolor{red}{ b_{ln}} \\ \end{pmatrix} $$ $$ \vec c_{i\star} = \sum_{k=1}^l a_{ik} \vec b_{k\star} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Multiplikation von Matrizen \\ -- das Spalten-Zeilen-Bild --} \small Sei $A = (a_{ij})$ eine $m \times l$-Matrix und $B = (b_{ij})$ eine $l \times n$-Matrix. Dann ist das Produkt $C = AB = (c_{ij})$ eine $m \times n$-Matrix mit der Eigenschaft: Die Matrix $C$ ist die Summe der Matrizen $C_1, \dots, C_l$, wobei die Matrix $C_k$ jeweils aus der $k$-ten Spalte von $A$ und der $k$-ten Zeile von B gebildet wird: $$ C = \sum_{k=1}^l C_k, \hskip1cm C_k = (a_{ik} b_{kj}) = \begin{pmatrix} a_{1k} b_{k1} & \cdots & a_{1k} b_{kn} \\ \vdots & \ddots & \vdots \\ a_{mk} b_{k1} & \cdots & a_{mk} b_{kn} \\ \end{pmatrix} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Assoziativit"at und Kommutativit"at \\ der Matrix-Matrix-Multiplikation} \small Seien $A$, $B$ und $C$ Matrizen in passenden Dimensionen sodass die Produkte jeweils existieren, dann gilt: Die Matrizenmultiplikation ist {\bf assoziativ}. D.h. es gilt $$ (AB)C = A(BC) \text{.} $$ Im allgemeinen ist die Matrizenmultiplikation {\bf nicht kommutativ}. D.h. es gilt $$ \exists A,B: AB \neq BA \text{.} $$ Ist im Einzelfall dennoch $AB = BA$ so sagt man, die Matrizen $A$ und $B$ {\bf kommutieren}. Aus $AB = AC$ folgt im allgemeinen nicht, da"s $B = C$. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Spezielle Matrizenprodukte} Sein $A$ eine Matrix, $0$ eine Nullmatrix und $I$ eine Identit"atsmatrix, in passenden Dimensionen sodass die Produkte jeweils existieren, dann gilt: $$ 0A = 0, \hskip2cm A0 = 0 $$ $$ IA = A, \hskip2cm AI = A $$ $$ A^n := \underbrace{AA\dots A}_\text{$n$ Faktoren} $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Rechenregeln f"ur Matrizen} \small Seien $A$, $B$ und $C$ Matrizen in passenden Dimensionen sodass die Produkte jeweils existieren, dann gilt: \begin{enumerate} \item $(A+B)C = AC + BC$ \item $A(B+C) = AB + AC$ \item $(sA)B = s(AB) = A(sB)$ \item $(A^\mathrm T)^\mathrm T = A$ \item $(A + B)^\mathrm T = A^\mathrm T + B^\mathrm T$ \item $(sA)^\mathrm T = s(A^\mathrm T)$ \item $(AB)^\mathrm T = (B^\mathrm T)(A^\mathrm T) $ \end{enumerate} \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Elementare Zeilen- \\ und Spaltenumformungen} Eine {\bf elementare Zeilenumformung} ist \begin{enumerate} \item Vertauschen von zwei Zeilen einer Matrix, \item Multiplikation einer Zeile mit einem Skalar $s \neq 0$ oder \item Addition des $s$-fachen einer Zeile zu einer anderen Zeile der Matrix. \end{enumerate} Analog dazu definiert man {\bf elementare Spaltenumformungen}. Jede Matrix kann durch elementare Zeilen- oder Spaltenumformungen in eine Blockmatrix der Gestalt $\tiny \begin{pmatrix} I \;\; 0 \\ 0 \;\; 0 \end{pmatrix}$ gebracht werden. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Rang einer Matrix} Die Maximalanzahl linear unabh"aniger Spaltenvektoren einer Matrix wird der {\bf Spaltenrang} der Matrix genannt. Die Maximalanzahl linear unabh"aniger Zeilenvektoren einer Matrix wird der {\bf Zeilenrang} der Matrix genannt. Eine Matrix hat immer den gleichen Zeilen- wie Spaltenrang. Der Rang einer Matrix wird durch elementare Zeilen- oder Spaltenumformungen nicht ver"andert. Bestimmung des Ranges einer Matrix: Umformen in Dreiecksform durch elementare Zeilen- oder Spaltenumformungen (Vor\-w"arts\-elimi\-nation des Gau"sschen Eleminationsverfahren). \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Lineare Gleichungssysteme} Sei $A = (a_{ij}) \in \mathbb K^{m \times n}$ und $\vec b \in \mathbb K^m$. Dann hei"st $$ \begin{matrix} a_{11}x_1 + \cdots + a_{1n}x_n = b_1 \\ \vdots \hskip1cm \vdots \hskip1cm \vdots \\ a_{m1}x_1 + \cdots + a_{mn}x_n = b_m \\ \end{matrix} \bk \Longleftrightarrow \bk A\vec x = \vec b $$ ein System von $m$ linearen Gleichungen in $n$ Unbekannten $x_1, \dots, x_n$. Die Matrix $A$ hei"st {\bf Koeffizientenmatrix} des Systems. Der Vektor $\vec b$ hei"st {\bf Inhomogenit"at} oder {\bf "`rechte Seite"'} des Systems. Im Falle $\vec b = \vec 0$ hei"st das System {\bf homogen}. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{L"osungsmenge eines \\ linearen Gleichungssystems} \small Sei $A\vec x = \vec b$ ein System von $m$ lin. Gleichungen in $n$ Unbekannten. Hat das System mehr Gleichungen als Unbekannte ($m > n$) so hei"st das System {\bf "uberbestimmt}. Hat das System weniger Gleichungen als Unbekannte ($m < n$) so hei"st das System {\bf unterbestimmt}. Jeder Vektor $\vec x \in \mathbb K^n$ mit $A\vec x = \vec b$ hei"st {\bf L"osung} des Systems. Eine beliebige L"osung eines inhomogenen Gleichungssystems nennt man {\bf Partikul"arl"osung}. Die Menge aller L"osungen des Gleichungssystems nennt man die {\bf allgemeine L"osung}. Das homogene Gleichungssystem $A\vec x = \vec 0$ hat immer (zumindest) die L"osung $\vec x = \vec 0$. Ein "uberbestimmtes inhomogenes Gleichungssystem kann auch unl"osbar sein. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Erweiterte Matrizen \\\vskip3pt L"osbarkeit von linearen Gleichungssystemen} Eine wesentliche Rolle bei der Untersuchung der linearer Gleichungssysteme $A\vec x = \vec b$ spielt die {\bf erweiterte Matrix} $(A|\vec b)$: $$ (A|\vec b) = \begin{pmatrix} a_{11} & \cdots & a_{1n} & b_1 \\ \vdots & \ddots & \vdots & \vdots \\ a_{m1} & \cdots & a_{mn} & b_m \\ \end{pmatrix} $$ Ein lineares Gleichungssystem ist genau dann l"osbar, wenn $$ \rank (A|\vec b) = \rank A \text. $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Das Gau"ssche Eliminationsverfahren \\ -- Vorw"artselimination --} \small Das {\bf Gau"ssche Eliminationsverfahren} ist ein Algorithmus zum l"osen linearer Gleichungssysteme $A\vec x = \vec b$ anhand der erweiterten Matrix $(A|\vec b)$. Seien $i, j$ Zeilennummern des Systems und sei zun"achst $i := 1$: \begin{enumerate} \item Zeilenvertauschung sodass $a_{ii} \neq 0$ ist. (Bzw. f"ur bessere numerische stabilit"at sodass $a_{ii}$ maximal ist.) \item Multiplikation der $i$-ten Zeile mit $a_{ii}^{-1}$. \item $\forall j>i$: Addition des $-a_{ji}$-fachen der $i$-ten Zeile zur $j$-ten Zeile (d.h. Erzeugen von Nullen unterhalb von $a_{ii}$). \item Wiederholen f"ur n"achste Zeile: $i := i + 1$ \end{enumerate} Abbruch wenn das Ende der Matrix erreicht ist. (Wenn Punkt 1 nicht durchf"uhrbar ist ist die Matrix $A$ singul"ar.) \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Das Gau"ssche Eliminationsverfahren \\ -- R"uckw"artseinsetzen --} Die Vorw"artselimination hat (f"ur den Fall eines l"osbaren Systems) die erweiterten Matrix des Gleichungssystems in obere Dreiecksform gebracht: $$ (A|\vec b) = \begin{pmatrix} 1 & a_{12} & a_{13} & \cdots & a_{1n} & b_1 \\ 0 & 1 & a_{23} & \cdots & a_{2n} & b_2 \\ \vdots & \ddots & \ddots & \vdots & \vdots & \vdots \\ 0 & \cdots & 0 & 1 & a_{(m-1)n} & b_{(m-1)} \\ 0 & \cdots & 0 & 0 & 1 & b_m \\ \end{pmatrix} $$ Dieses Gleichungssystem l"asst sich trivial von unten nach oben L"osen: $ x_n = b_m \bk\Rightarrow\bk x_{(n-1)} = b_{(m-1)} - x_na_{(m-1)n} \bk\Rightarrow\bk \cdots $ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Kern einer Matrix} \small Der {\bf Kern} (oder {\bf Nullraum}) einer Matrix $A \in \mathbb K^{m \times n}$ ist die allgemeine L"osung des Systems $A\vec x = \vec 0$. % Der Kern bildet einen $(n - \rank A)$-dimensionalen Unterraum von $\mathbb K^n$. Im Fall $r = \rank A < n$ bringt das Eliminationsverfahren die Matrix A in eine Matrix der Bauart $(R|M)$, zusammengesetzt aus der oberen Dreiecksmatrix $R \in \mathbb K^{m \times r}$ und der Matrix $M \in \mathbb K^{m \times (n-r)}$. Durch beliebige (lin. unabh"anige) Wahl von $x_{(r+1)}, \dots, x_n$ k"onnen durch R"uckw"artseinsetzen $n-r$ lin. unabh"anige L"osungsvektoren $\vec x_1, \dots, \vec x_{(n-r)}$ ermittelt werden. Es ist dann $$ \kernel A = \mathcal L \{ \vec x_1, \dots, \vec x_{(n-r)} \} \text. $$ Im Fall $r = n$ ist einfach $ \kernel A = \vec 0 $. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Allgemeine L"osung eines \\ (inhomogenen) linearen Gleichungssystems} \small Sei $A\vec x = \vec b$ mit $A \in \mathbb K^{m \times n}$ und $\vec b \in \mathbb K^m$. Sei weiters $\mathbb X \subset \mathbb K^n$ die allgemeine L"osung des Gleichungssystems: $\mathbb X = \{ \vec x \in \mathbb K^n | A\vec x = \vec b \}$ Im Fall $\vec b = \vec 0$ (homogenes Gleichungssystem) ist $\mathbb X = \kernel A$. Im Fall $\vec b \neq \vec 0$ (inhomogenes Gleichungssystem) ist $\mathbb X = \vec x_\mathrm p + \kernel A$ mit der partikul"aren L"osung $\vec x_\mathrm p \in \mathbb X$. Die partikul"aren L"osung $\vec x_\mathrm p$ wird wie folgt ermittelt: Sei $r = \rank A < n$ und sei weiters $A$ durch das Eliminationsverfahren bereits in die Form $(R|M|\vec b)$, zusammengesetzt aus der oberen Dreiecksmatrix $R \in \mathbb K^{m \times r}$, der Matrix $M \in \mathbb K^{m \times (n-r)}$ und der Inhomogenit"at $\vec b$ gebracht. % Durch beliebige Wahl von $x_{(r+1)}, \dots, x_n$ kann nun durch R"uckw"artseinsetzen eine partikul"are L"osung $\vec x_\mathrm p$ ermittelt werden. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Inverse einer Matrix} Seien $A \in \mathbb R^{n \times n}$. Wenn es ein $B \in \mathbb R^{n \times n}$ mit $$ AB = I_n $$ gibt so hei"st dieses $B$ "`die zu $A$ {\bf inverse Matrix}"' oder "` die inverse von A"' und wird mit $A^{-1}$ bezeichnet. Wenn so ein $A^{-1}$ existiert dann ist $A$ eine sog. {\bf regul"are Matrix}, sonst ist a eine sog. {\bf singul"are Matrix}. F"ur eine regul"are Matrix $A$ gilt: $$ AX = 0 \Rightarrow X = 0, \hskip2em AA^{-1} = A^{-1}A = I, \hskip2em \rank(A) = n $$ Bestimmen von $A^{-1}$: \\ Die erweiterte Matrix $(A|I)$ wird durch Zeilenumformungen und Zeilenvertauschungen (Vorw"arts- und R"uckw"artselimination) in die Form $(I|X)$ gebracht. Dann ist $X = A^{-1}$. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Rechenregeln f"ur \\ inverse Matrizen, \\ "ahnliche Matrizen} Seien $A, B \in \mathbb R^{n \times n}$ regul"are Matrizen. Dann gilt: $$ (A^{-1})^{-1} = A, \hskip2em (A^\mathrm T)^{-1} = (A^{-1})^\mathrm T $$ $$ (AB)^{-1} = B^{-1}A^{-1}, \hskip2em A\vec x = \vec b \bk\Leftrightarrow\bk \vec x = A^{-1}\vec b $$ Man beachte die umgedrehte Reihenfolge bei $(AB)^{-1}$! \\ Die Matrix $X^{-1}$ macht r"uckg"anig was die Matrix $X$ bewirkt. \vfill \hrule Die Matrizen $C, D \in \mathbb R^{n \times n}$ hei"sen {\bf "ahnlich}, falls eine regul"are Matrix $T \in \mathbb R^{n \times n}$ existiert, sodass $C = TDT^{-1}$ gilt. D.h. wenn $C$ und $D$ das gleiche in unterschiedlichen Basen bewirken. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Lineare Abbildungen} Seien $\mathbb V$ und $\mathbb W$ zwei Vektorr"aume "uber $\mathbb K$. Eine Abbildung $\varphi : \mathbb V \to \mathbb W$ hei"st {\bf lineare Abbildung}, wenn $\forall \vec x, \vec y \in \mathbb V$ und $\forall s \in \mathbb K$ $$ \varphi(\vec x + \vec y) = \varphi(\vec x) + \varphi(\vec y) \bk\bk\text{ und} $$ $$ s\varphi(\vec x) = \varphi(s\vec x) \bk\bk\text{ gilt.} $$ \vfill Einer linearen Abbildung $\varphi : \mathbb K^n \to \mathbb K^m$ entspricht umkehrbar eindeutig eine Matrix $A \in \mathbb K^{m \times n}$, sodass $\varphi : \vec x \mapsto A\vec x$. Dabei sind die Spalten von $A$ die Bilder der Basisvektoren der kanonischen Basis den $\mathbb K^n$. D.h. $A = \begin{pmatrix} \varphi(\vec e_1) & \cdots & \varphi(\vec e_n) \end{pmatrix}$. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Bild und Kern linearer Abbildungen \vskip1em Dimensionssatz} \small Seien $\mathbb V$ und $\mathbb W$ zwei Vektorr"aume "uber $\mathbb K$ und $\varphi$ eine lineare Abbildung $\mathbb V \to \mathbb W$. Dann sind $\image(\varphi)$ und $\kernel(\varphi)$: $$ \image(\varphi) := \{ \varphi(\vec x) \;|\; \vec x \in \mathbb V \} $$ $$ \kernel(\varphi) := \{ \vec x \in \mathbb V \;|\; \varphi(\vec x) = \vec 0 \} $$ \vfill Im Fall $\varphi(\vec x) = A \vec x$ (d.h. $\varphi : \mathbb K^n \to \mathbb K^m$ und $A \in \mathbb K^{m \times n}$ mit $\vec s_1, \dots, \vec s_n$ als Spaltenvektoren von $A$): $$ \image(\varphi) = \image(A) := \mathcal L(\vec s_1, \dots, \vec s_n) $$ $$ \kernel(\varphi) = \kernel(A) := \{ \vec x \in \mathbb K^n \;|\; A\vec x = \vec 0 \} $$ \vfill {\bf Dimensionssatz:} $$ \dim(\kernel(\varphi)) + \dim(\image(\varphi)) = n $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{In-, Sur- und Bijektivit"at \\ linearer Abbildungen} \small Sei $\varphi : \mathbb K^n \to \mathbb K^m, \vec x \mapsto A\vec x$, dann gilt % \begin{itemize} \item im Fall $\varphi$ ist injektiv: \begin{itemize} \item $\kernel(\varphi) = \kernel(A) = \{ \vec 0 \}$, \bk $\rank(A) = n$ \item $A\vec x = \vec b$ hat $\forall \vec b \in \mathbb K^m$ h"ochstens eine L"osung \end{itemize} % \item im Fall $\varphi$ ist surjektiv: \begin{itemize} \item $\image(\varphi) = \image(A) = \mathbb K^m$, \bk $\rank(A) = m$ \item $A\vec x = \vec b$ hat $\forall \vec b \in \mathbb K^m$ mindestens eine L"osung \end{itemize} % \item im Fall $\varphi$ ist bijektiv: \begin{itemize} \item $\kernel(\varphi) = \kernel(A) = \{ \vec 0 \}$, \bk $\rank(A) = m = n$ \item $\image(\varphi) = \image(A) = \mathbb K^m$, \bk $A$ ist regul"ar, \item $A\vec x = \vec b$ hat $\forall \vec b \in \mathbb K^m$ genau eine eideutige L"osung \end{itemize} \end{itemize} \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Verkn"upfung und inverse \\ linearer Abbildungen} Sei $\varphi : \mathbb K^n \to \mathbb K^k,\; \vec x \mapsto A\vec x$ und $\psi : \mathbb K^k \to \mathbb K^m,\; \vec x \mapsto B\vec x$, dann entspricht die Verkettung dieser Abbildungen der Matrix AB: $$ \varphi \circ \psi : \mathbb K^n \to \mathbb K^m,\; \vec x \mapsto AB\vec x $$ \vfil Sei $\varrho : \mathbb K^n \to \mathbb K^n,\; \vec x \mapsto C\vec x$ eine bijektive Abbildung, dann entspricht die inverse Abbildung $\varrho^{-1}$ der inversen Matrix $C^{-1}$: $$ \varrho^{-1}(\varrho(\vec x)) = \vec x \;\land\; \varrho(\vec x) = C\vec x \bk\Longrightarrow\bk \varrho^{-1}(\vec x) = C^{-1}\vec x $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Koordinatentransformation} \small Seien $\mathbb B$ und $\mathbb B'$ zwei Basen des $\mathbb R^n$, wobei wir $\mathbb B$ die {\it alte Basis} und $\mathbb B'$ die {\it neue Basis} nennen. Dann ist $$ T[\vec v]_{\mathbb B'} = [\vec v]_{\mathbb B} $$ die {\bf Koordinatentransformation} von $\mathbb B$ nach $\mathbb B'$ Mit der Transformationsmatrix $T$. D.h. die Koordinatentransformation ist die L"osung dieses Linearsystems. Im Falle der Koordinatentransformation von der kanonischen Basis in die Basis $\mathbb B'$ sind die Spalten von $T$ die Basisvektoren von $\mathbb B'$. Im Falle der Koordinatentransformation von $\mathbb B$ in die kanonische Basis sind die Spalten von $T^{-1}$ die Basisvektoren von $\mathbb B$ und die Koordinatentransformation ist naheliegender weise trivial durchzuf"uhren. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Lineare Abbildungen und \\ Koordinatentransformationen} \small Seien $T$ die Matrix einer Koordinatentransformation im $\mathbb R^n$ und $S$ die Matrix einer Koordinatentransformation im $\mathbb R^m$ und $A$ die Matrix einer linearen Abbildung $\varphi : \mathbb R^n \to \mathbb R^m,\; \vec x \mapsto \vec y \text{ mit } A\vec x = \vec y$: $$ T\vec x\,' = \vec x, \hskip2em A\vec x = \vec y, \hskip2em S\vec y\,' = \vec y $$ Dann ist die Abbildung $\varphi$ in den neuen Koordinaten $\vec x\,'$ und $\vec y\,'$: $$ A'\vec x\,' = \vec y\,' \hskip2em\text{mit}\hskip2em A' := S^{-1}AT $$ Im Fall $S=T$ (und $m=n$) gilt nat"urlich $A' := T^{-1}AT$. \vfill\tiny Ziel einer Koordinatentransformation ist i.d.R. eine Matrix f"ur eine Abbildung in eine einfachere Form zu bringen. Zum Beispiel hei"st eine Matrix $A$ {\bf diagonalisierbar} wenn ein $T$ und eine Diagonalmatrix $D$ existiert sodass $D = T^{-1}AT$ gilt. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Definition der Determinante} \small Die {\bf Determinante} einer Matrix $A \in \mathbb K^{n \times n}$ entspricht dem Volumen des von den Spalten- bzw. Zeilenvektoren der Matrix aufgespannten Parallelepiped. Es gilt neben $\det A = \det A^\mathrm T$: \begin{itemize} \item {\bf Schiefsymetrie:} Vertauschen von zwei Spalten bzw. Zeilen von $A$ dreht das Vorzeichen um. \item {\bf Multilinearit"at:} Die Determinante ist linear in jeder Spate und jeder Zeile. D.h. z.B. mit den Spaltenvektoren $\vec a$ und $\vec b$: $$ \det(\dots, \vec a, \dots) + \det(\dots, \vec b, \dots) = \det(\dots, \vec a + \vec b, \dots) $$ $$ \text{und}\hskip2em \det(\dots, s \vec a, \dots) = s \det(\dots, \vec a, \dots) $$ \item {\bf Normierungsvorschrift:} $ \det I_n = 1 $ \end{itemize} \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Determinanten und singul"are Matrizen} \small Wenn $A \in \mathbb K^{n \times n}$ singul"ar ist, dann ist $\det A = 0$. \scriptsize Beweis: Wegen der Schiefsymetrie muss sich das Vorzeichen der Determinante beim Vertauschen zweier gleicher Spalten/Zeilen umdrehen. Gleichzeitig muss die Determinante unver"andert bleiben da ja die Matrix nicht ver"andert wurde. Das ist nur bei $\det A = 0$ der Fall. Alternativer Beweis: Wegen der Multilinearit"at bleibt beim Eliminationsverfahren (Variante ohne Normierung der Hauptdiagonale) die Determinate betragsm"assig unver"andert. Bei einer singul"aren Matrix entsteht eine Nullzeile. Da sich bei Multiplikation dieser Zeile mit einem Faktor die Matrix nicht "andert muss auch die Determinante unver"andert bleiben. Das ist nur bei $\det A = 0$ der Fall. \vskip-5pt (Die Determinante ist das Produkt aller Pivot-Elemente. Bei einer singul"aren Matrix ist mindestens ein Pivot-Element 0.) Geometrische Anschauung: Wenn die Matrix nicht vollen Rang hat ist der durch die Spalten/Zeilen aufgespannte Parallelepiped degeneriert und hat daher eine Volumen von 0. \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{karte}{Determinanten von \\ $2\times2$- und Dreiecksmatrizen \\ sowie die Regel von Sarrus} \small Berechnung der Determinante einer $2\times2$-Matrix: $$ \det\begin{pmatrix} a & b \\ c & d \end{pmatrix} = ad - bc $$ Determinante einer $3\times3$-Matrix (Regel von Sarrus): $$ \det\begin{pmatrix} a & b & c \\ d & e & f \\ g & h & i \end{pmatrix} = \begin{matrix} aei + bfg + cdh - \\ - gec - hfa - idb \end{matrix} $$ Determinante einer Dreiecksmatrix: $$ \det\begin{pmatrix} d_1 & \cdots & \cdot \\ & \ddots & \vdots \\ & & d_n \end{pmatrix} = \prod_{i=1}^n d_i = d_1 \cdots d_n $$ \end{karte} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %% next: Seite 42 \end{document}