Lineare Abhängigkeit und lineare Unabhängigkeit
$n$ Vektoren heißen linear abhängig, wenn sich einer der Vektoren als Linearkombination der anderen darstellen lässt: Wenn zwei Vektoren linear abhängig sind, nennt man sie auch kollinear. Drei linear abhängige Vektoren nennt man komplanar.
Beliebteste Videos
Jetzt mit Spaß die Noten verbessern
und sofort Zugriff auf alle Inhalte erhalten!
30 Tage kostenlos testenInhaltsverzeichnis zum Thema
- Definition der linearen Unabhängigkeit
- Lineare Unabhängigkeit oder Abhängigkeit im $\mathbb{R}^2$
- Beispiel für lineare Unabhängigkeit
- Beispiel für lineare Abhängigkeit
- Basisvektoren im $\mathbb{R}^2$
- Bedeutung der Kollinearität
- Lineare Unabhängigkeit oder Abhängigkeit im $\mathbb{R}^3$
- Der Zusammenhang zwischen der Determinante und der linearen Unabhängigkeit
Definition der linearen Unabhängigkeit
$n$ Vektoren $\vec{v_1}$, ..., $\vec{v_n}$ heißen linear unabhängig, wenn die Linearkombination dieser $n$ Vektoren
$\alpha_1\cdot \vec{v_1}+...+\alpha_n\cdot \vec{v_n}=\vec 0$
nur dann den Nullvektor ergibt, wenn alle Koeffizienten $\alpha_i=0$ sind.
Andernfalls heißen die Vektoren linear abhängig.
Man kann dies auch anders formulieren:
$n$ Vektoren heißen linear abhängig, wenn sich einer der Vektoren als Linearkombination der anderen Vektoren darstellen lässt.
Was dies bedeutet, siehst du im Folgenden an den Beispielen der Vektorräume $\mathbb{R}^2$ sowie $\mathbb{R}^3$ .
Lineare Unabhängigkeit oder Abhängigkeit im $\mathbb{R}^2$
Ein Vektor im $\mathbb{R}^2$ hat die folgende Form
$\vec v=\begin{pmatrix} v_x \\ v_y \end{pmatrix}$.
Beispiel für lineare Unabhängigkeit
Schauen wir uns ein Beispiel an: Gegeben seien die Vektoren
$\vec u=\begin{pmatrix} 1\\ -1 \end{pmatrix};~\vec v=\begin{pmatrix} 1\\ 1 \end{pmatrix};~\vec w=\begin{pmatrix} 1\\ 3 \end{pmatrix}$
Wir prüfen zunächst die lineare Abhängigkeit oder Unabhängigkeit zweier Vektoren
$\vec u$ sowie $\vec v$:
$\alpha\cdot \begin{pmatrix} 1\\ -1 \end{pmatrix}+\beta\cdot\begin{pmatrix} 1\\ 1 \end{pmatrix}=\begin{pmatrix} 0\\ 0 \end{pmatrix}$
führt zu den beiden Gleichungen
- $\alpha+\beta=0$ sowie
- $-\alpha+\beta=0$.
Wenn du die beiden Gleichungen addierst, erhältst du $2\beta=0$, also $\beta =0$. Einsetzen von $\beta=0$ in die obere Gleichung führt zu $\alpha=0$. Also sind die beiden Vektoren $\vec u$ und $\vec v$ linear unabhängig.
Beispiel für lineare Abhängigkeit
Linear abhängig sind zwei Vektoren, dies gilt in jedem Vektorraum, wenn der eine Vektor sich als Vielfaches des anderen Vektors schreiben lässt. Man nennt die Vektoren dann auch kollinear.
Nun untersuchen wir die drei Vektoren $\vec u$, $\vec v$ sowie $\vec w$ auf lineare Abhängigkeit oder Unabhängigkeit. Hierfür prüfen wir, ob der Vektor $\vec w$ sich als Linearkombination der beiden linear unabhängigen Vektoren $\vec u$ sowie $\vec v$ schreiben lässt:
$\begin{pmatrix} 1\\ 3 \end{pmatrix}= \alpha\cdot \begin{pmatrix} 1\\ -1 \end{pmatrix}+\beta\cdot\begin{pmatrix} 1\\ 1 \end{pmatrix}$.
Dies führt zu den folgenden Gleichungen
- $\alpha+\beta=1$ sowie
- $-\alpha+\beta=3$.
Addition der beiden Gleichungen führt zu $2\beta=4$, also $\beta =2$. Setzt du dieses $\beta$ in die obere Gleichung ein, erhältst du $\alpha+2=1$, also $\alpha=-1$. Das bedeutet, dass sich der Vektor $\vec w$ tatsächlich als Linearkombination der beiden Vektoren $\vec u$ sowie $\vec v$ schreiben lässt. Somit sind diese drei Vektoren linear abhängig.
Wenn drei Vektoren linear abhängig sind, dann werden sie als komplanar bezeichnet.
Übrigens: Der Nullvektor lässt sich als Linearkombination von beliebigen Vektoren darstellen. Damit ist eine Menge von Vektoren, von denen einer der Nullvektor ist, immer linear abhängig.
Basisvektoren im $\mathbb{R}^2$
In dem Vektorraum $\mathbb{R}^2$ sind immer mehr als zwei Vektoren linear abhängig. Die maximale Anzahl linear unabhängiger Vektoren ist also zwei. Dies ist die Dimension des Vektorraumes. Jeweils zwei linear unabhängige Vektoren werden als Basisvektoren bezeichnet. Eine besondere Basis ist die sogenannte kanonische Basis $\{\vec{e_1};~\vec{e_2}\}$, welche aus den Einheitsvektoren
$\vec e_1=\begin{pmatrix} 1\\ 0 \end{pmatrix}$$~$sowie$~$$\vec e_2=\begin{pmatrix} 0\\ 1 \end{pmatrix}$
besteht.
Jeder Vektor eines Vektorraumes lässt sich als Linearkombination von Basisvektoren dieses Vektorraumes darstellen.
Bedeutung der Kollinearität
In der analytischen Geometrie werden zum Beispiel Geraden behandelt. Eine Geradengleichung in Parameterform ist gegeben durch:
$g:\vec x=\vec a+r\cdot \vec u$.
Dabei ist
- $\vec a$ der Stützvektor, der Ortsvektor eines beliebigen Punktes der Geraden,
- $r\in\mathbb{R}$ ein Parameter und
- $\vec u$ der Richtungsvektor der Geraden.
Wenn du untersuchen sollst, ob zwei Geraden parallel zueinander sind, schaust du dir die Richtungsvektoren an. Diese müssen kollinear sein.
Lineare Unabhängigkeit oder Abhängigkeit im $\mathbb{R}^3$
Ein Vektor im $\mathbb{R}^3$ hat die folgende Form:
$\vec v=\begin{pmatrix} v_x \\ v_y\\ v_z \end{pmatrix}$
Schauen wir uns auch hier ein Beispiel an. Gegeben seien die Vektoren:
$\vec u=\begin{pmatrix} 1\\ -1 \\ 0 \end{pmatrix};~\vec v=\begin{pmatrix} 1\\ 1\\ 2 \end{pmatrix};~\vec w=\begin{pmatrix} 2\\ 0\\ 2 \end{pmatrix}$
Wir prüfen die lineare Abhängigkeit oder Unabhängigkeit dieser drei Vektoren.
$\alpha\cdot \begin{pmatrix} 1\\ -1 \\ 0 \end{pmatrix}+\beta\cdot\begin{pmatrix} 1\\ 1\\ 2 \end{pmatrix}+\gamma\cdot \begin{pmatrix} 2\\ 0\\ 2 \end{pmatrix}=\begin{pmatrix} 0\\ 0 \\0 \end{pmatrix}$
Du erhältst das folgende Gleichungssystem:
- $\alpha+\beta+2\gamma=0$,
- $-\alpha+\beta=0$ sowie
- $2\beta+2\gamma=0$.
Die letzten beiden Gleichungen können umgeformt werden zu $\alpha=\beta$ sowie $\gamma=-\beta$. Setzt du dies in die obere Gleichung ein, erhältst du $\beta+\beta-2\beta=0$, also $0=0$. Das bedeutet, dass $\beta$ frei gewählt werden kann, zum Beispiel $\beta=1$. Damit folgt $\alpha=1$ und $\gamma=-1$.
Es gibt also eine Lösung der obigen Gleichung, bei welcher nicht alle Koeffizienten $0$ sind. Damit sind die drei Vektoren linear abhängig. Du kannst nachprüfen, dass $\vec u+\vec v=\vec w$ gilt.
Basisvektoren im $\mathbb{R}^3$
Auch in dem Vektorraum $\mathbb{R}^3$ gilt, dass die maximale Anzahl an linearen unabhängigen Vektoren gerade $3$, die Dimension des Vektorraumes, ist. Die kanonische Basis des Vektorraums $\mathbb{R}^3$ ist auch hier gegeben durch die Einheitsvektoren.
$\left\{\begin{pmatrix} 1 \\ 0\\0 \end{pmatrix};~\begin{pmatrix} 0 \\ 1\\0 \end{pmatrix};~\begin{pmatrix} 0 \\ 0\\1 \end{pmatrix}\right\}$
Der Zusammenhang zwischen der Determinante und der linearen Unabhängigkeit
Wenn du $n$ Vektoren nebeneinander schreibst, erhältst du eine Matrix.
Du kannst nun die Vektoren auf lineare Unabhängigkeit überprüfen, indem du die Determinante dieser Matrix berechnest.
- Ist diese ungleich $0$, dann sind die Vektoren linear unabhängig.
- Ist diese gleich $0$, dann sind die Vektoren linear abhängig.
Um dies einmal zu üben, schauen wir uns noch einmal die Vektoren
$\vec v=\begin{pmatrix} 1\\ 1 \end{pmatrix}~\text{sowie}~\vec w=\begin{pmatrix} 1\\ 3 \end{pmatrix}$
an. Nun muss die Determinante der Matrix
det$\begin{pmatrix} 1& 1 \\1&3 \end{pmatrix}$
berechnet werden. Hierfür gehst du wie folgt vor:
- Du multiplizierst die Elemente der Hauptdiagonalen von oben links nach unten rechts und
- subtrahierst davon das Produkt der Elemente der Nebendiagonalen von unten links nach oben rechts.
Somit ergibt sich
det$\begin{pmatrix} 1& 1 \\1&3 \end{pmatrix}=1\cdot 3-1\cdot 1=3-1=2\neq 0$
und damit die lineare Unabhängigkeit der beiden Vektoren $\vec v$ sowie $\vec w$.
Alle Videos zum Thema
Videos zum Thema
Lineare Abhängigkeit und lineare Unabhängigkeit (2 Videos)
Alle Arbeitsblätter zum Thema
Arbeitsblätter zum Thema
Lineare Abhängigkeit und lineare Unabhängigkeit (2 Arbeitsblätter)
Beliebteste Themen in Mathematik
- Römische Zahlen
- Prozentrechnung
- Primzahlen
- Geometrische Lagebeziehungen
- Was ist eine Ecke?
- Rechteck
- Was ist eine Gleichung?
- Pq-Formel
- Binomische Formeln
- Trapez
- Volumen Zylinder
- Umfang Kreis
- Quadrat
- Division
- Raute
- Parallelogramm
- Polynomdivision
- Was Ist Eine Viertelstunde
- Prisma
- Mitternachtsformel
- Äquivalenzumformung
- Grundrechenarten Begriffe
- Größer Kleiner Zeichen
- Dreiecksarten
- Aufbau von Dreiecken
- Quader
- Satz Des Pythagoras
- Dreieck Grundschule
- Erste Binomische Formel
- Kreis
- Trigonometrie
- Trigonometrische Funktionen
- Standardabweichung
- Flächeninhalt
- Volumen Kugel
- Zahlen In Worten Schreiben
- Meter
- Orthogonalität
- Schriftlich Multiplizieren
- Brüche gleichnamig machen
- Brüche Multiplizieren
- Potenzgesetze
- Distributivgesetz
- Flächeninhalt Dreieck
- Rationale Zahlen
- Volumen Berechnen
- Brüche Addieren
- Kongruenz
- Exponentialfunktion
- Exponentialfunktion Beispiel