Cover
Börja nu gratis VorlesungsfolienMathe.pdf
Summary
# Vergleich von unendlichen Summen mit Integralen zur Analyse von Konvergenz
### Kernidee
* Aussagen sind Sätze mit eindeutigen Wahrheitswerten (wahr/falsch) [9](#page=9).
* Aussageformen enthalten Variablen, die durch Einsetzen zu Aussagen werden [13](#page=13).
* Verknüpfungen von Aussagen bilden neue Aussagen mit eigenen Wahrheitswerten [16](#page=16).
### Schlüsselkonzepte
* **Aussage:** Ein Satz, der entweder wahr oder falsch ist [9](#page=9).
* **Negation ($\neg$):** Umkehrung des Wahrheitswerts [9](#page=9).
* **Konjunktion ($\wedge$, "und"):** Wahr nur, wenn beide Aussagen wahr sind [17](#page=17).
* **Disjunktion ($\vee$, "oder"):** Wahr, wenn mindestens eine Aussage wahr ist (nicht-ausschließend) [17](#page=17).
* **Implikation ($\Rightarrow$, "impliziert"):** Wahr, außer wenn die erste Aussage wahr und die zweite falsch ist [17](#page=17).
* **Äquivalenz ($\Leftrightarrow$, "genau dann wenn"):** Wahr, wenn beide Aussagen denselben Wahrheitswert haben [17](#page=17).
* **Aussageform:** Ein Satz mit einer oder mehreren Variablen [13](#page=13).
* **Definitionsmenge:** Menge der zulässigen Werte für Variablen einer Aussageform [14](#page=14).
* **Lösungsmenge:** Menge der Werte, für die eine Aussageform wahr ist [14](#page=14).
* **Unerfüllbar:** Aussageform mit leerer Lösungsmenge [15](#page=15).
* **Erfüllbar:** Aussageform mit nicht-leerer Lösungsmenge [15](#page=15).
### Schlüssel Fakten
* Zwei Wahrheitswerte: wahr (w) und falsch (f) [16](#page=16).
* Die Implikation $A \Rightarrow B$ ist äquivalent zu $\neg A \vee B$ [17](#page=17).
* Die Äquivalenz $A \Leftrightarrow B$ ist äquivalent zu $(A \Rightarrow B) \wedge (B \Rightarrow A)$ [22](#page=22).
* Assoziativgesetze gelten für $\wedge$ und $\vee$: $A \wedge(B \wedge C) \Leftrightarrow (A \wedge B) \wedge C$ und $A \vee(B \vee C) \Leftrightarrow (A \vee B) \vee C$ [19](#page=19).
* Kommutativgesetze gelten für $\wedge$ und $\vee$: $A \wedge B \Leftrightarrow B \wedge A$ und $A \vee B \Leftrightarrow B \vee A$ [19](#page=19).
* Distributivgesetze: $A \wedge(B \vee C) \Leftrightarrow (A \wedge B) \vee (A \wedge C)$ und $A \vee(B \wedge C) \Leftrightarrow (A \vee B) \wedge (A \vee C)$ [20](#page=20).
* De Morgansche Regeln: $\neg(A \wedge B) \Leftrightarrow \neg A \vee \neg B$ und $\neg(A \vee B) \Leftrightarrow \neg A \wedge \neg B$ [20](#page=20).
* Beweisprinzip des direkten Beweises: $A \wedge (A \Rightarrow B) \Rightarrow B$ ist eine Tautologie [21](#page=21).
* Beweisprinzip des indirekten Beweises: $(A \wedge (\neg B \Rightarrow \neg A)) \Rightarrow B$ ist eine Tautologie [25](#page=25).
* Aus einem Widerspruch folgt Beliebiges: $(A \wedge \neg A) \Rightarrow B$ ist eine Tautologie [29](#page=29).
### Implikationen
* Wahrheitswerttabellen fassen die Ergebnisse von Verknüpfungen übersichtlich zusammen [17](#page=17).
---
## Vergleich von unendlichen Summen mit Integralen zur Analyse von Konvergenz
### Konvergenz von Folgen
* Eine reelle Folge $(a_n)_{n \in \mathbb{N}}$ konvergiert gegen $a$, wenn für jedes $\epsilon > 0$ ein $N \in \mathbb{N}$ existiert, sodass $|a_n - a| < \epsilon$ für alle $n \ge N$ gilt [85](#page=85).
* Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt [86](#page=86).
* Eine konvergente Folge ist stets beschränkt [88](#page=88).
* Eine monotone und beschränkte Folge ist konvergent [89](#page=89).
* Für monoton steigende Folgen ist der Grenzwert das Supremum der Folgenglieder [89](#page=89).
* Für monoton fallende Folgen ist der Grenzwert das Infimum der Folgenglieder.
* Für beliebige $x, y, z \in \mathbb{R}$ gilt die Dreiecksungleichung: $|z - x| \le |y - x| + |z - y|$ [83](#page=83).
* Summen und Produkte konvergenter Folgen sind konvergent, und Grenzwerte sind mit diesen Operationen vertauschbar [92](#page=92).
* Jede beschränkte Folge besitzt eine konvergente Teilfolge [96](#page=96).
* Folgen, die nicht konvergent sind, werden als divergent bezeichnet [94](#page=94).
### Reihen
* Eine Reihe ist eine Folge, die aus der Bildung von Partialsummen einer reellen Folge $(a_n)_{n \in \mathbb{N}}$ entsteht, wobei die N-te Partialsumme $S_N = \sum_{k=1}^N a_k$ ist .
* Eine Reihe konvergiert, wenn die Folge ihrer Partialsummen einen Grenzwert besitzt; andernfalls ist die Reihe divergent .
* Die endliche geometrische Reihe $\sum_{k=1}^n a q^{k-1}$ hat die Partialsumme $a \frac{1-q^n}{1-q}$ für $q \ne 1$ .
* Die unendliche geometrische Reihe konvergiert für $|q| < 1$ gegen $\frac{a}{1-q}$ .
* Die harmonische Reihe $\sum_{n=1}^\infty \frac{1}{n}$ ist divergent .
* Reihen finden Anwendung in der Finanzmathematik zur Diskontierung von Zahlungsströmen .
### Matrizen
* Eine $m \times n$ Matrix ist ein rechteckiges Zahlenschema mit $m$ Zeilen und $n$ Spalten .
* Ein Spaltenvektor hat nur eine Spalte, ein Zeilenvektor nur eine Zeile .
* Die transponierte Matrix $^tA$ entsteht durch Vertauschen von Zeilen- und Spaltenindizes von $A$ .
* Eine Matrix ist symmetrisch, wenn sie mit ihrer Transponierten übereinstimmt ($A = ^tA$) .
* Die Addition von Matrizen erfolgt komponentenweise .
* Die Multiplikation einer Matrix mit einem Skalar $c$ erfolgt durch Multiplikation jedes Eintrags mit $c$ .
* Das Skalarprodukt zweier Vektoren $a = (a_1, \dots, a_n)$ und $b = (b_1, \dots, b_n)$ ist $a \cdot b = \sum_{i=1}^n a_i b_i$, was stets ein Skalar ergibt .
* Das Matrixprodukt $C = AB$ einer $m \times n$-Matrix $A$ und einer $n \times r$-Matrix $B$ ergibt eine $m \times r$-Matrix $C$, deren Einträge $c_{ik} = \sum_{j=1}^n a_{ij} b_{jk}$ sind .
* Für Matrizenprodukte gilt das Assoziativgesetz $A(BC) = (AB)C$, aber im Allgemeinen nicht das Kommutativgesetz ($AB \ne BA$) .
---
## Verständnis und Lösung linearer Gleichungssysteme
### Grundlegende Konzepte linearer Gleichungen
* Eine lineare Gleichung in einer Variablen $ax + b = c$ hat genau eine Lösung $x = \frac{c-b}{a}$ falls $a \neq 0$ .
* Ist $a=0$, so hat die Gleichung $b=c$ entweder keine Lösung (falls $b \neq c$) oder unendlich viele Lösungen (falls $b=c$) .
* Eine allgemeine lineare Gleichung in $n$ Variablen ist von der Form $\sum_{i=1}^n a_i x_i = b$ .
* Eine einzelne lineare Gleichung in $n>1$ Variablen ist nicht eindeutig lösbar .
### Lineare Gleichungssysteme
* Ein lineares Gleichungssystem besteht aus einer Kollektion von $m$ linearen Gleichungen in $n$ Variablen .
* Systeme können in Matrixform als $Ax = b$ geschrieben werden, wobei $A$ die Koeffizientenmatrix und $b$ der Ergebnisvektor ist .
* **Trichotomie der Lösungsmenge:** Jedes lineare Gleichungssystem hat genau drei Fälle: keine Lösung, genau eine Lösung oder unendlich viele Lösungen .
### Lösungsverfahren für Systeme mit zwei Variablen
* Methoden umfassen Einsetzen, Gleichsetzen und Addition von Gleichungen .
* **Einsetzen:** Eine Variable wird aus einer Gleichung isoliert und in die andere eingesetzt .
* **Gleichsetzen:** Beide Gleichungen werden nach derselben Variablen aufgelöst und die Ausdrücke gleichgesetzt .
* **Addition:** Vielfache einer Gleichung werden zu einer anderen addiert, um eine Variable zu eliminieren .
### Verallgemeinerung und Gauß-Algorithmus
* Das Additionsverfahren (Elimination) ist am besten für die Verallgemeinerung auf beliebige Dimensionen geeignet .
* **Elementare Zeilenoperationen** ändern die Lösungsmenge eines Systems nicht:
* Multiplikation einer Zeile mit einem Skalar $\neq 0$ .
* Vertauschung von zwei Zeilen .
* Addition eines Vielfachen einer Zeile zu einer anderen .
* **Gauß'sches Eliminationsverfahren:** Ziel ist die Umformung des Systems in eine obere Dreiecksgestalt durch elementare Zeilenoperationen .
* Dies beinhaltet sukzessive Eliminierung von Variablen, oft mit Normierung auf Koeffizient 1 .
* Die erweiterte Koeffizientenmatrix $[A|b]$ wird verwendet, um die Operationen zu verfolgen .
### Analyse von Lösungsfällen mit dem Gauß-Algorithmus
* **Unendlich viele Lösungen:** Entstehen, wenn eine Nullzeile ($0=0$) auftritt, was eine Variable frei wählbar macht .
* **Keine Lösung:** Entsteht, wenn eine Zeile der Form $0 = b'$ mit $b' \neq 0$ auftritt, was einen Widerspruch darstellt .
* **Eindeutige Lösung:** Tritt typischerweise bei quadratischen Systemen auf, wenn keine Nullzeilen oder Widersprüche entstehen .
* Bei $n \neq m$ ist keine eindeutige Lösung garantiert; mehr Gleichungen als Unbekannte führen eher zu keiner Lösung, mehr Unbekannte als Gleichungen eher zu unendlich vielen Lösungen .
### Anwendungen
* **Teilbedarfsrechnung:** Ermittlung von Rohstoffbedarfen basierend auf Produktionsprozessen (Gozintograph) .
* **Partialbruchzerlegung:** Zerlegung rationaler Funktionen in einfachere Brüche, wobei die Koeffizienten durch Lösung linearer Systeme bestimmt werden .
---
## Stetigkeit und Ableitung von Funktionen
### Stetigkeit von Funktionen
* Die Stetigkeit einer Funktion kann über Folgenkonvergenz charakterisiert werden .
* Summen, Produkte und Kompositionen stetiger Funktionen sind stetig .
* Polynomfunktionen und die Funktion $f(x) = 1/x$ außerhalb von $x=0$ sind stetig .
### Bildbereiche und Nullstellen
* Der Bildbereich einer stetigen Funktion auf einem Intervall ist ebenfalls ein Intervall .
* Zwischenwertsatz: Ist $f$ stetig auf $[a,b]$ und $f(a) < 0 < f(b)$, dann existiert mindestens eine Nullstelle in $(a,b)$ .
### Numerische Verfahren zur Nullstellensuche
* Regula Falsi und Halbierungsverfahren sind Näherungsverfahren zur Nullstellensuche stetiger Funktionen .
* **Regula Falsi:** Iterative Berechnung einer Nullstelle durch Interpolation mit Geraden .
* **Halbierungsverfahren:** Iterative Intervallehalbierung zur Eingrenzung einer Nullstelle .
* **Beispiel:** Halbierungsverfahren für $f(x) = x^3 - 1.75x^2 + 2x - 3.5$ auf $ $ [1](#page=1) [2](#page=2).
### Rationale Funktionen
* Rationale Funktionen sind Quotienten zweier Polynomfunktionen .
* Eine gekürzte Darstellung ist eindeutig .
* Nullstellen rationaler Funktionen sind Nullstellen des Zählers, sofern der Nenner dort definiert ist .
* Gemeinsame Linearfaktoren von Zähler und Nenner führen zu hebbaren Singularitäten .
* Das asymptotische Verhalten wird durch die höchsten Potenzen und ihre Koeffizienten bestimmt .
* $n > m$: Grenzwert $\pm \infty$ .
* $n < m$: Grenzwert $0$ .
* $n = m$: Grenzwert $a_n / b_m$ .
### Klassifizierung von Funktionen
* Algebraische Funktionen erfüllen eine Polynomgleichung in $x$ und $y$ .
* Wurzelfunktionen sind spezielle algebraische Funktionen .
* Logistische Funktionen beschreiben Sättigungsprozesse .
### Differentialquotient und Ableitung
* Der Differentialquotient ist der Grenzwert der Sekantensteigungen .
* **Produktregel:** $(fg)' = f'g + fg'$ .
* **Ableitung von Potenzfunktionen:** $(x^n)' = nx^{n-1}$ .
* **Linearität der Ableitung:** $(af + bg)' = af' + bg'$ .
* **Quotientenregel:** $(f/g)' = (f'g - fg')/g^2$ .
### Höhere Ableitungen und Regel von de l’Hospital
### Trigonometrische Funktionen
### Newton-Verfahren
### Taylor-Approximation
---
### Kernkonzepte
* Integrale können zur Abschätzung der Konvergenz oder Divergenz von unendlichen Reihen verwendet werden .
* Uneigentliche Integrale sind besonders effektiv für diesen Vergleich .
* Die Fläche unter einer Treppenfunktion kann als Partialsumme einer harmonischen Reihe interpretiert werden .
### Schlüsselanwendungen und Beispiele
* **Divergenz der harmonischen Reihe:** Ein Beweis wird durch Vergleich mit einem uneigentlichen Integral geführt .
* Die Treppenfunktion $H_n(x) = \frac{1}{\lfloor x \rfloor}$ wird verwendet .
* Die Fläche unter dieser Funktion entspricht der n-ten Partialsumme der harmonischen Reihe .
### Mathematische Ausdrücke und Formeln
* Restglied der Exponentialfunktion: $R_n(x) = \frac{e^{x_1} x^{n+1}}{(n+1)!}$ .
* Restglied der Sinusfunktion: $R_n(x) = \frac{\sin^{(n+1)}(x_1)}{(n+1)!}x^{n+1}$ .
* Abschätzung des Sinus-Restglieds: $|R_n(x)| \leq \frac{1}{(n+1)!} |x|^{n+1}$ .
* Definition des bestimmten Integrals als Grenzwert von Riemann-Summen: $A = \lim_{\Delta x \to 0, n \to \infty} \sum_{i=1}^{n} f(\xi_i) \Delta x$ .
* Schreibweise des bestimmten Integrals: $\int_{a}^{b} f(t) dt$ .
* Hauptsatz der Differential- und Integralrechnung: $F'(x) = f(x)$ für $F(x) = \int_{a}^{x} f(t) dt$ .
* Zusammenhang zwischen bestimmten und unbestimmten Integralen: $\int_{a}^{b} f(x)dx = F(b) - F(a)$, wobei $F$ eine Stammfunktion von $f$ ist .
* Differentiation unter dem Integral: $\frac{dF(t)}{dt} = \int_{a}^{b} \frac{\partial f(x,t)}{\partial t} dx$ .
* Beispiel für parameterabhängiges Integral: $\int_{0}^{3} (x-t)^2 dx$ .
* Uneigentliches Integral der Gaußschen Glockenkurve: $\int_{-\infty}^{\infty} e^{-x^2} dx$ .
* Abschätzung für die Gaußsche Glockenkurve: $e^{-x^2} \leq e^{-x}$ für $x \geq 1$ .
* Stammfunktion von $e^{-x}$: $F(x) = -e^{-x}$ .
* Laufzeitfunktionen in der Algorithmenanalyse :
* $\log \log n$ (logarithmisch)
* $\log n$ (logarithmisch)
* $\sqrt{n}$
* $n$ (linear)
* $n \log n$
* $n^2$ (quadratisch)
---
# Der indirekte Beweis und seine Bedeutung
### Kernidee
* Der indirekte Beweis (auch Reductio ad absurdum) leitet die Wahrheit einer Aussage ab, indem die Annahme ihrer Falschheit zu einem Widerspruch führt [25](#page=25).
* Das Prinzip besagt: Wenn aus der Annahme von ¬B auf ¬A geschlossen werden kann, und A wahr ist, dann muss B wahr sein [25](#page=25).
### Schlüsselkonzepte
* **Implikation ($\Rightarrow$):** Eine Aussage A ist hinreichende Bedingung für B (A $\Rightarrow$ B) [21](#page=21).
* **Notwendige Bedingung:** Gilt A $\Rightarrow$ B, so ist B eine notwendige Bedingung für A [21](#page=21).
* **Tautologie:** Eine allgemein gültige Formel, die stets wahr ist, unabhängig von den Wahrheitswerten der Aussagen [22](#page=22).
* **Transitivität der Implikation:** Aus (A $\Rightarrow$ B) und (B $\Rightarrow$ C) folgt (A $\Rightarrow$ C) [24](#page=24).
* **Äquivalenz ($\Leftrightarrow$):** Zwei Aussagen sind logisch gleichwertig ((A $\Rightarrow$ B) $\land$ (B $\Rightarrow$ A)) $\Leftrightarrow$ (A $\Leftrightarrow$ B) [22](#page=22).
* **Widerspruchsfreiheit:** Ein System von Aussagen ist widerspruchsfrei, wenn es keine Aussage gibt, die sowohl wahr als auch falsch sein kann [29](#page=29).
* **Ex contradictione sequitur quodlibet:** Aus einem Widerspruch folgt Beliebiges [29](#page=29).
### Schlüssel fakten
* Der Modus Ponens ist das Beweisprinzip der direkten Beweisführung: A $\land$ (A $\Rightarrow$ B) $\Rightarrow$ B [21](#page=21).
* Die Implikation ist unabhängig von inhaltlichen Zusammenhängen rein eine Verknüpfung von Wahrheitswerten [23](#page=23).
* Die Transitivität der Implikation wird in Beweisen genutzt, um schrittweise zur Konklusion zu gelangen [24](#page=24).
* Die Formel (A $\land$ (¬B $\Rightarrow$ ¬A)) $\Rightarrow$ B ist eine Tautologie und formalisiert den indirekten Beweis [25](#page=25).
* Euklids Beweis für unendlich viele Primzahlen ist ein klassisches Beispiel für einen indirekten Beweis [27](#page=27).
* Wenn ein Widerspruch vorliegt, kann mittels der Wahrheitswerttabelle auf die Gültigkeit jeder beliebigen Aussage geschlossen werden [30](#page=30).
### Implikationen
* Ein System mit Widersprüchen ist wenig brauchbar, da alles wahr und gleichzeitig falsch ist [30](#page=30).
* In der Praxis kann es schwierig sein, Widerspruchsfreiheit immer vorauszusetzen; manchmal muss man mit Widersprüchen leben [29](#page=29).
* Die Widerspruchsfreiheit eines Systems ist entscheidend für seine theoretische und praktische Anwendbarkeit [29](#page=29).
- > **Tipp:** Achte bei der Implikation darauf, dass die Wahrheit der Aussage nicht von einem inhaltlichen Zusammenhang abhängt, sondern nur von den Wahrheitswerten der Teilaussagen [23](#page=23)
- > **Beispiel:** Der Satz, dass es unendlich viele Primzahlen gibt, wird indirekt bewiesen, indem die Annahme einer endlichen Menge aller Primzahlen zu einem logischen Widerspruch führt [27](#page=27)
---
# Natürliche Zahlen und das Prinzip der vollständigen Induktion
### Kernidee
* Das Prinzip der vollständigen Induktion ist ein Beweisverfahren für Aussagen über alle natürlichen Zahlen [35](#page=35).
### Wichtige Fakten
* Die Menge der natürlichen Zahlen ist $N = \{0, 1, 2, 3,... \}$ [33](#page=33).
* Natürliche Zahlen stellen eine unendliche Menge dar, was direkte Beweise erschwert [33](#page=33).
* Direkte Beweise durch Fallunterscheidungen stoßen bei unendlichen Mengen an Grenzen [33](#page=33).
* Manchmal sind direkte Beweise dennoch möglich, z.B. für $n! < n^n$ für $n > 1$ [33](#page=33) [34](#page=34).
* Die Aussage $n! < n^n$ gilt für alle $n > 1$ [33](#page=33).
* Für $n! < n^n$ vergleicht man die Faktoren von $n!$ mit den Faktoren von $n \cdot n \cdot... \cdot n$ [34](#page=34).
* Das Prinzip der vollständigen Induktion ist ein notwendiges Beweisprinzip, wenn direkte Beweise nicht gelingen [34](#page=34).
### Schlüsselkonzepte
* **Beweisprinzip der vollständigen Induktion:**
* Eine Aussageform $A(n)$ für jede natürliche Zahl $n \in N$ ist wahr, wenn gilt [35](#page=35):
- 1
- $A $ ist wahr (Induktionsanfang) [1](#page=1) [35](#page=35)
- 2
- Für jedes $k \in N$ gilt: Wenn $A(k)$ wahr ist, dann ist auch $A(k+1)$ wahr (Induktionsschritt) [35](#page=35)
* **Schritte eines Induktionsbeweises:**
- 1
- **Induktionsanfang (IA):** Prüfung, ob $A $ gilt [1](#page=1) [35](#page=35)
- 2
- **Induktionsvoraussetzung (IV):** Annahme, dass $A(k)$ für ein beliebiges $k \in N$ wahr ist [35](#page=35)
- 3
- **Induktionsschluss (IS):** Nachweis, dass $A(k+1)$ unter Annahme der IV wahr ist [35](#page=35)
### Beispiel für vollständige Induktion
* **Behauptung:** $1 + 2 +... + n = \frac{1}{2}n(n+1)$ für alle $n \in N$ [36](#page=36).
* **Induktionsanfang ($n=1$):** $1 = \frac{1}{2} \cdot 1 \cdot (1+1) = 1$. Dies ist korrekt [36](#page=36).
* **Induktionsvoraussetzung (IV):** Annahme, dass $1 + 2 +... + k = \frac{1}{2}k(k+1)$ für ein $k \in N$ gilt [36](#page=36).
* **Induktionsschluss (IS):** Zeige $1 + 2 +... + k + (k+1) = \frac{1}{2}(k+1)((k+1)+1)$ [37](#page=37).
### Implikationen
---
# Aufgaben zu mathematischen Konzepten
### Kernkonzepte
* Eine Menge ist eine Sammlung wohlunterschiedener Objekte (Elemente) [43](#page=43).
* Mengenzugehörigkeit wird mit $x \in M$ (x ist Element von M) und $x \notin M$ (x ist kein Element von M) dargestellt [43](#page=43).
* Eine Menge kann durch Aufzählung ihrer Elemente oder durch eine beschreibende Eigenschaft definiert werden [43](#page=43) [45](#page=45).
### Schlüsselfakten
* Standardmengen sind die natürlichen Zahlen $\mathbb{N} = \{0,1,2,3,...\}$ die ganzen Zahlen $\mathbb{Z} = \{\pm 0, \pm 1, \pm 2, \pm 3,...\}$ und die rationalen Zahlen $\mathbb{Q} = \{\pm \frac{p}{q} | p,q \in \mathbb{N}\}$ [44](#page=44).
* Gleichheit zweier Mengen X und Y ($X=Y$) ist definiert als $\forall x: x \in X \Leftrightarrow x \in Y$ [46](#page=46).
* X ist eine Teilmenge von M ($X \subseteq M$), wenn jedes Element von X auch ein Element von M ist [47](#page=47).
* Die Menge aller Teilmengen einer Menge M wird als Potenzmenge $P(M)$ bezeichnet [47](#page=47).
* Für eine Menge M mit n Elementen hat $P(M)$ genau $2^n$ Elemente [47](#page=47).
### Schlüsseldaten
* **Vereinigung**: $A \cup B = \{x | x \in A \lor x \in B\}$ [48](#page=48).
* **Durchschnitt**: $A \cap B = \{x | x \in A \land x \in B\}$ [48](#page=48).
* **Komplement**: $\overline{A} = \{x | x \notin A\}$ (bezogen auf eine Obermenge M) [48](#page=48).
* **Differenz**: $A - B = \{x | x \in A \land x \notin B\}$ [48](#page=48).
* Zwei Mengen A und B sind disjunkt, wenn ihr Durchschnitt leer ist ($A \cap B = \emptyset$) [48](#page=48).
### Implikationen
* Mengenlehre ermöglicht die präzise Definition von Zahlenmengen und Teilmengen [42](#page=42) [46](#page=46).
* Mengengesetze (Assoziativ-, Kommutativ-, Distributivgesetze) vereinfachen komplexe mengentheoretische Ausdrücke [50](#page=50).
* Kombinatorische Anwendungen der Mengenlehre sind für endliche Mengen relevant [42](#page=42).
### Regeln für Operationen auf Mengen
* **Assoziativgesetze**: $A \cup (B \cup C) = (A \cup B) \cup C$ und $A \cap (B \cap C) = (A \cap B) \cap C$ [50](#page=50).
* **Kommutativgesetze**: $A \cup B = B \cup A$ und $A \cap B = B \cap A$ [50](#page=50).
* **Distributivgesetze**: $A \cap (B \cup C) = (A \cap B) \cup (A \cap C)$ und $A \cup (B \cap C) = (A \cup B) \cap (A \cup C)$ [50](#page=50).
---
# Mengenoperationen und ihre Regeln
### Kernkonzepte
- Mengenoperationen ermöglichen die Kombination und Manipulation von Mengen basierend auf logischen Beziehungen [49](#page=49).
- Das kartesische Produkt bildet geordnete Paare aus Elementen zweier Mengen [52](#page=52).
### Schlüsselkonzepte
- **Vereinigung ($A \cup B$):** Enthält alle Elemente aus A oder B oder beiden [49](#page=49).
- **Schnittmenge ($A \cap B$):** Enthält nur Elemente, die sowohl in A als auch in B vorhanden sind [49](#page=49).
- **Differenz ($A - B$):** Enthält Elemente aus A, die nicht in B sind [49](#page=49).
- **Disjunkte Mengen:** Mengen, deren Schnittmenge leer ist ($A \cap B = \emptyset$) [49](#page=49).
- **Kartesisches Produkt ($X \times Y$):** Menge aller geordneten Paare $(x,y)$, wobei $x \in X$ und $y \in Y$ [52](#page=52).
### Regeln für Mengenoperationen
- **Assoziativgesetze:**
- $A \cup (B \cup C) = (A \cup B) \cup C$ [50](#page=50).
- $A \cap (B \cap C) = (A \cap B) \cap C$ [50](#page=50).
- **Kommutativgesetze:**
- $A \cup B = B \cup A$ [50](#page=50).
- $A \cap B = B \cap A$ [50](#page=50).
- **Distributivgesetze:**
- $A \cap (B \cup C) = (A \cap B) \cup (A \cap C)$ [50](#page=50).
- $A \cup (B \cap C) = (A \cup B) \cap (A \cup C)$ [50](#page=50).
### De Morgansche Regeln
- $A - (B \cup C) = (A - B) \cap (A - C)$ [51](#page=51).
- $A - (B \cap C) = (A - B) \cup (A - C)$ [51](#page=51).
- **Satz vom Widerspruch:** $A \cap (M - A) = \emptyset$ [51](#page=51).
- **Satz vom ausgeschlossenen Dritten:** $A \cup (M - A) = M$ [51](#page=51).
### Kartesisches Produkt
- Endliche Mengen X mit n und Y mit m Elementen ergeben $X \times Y$ mit $n \times m$ Elementen [52](#page=52).
- Produkte von Intervallen bilden Rechtecke im kartesischen Koordinatensystem [53](#page=53).
- Teilmengen eines kartesischen Produkts sind nicht immer selbst Produkte von Teilmengen der Faktoren [54](#page=54).
### Rechenregeln für kartesische Produkte
- **Distributivgesetze:**
- $A \times (B \cap C) = (A \times B) \cap (A \times C)$ [55](#page=55).
---
# Abbildungen und ihre Eigenschaften
### Kernidee
* Abbildungen ordnen jedem Element einer Menge genau ein Element einer anderen Menge zu [63](#page=63).
* Es besteht eine enge Verbindung zwischen Abbildungen, Äquivalenzrelationen und Zerlegungen von Mengen [59](#page=59) [66](#page=66).
### Schlüsselkonzepte
* **Relation**: Eine Teilmenge $R \subseteq X \times Y$ von kartesischen Produkten zweier Mengen [57](#page=57).
* **Äquivalenzrelation**: Eine Relation $R$ auf einer Menge $X$, die reflexiv, symmetrisch und transitiv ist [58](#page=58).
* Reflexivität: Für jedes $x \in X$ gilt $(x,x) \in R$ [58](#page=58).
* Symmetrie: Wenn $(x,y) \in R$, dann auch $(y,x) \in R$ [58](#page=58).
* Transitivität: Wenn $(x,y) \in R$ und $(y,z) \in R$, dann auch $(x,z) \in R$ [58](#page=58).
* **Abbildung**: Eine Vorschrift $f: X \to Y$, die jedem $x \in X$ genau ein $y = f(x) \in Y$ zuordnet [63](#page=63).
* **Graph einer Abbildung**: Die Menge aller geordneten Paare $(x, f(x))$ für $x \in X$, also $\Gamma(f) \subseteq X \times Y$ [63](#page=63).
* **Injektive Abbildung**: Jedes $y \in Y$ wird höchstens einmal getroffen; $f(x) = f(y) \Rightarrow x = y$ [64](#page=64).
* **Surjektive Abbildung**: Jedes $y \in Y$ wird mindestens einmal getroffen; für jedes $y \in Y$ existiert ein $x \in X$ mit $f(x) = y$ [64](#page=64).
* **Bijektive Abbildung**: Eine Abbildung, die sowohl injektiv als auch surjektiv ist; jedes $y \in Y$ wird genau einmal getroffen [64](#page=64).
* **Identische Abbildung**: $id_X: X \to X$ mit $id_X(x) = x$ für alle $x \in X$ [64](#page=64).
* **Komposition von Abbildungen**: Für $f: X \to Y$ und $g: Y \to Z$ ist $g \circ f: X \to Z$ definiert als $(g \circ f)(x) = g(f(x))$ [65](#page=65).
* **Umkehrabbildung**: Für eine bijektive Abbildung $f$ existiert $f^{-1}: Y \to X$ mit $f \circ f^{-1} = id_Y$ und $f^{-1} \circ f = id_X$ [65](#page=65).
* **Äquivalenzklassen**: Mengen von Elementen, die durch eine Äquivalenzrelation miteinander verbunden sind [59](#page=59).
* **Fasern einer Abbildung**: Mengen von Elementen in $X$, die auf dasselbe Element in $Y$ abgebildet werden: $f^{-1}(y) = \{x \in X | f(x) = y\}$ [66](#page=66).
### Schlüsselmerkmale
* Eine Relation ist nur dann der Graph einer Abbildung, wenn für jedes $x$ höchstens ein $y$ existiert, sodass $(x,y)$ in der Relation ist [63](#page=63).
* Die identische Abbildung ist stets bijektiv [64](#page=64).
* Injektivität, Surjektivität und Bijektivität bleiben unter der Komposition von Abbildungen erhalten [65](#page=65).
* Eine Abbildung ist nur dann bijektiv, wenn eine Umkehrabbildung existiert [65](#page=65).
* Eine Abbildung $f: X \to Y$ induziert eine Äquivalenzrelation auf $X$: $x \sim x' \iff f(x) = f(x')$ [66](#page=66).
* Bei surjektiven Abbildungen sind die Äquivalenzklassen der induzierten Relation genau die Fasern der Abbildung [66](#page=66).
### Implikationen
* Äquivalenzrelationen auf einer Menge $M$ entsprechen eindeutig den Zerlegungen von $M$ in disjunkte, nichtleere Teilmengen [59](#page=59).
* Die Komposition zweier Abbildungen ist nur dann eine Abbildung, wenn der Wertebereich der ersten gleich dem Definitionsbereich der zweiten ist [65](#page=65).
---
# Komposition von Abbildungen und äquivalenzrelationen
### Core idea
- Komposition von Abbildungen und die Beziehung zu Äquivalenzrelationen werden betrachtet.
- Surjektive Abbildungen sind eng mit Zerlegungen und Äquivalenzrelationen verbunden.
### Key facts
- Die Komposition zweier Abbildungen $f: X \to Y$ und $g: Y \to Z$ ist $g \circ f: X \to Z$, definiert als $(g \circ f)(x) = g(f(x))$ [65](#page=65).
- Injektivität, Surjektivität und Bijektivität bleiben unter Komposition erhalten [65](#page=65).
- Eine bijektive Abbildung besitzt eine Umkehrabbildung $f^{-1}: Y \to X$ mit $f \circ f^{-1} = \text{id}_Y$ und $f^{-1} \circ f = \text{id}_X$ [65](#page=65).
- Eine Abbildung ist genau dann bijektiv, wenn sie eine Umkehrabbildung hat [65](#page=65).
- Eine Abbildung $f: X \to Y$ induziert eine Äquivalenzrelation auf $X$ durch $x \sim x' \iff f(x) = f(x')$ [66](#page=66).
- Bei surjektivem $f$ sind die Äquivalenzklassen genau die Fasern $f^{-1}(y)$ [66](#page=66).
- Das Bild einer Abbildung $f: X \to Y$ ist $f(X):= \{y \in Y \mid \exists x \in X, f(x) = y\}$ [67](#page=67).
- Die Abbildung $f: X \to f(X)$ mit $x \mapsto f(x)$ ist stets surjektiv [67](#page=67).
- Eine Einschränkung $f|_{X'}$ einer Abbildung $f: X \to Y$ auf eine Teilmenge $X' \subseteq X$ ist $f|_{X'}: X' \to Y, x \mapsto f(x)$ [68](#page=68).
- Einschränkung kann als Komposition mit der Inklusionsabbildung $i: X' \to X$ verstanden werden: $f|_{X'} = f \circ i$ [68](#page=68).
- Surjektive Abbildungen $f: X \to Y$ entsprechen Zerlegungen und Äquivalenzrelationen auf $X$ [69](#page=69).
- Eine Zerlegung von $X$ konstruiert eine Äquivalenzrelation, indem Elemente in derselben Menge als äquivalent gelten [69](#page=69).
- Aus einer Äquivalenzrelation wird eine surjektive Abbildung in die Menge der Äquivalenzklassen konstruiert [69](#page=69).
- Die Fasern $f^{-1}(y)$ einer surjektiven Abbildung $f$ bilden eine Zerlegung von $X$ [69](#page=69).
- Die Zielmenge $Y$ einer surjektiven Abbildung kann als die Menge der Äquivalenzklassen $X/\sim$ aufgefasst werden [70](#page=70).
### Key concepts
- **Komposition von Abbildungen:** Hintereinanderausführung von Funktionen.
- **Äquivalenzrelation:** Eine Relation, die reflexiv, symmetrisch und transitiv ist.
- **Faser einer Abbildung:** Die Urbildmenge eines Elements im Zielbereich.
- **Bildbereich einer Abbildung:** Die Menge aller Werte, die die Abbildung annimmt.
- **Einschränkung einer Abbildung:** Abbildung einer Funktion auf einen Teilbereich ihres Definitionsbereichs.
- **Zerlegung einer Menge:** Eine Partition der Menge in disjunkte Teilmengen, deren Vereinigung die Menge ergibt.
- **Gleichmächtigkeit von Mengen:** Existenz einer Bijektion zwischen zwei Mengen.
### Implications
- Die Konzepte Zerlegung, Äquivalenzrelation und surjektive Abbildung sind ineinander übersetzbar [70](#page=70).
### Example
---
# Definition und Eigenschaften von Folgen
### Kernidee
* Eine Folge ist eine Abbildung von den natürlichen Zahlen in eine Menge M [82](#page=82).
### Schlüsselkonzepte
* Eine Folge wird als `a: N -> M, n ↦→ a_n` notiert [82](#page=82).
* Die konstante Folge bildet jedes n auf ein festes Element `x_0` in M ab [82](#page=82).
* Für das Langzeitverhalten von Folgen ist ein Abstandsbegriff in M notwendig [83](#page=83).
* Der Abstand zwischen zwei reellen Zahlen `x` und `y` ist `|y - x|` [83](#page=83).
* Die Dreiecksungleichung besagt: `|z - x| ≤ |y - x| + |z - y|` für alle `x, y, z ∈ R` [83](#page=83).
* Eine reelle Folge `(a_n)_n∈N` heißt monoton, wenn `a_n ≤ a_m` für `n ≤ m` gilt [84](#page=84).
* Eine reelle Folge ist nach oben beschränkt, wenn es ein `K` gibt mit `a_n ≤ K` für alle `n` [84](#page=84).
* Eine reelle Folge ist nach unten beschränkt, wenn es ein `K` gibt mit `a_n ≥ K` für alle `n` [84](#page=84).
* Eine Folge ist beschränkt, wenn sie sowohl nach oben als auch nach unten beschränkt ist [84](#page=84).
* Eine alternierende Folge ist eine beschränkte Folge, die nicht monoton ist [84](#page=84).
### Schlüsselbegriffe und Beispiele
* Folge: `a: N -> M, n ↦→ a_n` [82](#page=82).
* Konstante Folge: `n ↦→ x_0` [82](#page=82).
* Abstand reeller Zahlen: `|y - x|` [83](#page=83).
* Dreiecksungleichung: `|z - x| ≤ |y - x| + |z - y|` [83](#page=83).
* Monotone Folge: `a_n ≤ a_m` für `n ≤ m` [84](#page=84).
* Nach oben beschränkte Folge: `∃ K: a_n ≤ K` [84](#page=84).
* Nach unten beschränkte Folge: `∃ K: a_n ≥ K` [84](#page=84).
* Beschränkte Folge: Ober- und unterbeschränkt [84](#page=84).
* Beispiel monotone, beschränkte Folge: `n ↦→ 1/n` [84](#page=84).
* Beispiel unbeschränkte Folge: `n ↦→ n` [84](#page=84).
* Beispiel alternierende, beschränkte Folge: `n ↦→ (-1)^n` [84](#page=84).
### Implikationen
* Reelle Zahlen sind eine wichtige Menge für Folgen aufgrund des Abstandsbegriffs [82](#page=82).
* Monotonie und Beschränktheit sind grundlegende Eigenschaften zur Untersuchung von Folgen [84](#page=84).
* Die Untersuchung von Folgen erfordert Kenntnis von Definitionen und Beispielen [81](#page=81).
---
# Sätze über konvergente und monotone Folgen
### Kernidee
* Eine reelle Folge $(a_n)_{n \in \mathbb{N}}$ heißt konvergent mit Grenzwert $a$, wenn für jedes $\epsilon > 0$ ein $N$ existiert, sodass $|a_n - a| < \epsilon$ für alle $n \geq N$ gilt [85](#page=85).
* Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt [86](#page=86).
* Eine monotone und beschränkte Folge ist immer konvergent [89](#page=89).
### Wichtige Fakten
* Eine konvergente Folge ist stets beschränkt [88](#page=88).
* Für monotone steigende Folgen ist der Grenzwert das Supremum der Folgenglieder [89](#page=89).
* Für monotone fallende Folgen ist der Grenzwert das Infimum der Folgenglieder.
* Die alternierende Folge $(-1)^n$ ist beschränkt, aber divergent [94](#page=94).
* Jede beschränkte Folge besitzt eine konvergente Teilfolge [96](#page=96).
### Schlüsselkonzepte
* **Konvergenzdefinition:** $|a_n - a| < \epsilon$ für $n \geq N$ [85](#page=85).
* **Eindeutigkeit des Grenzwertes:** Beweis durch Widerspruch unter Verwendung der Dreiecksungleichung [86](#page=86) [87](#page=87).
* **Beschränktheit konvergenter Folgen:** Obere und untere Schranken lassen sich aus dem Grenzwert und der Konvergenzdefinition ableiten [88](#page=88).
* **Monotonie und Beschränktheit:** Ermöglichen die Garantie der Existenz eines Grenzwertes [89](#page=89).
* **Konvergenz von Teilfolgen:** Wenn eine Folge konvergiert, konvergiert jede Teilfolge gegen denselben Grenzwert [96](#page=96).
* **Existenz einer konvergenten Teilfolge:** Jede beschränkte Folge hat eine konvergente Teilfolge (Bolzano-Weierstraß-Satz) [96](#page=96).
### Rechenregeln und Beispiele
* **Rechenregeln:** Summen, Produkte und Quotienten konvergenter Folgen sind konvergent, sofern der Nenner nicht gegen Null konvergiert [92](#page=92).
* $\lim_{n\to\infty} (a_n + b_n) = \lim_{n\to\infty} a_n + \lim_{n\to\infty} b_n$ [92](#page=92).
* $\lim_{n\to\infty} (a_n \cdot b_n) = \lim_{n\to\infty} a_n \cdot \lim_{n\to\infty} b_n$ [92](#page=92).
* **Beispiel Kreisflächeninhalt:** Die Flächeninhalte regulärer eingeschriebener $n$-Ecke nähern $\pi$ an, bilden eine monotone steigende und beschränkte Folge [91](#page=91).
* **Die Euler'sche Zahl $e$:** Der Grenzwert von $\left(1 + \frac{1}{n}\right)^n$ existiert und ist $e$ [93](#page=93).
### Divergente Folgen
* Folgen, die nicht konvergieren, sind divergent [94](#page=94).
* Beispiele sind die alternierende Folge $(-1)^n$ oder die Folge $a_n = n$ [94](#page=94).
* Division einer konvergenten Folge durch eine Nullfolge kann zu einer divergenten Folge führen [94](#page=94).
### Typische Fallstricke
* Eine Folge kann beschränkt sein, ohne zu konvergieren (z.B. $(-1)^n$) [94](#page=94).
* Eine Folge kann monoton sein, ohne zu konvergieren (z.B. $a_n = n$) [94](#page=94).
* Nicht jede beschränkte Menge reeller Zahlen hat ein Supremum, wenn man nur rationale Zahlen zulässt (Löcher im Zahlenstrahl) [89](#page=89).
---
# Konvergenz von Teilfolgen beschränkter Folgen
### Kernidee
* Beschränkte Folgen besitzen immer konvergente Teilfolgen [97](#page=97).
* Dies wird durch die Konstruktion eines Systems ineinanderliegender Intervalle gezeigt [98](#page=98).
* Der Durchmesser dieser Intervalle geht gegen Null, was die Konvergenz sichert [99](#page=99).
### Wichtige Fakten
* Beschränkte Folgen enthalten alle Terme in einem Intervall [a,b [97](#page=97).
* Das Intervall kann auf das Einheitsintervall transformiert werden, ohne Konvergenz zu ändern [1](#page=1) [97](#page=97).
* Jedes neu entstehende Teilintervall muss unendlich viele Folgenglieder enthalten [99](#page=99).
* Ein Folgenglied wird als nächster Term der Teilfolge ausgewählt [99](#page=99).
### Schlüsselkonzepte
* **Beschränkte Folge:** Eine Folge, deren Terme in einem endlichen Intervall liegen [97](#page=97).
* **Teilfolge:** Eine Folge, die durch Auswahl bestimmter Terme aus einer ursprünglichen Folge gebildet wird [97](#page=97).
* **Konvergenz:** Eine Folge konvergiert, wenn ihre Glieder sich einem festen Grenzwert nähern [97](#page=97).
* **Intervallhalbierung:** Prozess der wiederholten Unterteilung von Intervallen [98](#page=98).
### Implikationen
* Die Existenz konvergenter Teilfolgen ist ein fundamentales Werkzeug zur Analyse von Folgen [97](#page=97).
* Ermöglicht die Behandlung von ansonsten divergenten, aber beschränkten Folgen [97](#page=97).
* Die Konstruktion ist ein Beispiel für den Beweis durch Einschachtelung von Intervallen [98](#page=98).
- > **Tip:** Die Idee ist, dass wenn unendlich viele Punkte in einem kleiner werdenden Intervall liegen, diese Punkte einem einzigen Punkt beliebig nahe kommen müssen [99](#page=99)
---
# Die geometrische Reihe
### Kernidee
* Eine Reihe heißt geometrisch, wenn der Quotient zweier aufeinanderfolgender Terme konstant ist .
* Dieser konstante Quotient wird als `q` bezeichnet .
### Wichtige Fakten
* Eine geometrische Reihe wird durch ihren Anfangsterm `a` und den Quotienten `q` eindeutig bestimmt .
* Der Quotient `q` gibt das Wachstum der Folgenterme an .
* Die n-te Partialsumme für `q ≠ 1` ist gegeben durch: $$S_n = \sum_{k=1}^n aq^{k-1} = a \frac{1 - q^n}{1 - q}$$ .
* Speziell für `a = 1` ist die n-te Partialsumme: $$S_n = \sum_{k=1}^n q^{k-1} = \frac{1 - q^n}{1 - q}$$ .
* Der Grenzwert einer unendlichen geometrischen Reihe konvergiert für `|q| < 1` .
* Für `|q| < 1` ist der Grenzwert `S` gegeben durch: $$S = \frac{a}{1 - q}$$ .
* Für `|q| > 1` existiert der Grenzwert der unendlichen Reihe nicht .
### Schlüsselkonzepte
* Das Analogon zur arithmetischen Reihe ist die geometrische Reihe .
* Die Partialsummen sind die Summen der ersten `n` Terme einer Reihe .
* Der Grenzwert (`n → ∞`) einer geometrischen Reihe hängt entscheidend vom Quotienten `q` ab .
### Implikationen
* Die Konvergenz geometrischer Reihen ist fundamental für viele Berechnungen .
* In der Finanzmathematik werden geometrische Reihen zur Barwertbildung aus diskontierten Zahlungsströmen verwendet .
* Zahlungsströme werden typischerweise mit Diskontsätzen der Form `1 / (1 + r)^t` gewichtet .
* Vermögensgegenstände und Finanzinstrumente können durch Reihen zur Wertbestimmung abgebildet werden .
* Aktien können als unendliche geometrische Reihe (diskontierte Dividenden) betrachtet werden, da sie keine begrenzte Laufzeit haben .
### Tipps
- > **Tip:** Die Formel für die Partialsumme wird oft durch Ausklammern von `S_n` und `qS_n` und deren Subtraktion abgeleitet
- > **Tip:** Achte auf den Fall `q = 1`, für den die allgemeine Formel nicht gilt
- Für `q = 1` ist die Summe einfach `n * a`
- > **Tip:** Das Verständnis des Konvergenzverhaltens für `|q| < 1` ist essenziell für Anwendungen in der Finanzmathematik
---
# Matrizen: Definition und Grundkonzepte
### Kernidee
* Eine Matrix ist ein rechteckiges Zahlenschema, das zur Darstellung von Daten oder Systemen dient .
* Sie ermöglicht die kompakte Darstellung von Beziehungen, wie Distanzen oder Zustandsübergängen .
### Schlüsselkonzepte
* Eine $m \times n$ Matrix besitzt $m$ Zeilen und $n$ Spalten .
* Die Einträge werden oft als $a_{ij}$ bezeichnet, wobei $i$ den Zeilen- und $j$ den Spaltenindex darstellt .
* Zwei Matrizen sind gleich, wenn sie dasselbe Format und identische Einträge haben .
* Eine Matrix mit nur einer Spalte ($m \times 1$) wird als Spaltenvektor bezeichnet .
* Eine Matrix mit nur einer Zeile ($1 \times n$) wird als Zeilenvektor bezeichnet .
* Eine $1 \times 1$ Matrix ($a_{11}$) wird als Skalar bezeichnet .
* Aus mehreren Zeilen- oder Spaltenvektoren gleicher Länge/Höhe können Matrizen gebildet werden .
### Schlüsselbegriffe
* **Format:** Gibt die Dimension einer Matrix an ($m \times n$) .
* **Eintrag ($a_{ij}$):** Das Element in der $i$-ten Zeile und $j$-ten Spalte .
* **Spaltenvektor:** Eine Matrix mit einer Spalte .
* **Zeilenvektor:** Eine Matrix mit einer Zeile .
* **Skalar:** Eine $1 \times 1$ Matrix .
* **Transponierte Matrix ($^tA$):** Entsteht durch Vertauschen von Zeilen und Spalten ($(^tA)_{ji} = a_{ij}$) .
* **Symmetrische Matrix:** Eine quadratische Matrix, die gleich ihrer Transponierten ist ($A = ^tA$) .
### Implikationen
* Matrizen erlauben eine systematische Organisation komplexer Datensätze .
* Das Format ist entscheidend für die Gleichheit und viele Operationen von Matrizen .
* Das Transponieren spiegelt eine Matrix an ihrer Hauptdiagonale .
* Nur quadratische Matrizen können symmetrisch sein .
- > **Tip:** Achten Sie auf die Indizes bei der Transposition; der Zeilenindex von A wird zum Spaltenindex von $^tA$ und umgekehrt
- > **Beispiel:** Wenn $A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$, dann ist $^tA = \begin{pmatrix} 1 & 3 \\ 2 & 4 \end{pmatrix}$
---
# Spezielle Matrizen und Vektoren
### Kernideen
* Matrizen und Vektoren können spezielle Eigenschaften aufweisen, die ihre Anwendung in verschiedenen Kontexten beeinflussen.
* Transponieren, Null- und Einheitsmatrizen sowie Diagonalmatrizen sind grundlegende Konzepte.
* Einheitsvektoren bilden eine wichtige Basis für Vektorräume.
### Wichtige Fakten
* Das Transponieren vertauscht Zeilen- und Spaltenindizes .
* Für einen Spaltenvektor $A$ der Höhe $k$ entsteht ein Zeilenvektor $(a'_{11},..., a'_{1k})$ mit $a'_{1j} = a_{j1}$ .
* Die transponierte Matrix $^tA$ hat die Einträge $(^tA)_{ji}:= a_{ij}$ .
* Eine Matrix ist symmetrisch, wenn sie mit ihrer Transponierten übereinstimmt .
* Nur quadratische Matrizen können symmetrisch sein .
* Entfernungsmatrizen sind Beispiele für symmetrische Matrizen .
* Die Nullmatrix hat nur Nulleinträge .
* Der Nullvektor hat nur Nulleinträge .
* Die $n$-dimensionale Einheitsmatrix $E_n$ hat Einsen auf der Diagonalen und Nullen sonst .
* Eine Diagonalmatrix hat nur auf der Diagonalen nicht-verschwindende Einträge .
* Die Einheitsmatrix ist eine Diagonalmatrix mit $a_{ii} = 1$ .
* Der $i$-te Einheitsvektor $e_i$ hat eine Eins an der $i$-ten Komponente und sonst Nullen .
### Schlüsselkonzepte
* **Transponieren:** Erzeugt eine neue Matrix durch Zeilen-Spalten-Vertauschung .
* **Symmetrische Matrix:** Eine quadratische Matrix $A$, für die $A = ^tA$ gilt .
* **Input-Output Matrix:** Stellt Wirtschaftsbeziehungen dar, ist typischerweise nicht symmetrisch .
* **Nullmatrix:** Das additive neutrale Element unter Matrizen .
* **Einheitsmatrix ($E_n$):** Das multiplikative neutrale Element für $n \times n$ Matrizen .
* **Diagonalmatrix:** Eine Matrix mit Einträgen nur auf der Hauptdiagonale .
* **Einheitsvektoren ($e_i$):** Bilden eine Standardbasis in Vektorräumen .
### Implikationen
* Symmetrische Matrizen sind wichtig in Bereichen wie der Physik und Computergrafik .
* Die Struktur von Input-Output-Matrizen ist entscheidend für ökonomische Modelle .
* Einheitsvektoren ermöglichen die einfache Darstellung beliebiger Vektoren als Linearkombinationen .
### Beispiele
---
# Addition und Skalarmultiplikation von Matrizen
### Kernkonzepte der Matrizenaddition
* Matrizen können nur addiert werden, wenn sie dasselbe Format (gleiche Anzahl Zeilen und Spalten) haben .
* Die Addition zweier Matrizen $A$ und $B$ ergibt eine neue Matrix $C$, wobei jeder Eintrag $c_{ij}$ die Summe der entsprechenden Einträge $a_{ij}$ und $b_{ij}$ ist ($c_{ij} = a_{ij} + b_{ij}$) .
* Die Nullmatrix ist das neutrale Element der Matrizenaddition; $A + 0 = A$ .
* Die Addition von Matrizen ist kommutativ ($A + B = B + A$) und assoziativ ($A + (B + C) = (A + B) + C$) .
* Die Transponierte der Summe zweier Matrizen ist gleich der Summe ihrer Transponierten: $t(A + B) = tA + tB$ .
### Kernkonzepte der Skalarmultiplikation
* Skalarmultiplikation erfolgt durch Multiplikation jedes einzelnen Eintrags einer Matrix $A$ mit einem Skalar $c$ (Notation: $cA$) .
* Die Formel für die Skalarmultiplikation lautet $(cA)_{ij} = ca_{ij}$ .
* Ökonomische Beispiele sind wirtschaftliches Wachstum (Multiplikation mit einem Wachstumsfaktor), Auf- und Abzinsen oder Wechselkurse .
* Die Multiplikation mit dem Skalar 0 ergibt die Nullmatrix ($0 \cdot A = 0$) .
* Die Multiplikation mit dem Skalar 1 ändert die Matrix nicht ($1 \cdot A = A$) .
* Die Multiplikation mit $-1$ ergibt die negierte Matrix ($(−1) \cdot A = −A$) .
### Rechenregeln und Eigenschaften
* Die Skalarmultiplikation ist kommutativ bezüglich des Skalars ($cA = Ac$) .
* Die Skalarmultiplikation ist assoziativ bezüglich zweier Skalare ($c(dA) = (cd)A$) .
* Es gelten Distributivgesetze für die Skalarmultiplikation und Matrizenaddition: $c(A + B) = cA + cB$ und $(c + d)A = cA + dA$ .
* Diese Regeln ergeben sich direkt aus der komponentenweisen Definition und den Skalargesetzen für reelle Zahlen .
- > **Tip:** Die Regeln für Matrixaddition und Skalarmultiplikation ähneln stark den Regeln für die Operationen mit reellen Zahlen, da die Operationen komponentenweise definiert sind
### Beispiele
* Addition:
- $$
- \begin{pmatrix}
- 1 & 2 & 1 \\
- 3 & 1 & 0 \\
- 1 & 2 & 1
- \end{pmatrix}
- +
- \begin{pmatrix}
---
# Skalarprodukt von Vektoren
### Kernidee
* Das Skalarprodukt ist eine Verknüpfung zweier Vektoren gleicher Länge, deren Ergebnis ein Skalar ist .
### Schlüsselkonzepte
* Definition: Für Vektoren $a = (a_1,..., a_n)$ und $b = (b_1,..., b_n)$ ist das Skalarprodukt $a \cdot b = a_1b_1 + a_2b_2 +... + a_nb_n = \sum_{i=1}^{n} a_i b_i$ .
* Ergebnis ist immer ein Skalar, unabhängig von der Vektorlänge .
* Beispiel: $(1,0,1) \cdot (2,1,0) = 1 \cdot 2 + 0 \cdot 1 + 1 \cdot 0 = 2$ .
* Anwendung in Tabellenkalkulationen: SUMMENPRODUKT-Funktion (z.B. in Excel) .
* Anwendung: Gesamtwert eines Umsatzes berechnen (Stückzahlen $\cdot$ Stückpreise) .
* Beispiel Anwendung: `=SUMMENPRODUKT(A1:A10; B1:B10)` berechnet Umsatz für 10 Produkte .
### Spezialfälle
* Wenn ein Vektor $(1, 1,..., 1)$ ist, ist das Skalarprodukt die Summe der Einträge des anderen Vektors .
* Beispiel: $(2,1,3) \cdot (1,1,1) = 2+1+3 = 6$ .
* Wenn ein Vektor ein Einheitsvektor $e_i$ ist, extrahiert das Skalarprodukt die $i$-te Koordinate des anderen Vektors .
* Beispiel: $(2,1,3) \cdot (0,0,1) = 3$ .
### Rechenregeln
* Kommutativgesetz: $a \cdot b = b \cdot a$ .
* Distributivgesetz: $(a + b) \cdot c = a \cdot c + b \cdot c$ .
### Wichtige Hinweise
- > **Tip:** Aus $a \cdot b = 0$ folgt nicht zwangsläufig, dass $a$ oder $b$ der Nullvektor sind
- > **Beispiel:** Für $i \neq j$ gilt stets $e_i \cdot e_j = 0$, obwohl weder $e_i$ noch $e_j$ Nullvektoren sind
---
# Rechenregeln und Eigenschaften von Matrizenprodukten
### Kernidee
* Das Matrixprodukt $C = A \cdot B$ ist definiert, wenn die Spaltenanzahl von $A$ mit der Zeilenanzahl von $B$ übereinstimmt .
* Die Elemente von $C$ entstehen durch Skalarprodukte von Zeilen von $A$ mit Spalten von $B$ .
### Schlüsselkonzepte
* Definition des Matrixprodukts: $c_{ik} = \sum_{j=1}^{n} a_{ij} b_{jk}$ .
* Wenn $A$ eine $m \times n$-Matrix und $B$ eine $n \times r$-Matrix ist, dann ist $C$ eine $m \times r$-Matrix .
* Die Reihenfolge der Matrixmultiplikation spielt im Allgemeinen eine Rolle ($AB \neq BA$) .
* Die Nullmatrix hat die Eigenschaft $0 \cdot A = A \cdot 0 = 0$ .
* Die Einheitsmatrix hat die Eigenschaft $A \cdot E_n = E_m \cdot A = A$ .
* Das Produkt einer Matrix $A$ mit einem Einheitsvektor $e_i$ ergibt die $i$-te Spalte von $A$ .
### Rechenregeln
* **Assoziativgesetz:** $A(BC) = (AB)C$ .
* **Distributivgesetze:** $A(B + C) = AB + AC$ und $(A + B)C = AC + BC$ .
* **Transponieren eines Produkts:** $^t(A \cdot B) = (^tB) \cdot (^tA)$ .
* Es gibt kein allgemeines Kommutativgesetz für die Matrizenmultiplikation .
### Beispiele
* Beispiel für ein Produkt:
- $$
- \begin{pmatrix} 1 & 2 & 1 \\ 3 & 1 & 0 \\ 1 & 2 & 1 \end{pmatrix} \cdot \begin{pmatrix} -1 & 0 & 0 \\ 0 & 1
- & 2 \\ -1 & 1 \end{pmatrix} = \begin{pmatrix} -2 & 2 & 4 \\ -3 & 1 & 2 \\ -2 & 2 & 4 \end{pmatrix}
- $$
* Beispiel mit Einheitsmatrix:
- $$
- \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix} \cdot \begin{pmatrix} -1 & 0 \\ 1 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix}
- $$
* Beispiel, das Nicht-Kommutativität zeigt:
- $$
- \begin{pmatrix} -1 & 0 \\ 1 & 1 \end{pmatrix} \cdot \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix} = \begin{pmatrix} -1 & -2 \\ 2 & 3 \end{pmatrix}
- $$
---
# Matrixpotenzen als Übergangsmatrizen in Systemen
### Core idea
* Matrixpotenzen können das Langzeitverhalten von Systemen beschreiben, indem sie aufeinanderfolgende Zustandsübergänge modellieren .
* Die Struktur von Zustandsübergängen wird durch eine Migrationsmatrix dargestellt .
* Die Entwicklung von Marktanteilen in einem Konkurrenzsystem kann durch Matrixmultiplikation abgebildet werden .
### Key facts
* Anfängliche Marktanteile eines Systems können als Vektor dargestellt werden .
* Die neue Verteilung der Marktanteile nach einer Periode ergibt sich aus der Multiplikation des alten Marktanteilsvektors mit der Migrationsmatrix .
* Die Iteration dieses Prozesses ermöglicht die Ermittlung der Verteilung nach mehreren Perioden oder das Langzeitverhalten .
* Eine weitere Iteration wird durch erneute Multiplikation des neuen Verteilungsvektors mit der Migrationsmatrix durchgeführt .
* Die Verteilung nach $n$ Wochen ($v_n$) ist das Ergebnis der Multiplikation der Anfangsverteilung ($v_0$) mit der Migrationsmatrix ($M$) hoch $n$: $v_n = M^n v_0$ .
* Nur die Potenzen der Migrationsmatrix müssen berechnet werden, um alle Übergangspfade für beliebige Anfangsverteilungen zu erhalten .
* Diese Methode setzt voraus, dass die Migrationsmatrix im Zeitverlauf konstant bleibt .
### Key concepts
* **Migrationsmatrix:** Eine Matrix, die angibt, wie sich Käufer von Produkten zwischen verschiedenen Zeitperioden verlagern .
* **Zustandsvektor:** Ein Vektor, der die Verteilung von Marktanteilen oder Zuständen zu einem bestimmten Zeitpunkt repräsentiert .
* **Iterative Anwendung:** Die wiederholte Anwendung der Migrationsmatrix auf den Zustandsvektor, um zukünftige Zustände zu prognostizieren .
* **Matrixpotenzierung:** Die wiederholte Multiplikation einer Matrix mit sich selbst, um langfristige Effekte von Übergängen zu erfassen .
* **Langzeitverhalten:** Das Verhalten eines Systems, wenn es über sehr viele Perioden läuft und sich ein stabiler Zustand einstellt .
### Implications
* Die Berechnung von Matrixpotenzen vereinfacht die Vorhersage von Systementwicklungen über lange Zeiträume erheblich .
* Das Modell ist auf verschiedene Phänomene außerhalb der Ökonomie übertragbar .
* Die Stabilität der Migrationsmatrix ist entscheidend für die Zuverlässigkeit der Vorhersage des Langzeitverhaltens .
- > **Tip:** Die Kernidee ist, dass die Matrix $M$ die einmalige Transformation beschreibt
- $M^2$ beschreibt die Transformation nach zwei Schritten, $M^3$ nach drei Schritten, und allgemein $M^n$ beschreibt die Transformation nach $n$ Schritten
- > **Example:** Bei einem Markt mit 3 Produkten A, B, C mit Marktanteilen (40%, 20%, 40%) und einer Migrationsmatrix
- > $$
- > M = \begin{pmatrix}
- > 0,8 & 0 ,1 & 0 ,1 \\
- > 0,2 & 0 ,7 & 0 ,1 \\
---
# Lineare Gleichungssysteme
### Kernidee
* Lineare Gleichungen beinhalten Variablen nur in der ersten Potenz, ohne Produkte von Variablen .
* Lineare Gleichungssysteme (LGS) sind Sammlungen von linearen Gleichungen .
* LGS können unlösbar, eindeutig lösbar oder mehrdeutig lösbar sein .
### Wichtige Fakten
* Eine lineare Gleichung in einer Variablen $ax + b = c$ hat genau eine Lösung, wenn $a \neq 0$ ist .
* Wenn $a = 0$ in $ax + b = c$, existiert entweder keine Lösung ($b \neq c$) oder unendlich viele Lösungen ($b = c$) .
* Eine allgemeine lineare Gleichung in $n$ Variablen lautet $\sum_{i=1}^{n} a_i x_i = b$ .
* Die Werte $a_i$ sind die Koeffizienten der Gleichung .
* Eine einzelne lineare Gleichung in mehr als einer Variablen ist nicht eindeutig lösbar .
* Ein LGS kann durch eine Matrizengleichung $Ax = b$ dargestellt werden .
* $A$ ist die Koeffizientenmatrix der linken Seiten des Systems .
* $x$ ist der Vektor der Unbekannten und $b$ der Vektor der Konstanten auf der rechten Seite .
### Kernkonzepte
* **Lineare Gleichung:** Keine Potenzen höher als eins, keine Produkte von Variablen. Beispiele, die keine linearen Gleichungen sind: $xy = 0$, $y = \frac{1}{x}$, $x^2 - 2x + 1 = 0$ .
* **Lösung einer linearen Gleichung in einer Variablen:** $x = \frac{c-b}{a}$ für $a \neq 0$ .
* **Lösung einer einzelnen linearen Gleichung in $n > 1$ Variablen:** Fixieren von $n-1$ Variablen erlaubt die Bestimmung der letzten Variablen .
* **Beispiel für eine einzelne lineare Gleichung:** $2x_1 + 4x_2 + 3x_3 - x_4 = 2$. Setzt man $x_2=0, x_3=0$, erhält man $x_4 = 2x_1 - 2$ für beliebige $x_1$ .
* **Lineares Gleichungssystem (LGS):** Eine Sammlung von $m$ linearen Gleichungen mit $n$ Variablen .
* **Koeffizientenmatrix $A$:** Eine Matrix, deren Einträge $a_{ij}$ die Koeffizienten der Variablen in den Gleichungen sind .
* **Vektor der Unbekannten $x$:** Ein Spaltenvektor mit den Variablen des Systems .
* **Vektor der Konstanten $b$:** Ein Spaltenvektor mit den Werten auf der rechten Seite der Gleichungen .
### Lernziele
* Beherrschen von Lösungsverfahren für 2x2 Systeme und deren geometrische Interpretation .
* Beherrschen des Gaußschen Eliminationsverfahrens für größere Systeme .
* Verinnerlichen der Äquivalenz zwischen LGS und Matrizengleichungen .
* Vertrautheit mit der Behandlung von unlösbaren und mehrdeutig lösbaren Systemen .
* Verständnis der Anwendungsfülle des Gaußschen Algorithmus .
### Implikationen
* Die Trichotomie (genau eine, keine, oder unendlich viele Lösungen) gilt auch für Systeme mit mehreren Variablen .
---
# Lineare Gleichungssysteme und ihre Lösungsmethoden
### Core idea
* Lineare Gleichungssysteme (LGS) bestehen aus mehreren linearen Gleichungen mit denselben Unbekannten .
* Ein LGS kann in Matrixform als $Ax = b$ dargestellt werden .
### Key facts
* Die Lösbarkeit eines LGS hängt von der Koeffizientenmatrix und der rechten Seite ab .
* Ein direktes Einsetzen einer Kandidatenlösung prüft die Lösbarkeit .
* Widersprüchliche Gleichungen führen zu keiner Lösung .
* Für 2x2-Systeme gibt es mehrere Lösungsverfahren .
### Key concepts
* Trichotomie der Lösungsmenge: keine Lösung, genau eine Lösung, oder unendlich viele Lösungen .
* Matrixform $Ax = b$: $A$ ist die Koeffizientenmatrix, $x$ der Vektor der Unbekannten, $b$ der Vektor der rechten Seiten .
* Lösen durch Einsetzen: Eine Variable wird isoliert und in die andere Gleichung eingesetzt .
* Beispiel: $x - 2y = 1$, $3x - y = 18 \Rightarrow x = 1 + 2y \Rightarrow 3(1+2y) - y = 18 \Rightarrow y = 3, x = 7$ .
* Lösen durch Gleichsetzen: Beide Gleichungen werden nach derselben Variablen aufgelöst und gleichgesetzt .
* Beispiel: $2x - y = 5$, $3x + y = 5 \Rightarrow y = 2x - 5, y = 5 - 3x \Rightarrow 2x - 5 = 5 - 3x \Rightarrow x = 2, y = -1$ .
* Lösen durch Addition von Gleichungen: Vielfache von Gleichungen werden addiert, um eine Variable zu eliminieren .
### Implications
* Ein LGS kann widersprüchlich sein, was keine Lösung bedeutet .
* Eindeutige Lösungen existieren, wenn die Gleichungen konsistent und unabhängig sind .
* Mehrdeutige Lösungen entstehen, wenn Gleichungen linear abhängig sind .
---
# Methoden zum Lösen linearer Gleichungssysteme
### Kernideen
* Lineare Gleichungssysteme können durch verschiedene algebraische Methoden gelöst werden, die auf der Manipulation der Gleichungen basieren.
* Ziel ist es, das System schrittweise zu vereinfachen, um die Werte der Unbekannten zu isolieren.
* Die Verfahren sollen auf den allgemeinen Fall von $m$ Gleichungen mit $n$ Unbekannten übertragbar sein .
### Wichtige Konzepte und Techniken
* **Gleichsetzungsverfahren:**
* Beide Gleichungen werden nach derselben Variablen aufgelöst .
* Die resultierenden Ausdrücke werden gleichgesetzt, um eine Gleichung mit nur einer Variablen zu erhalten .
* Diese Gleichung wird nach der verbleibenden Variablen aufgelöst .
* Der gefundene Wert wird in eine der ursprünglichen Gleichungen eingesetzt, um den Wert der anderen Variablen zu ermitteln .
* **Beispiel:**
* Gegeben: $2x - y = 5$ und $3x + y = 5$ .
* Nach $y$ aufgelöst: $y = 2x - 5$ und $y = 5 - 3x$ .
* Gleichsetzen: $2x - 5 = 5 - 3x$ .
* Auflösen nach $x$: $5x = 10 \implies x = 2$ .
* Auflösen nach $y$: $y = 2 - 5 = -1$ [2](#page=2).
* **Additionsverfahren (Eliminationsverfahren):**
* Ein geeignetes Vielfaches einer Gleichung wird zu einer anderen addiert .
* Ziel ist die Elimination einer Variablen, sodass nur eine Gleichung mit einer Unbekannten übrig bleibt .
* Die verbleibende Variable wird aufgelöst .
* Der gefundene Lösungswert wird in eine der ursprünglichen Gleichungen eingesetzt, um den Wert der eliminierten Variablen zu finden .
* **Beispiel:**
* Gegeben: $2x + 2y = 6$ und $4x - 3y = 26$ .
* Multipliziere die erste Gleichung mit $-2$: $-4x - 4y = -12$ .
* Addiere dies zur zweiten Gleichung: $(4x - 3y) + (-4x - 4y) = 26 + (-12)$ .
* Ergebnis: $-7y = 14 \implies y = -2$ .
* Setze $y=-2$ in die erste Gleichung ein: $2x + 2(-2) = 6 \implies 2x - 4 = 6 \implies 2x = 10 \implies x = 5$ .
### Verallgemeinerung
---
# Teilbedarfsrechnung und Gozintograph
### Core idea
* Die Teilbedarfsrechnung dient der Darstellung mehrstufiger Fertigungsprozesse mittels eines Gozintographen .
* Das Ziel ist die Umwandlung eines linearen Gleichungssystems in eine obere Dreiecksgestalt zur trivialen Lösung .
### Key facts
* Ein Gozintograph visualisiert Fertigungsprozesse mit mehreren Stufen .
* Zahlen an Pfeilen im Graphen geben den Bedarf an Einheiten einer Quelle für eine Einheit des Ziels an .
* Zahlen an Pfeilen aus Endprodukten geben die zu fertigenden Stückzahlen an .
* Der Graph lässt sich in ein System linearer Gleichungen übersetzen .
* Das System kann in eine obere Dreiecksgestalt gebracht werden .
* Die Lösung des Systems in oberer Dreiecksgestalt ist trivial .
### Key concepts
* **Gozintograph:** Eine grafische Darstellung von Fertigungsprozessen zur Ermittlung von Bedarfen auf verschiedenen Stufen .
* **Bedarfsangabe:** Ein Wert $x$ auf einem Pfeil bedeutet, dass $x$ Einheiten des Vorprodukts für eine Einheit des Folgeprodukts benötigt werden .
* **Endprodukt-Stückzahlen:** Die Mengen, die von den Endprodukten hergestellt werden müssen .
* **Lineares Gleichungssystem:** Eine mathematische Formulierung, die die Beziehungen zwischen den Mengen der verschiedenen Produktionsstufen abbildet .
* **Obere Dreiecksgestalt:** Eine spezielle Form eines linearen Gleichungssystems, bei der die Koeffizienten unterhalb der Hauptdiagonale null sind, was die Lösung vereinfacht .
* **Eliminationsverfahren / Gauss'scher Algorithmus:** Methoden zur Transformation eines Gleichungssystems in die obere Dreiecksgestalt .
### Implications
* Die Teilbedarfsrechnung ermöglicht eine präzise Planung der benötigten Mengen für alle Produktionsstufen .
* Die Darstellung als Gleichungssystem erlaubt die Anwendung algebraischer Lösungsverfahren .
* Die Umwandlung in die obere Dreiecksgestalt vereinfacht die Berechnung erheblich .
* Dies ist ein grundlegender Schritt für effiziente Produktionssteuerung und Materialbedarfsplanung .
- > **Tip:** Verstehen Sie die Bedeutung der Zahlen an den Pfeilen im Gozintographen als Verbrauchsverhältnisse
- > **Example:** Gegeben sind die Stückzahlen $x_6 = 100$ und $x_7 = 150$
- Das System zeigt, dass $x_3 = 5x_6 + 5x_7$ benötigt wird, was zu $x_3 = 5 \cdot 100 + 5 \cdot 150 = 500 + 750 = 1250$ führt
---
# Partialbruchzerlegung rationaler Funktionen
### Core idea
* Zerlegung einer rationalen Funktion in eine Summe einfacherer Brüche .
* Diese Brüche haben Nenner der Form $(x-x_i)$ oder $(x^2+px+q)$ .
* Die Unstetigkeitsstellen der Funktion sind die Pole der elementaren Summanden .
### Key facts
* Für eine rationale Funktion $f(x) = \frac{\sum_{i=0}^n a_i x^i}{\sum_{j=0}^m b_j x^j}$ mit $m$ Nullstellen $x_1, \dots, x_m$ im Nenner, lautet der Ansatz der Partialbruchzerlegung: $f(x) = \sum_{k=1}^m \frac{A_k}{x-x_k}$ .
* Die Koeffizienten $A_k$ werden durch Gleichsetzen der Zähler nach dem Aufsummieren der Partialbrüche auf einen gemeinsamen Nenner bestimmt .
* Dies führt zu einem linearen Gleichungssystem für die unbekannten Konstanten $A_k$ .
* Die Lösbarkeit und Eindeutigkeit des Systems hängen von der Anzahl der Gleichungen und Unbekannten ab .
### Key concepts
* **Rationale Funktion**: Quotient zweier Polynome .
* **Partialbruchzerlegung**: Zerlegung einer rationalen Funktion in eine Summe von Partialbrüchen .
* **Pol**: Eine Nullstelle des Nenners einer rationalen Funktion .
* **Lineares Gleichungssystem (LGS)**: Ein System von Gleichungen, in denen Variablen nur linear vorkommen .
* **Elementare Zeilenoperationen**: Operationen zur Umformung von LGS, die die Lösungsmenge nicht ändern .
### Implications
* Die Partialbruchzerlegung vereinfacht die Integration rationaler Funktionen erheblich .
* Das Finden der Zerlegung kann auf das Lösen eines linearen Gleichungssystems reduziert werden .
* Das Verständnis von LGS und Zeilenoperationen ist entscheidend für die Lösung .
- > **Tip:** Die Koeffizienten der Partialbrüche können auch mit der Heaviside-Methode bestimmt werden, was oft schneller ist als das explizite Aufstellen und Lösen des LGS
- > **Example:** Für $f(x) = \frac{x+4}{x^2-x-2}$, mit Nennernullstellen $x_1=-1$ und $x_2=2$, lautet der Ansatz $\frac{A_1}{x+1} + \frac{A_2}{x-2}$
- Durch Gleichsetzen der Zähler $x+4 = A_1(x-2) + A_2(x+1)$ und Auflösen des LGS $\begin{cases} A_1 + A_2 = 1 \\ -2A_1 + A_2 = 4 \end{cases}$ erhält man $A_1=-1$ und $A_2=2$, also $\frac{-1}{x+1} + \frac{2}{x-2}$
---
# Das Gaußsche Eliminationsverfahren zur Lösung linearer Gleichungssysteme
### Kernidee
* Das Gaußsche Eliminationsverfahren transformiert ein lineares Gleichungssystem schrittweise in eine einfach zu lösende obere Dreiecksform .
* Dies geschieht durch Anwendung elementarer Zeilenoperationen, die die Lösungsmenge des Systems unverändert lassen .
### Schlüsselkonzepte
* **Obere Dreiecksgestalt:** Ein System, bei dem alle Koeffizienten unterhalb der Hauptdiagonale Null sind .
* **Elementare Zeilenoperationen:**
* Vertauschen von Zeilen .
* Multiplikation einer Zeile mit einer Konstanten ungleich Null .
* Addition des Vielfachen einer Zeile zu einer anderen Zeile .
* **Erweiterte Koeffizientenmatrix:** Matrixdarstellung des Systems, bei der der Ergebnisvektor an die Koeffizientenmatrix angefügt wird .
* **Normierung:** Division einer Zeile, um den führenden Koeffizienten auf 1 zu setzen .
### Vorgehensweise
- **Schritt 1: Erzeugung von Nullen in der ersten Spalte:** Eine Zeile mit einem Nicht-Null-Koeffizienten für $x_1$ wird zur ersten Zeile gemacht. Durch Addition geeigneter Vielfacher der ersten Zeile werden die
* **Schritt 2: Fortsetzung auf Restmatrix:** Dieser Prozess wird rekursiv auf die verbleibende (kleinere) Matrix angewendet, um Nullen unterhalb der Diagonale für $x_2$, $x_3$, usw. zu erzeugen .
* **Rücksubstitution:** Nach Erreichen der oberen Dreiecksform wird die letzte Variable bestimmt und dann sukzessive in die oberen Gleichungen eingesetzt, um die übrigen Variablen zu finden .
### Varianten
* **Verzicht auf Normierung:** Man kann auf die Normierung verzichten und erhält eine allgemeinere obere Dreiecksform, die ebenfalls durch Rücksubstitution lösbar ist .
* **Einheitsmatrix:** Durch weitere Zeilenoperationen kann die Matrix in eine Einheitsmatrix umgewandelt werden, wodurch die Lösung direkt ablesbar ist .
### Mögliche Endzustände
* **Eindeutige Lösung:** Wenn eine obere Dreiecksform mit Nicht-Null-Diagonalelementen erreicht wird .
* **Unendlich viele Lösungen:** Wenn eine Zeile zu $0=0$ reduziert wird, was auf eine freie Variable hindeutet .
* **Keine Lösung:** Wenn eine Zeile zu $0 = b'$ mit $b' \neq 0$ reduziert wird .
- > **Tip:** Die Lösbarkeit und Eindeutigkeit des Systems wird erst am Ende des Verfahrens ersichtlich, nicht durch die Wahl der Zeilenoperationen
- > **Example:** Ein System wie
- > $$
- > \begin{pmatrix}
- > 2 & -1 & 6 & 10 \\
- > 1 & 1 & -2 & 4 \\
- > 1 & -2 & 8 & 6
- > \end{pmatrix}
---
# Unlösbare und mehrdeutige lineare Gleichungssysteme
### Kernidee
* Lineare Gleichungssysteme (LGS) können eindeutig lösbar, mehrdeutig lösbar (unendlich viele Lösungen) oder unlösbar (keine Lösung) sein .
* Der Gauß-Algorithmus (Umformung zur Zeilenstufenform) zeigt die Lösbarkeit des Systems an .
### Schlüsselfakten
* Ein LGS ist mehrdeutig lösbar, wenn eine Zeile in der Zeilenstufenform zu $0 = 0$ reduziert wird, was bedeutet, dass eine Variable frei wählbar ist .
* Bei mehrdeutiger Lösbarkeit ist die Anzahl der freien Variablen gleich der Anzahl der Unbekannten minus dem Rang der Koeffizientenmatrix .
* Ein LGS ist unlösbar, wenn während des Gauß-Algorithmus ein Widerspruch entsteht, z.B. $0 = -18$ .
* Für quadratische Matrizen ($n=m$) ist die eindeutige Lösbarkeit der Regelfall, ähnlich wie sich zwei Geraden in der Ebene in genau einem Punkt schneiden .
* Wenn die Anzahl der Gleichungen ungleich der Anzahl der Unbekannten ist ($n \neq m$), sind häufige Ausgänge: keine Lösung (mehr Gleichungen als Unbekannte) oder unendlich viele Lösungen (mehr Unbekannte als Gleichungen) .
### Schlüsselkonzepte
* **Mehrdeutige Lösbarkeit:** Tritt auf, wenn die letzte Zeile der augmentierten Matrix der Zeilenstufenform eine Gleichung der Form $0=0$ ergibt .
* **Freie Variablen:** Variablen, die nicht durch Pivot-Elemente bestimmt sind und deren Werte frei gewählt werden können, was zu unendlich vielen Lösungen führt .
* **Unlösbarkeit (Widerspruch):** Erzeugt durch eine Zeile der Form $0 = c$ mit $c \neq 0$ in der Zeilenstufenform der augmentierten Matrix .
* **Rang der Koeffizientenmatrix:** Die Anzahl der Nicht-Null-Zeilen in der Zeilenstufenform der Koeffizientenmatrix .
### Implikationen
* Die Ausführung des Gauß-Algorithmus ist notwendig, um definitiv zu entscheiden, ob ein System eindeutig, mehrdeutig oder gar nicht lösbar ist .
* Die Anzahl der Unbekannten und Gleichungen gibt einen Hinweis auf die wahrscheinliche Art der Lösbarkeit, ist aber keine Garantie .
* Sonderfälle bei quadratischen Matrizen umfassen parallele oder identische Geraden, die zu mehrdeutiger oder keiner Lösung führen können .
- > **Tip:** Achten Sie auf die letzte Zeile der augmentierten Matrix nach der Umformung
- Eine Zeile aus Nullen deutet auf mehrdeutige Lösbarkeit hin, ein Widerspruch (z
- B
- $0=-18$) auf Unlösbarkeit
- > **Beispiel:** Ein System, das nach Gauß-Elimination zur Matrix
- $$
- \begin{pmatrix}
- 2 & 3 & -1 & 12 \\
- 0 & -9 & 9 & -18 \\
- 0 & 0 & 0 & -18
- \end{pmatrix}
---
# Grundlagen des Funktionsbegriffs und Eigenschaften
### Kernidee
* Reelle Funktionen sind Abbildungen mit Definitions- und Wertebereichen als Teilmengen von R .
* Zwei Funktionen sind gleich, wenn sie übereinstimmende Definitions- und Wertebereiche sowie dieselbe Abbildungsvorschrift haben .
* Funktionen sind eindeutig durch ihren Graphen bestimmt .
### Schlüsselkonzepte
* **Lineare Funktionen:** $f(x) = ax + b$ mit $a, b \in \mathbb{R}$ .
* **Potenzfunktionen:** $f(x) = x^b$ .
* **Exponentialfunktion und Logarithmus:** $f(x) = \exp(x)$, $f(x) = \log(x)$ .
* **Polynomfunktionen:** $p(x) = a_0 + a_1x + \dots + a_nx^n$ mit $a_i \in \mathbb{R}$ .
* **Trigonometrische Funktionen:** $f(x) = \sin(x)$, $f(x) = \cos(x)$ .
### Monotonie
* **Monoton steigend/fallend:** $x \leq y \Rightarrow f(x) \leq (\geq) f(y)$ für alle $x, y \in D$ .
* **Streng monoton steigend/fallend:** $x < y \Rightarrow f(x) < (>) f(y)$ für alle $x, y \in D$ .
* Streng monotone Funktionen sind injektiv und somit umkehrbar .
### Beschränktheit
* Eine Funktion $f: D \rightarrow \mathbb{R}$ ist beschränkt, wenn ihr Wertebereich in einem Intervall endlicher Länge liegt ($u \leq f(x) \leq o$) .
* Beispiele für beschränkte Funktionen: trigonometrische Funktionen, sgn(x), konstante Funktionen .
* Beispiele für unbeschränkte Funktionen auf $D=\mathbb{R}$: lineare Funktionen, $x^2$, $\exp(x)$ .
### Symmetrien
* **Gerade Funktionen:** $f(-x) = f(x)$ für alle $x \in D$ (symmetrisch zur y-Achse) .
* Beispiele: $x^2$, $\cos(x)$ .
* **Ungerade Funktionen:** $f(-x) = -f(x)$ für alle $x \in D$ (punktsymmetrisch zum Ursprung) .
* Beispiele: $x^3$, $\sin(x)$, sgn(x) .
### Periodizität
* Eine Funktion $f: \mathbb{R} \rightarrow \mathbb{R}$ ist periodisch mit Periode $c \in \mathbb{R}$, wenn $f(x+c) = f(x)$ für alle $x \in \mathbb{R}$ .
* Bekannte Beispiele sind $\sin(x)$ und $\cos(x)$ mit Periode $2\pi$ .
### Verkettung von Funktionen
* Man kann Funktionen verketten, wenn der Bildbereich der ersten Funktion im Definitionsbereich der zweiten enthalten ist .
* Die Komposition linearer Funktionen ergibt wieder eine lineare Funktion .
* Anwendung: Translationen, Streckungen/Stauchungen von Graphen, Variation von Periodenlänge und Amplitude .
### Polynome
* Ein Polynom ist ein Ausdruck der Form $p(x) = a_0 + a_1x + \dots + a_nx^n$ .
* Der Grad eines Polynoms ist die größte Zahl $n$, für die $a_n \neq 0$ gilt .
---
# Polynomdivision und der Rest
### Kernidee
* Polynomdivision ermöglicht die Darstellung eines Polynoms $p(x)$ als Produkt eines Quotientenpolynoms $h(x)$ und eines Divisors $q(x)$, plus eines Restpolynoms $r(x)$ .
* Die Division mit Rest für Polynome ähnelt der für natürliche Zahlen .
### Wichtige Fakten
* Gegeben Polynome $p(x)$ (Grad $n$) und $q(x)$ (Grad $m$) mit $n \ge m$, existieren eindeutige Polynome $h(x)$ und $r(x)$ so, dass $p(x) = h(x) \cdot q(x) + r(x)$ .
* Der Grad von $r(x)$ muss kleiner sein als der Grad von $q(x)$ .
* Wenn $p(x)$ und $q(x)$ rationale Koeffizienten haben, dann haben auch $h(x)$ und $r(x)$ rationale Koeffizienten .
* Die Division $p(x): q(x)$ geht ohne Rest auf, wenn $q(x)$ ein Teiler von $p(x)$ ist .
### Schlüsselkonzepte
* Nullstelle: Ein Wert $x_0 \in \mathbb{R}$ ist eine Nullstelle von $p(x)$, wenn $p(x_0) = 0$ .
* Faktorisierungssatz: $x_0$ ist genau dann eine Nullstelle von $p(x)$, wenn die Division von $p(x)$ durch $(x - x_0)$ Rest 0 ergibt .
* Das bedeutet, $(x - x_0)$ ist ein Linearfaktor von $p(x)$ .
* Die Division eines Polynoms $p(x)$ durch ein lineares Polynom $(x - x_0)$ ergibt $p(x) = h(x)(x - x_0) + r$, wobei $r$ eine Konstante ist .
* Wenn $p(x_0) = 0$, dann folgt aus $p(x_0) = h(x_0)(x_0 - x_0) + r$, dass $r = 0$ .
### Implikationen
* Die Kenntnis von Nullstellen eines Polynoms erlaubt dessen Faktorisierung in Linearfaktoren .
* Wenn $x_1$ und $x_2$ Nullstellen eines Polynoms sind, sind $(x - x_1)$ und $(x - x_2)$ Teiler dieses Polynoms .
* Polynomdivision ist ein wichtiges Werkzeug zur Untersuchung von Nullstellen und Faktoren von Polynomen .
- > **Beispiel:** Bei der Division von $(x^4 -x^3 -28x^2 -20x +48)$ durch $(x^2 +x -2)$ ist das Ergebnis $x^2 -2x -24$ und der Rest ist $0$
- Da der Rest $0$ ist, sind die Nullstellen von $(x^2 +x -2)$ auch Nullstellen des Ausgangspolynoms
---
# Verhalten von Konvergenz unter Funktionen und die Definition von Stetigkeit
### Core idea
- The behavior of convergent sequences under functions is crucial for understanding function properties.
- Stetigkeit (continuity) of a function preserves the convergence of sequences.
### Key facts
- For a function $f: D \to \mathbb{R}$ and a sequence $(x_n)_{n \in \mathbb{N}}$ in $D$, the convergence of $(x_n)$ does not generally imply the convergence of the image sequence $(f(x_n))_{n \in \mathbb{N}}$ .
- A constant function $f(x) = c$ makes $f(x_n)$ always convergent, regardless of $(x_n)$ .
- A constant sequence $(x_n) = c$ makes $f(x_n)$ always convergent, regardless of $f$ .
- Functions with jumps, like $f(x) = \operatorname{sgn}(x)$, can cause $f(x_n)$ to not converge even if $(x_n)$ converges .
- Even sequences like $x_n = (-1)^n$ can lead to a convergent image sequence if $f$ is an even function .
### Key concepts
- **Definition of continuity (sequence-based):** A function $f$ is continuous at $x_0 \in D$ if for every convergent sequence $(x_n)_{n \in \mathbb{N}}$ in $D$, the image sequence $(f(x_n))_{n \in \mathbb{N}}$ converges to $f(x_0)$ .
- **Definition of continuity ($\epsilon-\delta$):** A function $f: D \to \mathbb{R}$ is continuous at $x_0 \in D$ if for every $\epsilon > 0$, there exists a $\delta > 0$ such that for all $x \in D$ with $|x - x_0| < \delta$, it holds that $|f(x) - f(x_0)| < \epsilon$
- **Equivalence of definitions:** The sequence-based definition of continuity is equivalent to the $\epsilon-\delta$ definition .
- **Proof of equivalence (negation):** If continuity is violated, there exists an $\epsilon > 0$ such that for any $\delta > 0$, there is an $x \in D$ with $|x - x_0| < \delta$ but $|f(x) - f(x_0)| > \epsilon$. This allows constructing a sequence
- **Proof of equivalence (direction):** If the sequence definition is violated, there's a sequence $(x_n) \to x_0$ with $(f(x_n))$ not converging to $f(x_0)$. This implies an $\epsilon > 0$ and a subsequence $(x_k)$ with $|f(x_k) - f(x_0)| > \epsilon$.
### Implications
- The $\epsilon-\delta$ definition is an intrinsic characterization of continuity, independent of sequences .
- Continuity is fundamental for understanding function behavior, especially concerning limits and convergence .
- The concept of continuity is essential for algorithms like bisection for finding roots of polynomial equations .
### Common pitfalls
- Assuming convergence of $(f(x_n))$ simply because $(x_n)$ converges, without considering properties of $f$ .
- Misunderstanding that any arbitrary function will preserve sequence convergence .
---
# Eigenschaften und Anwendungen stetiger Funktionen
### Kernideen
* Stetigkeit ist eine grundlegende Eigenschaft von Funktionen, die besagt, dass kleine Änderungen im Eingabewert nur kleine Änderungen im Ausgabewert hervorrufen .
* Stetige Funktionen haben wichtige Eigenschaften bezüglich der Abbildung von Intervallen.
* Der Zwischenwertsatz garantiert die Existenz von Nullstellen für stetige Funktionen auf abgeschlossenen Intervallen, unter bestimmten Bedingungen.
### Schlüsselfakten
* Summen und Produkte stetiger Funktionen sind stetig .
* Kompositionen stetiger Funktionen sind stetig .
* Polynomfunktionen sind stetig .
* Konstante, lineare und quadratische Funktionen sind stetig .
* Die Funktion $f(x) = \frac{1}{x}$ ist außerhalb von $x_0 = 0$ stetig, aber bei $x_0 = 0$ unstetig .
### Wichtige Konzepte
* **Satz über Bildbereiche von Intervallen:** Wenn $f: D \to \mathbb{R}$ stetig ist und $D$ ein Intervall, dann ist auch $f(D)$ ein Intervall .
* **Zwischenwertsatz für Nullstellen:** Ist $f$ stetig auf $[a,b]$ und $f(a) < 0 < f(b)$, dann existiert mindestens eine Nullstelle $x_0 \in (a,b)$ mit $f(x_0) = 0$ .
* Der Beweis des Zwischenwertsatzes nutzt die Urbildmengen von Intervallen und führt zur Annahme, dass der Bildbereich kein Intervall ist, was zu einem Widerspruch führt .
* Die Aussage des Zwischenwertsatzes zur Nullstellengarantie ist nicht konstruktiv, d.h., sie liefert kein effektives Verfahren zur Nullstellensuche .
### Implikationen
* Die Stetigkeit ermöglicht es, Aussagen über das Verhalten von Funktionen auf ganzen Intervallen zu treffen.
* Der Zwischenwertsatz ist grundlegend für viele Beweise und Anwendungen in der Analysis.
* Da keine allgemeinen exakten Algorithmen für Nullstellen existieren (besonders bei Kombinationen von Funktionen), sind Näherungsverfahren wie Regula Falsi und das Halbierungsverfahren notwendig .
- > **Tip:** Verstehen Sie den Beweis des Zwischenwertsatzes, da er die Grundlage für wichtige Algorithmen zur Nullstellensuche bildet
---
# Näherungsverfahren zur Nullstellensuche
### Kernidee
* Keine exakten Algorithmen für Nullstellensuche bei vielen Funktionen .
* Näherungsverfahren sind notwendig, basierend auf dem Zwischenwertsatz .
* Zwei gängige Verfahren: Regula Falsi und Halbierungsverfahren .
### Kernkonzepte
* **Voraussetzungen:** Stetige Funktion $f$ auf $[x_1, x_2]$ mit $\text{sgn}(f(x_1)) \neq \text{sgn}(f(x_2))$ und vorgegebene Schranke $\epsilon > 0$ .
* **Ziel:** Finden einer Nullstelle $x_3$ oder einer Annäherung $|f(x_3)| < \epsilon$.
### Regula Falsi
* Berechnet neue Approximation $x_3$ durch Verbindung der Punkte $(x_1, f(x_1))$ und $(x_2, f(x_2))$ .
* Formel für die neue Approximation: $x_3:= x_1 - \frac{x_2-x_1}{f(x_2)-f(x_1)} f(x_1)$ .
* Prüft $f(x_3) = 0$ oder $|f(x_3)| < \epsilon$ als Abbruchkriterium .
* Intervallgrenze wird angepasst: $x_2$ durch $x_3$ bei $f(x_3)f(x_1) < 0$, sonst $x_1$ durch $x_3$ .
### Halbierungsverfahren
* Berechnet neue Approximation $x_3$ als Mittelpunkt des aktuellen Intervalls .
* Formel für die neue Approximation: $x_3:= \frac{x_1+x_2}{2}$ .
* Prüft $f(x_3) = 0$ oder $|f(x_3)| < \epsilon$ als Abbruchkriterium .
* Intervallgrenze wird angepasst basierend auf dem Vorzeichen von $f(x_3)f(x_1)$ .
### Beispiel
* Funktion $f(x) = x^3 - 1.75x^2 + 2x - 3.5$ auf $ $, $\epsilon = 0.001$ [1](#page=1) [2](#page=2).
* $f = -2.25$, $f = 1.5$ [1](#page=1) [2](#page=2).
* Erste Iteration Halbierung: $x_3 = 1.5$, $f(1.5) = -1.0625$. Da $f(1.5)f > 0$, wird $x_1$ zu $1.5$ [1](#page=1) .
* Zweite Iteration Halbierung: $x_3 = 1.75$. $f(1.75) = 0$, exakte Nullstelle gefunden .
---
# Nullstellen und Singularitäten rationaler Funktionen
### Kernkonzepte
- Rationale Funktionen sind Quotienten zweier Polynomfunktionen $f(x) = \frac{P(x)}{Q(x)}$ .
- Ganzrationale Funktionen sind spezielle rationale Funktionen, bei denen der Nenner höchstens eine von Null verschiedene Konstante ist .
- Eine Darstellung einer rationalen Funktion ist eindeutig, wenn sie gekürzt ist (gemeinsame Faktoren im Zähler und Nenner sind herausdividiert) .
- Nullstellen einer rationalen Funktion sind die Nullstellen des Zählerpolynoms, sofern der Nenner an diesen Stellen nicht Null ist .
- Singularitäten einer rationalen Funktion sind Stellen, an denen der Nenner Null ist .
### Wichtige Fakten
- Die Nullstellen des Zählerpolynoms sind Kandidaten für Nullstellen der rationalen Funktion .
- Eine Nullstelle des Zählers kann eine Nullstelle des Nenners kompensieren .
- Wenn Zähler und Nenner einen gemeinsamen Linearfaktor haben, kann dieser gekürzt werden .
- Der Prozess des Kürzens gemeinsamer Linearfaktoren endet nach endlich vielen Schritten .
- Nullstellen des Nenners sind nicht zwangsläufig Pole der Funktion .
- Der maximale Definitionsbereich einer rationalen Funktion ist $\mathbb{R}$ abzüglich der Nullstellen des Nennerpolynoms .
### Schlüsselkonzepte
- **Haupthandlung:** Untersuchung des Zählers auf Nullstellen .
- **Einschränkung:** Der Nenner darf an der Stelle der Nullstelle des Zählers nicht Null sein .
- **Kompensation:** Gemeinsame Nullstellen von Zähler und Nenner können sich aufheben .
- **Hiebbare Singularität:** Eine Nullstelle des Nenners, die durch eine Nullstelle des Zählers kompensiert wird, sodass die Linearfaktoren gekürzt werden können .
- **Pole:** Stellen, an denen der Nenner Null ist und der Zähler nicht Null ist, nach Kürzung aller gemeinsamen Faktoren .
### Implikationen
- Die gekürzte Darstellung einer rationalen Funktion ist eindeutig .
- Eine Nullstelle der ursprünglichen Darstellung kann nach dem Kürzen keine Nullstelle mehr sein .
- Eine Nullstelle des Nenners kann eine hebbare Singularität oder ein Pol sein .
- Das Verständnis von Nullstellen und Singularitäten ist entscheidend für die Analyse des Verhaltens rationaler Funktionen .
### Beispiele
- **Beispiel iii:** $\frac{x^2 - 10x + 16}{x^2 - 5x + 6}$. Zähler und Nenner haben bei $x=2$ eine Nullstelle und den Faktor $(x-2)$. Gekürzt: $\frac{x-8}{x-3}$. $x=2$ ist keine Nullstelle, da der Nenner nun nicht Null ist. $x=2$ ist
- **Beispiel mit hemmbarer Singularität:** Wenn Zähler und Nenner bei $x_0$ beide Null sind, kann $x_0$ eine hemmbare Singularität darstellen, wenn der gemeinsame Faktor gekürzt werden kann und an $x_0$ der
---
# Klassifizierung von Funktionen und ihre Eigenschaften
### Kernideen
* Funktionen lassen sich in verschiedene Klassen einteilen: algebraische und transzendente Funktionen .
* Rationale Funktionen sind eine Untermenge der algebraischen Funktionen .
* Wurzelfunktionen sind Beispiele für algebraische Funktionen .
### Schlüsselfakten
* Eine Funktion $y = f(x)$ ist algebraisch, wenn sie eine Polynomgleichung der Form $p_0(x) + p_1(x)y + \dots + p_n(x)y^n = 0$ erfüllt .
* Rationale Funktionen sind spezielle algebraische Funktionen, die nur lineare Polynome in $x$ verwenden .
* Potenzfunktionen sind auf geeigneten Intervallen streng monoton und umkehrbar .
* Die n-te Wurzelfunktion ist die Umkehrfunktion der n-ten Potenzfunktion .
* Beispiele für Exponentialfunktionen sind $y = 3e^x$ und $y = \frac{1}{e^{x^2 - 2x - 1}}$ .
* Logarithmusfunktionen ergeben sich durch Auflösen von Exponentialgleichungen wie $y = a^x$ oder $y = e^x$ zu $x = \log_a y$ oder $x = \ln y$ .
### Schlüsselkonzepte
* **Algebraische Funktionen**: Funktionen, die die Gleichung $p_0(x) + p_1(x)y + \dots + p_n(x)y^n = 0$ erfüllen .
* **Transzendente Funktionen**: Funktionen, die nicht algebraisch sind .
* **Wurzelfunktionen**: Funktionen, die Potenzen und deren Summen sowie Wurzeln beinhalten .
* **Logistische Funktion**: Eine streng monoton anwachsende Funktion, beschränkt zwischen 0 und $k$, mit Sättigung bei $k$ .
* Die logistische Funktion wird durch $g(x) = \frac{k}{1 + \exp(f(x))}$ definiert, wobei $f(x)$ eine streng monoton fallende, unbeschränkte Funktion ist .
### Implikationen
* Wurzelfunktionen, wie $y = \sqrt{x^2 + \sqrt{x}}$, sind stets algebraisch .
* Die logistische Funktion modelliert Wachstumsprozesse mit einer Sättigungsgrenze .
- > **Tip:** Verstehen Sie die Hierarchie: Rationale Funktionen sind ein Spezialfall von algebraischen Funktionen, welche wiederum von transzendenten Funktionen abgegrenzt werden
- > **Beispiel:** Die Funktion $y = \sqrt{x^2 + \sqrt{x}}$ ist eine Wurzelfunktion und erfüllt die algebraische Gleichung $x^4 - x - 2x^2y^2 + y^4 = 0$
---
# Derivation von Funktionen
### Kernidee
* Die erste Ableitung einer Funktion misst die lokale Änderungsrate an einer Stelle .
* Sie ist definiert als der Grenzwert des Differenzenquotienten, wenn die Änderung der unabhängigen Variable gegen Null geht .
### Wichtige Fakten
* Der Differenzialquotient einer Funktion $f(x)$ an der Stelle $x$ ist definiert als $\lim_{\Delta x \to 0} \frac{f(x + \Delta x) - f(x)}{\Delta x}$ .
* Bezeichnungen für die erste Ableitung sind $\frac{d}{dx} f(x)$, $f'(x)$, $y'$, $\frac{dy}{dx}$ .
* Eine Funktion heißt differenzierbar, wenn ihr Differenzialquotient für alle $x$ im Definitionsbereich existiert .
* Die Produktregel besagt: $(fg)' = f'g + fg'$ .
* Die Ableitung von Potenzfunktionen folgt der Regel $(x^n)' = nx^{n-1}$ .
* Die Ableitung ist linear: $(a \cdot f + b \cdot g)'(x) = a \cdot f'(x) + b \cdot g'(x)$ für Konstanten $a, b \in \mathbb{R}$ .
* Für eine Polynomfunktion $y = \sum_{i=0}^n a_i x^i$ ist die Ableitung $y' = \sum_{i=0}^n a_i \cdot i \cdot x^{i-1}$ .
* Die Quotientenregel lautet für $y = \frac{f(x)}{g(x)}$ mit $g(x) \neq 0$: $y' = \frac{f'(x)g(x) - f(x)g'(x)}{g^2(x)}$ .
* Die Ableitung von $y = \frac{1}{x}$ ist $y' = -\frac{1}{x^2}$ .
### Wichtige Konzepte
* **Differenzialquotient:** Der Grenzwert der Sekantensteigungen .
* **Erste Ableitung:** Die Funktion, die den Differenzialquotienten für jeden Punkt angibt .
* **Produktregel:** Ermöglicht die Ableitung von Produkten zweier Funktionen .
* **Linearität der Ableitung:** Erlaubt die Ableitung von Linearkombinationen von Funktionen .
* **Anwendung auf Polynome:** Durch Produktregel und Linearität können alle Polynome abgeleitet werden .
* **Quotientenregel:** Ermöglicht die Ableitung von gebrochenrationalen Funktionen .
### Anwendungen
* Bestimmung der Ableitung von Produktfunktionen, ohne diese zuerst auszumultiplizieren .
* Beispiel: Ableitung von $y = (x^2 + 4)(x^3 - 2x + 4)$ mittels Produktregel .
* Beispiel: Ableitung von $y = x^2 e^x$ mittels Produktregel .
### Lernziele
* Verinnerlichung des Differenzialquotienten als Grenzwert der Sekantensteigungen .
* Anwendung der Regeln für die erste Ableitung (Produkt-, Ketten-, Quotientenregel etc.) .
* Beherrschung der Ableitungen für Standardfunktionen (Polynome, Exponential-, Logarithmus-, trigonometrische Funktionen, Wurzeln) .
* Kenntnis der Anwendungsvoraussetzungen und Grenzen der Ableitungsregeln .
---
# Kettenregel und Umkehrfunktionen
### Core idea
* Die Kettenregel und die Ableitung der Umkehrfunktion sind zentrale Werkzeuge zur Differentiation zusammengesetzter Funktionen und inverser Funktionen .
### Key facts
* Produktregel: $y' = f'(x)g(x) + f(x)g'(x)$ für $y = f(x)g(x)$ .
* Quotientenregel: $y' = \frac{f'(x)g(x) - f(x)g'(x)}{g(x)^2}$ für $y = \frac{f(x)}{g(x)}$, wobei $g(x) \neq 0$ .
* Kettenregel: Für $y = f(g(x))$ gilt $y' = f'(g(x)) \cdot g'(x)$ .
* Ableitung der Umkehrfunktion: Sei $x = g(y)$ die Umkehrfunktion von $y = f(x)$, dann ist $x' = \frac{1}{y'}$ .
* Die Ableitung von $\ln(x)$ ist $\frac{1}{x}$, abgeleitet aus der Umkehrfunktion der Exponentialfunktion .
* Die Ableitung von $\sqrt{f(x)}$ ist $\frac{f'(x)}{2\sqrt{f(x)}}$ .
### Key concepts
* Die Ableitung einer Funktion beschreibt ihre lokale Änderungsrate .
* Die Kettenregel wird angewendet, wenn eine Funktion in eine andere Funktion "eingehängt" ist (Komposition von Funktionen) .
* Die Ableitung der Umkehrfunktion ermöglicht die Bestimmung der Steigung der inversen Funktion anhand der Steigung der Originalfunktion .
* Exponential- und Logarithmusfunktion sind zueinander inverse Funktionen .
* Die Quadratwurzelfunktion ist die Umkehrfunktion der Quadratfunktion .
### Implications
* Die Regeln erlauben die Ableitung komplexer Funktionen ohne vorherige Ausmultiplikation oder Vereinfachung .
* Sie sind essenziell für das Verständnis von Umkehrrelationen in der Analysis .
* Die Ableitung von $y = (ax+b)^n$ ist $n(ax+b)^{n-1} \cdot a$ .
### Examples
* Ableitung von $y = (x^2+4)(x^3-2x+4)$ mit Produktregel: $y' = (2x)(x^3-2x+4) + (x^2+4)(3x^2-2)$ .
* Ableitung von $y = \frac{3x^2+2}{2x}$ mit Quotientenregel: $y' = \frac{3}{2} - \frac{1}{x^2}$ .
* Ableitung von $y = (x+2)^3$ mit Kettenregel: $y' = 3(x+2)^2 \cdot 1$ .
---
# Taylor-Approximation und Taylor-Reihe
### Kernidee
* Die Taylor-Reihe approximiert eine beliebig oft differenzierbare Funktion $f$ um einen Entwicklungspunkt $x_0$ mittels einer Potenzreihe .
* Die n-te endliche Partialsumme dieser Reihe ist das n-te Taylorpolynom .
### Schlüsselkonzepte
* **Definition Taylor-Reihe:** $Tf(x) = \sum_{i=0}^{\infty} \frac{f^{(i)}(x_0)}{i!} (x - x_0)^i$ .
* **Definition Taylor-Polynom:** $T_{f,n}(x)$ ist die n-te Partialsumme der Taylor-Reihe .
* **Abhängigkeit vom Entwicklungspunkt:** Die Gestalt der Taylor-Reihe und der Polynome hängt vom Entwicklungspunkt $x_0$ ab .
* **Restglied:** $R_n(x) = f(x) - T_{f,n}(x)$ misst die Abweichung der Approximation von der Funktion .
### Schlüsselfakten
* **Anwendung auf Polynome:** Für Polynomfunktionen ist die Taylor-Entwicklung eine einfache Substitution $x \mapsto x - x_0$ .
* **Beispiel Polynom:** Für $p(x) = (x - a)(x - b)$ entwickelt um $x=a$ ergibt sich $0 + (a - b)(x - a) + \frac{1}{2}(x - a)^2$ .
* **Taylor-Reihe der Exponentialfunktion um $x_0=0$:** $\sum_{i=0}^{\infty} \frac{1}{i!} x^i = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} +...$ .
* **Taylor-Reihe von $\sin x$ um $x_0=0$:** $\sum_{i=0}^{\infty} \frac{(-1)^j}{(2j + 1)!} x^{2j+1} = x - \frac{x^3}{3!} + \frac{x^5}{5!} -...$ .
* **Eigenschaften trigonometrischer Funktionen:** Ableitungen von $\sin x$ um $x_0=0$ zeigen Muster von 0, 1, -1 .
### Implikationen
* Eine gute Approximation liegt vor, wenn $\lim_{x \to \infty} R_n(x) = 0$ .
* Nur wenn das Restglied gegen Null geht, stellt die Taylor-Reihe die Funktion exakt dar .
* Die Taylor-Entwicklung kann Grenzen der Anwendung haben, z.B. bei der Approximationsgüte oder mangelnder Periodizität der Polynome .
* Idealerweise stimmt der Grenzwert der Taylor-Reihe mit der Ausgangsfunktion überein .
### Beispiele
* **Exponentialfunktion:** Die Taylor-Reihe für $e^x$ um $x_0=0$ konvergiert überall gegen $e^x$ .
* **Sinusfunktion:** Die Taylor-Reihe für $\sin x$ um $x_0=0$ konvergiert überall gegen $\sin x$ .
* **Geometrische Reihe:** $\sum_{j=0}^{\infty} x^j = \frac{1}{1 - x}$ ist ein Beispiel für eine Funktion, deren Taylor-Reihe außerhalb der Polstellen übereinstimmt .
- > **Tip:** Achten Sie auf die genaue Formel für die Ableitungen und deren Auswertung am Entwicklungspunkt $x_0$
- > **Tip:** Für Polynome sind die Ableitungen ab einem gewissen Grad Null, was die Entwicklung vereinfacht
---
# Das Restglied der Taylor-Approximation und seine Darstellungen
### Core idea
- Das Restglied $R_n(x)$ beschreibt den Fehler der Taylor-Approximation $T_{f,n}(x)$ einer Funktion $f(x)$.
- Eine gute Approximation erfordert, dass das Restglied gegen Null geht, wenn $|x| \to \infty$ .
### Key facts
- Das Restglied $R_n(x)$ ist definiert als die Differenz zwischen der Funktion $f(x)$ und ihrem Taylorpolynom $n$-ten Grades $T_{f,n}(x)$: $R_n(x):= f(x) - T_{f,n}(x)$ .
- Für viele Funktionen wie Polynome, Exponential- und Logarithmusfunktionen, trigonometrische Funktionen und rationale Funktionen stimmt der Grenzwert der Taylorreihe mit der Funktion überein .
- Die unendliche geometrische Reihe $\sum_{j=0}^{\infty} x^j = \frac{1}{1-x}$ ist ein charakteristisches Beispiel für eine rationale Funktion .
### Key concepts
- **Integralform des Restglieds:** $R_n(x) = \frac{1}{n!} \int_{x_0}^{x} (x-t)^n f^{(n+1)}(t) dt$ .
- **Lagrange-Form des Restglieds:** $R_n(x) = \frac{f^{(n+1)}(x_1)}{(n+1)!} (x-x_0)^{n+1}$, wobei $x_1$ zwischen $x_0$ und $x$ liegt .
- **Konvergenz der Exponentialfunktion:** Für $f(x) = e^x$ konvergiert das Restglied gegen 0, da $(n+1)!$ schneller wächst als $x^{n+1}$ .
- **Konvergenz trigonometrischer Funktionen:** Für $f(x) = \sin(x)$ sind die Ableitungen betragsmäßig durch 1 beschränkt, was $|R_n(x)| \le \frac{|x|^{n+1}}{(n+1)!}$ impliziert, und somit konvergiert $R_n(x)$ gegen 0 .
### Implications
- Die Taylorreihe stellt die Funktion nur dann exakt dar, wenn die Taylor-Approximation bei Grenzwertbildung des Grades gegen die Funktion konvergiert ($lim_{n \to \infty} R_n(x) = 0$) .
- Für periodische Funktionen wie $\sin(x)$ können andere Entwicklungen (z.B. Fourier-Reihen) bessere lokale Approximationen ergeben als eine Taylor-Reihe für große Abstände vom Entwicklungspunkt .
- Es existieren beliebig oft differenzierbare Funktionen, deren Taylor-Reihen im Entwicklungspunkt nicht mit der Funktion übereinstimmen (z.B. die Funktion $\exp(-1/x^2)$ bei $x_0=0$) .
- Praktische Anwendungen umfassen die Bestimmung vernachlässigbarer Effekte, asymptotisches Verhalten von Algorithmen und den Error-Backpropagation-Algorithmus .
### Common pitfalls
- Annahme, dass jede beliebig oft differenzierbare Funktion durch ihre Taylor-Reihe dargestellt wird .
- Erwarten, dass eine Taylor-Reihe für beliebige Werte $x$ eine gute Approximation liefert, auch wenn die Funktion periodisch ist .
---
# Anwendungen und Grenzen der Taylor-Reihe
### Kerngedanken
* Die Taylor-Reihe approximiert eine Funktion lokal um einen Entwicklungspunkt .
* Der Grenzwert der Potenzreihe stimmt idealerweise mit der Ausgangsfunktion überein .
* Das Restglied ($R_n(x)$) quantifiziert den Fehler der Approximation .
### Wichtige Fakten
* Polynome, Exponentialfunktionen, Logarithmen und trigonometrische Funktionen stimmen mit ihren Taylor-Reihen überein .
* Rationale Funktionen stimmen außerhalb ihrer Polstellen mit ihrer Taylor-Reihe überein .
* Die unendliche geometrische Reihe $ \sum_{j=0}^{\infty} x^j = \frac{1}{1-x} $ ist ein charakteristisches Beispiel für rationale Funktionen .
* Das Restglied hat zwei Hauptdarstellungen:Integralform und Lagrangesche Form .
* $ R_n(x) = \frac{1}{n!} \int_{x_0}^{x} (x-t)^n f^{(n+1)}(t) dt $ .
* $ R_n(x) = \frac{f^{(n+1)}(x_1)}{(n+1)!} (x-x_0)^{n+1} $ für ein $x_1$ zwischen $x_0$ und $x$ .
* Für die Exponentialfunktion konvergiert das Restglied gegen Null, wenn $n \to \infty$ .
* Für Sinusfunktionen sind die Ableitungen betragsmäßig durch 1 beschränkt, was die Konvergenz des Restglieds sichert .
### Kernkonzepte
* **Konvergenz:** Eine Taylor-Reihe konvergiert gegen die Funktion, wenn das Restglied für $n \to \infty$ gegen Null geht .
* **Restgliedanalyse:** Die Untersuchung des Wachstums von Termen wie $x^n$ im Verhältnis zu $n!$ bestimmt die Konvergenz des Restglieds .
* **Approximationsgüte:** Die Güte der Approximation hängt vom Abstand $|x-x_0|$ und der Beschränktheit höherer Ableitungen ab .
* **Periodische Funktionen:** Für periodische Funktionen können andere Reihen (z.B. Fourier-Reihen) bessere Approximationen liefern als Taylor-Reihen .
* **Beliebig oft differenzierbare Funktionen:** Es existieren Funktionen, deren Taylor-Reihen nicht mit der Funktion übereinstimmen, auch wenn alle Ableitungen existieren .
### Implikationen
* Taylor-Reihen sind nützlich für die Bestimmung von Effekten vernachlässigbarer Größenordnungen .
* Sie helfen beim Verständnis des asymptotischen Verhaltens von Algorithmenlaufzeiten .
* Der Algorithmus der Error Backpropagation verwendet Konzepte der Taylor-Entwicklung .
### Häufige Fallstricke
* Nicht jede beliebig oft differenzierbare Funktion stimmt mit ihrer Taylor-Reihe überein .
* Eine Taylor-Reihe, die Null ist, impliziert nicht zwangsläufig, dass die Funktion die Nullfunktion ist .
* Für große Abstände vom Entwicklungspunkt kann die Approximation ungenau werden, selbst wenn die Reihe konvergiert .
---
# Untersuchen des Verhaltens von Funktionen mittels der Differentialrechnung
### Kernideen
* Die Ableitung einer Funktion repräsentiert die Steigung der Tangente an ihrem Graphen .
* Das Vorzeichen der ersten Ableitung charakterisiert die Monotoniebereiche einer Funktion .
* Stellen, an denen die erste Ableitung null ist, sind Kandidaten für Extremwerte .
### Schlüsselfakten
* Eine stetige Funktion auf einem abgeschlossenen Intervall besitzt stets ein Maximum und ein Minimum .
* Wenn $x_0$ ein lokaler Extremwert einer differenzierbaren Funktion $f$ an einem Nicht-Randpunkt ist, dann gilt $f'(x_0) = 0$ .
* Der Mittelwertsatz der Differentialrechnung besagt, dass es auf einem Intervall $[a, b]$ eine Stelle $x_0$ gibt, wo die Tangentensteigung gleich der Sekantensteigung ist: $f'(x_0) = \frac{f(b) - f(a)}{b - a}$ .
* Für eine differenzierbare Funktion mit $f'(x_0) = 0$ ist $x_0$ ein lokales Maximum, wenn $f''(x_0) < 0$ oder die Ableitung von $+$ auf $-$ wechselt .
* Für eine differenzierbare Funktion mit $f'(x_0) = 0$ ist $x_0$ ein lokales Minimum, wenn $f''(x_0) > 0$ oder die Ableitung von $-$ auf $+$ wechselt .
* Fälle, in denen $f''(x_0) = 0$ gilt, erfordern weitere Analysen, da keine unmittelbare Aussage über Extremwerte möglich ist .
### Schlüsselkonzepte
* **Extremwertprinzip:** Jede stetige Funktion auf einem abgeschlossenen Intervall nimmt ihr Maximum und Minimum an .
* **Bedingung erster Ordnung:** Notwendige Bedingung für lokale Extremwerte an inneren Punkten differenzierbarer Funktionen ist das Verschwinden der ersten Ableitung ($f'(x_0) = 0$) .
* **Mittelwertsatz der Differentialrechnung:** Stellt eine Verbindung zwischen der lokalen Änderungsrate (Ableitung) und der durchschnittlichen Änderungsrate (Sekantensteigung) her .
* **Sattelpunkte:** Stellen, an denen die erste Ableitung verschwindet, aber kein Extremwert vorliegt (z.B. $y=x^3$ bei $x=0$) .
* **Lokale vs. globale Extremwerte:** Lokale Extremwerte sind nicht zwangsläufig globale Extremwerte .
### Implikationen
* Stellen mit $f'(x_0) = 0$ sind nur Kandidaten für Extremwerte; die zweite Ableitung oder das Vorzeichenwechselkriterium sind für die Klassifizierung notwendig .
* Globale Extrema können an Randpunkten oder Stellen mangelnder Differenzierbarkeit liegen, welche die Bedingung erster Ordnung nicht erfüllen .
* Das Verständnis des Funktionsverhaltens ermöglicht praktische Anwendungen wie die Bestimmung von Regressionsgeraden oder Gradientenabstiegsverfahren .
- > **Tip:** Bei der Suche nach globalen Extremwerten müssen neben den kritischen Punkten (wo $f'(x)=0$) auch die Ränder des Definitionsbereichs sowie Stellen, an denen die Funktion nicht differenzierbar ist, berücksichtigt
- werden
- > **Beispiel:** Die Funktion $y = x^3$ hat bei $x=0$ sowohl $f' = 0$ als auch $f'' = 0$
- Sie besitzt dort aber keinen Extremwert, sondern einen Sattelpunkt
---
# Integrationsregeln abgeleitet aus differenzierungsregeln
### Core idea
* Integration ist die Umkehrung der Differenziation und dient zur Bestimmung von Stammfunktionen sowie zur Flächenberechnung .
* Jede Differenzierungsregel hat eine entsprechende Integrationsregel .
### Key facts
* Eine Stammfunktion $F(x)$ einer Funktion $f(x)$ erfüllt $F'(x) = f(x)$ .
* Das unbestimmte Integral wird als $\int f(x) dx$ geschrieben, wobei $f(x)$ der Integrand und $x$ die Integrationsvariable ist .
* Wenn $F(x)$ eine Stammfunktion ist, dann ist auch $F(x) + c$ eine Stammfunktion für jede Konstante $c \in \mathbb{R}$ .
* Die Ableitung einer Konstanten ist immer Null .
* Die Kenntnis von Ableitungsregeln elementarer Funktionen liefert Stammfunktionen .
### Key concepts
* **Stammfunktion:** Eine differenzierbare Funktion $F(x)$, deren Ableitung $F'(x)$ gleich der gegebenen Funktion $f(x)$ ist .
* **Integrationskonstante:** Die beliebige Konstante $c$, die bei der Bestimmung von Stammfunktionen auftritt, da die Ableitung einer Konstanten Null ist .
* **Linearität des Integrals:**
* $\int a f(x) dx = a \int f(x) dx$ für eine Konstante $a \in \mathbb{R}$ .
* $\int (f(x) + g(x)) dx = \int f(x) dx + \int g(x) dx$ .
* Allgemein: $\int \sum_{i=1}^{n} a_i f_i(x) dx = \sum_{i=1}^{n} a_i \int f_i(x) dx$ .
### Implications
* Bekannte Ableitungsregeln für elementare Funktionen ermöglichen die direkte Ableitung von Stammfunktionen .
* Die Linearität der Ableitung überträgt sich auf die Linearität des Integrals .
* Die Produktregel und Kettenregel der Differentiation führen zu den Integrationsregeln der partiellen Integration und der Substitutionsregel .
* Für Polynomfunktionen $p(x) = \sum_{i=0}^{n} a_i x^i$ gilt: $\int p(x) dx = \sum_{i=0}^{n} a_i \frac{x^{i+1}}{i+1} + c$ .
### Standard-Stammfunktionen
* $\int dx = x + c$ .
* $\int x^n dx = \frac{1}{n+1} x^{n+1} + c$ (für $n \neq -1$) .
* $\int \frac{1}{x} dx = \ln|x| + c$ (für $x \neq 0$) .
* $\int e^x dx = e^x + c$ .
* $\int \sin x dx = -\cos x + c$ .
* $\int \cos x dx = \sin x + c$ .
---
# Das bestimmte Integral und Flächenberechnung
### Kernidee
* Das bestimmte Integral dient zur Berechnung der Fläche unter dem Graphen einer stetigen Funktion .
* Die Methode basiert auf der Approximation der Fläche durch Rechtecke .
### Wichtige Fakten
* Eine Unterteilung des Definitionsbereichs $[a,b]$ in $n$ Intervalle der Breite $\Delta x = \frac{b-a}{n}$ wird vorgenommen .
* Für jedes Intervall $[x_{i-1}, x_i]$ wird eine Zwischenstelle $\xi_i$ gewählt .
* Die Fläche wird durch die Summe der Flächen von Rechtecken der Breite $\Delta x$ und Höhe $f(\xi_i)$ approximiert .
* Die Fläche $A$ unter dem Graphen ist der Grenzwert dieser Summe, wenn $\Delta x \to 0$ und $n \to \infty$ .
* Für elementargeometrisch berechenbare Flächen stimmt die Definition des bestimmten Integrals mit der elementaren Flächenberechnung überein .
* Das bestimmte Integral ist definiert als $A = \lim_{\Delta x \to 0, n \to \infty} \sum_{i=1}^{n} f(\xi_i) \Delta x$ .
### Wichtige Konzepte
* **Approximation durch Rechtecke:** Die Fläche unter dem Graphen wird durch die Summe von Rechtecksflächen angenähert .
* **Unterteilung (Partitionierung):** Der Definitionsbereich wird in gleich große Intervalle zerlegt .
* **Zwischenstellen ($\xi_i$):** Beliebige Punkte innerhalb der Teilintervalle, die zur Höhenbestimmung der Rechtecke dienen .
* **Grenzwertbildung:** Der exakte Flächenwert ergibt sich durch das Streben der Rechteckbreite gegen Null .
* **Existenz des bestimmten Integrals:** Die Existenz des Grenzwertes wird durch untere und obere Schranken (basierend auf Minima und Maxima) gezeigt .
* **Obere und untere Schranken:** $\sum_{i=1}^{n} f_{\min, i} \Delta x \leq A \leq \sum_{i=1}^{n} f_{\max, i} \Delta x$ .
* **Schreibweise:** Das bestimmte Integral wird als $\int_a^b f(t) dt$ geschrieben .
### Implikationen
* Das bestimmte Integral ist gleich der Fläche unter dem Graphen der Funktion im gegebenen Intervall .
* Die Wahl der Zwischenstellen $\xi_i$ beeinflusst die Genauigkeit der Approximation, aber nicht den Grenzwert .
* Die Stetigkeit der Funktion $f$ ist eine Voraussetzung für die Existenz des bestimmten Integrals .
* Der Unterschied zwischen dem Maximum und Minimum von $f$ in $[x_i, x_{i+1}]$ wird für $\Delta x \to 0$ beliebig klein .
### Beispiele
- > **Beispiel:** Eine Funktion $f(x) = x^2$ auf $ $ wird in $n$ Rechtecke geteilt
- Die Fläche wird durch $\sum f(\xi_i) \Delta x$ approximiert und der Grenzwert liefert die exakte Fläche [1](#page=1)
---
# Hauptsatz der Differential- und Integralrechnung
### Kernidee
* Der Hauptsatz der Differential- und Integralrechnung stellt eine fundamentale Verbindung zwischen Differentiation und Integration her .
* Er besagt, dass die Ableitung der Integralfunktion gleich der ursprünglichen Funktion ist .
### Schlüsselfakten
* Sei $f: [a,b \rightarrow \mathbb{R}$ eine stetige Funktion .
* Die Integralfunktion ist definiert als $F(x) = \int_{a}^{x} f(t) dt$ .
* $F(x)$ ist differenzierbar auf $[a,b]$ .
* Die Ableitung der Integralfunktion ist $F'(x) = f(x)$ .
* Der Grenzwert des Differenzenquotienten der Integralfunktion ist gleich $f(x)$ .
* Die Notation für das bestimmte Integral einer Funktion $f$ auf $[a,b]$ ist $\int_{a}^{b} f(t) dt$, was der resultierenden Fläche entspricht .
### Wichtige Konzepte
* **Integralfunktion**: Eine Funktion, die für jeden Wert $x$ die Fläche unter der Kurve einer Funktion $f$ von einem festen Punkt $a$ bis $x$ misst .
* **Differenzierbarkeit der Integralfunktion**: Die Integralfunktion ist immer differenzierbar, wenn die ursprüngliche Funktion stetig ist .
* **Umkehrung der Ableitung**: Der Hauptsatz zeigt, dass Integration die Umkehroperation zur Differentiation ist .
* **Flächeninhalt als Differenz von Stammfunktionen**: Das bestimmte Integral $\int_{a}^{b} f(x)dx$ entspricht der Differenz der Werte einer Stammfunktion $F$ an den Grenzen $b$ und $a$, also $F(b) - F(a)$ .
* **Notation $F(x)|_{a}^{b}$**: Dies ist eine Kurzschreibweise für $F(b) - F(a)$ .
* **Eindeutigkeit der Stammfunktion bis auf eine Konstante**: Sind $F$ und $G$ beides Stammfunktionen von $f$, dann gilt $F - G \equiv c$ für eine Konstante $c$ .
* **Beweisidee mittels Mittelwertsatz**: Da die Ableitung von $F-G$ Null ist, ist $F-G$ konstant, eine Folge des Mittelwertsatzes der Differentialrechnung .
### Implikationen
* Der Hauptsatz ermöglicht die Berechnung bestimmter Integrale durch Auswertung von Stammfunktionen .
* Er vereinheitlicht die Konzepte von Flächenberechnung und Ableitung .
* Die Berechnung von $\int_{a}^{a} f(x) dx$ ergibt immer Null, da $F(a) - F(a) = 0$ .
* Die Wahl einer beliebigen Stammfunktion zur Berechnung des bestimmten Integrals ist zulässig, da sich additive Konstanten in der Differenz aufheben .
### Beispiele
- > **Beispiel:** Wenn $f(t) = t^2$, dann ist $F(x) = \int_{0}^{x} t^2 dt = \frac{x^3}{3}$
- Die Ableitung von $F(x)$ ist $F'(x) = x^2$, was $f(x)$ ist
- > **Beispiel:** Die Berechnung von $\int_{1}^{3} x dx$ ist $F - F $
- Eine Stammfunktion von $x$ ist $F(x) = \frac{x^2}{2}$
- Also $\frac{3^2}{2} - \frac{1^2}{2} = \frac{9}{2} - \frac{1}{2} = \frac{8}{2} = 4$ [1](#page=1) [3](#page=3)
---
# Vergleich von Wachstumsfunktionen und ihrer Anwendung in der Laufzeitanalyse von Algorithmen
### Kernidee
* Wachstumsfunktionen beschreiben das Verhalten von Algorithmen für große Eingabegrößen .
* Der Vergleich dieser Funktionen ist entscheidend für die Wahl effizienter Algorithmen .
### Schlüsselkonzepte
* **Wachstumsfunktionen:**
* logarithmisch ($\log \log n$, $\log n$) .
* linear ($\sqrt{n}$, $n$, $n \log n$) .
* quadratisch ($n^2$) .
* polynomiell ($n^k$) .
* exponentiell ($2^n$, $n!$) .
* doppelt exponentiell ($2^{2^n}$) .
* **Laufzeitanalyse:** Bewertung der Effizienz von Algorithmen basierend auf ihrer Laufzeit als Funktion der Eingabegröße .
* **De l'Hospitalsche Regel:** Hilft beim Vergleich von Wachstumsfunktionen für reelle Zahlen, übertragbar auf natürliche Zahlen .
### Schlüsselbegriffe und Beispiele
#### Bogosort
* Vorgehen: Zufälliges Permutieren und Prüfen .
* Laufzeit: Exponentiell, da im Worst-Case $n!$ Permutationen und Vergleiche .
#### Sortieren durch Auswahl
* Vorgehen: Iteratives Finden und Entfernen des Minimums .
* Laufzeit: Quadratisch, Summe von $(n-1)$ bis $1$ Vergleichen ergibt $\frac{n(n-1)}{2}$ .
#### Mergesort
* Vorgehen: Teilen, rekursives Sortieren, Zusammenführen .
* Rekursion für Laufzeit $C(n)$: $C(n) = 2C(n/2) + (n-1)$ .
* Laufzeit: $O(n \log n)$ .
#### Quicksort
* Vorgehen: Zufälliges Pivot wählen, Teilen, rekursives Sortieren, Zusammenführen .
* Laufzeit: Im Mittel $O(n \log n)$ .
### Implikationen
* Algorithmen mit geringerer Wachstumsrate sind für große Eingaben deutlich schneller .
* Ein exponentieller Algorithmus wird selbst für moderate Eingaben schnell unpraktikabel .
* Polynomielle Algorithmen sind oft akzeptabel, während exponentielle Algorithmen vermieden werden sollten .
- > **Tip:** Verstehen Sie den Unterschied zwischen Worst-Case, Average-Case und Best-Case Laufzeiten, auch wenn hier primär die Wachstumsraten für große $n$ betrachtet werden
-
---
# Vergleich von Summen mit Integralen zur Analyse von Reihenkonvergenz
### Kernidee
* Integrale können genutzt werden, um Aussagen über die Konvergenz oder Divergenz unendlicher Reihen zu treffen .
* Dieses Vorgehen ist besonders effektiv mit uneigentlichen Integralen .
### Schlüsselkonzepte
* Die Definition von Integralen als Grenzwerte von Ober- und Untersummen kann umgekehrt werden .
* Die harmonische Reihe ist divergent; dies kann durch Vergleich mit einem Integral bewiesen werden .
* Eine Treppenfunktion $H_n(x) = \frac{1}{[x]}$ (mit Gauß-Klammer) kann verwendet werden, um die Partialsummen der harmonischen Reihe darzustellen .
* Die Fläche unter dieser Treppenfunktion repräsentiert die n-te Partialsumme der harmonischen Reihe .
* Die Funktion $\ln(n+1)$ beschreibt das Wachstum der Partialsummen der harmonischen Reihe .
### Kernfakten
* Die n-te Partialsumme der harmonischen Reihe kann durch Integrale abgeschätzt werden .
* Obere Schranke: $H_n(x) \leq 1 + \int_1^n \frac{1}{x} dx = 1 + \ln(n)$ .
* Untere Schranke: $H_n(x) \geq 1 + \int_0^n \frac{1}{x+1} dx = \ln(n+1)$ (Fläche von 0 bis 1 separat behandelt) .
* Die Divergenz der harmonischen Reihe folgt direkt aus der Divergenz von $\ln(n+1)$ .
### Implikationen
* Der Vergleich mit Integralen bestätigt die Divergenz der harmonischen Reihe .
* Die kontinuierliche Funktion $\ln(x)$ beschreibt das asymptotische Wachstum der Partialsummen der harmonischen Reihe .
* Diese Methode liefert neue Einblicke in das Verhalten von Reihen .
* Verallgemeinerung: Konvergenz von Reihen kann oft durch Konvergenz von Integralen analysiert werden .
---
# Partielle integration
### Core idea
* Die partielle Integration leitet sich aus der Produktregel der Differenziation ab .
* Sie dient zur Integration von Produkten von Funktionen, bei denen nur ein Faktor eine bekannte Stammfunktion hat .
* Die Regel wandelt ein Integral in eine einfachere Form um .
### Key facts
* Die Grundformel lautet: $\int f(x)g'(x) dx = f(x)g(x) - \int f'(x)g(x) dx$ .
* Alternativ kann sie auch geschrieben werden als: $\int f'(x)g(x) dx = f(x)g(x) - \int f(x)g'(x) dx$ .
* Bei der Wahl von $f(x)$ und $g'(x)$ ist es unerheblich, welcher Faktor welche Rolle übernimmt .
* Die partielle Integration kann mehrfach angewendet werden (Iteration) .
### Key concepts
* **Herleitung:** Aus $(fg)' = f'g + fg'$ integriert man beide Seiten, erhält $fg = \int f'g + \int fg'$, und löst nach einem Integral auf .
* **Anwendungsbereich:** Wird angewendet, wenn $\int (fg)' dx$ integriert wird und nur einer der Faktoren (z.B. $f$ oder $g'$) eine bekannte Stammfunktion besitzt .
* **Iteration:** Bei der Integration von $x^2 e^x$ wird zunächst partielle Integration angewendet, dann das Ergebnis der ersten Anwendung für das verbleibende Integral genutzt .
* **Herstellen eines Produkts:** Für Integrale wie $\int \ln x dx$ kann künstlich ein Produkt erzeugt werden, um die partielle Integration anzuwenden .
### Examples
* **Beispiel 1:** $\int x e^x dx$ mit $f(x) = x$ und $g'(x) = e^x$. Ergibt $x e^x - \int e^x dx$ .
* **Beispiel 2:** $\int x^2 e^x dx$ mit $f(x) = x^2$ und $g'(x) = e^x$. Ergibt $x^2 e^x - \int 2x e^x dx$ .
* **Beispiel 3:** $\int \ln x dx$ mit $f(x) = \ln x$ und $g'(x) = 1$ (da $x = \int dx$). Ergibt $x \ln x - \int x \cdot \frac{1}{x} dx = x \ln x - x + c$ .
---
## Häufige fehler vermeiden
- Überprüfen Sie alle Themen gründlich vor Prüfungen
- Achten Sie auf Formeln und wichtige Definitionen
- Üben Sie mit den in jedem Abschnitt bereitgestellten Beispielen
- Memorieren Sie nicht ohne die zugrunde liegenden Konzepte zu verstehen
Glossary
| Term | Definition |
|------|------------|
| Vereinigung von Mengen | Die Vereinigung zweier Mengen $A$ und $B$, bezeichnet als $A \cup B$, ist die Menge aller Elemente, die entweder in $A$ oder in $B$ (oder in beiden) enthalten sind. Sie ist kommutativ und assoziativ. |
| Schnittmenge von Mengen | Die Schnittmenge zweier Mengen $A$ und $B$, bezeichnet als $A \cap B$, ist die Menge aller Elemente, die sowohl in $A$ als auch in $B$ enthalten sind. Sie ist kommutativ und assoziativ. |
| Differenz von Mengen | Die Differenz zweier Mengen $A$ und $B$, bezeichnet als $A - B$, ist die Menge aller Elemente, die in $A$, aber nicht in $B$ enthalten sind. |
| Disjunkte Mengen | Zwei Mengen $A$ und $B$ werden als disjunkt bezeichnet, wenn ihre Schnittmenge die leere Menge ist, d.h. $A \cap B = \emptyset$. Sie haben keine gemeinsamen Elemente. |
| Assoziativgesetze für Mengenoperationen | Diese Gesetze besagen, dass die Reihenfolge der Gruppierung bei wiederholten Vereinigungen oder Schnitten von Mengen keine Rolle spielt: $A \cup (B \cup C) = (A \cup B) \cup C$ und $A \cap (B \cap C) = (A \cap B) \cap C$. |
| Kommutativgesetze für Mengenoperationen | Diese Gesetze besagen, dass die Reihenfolge der Mengen bei der Vereinigung oder dem Schnitt keine Rolle spielt: $A \cup B = B \cup A$ und $A \cap B = B \cap A$. |
| Distributivgesetze für Mengenoperationen | Diese Gesetze beschreiben, wie sich Vereinigung und Schnitt überlappen: $A \cap (B \cup C) = (A \cap B) \cup (A \cap C)$ und $A \cup (B \cap C) = (A \cup B) \cap (A \cup C)$. |
| De Morgan'sche Regeln für Mengen | Diese Regeln beschreiben die Beziehung zwischen Mengenoperationen und der Komplementbildung (hier dargestellt durch Differenz zur Gesamtmenge $M$): $A - (B \cup C) = (A - B) \cap (A - C)$ und $A - (B \cap C) = (A - B) \cup (A - C)$. |
| Kartesisches Produkt von Mengen | Das kartesische Produkt zweier Mengen $X$ und $Y$, bezeichnet als $X \times Y$, ist die Menge aller geordneten Paare $(x,y)$, wobei $x$ ein Element aus $X$ und $y$ ein Element aus $Y$ ist. |
| Distributivgesetze für kartesische Produkte | Diese Gesetze beschreiben die Verteilung des kartesischen Produkts über Schnitt, Vereinigung und Differenz von Mengen: $A \times (B \cap C) = (A \times B) \cap (A \times C)$, $A \times (B \cup C) = (A \times B) \cup (A \times C)$ und $A \times (B - C) = (A \times B) - (A \times C)$. |
| Folge | Eine Abbildung $a : \mathbb{N} \rightarrow M$, die jedem natürlichen Zahl $n$ ein Element $a_n$ aus einer Menge $M$ zuordnet. Sie wird oft als $(a_n)_{n \in \mathbb{N}}$ notiert. |
| Konstante Folge | Eine Folge, bei der jedes Glied denselben Wert hat, unabhängig vom Index $n$. Wenn $x_0 \in M$ ein Element ist, dann ist die Folge $n \mapsto x_0$ eine konstante Folge. |
| Abstand (für reelle Zahlen) | Für zwei reelle Zahlen $x, y \in \mathbb{R}$ ist der Abstand zwischen ihnen durch den Betrag ihrer Differenz, $|y - x|$, definiert. |
| Dreiecksungleichung | Eine Ungleichung, die besagt, dass für beliebige reelle Zahlen $x, y, z \in \mathbb{R}$ gilt: $|z - x| \leq |y - x| + |z - y|$. |
| Reelle Folge | Eine Folge, deren Werte aus der Menge der reellen Zahlen $\mathbb{R}$ stammen, also eine Abbildung $n \mapsto a_n$ mit $a_n \in \mathbb{R}$ für alle $n \in \mathbb{N}$. |
| Monotone Folge | Eine reelle Folge $(a_n)_{n \in \mathbb{N}}$, bei der für alle natürlichen Zahlen $n \leq m$ stets die Bedingung $a_n \leq a_m$ erfüllt ist. |
| Nach oben beschränkte Folge | Eine reelle Folge $(a_n)_{n \in \mathbb{N}}$, für die eine Konstante $K$ existiert, sodass $a_n \leq K$ für alle $n \in \mathbb{N}$ gilt. |
| Nach unten beschränkte Folge | Eine reelle Folge $(a_n)_{n \in \mathbb{N}}$, für die eine Konstante $K$ existiert, sodass $a_n \geq K$ für alle $n \in \mathbb{N}$ gilt. |
| Beschränkte Folge | Eine reelle Folge, die sowohl nach oben als auch nach unten beschränkt ist. |
| Alternierende Folge | Eine Folge, deren Glieder abwechselnd positive und negative Vorzeichen haben, wie zum Beispiel die Folge $n \mapsto (-1)^n$. |
| Addition von Matrizen | Die Addition zweier Matrizen A und B gleichen Formats, bezeichnet als $A + B$, ergibt eine neue Matrix des gleichen Formats, deren Einträge die Summe der entsprechenden Einträge von A und B sind. Für die Einträge $c_{ij}$ der resultierenden Matrix gilt: $c_{ij} = a_{ij} + b_{ij}$. |
| Nullmatrix | Eine Nullmatrix ist eine Matrix, bei der alle ihre Einträge den Wert Null haben. Sie spielt in der Matrizenaddition eine ähnliche Rolle wie die Zahl Null bei der Addition von Zahlen. |
| Kommutativgesetz der Matrizenaddition | Für Matrizen A und B des gleichen Formats gilt das Kommutativgesetz, das besagt, dass die Reihenfolge der Addition keine Rolle spielt: $A + B = B + A$. |
| Assoziativgesetz der Matrizenaddition | Für Matrizen A, B und C des gleichen Formats gilt das Assoziativgesetz, das besagt, dass die Gruppierung bei der Addition keine Rolle spielt: $A + (B + C) = (A + B) + C$. |
| Skalarmultiplikation von Matrizen | Die Multiplikation einer Matrix A mit einem Skalar c, bezeichnet als $cA$, erfolgt durch Multiplikation jedes einzelnen Eintrags der Matrix A mit dem Skalar c. Der Eintrag in der i-ten Zeile und j-ten Spalte der resultierenden Matrix ist $c \cdot a_{ij}$. |
| Assoziativgesetz der Skalarmultiplikation | Für Matrizen A und Skalare c, d gilt das Assoziativgesetz, das besagt, dass die Reihenfolge der Multiplikation von Skalaren und Matrizen keine Rolle spielt: $c(dA) = (cd)A$. |
| Distributivgesetze der Skalarmultiplikation | Für Matrizen A, B und Skalare c, d gelten die Distributivgesetze: $c(A + B) = cA + cB$ und $(c + d)A = cA + dA$. Diese Gesetze beschreiben, wie Skalare mit Summen von Matrizen bzw. Summen von Skalaren mit Matrizen umgehen. |
| Skalarprodukt | Das Skalarprodukt zweier Vektoren $a = (a_1, \dots, a_n)$ und $b = (b_1, \dots, b_n)$ gleicher Länge ist definiert als die Summe der Produkte ihrer entsprechenden Komponenten: $a \cdot b = a_1b_1 + a_2b_2 + \dots + a_nb_n = \sum_{i=1}^{n} a_i b_i$. Das Ergebnis ist immer ein Skalar. |
| Vektor | Eine Größe, die durch Betrag und Richtung charakterisiert ist und in der Mathematik oft als geordnete Liste von Zahlen (Komponenten) dargestellt wird, z.B. $a = (a_1, \dots, a_n)$. |
| Skalar | Eine Größe, die nur einen Betrag besitzt und keine Richtung, im Gegensatz zu einem Vektor. Das Ergebnis des Skalarprodukts zweier Vektoren ist ein Skalar. |
| Kommutativgesetz des Skalarprodukts | Für Vektoren $a$ und $b$ gleicher Länge gilt das Kommutativgesetz, d.h. die Reihenfolge der Faktoren spielt keine Rolle: $a \cdot b = b \cdot a$. |
| Distributivgesetz des Skalarprodukts | Für Vektoren $a$, $b$ und $c$ gleicher Länge gilt das Distributivgesetz, d.h. das Skalarprodukt verteilt sich über die Summe von Vektoren: $(a + b) \cdot c = a \cdot c + b \cdot c$. |
| Einheitsvektor | Ein Vektor mit der Länge 1. Das Skalarprodukt eines Vektors mit einem Einheitsvektor $e_i$ extrahiert die $i$-te Koordinate des Vektors. |
| Nullvektor | Ein Vektor, dessen Komponenten alle Null sind. Im Gegensatz zur Multiplikation von Skalaren kann das Skalarprodukt zweier Vektoren Null ergeben, ohne dass einer der Vektoren der Nullvektor ist. |
| Matrizenmultiplikation | Die Matrizenmultiplikation zweier Matrizen A (m × n) und B (n × r) ergibt eine neue Matrix C (m × r), deren Elemente cik durch das Skalarprodukt der i-ten Zeile von A mit der k-ten Spalte von B berechnet werden: $c_{ik} = \sum_{j=1}^{n} a_{ij} b_{jk}$. |
| Einheitsmatrix | Eine quadratische Matrix, die auf der Hauptdiagonalen nur Einsen und sonst nur Nullen enthält. Sie verhält sich bei der Matrizenmultiplikation ähnlich wie die Zahl Eins bei der Multiplikation von Zahlen. |
| Assoziativgesetz | Das Assoziativgesetz besagt, dass bei der Multiplikation von drei Matrizen A, B und C die Klammerung keine Rolle spielt, d.h. $A(BC) = (AB)C$, sofern die Matrizenformate dies zulassen. |
| Distributivgesetz | Das Distributivgesetz beschreibt, wie sich die Matrizenmultiplikation auf die Matrizenaddition verteilt. Es gilt: $A(B + C) = AB + AC$ und $(A + B)C = AC + BC$, vorausgesetzt die Formate der Matrizen sind kompatibel. |
| Transponieren | Die Transponierte einer Matrix A, bezeichnet als $tA$, wird durch Vertauschen von Zeilen und Spalten gebildet. Für das Produkt zweier Matrizen gilt die Regel: $t(A \cdot B) = (tB) \cdot (tA)$. |
| Inverse Matrix | Eine quadratische Matrix $A^{-1}$ ist die Inverse einer Matrix A, wenn ihr Produkt mit A die Einheitsmatrix ergibt, d.h. $A^{-1} \cdot A = E_n$ und $A \cdot A^{-1} = E_n$. |
| Lineares Gleichungssystem | Ein System von Gleichungen, bei dem jede Gleichung eine lineare Beziehung zwischen den Variablen darstellt. |
| Methode des Gleichsetzens | Ein Verfahren zur Lösung von linearen Gleichungssystemen, bei dem beide Gleichungen nach derselben Variablen aufgelöst und die resultierenden Ausdrücke gleichgesetzt werden. |
| Methode der Addition von Gleichungen | Ein Verfahren zur Lösung von linearen Gleichungssystemen, bei dem geeignete Vielfache einer Gleichung zu einer anderen addiert werden, um eine Variable zu eliminieren. |
| Variable eliminieren | Der Prozess, eine Variable aus einem Gleichungssystem zu entfernen, typischerweise durch Addition oder Subtraktion von Gleichungen, um eine neue Gleichung mit weniger Variablen zu erhalten. |
| Matrixschreibweise | Eine Darstellung von linearen Gleichungssystemen unter Verwendung von Matrizen, die die Koeffizienten und Konstanten der Gleichungen kompakt zusammenfasst. |
| Zeilenoperationen | Elementare Umformungen von Zeilen einer Matrix, die dazu dienen, das Gleichungssystem zu vereinfachen, wie z.B. die Addition eines Vielfachen einer Zeile zu einer anderen. |
| Teilbedarfsrechnung | Ein Verfahren zur Ermittlung der benötigten Mengen von Rohstoffen und Zwischenprodukten, die für die Herstellung von Endprodukten in einem mehrstufigen Fertigungsprozess erforderlich sind. |
| Gozintograph | Eine grafische Darstellung eines mehrstufigen Fertigungsprozesses, bei der Pfeile den Bedarf von Einheiten auf einer Fertigungsebene zur Herstellung von Einheiten auf einer anderen Ebene anzeigen. |
| Bedarf | Die Anzahl von Einheiten, die von einer Quelle benötigt werden, um eine Einheit an einem Ziel zu produzieren, wie durch die Zahlen an den Pfeilen im Gozintographen dargestellt. |
| Endprodukt | Ein Produkt, das am Ende eines Fertigungsprozesses steht und nicht weiter verarbeitet werden muss. Die Zahlen an den Pfeilen, die von Endprodukten ausgehen, geben die zu fertigenden Stückzahlen an. |
| Zwischenprodukt | Ein Produkt, das in einem Fertigungsprozess hergestellt wird und als Rohstoff für weitere Produktionsschritte dient, bevor das Endprodukt erreicht wird. |
| Gleichungssystem | Eine Sammlung von linearen Gleichungen, die die Beziehungen zwischen den Mengen verschiedener Produkte in einem Fertigungsprozess beschreiben und zur Berechnung der benötigten Mengen verwendet werden. |
| Obere Dreiecksgestalt | Eine spezielle Form eines linearen Gleichungssystems, bei der alle Terme mit Variablen auf die linke Seite der Gleichung gebracht werden und die Struktur eine einfache Lösung ermöglicht. |
| Eliminationsverfahren | Ein mathematisches Verfahren, das dazu dient, ein System linearer Gleichungen in eine einfach zu lösende Form, wie die obere Dreiecksgestalt, zu überführen. |
| Gauss’scher Algorithmus | Ein spezifisches Eliminationsverfahren, das systematisch verwendet wird, um lineare Gleichungssysteme auf die obere Dreiecksgestalt zu reduzieren und somit trivial lösbar zu machen. |
| Mehrdeutige Lösbarkeit | Ein lineares Gleichungssystem ist mehrdeutig lösbar, wenn es unendlich viele Lösungen gibt. Dies tritt auf, wenn eine Variable in der Zeilenstufenform nicht eindeutig bestimmt ist, da die entsprechende Gleichung zu $0=0$ vereinfacht wird und die Variable somit frei wählbar ist. |
| Nicht lösbares System | Ein lineares Gleichungssystem ist nicht lösbar, wenn es zu einem Widerspruch führt, wie beispielsweise der Gleichung $0 = -18$. Dies wird in der Zeilenstufenform durch eine Zeile mit nur Nullen auf der linken Seite und einer von Null verschiedenen Zahl auf der rechten Seite angezeigt. |
| Quadratische Matrizen | Bei quadratischen Matrizen ($n=m$) ist der Regelfall die eindeutige Lösbarkeit, analog zu zwei Geraden in allgemeiner Lage, die sich in genau einem Punkt schneiden. Sonderfälle sind parallele oder identische Geraden. |
| Ungleichheit von Zeilen und Spalten ($n \neq m$) | Wenn die Anzahl der Gleichungen ($m$) nicht mit der Anzahl der Unbestimmten ($n$) übereinstimmt, ist der häufigste Ausgang entweder keine Lösung (mehr Gleichungen als Unbestimmte) oder unendlich viele Lösungen (mehr Unbestimmte als Gleichungen), wobei Ausnahmen möglich sind. |
| Zeilenstufenform | Die Zeilenstufenform ist eine vereinfachte Darstellung einer Matrix, die durch elementare Zeilenumformungen erreicht wird. Sie hilft dabei, die Lösbarkeit und Art der Lösungen eines linearen Gleichungssystems zu bestimmen. |
| Reelle Funktion | Eine Abbildung, deren Definitions- und Wertebereich Teilmengen der reellen Zahlen ($\mathbb{R}$) sind. Zwei reelle Funktionen sind gleich, wenn sie übereinstimmende Definitions- und Wertebereiche sowie dieselbe Abbildungsvorschrift haben. |
| Monoton steigende Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, bei der für alle $x, y \in D$ mit $x \leq y$ stets $f(x) \leq f(y)$ gilt. |
| Monoton fallende Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, bei der für alle $x, y \in D$ mit $x \leq y$ stets $f(x) \geq f(y)$ gilt. |
| Streng monotone Funktion | Eine Funktion, die entweder streng monoton steigend oder streng monoton fallend ist. |
| Streng monoton steigende Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, bei der für alle $x, y \in D$ mit $x < y$ stets $f(x) < f(y)$ gilt. |
| Streng monoton fallende Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, bei der für alle $x, y \in D$ mit $x < y$ stets $f(x) > f(y)$ gilt. |
| Umkehrbare Funktion | Eine Funktion, der eine Umkehrfunktion zugeordnet werden kann. Eine streng monotone Funktion ist stets umkehrbar, wenn ihr Wertebereich eingeschränkt wird. |
| Umkehrfunktion | Die Funktion $f^{-1}$, die die Zuordnung einer Funktion $f$ umkehrt. Es gilt $f^{-1} \circ f = \text{id}_D$ und $f \circ f^{-1} = \text{id}_{f(D)}$. |
| Beschränkte Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, deren Wertebereich $f(D)$ in einem Intervall endlicher Länge liegt. Das bedeutet, es existieren Schranken $u, o \in \mathbb{R}$, sodass $u \leq f(x) \leq o$ für alle $x \in D$ gilt. |
| Gerade Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, für die gilt, dass für jedes $x \in D$ auch $-x \in D$ ist und $f(-x) = f(x)$ gilt. |
| Ungerade Funktion | Eine Funktion $f: D \rightarrow \mathbb{R}$, für die gilt, dass für jedes $x \in D$ auch $-x \in D$ ist und $f(-x) = -f(x)$ gilt. |
| Periodische Funktion | Eine Funktion $f: \mathbb{R} \rightarrow \mathbb{R}$, die eine Periode $c \in \mathbb{R}$ besitzt, sodass $f(x + c) = f(x)$ für alle $x \in \mathbb{R}$ gilt. |
| Nullstelle | Ein Wert $x$, für den eine Funktion $f(x)$ den Wert Null annimmt, also $f(x) = 0$. Das Auffinden von Nullstellen ist ein zentrales Problem in der Mathematik. |
| Zwischenwertsatz | Ein mathematischer Satz, der besagt, dass eine stetige Funktion auf einem abgeschlossenen Intervall, die an den Endpunkten unterschiedliche Vorzeichen annimmt, mindestens eine Nullstelle in diesem Intervall besitzt. |
| Näherungsverfahren | Ein algorithmisches Verfahren, das dazu dient, eine Lösung einer mathematischen Aufgabe (wie z.B. das Finden einer Nullstelle) schrittweise zu approximieren, da eine exakte Lösung oft nicht oder nur schwer ermittelbar ist. |
| Regula Falsi | Ein iteratives Näherungsverfahren zur Nullstellensuche, das auf dem Zwischenwertsatz basiert. Es berechnet eine neue Schätzung der Nullstelle durch die Verbindung der beiden Punkte auf der Funktion mit einer Geraden und der Bestimmung des Schnittpunkts dieser Geraden mit der x-Achse. |
| Halbierungsverfahren | Ein einfaches und robustes iteratives Näherungsverfahren zur Nullstellensuche. Es halbiert wiederholt das Intervall, in dem sich die Nullstelle befindet, basierend auf dem Vorzeichenwechsel der Funktion an den Intervallgrenzen. |
| Stetigkeit | Eine Eigenschaft einer Funktion, die besagt, dass kleine Änderungen im Argument zu kleinen Änderungen im Funktionswert führen. Stetige Funktionen weisen keine Sprünge oder Lücken auf. |
| Intervall | Eine Menge von reellen Zahlen, die alle Zahlen zwischen zwei gegebenen Endpunkten umfasst. Ein abgeschlossenes Intervall schließt seine Endpunkte ein, ein offenes nicht. |
| Genauigkeit (ϵ) | Ein vorgegebener positiver Wert, der die zulässige Abweichung der berechneten Näherung von der tatsächlichen Nullstelle angibt. Wenn der absolute Wert des Funktionswertes an der Näherungsstelle kleiner als ϵ ist, gilt die Näherung als ausreichend. |
| Iteration | Ein einzelner Schritt in einem wiederholten Prozess oder Algorithmus. Bei Näherungsverfahren wird die Lösung durch wiederholte Anwendung der gleichen Schritte (Iteration) verfeinert. |
| Logarithmische Ableitung | Die logarithmische Ableitung ist die Ableitung einer logarithmisch transformierten Funktion, also die Ableitung von $y = \ln f(x)$. Sie wird berechnet als $y' = \frac{f'(x)}{f(x)}$ und ergibt sich direkt aus der Kettenregel. |
| Kettenregel | Die Kettenregel ist eine Regel zur Ableitung von verketteten Funktionen. Wenn eine Funktion $y = f(u)$ und $u = g(x)$ sind, dann ist die Ableitung von $y$ nach $x$ gegeben durch $\frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx}$. |
| Logarithmische Transformation | Die Anwendung des natürlichen Logarithmus auf eine Funktion, um deren Struktur zu vereinfachen oder bestimmte Eigenschaften besser analysieren zu können. Dies geschieht typischerweise, um Produkte in Summen und Potenzen in Produkte umzuwandeln. |
| Wachstumsraten | Die logarithmische Ableitung kann zur Definition und Bestimmung von Wachstumsraten von Funktionen verwendet werden. Sie gibt die relative Änderungsrate der Funktion an. |
| Linearisierung | Die Linearisierung ist eine Methode, um eine Funktion in der Nähe eines bestimmten Punktes durch eine lineare Funktion zu approximieren. Die logarithmische Ableitung kann hierbei als Werkzeug dienen. |
| Zweite Ableitung | Die zweite Ableitung einer Funktion $y = f(x)$ ist die Ableitung ihrer ersten Ableitung $y' = f'(x)$. Sie wird üblicherweise als $y''$, $f''(x)$ oder $\frac{d^2y}{dx^2}$ bezeichnet und gibt Auskunft über die Krümmung der Funktion. |
| Höhere Ableitungen | Höhere Ableitungen einer Funktion sind die wiederholten Ableitungen der Funktion. Die dritte Ableitung ist die Ableitung der zweiten Ableitung, und so weiter. Sie werden oft mit $y^{(n)}$ oder $f^{(n)}(x)$ bezeichnet, wobei $n$ die Ordnung der Ableitung angibt. |
| Polynomfunktion | Eine Polynomfunktion ist eine Funktion, die als Summe von Potenzen einer Variablen, multipliziert mit Koeffizienten, dargestellt werden kann. Ein Polynom vom Grad $n$ hat die allgemeine Form $p(x) = a_n x^n + a_{n-1} x^{n-1} + \dots + a_1 x + a_0$. |
| Geometrische Reihe | Eine Reihe der Form $\sum_{n=1}^{\infty} a \cdot q^{n-1}$, bei der der Quotient zweier aufeinanderfolgender Terme konstant ist, d.h. $\frac{a_{n+1}}{a_n} = q$. Der Wert $q$ bestimmt das Wachstum der Folgenterme. |
| Quotient ($q$) | Die konstante Zahl, die das Verhältnis zweier aufeinanderfolgender Terme in einer geometrischen Folge oder Reihe darstellt. Sie gibt an, mit welchem Faktor jeder Term multipliziert wird, um den nächsten zu erhalten. |
| Anfangsterm ($a_1$) | Der erste Term einer geometrischen Folge oder Reihe. Zusammen mit dem Quotienten $q$ bestimmt der Anfangsterm die gesamte Folge eindeutig. |
| n-te Partialsumme ($S_n$) | Die Summe der ersten $n$ Terme einer geometrischen Reihe. Für $q \neq 1$ ist sie gegeben durch die Formel $S_n = a_1 \frac{1 - q^n}{1 - q}$. |
| Konvergenz einer geometrischen Reihe | Eine unendliche geometrische Reihe konvergiert, wenn der Betrag des Quotienten $|q|$ kleiner als 1 ist. In diesem Fall nähert sich die Summe einem endlichen Grenzwert. |
| Grenzwert einer unendlichen geometrischen Reihe | Der Wert, dem sich die Partialsummen einer unendlichen geometrischen Reihe nähern, wenn die Anzahl der Terme gegen unendlich geht. Für $|q|<1$ ist dieser Grenzwert $S = \frac{a_1}{1 - q}$. |
| Diskontierung | Ein Prozess in der Finanzmathematik, bei dem zukünftige Zahlungsströme auf ihren heutigen Wert abgezinst werden. Dies geschieht typischerweise mithilfe von Diskontsätzen, die oft als geometrische Progressionen dargestellt werden können. |
| Stetigkeit (Folgendefinition) | Eine Funktion $f: D \to \mathbb{R}$ heißt stetig in einem Punkt $x_0 \in D$, wenn für jede gegen $x_0$ konvergente Folge $(x_n)_{n \in \mathbb{N}}$ in $D$ die Bildfolge $(f(x_n))_{n \in \mathbb{N}}$ ebenfalls gegen $f(x_0)$ konvergiert. |
| Stetigkeit ( $\epsilon$-$\delta$-Definition) | Eine Funktion $f: D \to \mathbb{R}$ ist in einem Punkt $x_0 \in D$ stetig genau dann, wenn für jedes $\epsilon > 0$ ein $\delta > 0$ existiert, sodass für alle $x \in D$ mit $|x - x_0| < \delta$ gilt, dass $|f(x) - f(x_0)| < \epsilon$. |
| Bildfolge | Gegeben eine Funktion $f$ und eine Folge $(x_n)$, ist die Bildfolge die Folge $(f(x_n))$, die durch Anwenden der Funktion auf die Terme der ursprünglichen Folge entsteht. |
| Konvergenz einer Folge | Eine Folge $(x_n)$ konvergiert gegen einen Grenzwert $L$, wenn die Terme der Folge beliebig nahe an $L$ herankommen, je weiter man in der Folge fortschreitet. |
| $\epsilon$-Intervall | Ein $\epsilon$-Intervall um einen Wert $y$ ist die Menge aller Zahlen $z$, deren Abstand zu $y$ kleiner als $\epsilon$ ist, also $|z - y| < \epsilon$. |
| $\delta$-Intervall | Ein $\delta$-Intervall um einen Wert $x_0$ ist die Menge aller Zahlen $x$, deren Abstand zu $x_0$ kleiner als $\delta$ ist, also $|x - x_0| < \delta$. |
| Begriff | Definition |
| Stetige Funktion | Eine Funktion $f$, die in jedem Punkt ihres Definitionsbereichs stetig ist. Das bedeutet, dass kleine Änderungen im Eingabewert nur zu kleinen Änderungen im Ausgabewert führen. |
| Bildbereich eines Intervalls | Wenn eine stetige Funktion $f$ auf einem Intervall $D$ definiert ist, dann ist ihr Bildbereich $f(D)$ ebenfalls ein Intervall. Dies gilt sowohl für eigentliche als auch für uneigentliche Intervalle. |
| Nullstelle einer stetigen Funktion | Ein Wert $x_0$ im Definitionsbereich einer Funktion $f$, für den gilt, dass $f(x_0) = 0$. Der Zwischenwertsatz garantiert die Existenz einer Nullstelle unter bestimmten Bedingungen für stetige Funktionen auf Intervallen. |
| Urbildmenge | Die Urbildmenge einer Teilmenge $B$ des Wertebereichs einer Funktion $f$ ist die Menge aller Elemente aus dem Definitionsbereich, deren Funktionswerte in $B$ liegen. Sie wird oft als $f^{-1}(B)$ notiert. |
| Produktregel | Die Produktregel wird verwendet, um die Ableitung eines Produkts zweier differenzierbarer Funktionen $f(x)$ und $g(x)$ zu bestimmen. Sie besagt, dass die Ableitung $y'$ von $y = f(x)g(x)$ gleich $y' = f'(x)g(x) + f(x)g'(x)$ ist. |
| Quotientenregel | Die Quotientenregel wird zur Bestimmung der Ableitung eines Quotienten zweier differenzierbarer Funktionen $f(x)$ und $g(x)$ verwendet, wobei $g(x) \neq 0$. Sie besagt, dass die Ableitung $y'$ von $y = \frac{f(x)}{g(x)}$ gleich $y' = \frac{f'(x)g(x) - f(x)g'(x)}{g^2(x)}$ ist. |
| Ableitung des Logarithmus | Die Ableitung der natürlichen Logarithmusfunktion $\ln(x)$ ist $\frac{1}{x}$. Dies ergibt sich aus der Anwendung der Formel für die Ableitung der Umkehrfunktion auf die Exponentialfunktion, deren Umkehrfunktion der Logarithmus ist. |
| Ableitung der Wurzel | Die Ableitung der Quadratwurzelfunktion $\sqrt{x}$ ist $\frac{1}{2\sqrt{x}}$. Allgemeiner ist die Ableitung von $y = \sqrt{f(x)}$ gegeben durch $y' = \frac{f'(x)}{2\sqrt{f(x)}}$, was durch die Kettenregel und die Ableitung der Quadratwurzelfunktion hergeleitet wird. |
| Regel von de l’Hospital | Eine Regel zur Bestimmung von Grenzwerten von Quotienten zweier Funktionen, wenn beide Funktionen an der betrachteten Stelle den Wert Null annehmen. Sie besagt, dass der Grenzwert des Quotienten der Funktionen gleich dem Grenzwert des Quotienten ihrer Ableitungen ist, sofern dieser Grenzwert existiert. |
| Unbestimmter Ausdruck | Ein Ausdruck, dessen Grenzwert nicht direkt durch Einsetzen des Grenzwertes der Variablen bestimmt werden kann, da er zu einer Form wie $\frac{0}{0}$ oder $\frac{\infty}{\infty}$ führt. Die Regel von de l’Hospital ist ein Werkzeug zur Behandlung solcher Ausdrücke. |
| Grenzwert | Der Wert, dem sich eine Funktion annähert, wenn sich die Eingabe (Variable) einem bestimmten Wert nähert. Bei der Anwendung der Regel von de l’Hospital wird der Grenzwert eines Quotienten von Funktionen bestimmt. |
| Differenzierbare Funktionen | Funktionen, deren Ableitung an jedem Punkt des Definitionsbereichs existiert. Die Regel von de l’Hospital setzt voraus, dass die Zähler- und Nennerfunktionen im betrachteten Intervall differenzierbar sind. |
| Ableitung | Die Ableitung einer Funktion gibt die momentane Änderungsrate der Funktion an einem bestimmten Punkt an. Sie wird oft als Steigung der Tangente an den Graphen der Funktion interpretiert. |
| Stetige Fortsetzung | Eine Funktion, die an einer bestimmten Stelle nicht definiert ist, aber durch einen Grenzwert an dieser Stelle so ergänzt werden kann, dass die resultierende Funktion stetig ist. Die Regel von de l’Hospital liefert oft den Wert für eine solche stetige Fortsetzung. |
| Taylor-Entwicklung | Eine Methode zur Darstellung einer Funktion als unendliche Summe von Termen, die aus den Ableitungen der Funktion an einem Punkt berechnet werden. Die Taylor-Entwicklung kann helfen, das Verhalten von Funktionen in der Nähe eines Punktes zu verstehen und die Anwendung der Regel von de l’Hospital zu erklären. |
| Lineare Approximation | Die Annäherung einer Funktion durch eine Gerade. Das Newton-Verfahren nutzt die lineare Approximation einer Funktion, um deren Nullstellen zu finden. |
| Newton-Verfahren | Ein iteratives numerisches Verfahren zur näherungsweisen Bestimmung von Nullstellen einer differenzierbaren Funktion. Es basiert auf der Idee, die Funktion durch ihre Tangente zu approximieren und die Nullstelle dieser Tangente als nächste Näherung zu verwenden. |
| Partielle Integration | Eine Integrationsregel, die aus der Produktregel der Differentiation abgeleitet wird. Sie ermöglicht die Integration von Produkten zweier Funktionen, indem sie das Integral in eine Form umwandelt, die leichter zu lösen ist. Die Grundformel lautet: $\int f(x)g'(x) dx = f(x)g(x) - \int f'(x)g(x) dx$. |
| Stammfunktion | Eine Funktion, deren Ableitung die gegebene Funktion ergibt. Wenn $F(x)$ eine Stammfunktion von $f(x)$ ist, dann gilt $F'(x) = f(x)$. |
| Iteration (bei partieller Integration) | Die wiederholte Anwendung der partiellen Integration auf ein Integral, um komplexere Integrale zu lösen. Dies ist besonders nützlich, wenn bei der ersten Anwendung der partiellen Integration ein neues Integral entsteht, das immer noch eine Produktform aufweist, wie z.B. bei der Integration von $x^2 e^x$. |
| Anwendungsbereich der partiellen Integration | Die partielle Integration wird typischerweise angewendet, wenn ein Produkt von Funktionen integriert werden muss und für einen der beiden Faktoren eine Stammfunktion bekannt ist, aber nicht unbedingt für beide. Die Wahl der Funktionen $f(x)$ und $g'(x)$ kann das Ergebnis beeinflussen. |
| Künstliche Produktbildung | Eine Technik, bei der ein Integral, das zunächst nicht als Produkt erscheint (z.B. $\int \ln x dx$), künstlich in die Form eines Produkts gebracht wird, um die partielle Integration anwenden zu können. Dies geschieht oft, indem man eine Funktion als $1$ oder $x$ (als Stammfunktion von $dx$) wählt. |
| Bestimmtes Integral | Das bestimmte Integral einer stetigen Funktion $f$ auf dem Intervall $[a,b]$ ist der Grenzwert der Summe der Flächen von Rechtecken, deren Breite gegen Null geht und deren Höhe durch Funktionswerte der Funktion bestimmt wird. Es repräsentiert die Fläche unter dem Graphen der Funktion. |
| Unterteilung des Definitionsbereichs | Eine Unterteilung des Definitionsbereichs $[a,b]$ einer Funktion $f$ erfolgt durch die Wahl von Punkten $x_0, x_1, \dots, x_n$, sodass $a = x_0 < x_1 < \dots < x_n = b$. Diese Punkte definieren Teilintervalle $[x_{i-1}, x_i]$ der Breite $\Delta x$. |
| Zwischenstelle ($\xi_i$) | Eine Zwischenstelle $\xi_i$ ist ein beliebiger Punkt, der innerhalb eines Teilintervalls $[x_{i-1}, x_i]$ einer Unterteilung des Definitionsbereichs gewählt wird. Die Höhe der Rechtecke zur Flächenapproximation wird durch $f(\xi_i)$ bestimmt. |
| Flächenapproximation durch Rechtecke | Die Idee, die Fläche unter dem Graphen einer Funktion durch eine Summe von Rechtecken zu approximieren, deren Breite $\Delta x$ und deren Höhe $f(\xi_i)$ ist. Die Gesamtfläche wird durch die Summe $\sum_{i=1}^{n} f(\xi_i)\Delta x$ angenähert. |
| Grenzwert der Riemann-Summe | Der Grenzwert der Summe $\sum_{i=1}^{n} f(\xi_i)\Delta x$, wenn die Breite der Teilintervalle $\Delta x$ gegen Null geht und die Anzahl der Intervalle $n$ gegen Unendlich strebt. Dieser Grenzwert definiert das bestimmte Integral. |
| Maximum ($f_{max,i}$) und Minimum ($f_{min,i}$) auf Teilintervallen | $f_{max,i}$ bezeichnet das Maximum und $f_{min,i}$ das Minimum der stetigen Funktion $f$ auf dem abgeschlossenen Teilintervall $[x_{i-1}, x_i]$. Diese Werte werden verwendet, um obere und untere Schranken für die Fläche zu definieren. |
| Schreibweise für das bestimmte Integral | Das bestimmte Integral einer stetigen Funktion $f$ über das Intervall $[a,b]$ wird als $A = \int_{a}^{b} f(t)dt$ geschrieben, wobei $A$ die resultierende Fläche darstellt. |
| Implikation | Die Implikation, symbolisiert durch `⇒`, ist eine logische Verknüpfung, die besagt, dass wenn die erste Aussage (Antezedens) wahr ist, auch die zweite Aussage (Konsequens) wahr sein muss. Sie ist ein zentrales Prinzip im direkten Beweis (`A ∧(A ⇒B) ⇒B`). |
| Beweisprinzip | Eine allgemeingültige Formel, die unabhängig von den Wahrheitswerten der beteiligten Aussagen stets wahr ist. Das Prinzip des direkten Beweises (`A ∧(A ⇒B) ⇒B`) ist ein Beispiel dafür. |
| Notwendige Bedingung | Wenn eine Aussage `A ⇒B` gilt, dann ist `B` eine notwendige Bedingung für `A`. Das bedeutet, dass `B` wahr sein muss, damit `A` wahr sein kann. |
| Äquivalenz | Die Äquivalenz, symbolisiert durch `⇔`, stellt eine doppelte Implikation dar, bei der zwei Aussagen denselben Wahrheitswert haben. Sie wird durch die allgemeingültige Formel `((A ⇒B) ∧(B ⇒A)) ⇔(A ⇔B)` beschrieben. |
| Tautologie | Eine allgemeingültige Formel in der Aussagenlogik, die immer wahr ist, unabhängig von den Wahrheitswerten der einzelnen Aussagen. Umgangssprachlich wird dies oft mit Selbstverständlichkeiten gleichgesetzt, kann aber logisch auch sehr komplex sein. |
| Kettenschluss | Die Transitivität der Implikation besagt, dass wenn `A ⇒B` und `B ⇒C` gelten, dann auch `A ⇒C` gilt. Diese Eigenschaft ist entscheidend für Beweise, bei denen man schrittweise von Prämissen zur Konklusion gelangt. |
| Indirekter Beweis | Eine Beweismethode, bei der die Annahme, dass die zu beweisende Aussage `B` falsch ist (`¬B`), zum Widerspruch geführt wird. Wenn aus `¬B` ein Widerspruch (`¬A`, wobei `A` wahr ist) folgt, ist `B` wahr. Das Beweisprinzip lautet: `(A ∧(¬B ⇒¬A)) ⇒B`. |
| Widerspruchsfreiheit | Die Eigenschaft eines Systems von Aussagen (z.B. eines Axiomensystems), keine widersprüchlichen Aussagen zu enthalten. Die Verletzung der Widerspruchsfreiheit hat zur Folge, dass aus einem Widerspruch jede beliebige Aussage gefolgert werden kann (`ex contradictione sequitur quodlibet`). |
| Ex contradictione sequitur quodlibet | Ein lateinischer Satz, der besagt, dass aus einem Widerspruch jede beliebige Aussage folgt. Dies unterstreicht die Notwendigkeit der Widerspruchsfreiheit in logischen Systemen, da ein Widerspruch deren Brauchbarkeit vollständig zerstört. |
| Natürliche Zahlen | Die Menge der natürlichen Zahlen, bezeichnet mit $\mathbb{N}$, umfasst die Zahlen $\{0, 1, 2, 3, \dots\}$. Diese Menge ist unendlich, was direkte Beweise über alle ihre Elemente erschwert. |
| Prinzip der vollständigen Induktion | Ein Beweisprinzip, das verwendet wird, um Aussagen für alle natürlichen Zahlen zu beweisen. Es besteht aus einem Induktionsanfang (Aussage für die erste natürliche Zahl ist wahr) und einem Induktionsschluss (wenn die Aussage für eine beliebige natürliche Zahl $k$ wahr ist, dann ist sie auch für $k+1$ wahr). |
| Induktionsanfang | Der erste Schritt im Beweis nach dem Prinzip der vollständigen Induktion. Hierbei wird gezeigt, dass die zu beweisende Aussage für die kleinste betrachtete natürliche Zahl (oft $n=1$) wahr ist. |
| Induktionsvoraussetzung | Die Annahme im zweiten Schritt des Induktionsbeweises. Man geht davon aus, dass die zu beweisende Aussage $A(k)$ für eine beliebige natürliche Zahl $k$ wahr ist. |
| Induktionsschluss | Der dritte Schritt im Induktionsbeweis. Unter der Annahme der Induktionsvoraussetzung ($A(k)$ ist wahr) wird gezeigt, dass die Aussage auch für die nächste natürliche Zahl, also $A(k+1)$, wahr ist. |
| Aussageform A(n) | Eine Aussage, die von einer natürlichen Zahl $n$ abhängt. Das Prinzip der vollständigen Induktion wird verwendet, um die Wahrheit dieser Aussageform für alle natürlichen Zahlen zu beweisen. |
| Fallunterscheidung | Eine Beweismethode, bei der eine Aussage für verschiedene Fälle separat untersucht wird. Bei unendlichen Mengen wie den natürlichen Zahlen stößt diese Methode schnell an ihre Grenzen. |
| Ungleichung | Eine mathematische Aussage, die zwei Ausdrücke durch ein Ungleichheitszeichen wie $<$, $>$, $\le$ oder $\ge$ verbindet. |
| Fakultät ($n!$) | Das Produkt aller positiven ganzen Zahlen bis zu einer gegebenen natürlichen Zahl $n$. Zum Beispiel ist $5! = 5 \cdot 4 \cdot 3 \cdot 2 \cdot 1 = 120$. |
| Komposition von Abbildungen | Die Komposition zweier Abbildungen $f: X \to Y$ und $g: Y \to Z$ ist eine neue Abbildung $g \circ f: X \to Z$, definiert durch $(g \circ f)(x) = g(f(x))$ für alle $x \in X$. Diese Operation erlaubt es, Abbildungen zu verketten. |
| Injektivität | Eine Abbildung $f: X \to Y$ heißt injektiv, wenn für je zwei verschiedene Elemente $x_1, x_2 \in X$ auch ihre Bilder $f(x_1)$ und $f(x_2)$ in $Y$ verschieden sind. Dies bedeutet, dass jedem Element in der Zielmenge höchstens ein Element aus der Definitionsmenge zugeordnet wird. |
| Surjektivität | Eine Abbildung $f: X \to Y$ heißt surjektiv, wenn jedes Element in der Zielmenge $Y$ mindestens ein Urbild in der Definitionsmenge $X$ besitzt. Das bedeutet, dass das Bild der Abbildung gleich der Zielmenge ist, also $f(X) = Y$. |
| Bijektivität | Eine Abbildung $f: X \to Y$ heißt bijektiv, wenn sie sowohl injektiv als auch surjektiv ist. Bijektive Abbildungen sind umkehrbar und stellen eine Eins-zu-Eins-Entsprechung zwischen den Elementen von $X$ und $Y$ her. |
| Umkehrabbildung | Eine Abbildung $f^{-1}: Y \to X$ ist die Umkehrabbildung einer bijektiven Abbildung $f: X \to Y$, wenn die Kompositionen $f \circ f^{-1}$ und $f^{-1} \circ f$ jeweils die Identitätsabbildungen auf $Y$ bzw. $X$ ergeben. |
| Äquivalenzrelation | Eine Relation $\sim$ auf einer Menge $X$ ist eine Äquivalenzrelation, wenn sie reflexiv ($x \sim x$), symmetrisch ($x \sim y \implies y \sim x$) und transitiv ($x \sim y \land y \sim z \implies x \sim z$) ist. Sie partitioniert die Menge in disjunkte Äquivalenzklassen. |
| Äquivalenzklasse | Für eine Äquivalenzrelation $\sim$ auf einer Menge $X$ ist die Äquivalenzklasse eines Elements $x \in X$ die Menge aller Elemente in $X$, die zu $x$ äquivalent sind, bezeichnet als $[x] = \{y \in X \mid y \sim x\}$. |
| Faser einer Abbildung | Die Faser einer Abbildung $f: X \to Y$ über einem Element $y \in Y$ ist die Menge aller Urbilder von $y$, also $f^{-1}(y) = \{x \in X \mid f(x) = y\}$. Bei surjektiven Abbildungen bilden die Fasern eine Zerlegung der Definitionsmenge. |
| Bild einer Abbildung (Bildbereich) | Das Bild oder der Bildbereich einer Abbildung $f: X \to Y$ ist die Menge aller Werte, die die Abbildung annimmt, also $f(X) = \{y \in Y \mid \exists x \in X \text{ mit } f(x) = y\}$. |
| Einschränkung einer Abbildung | Die Einschränkung einer Abbildung $f: X \to Y$ auf eine Teilmenge $X' \subseteq X$ ist eine neue Abbildung $f|_{X'}: X' \to Y$, die auf $X'$ dieselbe Vorschrift wie $f$ hat. |
| Gleichmächtigkeit von Mengen | Zwei Mengen $X$ und $Y$ heißen gleichmächtig, wenn es eine bijektive Abbildung zwischen ihnen gibt. Dies ist eine Äquivalenzrelation auf der Menge aller Mengen. |
| Potenzmenge | Die Potenzmenge einer Menge $M$ ist die Menge aller Teilmengen von $M$. Sie wird oft mit $\mathcal{P}(M)$ oder $2^M$ bezeichnet. |
| Transponierte Matrix | Für eine Matrix $A = (a_{ij})_{mn}$ ist die transponierte Matrix $^tA$ definiert durch $(^tA)_{ji} := a_{ij}$. Sie entsteht durch Spiegelung der Einträge an der Diagonalen und stimmt mit der ursprünglichen Matrix überein, wenn die Matrix symmetrisch ist. |
| Symmetrische Matrix | Eine quadratische Matrix $A$ wird als symmetrisch bezeichnet, wenn sie mit ihrer transponierten Matrix übereinstimmt, das heißt, wenn $A = ^tA$. Dies bedeutet, dass die Einträge $a_{ij}$ gleich $a_{ji}$ für alle Indizes $i$ und $j$ sind. |
| Diagonalmatrix | Eine Matrix wird als Diagonalmatrix bezeichnet, wenn alle ihre Einträge außerhalb der Hauptdiagonalen Null sind. Die Einträge auf der Diagonalen können beliebig sein. |
| Matrixpotenzen | Beziehen sich auf das wiederholte Multiplizieren einer Matrix mit sich selbst. In diesem Kontext beschreiben sie die kumulative Wirkung von Übergängen über mehrere Zeitperioden hinweg, wobei die $n$-te Potenz einer Matrix die Übergänge nach $n$ Perioden darstellt. |
| Übergangsmatrix | Eine quadratische Matrix, deren Einträge die Wahrscheinlichkeiten oder Raten beschreiben, mit denen ein System von einem Zustand in einen anderen übergeht. Die Zeilensummen einer solchen Matrix sind typischerweise gleich 1, was die vollständige Abdeckung aller möglichen Übergänge für einen gegebenen Zustand sicherstellt. |
| Marktanteile | Die prozentualen Anteile, die einzelne Produkte oder Dienstleistungen an einem bestimmten Markt halten. Diese Anteile können sich im Laufe der Zeit ändern, beeinflusst durch Faktoren wie Kundenmigration und Marketingstrategien. |
| Vektor der Marktanteile | Ein Vektor, der die aktuellen Marktanteile verschiedener Produkte in einem System darstellt. Die einzelnen Elemente des Vektors entsprechen den prozentualen Anteilen der jeweiligen Produkte, und ihre Summe ergibt 100%. |
| Kundenmigration | Der Prozess, bei dem Kunden ihre Präferenzen ändern und von einem Produkt zu einem anderen wechseln. Dies wird in der Regel durch eine Übergangsmatrix quantifiziert, die angibt, wie viele Kunden von einem Produkt zu einem anderen abwandern. |
| Langzeitverhalten | Die Entwicklung eines Systems über einen sehr langen Zeitraum hinweg. Bei Systemen, die durch Übergangsmatrizen beschrieben werden, kann das Langzeitverhalten durch die Potenzen der Übergangsmatrix bestimmt werden, insbesondere wenn sich die Marktanteile stabilisieren. |
| Polynomdivision | Ein Verfahren zur Division eines Polynoms durch ein anderes Polynom, das zu einem Quotienten und einem Rest führt. |
| Rest (bei Polynomen) | Das Polynom $r(x)$ in der Darstellung $p(x) = h(x) \cdot q(x) + r(x)$, dessen Grad kleiner ist als der Grad des Divisors $q(x)$. |
| Grad eines Polynoms | Die höchste Potenz der Variablen in einem Polynom, multipliziert mit ihrem Koeffizienten. |
| Nullstelle eines Polynoms | Ein Wert $x_0$, für den das Polynom $p(x)$ den Wert Null annimmt, also $p(x_0) = 0$. |
| Linearfaktor | Ein Polynom ersten Grades der Form $(x - x_0)$, wobei $x_0$ eine Nullstelle des Polynoms ist. |
| Division mit Rest (für natürliche Zahlen) | Die Darstellung einer natürlichen Zahl $n$ als Produkt einer natürlichen Zahl $k$ und einem Quotienten $l$ plus einem Rest $r$, wobei $n = k \cdot l + r$ und $r < k$ gilt. |
| Teiler (einer Zahl) | Eine Zahl $k$ ist ein Teiler einer Zahl $n$, wenn die Division von $n$ durch $k$ ohne Rest erfolgt, d.h. der Rest $r=0$ ist. |
| Algebraische Funktion | Eine Funktion $y = f(x)$ wird als algebraisch bezeichnet, wenn es Polynome $p_0, p_1, \dots, p_n$ in $x$ gibt, sodass die Gleichung $p_0(x) + p_1(x)y + p_2(x)y^2 + \dots + p_n(x)y^n = 0$ für alle $x$ gilt. |
| Exponentialfunktion | Eine Funktion, die eine Konstante als Basis und eine Variable im Exponenten aufweist, wie beispielsweise $y = a^x$ oder $y = e^x$. |
| Logarithmusfunktion | Die Umkehrfunktion der Exponentialfunktion, die angibt, mit welchem Exponenten eine Basis potenziert werden muss, um einen gegebenen Wert zu erhalten. Sie wird typischerweise als $y = \log_a x$ oder $y = \ln x$ geschrieben. |
| Logistische Funktion | Eine Funktion der Form $g(x) := \frac{k}{1 + \exp(f(x))}$, wobei $f(x)$ eine streng monoton fallende und unbeschränkte Funktion ist. Sie beschreibt eine Größe, die zwischen 0 und $k$ anwächst und eine Sättigungsgrenze bei $k$ erreicht. |
| Potenzfunktion | Eine Funktion der Form $y = x^n$, wobei $n$ eine reelle Zahl ist. Auf geeigneten Intervallen sind Potenzfunktionen streng monoton und somit umkehrbar. |
| Rationale Funktion | Eine Funktion, die als Quotient zweier Polynome dargestellt werden kann. Rationale Funktionen sind eine spezielle Unterklasse der algebraischen Funktionen. |
| Transzendente Funktion | Eine Funktion, die nicht algebraisch ist. Hierzu zählen beispielsweise Exponential-, Logarithmus- und trigonometrische Funktionen. |
| Wurzelfunktion | Eine Funktion, die Wurzeln von Potenzen von $x$ oder Summen davon beinhaltet. Wurzelfunktionen sind eine spezielle Art von algebraischen Funktionen. |
| Taylor-Reihe | Eine unendliche Reihe von Termen, die aus den Ableitungen einer Funktion an einem bestimmten Punkt berechnet werden. Sie dient dazu, eine Funktion lokal durch ein Polynom anzunähern. |
| Potenzreihe | Eine unendliche Reihe der Form $\sum_{n=0}^{\infty} a_n (x-x_0)^n$, die zur Darstellung von Funktionen verwendet wird. Die Taylor-Reihe ist eine spezielle Form einer Potenzreihe. |
| Ausgangsfunktion | Die ursprüngliche Funktion, die durch eine Taylor-Reihe approximiert oder dargestellt werden soll. |
| Polynom | Ein Ausdruck, der aus Variablen und Koeffizienten besteht, die nur die Operationen Addition, Subtraktion, Multiplikation und nicht-negative ganzzahlige Potenzen von Variablen beinhalten. Polynome sind exakte Darstellungen durch ihre eigene Taylor-Reihe. |
| Trigonometrische Funktionen | Funktionen wie Sinus, Kosinus und Tangens, die Beziehungen zwischen Winkeln und Seitenverhältnissen in Dreiecken beschreiben. Ihre Taylor-Reihen konvergieren ebenfalls gegen die Funktionen. |
| Rationale Funktionen | Funktionen, die als Quotient zweier Polynome dargestellt werden können. Außerhalb ihrer Polstellen können sie gut durch Taylor-Reihen dargestellt werden. |
| Polstelle | Ein Punkt, an dem der Nenner einer rationalen Funktion Null wird und der Zähler ungleich Null ist, was zu einem unendlichen Wert der Funktion führt. |
| Restglied | Der Unterschied zwischen der ursprünglichen Funktion und ihrer endlichen Taylor-Approximation. Es gibt verschiedene Darstellungen für das Restglied. |
| Restglieddarstellung | Formeln, die den Fehler (das Restglied) einer Taylor-Approximation quantifizieren. Bekannte Darstellungen sind die Integralform und die Lagrangesche Form. |
| Lagrangesche Restgliedform | Eine Darstellung des Restglieds $R_n(x) = \frac{f^{(n+1)}(x_1)}{(n+1)!} \cdot (x-x_0)^{n+1}$, wobei $x_1$ zwischen $x_0$ und $x$ liegt. |
| Tangentensteigung | Die Steigung der Tangente an den Graphen einer Funktion an einem bestimmten Punkt, die durch die erste Ableitung der Funktion an diesem Punkt gegeben ist. |
| Monotoniebereiche | Intervalle, in denen eine Funktion entweder streng monoton wachsend oder streng monoton fallend ist, charakterisiert durch das Vorzeichen ihrer ersten Ableitung. |
| Extremwerte | Punkte, an denen eine Funktion ihren maximalen oder minimalen Wert annimmt, entweder lokal oder global über ihren gesamten Definitionsbereich. |
| Randpunkte | Die Endpunkte eines abgeschlossenen Intervalls, die bei der Untersuchung von Funktionen auf Extremwerte besondere Berücksichtigung finden müssen. |
| Stellen mangelnder Differenzierbarkeit | Punkte im Definitionsbereich einer Funktion, an denen die Ableitung nicht existiert, was ebenfalls zur Untersuchung von Extremwerten relevant ist. |
| Extremwertprinzip | Ein fundamentaler Satz, der besagt, dass eine stetige Funktion auf einem abgeschlossenen Intervall stets ein globales Maximum und ein globales Minimum annimmt. |
| Bildbereich | Die Menge aller möglichen Ausgabewerte einer Funktion, die durch die Anwendung der Funktion auf ihren Definitionsbereich entstehen. |
| Supremum | Die kleinste obere Schranke einer Menge von Zahlen; bei Funktionen das kleinste obere Ende des Wertebereichs, das aber nicht unbedingt angenommen werden muss. |
| Konvergente Teilfolge | Eine Folge, die aus Elementen einer anderen Folge entnommen wird und deren Glieder sich einem bestimmten Grenzwert annähern. |
| Bedingung erster Ordnung | Eine notwendige Bedingung für lokale Extremwerte einer differenzierbaren Funktion an einem inneren Punkt des Definitionsbereichs, nämlich dass die erste Ableitung dort gleich Null sein muss ($f'(x_0) = 0$). |
| Integralfunktion | Die Integralfunktion $F(x)$ einer stetigen Funktion $f$ auf dem Intervall $[a,b]$ ist definiert als $F(x) = \int_a^x f(t) dt$. Sie repräsentiert die Fläche unter der Funktion $f$ von $a$ bis $x$. |
| Hauptsatz der Differential- und Integralrechnung | Dieser Satz besagt, dass die Ableitung der Integralfunktion $F(x) = \int_a^x f(t) dt$ gleich der ursprünglichen Funktion $f(x)$ ist, also $F'(x) = f(x)$. Er stellt eine fundamentale Verbindung zwischen Differentiation und Integration her. |
| Differenzbildung | Die Differenzbildung zwischen den Werten einer Stammfunktion an den Grenzen eines Intervalls, wie $F(b) - F(a)$, ergibt den Wert des bestimmten Integrals der Funktion $f(x)$ über dieses Intervall. Dies gilt unabhängig von der Wahl der Konstanten bei der Stammfunktion. |
| Reihenkonvergenz | Die Konvergenz einer unendlichen Reihe, die untersucht, ob die Summe der Glieder der Reihe einen endlichen Wert annimmt oder gegen Unendlich strebt. |
| Integralvergleichskriterium | Ein mathematisches Kriterium, das die Konvergenz einer Reihe mit der Konvergenz eines zugehörigen Integrals vergleicht, um Aussagen über die Summe der Reihenglieder zu treffen. |
| Harmonische Reihe | Die unendliche Reihe der Kehrwerte der natürlichen Zahlen, die als $\sum_{n=1}^{\infty} \frac{1}{n}$ geschrieben wird und bekanntermaßen divergiert. |
| Partialsumme | Die Summe der ersten $n$ Glieder einer unendlichen Reihe, die als $S_n = \sum_{k=1}^{n} a_k$ dargestellt wird und zur Untersuchung der Reihenkonvergenz dient. |
| Treppenfunktion | Eine Funktion, die aus einer endlichen Anzahl von horizontalen Segmenten besteht und deren Werte über Intervalle konstant sind, oft verwendet, um Integrale anzunähern. |
| Gauss-Klammer | Die Funktion $[x]$, die den größten ganzen Zahl kleiner oder gleich $x$ angibt und zur Konstruktion von Treppenfunktionen verwendet wird. |
| Asymptotik | Das Verhalten einer Funktion für sehr große oder sehr kleine Werte ihres Arguments, das oft durch einfachere Funktionen beschrieben wird. |
| Uneigentliches Integral | Ein Integral, bei dem mindestens eine der Integrationsgrenzen unendlich ist oder der Integrand an einer Stelle im Integrationsintervall unbeschränkt ist. |
| Logarithmus | Die Umkehrfunktion der Exponentialfunktion, die angibt, mit welchem Exponenten die Basis potenziert werden muss, um den gegebenen Wert zu erhalten, hier insbesondere $\ln(n)$. |
| Lineare Gleichung | Eine Gleichung, bei der die Variablen nur in der ersten Potenz vorkommen und keine Produkte verschiedener Variablen enthalten sind. |
| Lineare Gleichung in 1 Variablen | Eine Gleichung der Form $ax + b = c$, die, falls $a \neq 0$, genau eine Lösung $x = \frac{c-b}{a}$ besitzt. Bei $a=0$ gibt es entweder keine oder unendlich viele Lösungen, abhängig davon, ob $b=c$ gilt. |
| Allgemeine Lineare Gleichung | Eine Gleichung in $n$ Variablen $x_1, \dots, x_n$ der Form $\sum_{i=1}^{n} a_i x_i = b$, wobei $a_i$ und $b$ konstante Koeffizienten sind. |
| Koeffizienten | Die konstanten Zahlen $a_i$, die die Variablen $x_i$ in einer linearen Gleichung multiplizieren. |
| Ax = b | Eine kompakte Schreibweise für ein lineares Gleichungssystem, wobei $A$ die Koeffizientenmatrix, $x$ der Vektor der Unbekannten und $b$ der Vektor der konstanten Terme ist. |
| Koeffizientenmatrix | Eine Matrix $A = (a_{ij})$, die die Koeffizienten der linken Seiten eines linearen Gleichungssystems enthält. |
| Partialbruchzerlegung | Eine Methode, um eine rationale Funktion in eine Summe von einfacheren Brüchen zu zerlegen, deren Nenner Potenzen von Linearfaktoren oder irreduziblen quadratischen Faktoren des ursprünglichen Nenners sind. |
| Nullstellen eines Polynoms | Die Werte einer Variablen, für die das Polynom den Wert Null annimmt. Diese Werte sind entscheidend für die Faktorisierung des Nenners einer rationalen Funktion. |
| Linearfaktoren | Polynome vom Grad Eins, die die Form $(x-c)$ haben, wobei $c$ eine Konstante ist. Sie entstehen aus den Nullstellen eines Polynoms. |
| Konstanten | Feste numerische Werte, die in mathematischen Ausdrücken nicht von Variablen abhängen und bei der Zerlegung von Funktionen als Koeffizienten auftreten. |
| Unstetigkeitsstellen | Punkte in der Definitionsmenge einer Funktion, an denen die Funktion nicht stetig ist. Bei rationalen Funktionen sind dies typischerweise die Nullstellen des Nenners. |
| Pole | Spezielle Unstetigkeitsstellen einer rationalen Funktion, die durch Nullstellen des Nenners verursacht werden, nachdem alle gemeinsamen Faktoren im Zähler und Nenner gekürzt wurden. |
| Quadratisches Polynom | Ein Polynom vom Grad Zwei, das die allgemeine Form $ax^2 + bx + c$ hat, wobei $a$, $b$ und $c$ Konstanten sind und $a \neq 0$. |
| Elementare Zeilenoperationen | Grundlegende Transformationen, die auf die Zeilen einer Matrix (oder eines linearen Gleichungssystems) angewendet werden können, um das System zu vereinfachen, ohne seine Lösungsmenge zu verändern. Dazu gehören die Multiplikation einer Zeile mit einem Skalar, die Vertauschung zweier Zeilen und die Addition eines Vielfachen einer Zeile zu einer anderen. |
| Gebrochen rationale Funktion | Eine rationale Funktion, bei der sowohl Zähler als auch Nenner Polynome sind und der Nenner nicht konstant ungleich Null ist. |
| Ganzrationale Funktion | Eine Funktion, die als Polynom dargestellt werden kann, was einem unechten Bruch bei rationalen Funktionen entspricht, bei dem der Nenner eine Konstante ungleich Null ist. |
| Gekürzte Darstellung | Die eindeutige Darstellung einer rationalen Funktion als Quotient zweier Polynome, bei der alle gemeinsamen Faktoren im Zähler und Nenner herausdividiert wurden. |
| Nullstelle einer rationalen Funktion | Eine Stelle $x_0$ im Definitionsbereich $D$ einer rationalen Funktion $f(x)$, für die $f(x_0) = 0$ gilt. Dies tritt auf, wenn der Zähler an dieser Stelle Null ist und der Nenner dort definiert ist. |
| Singularität | Eine Stelle, an der eine Funktion nicht definiert ist oder sich nicht wie erwartet verhält, wie z.B. bei Division durch Null. |
| Pol einer rationalen Funktion | Eine Nullstelle des Nenners einer rationalen Funktion, die nicht durch eine Nullstelle des Zählers kompensiert wird, sodass die Funktion an dieser Stelle gegen Unendlich strebt. |
| Hebbare Singularität | Eine Singularität, die durch Kürzung gemeinsamer Linearfaktoren von Zähler und Nenner einer rationalen Funktion beseitigt werden kann, sodass die Funktion an dieser Stelle stetig fortsetzbar ist. |
| Differentialquotient | Der Grenzwert des Verhältnisses von Funktionsänderung zu Änderung der unabhängigen Variable, wenn die Änderung der unabhängigen Variable gegen Null geht. Er repräsentiert die momentane Änderungsrate einer Funktion an einer bestimmten Stelle. |
| Erste Ableitung | Ein alternativer Begriff für den Differentialquotienten einer Funktion. Sie gibt die Steigung der Tangente an den Graphen der Funktion an jedem Punkt des Definitionsbereichs an, an dem sie existiert. |
| Differenzierbar | Eine Funktion wird als differenzierbar bezeichnet, wenn ihr Differentialquotient (erste Ableitung) für alle Punkte in ihrem Definitionsbereich existiert. Dies bedeutet, dass die Funktion an jeder Stelle glatt ist und keine Knicke oder Sprünge aufweist. |
| Linearität der Ableitung | Eine Eigenschaft der Ableitung, die besagt, dass die Ableitung einer Linearkombination von Funktionen gleich der Linearkombination ihrer Ableitungen ist. Für Konstanten $a, b$ und differenzierbare Funktionen $f, g$ gilt $(af + bg)' = af' + bg'$. |
| Taylorpolynom | Die n-te endliche Partialsumme der Taylor-Reihe einer Funktion $f$ im Entwicklungspunkt $x_0$. Es stellt eine Approximation der Funktion durch ein Polynom dar. |
| Entwicklungspunkt | Der Punkt $x_0$ in der Definitionsmenge $D$ einer Funktion $f$, um den die Taylor-Reihe oder das Taylorpolynom gebildet wird. |
| Restglied der Taylor-Approximation | Die Differenz zwischen der Funktion $f(x)$ und ihrem n-ten Taylorpolynom $T_{f,n}(x)$, also $R_n(x) = f(x) - T_{f,n}(x)$. Es gibt an, wie gut die Approximation ist. |
| Approximationsgüte | Ein Maß dafür, wie gut ein Taylorpolynom eine gegebene Funktion in der Nähe des Entwicklungspunktes annähert. Sie ist gut, wenn das Restglied gegen Null konvergiert. |
| Taylor-Approximation | Eine Approximation einer Funktion $f(x)$ durch ein Taylorpolynom $T_{f,n}(x)$, das die Funktion und ihre Ableitungen bis zu einer bestimmten Ordnung $n$ an einem Entwicklungspunkt $x_0$ übereinstimmt. |
| Konvergenz der Taylor-Reihe | Eine Taylor-Reihe konvergiert gegen die Ausgangsfunktion, wenn der Grenzwert des Restglieds für $n \to \infty$ gegen Null geht, d.h. $\lim_{n\to\infty} R_n(x) = 0$. |
| Integralform des Restglieds | Eine Darstellung des Restglieds $R_n(x)$ als Integral: $R_n(x) = \frac{1}{n!} \int_{x_0}^{x} (x-t)^n f^{(n+1)}(t) dt$. Diese Form ist nützlich, um Eigenschaften des Restglieds zu untersuchen. |
| Beliebig oft differenzierbare Funktion | Eine Funktion, deren Ableitungen jeder Ordnung existieren. Dies ist eine Voraussetzung für die Bildung von Taylor-Reihen und die Untersuchung des Restglieds. |
| Integrand | Die Funktion $f(x)$ in einem Integral $\int f(x)dx$, deren Stammfunktion gesucht wird. |
| Integrationsvariable | Die Variable, nach der in einem Integral integriert wird, typischerweise $x$ in $\int f(x)dx$. |
| Integrationskonstante | Eine beliebige Konstante $c \in \mathbb{R}$, die zur Stammfunktion addiert wird, da die Ableitung einer Konstanten Null ist und somit die ursprüngliche Funktion unverändert bleibt. |
| Linearität des Integrals | Eine Integrationsregel, die besagt, dass das Integral einer Summe von Funktionen gleich der Summe der Integrale der einzelnen Funktionen ist und dass konstante Faktoren aus dem Integral herausgezogen werden können: $\int (af(x) + bg(x))dx = a\int f(x)dx + b\int g(x)dx$. |
| Substitutionsregel | Eine Integrationsregel, die aus der Kettenregel der Differentiation abgeleitet wird und dazu dient, Integrale durch Ersetzen einer Funktion durch eine neue Variable zu vereinfachen. Sie lautet $\int f(g(x))g'(x)dx = \int f(u)du$, wobei $u=g(x)$. |
| Matrix | Ein rechteckiges Zahlenschema mit $m$ Zeilen und $n$ Spalten, das als $A = (a_{ij})_{mn}$ geschrieben wird. Zwei Matrizen sind gleich, wenn sie dasselbe Format und dieselben Einträge haben. |
| Zeilenvektor | Eine Matrix mit nur einer Zeile, also eine $1 \times n$ Matrix, die als $(a_1, \dots, a_n)$ dargestellt wird. Sie besteht aus $n$ nebeneinander stehenden Spaltenvektoren gleicher Länge. |
| Spaltenvektor | Eine Matrix mit nur einer Spalte, also eine $m \times 1$ Matrix, die als Spalte von Einträgen dargestellt wird. Sie besteht aus $m$ untereinander stehenden Zeilenvektoren gleicher Länge. |
| Asymptotisches Verhalten | Beschreibt das Verhalten einer Funktion für sehr große oder sehr kleine Werte des Arguments, insbesondere im Grenzfall, wenn das Argument gegen Unendlich oder Minus Unendlich strebt. |
| Grenzwert für $x \to \infty$ | Der Wert, dem sich eine Funktion annähert, wenn die Variable $x$ über alle Grenzen hinaus wächst. Dieser Grenzwert wird maßgeblich durch die höchsten Potenzen von $x$ im Zähler und Nenner bestimmt. |
| Grad des Zählers ($n$) | Die höchste Potenz von $x$ im Zählerpolynom einer rationalen Funktion. |
| Grad des Nenners ($m$) | Die höchste Potenz von $x$ im Nennerpolynom einer rationalen Funktion. |
| Koeffizient des höchsten Terms im Zähler ($a_n$) | Die Zahl, die mit der höchsten Potenz von $x$ im Zählerpolynom multipliziert wird. |
| Koeffizient des höchsten Terms im Nenner ($b_m$) | Die Zahl, die mit der höchsten Potenz von $x$ im Nennerpolynom multipliziert wird. |
| Horizontale Asymptote | Eine horizontale Linie, der sich der Graph einer Funktion annähert, wenn $x$ gegen $\pm \infty$ strebt. Bei rationalen Funktionen existiert diese, wenn $n \le m$. |
| Menge | Eine Menge ist eine Zusammenfassung bestimmter, wohlunterschiedener Objekte unserer Anschauung oder unseres Denkens, welche die Elemente der Menge genannt werden, zu einem Ganzen. |
| Element einer Menge | Ein Objekt, das zu einer bestimmten Menge gehört. Die Notation $x \in M$ bedeutet, dass $x$ ein Element der Menge $M$ ist. |
| Teilmenge | Eine Menge $X$ ist eine Teilmenge einer Menge $M$ (geschrieben als $X \subseteq M$), wenn jedes Element von $X$ auch ein Element von $M$ ist. |
| Durchschnitt von Mengen | Der Durchschnitt zweier Mengen $A$ und $B$ (geschrieben als $A \cap B$) ist die Menge aller Elemente, die sowohl in $A$ als auch in $B$ enthalten sind. |
| Komplement einer Menge | Das Komplement einer Menge $A$ (geschrieben als $\overline{A}$) innerhalb einer Grundmenge $M$ ist die Menge aller Elemente in $M$, die nicht in $A$ enthalten sind. |
| Wachstumsfunktion | Eine mathematische Funktion, die beschreibt, wie sich die Ressourcen (z.B. Zeit oder Speicherplatz) eines Algorithmus mit zunehmender Eingabegröße verändern. Typische Beispiele sind logarithmische, lineare, quadratische und exponentielle Funktionen. |
| Laufzeitanalyse | Die Untersuchung der Effizienz eines Algorithmus, insbesondere wie die Ausführungszeit mit der Größe der Eingabe skaliert. Sie wird oft durch die Verwendung von Wachstumsfunktionen ausgedrückt. |
| Logarithmische Funktion | Eine Wachstumsfunktion, die typischerweise durch $log n$ dargestellt wird. Algorithmen mit logarithmischer Laufzeit werden sehr effizient, da die benötigte Zeit nur langsam mit der Eingabegröße wächst. |
| Lineare Funktion | Eine Wachstumsfunktion, die typischerweise durch $n$ dargestellt wird. Bei linearen Algorithmen wächst die Ausführungszeit proportional zur Eingabegröße. |
| Quadratische Funktion | Eine Wachstumsfunktion, die typischerweise durch $n^2$ dargestellt wird. Algorithmen mit quadratischer Laufzeit werden bei größeren Eingaben schnell ineffizient. |
| Polynomielle Funktion | Eine Wachstumsfunktion, die durch ein Polynom der Eingabegröße $n$ dargestellt wird, z.B. $n^k$ für eine Konstante $k$. Quadratische und kubische Funktionen sind Beispiele für polynomielle Funktionen. |
| Exponentielle Funktion | Eine Wachstumsfunktion, die typischerweise durch $2^n$ oder $n!$ dargestellt wird. Algorithmen mit exponentieller Laufzeit sind für größere Eingaben extrem ineffizient und oft praktisch unbrauchbar. |
| Bogosort | Ein extrem ineffizienter Sortieralgorithmus, der zufällig Permutationen einer Liste erzeugt und prüft, ob die Liste sortiert ist. Seine Laufzeit ist im Worst Case exponentiell ($n!$). |
| Sortieren durch Auswahl (Selection Sort) | Ein einfacher Sortieralgorithmus, der wiederholt das kleinste Element aus dem unsortierten Teil der Liste findet und es an das Ende des sortierten Teils verschiebt. Seine Laufzeit ist quadratisch ($O(n^2)$). |
| Mergesort | Ein effizienter, rekursiver Sortieralgorithmus, der die Liste teilt, die Teillisten sortiert und sie dann zu einer sortierten Liste zusammenführt. Seine Laufzeit ist $O(n \log n)$. |
| Quicksort | Ein schneller, rekursiver Sortieralgorithmus, der ein "Pivot"-Element wählt und die Liste in Elemente kleiner und größer als das Pivot teilt. Seine durchschnittliche Laufzeit ist $O(n \log n)$. |
| Relation | Eine Relation $R$ zwischen zwei Mengen $X$ und $Y$ ist eine Teilmenge des kartesischen Produkts $X \times Y$, also $R \subseteq X \times Y$. Sie beschreibt eine Verbindung oder Zuordnung zwischen Elementen aus $X$ und Elementen aus $Y$. |
| Ordnungsrelation | Eine Relation, die eine Ordnung auf einer Menge definiert, wie zum Beispiel Kleiner als ($<$), Größer als ($>$), Kleiner oder gleich ($\le$) oder Größer oder gleich ($\ge$). Diese Relationen erfüllen bestimmte Eigenschaften wie Reflexivität, Antisymmetrie und Transitivität. |
| Zerlegung einer Menge | Eine Zerlegung einer Menge $M$ ist eine Sammlung von disjunkten Teilmengen $X_1, \dots, X_n$ von $M$, deren Vereinigung die gesamte Menge $M$ ergibt. Das bedeutet, dass die Schnittmenge zweier verschiedener Teilmengen leer ist und die Vereinigung aller Teilmengen $M$ ist. |
| Abbildung | Eine Abbildung $f: X \to Y$ von einer Menge $X$ (Definitionsbereich) in eine Menge $Y$ (Zielbereich) ist eine Vorschrift, die jedem Element $x$ aus $X$ genau ein Element $y$ aus $Y$ zuordnet, bezeichnet als $y = f(x)$. Der Graph einer Abbildung ist die Menge aller geordneten Paare $(x, f(x))$. |
| Injektive Abbildung | Eine Abbildung $f: X \to Y$ heißt injektiv, wenn für alle Elemente $x, y \in X$ gilt: Wenn $f(x) = f(y)$, dann muss $x = y$ sein. Das bedeutet, dass unterschiedliche Elemente im Definitionsbereich auf unterschiedliche Elemente im Zielbereich abgebildet werden. |
| Surjektive Abbildung | Eine Abbildung $f: X \to Y$ heißt surjektiv, wenn für jedes Element $y \in Y$ mindestens ein Element $x \in X$ existiert, sodass $f(x) = y$. Das bedeutet, dass jedes Element im Zielbereich von mindestens einem Element im Definitionsbereich getroffen wird. |
| Bijektive Abbildung | Eine Abbildung $f: X \to Y$ heißt bijektiv, wenn sie sowohl injektiv als auch surjektiv ist. Das bedeutet, dass jedes Element im Zielbereich von genau einem Element im Definitionsbereich getroffen wird. Bijektive Abbildungen ermöglichen eine eindeutige Zuordnung zwischen den Elementen zweier Mengen. |
| Identische Abbildung | Die identische Abbildung $id_X: X \to X$ auf einer Menge $X$ ist eine Abbildung, die jedes Element $x \in X$ auf sich selbst abbildet, also $id_X(x) = x$. Sie ist immer injektiv, surjektiv und somit bijektiv. |
| Äquivalenzklassen | Die Äquivalenzklassen einer Äquivalenzrelation auf einer Menge sind die disjunkten Teilmengen, in die die Menge durch die Relation zerlegt wird. Jede Äquivalenzklasse enthält alle Elemente, die zueinander in Relation stehen. |
| Lösbarkeit | Die Eigenschaft eines linearen Gleichungssystems, ob es eine oder mehrere Lösungen gibt oder ob es widersprüchlich und somit unlösbar ist. Die Lösbarkeit hängt von der Koeffizientenmatrix und dem Vektor der rechten Seiten ab. |
| Trichotomie der Lösungsmenge | Ein Satz, der besagt, dass für jedes lineare Gleichungssystem genau einer von drei Fällen für die Lösungsmenge zutrifft: keine Lösung, genau eine Lösung oder unendlich viele Lösungen. |
| Einsetzen (Lösungsmethode) | Eine Methode zur Lösung linearer Gleichungssysteme, bei der eine Gleichung nach einer Variablen aufgelöst und diese in die andere Gleichung eingesetzt wird, um eine Gleichung mit nur einer Variablen zu erhalten. |
| Gleichsetzen (Lösungsmethode) | Eine Methode zur Lösung linearer Gleichungssysteme, bei der beide Gleichungen nach derselben Variablen aufgelöst und die resultierenden Ausdrücke gleichgesetzt werden, um eine Gleichung mit nur einer Variablen zu erhalten. |
| Addition von Gleichungen (Lösungsmethode) | Eine Methode zur Lösung linearer Gleichungssysteme, bei der geeignete Vielfache von Gleichungen addiert werden, um eine Variable zu eliminieren und eine Gleichung mit nur einer Variablen zu erhalten. |
| Widerspruch | Ein Zustand in einem linearen Gleichungssystem, bei dem die Gleichungen nicht gleichzeitig erfüllt werden können, was zu einer Aussage wie $0 = 1$ führt und bedeutet, dass keine Lösung existiert. |
| Eindeutige Lösung | Ein lineares Gleichungssystem, für das es genau einen Satz von Werten für die Variablen gibt, der alle Gleichungen erfüllt. |
| Mehrdeutige Lösung | Ein lineares Gleichungssystem, für das es unendlich viele Sätze von Werten für die Variablen gibt, die alle Gleichungen erfüllen. |
| Gaußsches Eliminationsverfahren | Ein systematisches Verfahren zur Lösung linearer Gleichungssysteme, das durch sukzessive Anwendung von Zeilenoperationen auf die erweiterte Koeffizientenmatrix angewendet wird, um diese in eine obere Dreiecksgestalt zu überführen. |
| Erweiterte Koeffizientenmatrix | Eine Matrix, die aus den Koeffizienten der Variablen und den konstanten Termen eines linearen Gleichungssystems gebildet wird, indem die Spalte der konstanten Terme rechts an die Koeffizientenmatrix angefügt wird. |
| Eindeutige Lösbarkeit | Ein lineares Gleichungssystem ist eindeutig lösbar, wenn es genau eine einzige Lösung gibt, die alle Gleichungen erfüllt. |
| Nicht lösbare Systeme | Ein lineares Gleichungssystem, für das keine Lösung existiert. Dies erkennt man im Eliminationsverfahren an der Entstehung einer Zeile der Form $0 = b'$ mit $b' \neq 0$. |
| Normierung | Der Prozess, den führenden Koeffizienten einer Zeile in der erweiterten Koeffizientenmatrix auf den Wert 1 zu setzen, typischerweise durch Division der gesamten Zeile durch diesen Koeffizienten. |
| Teilfolge | Eine Teilfolge einer gegebenen Folge $(a_n)_{n \in \mathbb{N}}$ entsteht durch Weglassen von beliebig vielen Gliedern, wobei die Reihenfolge der verbleibenden Glieder erhalten bleibt. |
| Intervallhalbierung | Ein Verfahren, bei dem ein gegebenes Intervall wiederholt in zwei gleich lange Teilintervalle unterteilt wird, um eine Folge von immer kleiner werdenden Intervallen zu erzeugen. |
| Ausgezeichnetes Teilintervall | Ein Teilintervall, das im Rahmen eines Konstruktionsbeweises für eine konvergente Teilfolge einer beschränkten Folge ausgewählt wird und unendlich viele Folgenglieder enthält. |
| Reihe | Eine Reihe ist eine Folge von Partialsummen, die aus einer gegebenen reellen Folge $(a_n)_{n \in \mathbb{N}}$ durch Aufsummieren der Glieder gebildet wird. |
| Konvergente Reihe | Eine Reihe heißt konvergent, wenn die Folge ihrer Partialsummen einen endlichen Grenzwert besitzt. |
| Divergente Reihe | Eine Reihe heißt divergent, wenn die Folge ihrer Partialsummen keinen endlichen Grenzwert besitzt. |
| Konvergente Folge | Eine reelle Folge $(a_n)_{n \in \mathbb{N}}$ heißt konvergent mit Grenzwert $a$, wenn für jedes $\epsilon > 0$ ein $N \in \mathbb{N}$ existiert, sodass für alle $n \geq N$ die Bedingung $|a_n - a| < \epsilon$ erfüllt ist. |
| Eindeutigkeit des Grenzwertes | Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt, falls er existiert. Das bedeutet, eine Folge kann höchstens einen Grenzwert haben. |
| Monoton beschränkte Folge | Eine Folge, die sowohl monoton als auch beschränkt ist. |
| Konvergenz beschränkter monotoner Folgen | Ein Satz, der besagt, dass jede monotone und beschränkte Folge konvergent ist. |
| Supremum (kleinste obere Schranke) | Das Supremum einer Menge von reellen Zahlen ist die kleinste Zahl, die größer oder gleich allen Elementen der Menge ist. Bei einer monoton steigenden und beschränkten Folge ist das Supremum ihr Grenzwert. |
| Divergente Folge | Eine Folge, die nicht konvergent ist, wird als divergent bezeichnet. Sie besitzt keinen Grenzwert im Sinne der Konvergenzdefinition. |
| Satz von Bolzano-Weierstraß (für Folgen) | Jede beschränkte Folge reeller Zahlen besitzt eine konvergente Teilfolge. |
| Aussage | Ein Satz, der entweder wahr oder falsch ist und somit einen Wahrheitswert besitzt. |
| Wahrheitswert | Die Eigenschaft einer Aussage, entweder wahr oder falsch zu sein. |
| Negation | Die logische Operation, die den Wahrheitswert einer Aussage umkehrt (¬A ist wahr, wenn A falsch ist). |
| Konjunktion | Die logische Verknüpfung "und" (A ∧ B ist wahr, wenn sowohl A als auch B wahr sind). |
| Disjunktion | Die logische Verknüpfung "oder" (A ∨ B ist wahr, wenn mindestens eine der Aussagen A oder B wahr ist). |
| Aussageform | Ein Satz mit einem Platzhalter oder einer Variablen, der durch Einsetzen eines Wertes zu einer Aussage wird. |
| Definitionsmenge | Die Menge von Werten, aus der Variablen in einer Aussageform eingesetzt werden können. |
| Lösungsmenge | Die Teilmenge der Definitionsmenge, für die eine Aussageform wahre Aussagen ergibt. |
| Unerfüllbar | Eine Aussageform, deren Lösungsmenge leer ist (∅). |
| Erfüllbar | Eine Aussageform, deren Lösungsmenge nicht leer ist (L ̸= ∅). |