Calculus
Cover
00001157-ci-pp.pdf
Summary
# Introducción a los números reales y sus propiedades
Este tema aborda la definición y propiedades de los conjuntos numéricos básicos (naturales, enteros, racionales) para sentar las bases del estudio de los números reales, destacando sus propiedades como cuerpo ordenado y la importancia del axioma del extremo superior.
### 1.1. Números naturales, enteros y racionales
Se definen los conjuntos de números naturales $\mathbb{N} = \{1, 2, 3, \ldots\}$ (sin incluir el cero) enteros $\mathbb{Z} = \{\ldots, -2, -1, 0, 1, 2, \ldots\}$ y racionales $\mathbb{Q} = \{p/q \mid p, q \in \mathbb{Z}, q \neq 0\}$ [5](#page=5).
#### 1.1.1. Propiedades de cuerpo ordenado para los racionales
El conjunto de los números racionales $\mathbb{Q}$, junto con las operaciones de suma (+) y producto (·), y la relación de orden (>), forma un cuerpo ordenado. Esto implica las siguientes propiedades [5](#page=5):
* **Propiedades de cuerpo:**
1. **Asociativa y conmutativa:**
* Suma: $a + (b + c) = (a + b) + c$ y $a + b = b + a$
* Producto: $a \cdot (b \cdot c) = (a \cdot b) \cdot c$ y $a \cdot b = b \cdot a$
2. **Distributiva:** $a \cdot (b + c) = a \cdot b + a \cdot c$
3. **Elementos neutros:**
* Suma: Existe $0$ tal que $a + 0 = a$ para todo $a \in \mathbb{Q}$.
* Producto: Existe $1$ tal que $a \cdot 1 = a$ para todo $a \in \mathbb{Q}$.
4. **Elementos inversos:**
* Suma: Para todo $a \in \mathbb{Q}$, existe $-a$ tal que $a + (-a) = 0$.
* Producto: Para todo $a \in \mathbb{Q}, a \neq 0$, existe $a^{-1}$ tal que $a \cdot a^{-1} = 1$.
* **Propiedades de orden:** Existe una relación ">" que satisface:
5. **Tricotomía:** Dado $a \in \mathbb{Q}$, solo una de las siguientes es cierta: $a > 0$, $-a > 0$, o $a = 0$.
6. **Cierre bajo suma y producto:** Si $a > 0$ y $b > 0$, entonces $a + b > 0$ y $a \cdot b > 0$.
A partir de estas propiedades, se definen otras operaciones y relaciones [5](#page=5):
* Diferencia: $a - b = a + (-b)$
* Cociente: Si $b \neq 0$, $a/b = a \cdot b^{-1}$
* Potencia: Si $n \in \mathbb{N}$, $a^n = a \cdot \ldots \cdot a$ ($n$ veces)
* Mayor que: $b > a$ si $b - a > 0$
* Menor que: $b < a$ si $a > b$
* Mayor o igual que: $b \geq a$ si $b > a$ o $b = a$
* Menor o igual que: $b \leq a$ si $a \geq b$
Los conjuntos $\mathbb{N}$ y $\mathbb{Z}$ no son cuerpos ya que $\mathbb{N}$ no posee inverso aditivo y $\mathbb{Z}$ no posee inverso multiplicativo [5](#page=5).
#### 1.1.2. Demostraciones por inducción
Para demostrar una afirmación $P(n)$ que depende de un número natural $n$, se utiliza el principio de inducción matemática:
i) Demostrar $P $ (caso base) [1](#page=1).
ii) Probar que $P(n) \Rightarrow P(n+1)$ para todo $n$ (paso inductivo).
Si ambas condiciones se cumplen, $P(n)$ es cierta para todo $n \in \mathbb{N}$ [6](#page=6).
**Ejemplo:** Probar por inducción que $\sum_{k=1}^{n} k = \frac{n(n+1)}{2}$ [6](#page=6).
* Caso base ($n=1$): $1 = \frac{1(1+1)}{2}$ [6](#page=6).
* Paso inductivo: Suponiendo $\sum_{k=1}^{n} k = \frac{n(n+1)}{2}$, se demuestra que $\sum_{k=1}^{n+1} k = \frac{(n+1)(n+2)}{2}$ [6](#page=6).
#### 1.1.3. Máximo común divisor (mcd) y mínimo común múltiplo (mcm)
* Un número natural $n$ es múltiplo de $d$ si $n/d$ es un número natural, es decir, $d$ es divisor de $n$ [6](#page=6).
* Un número natural es primo si sus únicos divisores son 1 y él mismo [6](#page=6).
* El **máximo común divisor (mcd)** de un conjunto de enteros $n_1, \ldots, n_k$ es el mayor número natural que divide a todos ellos [6](#page=6).
* El **mínimo común múltiplo (mcm)** de un conjunto de enteros $n_1, \ldots, n_k$ es el menor número natural que es múltiplo de todos ellos [6](#page=6).
Para hallar el mcd de dos números $m, n$ ($m>n$), se puede usar el algoritmo de Euclides: $m = q_1n + r_1$, $n = q_2r_1 + r_2$, etc., hasta obtener resto cero. El último resto no nulo es el mcd [6](#page=6).
El mcm de dos números puede calcularse usando la relación: $\text{mcm}[m, n = \frac{m \cdot n}{\text{mcd}[m, n]}$ [6](#page=6).
**Ejemplo:** Para 2340 y 6798, con factorizaciones $2340 = 2^2 \cdot 3^2 \cdot 5 \cdot 13$ y $6798 = 2 \cdot 3 \cdot 11 \cdot 103$, el mcd es $2 \cdot 3 = 6$ y el mcm es $2^2 \cdot 3^2 \cdot 5 \cdot 11 \cdot 13 \cdot 103 = 2651220$ [6](#page=6).
#### 1.1.4. Factoriales, números combinatorios y binomio de Newton
* **Factorial:** Para $n \in \mathbb{N}$, $n! = 1 \cdot 2 \cdot \ldots \cdot n$. Se define $0! = 1$ [7](#page=7).
* **Número combinatorio (coeficiente binomial):** Para $0 \leq k \leq n$, se define $\binom{n}{k} = \frac{n!}{k!(n-k)!} = \frac{n(n-1)\ldots(n-k+1)}{k!}$ [7](#page=7).
* $\binom{n}{k}$ representa el número de formas distintas de elegir $k$ elementos de un conjunto de $n$ elementos sin importar el orden [7](#page=7).
* Propiedades: $\binom{n}{0} = \binom{n}{n} = 1$, $\binom{n}{n-k} = \binom{n}{k}$, $\binom{n}{1} = \binom{n}{n-1} = n$ [7](#page=7).
* **Binomio de Newton:** Para $n \in \mathbb{N}$, $(a+b)^n = \sum_{k=0}^{n} \binom{n}{k} a^{n-k} b^k$ [7](#page=7).
* La demostración se basa en la inducción y la identidad $\binom{n}{k} + \binom{n}{k-1} = \binom{n+1}{k}$ [7](#page=7).
**Ejemplo:** $(1+x)^6 = 1 + 6x + 15x^2 + 20x^3 + 15x^4 + 6x^5 + x^6$ [7](#page=7).
### 1.2. Números irracionales y el conjunto de los números reales
#### 1.2.1. Números irracionales
Existen números que no pueden ser expresados como una fracción de dos enteros, es decir, no son racionales. Estos son los números irracionales [7](#page=7).
* Su expresión decimal tiene infinitos decimales no periódicos [7](#page=7).
* Ejemplos: $\sqrt{2}$, $\pi$, $e$ [7](#page=7).
* Demostración de la irracionalidad de $\sqrt{2}$: Se asume que $\sqrt{2} = p/q$ es una fracción irreducible. Si $p^2 = 2q^2$, entonces $p^2$ es par, lo que implica que $p$ es par ($p=2m$). Sustituyendo, $(2m)^2 = 2q^2 \Rightarrow 4m^2 = 2q^2 \Rightarrow q^2 = 2m^2$. Esto significa que $q^2$ es par, por lo tanto $q$ también es par, lo cual contradice la suposición de que $p/q$ era irreducible [7](#page=7).
* Suma de un racional y un irracional: Si $p \in \mathbb{Q}$ y $x \in \mathbb{R} \setminus \mathbb{Q}$, entonces $p+x \in \mathbb{R} \setminus \mathbb{Q}$ [8](#page=8).
* Producto de un racional no nulo y un irracional: Si $p \in \mathbb{Q}, p \neq 0$ y $x \in \mathbb{R} \setminus \mathbb{Q}$, entonces $p \cdot x \in \mathbb{R} \setminus \mathbb{Q}$ [8](#page=8).
* La suma o producto de dos irracionales puede ser racional (ej: $\sqrt{2} + (-\sqrt{2}) = 0$) [8](#page=8).
#### 1.2.2. El conjunto de los números reales ($\mathbb{R}$)
Los números reales $\mathbb{R}$ son un conjunto que incluye tanto a los números racionales como a los irracionales [9](#page=9).
* **Definición axiomática:** $\mathbb{R}$ es un conjunto con operaciones "+" y "·" y una relación ">" que satisface las propiedades de cuerpo ordenado (similares a $\mathbb{Q}$) y además el **axioma del extremo superior** [9](#page=9).
* Representación: Los números reales pueden representarse como una recta, llamada la recta real, donde cada punto corresponde a un número real [9](#page=9).
#### 1.2.3. Propiedades de las desigualdades en $\mathbb{R}$
Se repasan algunas propiedades de las desigualdades, aplicables a los números reales [9](#page=9):
* $a < b \Rightarrow a+c < b+c$ y $a-c < b-c$.
* $a < b$ y $c < d \Rightarrow a+c < b+d$ y $a-d < b-c$.
* $a < b$ y $c > 0 \Rightarrow ac < bc$ y $a/c < b/c$.
* $a < b$ y $c < 0 \Rightarrow ac > bc$ y $a/c > b/c$.
* Si $a, b, c, d > 0$: $ac < bd \Leftrightarrow ad < bc$.
* Si $a, b > 0$: $1 < a \Rightarrow a < a^2$; $0 < a < 1 \Rightarrow a > a^2$.
* Si $a, b > 0$: $a < b \Leftrightarrow 1/a > 1/b$, $a^2 < b^2$, $\sqrt{a} < \sqrt{b}$.
**Nota:** La notación $\sqrt{a}$ se refiere siempre a la raíz cuadrada positiva de $a \geq 0$ [9](#page=9).
**Ejemplo:** Determinar $x$ tal que $\frac{x^2+2}{x} > 3$ [9](#page=9).
La desigualdad se puede reescribir como $\frac{x^3-3x+2}{x} > 0$. Se factoriza el numerador como $(x-1)^2(x+2)$. Analizando los signos se obtienen las soluciones $\{x: x < -2 \text{ o } 0 < x < 1 \text{ o } x > 1\}$ [9](#page=9).
#### 1.2.4. Valor absoluto
El valor absoluto de $x \in \mathbb{R}$, denotado por $|x|$, se define como:
$|x| = \sqrt{x^2} = \begin{cases} x & \text{si } x \geq 0 \\ -x & \text{si } x \leq 0 \end{cases}$ [10](#page=10).
* $|x|$ representa la distancia de $x$ al origen [10](#page=10).
* $|x-y|$ representa la distancia entre $x$ e $y$ [10](#page=10).
Propiedades del valor absoluto [10](#page=10):
* $|x|^2 = x^2$
* $|x| = |-x|$
* $|xy| = |x||y|$
* $-|x| \leq x \leq |x|$
Teoremas importantes [10](#page=10):
* Para $a > 0$: $|x| \leq a \Leftrightarrow -a \leq x \leq a$.
* Para $a > 0$: $|x| < a \Leftrightarrow -a < x < a$.
* Desigualdad triangular: $|x+y| \leq |x|+|y|$.
* Otras: $|x|-|y| \leq |x-y| \leq |x|+|y|$, y $\left| |x|-|y| \right| \leq |x-y|$.
**Ejemplo:** Resolver $| \sqrt{x} - 2 | = x$ [10](#page=10).
Se considera la definición de valor absoluto para $\sqrt{x}-2$.
Si $x \geq 4$, $\sqrt{x} - 2 \geq 0$, entonces $\sqrt{x}-2 = x$. La ecuación $x^2+3x+4=0$ no tiene soluciones reales [10](#page=10).
Si $0 \leq x \leq 4$, $\sqrt{x} - 2 \leq 0$, entonces $2-\sqrt{x} = x$. La ecuación $x^2-5x+4=0$ tiene soluciones $x=1$ y $x=4$. De estas, solo $x=1$ satisface la igualdad $| \sqrt{1} - 2 | = |1-2| = 1$, que es igual a $x=1$ [10](#page=10).
**Ejemplo:** Resolver $\left| x^2-1 \right| \leq 3$ [10](#page=10).
Esto es equivalente a $-3 \leq x^2-1 \leq 3$, lo que implica $-2 \leq x^2 \leq 4$. Dado que $x^2 \geq 0$, la condición se reduce a $x^2 \leq 4$, que es $|x| \leq 2$. Por lo tanto, las soluciones son $-2 \leq x \leq 2$ [10](#page=10).
### 1.3. El axioma del extremo superior
#### 1.3.1. Conjuntos acotados
* Un conjunto $A \subset \mathbb{R}$ es **acotado superiormente** si existe $k \in \mathbb{R}$ tal que $a \leq k$ para todo $a \in A$. A $k$ se le llama cota superior [11](#page=11).
* Un conjunto $A \subset \mathbb{R}$ es **acotado inferiormente** si existe $k \in \mathbb{R}$ tal que $a \geq k$ para todo $a \in A$. A $k$ se le llama cota inferior [11](#page=11).
* Un conjunto $A \subset \mathbb{R}$ es **acotado** si está acotado superior e inferiormente (es decir, si existe $k \in \mathbb{R}$ tal que $|a| \leq k$ para todo $a \in A$) [11](#page=11).
**Ejemplo:** $A = \{x: 0 \leq x < 7\}$ está acotado superiormente (ej: por 7, $\sqrt{93}$) e inferiormente (ej: por 0, -13) [11](#page=11).
#### 1.3.2. Extremo superior (supremo) e inferior (ínfimo)
* El **extremo superior (o supremo)** de un conjunto $A \subset \mathbb{R}$, denotado por $\sup A$, es la menor de sus cotas superiores. Formalmente, $s = \sup A$ si [11](#page=11):
i) $s$ es cota superior de $A$.
ii) Si $k$ es cualquier cota superior de $A$, entonces $s \leq k$.
* El **extremo inferior (o ínfimo)** de un conjunto $A \subset \mathbb{R}$, denotado por $\inf A$, es el mayor de sus cotas inferiores [11](#page=11).
* Si el supremo de un conjunto pertenece al propio conjunto, se le llama **máximo** ($\max A$). De forma análoga, si el ínfimo pertenece al conjunto, se le llama **mínimo** ($\min A$) [11](#page=11).
**Ejemplo:** Para $A = \{x: 0 \leq x < 7\}$, $\sup A = 7$. Sin embargo, $7 \notin A$, por lo que no tiene máximo. $\inf A = 0$, y como $0 \in A$, $0$ es también el mínimo de $A$ [11](#page=11).
#### 1.3.3. Axioma del extremo superior
**Axioma:** Todo conjunto no vacío de números reales acotado superiormente posee extremo superior [11](#page=11).
* Este axioma distingue a $\mathbb{R}$ de $\mathbb{Q}$. En $\mathbb{Q}$, existen conjuntos acotados superiormente que no tienen supremo en $\mathbb{Q}$ (ej: $\{x \in \mathbb{Q}: x^2 < 2\}$) [11](#page=11).
* Los números reales "llenan por completo" la recta real, sin "huecos" como los que dejan los irracionales en la recta racional [11](#page=11).
#### 1.3.4. Intervalos y entornos
Se definen varios tipos de intervalos en $\mathbb{R}$:
* Intervalo abierto: $(a,b) = \{x : a < x < b\}$
* Intervalo cerrado: $[a,b = \{x : a \leq x \leq b\}$
* Intervalos semiabiertos/semicerrados: $[a,b) = \{x : a \leq x < b\}$, $(a,b = \{x : a < x \leq b\}$
* Intervalos infinitos: $(a, \infty)$, $[a, \infty)$, $(-\infty, b)$, $(-\infty, b]$ [11](#page=11).
Un **entorno** de centro $a$ y radio $r > 0$ es $B(a,r) = \{x: |x-a| < r\} = (a-r, a+r)$ [12](#page=12).
#### 1.3.5. Conjuntos abiertos y cerrados
* Un punto $a \in A$ es **punto interior** a $A$ si existe $r > 0$ tal que $B(a,r) \subset A$ [12](#page=12).
* Un conjunto $A \subset \mathbb{R}$ es **abierto** si todos sus puntos son interiores [12](#page=12).
* Un punto $p$ es **punto de acumulación** de $A$ si en todo entorno de $p$ existen puntos de $A$ distintos de $p$. Matemáticamente, para todo $r > 0$, $A \cap B^*(p,r) \neq \emptyset$, donde $B^*(p,r) = B(p,r) - \{p\}$ [12](#page=12).
* Un conjunto $A \subset \mathbb{R}$ es **cerrado** si contiene a todos sus puntos de acumulación [12](#page=12).
**Teorema:** Un conjunto $A$ es cerrado si y solo si su complementario $R-A$ es abierto [12](#page=12).
**Ejemplos:**
* $[a,b]$ es cerrado pero no abierto [12](#page=12).
* $(0, \infty)$ es abierto pero no cerrado (su punto de acumulación 0 no está en el conjunto) [12](#page=12).
* $\{1/n: n \in \mathbb{N}\}$ no es abierto ni cerrado [12](#page=12).
* $\{n \in \mathbb{N}: n \text{ es divisor de } 12\}$ es cerrado pero no abierto [12](#page=12).
---
# Funciones, límites y continuidad
El estudio de las funciones reales de variable real sienta las bases para la comprensión del cálculo infinitesimal, abarcando sus operaciones, propiedades fundamentales, el concepto de límite para funciones y sucesiones, y la noción de continuidad.
### 2.1 Funciones reales de variable real
Una función $f$ es una regla que asigna a cada número $x$ de un conjunto $D \subset \mathbb{R}$, llamado dominio de $f$ ($\text{dom } f$), un único número real $f(x)$, su valor en $x$. El conjunto de todos los valores $f(x)$ para $x \in D$ se denomina imagen o recorrido de $f$ ($f(D)$, $\text{im } f$) [13](#page=13).
> **Definición:** Una función $f$ es un conjunto de pares ordenados que no contiene dos pares distintos con el mismo primer elemento [13](#page=13).
Geométricamente, una función se representa mediante su gráfica en el plano $xy$. Por ejemplo, la gráfica de $f(x) = mx+b$ es una recta [13](#page=13).
#### Operaciones con funciones
Dadas dos funciones $f$ y $g$, se pueden definir las siguientes operaciones:
* Suma: $(f+g)(x) = f(x) + g(x)$ [13](#page=13).
* Resta: $(f-g)(x) = f(x) - g(x)$ [13](#page=13).
* Producto: $(f \cdot g)(x) = f(x) \cdot g(x)$ [13](#page=13).
* Cociente: $(f/g)(x) = f(x)/g(x)$, definido para $x$ tal que $g(x) \neq 0$ [13](#page=13).
* Composición: $(f \circ g)(x) = f(g(x))$, definido para $x$ tal que $x \in \text{dom } g$ y $g(x) \in \text{dom } f$ [13](#page=13).
La suma y el producto son conmutativos y asociativos, y satisfacen la propiedad distributiva. La composición es asociativa pero no conmutativa [13](#page=13).
#### Propiedades de las funciones
* **Inyectividad:** Una función $f$ es inyectiva en un conjunto $A \subset \mathbb{R}$ si $f(x) = f(x^*) \implies x = x^*$ para todo $x, x^* \in A$. Gráficamente, la gráfica de una función inyectiva no corta a ninguna recta horizontal más de una vez [13](#page=13).
* **Función Inversa:** Si $f$ es inyectiva en $A$, existe su función inversa $f^{-1}: f(A) \to A$, definida por $f^{-1}(y) = x \iff y = f(x)$. Se cumple que $\text{dom } f^{-1} = \text{im } f$, $\text{im } f^{-1} = \text{dom } f$, y $(f^{-1} \circ f)(x) = (f \circ f^{-1})(x) = x$. Las gráficas de $f$ y $f^{-1}$ son simétricas respecto a la recta $y=x$ [13](#page=13) [14](#page=14).
* **Monotonía:** Una función es:
* Estrictamente creciente en $A$ si $\forall x, x^* \in A$, $x < x^* \implies f(x) < f(x^*)$ [14](#page=14).
* Estrictamente decreciente en $A$ si $\forall x, x^* \in A$, $x < x^* \implies f(x) > f(x^*)$ [14](#page=14).
* Creciente en $A$ si $\forall x, x^* \in A$, $x < x^* \implies f(x) \le f(x^*)$ [14](#page=14).
* Decreciente en $A$ si $\forall x, x^* \in A$, $x < x^* \implies f(x) \ge f(x^*)$ [14](#page=14).
Una función monótona es estrictamente creciente o estrictamente decreciente [14](#page=14).
**Teorema:** Una función estrictamente monótona en $A$ es inyectiva en $A$ y posee inversa [14](#page=14).
#### Funciones elementales
Se describen gráficas y propiedades de diversas funciones elementales:
* **Potencias:** $y = x^n$, $y = x^{1/n} = \sqrt[n]{x}$, $y = x^{-n}$, $y = x^{-1/n}$, y $y = x^{m/n}$ [14](#page=14).
* **Cónicas:** Circunferencias, elipses e hipérbolas. Algunas de estas ecuaciones no definen una única función (ej. la elipse) [15](#page=15).
* **Trigonométricas:** Seno, coseno y tangente. Se definen sus propiedades de paridad (par/impar) y periodicidad. Se introducen las identidades trigonométricas fundamentales como $\sin^2 \alpha + \cos^2 \alpha = 1$ y las fórmulas de adición y sustracción para seno y coseno [15](#page=15) [16](#page=16).
* **Funciones trigonométricas inversas:** Arcoseno ($\arcsin x$), arcocoseno ($\arccos x$), y arcotangente ($\arctan x$), que requieren la restricción del dominio de las funciones trigonométricas originales para asegurar su inyectividad [17](#page=17).
* **Exponenciales y logaritmos:** Se define el logaritmo neperiano ($\ln x = \int_1^x \frac{dt}{t}$) y a partir de él, la función exponencial ($e^x$) y las funciones $b^x$, $x^b$, y $\log_b x$. Se establecen propiedades como $b^{x+y} = b^x b^y$ y $(b^x)^y = b^{xy}$ [17](#page=17) [18](#page=18).
* **Hiperbólicas:** Seno hiperbólico ($\sinh x$), coseno hiperbólico ($\cosh x$), y tangente hiperbólica ($\tanh x$), definidas a partir de las exponenciales. Tienen propiedades análogas a las trigonométricas [18](#page=18).
### 2.2 Sucesiones de números reales
Una sucesión de números reales $\{a_n\}$ es una función de $\mathbb{N}$ en $\mathbb{R}$ [19](#page=19).
#### Convergencia de sucesiones
* **Límite:** Una sucesión $\{a_n\}$ tiene límite $a$ si para todo $\varepsilon > 0$, existe un número natural $N$ tal que para todo $n \ge N$, se cumple $|a_n - a| < \varepsilon$. Se denota como $\lim_{n\to\infty} a_n = a$ o $a_n \to a$ [19](#page=19).
* **Divergencia:** Si una sucesión no es convergente, se dice que es divergente [19](#page=19).
* **Acotación:** Una sucesión convergente es acotada. El recíproco no es cierto; una sucesión acotada no es necesariamente convergente (ej. $\{(-1)^n\}$) [20](#page=20).
* **Divergencia a infinito:** Una sucesión diverge a $+\infty$ si para todo $K > 0$, existe $N$ tal que $\forall n \ge N$, $a_n \ge K$. De forma análoga se define la divergencia a $-\infty$ [20](#page=20).
* **Monotonía:** Una sucesión es creciente si $a_n \le a_{n+1}$ para todo $n$, y decreciente si $a_n \ge a_{n+1}$ para todo $n$ [20](#page=20).
**Teorema:** Una sucesión creciente y acotada superiormente converge. Una sucesión decreciente y acotada inferiormente converge [20](#page=20).
* **Subsucesiones:** Una subsucesión de $\{a_n\}$ se obtiene seleccionando un número infinito de términos de $\{a_n\}$ en el mismo orden. Si $\{a_n\} \to a$, entonces cualquier subsucesión $\{a_{n_j}\} \to a$ [20](#page=20).
* **Operaciones con límites de sucesiones:** Si $\{a_n\} \to a$ y $\{b_n\} \to b$, entonces:
* $\{a_n + b_n\} \to a+b$ [21](#page=21).
* $\{a_n - b_n\} \to a-b$ [21](#page=21).
* $\{a_n b_n\} \to ab$ [21](#page=21).
* Si $b \ne 0$, $\{a_n / b_n\} \to a/b$ [21](#page=21).
* **Límites con infinito:** Se definen las operaciones con sucesiones que tienden a $\pm\infty$ [21](#page=21).
* **Indeterminaciones:** Las formas indeterminadas en el cálculo de límites de sucesiones incluyen $\infty - \infty$, $0 \cdot \infty$, $0/0$, $\infty/\infty$, $1^\infty$, $0^0$, $\infty^0$. Su resolución requiere manipulación algebraica o técnicas más avanzadas [22](#page=22).
#### Teoremas fundamentales sobre sucesiones
* **Teorema de Bolzano-Weierstrass para sucesiones:** Toda sucesión acotada posee una subsucesión convergente [23](#page=23).
* **Sucesión de Cauchy:** Una sucesión $\{a_n\}$ es de Cauchy si para todo $\varepsilon > 0$, existe $N$ tal que para todo $n, m \ge N$, $|a_n - a_m| < \varepsilon$ [23](#page=23).
**Teorema:** Una sucesión en $\mathbb{R}$ converge si y solo si es de Cauchy [23](#page=23).
* **Conjuntos completos:** Un conjunto es completo si toda sucesión de Cauchy en él converge a un elemento del propio conjunto. $\mathbb{R}$ es completo, mientras que $\mathbb{Q}$ no lo es [24](#page=24).
* **Teorema:** Si $\{a_n\} \to a$ y $\{a_n\} \subset A$ con $A$ cerrado, entonces $a \in A$ [24](#page=24).
### 2.3 Límites de funciones y funciones continuas
#### Límites de funciones
* **Definición:** Una función $f$ tiende a $L$ cuando $x$ tiende a $a$ si para todo $\varepsilon > 0$, existe $\delta > 0$ tal que si $0 < |x - a| < \delta$, entonces $|f(x) - L| < \varepsilon$. Se denota como $\lim_{x\to a} f(x) = L$. Es importante notar que el valor de $f$ en $a$ no afecta la existencia del límite [25](#page=25).
* **Límites laterales:**
* Límite por la derecha: $\lim_{x\to a^+} f(x) = L$ si $\forall \varepsilon > 0$, $\exists \delta > 0$ tal que si $0 < x - a < \delta$, entonces $|f(x) - L| < \varepsilon$ [25](#page=25).
* Límite por la izquierda: $\lim_{x\to a^-} f(x) = L$ si $\forall \varepsilon > 0$, $\exists \delta > 0$ tal que si $0 < a - x < \delta$, entonces $|f(x) - L| < \varepsilon$ [25](#page=25).
**Teorema:** $\lim_{x\to a} f(x) = L$ si y solo si existen $\lim_{x\to a^+} f(x)$ y $\lim_{x\to a^-} f(x)$ y ambos son iguales a $L$ [26](#page=26).
* **Relación con sucesiones:** $\lim_{x\to a} f(x) = L$ si y solo si para toda sucesión $\{a_n\}$ en el dominio de $f$ tal que $a_n \ne a$ y $a_n \to a$, se tiene que $f(a_n) \to L$ [26](#page=26).
* **Límites en el infinito y asíntotas:** Se definen límites cuando $x \to \infty$ o $x \to -\infty$, y cuando $f(x) \to \infty$ o $f(x) \to -\infty$ cuando $x \to a$ o $x \to \pm\infty$ [27](#page=27).
#### Continuidad de funciones
* **Definición:** Una función $f$ es continua en un punto $a$ (interior a su dominio) si $\lim_{x\to a} f(x) = f(a)$. Esto implica que el límite existe, $f(a)$ está definido, y ambos coinciden [28](#page=28).
* **Continuidad en intervalos:**
* Continua en un intervalo abierto $(a,b)$ si es continua en cada punto $x \in (a,b)$ [29](#page=29).
* Continua en un intervalo cerrado $[a,b]$ si es continua en $(a,b)$ y $\lim_{x\to a^+} f(x) = f(a)$ y $\lim_{x\to b^-} f(x) = f(b)$ [29](#page=29).
* **Continuidad de funciones elementales:** Se afirma que todas las funciones elementales (polinomios, racionales, raíces, trigonométricas, exponenciales, logarítmicas e hiperbólicas) son continuas en sus respectivos dominios [29](#page=29).
* **Teoremas de continuidad:**
* Si $f$ y $g$ son continuas en $a$, entonces $f+g$, $f-g$, y $f \cdot g$ son continuas en $a$. Si $g(a) \ne 0$, entonces $f/g$ es continua en $a$ [28](#page=28).
* Si $g$ es continua en $a$ y $f$ es continua en $g(a)$, entonces $f \circ g$ es continua en $a$ [28](#page=28).
* Si $f$ es continua en $a$ y estrictamente monótona en un entorno de $a$, entonces $f^{-1}$ es continua en $f(a)$ [28](#page=28).
**Teoremas importantes asociados:**
* **Teorema de Bolzano (o de los valores intermedios):** Si $f$ es continua en $[a,b]$ y $k$ es un valor entre $f(a)$ y $f(b)$, entonces existe al menos un $c \in (a,b)$ tal que $f(c) = k$ (este teorema está implícito en la discusión de continuidad en intervalos cerrados) .
* **Teorema de Weierstrass (o de los extremos):** Si $f$ es continua en un intervalo cerrado $[a,b]$, entonces $f$ alcanza un valor máximo y un valor mínimo en $[a,b]$ (este teorema está implícito en la discusión de continuidad en intervalos cerrados) .
---
# Derivadas y sus aplicaciones
El estudio de las derivadas se enfoca en la tasa de cambio instantánea de una función y sus amplias aplicaciones para analizar el comportamiento de las mismas.
### 3.1 La definición y cálculo de la derivada
La derivada de una función $f$ en un punto $a$, denotada por $f'(a)$, se define como el límite del cociente incremental cuando el incremento tiende a cero [34](#page=34):
$$f'(a) = \lim_{h\to 0} \frac{f(a+h) - f(a)}{h}$$
Este límite representa la pendiente de la recta tangente a la gráfica de $f$ en el punto $a$. Si la derivada existe en un punto, la función es continua en dicho punto [34](#page=34) [35](#page=35).
#### 3.1.1 La función derivada
La función derivada, $f'(x)$, asigna a cada punto $x$ en el dominio de $f$ donde esta es derivable, el valor de su derivada en $x$. Las derivadas sucesivas se denotan como $f''(x)$, $f'''(x)$, y en general $f^{(n)}(x)$, representando la $n$-ésima derivada de $f$. En la notación de Leibniz, se usa $\frac{df}{dx}$ para la primera derivada y $\frac{d^n f}{dx^n}$ para la $n$-ésima derivada [34](#page=34).
#### 3.1.2 Derivadas laterales
Se definen las derivadas por la derecha ($f'(a+)$) y por la izquierda ($f'(a-)$) como los límites laterales del cociente incremental [34](#page=34):
$$f'(a+) = \lim_{h\to 0^+} \frac{f(a+h) - f(a)}{h}$$
$$f'(a-) = \lim_{h\to 0^-} \frac{f(a+h) - f(a)}{h}$$
Una función es derivable en $a$ si y solo si ambas derivadas laterales existen y coinciden [34](#page=34).
#### 3.1.3 Reglas de derivación
Existen reglas fundamentales para calcular derivadas de funciones compuestas:
* **Derivada de una constante por una función:** $(c \cdot f)'(a) = c \cdot f'(a)$ [35](#page=35).
* **Derivada de una suma/resta:** $(f \pm g)'(a) = f'(a) \pm g'(a)$ [35](#page=35).
* **Derivada de un producto:** $(f \cdot g)'(a) = f'(a)g(a) + f(a)g'(a)$ [35](#page=35).
* **Derivada de un cociente:** $\left(\frac{f}{g}\right)'(a) = \frac{f'(a)g(a) - f(a)g'(a)}{[g(a)]^2}$, siempre que $g(a) \neq 0$ [35](#page=35).
* **Regla de la cadena (composición de funciones):** Si $f$ es derivable en $g(a)$ y $g$ es derivable en $a$, entonces $f \circ g$ es derivable en $a$ y $(f \circ g)'(a) = f'[g(a)]g'(a)$ [35](#page=35).
* **Derivada de la función inversa:** Si $f$ es derivable en $f^{-1}(b)$ y $f'[f^{-1}(b)] \neq 0$, entonces $f^{-1}$ es derivable en $b$ y $(f^{-1})'(b) = \frac{1}{f'[f^{-1}(b)]}$ [35](#page=35).
#### 3.1.4 Derivadas de funciones elementales
Se listan las derivadas de funciones comunes, muchas de las cuales se demuestran por inducción o usando las reglas de derivación [36](#page=36):
* $(x^b)' = b x^{b-1}$ para $b \in \mathbb{R}, x > 0$ [36](#page=36).
* $(\log|x|)' = \frac{1}{x}$, $x \neq 0$ [36](#page=36).
* $(e^x)' = e^x$ [36](#page=36).
* $(b^x)' = b^x \log b$, $b > 0$ [36](#page=36).
* $(\log_b x)' = \frac{1}{x \log b}$, $x > 0, b > 0, b \neq 1$ [36](#page=36).
* Derivadas de funciones trigonométricas: $(\sen x)' = \cos x$, $(\cos x)' = -\sen x$, $(\tan x)' = \frac{1}{\cos^2 x}$ [36](#page=36).
* Derivadas de funciones trigonométricas inversas: $(\arcsen x)' = \frac{1}{\sqrt{1-x^2}}$, $(\arccos x)' = \frac{-1}{\sqrt{1-x^2}}$, $(\arctan x)' = \frac{1}{1+x^2}$ [36](#page=36).
#### 3.1.5 Clase $C^n$ de funciones
Una función $f$ es derivable en un intervalo abierto $I$ si lo es en todos sus puntos. Se dice que $f$ es de clase 1 en $I$ ($f \in C^1(I)$) si su derivada $f'$ es continua en $I$. Generalizando, $f \in C^n(I)$ si $f$ posee $n$ derivadas en $I$ y la $n$-ésima derivada es continua en $I$. $f \in C^\infty(I)$ si existen derivadas de cualquier orden en $I$ [36](#page=36).
### 3.2 Teoremas sobre funciones derivables
Estos teoremas relacionan la derivada de una función con sus propiedades de crecimiento, extremos y concavidad.
#### 3.2.1 Extremos locales y puntos críticos
Si una función $f$ tiene un extremo local (máximo o mínimo) en un punto $x$ interior a su dominio y es derivable en $x$, entonces $f'(x) = 0$. A estos puntos se les llama **puntos críticos**. Sin embargo, $f'(x)=0$ no garantiza un extremo local (ej: $f(x)=x^3$ en $x=0$) [38](#page=38).
Para encontrar los extremos absolutos de una función continua $f$ en un intervalo cerrado $[a, b]$, se deben evaluar los valores de $f$ en:
* Los extremos del intervalo ($a$ y $b$).
* Los puntos $x \in (a,b)$ donde $f'(x)=0$.
* Los puntos $x \in (a,b)$ donde $f'(x)$ no existe [38](#page=38).
#### 3.2.2 Teorema de Rolle y Teorema del Valor Medio
* **Teorema de Rolle:** Si $f$ es continua en $[a,b]$, derivable en $(a,b)$, y $f(a)=f(b)$, entonces existe al menos un $c \in (a,b)$ tal que $f'(c)=0$ [39](#page=39).
* **Teorema del Valor Medio (TVM):** Si $f$ es continua en $[a,b]$ y derivable en $(a,b)$, entonces existe al menos un $c \in (a,b)$ tal que $f'(c) = \frac{f(b)-f(a)}{b-a}$. Este teorema tiene una interpretación geométrica: la pendiente de la recta tangente en $c$ es paralela a la recta secante que une los puntos $(a, f(a))$ y $(b, f(b))$ [39](#page=39).
#### 3.2.3 Crecimiento y decrecimiento
La monotonía de una función se determina por el signo de su primera derivada:
* Si $f'(x) > 0$ para todo $x \in (a,b)$, entonces $f$ es estrictamente creciente en $[a,b]$ [39](#page=39).
* Si $f'(x) < 0$ para todo $x \in (a,b)$, entonces $f$ es estrictamente decreciente en $[a,b]$ [39](#page=39).
* Si $f'(x) = 0$ para todo $x \in (a,b)$, entonces $f$ es constante en $[a,b]$ [39](#page=39).
#### 3.2.4 Criterios de extremo local (segunda derivada)
* Si $f$ es de clase $C^2$ en un entorno de $c$, $f'(c)=0$, y $f''(c) > 0$, entonces $f$ tiene un mínimo local en $c$ [40](#page=40).
* Si $f$ es de clase $C^2$ en un entorno de $c$, $f'(c)=0$, y $f''(c) < 0$, entonces $f$ tiene un máximo local en $c$ [40](#page=40).
* Si $f'(c)=0$ y $f''(c)=0$, el criterio no es concluyente y se requiere un análisis adicional [40](#page=40).
#### 3.2.5 Concavidad y convexidad
La forma de la gráfica de una función se describe mediante su concavidad y convexidad, relacionadas con la segunda derivada:
* **Convexa (hacia abajo):** Una función $f$ es convexa en un intervalo $I$ si el segmento que une dos puntos cualesquiera de su gráfica en $I$ se encuentra por encima de la gráfica. Si $f$ es continua en $[a,b]$ y $f''(x) \ge 0$ en $(a,b)$, entonces $f$ es convexa en $[a,b]$ [40](#page=40).
* **Cóncava (hacia arriba):** Una función $f$ es cóncava si $-f$ es convexa. Si $f$ es continua en $[a,b]$ y $f''(x) \le 0$ en $(a,b)$, entonces $f$ es cóncava en $[a,b]$ [40](#page=40).
* **Punto de inflexión:** Un punto donde la gráfica de $f$ cambia de convexa a cóncava o viceversa. Si $(c, f(c))$ es un punto de inflexión y $f$ es de clase $C^2$, entonces $f''(c)=0$ [40](#page=40).
#### 3.2.6 Relación entre el límite de $f'$ y $f'$
Si $f$ es continua en $a$ y existe el límite de su derivada $f'(x)$ cuando $x \to a$, entonces $f'(a)$ existe y es igual a dicho límite. Esto es particularmente útil para determinar la derivada en puntos donde la definición directa resulta complicada [40](#page=40).
#### 3.2.7 Regla de L'Hôpital
Esta regla es fundamental para el cálculo de límites indeterminados de la forma $\frac{0}{0}$ o $\frac{\pm \infty}{\pm \infty}$.
Si $f(x)$ y $g(x)$ tienden a 0 (o a $\pm \infty$) cuando $x \to a$ (o $a^+$, $a^-$, $\pm \infty$), y existe el límite $\lim_{x\to a} \frac{f'(x)}{g'(x)}$, entonces:
$$\lim_{x\to a} \frac{f(x)}{g(x)} = \lim_{x\to a} \frac{f'(x)}{g'(x)}$$
Para su demostración se utiliza el Teorema del Valor Medio de Cauchy [41](#page=41).
### 3.3 Polinomios
Los polinomios son funciones fundamentales, y sus propiedades de raíces y derivadas son de gran interés.
#### 3.3.1 Raíces de polinomios
* **Teorema Fundamental del Álgebra:** Todo polinomio de grado $n$ tiene exactamente $n$ raíces complejas (reales o no, repetidas o no) [42](#page=42).
* **Raíces de coeficientes reales:** Si un polinomio de coeficientes reales tiene una raíz compleja $p+qi$, entonces su conjugada $p-qi$ también es raíz [42](#page=42).
* **Raíces múltiples:** Una raíz $x_k$ de un polinomio $P(x)$ es múltiple si y solo si también es raíz de su derivada $P'(x)$. Las raíces múltiples de $P(x)$ son las raíces del máximo común divisor (MCD) de $P(x)$ y $P'(x)$ [42](#page=42).
* **Raíces enteras:** Si un polinomio con coeficientes enteros tiene raíces enteras, estas deben ser divisores del término independiente [43](#page=43).
* **Fórmulas para raíces:** Existen fórmulas para las raíces de polinomios de grado 2, 3 y 4. Sin embargo, para grados mayores que 5, no existen fórmulas generales expresadas en radicales.
#### 3.3.2 Cálculo de raíces de polinomios cúbicos y bicuadrados
* **Polinomios cúbicos:** Se presentan fórmulas complejas para calcular las raíces de $P_3(x) = px^3 + qx^2 + rx + s$, involucrando el discriminante $\Delta$ y una cantidad $S$ [43](#page=43).
* **Polinomios bicuadrados:** Las raíces de $P(x) = ax^4 + bx^2 + c$ se encuentran fácilmente resolviendo $at^2 + bt + c = 0$ y luego $x^2 = t$ [43](#page=43).
#### 3.3.3 Localización de raíces
* **Cotas para raíces reales:** Si $c$ es una raíz real de $P_n(x)$, entonces $|c| \le \max\left\{1, \frac{1}{|a_n|} \sum_{k=0}^{n-1} |a_k|\right\}$ [44](#page=44).
* **Ley de Descartes de los signos:** El número de raíces reales positivas de un polinomio $P(x)$ es menor o igual al número de cambios de signo en la sucesión de sus coeficientes, y la diferencia entre ambos es un número par. Esta ley se aplica también a las raíces negativas cambiando $x$ por $-x$ [44](#page=44).
### 3.4 Ceros de funciones
Hallar los ceros de una función ($f(x^*)=0$) puede ser difícil, especialmente para funciones trascendentes. Se recurre a métodos numéricos para aproximar estos ceros.
#### 3.4.1 Método de Newton
Este método iterativo aproxima un cero $x^*$ utilizando la tangente a la gráfica de la función. Dada una aproximación inicial $x_n$, la siguiente aproximación se calcula como:
$$x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}$$
La convergencia es rápida si $f'(x) \neq 0$ cerca del cero y si el cociente $\left| \frac{f(x)f''(x)}{[f'(x)]^2} \right| < 1$ en un entorno del cero [45](#page=45).
#### 3.4.2 Punto fijo contractivo
Si una función $f: [a,b \to [a,b]$ es contractiva (es decir, $|f(x)-f(y)| \le c|x-y|$ con $c < 1$ para todo $x,y \in [a,b]$), entonces existe un único punto fijo $x^*$ tal que $f(x^*) = x^*$. Las sucesiones generadas por $x_{n+1} = f(x_n)$ convergen a $x^*$. Una forma de verificar si una función es contractiva es comprobar si el máximo de $|f'(x)|$ en $[a,b]$ es menor que 1 [46](#page=46).
### 3.5 Representación de funciones
El análisis de la gráfica de una función se realiza sistemáticamente considerando diversos aspectos:
* **Dominio y continuidad:** Identificar el dominio de la función y los puntos donde pueda ser discontinua.
* **Simetrías:** Determinar si la función es par ($f(-x)=f(x)$, simetría respecto al eje $y$) o impar ($f(-x)=-f(x)$, simetría respecto al origen) [47](#page=47).
* **Periodicidad:** Identificar si la función se repite cada cierto intervalo $T$ [47](#page=47).
* **Asíntotas:**
* **Verticales:** Ocurren donde la función tiende a $\pm \infty$.
* **Horizontales:** Ocurren cuando la función tiende a un valor finito cuando $x \to \pm \infty$.
* **Oblicuas:** Si la función se comporta como una recta $y=mx+b$ para $x \to \pm \infty$.
* **Información de las derivadas:**
* $f'$: Crecimiento/decrecimiento, extremos locales, puntos críticos.
* $f''$: Concavidad/convexidad, puntos de inflexión.
* **Valores clave:**
* Intersección con el eje $y$ ($f $) .
* Intersección con el eje $x$ (ceros de la función, $f(x)=0$).
* Puntos donde $f'(x)=0$ o no existe.
* Puntos donde $f''(x)=0$.
Se deducen también las gráficas de funciones a partir de transformaciones de funciones conocidas, como traslaciones, estiramientos, compresiones y reflexiones [48](#page=48).
---
# Series, Taylor y cálculo de límites
Este tema introduce las series numéricas y de funciones, la convergencia puntual y uniforme, las series de potencias y sus desarrollos de Taylor, así como técnicas para el cálculo de límites indeterminados utilizando Taylor y L'Hôpital.
### 4.1 Series de números reales
Se define una serie numérica como la suma infinita de una sucesión de números reales: $\sum_{n=1}^{\infty} a_n$. La convergencia de una serie se determina por el límite de su sucesión de sumas parciales, $S_k = \sum_{n=1}^{k} a_n$. Si este límite existe y es finito, la serie converge a ese valor; de lo contrario, diverge [53](#page=53).
#### 4.1.1 Convergencia de series
* **Serie convergente:** Si la sucesión de sumas parciales $\{S_k\}$ converge [53](#page=53).
* **Serie divergente:** Si la sucesión de sumas parciales $\{S_k\}$ diverge [53](#page=53).
* Una propiedad fundamental es que si $\sum a_n$ converge, entonces $a_n \to 0$. Sin embargo, lo recíproco no es cierto; es decir, que $a_n \to 0$ no garantiza la convergencia de la serie [54](#page=54).
#### 4.1.2 Casos especiales de series sumables
* **Series geométricas:** $\sum_{n=0}^{\infty} r^n$. Converge a $\frac{1}{1-r}$ si $|r| < 1$, y diverge si $|r| \ge 1$ [54](#page=54).
* **Series telescópicas:** $\sum_{n=1}^{\infty} (b_n - b_{n+1})$. Converge si $\{b_n\}$ converge, y su suma es $b_1 - \lim_{n\to\infty} b_n$ [54](#page=54).
#### 4.1.3 Criterios de convergencia para series de términos positivos
* **Criterio integral:** Si $f(x)$ es una función positiva y decreciente para $x \ge 1$, entonces $\sum_{n=1}^{\infty} f(n)$ converge si y solo si $\int_{1}^{\infty} f(x) dx$ converge. Este criterio también proporciona una cota para el error cometido al aproximar la suma [55](#page=55).
* Aplicación: $\sum_{n=1}^{\infty} \frac{1}{n^s}$ converge si $s > 1$ y diverge si $s \le 1$ [55](#page=55).
* **Criterio de comparación por desigualdades:** Si $0 \le a_n \le b_n$, entonces la convergencia de $\sum b_n$ implica la convergencia de $\sum a_n$. La divergencia de $\sum a_n$ implica la divergencia de $\sum b_n$ [56](#page=56).
* **Criterio de comparación por paso al límite:** Sean $a_n, b_n \ge 0$ y $\lim_{n\to\infty} \frac{a_n}{b_n} = c$.
* Si $c > 0$, $\sum a_n$ converge $\iff \sum b_n$ converge.
* Si $c = 0$, $\sum b_n$ converge $\implies \sum a_n$ converge.
* Si $c = \infty$, $\sum b_n$ diverge $\implies \sum a_n$ diverge.
El símbolo "∼" se usa cuando $c > 0$, indicando que las series se comportan de manera similar en cuanto a convergencia [56](#page=56).
* **Criterio del cociente:** Sea $r = \lim_{n\to\infty} |\frac{a_{n+1}}{a_n}|$.
* Si $r < 1$, $\sum a_n$ converge absolutamente.
* Si $r > 1$ (o $r=\infty$), $\sum a_n$ diverge.
* Si $r = 1$, el criterio no decide [58](#page=58).
* **Criterio de la raíz:** Sea $r = \lim_{n\to\infty} \sqrt[n]{|a_n|}$.
* Si $r < 1$, $\sum a_n$ converge absolutamente.
* Si $r > 1$ (o $r=\infty$), $\sum a_n$ diverge.
* Si $r = 1$, el criterio no decide [58](#page=58).
#### 4.1.4 Series de términos cualesquiera
* **Convergencia absoluta:** $\sum a_n$ es absolutamente convergente si $\sum |a_n|$ converge. El teorema clave es que si $\sum |a_n|$ converge, entonces $\sum a_n$ converge [57](#page=57).
* **Convergencia condicional:** $\sum a_n$ es condicionalmente convergente si converge, pero no absolutamente [57](#page=57).
* **Criterio de Leibniz (para series alternadas):** Si $\{a_n\}$ es una sucesión decreciente de términos no negativos y $a_n \to 0$, entonces $\sum_{n=1}^{\infty} (-1)^{n+1} a_n$ converge. Además, el error absoluto $|S - S_N| \le a_{N+1}$ [57](#page=57).
### 4.2 Sucesiones y series de funciones
Se consideran sucesiones de funciones $\{f_n(x)\}$ definidas en un dominio común $A$.
#### 4.2.1 Convergencia puntual
$\{f_n\}$ converge puntualmente hacia $f$ en $A$ si para cada $x \in A$, $\lim_{n\to\infty} f_n(x) = f(x)$ [60](#page=60).
#### 4.2.2 Convergencia uniforme
$\{f_n\}$ converge uniformemente hacia $f$ en $A$ si para todo $\epsilon > 0$, existe un $N$ tal que para todo $x \in A$, si $n \ge N$, entonces $|f(x) - f_n(x)| < \epsilon$. La convergencia uniforme implica la convergencia puntual, pero no a la inversa [60](#page=60).
* **Teorema:** Si $|f_n(x) - f(x)| < a_n$ para todo $x \in A$ y $a_n \to 0$, entonces $f_n(x) \to f(x)$ uniformemente en $A$ [61](#page=61).
* **Propiedad:** Si $f_n$ son continuas en un intervalo $I$ y $\{f_n\} \to f$ uniformemente en $I$, entonces $f$ es continua en $I$ [61](#page=61).
#### 4.2.3 Convergencia de series de funciones
Una serie de funciones $\sum_{n=1}^{\infty} f_n$ converge puntualmente o uniformemente hacia $f$ si la sucesión de sumas parciales $S_n = \sum_{k=1}^{n} f_k$ lo hace [62](#page=62).
* **Criterio de Weierstrass:** Si existen $\{M_n\}$ tal que $|f_n(x)| \le M_n$ para todo $x \in A$ y $\sum M_n$ converge, entonces $\sum f_n$ converge uniformemente en $A$ [62](#page=62).
### 4.3 Series de potencias
Una serie de la forma $\sum_{n=0}^{\infty} a_n(x-a)^n$ se llama serie de potencias en $(x-a)$. Por simplicidad, se suele considerar $a=0$: $f(x) = \sum_{n=0}^{\infty} a_n x^n$.
#### 4.3.1 Radio de convergencia
A cada serie de potencias está asociado un radio de convergencia $R > 0$ tal que:
* Si $R = 0$, la serie solo converge en $x=0$.
* Si $R$ es finito, la serie converge para $|x| < R$ y diverge para $|x| > R$.
* Si $R = \infty$, la serie converge para todo $x$.
* Si $0 < x_0 < R$, la serie converge uniformemente en $[-x_0, x_0]$ [63](#page=63).
El radio de convergencia se puede calcular a menudo usando los criterios del cociente o la raíz aplicados a los coeficientes $a_n$ [64](#page=64).
#### 4.3.2 Propiedades de las series de potencias
* Una función definida por una serie de potencias es infinitamente derivable dentro de su intervalo de convergencia $|x| < R$ [64](#page=64).
* Se pueden derivar término a término: $f'(x) = \sum_{n=1}^{\infty} n a_n x^{n-1}$ para $|x| < R$ [64](#page=64).
* Se pueden sumar, multiplicar y dividir (con ciertas condiciones) como si fueran polinomios [65](#page=65).
### 4.4 Polinomios y series de Taylor
Los polinomios de Taylor aproximan una función $f(x)$ cerca de un punto $a$.
* **Polinomio de Taylor de grado $n$ en $a$:**
$$P_{n,a}(x) = f(a) + f'(a)(x-a) + \frac{f''(a)}{2!}(x-a)^2 + \dots + \frac{f^{(n)}(a)}{n!}(x-a)^n$$
Este polinomio coincide con la función y sus $n$ primeras derivadas en $a$ [66](#page=66).
* **Resto de Lagrange:** El error $R_{n,a}(x) = f(x) - P_{n,a}(x)$ se puede acotar mediante:
$$R_{n,a}(x) = \frac{f^{(n+1)}(c)}{(n+1)!}(x-a)^{n+1}$$
para algún $c$ entre $a$ y $x$ [66](#page=66).
* **Fórmula de McLaurin:** Para $a=0$:
$$f(x) = P_n(x) + R_n(x) = f + f' x + \dots + \frac{f^{(n)} }{n!}x^n + \frac{f^{(n+1)}(c)}{(n+1)!}x^{n+1}$$ .
[67](#page=67).
* **Series de Taylor:** Si $f$ tiene infinitas derivadas en $a$ y el resto $R_n(x) \to 0$ cuando $n \to \infty$ para $x$ en un entorno de $a$, entonces $f(x)$ coincide con su serie de Taylor:
$$f(x) = \sum_{n=0}^{\infty} \frac{f^{(n)}(a)}{n!}(x-a)^n$$
[68](#page=68).
Algunas series de Taylor notables incluyen:
* $e^x = \sum_{n=0}^{\infty} \frac{x^n}{n!}$
* $\sin x = \sum_{n=0}^{\infty} \frac{(-1)^n x^{2n+1}}{(2n+1)!}$
* $\cos x = \sum_{n=0}^{\infty} \frac{(-1)^n x^{2n}}{(2n)!}$
* $\log(1+x) = \sum_{n=0}^{\infty} \frac{(-1)^n x^{n+1}}{n+1}$ para $|x|<1$.
* $(1+x)^r = \sum_{n=0}^{\infty} \binom{r}{n} x^n$ para $|x|<1$ (#page=68, page=69) [68](#page=68) [69](#page=69).
* **Polinomios de interpolación:** Aproximan una función $f$ mediante un polinomio $Q_n$ que coincide con $f$ en $n+1$ puntos distintos. La fórmula de Newton y la de Lagrange son métodos para construirlos [71](#page=71).
### 4.5 Cálculo de límites indeterminados
Se utilizan desarrollos de Taylor y la regla de L'Hôpital.
#### 4.5.1 Notación "o pequeña"
$f(x) = o(g(x))$ cuando $x \to a$ si $\lim_{x\to a} \frac{f(x)}{g(x)} = 0$. Esto permite expresar el resto de Taylor como $R_{n,a}(x) = o([x-a]^n)$ [72](#page=72).
#### 4.5.2 Uso de Taylor para límites
Sustituir las funciones en el límite por sus desarrollos de Taylor hasta un orden suficiente para que el numerador o denominador dejen de ser indeterminados (#page=72, page=73) [72](#page=72) [73](#page=73).
#### 4.5.3 Regla de L'Hôpital
Si $\lim_{x\to a} f(x) = \lim_{x\to a} g(x) = 0$ o $\pm \infty$, y existe $\lim_{x\to a} \frac{f'(x)}{g'(x)}$, entonces $\lim_{x\to a} \frac{f(x)}{g(x)} = \lim_{x\to a} \frac{f'(x)}{g'(x)}$ [73](#page=73).
* **Comparación Taylor vs. L'Hôpital:** Taylor suele ser más directo y menos propenso a errores para límites indeterminados que involucran funciones con desarrollos conocidos, especialmente cuando se requiere aplicar L'Hôpital múltiples veces. L'Hôpital es útil cuando los desarrollos de Taylor no son fácilmente aplicables (por ejemplo, límites en el infinito o cuando no se conocen los desarrollos) [73](#page=73).
#### 4.5.4 Transformación de indeterminaciones
Muchas indeterminaciones (como $\infty - \infty$, $0 \cdot \infty$, $1^\infty$, $0^0$, $\infty^0$) pueden transformarse en $\frac{0}{0}$ o $\frac{\infty}{\infty}$ mediante manipulaciones algebraicas o tomando logaritmos, para luego aplicar L'Hôpital o Taylor (#page=72, page=74) [72](#page=72) [74](#page=74).
* **Cambios de variable:** Sustituir $t = g(x)$ o $t = 1/x$ puede simplificar la expresión del límite y facilitar su cálculo [74](#page=74).
---
# Integración y sus aplicaciones
¡Claro! Aquí tienes una guía de estudio detallada sobre "Integración y sus aplicaciones" basada en el contenido proporcionado, siguiendo todas las directrices de formato y contenido.
## 5. Integración y sus aplicaciones
Este tema explora la integral de Riemann, sus propiedades y los teoremas fundamentales del cálculo, proporcionando herramientas para calcular primitivas, manejar integrales impropias y aproximar valores numéricamente, culminando en aplicaciones prácticas como el cálculo de áreas, longitudes y volúmenes.
### 5.1. Definición y propiedades
La integral de una función acotada $f$ en un intervalo $[a,b]$ se define a través de sumas inferiores ($L_n$) y superiores ($U_n$), basadas en la división del intervalo en subintervalos de igual longitud $\Delta x$. Si ambas sucesiones de sumas convergen a un mismo límite cuando $n \to \infty$, la función es integrable en $[a,b]$ y dicho límite es la integral de $f$. Geométricamente, si $f \ge 0$, la integral representa el área bajo la curva; si $f \le 0$, su valor absoluto representa el área por debajo del eje x; y si $f$ tiene partes positivas y negativas, la integral es la diferencia entre estas áreas [78](#page=78).
**Propiedades de la integral:**
* **Linealidad:** Para funciones integrables $f$ y $g$, y constante $c$:
* $\int_a^b c f(x) dx = c \int_a^b f(x) dx$ [79](#page=79).
* $\int_a^b (f(x) + g(x)) dx = \int_a^b f(x) dx + \int_a^b g(x) dx$ [79](#page=79).
* **Monotonía:** Si $m \le f(x) \le M$ en $[a,b]$, entonces $m(b-a) \le \int_a^b f(x) dx \le M(b-a)$ [79](#page=79).
* Si $f(x) \le g(x)$ en $[a,b]$, entonces $\int_a^b f(x) dx \le \int_a^b g(x) dx$ [79](#page=79).
* $\left|\int_a^b f(x) dx\right| \le \int_a^b |f(x)| dx$ [79](#page=79).
* Si $f$ es impar, $\int_{-a}^a f(x) dx = 0$. Si $f$ es par, $\int_{-a}^a f(x) dx = 2 \int_0^a f(x) dx$ [79](#page=79).
* **Aditividad del intervalo:** Si $a < c < b$, entonces $f$ integrable en $[a,b]$ implica $f$ integrable en $[a,c]$ y $[c,b]$, y $\int_a^b f(x) dx = \int_a^c f(x) dx + \int_c^b f(x) dx$ [79](#page=79).
**Integrabilidad:**
* Una función continua en $[a,b]$ es integrable en $[a,b]$ [80](#page=80).
* Una función continua a trozos en $[a,b]$ es integrable en $[a,b]$ [80](#page=80).
* Funciones acotadas con un número finito de discontinuidades son integrables [78](#page=78) [80](#page=80).
> **Tip:** Las funciones no integrables deben ser "patológicas", como la función de Dirichlet ($f(x) = 1$ si $x \in \mathbb{Q}$, $f(x) = 0$ si $x \notin \mathbb{Q}$) [78](#page=78).
### 5.2. Teoremas fundamentales del cálculo
Estos teoremas establecen la conexión crucial entre derivación e integración.
* **Primer Teorema Fundamental del Cálculo (TFCI):** Si $f$ es integrable en $[a,b]$, entonces la función $F(x) = \int_a^x f(t) dt$ es continua en $[a,b]$. Si además $f$ es continua en $c \in (a,b)$, entonces $F$ es derivable en $c$ y $F'(c) = f(c)$. Si $f$ es continua en todo $[a,b]$, entonces $F'(x) = f(x)$ para todo $x \in [a,b]$ [81](#page=81).
> **Tip:** El TFCI muestra que la integral de una función $f$ produce una función $F$ que es "más suave" que $f$. Si $f$ es continua, $F$ es derivable; si $f$ tiene "picos", $F$ puede tener picos continuos pero sin picos agudos. En general, si $f \in C^n$, entonces $F \in C^{n+1}$ [81](#page=81).
* **Segundo Teorema Fundamental del Cálculo (TFCI):** Si $f$ es continua en $[a,b]$ y $g$ es una primitiva de $f$ (es decir, $g' = f$), entonces $\int_a^b f(x) dx = g(b) - g(a)$ [81](#page=81).
> **Tip:** El segundo TFCI permite calcular integrales definidas simplemente encontrando una primitiva de la función integrando, lo que evita el uso directo de las sumas de Riemann. El conjunto de todas las primitivas de $f$ se denota como $\int f(x) dx$ (integral indefinida) [82](#page=82).
**Aplicaciones de los TFCI:**
* **Cálculo de integrales definidas:** Se calculan encontrando una primitiva $G$ de $f$ y evaluando $G(b) - G(a)$ [81](#page=81).
* **Derivación de funciones definidas por integrales con límites variables:** Si $H(x) = \int_{a(x)}^{b(x)} f(t) dt$, entonces $H'(x) = f(b(x))b'(x) - f(a(x))a'(x)$ [83](#page=83).
> **Ejemplo:** Para hallar la tangente a $F(x) = \int_x^{-1} \frac{t^3}{t^4-4} dt$ en $x=1$, calculamos $F'(x) = \frac{x^3}{x^4-4}$ y $F = \int_1^{-1} \frac{t^3}{t^4-4} dt = 0$ (la integral de una función impar en un intervalo simétrico). La tangente es $y = F' (x-1) + F = -\frac{1}{3}(x-1) + 0 = -\frac{1}{3}x$ [1](#page=1) [83](#page=83).
### 5.3. Cálculo de primitivas
El cálculo de primitivas es fundamental para aplicar el segundo TFCI.
* **Primitivas inmediatas:** Se obtienen directamente de las reglas de derivación conocidas (ej: $\int \frac{dx}{\cos^2 x} = \tan x$, $\int \frac{2x dx}{x^2-1} = \log|x^2-1|$). A menudo, solo faltan constantes multiplicativas [85](#page=85).
* **Linealidad de la primitiva:** $\int [f(x)+g(x)] dx = \int f(x) dx + \int g(x) dx$ y $\int c f(x) dx = c \int f(x) dx$ [85](#page=85).
* **Integración por partes:** Derivada de la regla del producto: $\int f(x)g'(x) dx = f(x)g(x) - \int f'(x)g(x) dx$. Se usa a menudo para reducir la complejidad del integrando, especialmente cuando la derivación simplifica una parte del integrando (ej: $\int x \sin x dx$, $\int \log x dx$) [85](#page=85).
> **Tip:** La notación $u = f(x), dv = g'(x)dx \implies du = f'(x)dx, v = g(x)$ es muy útil para aplicar la integración por partes: $\int u dv = uv - \int v du$.
* **Primitivas de funciones racionales:** $\int \frac{P(x)}{Q(x)} dx$, donde $P, Q$ son polinomios. Si $\text{grado}(P) \ge \text{grado}(Q)$, se realiza la división para obtener un polinomio más un resto $R(x)$ de menor grado. Luego, $Q(x)$ se factoriza en potencias de factores lineales $(x-a)^m$ y cuadráticos irreducibles $(x^2+cx+d)^n$. La fracción $\frac{R(x)}{Q(x)}$ se descompone en una suma de fracciones simples, cuya integración es conocida [86](#page=86).
> **Ejemplo:** Para $\int \frac{4x^4-6x^3+5x^2-11x+4}{x^5-x^4+x^3-3x^2+2x} dx$, se factoriza el denominador $Q(x) = x(x-1)^2(x^2+x+2)$ y se descompone la fracción en simples: $\frac{A}{x} + \frac{B}{x-1} + \frac{C}{(x-1)^2} + \frac{Dx+E}{x^2+x+2}$. Integrar estas formas (polinomios, logaritmos, arcotangentes) completa la primitiva [86](#page=86).
* **Cambios de variable:**
* **Forma $f(g(x))g'(x)$:** $\int f(g(x))g'(x) dx = \int f(u) du$ donde $u=g(x)$, $du=g'(x)dx$ [87](#page=87).
* **Sustitución general:** Si el integrando sugiere una sustitución $u=g(x)$, se despeja $x$, se calcula $dx$, y se sustituye todo en la integral. Los límites de integración también se transforman: $x=a \to u=g(a), x=b \to u=g(b)$ [87](#page=87).
> **Ejemplo:** Para $\int \sqrt{e^x-1} dx$, se puede hacer $u = \sqrt{e^x-1}$, lo que implica $u^2 = e^x-1$, $e^x = u^2+1$, $x = \log(u^2+1)$, $dx = \frac{2u}{u^2+1} du$. La integral se transforma a $\int \frac{2u^2}{u^2+1} du$, que es una racional [87](#page=87).
* **Primitivas de funciones trigonométricas:** Se manejan casos como $\int \sin^m x \cos^n x dx$, usando identidades trigonométricas y sustituciones como $u=\cos x$ o $u=\sin x$. Para $\int R(\sin x, \cos x) dx$, existen cambios de variable canónicos ($u=\tan(x/2)$) que la transforman en una integral racional [88](#page=88).
* **Primitivas de irracionales:**
* $\int R(x, \sqrt[n]{ax+b}) dx$: Sustitución $u = \sqrt[n]{ax+b}$ [89](#page=89).
* $\int R(x, \sqrt{a^2-x^2}) dx$: Sustitución trigonométrica $x = a \sin u$ [89](#page=89).
* $\int R(x, \sqrt{x^2+a}) dx$: Sustitución $u = x + \sqrt{x^2+a}$ [89](#page=89).
> **Tip:** Siempre es aconsejable revisar si un integrando irracional puede resolverse mediante una sustitución simple o incluso si es una primitiva inmediata (ej: $\int \frac{x dx}{\sqrt{x^2+1}}$) [89](#page=89).
### 5.4. Integrales impropias
Se extienden el concepto de integral a intervalos no acotados o a funciones no acotadas.
* **Integrales impropias de primera especie (intervalo no acotado):**
* $\int_a^\infty f(x) dx = \lim_{b\to\infty} \int_a^b f(x) dx$ [90](#page=90).
* $\int_{-\infty}^b f(x) dx = \lim_{a\to-\infty} \int_a^b f(x) dx$ [90](#page=90).
* $\int_{-\infty}^\infty f(x) dx = \int_{-\infty}^c f(x) dx + \int_c^\infty f(x) dx$ (para algún $c \in \mathbb{R}$). La integral es convergente solo si ambas sumas convergen [93](#page=93).
> **Tip:** Para $\int_a^\infty \frac{1}{x^s} dx$, converge si $s > 1$ y diverge si $s \le 1$ [90](#page=90).
* **Integrales impropias de segunda especie (función no acotada):**
* $\int_a^b f(x) dx$, si $f$ no está acotada en $a$: $\lim_{t\to a^+} \int_t^b f(x) dx$ [92](#page=92).
* $\int_a^b f(x) dx$, si $f$ no está acotada en $b$: $\lim_{t\to b^-} \int_a^t f(x) dx$ [92](#page=92).
> **Tip:** Para $\int_a^b \frac{1}{(x-a)^s} dx$, converge si $s < 1$ y diverge si $s \ge 1$ [92](#page=92).
**Criterios de Convergencia:**
* **Para funciones positivas:**
* **Criterio de comparación:** Si $0 \le f(x) \le g(x)$ en $[a, \infty)$, entonces $\int_a^\infty g(x) dx$ convergente $\implies \int_a^\infty f(x) dx$ convergente [90](#page=90).
* **Criterio de comparación por límite:** Si $f, g \ge 0$ y $\lim_{x\to\infty} \frac{f(x)}{g(x)} = c$ finito:
* Si $c > 0$, $\int_a^\infty g(x) dx$ converge $\iff \int_a^\infty f(x) dx$ converge [91](#page=91).
* Si $c = 0$, $\int_a^\infty g(x) dx$ converge $\implies \int_a^\infty f(x) dx$ converge [91](#page=91).
* **Para funciones de signo arbitrario:** Si $\int_a^\infty |f(x)| dx$ converge (absolutamente integrable), entonces $\int_a^\infty f(x) dx$ converge [91](#page=91).
> **Ejemplo:** $\int_0^\infty e^{-x^2} dx$ converge porque $e^{-x^2} \le e^{-x}$ para $x \ge 1$, y $\int_1^\infty e^{-x} dx$ converge [91](#page=91).
* **Valor Principal de Cauchy:** Para integrales de la forma $\int_{-\infty}^\infty f(x) dx$, el límite $\lim_{b\to\infty} \int_{-b}^b f(x) dx$ se llama Valor Principal de Cauchy. Este límite puede existir incluso si la integral impropia diverge [93](#page=93).
### 5.5. Integración aproximada
Cuando las primitivas son complicadas o inexistentes, se recurre a métodos numéricos.
* **Integración de series de Taylor:** Si una función $f(x)$ tiene un desarrollo en serie de potencias convergente uniformemente en $[a,b]$, su integral se puede calcular integrando la serie término a término [94](#page=94).
> **Ejemplo:** $\int_0^1 \sin(x^2) dx$ se aproxima sumando los primeros términos de la serie de Taylor de $\sin(t^2)$ integrada: $\int_0^1 (\frac{x^3}{3} - \frac{x^7}{42} + \frac{x^{11}}{1320} - \dots) dx = \frac{1}{3} - \frac{1}{42} + \frac{1}{1320} - \dots$ [95](#page=95).
* **Fórmula de los trapecios:** Aproxima la integral dividiendo $[a,b]$ en $n$ trapecios de ancho $h=(b-a)/n$:
$\int_a^b f(x) dx \approx \frac{h}{2} [f(a) + 2f(a+h) + \dots + 2f(a+(n-1)h) + f(b)]$ [96](#page=96).
El error es $\le \frac{1}{12}(b-a) M_2 h^2$, donde $M_2 = \sup|f''(x)|$ [96](#page=96).
* **Fórmula de Simpson:** Aproxima la integral usando parábolas que interpolan tres puntos consecutivos. Requiere un número par de subintervalos $n=2m$:
$\int_a^b f(x) dx \approx \frac{h}{3} [f(a) + 4f(a+h) + 2f(a+2h) + 4f(a+3h) + \dots + 4f(a+(n-1)h) + f(b)]$ [96](#page=96).
El error es $\le \frac{1}{180}(b-a) M_4 h^4$, donde $M_4 = \sup|f^{ }(x)|$ [4](#page=4) [96](#page=96).
> **Tip:** La fórmula de Simpson es generalmente más precisa que la de los trapecios para el mismo $h$, ya que el error disminuye más rápidamente con $h$ (dependencia de $h^4$ vs $h^2$) [96](#page=96).
### 5.6. Aplicaciones
La integración tiene aplicaciones fundamentales en diversas áreas de las matemáticas y la física.
* **Áreas planas:** El área entre el eje x y $f(x)$ en $[a,b]$ es $\int_a^b |f(x)| dx$. El área entre dos curvas $f(x)$ y $g(x)$ en $[a,b]$ es $\int_a^b |f(x)-g(x)| dx$ [99](#page=99).
> **Ejemplo:** El área encerrada por $f(x) = x^3-x$ y el eje horizontal se calcula como $\int_{-1}^1 |x^3-x| dx = \int_{-1}^0 (x^3-x) dx - \int_0^1 (x^3-x) dx = -2 \int_0^1 (x^3-x) dx = 1/2$ [99](#page=99).
* **Áreas en coordenadas polares:** El área de una región acotada por $\theta=\alpha$, $\theta=\beta$ y $r=f(\theta)$ es $\frac{1}{2} \int_\alpha^\beta [f(\theta)]^2 d\theta$ [100](#page=100).
> **Ejemplo:** El área de la región acotada por $r = 3+\cos\theta$ es $\frac{1}{2} \int_0^{2\pi} (3+\cos\theta)^2 d\theta = \frac{19\pi}{2}$ [100](#page=100).
* **Longitud de una curva:** La longitud de la gráfica de $f(x)$ en $[a,b]$ es $L = \int_a^b \sqrt{1+[f'(x)]^2} dx$ [100](#page=100).
> **Ejemplo:** La longitud del tramo de $y=x^2$ entre $(0,0)$ y $(1,1)$ es $\int_0^1 \sqrt{1+(2x)^2} dx = \int_0^1 \sqrt{1+4x^2} dx$, que requiere un cambio de variable o integración por partes [100](#page=100).
* **Volúmenes (no detallado en estas páginas, pero es una aplicación común):** Los volúmenes de sólidos de revolución se calculan mediante la integración de áreas de discos, arandelas o capas cilíndricas.
* **Cálculo de primitivas de funciones racionales e irracionales:** (Cubierto en la sección 5.3 y 5.4).
* **Integrales impropias:** (Cubierto en la sección 5.4).
---
# Cálculo en el conjunto de los números complejos
Este tema introduce el conjunto de los números complejos, sus operaciones, representación geométrica y propiedades, para luego definir funciones de variable compleja, su límite, continuidad, derivabilidad, así como series de potencias complejas y sus aplicaciones.
### 6.1 Funciones de variable compleja
El conjunto de los números complejos, denotado por $\mathbb{C}$, se introduce para resolver ecuaciones como $x^2 + 1 = 0$, que no tienen solución en $\mathbb{R}$. $\mathbb{C}$ se define como $\{z = a + ib \mid a, b \in \mathbb{R}\}$, donde $i$ es la unidad imaginaria con $i^2 = -1$ .
#### 6.1.1 Operaciones y propiedades de los números complejos
En $\mathbb{C}$, las operaciones de suma y producto están definidas como:
* Suma: $(a + ib) + (c + id) = (a + c) + i(b + d)$ .
* Producto: $(a + ib) \cdot (c + id) = (ac - bd) + i(ad + bc)$ .
Con estas operaciones, $\mathbb{C}$ forma un cuerpo, poseyendo propiedades asociativa, conmutativa, distributiva, elementos neutros (0 y 1) e inversos para la suma y la multiplicación (para $z \neq 0$) .
La diferencia y el cociente se definen análogamente a $\mathbb{R}$:
* Diferencia: $z - w = z + (-w)$ .
* Cociente: $\frac{z}{w} = z \cdot w^{-1}$ si $w \neq 0$ .
No es posible definir un orden en $\mathbb{C}$ compatible con estas operaciones .
Para un número complejo $z = x + iy$:
* **Conjugado:** $\bar{z} = x - iy$ .
* **Módulo:** $|z| = \sqrt{x^2 + y^2}$ .
#### 6.1.2 Representación geométrica de los números complejos
Cada número complejo $z = x + iy$ puede representarse como el punto $(x, y)$ en el plano cartesiano .
* La suma $z + w$ corresponde al cuarto vértice de un paralelogramo cuyos lados son los segmentos $Oz$ y $Ow$ .
* El conjugado $\bar{z}$ es la reflexión de $z$ respecto al eje $x$ .
* El módulo $|z|$ es la distancia del punto $z$ al origen $O$ .
* La distancia entre dos complejos $z$ y $w$ es $|z - w|$ .
Propiedades del conjugado y módulo:
* $\overline{z+w} = \bar{z} + \bar{w}$ .
* $\overline{z \cdot w} = \bar{z} \cdot \bar{w}$ .
* $\overline{z^{-1}} = (\bar{z})^{-1}$ .
* $|z|^2 = z \cdot \bar{z}$ .
* $|z \cdot w| = |z| \cdot |w|$ .
* $|z + w| \leq |z| + |w|$ (desigualdad triangular) .
#### 6.1.3 Forma polar y exponencial de los números complejos
Un número complejo $z = x + iy$ puede expresarse en coordenadas polares como $z = r(\cos\theta + i\sin\theta)$, donde $r = |z|$ y $\theta$ es el argumento de $z$. El argumento principal es aquel tal que $0 \leq \theta < 2\pi$. Se puede calcular usando $\tan\theta = \frac{y}{x}$ y observando el cuadrante donde se encuentra $z$ .
La relación de Euler, $e^{i\theta} = \cos\theta + i\sin\theta$, permite una notación más compacta: $z = re^{i\theta}$ .
#### 6.1.4 Operaciones con formas polares
La forma polar es muy útil para productos, cocientes y potencias:
* Producto: Si $z = re^{i\theta}$ y $w = se^{i\alpha}$, entonces $z \cdot w = rse^{i(\theta+\alpha)}$ .
* Cociente: $\frac{z}{w} = \frac{r}{s}e^{i(\theta-\alpha)}$ .
* Potencia: $z^n = r^n e^{in\theta}$ .
#### 6.1.5 Raíces de números complejos
Todo número complejo no nulo $z = re^{i\theta}$ tiene $n$ raíces $n$-simas distintas, dadas por:
$$ \sqrt[n]{z} = \sqrt[n]{r} e^{i\frac{\theta+2k\pi}{n}}, \quad k = 0, 1, \ldots, n-1 $$
Estas raíces se encuentran en los vértices de un polígono regular .
#### 6.1.6 Ejemplos de operaciones y resolución de ecuaciones
* **Cálculo de módulos:** $|i(3-4i)/(2+i)| = |i||3-4i|/|2+i| = 1 \cdot \sqrt{3^2+(-4)^2}/\sqrt{2^2+1^2} = 5/\sqrt{5} = \sqrt{5}$ .
* **Potencias:** $(1-i)^6$ se puede calcular directamente o en forma polar. En polar, $1-i = \sqrt{2}e^{-i\pi/4}$, entonces $(1-i)^6 = (\sqrt{2})^6 e^{-i6\pi/4} = 8e^{-i3\pi/2} = 8i$ .
* **Raíces cúbicas:** Las raíces cúbicas de $z = \frac{7+i}{1-i} = 3+4i = 5e^{i\arctan(4/3)}$ son $\sqrt {5}e^{i(\arctan(4/3)+2k\pi)/3}$ para $k=0,1,2$ [3](#page=3).
* **Factorización de polinomios:** El polinomio real $x^4+1$ se factoriza usando sus raíces complejas, que son las cuartas raíces de $-1$: $x^4+1 = (x^2 - \sqrt{2}x + 1)(x^2 + \sqrt{2}x + 1)$ .
* **Resolución de ecuaciones cuadráticas:** La fórmula cuadrática es válida en $\mathbb{C}$. Para $z^2 - iz - 1 - i = 0$, las raíces son $z = \frac{1}{2}[i \pm \sqrt{3+4i}]$. El cálculo de $\sqrt{3+4i}$ da $\pm(2+i)$, llevando a las raíces $z=1+i$ y $z=-1$ .
#### 6.1.7 Representación de conjuntos en el plano complejo
El conjunto de complejos $z$ que cumplen $|z - i| < 2$ corresponde a los puntos dentro del círculo de centro $(0,1)$ y radio 2, excluyendo la circunferencia .
#### 6.1.8 Funciones trigonométricas y exponenciales (relación)
Las identidades trigonométricas como $\cos(3\theta)$ y $\sin(3\theta)$ pueden derivarse usando potencias de números complejos y la fórmula de Euler .
#### 6.1.9 Funciones de variable compleja
Una función de variable compleja $f(z)$ asigna a cada complejo $z$ de un dominio un único complejo $f(z)$ .
* Se pueden definir funciones reales de variable compleja (donde $f(z)$ es real) o funciones complejas de variable real (donde $z$ es real) .
* Funciones importantes reales de variable compleja son el módulo $|z|$, el argumento $\text{Arg}(z)$, la parte real $\text{Re}(z)$ y la parte imaginaria $\text{Im}(z)$ .
* Cualquier función compleja $f$ se puede escribir como $f = u + iv$, donde $u = \text{Re}(f)$ y $v = \text{Im}(f)$ son funciones reales .
#### 6.1.10 Límite y continuidad de funciones complejas
El límite y la continuidad se definen de manera análoga a $\mathbb{R}$, utilizando el módulo en lugar del valor absoluto .
* **Límite:** $\lim_{z\to a} f(z) = L$ si $\forall \varepsilon > 0$, $\exists \delta > 0$ tal que si $0 < |z-a| < \delta$, entonces $|f(z)-L| < \varepsilon$ .
* **Continuidad:** $f$ es continua en $a$ si $\forall \varepsilon > 0$, $\exists \delta > 0$ tal que si $|z-a| < \delta$, entonces $|f(z)-f(a)| < \varepsilon$ .
> **Tip:** La continuidad en $a$ significa que para cualquier entorno de $f(a)$ de radio $\varepsilon$, podemos encontrar un entorno de $a$ de radio $\delta$ cuya imagen esté contenida en el entorno de $f(a)$ .
#### 6.1.11 Propiedades de continuidad
* Las sumas, diferencias, productos y cocientes (donde el denominador no se anula) de funciones continuas son continuas .
* Una función $f = u + iv$ es continua en $a$ si y solo si sus partes real $u$ y $v$ son continuas en $a$ .
* Las funciones polinómicas y racionales son continuas en sus dominios .
* Las funciones $\text{Re}(z)=x$ e $\text{Im}(z)=y$ son continuas en todo $\mathbb{C}$ .
* La función $f(z)=z$ es continua en todo $\mathbb{C}$ .
> **Tip:** La composición de funciones continuas es continua. Esto facilita demostrar la continuidad de funciones complejas complejas, como $f(x+iy) = y\arctan(xy) + ix\cos(x+y)$ .
Existen funciones discontinuas, como $\text{Arg}(z)$ en el semieje real positivo .
#### 6.1.12 Derivabilidad de funciones complejas
Una función $f(z)$ es derivable en $a \in \mathbb{C}$ si existe el límite:
$$ f'(a) = \lim_{z\to 0} \frac{f(a+z) - f(a)}{z} $$
.
* La derivabilidad implica continuidad .
* Las reglas de derivación para sumas, productos, cocientes y composiciones son las mismas que en $\mathbb{R}$ .
> **Tip:** Las funciones no son arbitrarias para ser derivables. Por ejemplo, $f(z) = \bar{z}$ no es derivable porque $\lim_{z\to 0} \frac{\bar{z}}{z}$ toma valores diferentes (1 y -1) para distintos caminos de aproximación a 0 .
Las **ecuaciones de Cauchy-Riemann** son una condición necesaria para la derivabilidad de $f = u + iv$: $\frac{\partial u}{\partial x} = \frac{\partial v}{\partial y}$ y $\frac{\partial u}{\partial y} = -\frac{\partial v}{\partial x}$ .
### 6.2 Series complejas de potencias
Se estudian sucesiones $\{a_n\}$ de números complejos y series $\sum a_n$.
#### 6.2.1 Convergencia de sucesiones y series complejas
* **Convergencia de sucesiones:** $\{a_n\} \to L$ si $\forall \varepsilon > 0$, $\exists N$ tal que si $n \geq N$, entonces $|a_n - L| < \varepsilon$ .
* **Relación con sucesiones reales:** Si $a_n = b_n + ic_n$ y $L = p + iq$, entonces $\{a_n\} \to L \iff \{b_n\} \to p$ y $\{c_n\} \to q$ .
* **Convergencia de series:** Una serie $\sum a_n$ converge si su sucesión de sumas parciales $S_n$ converge .
* **Suma de series:** Si $\sum b_n$ y $\sum c_n$ convergen, entonces $\sum (b_n + ic_n) = \sum b_n + i \sum c_n$ .
* **Convergencia absoluta:** $\sum a_n$ es absolutamente convergente si $\sum |a_n|$ converge. Los criterios de convergencia de series reales (cociente, raíz) se aplican a series complejas usando $|a_n|$ .
> **Tip:** Si una serie compleja converge absolutamente, entonces converge. Esto se debe a que $|b_n| \leq |a_n|$ y $|c_n| \leq |a_n|$, por lo que la convergencia de $\sum |a_n|$ implica la convergencia de $\sum |b_n|$ y $\sum |c_n|$, y consecuentemente de $\sum b_n$ y $\sum c_n$ .
#### 6.2.2 Series de potencias complejas
Una serie de potencias compleja tiene la forma:
$$ f(z) = \sum_{n=0}^{\infty} a_n z^n = a_0 + a_1 z + a_2 z^2 + \ldots, \quad a_n, z \in \mathbb{C} $$
.
* **Radio de convergencia:** A cada serie de potencias se asocia un radio de convergencia $R \in [0, \infty]$ .
* Si $R=0$, la serie solo converge en $z=0$.
* Si $R=\infty$, la serie converge para todo $z \in \mathbb{C}$.
* Si $R$ es un número real positivo, la serie converge para $|z| < R$ y diverge para $|z| > R$ .
> **Tip:** El intervalo de convergencia en $\mathbb{R}$ se convierte en un círculo de convergencia $|z| < R$ en $\mathbb{C}$. La convergencia sobre la circunferencia $|z|=R$ debe ser analizada por separado .
* **Propiedades de las series de potencias:** Dentro del círculo de convergencia, las series de potencias pueden sumarse, multiplicarse y dividirse de manera similar a las series reales .
#### 6.2.3 Derivabilidad de funciones definidas por series de potencias
Si $f(z) = \sum_{n=0}^{\infty} a_n z^n$ converge para $|z| < R$, entonces $f(z)$ es derivable para $|z| < R$ y su derivada es:
$$ f'(z) = \sum_{n=1}^{\infty} n a_n z^{n-1} $$
. Las funciones definidas por series de potencias son infinitamente derivables y continuas dentro de su círculo de convergencia .
> **Teorema Importante:** Una función $f(z)$ derivable en una región $A$ del plano complejo es infinitamente derivable en $A$. Además, en todo círculo contenido en $A$, $f(z)$ coincide con su serie de Taylor .
#### 6.2.4 Definición de funciones exponenciales y trigonométricas complejas
Se definen tres funciones complejas fundamentales mediante series de potencias:
* **Exponencial:** $e^z = \sum_{n=0}^{\infty} \frac{z^n}{n!}$ para todo $z \in \mathbb{C}$ .
* **Seno:** $\text{sen } z = \sum_{n=0}^{\infty} \frac{(-1)^n z^{2n+1}}{(2n+1)!}$ para todo $z \in \mathbb{C}$ .
* **Coseno:** $\cos z = \sum_{n=0}^{\infty} \frac{(-1)^n z^{2n}}{(2n)!}$ para todo $z \in \mathbb{C}$ .
Estas funciones tienen $R=\infty$ .
Propiedades y relaciones:
* $(\text{sen } z)' = \cos z$, $(\cos z)' = -\text{sen } z$, $(\text{e}^z)' = \text{e}^z$ .
* $\text{e}^{z+w} = \text{e}^z \text{e}^w$ .
* Relación de Euler: $e^{iz} = \cos z + i \text{sen } z$ .
* $\text{sen } z = \frac{1}{2i}(e^{iz} - e^{-iz})$ .
* $\cos z = \frac{1}{2}(e^{iz} + e^{-iz})$ .
* Para $z = x+iy$, $e^z = e^x e^{iy} = e^x(\cos y + i \text{sen } y)$ .
> **Observación:** A diferencia de las funciones trigonométricas reales, las funciones complejas $\text{sen } z$ y $\cos z$ no están acotadas. Por ejemplo, en el eje imaginario: $\text{sen}(iy) = i\text{shy}$ y $\cos(iy) = \text{chy}$ .
Las únicas funciones analíticas (infinitamente derivables) en todo $\mathbb{C}$ que están acotadas son las funciones constantes .
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Término | Definición |
|---|---|
| Números naturales | El conjunto $N = \{1, 2, 3, 4, 5, 6, ... \}$ que representa las cantidades enteras positivas. |
| Números enteros | El conjunto $Z = \{..., -2, -1, 0, 1, 2, ... \}$ que incluye los números naturales, sus opuestos y el cero. |
| Números racionales | El conjunto $Q = \{p/q \mid p, q \text{ son enteros, } q \neq 0 \}$ que se pueden expresar como el cociente de dos números enteros. |
| Cuerpo ordenado | Un conjunto con dos operaciones (suma y producto) que cumplen propiedades de asociatividad, conmutatividad, distributividad, existencia de neutros e inversos, y una relación de orden compatible con las operaciones. |
| Demostración por inducción | Un método de demostración para proposiciones que dependen de un número natural $n$, que consiste en probar la proposición para $n=1$ y luego demostrar que si es cierta para $n$ implica que es cierta para $n+1$. |
| Máximo común divisor (mcd) | El mayor número natural que divide a un conjunto de números naturales dados sin dejar resto. |
| Mínimo común múltiplo (mcm) | El menor número natural que es múltiplo de todos los números dados. |
| Factorial de $n$ ($n!$) | El producto de todos los números naturales desde 1 hasta $n$, definido como $n! = 1 \cdot 2 \cdot ... \cdot (n-1) \cdot n$, con $0! = 1$. |
| Número combinatorio ($\binom{n}{k}$) | El número de formas distintas de escoger $k$ elementos de un conjunto de $n$ elementos sin importar su orden, calculado como $\binom{n}{k} = \frac{n!}{k!(n-k)!}$. |
| Binomio de Newton | La fórmula que expresa la potencia $n$-ésima de un binomio $(a+b)^n$ en términos de coeficientes binomiales y potencias de $a$ y $b$: $(a+b)^n = \sum_{k=0}^{n} \binom{n}{k} a^{n-k}b^k$. |
| Número irracional | Un número real que no es racional, cuya expresión decimal tiene infinitos decimales no periódicos. |
| Axioma del extremo superior | Todo conjunto no vacío de números reales acotado superiormente posee un extremo superior (supremo). |
| Conjunto abierto | Un subconjunto de R donde cada punto es un punto interior, es decir, existe un entorno de ese punto completamente contenido en el subconjunto. |
| Conjunto cerrado | Un subconjunto de R que contiene a todos sus puntos de acumulación. |
| Función real de variable real | Una regla que asigna a cada número $x$ de un conjunto $D \subset R$ un único número real $f(x)$. |
| Función inyectiva | Una función $f$ en un conjunto $A$ tal que si $f(x) = f(x^*)$ para $x, x^* \in A$, entonces $x = x^*$. |
| Función monótona | Una función que es o bien creciente (no decreciente) o bien decreciente (no creciente) en todo su dominio. |
| Límite de una sucesión | El valor al que se aproximan los términos de una sucesión a medida que el índice $n$ tiende a infinito. Formalmente, $\{a_n\} \to a$ si para todo $\epsilon > 0$ existe $N$ tal que para todo $n \geq N$, $|a_n - a| < \epsilon$. |
| Sucesión convergente | Una sucesión que tiene un límite finito. |
| Sucesión divergente | Una sucesión que no converge a un límite finito; puede tender a infinito, menos infinito, o oscilar. |
| Sucesión de Cauchy | Una sucesión $\{a_n\}$ tal que para todo $\epsilon > 0$, existe un $N$ tal que para todo $n, m \geq N$, $|a_n - a_m| < \epsilon$. En R, una sucesión es de Cauchy si y solo si es convergente. |
| Límite de una función | El valor $L$ al que se aproxima $f(x)$ cuando $x$ se aproxima a un valor $a$. Formalmente, $\lim_{x \to a} f(x) = L$ si para todo $\epsilon > 0$ existe $\delta > 0$ tal que si $0 < |x - a| < \delta$, entonces $|f(x) - L| < \epsilon$. |
| Continuidad de una función | Una función $f$ es continua en un punto $a$ si $\lim_{x \to a} f(x) = f(a)$. |
| Teorema de Bolzano | Si una función $f$ es continua en un intervalo cerrado $[a, b]$ y $f(a)$ y $f(b)$ tienen signos opuestos, entonces existe al menos un $c \in (a, b)$ tal que $f(c) = 0$. |
| Teorema del valor medio (para funciones) | Si $f$ es continua en $[a, b]$ y derivable en $(a, b)$, entonces existe al menos un $c \in (a, b)$ tal que $f'(c) = \frac{f(b) - f(a)}{b - a}$. |
| Derivada de una función | La tasa de cambio instantánea de una función, representada por $f'(a) = \lim_{h \to 0} \frac{f(a+h) - f(a)}{h}$, geométricamente es la pendiente de la recta tangente a la gráfica en el punto $a$. |
| Regla de la cadena | Si $g$ es derivable en $a$ y $f$ es derivable en $g(a)$, entonces la función compuesta $f \circ g$ es derivable en $a$ y $(f \circ g)'(a) = f'(g(a)) \cdot g'(a)$. |
| Polinomio de Taylor | Un polinomio que aproxima una función $f$ cerca de un punto $a$, coincidiendo con $f$ y sus $n$ primeras derivadas en $a$. $P_{n,a}(x) = \sum_{k=0}^{n} \frac{f^{(k)}(a)}{k!}(x-a)^k$. |
| Serie de potencias | Una serie de la forma $\sum_{n=0}^{\infty} a_n(x-a)^n$, que representa una función en un intervalo de convergencia. |
| Radio de convergencia ($R$) | Un número asociado a una serie de potencias que determina el intervalo $|x-a| < R$ donde la serie converge. |
| Integración por partes | Una técnica para calcular primitivas basada en la regla del producto de la derivación: $\int u \, dv = uv - \int v \, du$. |
| Cambio de variable (en integración) | Una técnica para simplificar integrales mediante la sustitución de una variable por una función de otra: $\int f(g(x))g'(x) \, dx = \int f(u) \, du$. |
| Integral impropia | Una integral definida donde el intervalo de integración es infinito o el integrando no está acotado en algún punto del intervalo. |
| Criterio de comparación (para series/integrales) | Métodos para determinar la convergencia de una serie o integral comparándola con otra cuya convergencia se conoce, usualmente mediante desigualdades o límites. |
| Criterio de Leibniz | Para series alternadas ($a_n \ge 0$ decreciente y $a_n \to 0$), la serie $\sum (-1)^n a_n$ converge. |
| Criterio del cociente/raíz | Métodos para determinar la convergencia de series utilizando el límite del cociente o la raíz de los términos consecutivos de la serie. |
| Convergencia puntual | Una sucesión de funciones $\{f_n\}$ converge puntualmente a $f$ en un conjunto $A$ si para cada $x \in A$, $\lim_{n \to \infty} f_n(x) = f(x)$. |
| Convergencia uniforme | Una sucesión de funciones $\{f_n\}$ converge uniformemente a $f$ en un conjunto $A$ si para todo $\epsilon > 0$, existe un $N$ tal que para todo $n \geq N$ y para todo $x \in A$, $|f_n(x) - f(x)| < \epsilon$. |
| Criterio de Weierstrass | Si $|f_n(x)| \leq M_n$ para todo $x \in A$ y $\sum M_n$ converge, entonces $\sum f_n$ converge uniformemente en $A$. |
| Número complejo ($z$) | Un número de la forma $z = a + ib$, donde $a, b \in R$ e $i^2 = -1$. $a$ es la parte real (Re(z)) e $b$ es la parte imaginaria (Im(z)). |
| Módulo de un número complejo ($|z|$) | La distancia de $z$ al origen en el plano complejo, dado por $|z| = \sqrt{a^2 + b^2}$. |
| Argumento de un número complejo ($\theta$) | El ángulo formado por el segmento que une el origen con $z$ y el semieje real positivo en el plano complejo. |
| Forma polar de un número complejo | La representación de $z = a + ib$ como $z = r(\cos \theta + i \sin \theta)$ o $z = re^{i\theta}$, donde $r = |z|$ y $\theta = \text{Arg}(z)$. |
| Derivada de una función compleja | Similar a la derivada real: $f'(a) = \lim_{z \to 0} \frac{f(a+z) - f(a)}{z}$, si este límite existe. |
| Ecuaciones de Cauchy-Riemann | Condiciones necesarias para que una función $f(z) = u(x, y) + iv(x, y)$ sea derivable en $z = x+iy$: $\frac{\partial u}{\partial x} = \frac{\partial v}{\partial y}$ y $\frac{\partial u}{\partial y} = -\frac{\partial v}{\partial x}$. |
| Serie de potencias compleja | Una serie de la forma $\sum_{n=0}^{\infty} a_n z^n$, donde $a_n$ y $z$ son números complejos. |
| Radio de convergencia complejo ($R$) | Determina el círculo $|z| < R$ en el plano complejo dentro del cual una serie de potencias compleja converge. |
Cover
CÁLCULO TEORÍA 1.pdf
Summary
# El espacio R y sus propiedades
El espacio de los números reales ($R$) es fundamental en cálculo, extendiendo las propiedades de los números racionales ($Q$) para incluir cantidades como longitudes irracionales, y se caracteriza por propiedades de orden, valor absoluto, intervalos y, crucialmente, el axioma del supremo [2](#page=2) [3](#page=3).
### 1.1. Motivación y los números reales
Los números naturales ($N = \{1, 2, 3, \dots\}$) se usan para contar; los enteros ($Z = \{\dots, -2, -1, 0, 1, 2, \dots\}$) permiten sustracciones; y los racionales ($Q = \{\frac{p}{q} \mid p, q \in Z, q \neq 0\}$) introducen las proporciones. Sin embargo, existen magnitudes que no pueden ser descritas por estos conjuntos. Por ejemplo, la hipotenusa de un triángulo rectángulo con base y altura 1, cuya longitud es $\sqrt{2}$, no es un número racional. De manera similar, $\pi$ (la relación entre la circunferencia y su diámetro) es otro ejemplo de número no racional. El conjunto de los números reales ($R$) incluye tanto a los racionales ($Q$) como a los irracionales ($I$), formándose la cadena de inclusiones $N \subset Z \subset Q \subset R$. La unión de los racionales e irracionales es $R$ ($Q \cup I = R$), y su intersección es vacía ($Q \cap I = \emptyset$). Los números reales se pueden representar gráficamente como puntos en una recta, conocida como la recta real [2](#page=2) [3](#page=3) [4](#page=4).
> **Tip:** Es importante recordar que la construcción formal de $R$ a partir de $Q$ (a menudo mediante sucesiones de Cauchy o cortaduras de Dedekind) está ligada al cálculo infinitesimal, pero para este estudio, nos centramos en sus propiedades [3](#page=3).
### 1.2. Operaciones y propiedades del orden
En $R$, se definen las operaciones de suma y producto, dotándolo de una estructura algebraica similar a $Q$. Además, los números reales pueden ser ordenados. Intuitivamente, $x \le y$ si la representación de $x$ en la recta real está a la izquierda o coincide con la de $y$. Si la representación de $x$ está estrictamente a la izquierda de $y$, se escribe $x < y$. Los números menores que 0 se denominan negativos, y los mayores que 0, positivos [4](#page=4).
Las propiedades del orden en $R$ son:
1. **Orden total:** $x \le y$ o $y \le x$ [5](#page=5).
2. **Reflexiva:** $x \le x$ [5](#page=5).
3. **Antisimétrica:** Si $x \le y$ y $y \le x$, entonces $x = y$ [5](#page=5).
4. **Transitiva:** Si $x \le y$ y $y \le z$, entonces $x \le z$ [5](#page=5).
5. **Relación con la suma:** Si $x \le y$, entonces $x + z \le y + z$ para cualquier $z \in R$ [5](#page=5).
6. **Relación con el producto (no negativo):** Si $x \le y$ y $0 \le z$, entonces $xz \le yz$ [5](#page=5).
7. **Relación con el producto (negativo):** Si $x \le y$ y $z < 0$, entonces $xz \ge yz$ [5](#page=5).
> **Ejemplo:** Usando estas propiedades, si $x \le y$ y $z \le w$, podemos demostrar que $x + z \le y + w$. Sumando $z$ a la primera desigualdad obtenemos $x + z \le y + z$. Sumando $y$ a la segunda desigualdad obtenemos $z + y \le w + y$. Dado que la suma es conmutativa ($y + z = z + y$), por transitividad, concluimos $x + z \le y + w$ [5](#page=5).
### 1.3. Valor absoluto
El valor absoluto de un número real $x$, denotado por $|x|$, se define como:
$$ |x| = \begin{cases} x & \text{si } x \ge 0 \\ -x & \text{si } x < 0 \end{cases} $$
El valor absoluto de un número no nulo es siempre positivo. Gráficamente, $|x|$ representa la distancia entre $x$ y el origen en la recta real. La distancia entre dos números reales $x$ e $y$ se define como $|x - y|$ [5](#page=5).
Propiedades clave del valor absoluto:
1. $|x| = 0 \implies x = 0$ [6](#page=6).
2. **Desigualdad triangular:** $|x + y| \le |x| + |y|$ [6](#page=6).
3. $||x| - |y|| \le |x - y|$ [6](#page=6).
> **Contraejemplo:** La afirmación "$x < y$ implica $|x| < |y|$" es falsa. Por ejemplo, si $x = -2$ e $y = 1$, tenemos $-2 < 1$, pero $|-2| = 2 > |1| = 1$ [6](#page=6).
### 1.4. Intervalos
Los intervalos son subconjuntos continuos de la recta real. Para $a, b \in R$ con $a < b$, se definen:
* **Intervalo abierto:** $(a, b) = \{x \in R: a < x < b\}$ [6](#page=6).
* **Intervalo cerrado:** $[a, b = \{x \in R: a \le x \le b\}$ [6](#page=6).
* **Intervalos semiabiertos (o semicerrados):** $[a, b) = \{x \in R: a \le x < b\}$ y $(a, b = \{x \in R: a < x \le b\}$ [6](#page=6).
Los números $a$ y $b$ son los extremos del intervalo [6](#page=6).
También se definen intervalos que representan semirrectas:
* $(a, \infty) = \{x \in R: a < x\}$ (Intervalo abierto) [6](#page=6).
* $[a, \infty) = \{x \in R: a \le x\}$ (Intervalo cerrado) [6](#page=6).
* $(-\infty, a) = \{x \in R: x < a\}$ (Intervalo abierto) [6](#page=6).
* $(-\infty, a = \{x \in R: x \le a\}$ (Intervalo cerrado) [6](#page=6).
* $(-\infty, \infty) = R$ [7](#page=7).
El **punto medio** (o centro) de un intervalo $(a, b)$ con $a < b$ es $c = \frac{a+b}{2}$, y el **radio** es $r = \frac{b-a}{2}$. Utilizando el valor absoluto, los intervalos con centro $c$ y radio $r > 0$ pueden describirse como [7](#page=7):
* $(c-r, c+r) = \{x \in R: |x - c| < r\}$ [7](#page=7).
* $[c-r, c+r = \{x \in R: |x - c| \le r\}$ [7](#page=7).
* $(c-r, c+r = \{x \in R: |x - c| \le r \text{ y } x \neq c+r \}$ [7](#page=7).
* $[c-r, c+r) = \{x \in R: |x - c| \le r \text{ y } x \neq c-r \}$ [7](#page=7).
> **Ejemplo:** El intervalo abierto $(1, 4)$ tiene centro $c = \frac{1+4}{2} = \frac{5}{2}$ y radio $r = \frac{4-1}{2} = \frac{3}{2}$. Se puede describir como $\{x \in R: |x - \frac{5}{2}| < \frac{3}{2}\}$ [7](#page=7).
> **Ejemplo:** Los puntos a distancia menor o igual que $\frac{2}{3}$ del punto $-1$ forman el intervalo $[-1 - \frac{2}{3}, -1 + \frac{2}{3}] = [-\frac{5}{3}, -\frac{1}{3}]$ [8](#page=8).
### 1.5. Conjuntos acotados y el Axioma del supremo
Se introducen las siguientes definiciones para caracterizar conjuntos en $R$:
* Una **cota superior** $c$ para un conjunto $A \subset R$ es un número real tal que $a \le c$ para todo $a \in A$ [8](#page=8).
* Un conjunto $A$ está **acotado superiormente** si posee al menos una cota superior [9](#page=9).
* Una **cota inferior** $c$ para un conjunto $A \subset R$ es un número real tal que $a \ge c$ para todo $a \in A$ [9](#page=9).
* Un conjunto $A$ está **acotado inferiormente** si posee al menos una cota inferior [9](#page=9).
* Un conjunto $A$ está **acotado** si está acotado superior e inferiormente [9](#page=9).
> **Ejemplo:** El conjunto de los números naturales $N$ no tiene cotas superiores (está acotado inferiormente por 0 o 1, pero no superiormente). El intervalo $[7, 3e^2]$ es acotado superiormente por $3e^2$ (y cualquier número mayor) e inferiormente por $7$ (y cualquier número menor) [10](#page=10) [9](#page=9).
Si un conjunto $A$ tiene una cota superior, entonces existe la **menor de todas las cotas superiores**, llamada **supremo** de $A$, denotado por $\sup A$ [10](#page=10).
* $\sup A$ es una cota superior para $A$ [10](#page=10).
* Si $c$ es cualquier otra cota superior de $A$, entonces $\sup A \le c$ [10](#page=10).
De manera análoga, si un conjunto $A$ tiene cotas inferiores, existe la **mayor de todas las cotas inferiores**, llamada **ínfimo** de $A$, denotado por $\inf A$ [10](#page=10).
* $\inf A$ es una cota inferior para $A$ [10](#page=10).
* Si $c$ es cualquier otra cota inferior de $A$, entonces $c \le \inf A$ [10](#page=10).
El supremo y el ínfimo de un conjunto, si existen, son únicos [10](#page=10).
> **Ejemplo:** Los intervalos $(-1,1), (-1, 1, [-1,1), [-1,1]$ tienen $\sup = 1$ e $\inf = -1$. Para $A = \{x \in Q: x^2 \le 7\}$, $\inf A = -\sqrt{7}$ y $\sup A = \sqrt{7}$ (ninguno de estos pertenece a $A$). Para $N$, $\inf N = 1$, pero $\sup N$ no existe [10](#page=10) [11](#page=11).
El **Axioma del supremo** es una propiedad fundamental de los números reales:
* **Todo subconjunto no vacío de números reales acotado superiormente tiene supremo.** Es decir, si $A \subset R$, $A \neq \emptyset$ y $A$ está acotado superiormente, entonces $\sup A \in R$ [11](#page=11).
Este axioma distingue a $R$ de $Q$, ya que existen subconjuntos acotados superiormente de números racionales que no tienen un supremo en $Q$ [11](#page=11).
Una propiedad análoga para el ínfimo es:
* **Si $A \subset R$ está acotado inferiormente, entonces $\inf A \in R$.** [11](#page=11).
> **Tip:** El Axioma del supremo es crucial para demostrar muchos resultados en cálculo infinitesimal, garantizando la existencia de límites y la completitud de los números reales [11](#page=11).
---
# Sucesiones y series de números reales
Este tema aborda el estudio de las sucesiones y series de números reales, centrándose en sus propiedades fundamentales como la convergencia, acotación y monotonicidad, así como en los criterios para determinar la convergencia de series [12](#page=12).
### 2.1 Sucesiones
Una sucesión de números reales es una aplicación de los números naturales en los números reales. Los términos de la sucesión se suelen denotar como $a_1, a_2, a_3, \dots$, y la fórmula que los genera se conoce como término general [12](#page=12) [13](#page=13).
#### 2.1.1 Convergencia de sucesiones
Una sucesión $\{a_n\}$ tiene límite $l \in \mathbb{R}$ si para cada $\varepsilon > 0$, existe un número natural $N$ tal que $|a_n - l| < \varepsilon$ para todo $n > N$. Esto significa que, a partir de un cierto término, todos los demás términos de la sucesión se aproximan arbitrariamente al límite [13](#page=13).
* **Unicidad del límite:** Si una sucesión converge, su límite es único [14](#page=14).
* **Sucesiones constantes:** Toda sucesión constante $\{a_n\} = \{c\}$ es convergente y su límite es $c$ [13](#page=13).
* **Ejemplo de convergencia:** La sucesión $a_n = \frac{1}{n}$ converge a $0$, ya que para cualquier $\varepsilon > 0$, podemos encontrar un $N > \frac{1}{\varepsilon}$ tal que para $n \ge N$, $|a_n - 0| = \frac{1}{n} \le \frac{1}{N} < \varepsilon$ [14](#page=14).
#### 2.1.2 Acotación de sucesiones
Una sucesión $\{a_n\}$ es acotada si existe un número $c > 0$ tal que $|a_n| \le c$ para todo $n \in \mathbb{N}$ [14](#page=14).
* **Relación con la convergencia:** Toda sucesión convergente es acotada. Sin embargo, el recíproco no es cierto; una sucesión acotada no necesariamente converge (ejemplo: $\{(-1)^n\}$) [14](#page=14).
#### 2.1.3 Monotonicidad de sucesiones
* Una sucesión $\{a_n\}$ es **creciente** si $a_n \le a_{n+1}$ para todo $n \in \mathbb{N}$ [21](#page=21).
* Es **estrictamente creciente** si $a_n < a_{n+1}$ para todo $n \in \mathbb{N}$ [21](#page=21).
* Una sucesión $\{a_n\}$ es **decreciente** si $a_n \ge a_{n+1}$ para todo $n \in \mathbb{N}$ [21](#page=21).
* Es **estrictamente decreciente** si $a_n > a_{n+1}$ para todo $n \in \mathbb{N}$ [21](#page=21).
* Una sucesión es **monótona** si es creciente o decreciente [21](#page=21).
#### 2.1.4 Operaciones con límites de sucesiones
Si $\lim_{n\to\infty} a_n = l$ y $\lim_{n\to\infty} b_n = m$ existen, entonces:
* $\lim_{n\to\infty} (a_n + b_n) = l + m$ [16](#page=16).
* $\lim_{n\to\infty} (a_n \cdot b_n) = l \cdot m$ [16](#page=16).
* Si $b_n \ne 0$ para todo $n$ y $m \ne 0$, entonces $\lim_{n\to\infty} \frac{a_n}{b_n} = \frac{l}{m}$ [16](#page=16).
> **Tip:** Para límites de cocientes de polinomios, dividir el numerador y el denominador por el monomio de mayor grado del denominador simplifica el cálculo [17](#page=17).
#### 2.1.5 Límites infinitos
Se escribe $\lim_{n\to\infty} a_n = \infty$ si para cada $k > 0$, existe un $N \in \mathbb{N}$ tal que $a_n \ge k$ para todo $n \ge N$. De manera similar se define $\lim_{n\to\infty} a_n = -\infty$. Las sucesiones con límite infinito o menos infinito no son convergentes [18](#page=18).
* **Recta real ampliada:** Se define $\overline{\mathbb{R}} = \mathbb{R} \cup \{-\infty, \infty\}$ para facilitar el cálculo de límites [17](#page=17).
* **Sustitución por $\infty$:** Si al sustituir $n$ por $\infty$ en el término general de una sucesión se obtiene un valor definido en $\overline{\mathbb{R}}$ (distinto de las indeterminaciones), este coincide con el límite de la sucesión [18](#page=18).
#### 2.1.6 Indeterminaciones
Al calcular límites, algunas expresiones no están definidas y se denominan indeterminaciones. Estas incluyen:
* $\frac{0}{0}$, $\frac{\infty}{\infty}$ [19](#page=19).
* $\infty - \infty$ [19](#page=19).
* $1^\infty$, $0^0$, $\infty^0$ [20](#page=20).
Para resolverlas, se suelen aplicar técnicas como multiplicar y dividir por el conjugado, o utilizar la relación entre límites de exponenciales y logaritmos [19](#page=19).
#### 2.1.7 Teoremas y criterios importantes para sucesiones
* **Regla del emparedado:** Si $a_n \le b_n \le c_n$ para todo $n$, y $\lim_{n\to\infty} a_n = \lim_{n\to\infty} c_n = l$, entonces $\lim_{n\to\infty} b_n = l$ [15](#page=15).
* **Teorema:** Si $\lim_{n\to\infty} a_n = 0$ y $\{b_n\}$ es acotada, entonces $\lim_{n\to\infty} (a_n \cdot b_n) = 0$ [15](#page=15).
* **Proposición:** Si $\lim_{n\to\infty} a_n = l$, entonces $\lim_{n\to\infty} |a_n| = |l|$ [15](#page=15).
* **Teorema de convergencia para sucesiones monótonas:** Si $\{a_n\}$ es monótona, entonces $\{a_n\}$ es convergente si y solo si es acotada [21](#page=21).
* **Criterio de Stolz:** Si $\{b_n\}$ es monótona y $\lim_{n\to\infty} b_n = \pm\infty$ (o $\lim_{n\to\infty} b_n = \lim_{n\to\infty} a_n = 0$), y existe $\lim_{n\to\infty} \frac{a_{n+1} - a_n}{b_{n+1} - b_n} = l$, entonces $\lim_{n\to\infty} \frac{a_n}{b_n} = l$ [22](#page=22).
### 2.2 Series de números reales
Una serie de números reales es una suma infinita de los términos de una sucesión $\{a_n\}$, denotada como $\sum_{n=1}^{\infty} a_n$. Se define a través de la sucesión de sumas parciales $\{s_n\}$, donde $s_n = a_1 + a_2 + \dots + a_n$ [24](#page=24).
#### 2.2.1 Convergencia de series
Una serie $\sum_{n=1}^{\infty} a_n$ es **convergente** o sumable si su sucesión de sumas parciales $\{s_n\}$ es convergente. El límite de $\{s_n\}$ es la **suma** de la serie, denotada como $\sum_{n=1}^{\infty} a_n$. Si $\{s_n\}$ no converge, la serie es **divergente** [25](#page=25) [26](#page=26).
* **Condición necesaria para la convergencia:** Si $\sum_{n=1}^{\infty} a_n$ es convergente, entonces $\lim_{n\to\infty} a_n = 0$. Sin embargo, el recíproco no es cierto (ejemplo: la serie armónica $\sum_{n=1}^{\infty} \frac{1}{n}$) [26](#page=26) [27](#page=27).
#### 2.2.2 Operaciones con series
Si $\sum a_n$ y $\sum b_n$ son series sumables y $c \in \mathbb{R}$, entonces:
* $\sum (a_n + b_n)$ es sumable y $\sum_{n=1}^{\infty} (a_n + b_n) = \sum_{n=1}^{\infty} a_n + \sum_{n=1}^{\infty} b_n$ [27](#page=27).
* $\sum (c \cdot a_n)$ es sumable y $\sum_{n=1}^{\infty} (c \cdot a_n) = c \sum_{n=1}^{\infty} a_n$ [27](#page=27).
#### 2.2.3 Criterios de convergencia para series de términos no negativos
Estos criterios se aplican a series donde $a_n \ge 0$ para todo $n$ [28](#page=28).
* **Criterio de comparación:** Si existe un $n_0$ tal que $a_n \le b_n$ para $n \ge n_0$:
* Si $\sum b_n$ converge, entonces $\sum a_n$ converge [28](#page=28).
* Si $\sum a_n$ diverge, entonces $\sum b_n$ diverge [28](#page=28).
* **Criterio del cociente:** Sea $a_n > 0$ y $l = \lim_{n\to\infty} \frac{a_{n+1}}{a_n}$ [28](#page=28).
* Si $l < 1$, la serie converge [28](#page=28).
* Si $l > 1$, la serie diverge [28](#page=28).
* Si $l = 1$, el criterio no decide [28](#page=28).
* **Criterio de la raíz:** Sea $a_n > 0$ y $l = \lim_{n\to\infty} \sqrt[n]{a_n}$ [28](#page=28).
* Si $l < 1$, la serie converge [28](#page=28).
* Si $l > 1$, la serie diverge [28](#page=28).
* Si $l = 1$, el criterio no decide [28](#page=28).
> **Tip:** Si el Criterio del cociente decide, entonces el de la raíz también [30](#page=30).
#### 2.2.4 Series de términos sin signo constante
* **Convergencia absoluta:** Una serie $\sum a_n$ es **absolutamente convergente** si la serie de sus valores absolutos $\sum |a_n|$ es convergente [30](#page=30).
* Si una serie es absolutamente convergente, entonces es convergente [30](#page=30).
* **Series alternadas:** Una serie es alternada si sus términos cambian de signo alternativamente [31](#page=31).
* **Criterio de Leibniz:** Sea $\sum a_n$ una serie alternada tal que la sucesión $\{|a_n|\}$ es decreciente y $\lim_{n\to\infty} a_n = 0$. Entonces la serie es convergente [31](#page=31).
---
# Límites de funciones, continuidad y asíntotas
Este apartado se centra en la generalización del concepto de límite para funciones reales de variable real, sentando las bases para el estudio de la continuidad y la identificación de comportamientos asintóticos de una función [32](#page=32).
### 3.1. Límites de funciones
#### 3.1.1. Definición y motivación
Las funciones reales de variable real son aplicaciones $f: D \subset \mathbb{R} \rightarrow \mathbb{R}$, donde $D$ es el dominio y $f(D)$ es la imagen. Si el dominio no se especifica, se considera el mayor conjunto de números reales para el que la función está definida. El dominio de funciones construidas mediante suma, producto y división es el dominio de partida, excepto para la división, donde se excluyen los puntos que anulan el denominador. Una función es acotada si su imagen es un conjunto acotado [33](#page=33).
La gráfica de una función es la representación de los puntos $(x, f(x))$ en el plano $xy$ [33](#page=33).
#### 3.1.2. Límite de una función en un punto
La definición formal de límite de una función $f$ en un punto $a$ es análoga a la de las sucesiones:
**Definición 1.18:** La función $f: D \rightarrow \mathbb{R}$ tiene límite $l$ en $a$ (se escribe $\lim_{x \to a} f(x) = l$) si para todo $\epsilon > 0$ existe un $\delta > 0$ tal que si $x \in D \setminus \{a\}$ y $|x - a| < \delta$, entonces $|f(x) - l| < \epsilon$ [33](#page=33).
Para que el límite en $a$ tenga sentido, cualquier conjunto de la forma $(a - \delta, a) \cup (a, a + \delta)$ para $\delta > 0$ debe tener intersección no vacía con el dominio de $f$. Gráficamente, esto significa que para cualquier banda horizontal $\epsilon$-cercana a $l$, existe un intervalo $(a - \delta, a + \delta)$ tal que la gráfica de la función restringida a este intervalo (excluyendo $a$) se encuentra dentro de la banda horizontal [33](#page=33).
**Proposición 1.9:** Si $\lim_{x \to a} f(x) > 0$, entonces existe $\delta > 0$ tal que $f(x) > 0$ para todo $x \in D \cap ((a - \delta, a + \delta) \setminus \{a\})$. Similarmente, si el límite es negativo, la función tomará valores negativos cerca de $a$ [34](#page=34).
El límite de una función en un punto, si existe, es único [34](#page=34).
**Ejemplo 1.43:** La función $f(x) = \begin{cases} x+1, & x < 0 \\ 2, & x = 0 \\ -x+1, & x>0 \end{cases}$ tiene límite $1$ en $0$ [34](#page=34).
**Ejemplo 1.44:** La función $f(x) = \sin(\frac{1}{x})$ definida en $(0, \infty)$ no tiene límite en $0$ porque oscila con amplitud constante a medida que $x$ se acerca a $0$ [34](#page=34) [35](#page=35).
**Regla del emparedado:** Si $\lim_{x \to a} f(x) = \lim_{x \to a} g(x) = l$ y $f(x) \leq h(x) \leq g(x)$ para todo $x$ en el dominio de $h$, entonces $\lim_{x \to a} h(x) = l$ [35](#page=35).
**Proposición 1.10:** Si $\lim_{x \to a} f(x) = 0$ y $g: \mathbb{R} \rightarrow \mathbb{R}$ es una función acotada, entonces $\lim_{x \to a} f(x) \cdot g(x) = 0$. Esta propiedad se generaliza a funciones acotadas en un intervalo abierto $I$ que contiene a $a$ [35](#page=35).
**Proposición 1.11:** Si $\lim_{x \to a} f(x) = l$ y $\lim_{x \to a} g(x) = m$, entonces:
* $\lim_{x \to a} (f(x) + g(x)) = l + m$ [36](#page=36).
* $\lim_{x \to a} (f(x) \cdot g(x)) = l \cdot m$ [36](#page=36).
* Si además $g(x) \neq 0$ en $D$ y $m \neq 0$, entonces $\lim_{x \to a} \frac{f(x)}{g(x)} = \frac{l}{m}$ [36](#page=36).
#### 3.1.3. Límites infinitos, límites laterales y límites en el infinito
**Límites infinitos:**
* Escribimos $\lim_{x \to a} f(x) = \infty$ si para todo $k > 0$ existe $\delta > 0$ tal que $f(x) \geq k$ para todo $x \in (a - \delta, a + \delta) \setminus \{a\}$ [36](#page=36).
* Escribimos $\lim_{x \to a} f(x) = -\infty$ si $\lim_{x \to a} -f(x) = \infty$ [36](#page=36).
**Ejemplo 1.45:** La función $f(x) = \frac{1}{x^2}$ verifica $\lim_{x \to 0} f(x) = \infty$ [36](#page=36).
**Límites laterales:**
Para definir límites laterales, se considera la restricción de la función a subconjuntos del dominio.
**Definición 1.19:** Dada $f: D \rightarrow \mathbb{R}$ y $J \subset D$, la restricción de $f$ a $J$ se denota por $f|_J$ y se define como $f|_J(x) = f(x)$ para $x \in J$ [37](#page=37).
* La función $f: D \rightarrow \mathbb{R}$ tiene límite por la derecha $l \in \mathbb{R}$ en $a$ (se escribe $\lim_{x \to a^+} f(x) = l$) si $\lim_{x \to a} f|_{D \cap (a, \infty)}(x) = l$ [37](#page=37).
* La función $f: D \rightarrow \mathbb{R}$ tiene límite por la izquierda $l \in \mathbb{R}$ en $a$ (se escribe $\lim_{x \to a^-} f(x) = l$) si $\lim_{x \to a} f|_{D \cap (-\infty, a)}(x) = l$ [37](#page=37).
Una función puede tener límites laterales sin tener un límite en el punto [37](#page=37).
**Ejemplo 1.46:** La función $f(x) = \frac{1}{x}$ verifica $\lim_{x \to 0^+} f(x) = \infty$ y $\lim_{x \to 0^-} f(x) = -\infty$. La función no tiene límite en $0$ [37](#page=37).
**Teorema 1.4:** Si $f: D \rightarrow \mathbb{R}$ y $l \in \mathbb{R}$, entonces $\lim_{x \to a} f(x) = l$ si y solo si $\lim_{x \to a^+} f(x) = l$ y $\lim_{x \to a^-} f(x) = l$ [37](#page=37).
**Límites en el infinito:**
* La función $f: D \rightarrow \mathbb{R}$ tiende a $l \in \mathbb{R}$ cuando $x$ tiende a infinito (se escribe $\lim_{x \to \infty} f(x) = l$) si para todo $\epsilon > 0$ existe un $\delta > 0$ tal que $x \in D$ y $x > \delta$ garantizan que $|f(x) - l| < \epsilon$ [37](#page=37).
* La función $f: D \rightarrow \mathbb{R}$ tiende a $l \in \mathbb{R}$ cuando $x$ tiende a $-\infty$ (se escribe $\lim_{x \to -\infty} f(x) = l$) si $\lim_{x \to \infty} f(-x) = l$ [37](#page=37).
**Ejemplo 1.47:** Para la función $f(x) = \frac{x^2 - x + 1}{x^2 + 1}$, se tiene que $\lim_{x \to \infty} f(x) = 1$ y $\lim_{x \to -\infty} f(x) = 1$ [38](#page=38).
#### 3.1.4. Asíntotas
Las asíntotas son rectas a las que la gráfica de una función se aproxima arbitrariamente [38](#page=38).
* **Asíntota horizontal:** La recta $y = b$ es una asíntota horizontal si y solo si $\lim_{x \to \infty} f(x) = b$ o $\lim_{x \to -\infty} f(x) = b$ [39](#page=39).
* **Asíntota vertical:** Una condición necesaria y suficiente para que $x = a$ sea una asíntota vertical para $f(x)$ es que $\lim_{x \to a^+} f(x) = \pm\infty$ o $\lim_{x \to a^-} f(x) = \pm\infty$ [39](#page=39).
**Ejemplo:** Tanto $f(x) = \frac{1}{x}$ como $f(x) = \frac{1}{x^2}$ tienen a $x = 0$ como asíntota vertical [39](#page=39).
* **Asíntota oblicua:** La recta $y = mx + b$ con $m \neq 0$ es una asíntota oblicua si y solo si $\lim_{x \to \infty} (f(x) - (mx + b)) = 0$ o $\lim_{x \to -\infty} (f(x) - (mx + b)) = 0$ [39](#page=39).
**Proposición 1.12:** Si $f$ tiene como asíntota oblicua a la recta $y = mx + b$ con $m \neq 0$, entonces $\lim_{x \to \infty} \frac{f(x)}{x} = m$ y $\lim_{x \to -\infty} \frac{f(x)}{x} = m$ [39](#page=39).
Para calcular $m$, se evalúa el límite de $\frac{f(x)}{x}$ cuando $x \to \infty$ (o $x \to -\infty$). Una vez obtenido $m$, se calcula $b$ evaluando el límite de $f(x) - mx$ cuando $x \to \infty$ (o $x \to -\infty$) [39](#page=39) [40](#page=40).
**Ejemplo 1.48:** Para la función $f(x) = \frac{x^3 + x^2 + 1}{x^2 + 1}$:
* No hay asíntotas verticales porque el denominador nunca se anula [39](#page=39).
* No hay asíntotas horizontales, ya que $\lim_{x \to \infty} f(x) = \infty$ y $\lim_{x \to -\infty} f(x) = -\infty$ [40](#page=40).
* Para las asíntotas oblicuas:
* $m = \lim_{x \to \infty} \frac{f(x)}{x} = \lim_{x \to \infty} \frac{x^3 + x^2 + 1}{x(x^2 + 1)} = \lim_{x \to \infty} \frac{x^3 + x^2 + 1}{x^3 + x} = 1$ [40](#page=40).
* $b = \lim_{x \to \infty} (f(x) - 1 \cdot x) = \lim_{x \to \infty} \left(\frac{x^3 + x^2 + 1}{x^2 + 1} - x\right) = \lim_{x \to \infty} \frac{x^3 + x^2 + 1 - x^3 - x}{x^2 + 1} = \lim_{x \to \infty} \frac{x^2 - x + 1}{x^2 + 1} = 1$ [40](#page=40).
Por lo tanto, la recta $y = x + 1$ es una asíntota oblicua para la función [40](#page=40).
### 3.2. Funciones continuas
#### 3.2.1. Continuidad en un punto
**Definición 1.20:** Una función $f: D \subset \mathbb{R} \rightarrow \mathbb{R}$ es continua en $a \in D$ si $\lim_{x \to a} f(x) = f(a)$. Si esta condición no se cumple, la función es discontinua en $a$ [41](#page=41).
**Proposición 1.13:** Si $f$ y $g$ son continuas en $a$, entonces $f+g$ y $f \cdot g$ son continuas en $a$. Además, si $g(a) \neq 0$, entonces $\frac{f}{g}$ es continua en $a$ [41](#page=41).
**Proposición 1.14:** Si $f$ es continua en $a$ y $g$ es continua en $f(a)$, entonces la composición $g \circ f$ es continua en $a$ [41](#page=41).
#### 3.2.2. Continuidad en un intervalo y propiedades
**Definición 1.21:** Una función $f: D \subset \mathbb{R} \rightarrow \mathbb{R}$ se dice continua en $A \subset D$ si es continua en cada punto $a \in A$. Si el conjunto $A$ no se especifica, se asume que la función es continua en su dominio de definición [41](#page=41) [42](#page=42).
**Teorema de Bolzano:** Si $f: [a, b \rightarrow \mathbb{R}$ es continua y $f(a) \cdot f(b) < 0$, entonces existe al menos un $c \in (a, b)$ tal que $f(c) = 0$ [42](#page=42).
**Teorema de los valores intermedios:** Si $f: [a, b \rightarrow \mathbb{R}$ es continua y $f(a) < d < f(b)$ o $f(a) > d > f(b)$, entonces existe al menos un $c \in (a, b)$ tal que $f(c) = d$. En otras palabras, una función continua en un intervalo toma todos los valores intermedios entre dos valores que toma [42](#page=42).
Los teoremas anteriores pueden adaptarse a intervalos no cerrados y acotados modificando las hipótesis sobre los valores en los extremos por condiciones sobre los límites infinitos o laterales [42](#page=42).
**Proposición 1.15 (Teorema de Weierstrass):** Si $f: [a, b \rightarrow \mathbb{R}$ es continua, entonces existen $c, d \in [a, b]$ tales que $f(c) \leq f(x) \leq f(d)$ para todo $x \in [a, b]$. Esto significa que una función continua en un intervalo cerrado y acotado es acotada y alcanza sus valores máximo y mínimo en dicho intervalo. La imagen de una función continua con dominio un intervalo cerrado y acotado es también un intervalo cerrado y acotado [42](#page=42).
#### 3.2.3. Método de bisección
El método de bisección es una técnica numérica para aproximar soluciones de ecuaciones de la forma $f(x) = 0$, basándose en el Teorema de Bolzano [43](#page=43).
Si $f$ es continua en un intervalo $[a, b]$ y $f(a) \cdot f(b) < 0$, garantizando la existencia de al menos una solución en $(a, b)$:
1. Se calcula el punto medio del intervalo: $c_1 = \frac{a+b}{2}$.
2. Se evalúa la función en $c_1$. Si $f(c_1) = 0$, $c_1$ es la solución exacta.
3. Si $f(c_1) \cdot f(a) < 0$, la solución está en el intervalo $[a, c_1]$.
4. Si $f(c_1) \cdot f(b) < 0$, la solución está en el intervalo $[c_1, b]$.
5. Se repite el proceso en el nuevo intervalo, que tiene la mitad de longitud que el anterior [44](#page=44).
Este método construye una sucesión de puntos medios $\{c_n\}$ que converge a una solución de la ecuación [43](#page=43).
El error tras $n$ iteraciones se puede estimar como $|c_n - \text{solución}| < \frac{b-a}{2^n}$. Esto permite determinar de antemano el número de iteraciones necesarias para alcanzar un error menor que un valor $\epsilon$ dado, utilizando la fórmula $n > \log_2\left(\frac{b-a}{\epsilon}\right)$ [44](#page=44).
**Ejemplo 1.49:** Para resolver la ecuación $e^{-x} = x$ en el intervalo $ $ con un error menor de $0.1$ [1](#page=1):
* La función es $f(x) = e^{-x} - x$. Es continua en $ $ y $f = 1 > 0$, $f \approx -0.632 < 0$ [1](#page=1).
* Se necesitan $n > \log_2\left(\frac{1-0}{0.1}\right) = \log_2 \approx 3.32$, por lo que se requieren $4$ iteraciones [10](#page=10) [45](#page=45).
* Iteración 1: $c_1 = 0.5$, $f(0.5) \approx 0.107 > 0$. Nuevo intervalo: $[0.5, 1]$.
* Iteración 2: $c_2 = 0.75$, $f(0.75) \approx -0.278 < 0$. Nuevo intervalo: $[0.5, 0.75]$.
* Iteración 3: $c_3 = 0.625$, $f(0.625) \approx -0.0898 < 0$. Nuevo intervalo: $[0.5, 0.625]$.
* Iteración 4: $c_4 = 0.5625$. Tras esta iteración, el error es menor que $0.1$, y $c_4$ es una solución aproximada [45](#page=45).
---
# Sucesiones y series de funciones
Este tema introduce el concepto de sucesiones y series de funciones, explorando las nociones de convergencia puntual y uniforme, y dedicando especial atención a las series de potencias y sus dominios de convergencia.
### 4.1 Sucesiones de funciones
Una sucesión de funciones, también llamada sucesión funcional, es una aplicación que asigna a cada número natural $n$ una función $f_n$ con un dominio común $D \subset \mathbb{R}$. El término general de la sucesión proporciona la fórmula para cada $f_n(x)$ [47](#page=47).
> **Tip:** Es común utilizar la notación $\{f_n(x)\}_{x \in D}$ para referirse a una sucesión de funciones, aunque $f_n(x)$ sea un número para un $x$ fijo [47](#page=47).
#### 4.1.1 Convergencia puntual
Una sucesión de funciones $\{f_n\}$ converge puntualmente en un dominio $D$ a una función $f$, denominada función límite, si para cada $x \in D$, la sucesión numérica $\{f_n(x)\}$ converge a $f(x)$. Formalmente [48](#page=48):
$$ \lim_{n \to \infty} f_n(x) = f(x) \quad \forall x \in D $$
Un punto crucial es que la convergencia puntual no garantiza la conservación de la continuidad. Es decir, si todas las $f_n$ son continuas, su límite puntual $f$ podría no serlo [48](#page=48) [49](#page=49).
> **Ejemplo:** La sucesión $f_n(x) = x^n$ en $ $ converge puntualmente a $f(x) = \begin{cases} 0, & x \in [0,1) \\ 1, & x = 1 \end{cases}$. Las funciones $f_n(x)$ son continuas, pero su límite puntual $f(x)$ no lo es en $x=1$ [1](#page=1) [48](#page=48).
#### 4.1.2 Convergencia uniforme
La convergencia uniforme es una noción de convergencia más estricta que la puntual. Se dice que una sucesión de funciones $\{f_n\}$ converge uniformemente en $D$ a una función $f$ si el supremo de la diferencia absoluta entre $f_n(x)$ y $f(x)$ tiende a cero cuando $n \to \infty$ [49](#page=49).
$$ \lim_{n \to \infty} \sup_{x \in D} |f_n(x) - f(x)| = 0 $$
La convergencia uniforme es una condición más fuerte que la convergencia puntual; si una sucesión converge uniformemente, entonces también converge puntualmente [50](#page=50).
> **Teorema:** Si $\{f_n\}$ converge uniformemente a $f$ en $D$, entonces también converge puntualmente a $f$ en $D$ [50](#page=50).
Una propiedad fundamental de la convergencia uniforme es que sí conserva la continuidad:
> **Teorema:** Si las funciones $f_n$ que conforman una sucesión son continuas en $D$ y convergen uniformemente en $D$ a la función límite $f$, entonces $f$ es continua en $D$ [51](#page=51).
> **Tip:** Para estudiar la convergencia uniforme, primero se puede analizar la convergencia puntual. Si esta no existe, tampoco habrá convergencia uniforme. Si existe, se procede a analizar la convergencia uniforme de la sucesión límite encontrada [50](#page=50).
> **Interpretación gráfica:** La convergencia uniforme de $f_n \to f$ significa que para cualquier $\epsilon > 0$, existe un $n_0$ tal que para todo $n \geq n_0$, las gráficas de $f_n(x)$ están contenidas dentro de una banda $(\epsilon-f, \epsilon+f)$ centrada en la gráfica de $f(x)$ [53](#page=53).
> **Ejemplo:** La sucesión $f_n(x) = \frac{\sin x}{n^2}$ converge uniformemente a $f(x) = 0$ en $\mathbb{R}$. El supremo de $|\frac{\sin x}{n^2}|$ en $\mathbb{R}$ es $\frac{1}{n^2}$, y su límite cuando $n \to \infty$ es 0 [50](#page=50) [51](#page=51).
> **Ejemplo:** La sucesión $f_n(x) = \arctan\left(\frac{x}{n}\right)$ converge puntualmente a $f(x) = 0$ en $\mathbb{R}$, pero no uniformemente. El supremo de $\left|\arctan\left(\frac{x}{n}\right)\right|$ en $\mathbb{R}$ es $\frac{\pi}{2}$, cuyo límite cuando $n \to \infty$ no es cero [51](#page=51) [52](#page=52).
### 4.2 Series de funciones
Una serie de funciones $\sum_{n=1}^{\infty} f_n(x)$ se define a partir de una sucesión de funciones $\{f_n(x)\}$ mediante su sucesión de sumas parciales $\{F_n(x)\}$, donde $F_n(x) = \sum_{i=1}^{n} f_i(x)$ [53](#page=53) [54](#page=54).
#### 4.2.1 Convergencia puntual de series
Una serie de funciones $\sum_{n=1}^{\infty} f_n(x)$ converge puntualmente en $D$ a una función $F$, llamada función suma, si la sucesión de sumas parciales $\{F_n(x)\}$ converge puntualmente a $F$ en $D$. Esto implica que para cada $x \in D$, la serie numérica $\sum_{n=1}^{\infty} f_n(x)$ converge a $F(x)$ [54](#page=54).
#### 4.2.2 Convergencia absoluta de series
Una serie de funciones $\sum_{n=1}^{\infty} f_n(x)$ es absolutamente convergente en $D$ si la serie $\sum_{n=1}^{\infty} |f_n(x)|$ converge para todo $x \in D$. La convergencia absoluta implica la convergencia puntual [54](#page=54).
> **Teorema:** Si $\sum_{n=1}^{\infty} f_n$ es absolutamente convergente en $D$, entonces es puntualmente convergente en $D$ [54](#page=54).
#### 4.2.3 Convergencia uniforme de series
Una serie de funciones $\sum_{n=1}^{\infty} f_n(x)$ converge uniformemente en $D$ a una función $F$ si su sucesión de sumas parciales $\{F_n(x)\}$ converge uniformemente en $D$ a $F$ [54](#page=54).
Si una serie de funciones converge uniformemente en $D$, entonces también converge puntualmente en $D$. Además, si las funciones $f_n$ son continuas en un punto $a \in D$ y la serie converge uniformemente a $F$, entonces $F$ es continua en $a$ [54](#page=54) [55](#page=55).
#### 4.2.4 Criterio de la mayorante (Weierstrass)
Este criterio proporciona una condición suficiente para la convergencia absoluta y uniforme de una serie de funciones. Si existe una sucesión de números $\{M_n\}$ tal que $|f_n(x)| \leq M_n$ para todo $x \in D$ y la serie numérica $\sum_{n=1}^{\infty} M_n$ converge, entonces la serie de funciones $\sum_{n=1}^{\infty} f_n(x)$ converge absoluta y uniformemente en $D$ [55](#page=55).
> **Ejemplo:** Dada $f_n(x) = e^{-nx^2}$, si consideramos el intervalo $[1/2, 1]$, tenemos que $|f_n(x)| \leq e^{-n/4}$. Como $\sum_{n=0}^{\infty} e^{-n/4}$ es una serie geométrica convergente, la serie $\sum_{n=0}^{\infty} e^{-nx^2}$ converge uniformemente en $[1/2, 1]$ [56](#page=56).
### 4.3 Series de potencias
Una serie de potencias es un tipo particular de serie funcional de la forma:
$$ \sum_{n=0}^{\infty} a_n (x - x_0)^n = a_0 + a_1 (x - x_0) + a_2 (x - x_0)^2 + \dots $$
donde $x_0$ es el centro de la serie y $a_n$ son los coeficientes constantes. Un cambio de variable $y = x - x_0$ permite reducir el estudio a series centradas en 0: $\sum_{n=0}^{\infty} a_n y^n$ [57](#page=57).
Las series de potencias centradas en 0 pueden clasificarse en tres tipos según su convergencia:
1. **Tipo 1:** Convergen solo para $x = 0$. El radio de convergencia es $R=0$.
2. **Tipo 2:** Convergen en un intervalo $(-R, R)$ (o similar), con $R \in (0, \infty)$. Son absolutamente y uniformemente convergentes en cualquier intervalo $[-k, k]$ con $k < R$. La convergencia en los extremos $x = -R$ y $x = R$ debe ser estudiada por separado. El radio de convergencia es $R$.
3. **Tipo 3:** Convergen para todo $x \in \mathbb{R}$. Son absolutamente y uniformemente convergentes en cualquier intervalo cerrado y acotado de $\mathbb{R}$. El radio de convergencia es $R=\infty$.
El intervalo donde una serie de potencias converge puntualmente se denomina **intervalo de convergencia**, y la mitad de su longitud (si es finito) es el **radio de convergencia** [58](#page=58).
> **Proposición:** Si $\sum_{n=0}^{\infty} a_n x_p^n$ converge para un $x_p \neq 0$, y $0 < k < |x_p|$, entonces la serie converge absoluta y uniformemente en $[-k, k]$ [57](#page=57).
#### 4.3.1 Criterios para el radio de convergencia
Los siguientes criterios, basados en el comportamiento de los coeficientes $a_n$, ayudan a determinar el radio de convergencia $R$:
* **Criterio de la raíz:** Sea $S = \lim_{n \to \infty} \sqrt[n]{|a_n|}$.
* Si $S \in (0, \infty)$, entonces $R = \frac{1}{S}$.
* Si $S = 0$, entonces $R = \infty$.
* Si $S = \infty$, entonces $R = 0$.
* **Criterio del cociente:** Sea $S = \lim_{n \to \infty} \left|\frac{a_{n+1}}{a_n}\right|$.
* Si $S \in (0, \infty)$, entonces $R = \frac{1}{S}$.
* Si $S = 0$, entonces $R = \infty$.
* Si $S = \infty$, entonces $R = 0$.
> **Tip:** La elección del criterio más adecuado depende de la forma de los coeficientes $a_n$.
> **Ejemplo:** Para la serie $\sum_{n=0}^{\infty} \frac{x^n}{n!}$, $\lim_{n \to \infty} \sqrt[n]{|\frac{1}{n!}|} = 0$. Por el criterio de la raíz, $S=0$, lo que implica $R=\infty$. La serie converge en todo $\mathbb{R}$ [58](#page=58).
> **Ejemplo:** Para la serie $\sum_{n=0}^{\infty} (n+1)(x-2)^n$, $\lim_{n \to \infty} \left|\frac{a_{n+1}}{a_n}\right| = \lim_{n \to \infty} \left|\frac{n+2}{n+1}\right| = 1$. Por el criterio del cociente, $S=1$, lo que implica $R=1$. El intervalo de convergencia es $|x-2| < 1$, es decir, $(1, 3)$ [60](#page=60).
La función suma de una serie de potencias es continua en el interior de su intervalo de convergencia, ya que la convergencia allí es uniforme [59](#page=59).
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Término | Definición |
|---|---|
| Axioma del supremo | El axioma que establece que todo subconjunto no vacío de números reales acotado superiormente tiene un supremo (la menor de sus cotas superiores). Es una propiedad fundamental que distingue a los números reales de los racionales. |
| Convergencia puntual | Un tipo de convergencia para sucesiones de funciones donde, para cada punto específico en el dominio, la sucesión numérica de los valores de las funciones en ese punto converge a un límite. |
| Convergencia uniforme | Un tipo de convergencia más estricto para sucesiones de funciones donde la sucesión converge a la función límite de manera que la diferencia máxima entre cualquier término de la sucesión y la función límite se acerca a cero uniformemente en todo el dominio. |
| Cota superior | Un número real `c` es una cota superior para un conjunto `A` si todos los elementos `a` en `A` son menores o iguales que `c` (`a ≤ c` para todo `a ∈ A`). |
| Cota inferior | Un número real `c` es una cota inferior para un conjunto `A` si todos los elementos `a` en `A` son mayores o iguales que `c` (`a ≥ c` para todo `a ∈ A`). |
| Divergente | Una sucesión o serie se dice divergente si no converge a un límite finito o si su suma infinita no está definida. |
| Dominio | El conjunto de todos los valores de entrada posibles para una función. En el contexto de funciones de una variable real, es un subconjunto de los números reales. |
| Función continua | Una función `f` es continua en un punto `a` si el límite de `f(x)` cuando `x` se aproxima a `a` es igual a `f(a)`, y además `f(a)` está definido. |
| Intervalo abierto | Un conjunto de números reales de la forma `(a, b)` que incluye todos los números entre `a` y `b`, pero no incluye `a` ni `b`. |
| Intervalo cerrado | Un conjunto de números reales de la forma `[a, b]` que incluye todos los números entre `a` y `b`, así como `a` y `b`. |
| Indeterminación | Una expresión matemática que surge al calcular límites y que no puede resolverse directamente, requiriendo técnicas adicionales para determinar el valor del límite. Ejemplos comunes incluyen `0/0`, `∞/∞`, `∞ - ∞`. |
| Límite de una función en un punto | El valor al que se aproximan los valores de una función a medida que la entrada se aproxima a un punto específico, sin necesidad de que la función esté definida en ese punto. |
| Límite de una sucesión | El valor al que los términos de una sucesión se aproximan a medida que el índice de la sucesión tiende a infinito. |
| Monótona | Una sucesión ` {an} ` es monótona si es creciente ( `an ≤ an+1` para todo `n`) o decreciente ( `an ≥ an+1` para todo `n`). |
| Número irracional | Un número real que no puede ser expresado como una fracción de dos enteros (`p/q`, donde `p` y `q` son enteros y `q ≠ 0`). Ejemplos incluyen `√2` y `π`. |
| Número racional | Un número que puede ser expresado como una fracción de dos enteros (`p/q`, donde `p` y `q` son enteros y `q ≠ 0`). |
| Radio de convergencia | Para una serie de potencias, es la mitad del diámetro del intervalo de convergencia. Define el rango de valores para los cuales la serie converge. |
| Recta real ampliada | La recta real `R` aumentada con los elementos `−∞` y `+∞`, lo que permite trabajar con límites infinitos de manera más formal. |
| Serie de potencias | Una serie de la forma `∑ an(x - x0)ⁿ`, donde `x0` es el centro, `an` son coeficientes constantes y la suma se extiende infinitamente. |
| Serie geométrica | Una serie donde cada término se obtiene multiplicando el término anterior por una constante fija llamada razón. Se expresa como `∑ arⁿ`. |
| Serie numérica | Una suma infinita de números reales, de la forma `∑ an`. |
| Sucesión de sumas parciales | Para una serie `∑ an`, es la sucesión `sn` donde `sn` es la suma de los primeros `n` términos de la serie. |
| Sucesión funcional | Una sucesión cuyos términos son funciones, ` {fn(x)} `. |
| Supremo | El supremo de un conjunto no vacío `A` de números reales, denotado `sup A`, es la menor de todas las cotas superiores de `A`. |
| Teorema de Bolzano | Si una función `f` es continua en un intervalo cerrado `[a, b]` y `f(a)` y `f(b)` tienen signos opuestos, entonces existe al menos un cero de la función en el intervalo `(a, b)`. |
| Valor absoluto | La distancia de un número real a cero en la recta real. Se denota por `|x|`. |
Cover
CÁLCULO TEORÍA 2.pdf
Summary
# La derivada de una función en un punto y sus interpretaciones
Aquí tienes el resumen de estudio sobre la derivada de una función en un punto y sus interpretaciones, listo para el examen.
## 1. La derivada de una función en un punto y sus interpretaciones
Este apartado explora la definición formal de la derivada de una función en un punto específico, su interpretación geométrica como la pendiente de la recta tangente, y analiza la relación crucial entre derivabilidad y continuidad, ejemplificando con funciones constantes y cuadráticas [3](#page=3) [4](#page=4) [5](#page=5).
### 1.1 Definición formal de la derivada
La derivada de una función $f$ en un punto $a$, denotada como $f'(a)$, se define formalmente como el límite de la razón de cambio promedio de la función entre dos instantes, cuando el intervalo de tiempo tiende a cero [3](#page=3).
**Definición 2.1:** Una función $f$ es derivable en $a \in D$ si el siguiente límite existe y es finito:
$$ f'(a) = \lim_{x \to a} \frac{f(x) - f(a)}{x - a} = \lim_{h \to 0} \frac{f(a+h) - f(a)}{h} $$
El cociente $\frac{f(a+h) - f(a)}{h}$ para cada valor de $h$ representa la pendiente del segmento de recta que une los puntos $(a, f(a))$ y $(a+h, f(a+h))$ en la gráfica de la función [3](#page=3).
> **Tip:** La notación $\frac{df}{dx}(a)$ o $df(a)$ también se utiliza frecuentemente para referirse a la derivada de $f$ en $a$ [3](#page=3).
### 1.2 Interpretación geométrica de la derivada
La interpretación geométrica de la derivada $f'(a)$ es la pendiente de la recta tangente a la gráfica de la función $f$ en el punto $(a, f(a))$ [3](#page=3).
Esto se deduce del hecho de que la derivada es el límite de las pendientes de los segmentos secantes que unen puntos cercanos a $(a, f(a))$ a medida que estos puntos se acercan al punto original [3](#page=3).

*Figura 2.1: Interpretación geométrica de la derivada. * [3](#page=3).
### 1.3 Ejemplos de funciones y su derivabilidad
#### 1.3.1 Función constante
Una función constante $f(x) = k$, donde $k$ es una constante real, tiene una derivada de cero en todos los puntos [4](#page=4).
**Ejemplo 2.1:** Para $f(x) = k$, la derivada en un punto $a$ es:
$$ f'(a) = \lim_{h \to 0} \frac{f(a+h) - f(a)}{h} = \lim_{h \to 0} \frac{k - k}{h} = \lim_{h \to 0} \frac{0}{h} = 0 $$
#### 1.3.2 Función cuadrática
La función $f(x) = x^2$ es derivable en cualquier punto $a$, y su derivada es $f'(a) = 2a$ [4](#page=4).
**Ejemplo 2.2:** Calculando la derivada de $f(x) = x^2$ en un punto $a$:
$$ f'(a) = \lim_{x \to a} \frac{x^2 - a^2}{x - a} = \lim_{x \to a} \frac{(x - a)(x + a)}{x - a} = \lim_{x \to a} (x + a) = a + a = 2a $$
### 1.4 Relación entre derivabilidad y continuidad
Existe una relación intrínseca entre la derivabilidad de una función en un punto y su continuidad en ese mismo punto [4](#page=4).
**Teorema 2.1:** Si una función $f$ es derivable en un punto $a$, entonces $f$ es continua en $a$ [4](#page=4).
Esto significa que la derivabilidad es una condición más fuerte que la continuidad. Una función puede ser continua pero no derivable, pero si es derivable, necesariamente debe ser continua [4](#page=4) [5](#page=5).
> **Tip:** La continuidad es una condición necesaria para la derivabilidad, pero no es suficiente [4](#page=4) [5](#page=5).
#### 1.4.1 Ejemplo de función continua pero no derivable
**Ejemplo 2.5:** La función $f(x) = x \cos\left(\frac{1}{x}\right)$ para $x \neq 0$ y $f = 0$ es continua en $\mathbb{R}$, pero no es derivable en $0$. Esto se debe a que el límite que define la derivada en $0$ no existe [5](#page=5).
$$ \lim_{h \to 0} \frac{h \cos\left(\frac{1}{h}\right) - 0}{h} = \lim_{h \to 0} \cos\left(\frac{1}{h}\right) $$
Este último límite no existe porque la función $\cos\left(\frac{1}{h}\right)$ oscila entre $-1$ y $1$ cada vez más rápido a medida que $h$ se acerca a cero [5](#page=5).
#### 1.4.2 Ejemplo de función discontinua y no derivable
**Ejemplo 2.3:** La función escalón o función de Heaviside, definida como $f(x) = 1$ si $x > 0$ y $f(x) = 0$ si $x \le 0$, es discontinua en $x=0$. Por lo tanto, no es derivable en $0$ [4](#page=4).
#### 1.4.3 Ejemplo de función derivable en un punto
**Ejemplo 2.4:** La función $f(x) = x^2 \sin\left(\frac{1}{x}\right)$ para $x \neq 0$ y $f = 0$ es derivable en $0$ con $f' = 0$ [4](#page=4).
$$ f' = \lim_{h \to 0} \frac{h^2 \sin\left(\frac{1}{h}\right) - 0}{h} = \lim_{h \to 0} h \sin\left(\frac{1}{h}\right) $$ .
Dado que $\sin\left(\frac{1}{h}\right)$ es una función acotada y $\lim_{h \to 0} h = 0$, el límite es $0$ [5](#page=5).
---
# Reglas de derivación y cálculo de derivadas
Este tema presenta las reglas fundamentales para calcular derivadas de manera eficiente sin recurrir a la definición formal.
### 2.1 Introducción a las reglas de derivación
El cálculo de derivadas es una herramienta esencial en el estudio de funciones, y las reglas de derivación nos permiten obtener estas de forma sistemática. El objetivo es ser capaz de calcular la derivada de cualquier función construida a partir de funciones elementales mediante operaciones algebraicas y composición [7](#page=7).
### 2.2 Reglas de derivación fundamentales
Las siguientes proposiciones nos permiten calcular derivadas de funciones combinadas a partir de funciones derivables conocidas.
#### 2.2.1 Regla de la suma y del producto
Si las funciones $f$ y $g$ son derivables en un punto $a$, entonces:
* La suma $f + g$ es derivable en $a$, y su derivada es $(f+g)'(a) = f'(a) + g'(a)$ [7](#page=7).
* El producto $f \cdot g$ es derivable en $a$, y su derivada es $(f \cdot g)'(a) = f'(a) \cdot g(a) + f(a) \cdot g'(a)$ [7](#page=7).
#### 2.2.2 Regla del cociente
Si las funciones $f$ y $g$ son derivables en un punto $a$ y $g(a) \neq 0$, entonces la función cociente $\frac{f}{g}$ es derivable en $a$, y su derivada es:
$$ \left(\frac{f}{g}\right)'(a) = \frac{f'(a) \cdot g(a) - f(a) \cdot g'(a)}{[g(a)]^2} $$
#### 2.2.3 Regla de la cadena
Si $f$ es derivable en $a$ y $g$ es derivable en $f(a)$, entonces la composición $g \circ f$ es derivable en $a$, y su derivada se calcula como:
$$ (g \circ f)'(a) = g'(f(a)) \cdot f'(a) $$
> **Tip:** La regla de la cadena es fundamental para derivar funciones compuestas y a menudo se aplica en conjunto con las derivadas de funciones elementales.
### 2.3 Tabla de derivadas de funciones elementales
A continuación, se presenta una tabla básica de derivadas de funciones comunes. Se asume que $c \in \mathbb{R}$ y $a \in (0, \infty) \setminus \{1\}$ [7](#page=7).
| Función | Derivada | Función | Derivada |
| :------------ | :-------------- | :-------- | :--------------- |
| $c$ | $0$ | $x^c$ | $c x^{c-1}$ |
| $a^x$ | $a^x \ln a$ | $\ln x$ | $\frac{1}{x}$ |
| $\log_a x$ | $\frac{1}{x} \log_a e$ | $\sen x$ | $\cos x$ |
| $\cos x$ | $-\sen x$ | | |
> **Tip:** Dominar esta tabla y las reglas de derivación es suficiente para generar rápidamente la mayoría de las derivadas necesarias en cursos de cálculo.
### 2.4 Derivadas de funciones compuestas (aplicación de la regla de la cadena)
Al aplicar la regla de la cadena a las funciones elementales, obtenemos la siguiente tabla para derivar funciones de la forma $f(u(x))$, donde $u(x)$ es una función derivable [8](#page=8).
| Función | Derivada | Función | Derivada |
| :------------- | :----------------------- | :------------ | :----------------------- |
| $c$ | $0$ | $e^{u(x)}$ | $e^{u(x)} u'(x)$ |
| $(u(x))^c$ | $c (u(x))^{c-1} u'(x)$ | $a^{u(x)}$ | $a^{u(x)} (\ln a) u'(x)$ |
| $\ln u(x)$ | $\frac{1}{u(x)} u'(x)$ | $\log_a u(x)$ | $\frac{1}{u(x)} \log_a e \cdot u'(x)$ |
| $\sen u(x)$ | $\cos u(x) u'(x)$ | $\cos u(x)$ | $-\sen u(x) u'(x)$ |
> **Ejemplo:** Si tenemos la función $h(x) = \sin(x^2)$, podemos identificar $u(x) = x^2$. La derivada de $u(x)$ es $u'(x) = 2x$. Aplicando la regla de la cadena a la derivada del seno, obtenemos $h'(x) = \cos(u(x)) \cdot u'(x) = \cos(x^2) \cdot 2x$.
### 2.5 Derivadas de funciones trigonométricas inversas
Las derivadas de funciones trigonométricas inversas se pueden obtener aplicando la regla de la cadena junto con la tabla de derivadas básicas.
> **Ejemplo:** Para calcular la derivada de $f(x) = \operatorname{arc}\sin x$. Sabemos que si $y = \operatorname{arc}\sin x$, entonces $x = \sin y$. Derivando implícitamente ambos lados con respecto a $y$: $\frac{dx}{dy} = \cos y$. Dado que $\frac{dy}{dx} = \frac{1}{dx/dy}$, tenemos $\frac{dy}{dx} = \frac{1}{\cos y}$. Usando la identidad $\cos^2 y + \sin^2 y = 1$, obtenemos $\cos y = \sqrt{1 - \sin^2 y}$. Sustituyendo $\sin y = x$, tenemos $\cos y = \sqrt{1 - x^2}$. Por lo tanto, la derivada de $\operatorname{arc}\sin x$ es $\frac{1}{\sqrt{1 - x^2}}$ [8](#page=8).
De manera similar, se pueden obtener las derivadas de $\operatorname{arc}\cos x$, $\operatorname{arc}\tan x$, etc., aplicando las reglas de derivación y las identidades trigonométricas.
> **Tip:** La práctica constante es clave para dominar el cálculo de derivadas. Resuelve numerosos ejercicios aplicando estas reglas y tablas.
---
# Límites y la Regla de L'Hôpital
Este tema explora cómo las derivadas pueden ser aplicadas para calcular límites, introduciendo la Regla de L'Hôpital para resolver indeterminaciones comunes y otras que pueden ser transformadas.
### 3.1 Motivación
La conexión entre límites y derivación se establece al notar que la definición misma de la derivada es un límite. En este apartado, se plantea la pregunta inversa: si la existencia de la derivada puede facilitar el cálculo de límites. La respuesta es afirmativa, y esta técnica se conoce como la Regla de L'Hôpital [9](#page=9).
### 3.2 Regla de L'Hôpital
La Regla de L'Hôpital, descubierta por John Bernoulli pero atribuida a Guillaume de L'Hôpital, es una herramienta poderosa para el cálculo de límites de cocientes de funciones que resultan en indeterminaciones de los tipos $\frac{0}{0}$ o $\frac{\infty}{\infty}$ [10](#page=10).
#### 3.2.1 Enunciado de la regla
Si $f$ y $g$ son funciones derivables en un entorno de $a$, con $g'(x) \neq 0$ cerca de $a$, y se cumple que:
* $\displaystyle \lim_{x \to a} f(x) = \lim_{x \to a} g(x) = 0$
O
* $\displaystyle \lim_{x \to a} f(x) = \pm \infty$ y $\displaystyle \lim_{x \to a} g(x) = \pm \infty$
Entonces, si el límite del cociente de las derivadas existe:
$$ \lim_{x \to a} \frac{f(x)}{g(x)} = \lim_{x \to a} \frac{f'(x)}{g'(x)} = l $$
donde $l$ puede ser un número real, $\infty$ o $-\infty$ [10](#page=10).
> **Tip:** La Regla de L'Hôpital también es válida para límites laterales y límites en el infinito, es decir, se puede reemplazar $a$ por $\infty$, $-\infty$, $a^+$ o $a^-$ en el enunciado [10](#page=10).
#### 3.2.2 Aplicación reiterada
La Regla de L'Hôpital puede aplicarse de forma reiterada si el cociente de las derivadas sigue resultando en una indeterminación del tipo $\frac{0}{0}$ o $\frac{\infty}{\infty}$ [11](#page=11).
> **Ejemplo:** Calcular $\displaystyle \lim_{x \to 0} \frac{\text{sen } x}{x}$.
> Se trata de una indeterminación $\frac{0}{0}$. Aplicando L'Hôpital:
> $$ \lim_{x \to 0} \frac{\text{sen } x}{x} = \lim_{x \to 0} \frac{\cos x}{1} = 1 $$ [10](#page=10) [11](#page=11).
> **Ejemplo:** Calcular $\displaystyle \lim_{x \to \infty} \frac{1 + e^{x^2}}{3x^2}$.
> Se trata de una indeterminación $\frac{\infty}{\infty}$. Aplicando L'Hôpital una vez:
> $$ \lim_{x \to \infty} \frac{1 + e^{x^2}}{3x^2} = \lim_{x \to \infty} \frac{2x e^{x^2}}{6x} = \lim_{x \to \infty} \frac{e^{x^2}}{3} = \infty $$ [11](#page=11).
#### 3.2.3 Transformación de otras indeterminaciones
La Regla de L'Hôpital es útil no solo para las indeterminaciones $\frac{0}{0}$ y $\frac{\infty}{\infty}$, sino también para otras, siempre que puedan ser transformadas en alguna de las anteriores.
* **Indeterminaciones del tipo $\infty - \infty$**: Se pueden transformar en una indeterminación de cociente realizando la resta.
> **Ejemplo:** Calcular $\displaystyle \lim_{x \to 0^+} \left( \frac{1}{\text{sen } x} - \frac{1}{x} \right)$.
> Se trata de una indeterminación $\infty - \infty$. Operando:
> $$ \lim_{x \to 0^+} \left( \frac{1}{\text{sen } x} - \frac{1}{x} \right) = \lim_{x \to 0^+} \frac{x - \text{sen } x}{x \text{ sen } x} $$
> Esta es una indeterminación $\frac{0}{0}$. Aplicando L'Hôpital:
> $$ \lim_{x \to 0^+} \frac{1 - \cos x}{\text{sen } x + x \cos x} $$
> Esto mantiene la indeterminación $\frac{0}{0}$. Volviendo a aplicar L'Hôpital:
> $$ \lim_{x \to 0^+} \frac{\text{sen } x}{\cos x + \cos x - x \text{ sen } x} = \frac{0}{1 + 1 - 0} = 0 $$ [11](#page=11) [12](#page=12).
* **Indeterminaciones del tipo $0 \cdot \infty$**: Se pueden transformar en una indeterminación de cociente, recordando que $f(x) \cdot g(x) = \frac{f(x)}{1/g(x)} = \frac{g(x)}{1/f(x)}$.
> **Ejemplo:** Calcular $\displaystyle \lim_{x \to \frac{\pi}{2}} \left(x - \frac{\pi}{2}\right) \text{tg } x$.
> Se trata de una indeterminación $0 \cdot \infty$. Transformándola:
> $$ \lim_{x \to \frac{\pi}{2}} \frac{x - \frac{\pi}{2}}{\text{cotg } x} $$
> Esta es una indeterminación $\frac{0}{0}$. Aplicando L'Hôpital:
> $$ \lim_{x \to \frac{\pi}{2}} \frac{1}{-\text{cosec}^2 x} = -\text{sen}^2\left(\frac{\pi}{2}\right) = -1 $$ [12](#page=12).
* **Indeterminaciones del tipo $0^0$, $\infty^0$, $1^\infty$**: Para estas indeterminaciones, se recomienda utilizar logaritmos. Si se considera $L = \displaystyle \lim_{x \to a} [f(x)]^{g(x)}$, entonces $\ln L = \displaystyle \lim_{x \to a} g(x) \ln f(x)$, lo cual puede transformar el problema en una indeterminación $0 \cdot \infty$ o $\frac{0}{0}$ o $\frac{\infty}{\infty}$ [12](#page=12).
> **Ejemplo:** Calcular $\displaystyle \lim_{x \to \infty} x^{\frac{1}{x}}$.
> Se trata de una indeterminación $\infty^0$. Sea $L = \displaystyle \lim_{x \to \infty} x^{\frac{1}{x}}$. Tomando logaritmos naturales:
> $$ \ln L = \lim_{x \to \infty} \frac{1}{x} \ln x = \lim_{x \to \infty} \frac{\ln x}{x} $$
> Esta es una indeterminación $\frac{\infty}{\infty}$. Aplicando L'Hôpital:
> $$ \ln L = \lim_{x \to \infty} \frac{1/x}{1} = 0 $$
> Por lo tanto, $L = e^0 = 1$ [12](#page=12).
> **Ojo:** Un error común es olvidar que se ha aplicado el logaritmo y dar 0 como respuesta en lugar de $e^0 = 1$ [13](#page=13).
Para la indeterminación $1^\infty$, aunque el uso de logaritmos es válido, también se puede emplear la siguiente proposición:
**Proposición 3.1:** Si $\displaystyle \lim_{x \to a} f(x) = \infty$, entonces $\displaystyle \lim_{x \to a} \left(1 + \frac{1}{f(x)}\right)^{f(x)} = e$ [13](#page=13).
> **Ejemplo:** Calcular $\displaystyle \lim_{x \to \infty} \left(1 + \frac{2}{x}\right)^x$.
> Se puede reescribir como:
> $$ \lim_{x \to \infty} \left(1 + \frac{1}{x/2}\right)^x = \lim_{x \to \infty} \left[ \left(1 + \frac{1}{x/2}\right)^{x/2} \right]^2 $$
> Aplicando la proposición con $f(x) = x/2$, que tiende a $\infty$ cuando $x \to \infty$:
> $$ \left[ \lim_{x \to \infty} \left(1 + \frac{1}{x/2}\right)^{x/2} \right]^2 = e^2 $$ [13](#page=13).
### 3.3 Límites de sucesiones y la Regla de L'Hôpital
Existe una relación importante entre los límites de funciones y los límites de sucesiones. Si el límite de una función $f(x)$ cuando $x$ tiende a infinito es $l$, entonces el límite de la sucesión $f(n)$ cuando $n$ tiende a infinito también es $l$.
**Proposición 3.2:** Si $\displaystyle \lim_{x \to \infty} f(x) = l \in \mathbb{R}$, entonces $\displaystyle \lim_{n \to \infty} f(n) = l$ [13](#page=13).
> **Ejemplo:** Calcular $\displaystyle \lim_{n \to \infty} \frac{\ln n}{n}$.
> Primero, consideramos la función $f(x) = \frac{\ln x}{x}$ y calculamos su límite cuando $x \to \infty$:
> $$ \lim_{x \to \infty} \frac{\ln x}{x} $$
> Esta es una indeterminación $\frac{\infty}{\infty}$. Aplicando L'Hôpital:
> $$ \lim_{x \to \infty} \frac{1/x}{1} = 0 $$
> Por la Proposición 3.2, podemos concluir que:
> $$ \lim_{n \to \infty} \frac{\ln n}{n} = 0 $$ [13](#page=13).
---
# Métodos de aproximación de soluciones de ecuaciones
Este tema presenta los métodos de Newton y de punto fijo como herramientas fundamentales para encontrar soluciones aproximadas de ecuaciones de la forma $f(x) = 0$ y $x = g(x)$ respectivamente, analizando sus iteraciones, criterios de convergencia y error [14](#page=14).
### 4.1 Método de Newton
El método de Newton, también conocido como método de Newton-Raphson o Newton-Fourier, es una técnica iterativa para encontrar aproximaciones de las raíces o ceros de una función derivable $f(x)$. Se basa en la idea de aproximar la función $f(x)$ localmente por su recta tangente y utilizar el punto de intersección de esta recta con el eje x como la siguiente aproximación de la raíz [14](#page=14) [15](#page=15).
#### 4.1.1 Descripción del método
Se comienza con una aproximación inicial $x_0$. La siguiente aproximación, $x_1$, se obtiene calculando la ecuación de la recta tangente a la gráfica de $f$ en el punto $(x_0, f(x_0))$ y encontrando dónde esta recta corta al eje x. La ecuación general de la recta tangente es $y - f(x_0) = f'(x_0)(x - x_0)$. Al hacer $y=0$ para encontrar la intersección con el eje x, obtenemos [15](#page=15):
$-f(x_0) = f'(x_0)(x_1 - x_0)$
Despejando $x_1$ y asumiendo que $f'(x_0) \neq 0$:
$x_1 = x_0 - \frac{f(x_0)}{f'(x_0)}$
Este proceso se repite iterativamente, generando una sucesión de aproximaciones $x_n$ dada por la fórmula de recurrencia:
$$x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}$$ [16](#page=16).
Esta sucesión de valores $x_n$ converge, bajo ciertas condiciones, a una solución de la ecuación $f(x) = 0$ [17](#page=17).
#### 4.1.2 Convergencia y ventajas
El método de Newton es conocido por su rapidez de convergencia cuando esta se produce. Una ventaja significativa sobre el método de bisección es que no requiere el conocimiento previo de un intervalo que contenga la solución [14](#page=14).
#### 4.1.3 Criterios de parada
Para determinar cuándo finalizar el proceso iterativo, se utilizan criterios de parada. Un criterio común es el error relativo aproximado ($E_r$) y el error absoluto aproximado ($E_a$) [17](#page=17):
$E_r = \left| \frac{x_n - x_{n-1}}{x_n} \right|$
$E_a = |x_n - x_{n-1}|$
Se suelen tomar valores absolutos para ignorar si el error es por defecto o por exceso. La división entre $|x_n|$ en el error relativo considera la magnitud de la aproximación actual [17](#page=17).
Otro criterio de parada es establecer un número máximo de iteraciones previamente definido. Esto es particularmente útil para la implementación computacional del método, previniendo bucles infinitos en casos de no convergencia [18](#page=18).
#### 4.1.4 Consideraciones y limitaciones
El método de Newton no es infalible. Puede no converger si $f'(x_n) = 0$ en algún punto de la iteración, lo que impediría el cálculo de la siguiente aproximación. También existen casos donde la sucesión de iterantes puede no converger a una raíz. Aunque rigurosamente el criterio de parada debería usar el error relativo exacto (con la solución real), en la práctica se utiliza la aproximación $x_n$ [16](#page=16) [17](#page=17) [18](#page=18).
> **Tip:** Si el problema requiere resolver $f(x)=0$, es posible transformarlo a la forma $x=g(x)$ para usar el método de punto fijo. Una transformación sencilla es $g(x) = f(x) + x$ [21](#page=21).
#### 4.1.5 Ejemplo ilustrativo
**Ejemplo 2.15:** Aproximar una solución de $x^4 - 5 = 0$ comenzando con $x_0 = 2$ [15](#page=15).
La función es $f(x) = x^4 - 5$ y su derivada es $f'(x) = 4x^3$ [16](#page=16).
La fórmula iterativa es $x_{n+1} = x_n - \frac{x_n^4 - 5}{4x_n^3}$.
Con $x_0 = 2$:
$x_1 = 2 - \frac{2^4 - 5}{4 ^3} = 2 - \frac{11}{32} = \frac{53}{32} \approx 1.6563$ [16](#page=16) [2](#page=2).
Continuando el proceso:
$x_2 \approx 1.5173$
$x_3 \approx 1.4958$
La sucesión converge a la raíz positiva de la ecuación [16](#page=16) [17](#page=17).
### 4.2 Método de punto fijo
El método de punto fijo es una técnica iterativa utilizada para encontrar aproximaciones a los puntos fijos de una función $g(x)$. Un punto fijo $a$ de una función $g$ es aquel valor tal que $g(a) = a$. Geométricamente, los puntos fijos son las intersecciones de la gráfica de $g(x)$ con la recta $y=x$. El método de punto fijo resuelve ecuaciones de la forma $x = g(x)$ [18](#page=18).
#### 4.2.1 Descripción del método
Se parte de una aproximación inicial $x_0$. Las iteraciones subsiguientes se generan mediante la fórmula:
$$x_{n+1} = g(x_n)$$ [18](#page=18).
Si la sucesión de iterantes $\{x_n\}$ converge a un límite $a$, entonces este límite es un punto fijo de $g$, es decir, $a = g(a)$ [19](#page=19).
#### 4.2.2 Criterios de convergencia
La convergencia del método de punto fijo no está garantizada para cualquier función $g$ o cualquier $x_0$. El Teorema 2.2 proporciona condiciones suficientes para la convergencia [19](#page=19):
**Teorema 2.2:** Si $g$ es una función tal que $g: [a, b \to [a, b]$ y existe una constante $k \in [0, 1)$ tal que $|g'(x)| \leq k$ para todo $x \in (a, b)$, entonces:
1. $g$ tiene un único punto fijo en $[a, b]$.
2. Para cualquier condición inicial $x_0 \in [a, b]$, la sucesión generada por $x_{n+1} = g(x_n)$ converge al único punto fijo de $g$ en $[a, b]$ [19](#page=19).
> **Tip:** Para aplicar el Teorema 2.2, es crucial verificar dos condiciones: que la función $g$ mapee el intervalo $[a, b]$ sobre sí mismo ($g([a, b]) \subseteq [a, b]$) y que la norma de su derivada en el interior del intervalo sea estrictamente menor que 1.
#### 4.2.3 Estimación del error
Bajo las condiciones del Teorema 2.2, es posible acotar el error absoluto cometido al aproximar el punto fijo. El Teorema 2.3 establece:
**Teorema 2.3:** Bajo las condiciones del Teorema 2.2, se verifica que $|x_n - \tilde{x}| \leq \frac{k^n}{1-k}(b-a)$, donde $\tilde{x}$ es el único punto fijo de $g$ en $[a, b]$ [19](#page=19).
Este teorema permite determinar el número de iteraciones $n$ necesarias para garantizar que el error absoluto sea menor que una tolerancia $\epsilon$ dada, resolviendo la inecuación:
$\frac{k^n}{1-k}(b-a) < \epsilon$
#### 4.2.4 Ejemplo ilustrativo
**Ejemplo 2.17:** Aproximar una solución de la ecuación $2 \cos x = x$ [20](#page=20).
Esta ecuación se puede reescribir como $x = \frac{1}{2} \cos x$. Por lo tanto, $g(x) = \frac{1}{2} \cos x$.
a) **Convergencia en $ $:** [2](#page=2).
Se verifica que $g: \to $ ya que para $x \in $, $\cos x \in [\cos 2, 1 \approx [-0.416, 1]$, y $\frac{1}{2} \cos x \in [-0.208, 0.5 \subset $ [20](#page=20) [2](#page=2).
La derivada es $g'(x) = -\frac{1}{2} \sin x$. Para $x \in (0, 2)$, $|\sin x| \leq 1$, por lo que $|g'(x)| = \frac{1}{2}|\sin x| \leq \frac{1}{2}$.
Como $k = \frac{1}{2} < 1$, el Teorema 2.2 garantiza la convergencia del método de punto fijo para cualquier $x_0 \in $ [20](#page=20) [2](#page=2).
b) **Aproximación con cuatro iteraciones y $x_0 = 1$**:
$x_1 = g = \frac{1}{2} \cos \approx 0.2701$ [1](#page=1).
$x_2 = g(0.2701) \approx \frac{1}{2} \cos(0.2701) \approx 0.4819$
$x_3 = g(0.4819) \approx \frac{1}{2} \cos(0.4819) \approx 0.4430$
$x_4 = g(0.4430) \approx \frac{1}{2} \cos(0.4430) \approx 0.4517$ [21](#page=21).
c) **Estimación del error absoluto cometido**:
Utilizando el Teorema 2.3 con $a=0$, $b=2$, $k=1/2$:
$|x_4 - \tilde{x}| \leq \frac{(1/2)^4}{1 - 1/2}(2 - 0) = \frac{1/16}{1/2} = \frac{1}{8} = 0.25$ [21](#page=21) [2](#page=2).
d) **Número de iteraciones para un error absoluto menor que $0.01$**:
Se busca el menor $n$ tal que $\frac{(1/2)^n}{1 - 1/2}(2 - 0) < 0.01$.
$\frac{(1/2)^n}{1/2} < 0.01 \implies (1/2)^{n-1} < 0.01 \implies (1/2)^{n-1} < 0.005$ [2](#page=2).
Tomando logaritmos: $(n-1) \ln(1/2) < \ln(0.005) \implies -(n-1) \ln < \ln(0.005)$ [2](#page=2).
$n-1 > -\frac{\ln(0.005)}{\ln } \approx 7.2877$ [2](#page=2).
$n-1 > 7.2877 \implies n > 8.2877$.
Por lo tanto, se necesitan como mínimo nueve iteraciones [21](#page=21).
#### 4.2.5 Transformación de $f(x)=0$ a $x=g(x)$
El método de punto fijo puede ser utilizado para aproximar raíces de $f(x)=0$ si esta ecuación se transforma a la forma equivalente $x=g(x)$. Esta transformación no es única; por ejemplo, sumar $x$ a ambos lados de $f(x)=0$ produce $f(x)+x=x$, donde $g(x) = f(x)+x$. La elección de la transformación $g(x)$ es crucial para asegurar la convergencia del método [21](#page=21).
---
# Teoremas de Rolle, del Valor Medio y funciones monótonas
Aquí tienes un resumen detallado sobre los Teoremas de Rolle, del Valor Medio y funciones monótonas, diseñado para ser un material de estudio completo y listo para exámenes.
## 5. Teoremas de Rolle, del valor medio y funciones monótonas
Este tema presenta teoremas fundamentales que relacionan la continuidad, derivabilidad y el comportamiento de una función, estableciendo la existencia de puntos con derivada nula o una tasa de cambio específica, y proporcionando criterios para determinar la monotonía de una función.
### 5.1 Teorema de Rolle
El Teorema de Rolle es un resultado crucial que establece condiciones suficientes para la existencia de un punto donde la derivada de una función se anula [23](#page=23).
**Enunciado formal:**
Sea $f : [a, b \to \mathbb{R}$ una función que cumple las siguientes hipótesis:
1. $f$ es continua en el intervalo cerrado $[a, b]$ [23](#page=23).
2. $f$ es derivable en el intervalo abierto $(a, b)$ [23](#page=23).
3. $f(a) = f(b)$ [23](#page=23).
**Tesis:**
Entonces, existe al menos un punto $c \in (a, b)$ tal que $f'(c) = 0$ [23](#page=23).
**Interpretación geométrica:**
Si una función es continua en un intervalo cerrado, derivable en su interior y toma el mismo valor en los extremos, entonces debe existir al menos un punto intermedio donde la recta tangente a la gráfica de la función es horizontal (paralela al eje $x$) [25](#page=25).
**Ejemplos:**
* La función $f(x) = x^2$ en el intervalo $[-1, 1]$ cumple las hipótesis: es continua y derivable en $\mathbb{R}$, y $f(-1) = (-1)^2 = 1$ y $f = 1^2 = 1$, por lo tanto $f(-1) = f $. Su derivada es $f'(x) = 2x$, que se anula en $c=0 \in (-1, 1)$ [1](#page=1) [23](#page=23).
* La función $f(x) = \sin(x)$ en cualquier intervalo de la forma $[a, a + 2n\pi]$, con $n \in \mathbb{N}$, satisface las condiciones, ya que $\sin(a) = \sin(a + 2n\pi)$ y es continua y derivable en todo $\mathbb{R}$ [23](#page=23).
**Contraejemplos (importancia de las hipótesis):**
* Si la hipótesis $f(a) = f(b)$ falla, el teorema no se cumple necesariamente. Por ejemplo, $f(x) = x+1$ en $ $. Es continua y derivable, pero $f = 1$ y $f = 2$. Su derivada es $f'(x) = 1$, que nunca se anula en $(0,1)$ [1](#page=1) [23](#page=23).
* Si la función no es derivable en todo el intervalo abierto, el teorema puede no cumplirse. Por ejemplo, $f(x) = |x|$ en $[-1,1]$. Es continua y $f(-1)=f =1$, pero no es derivable en $x=0$. Su derivada es $f'(x) = 1$ para $x>0$ y $f'(x) = -1$ para $x<0$, y no se anula en $(0,1)$ [1](#page=1) [23](#page=23).
* Si la función no es continua en algún punto del intervalo, el teorema no se aplica. Por ejemplo, $f(x) = \begin{cases} x & x > 0 \\ 1 & x = 0 \end{cases}$ en $ $. Es derivable en $(0,1)$ y $f =1, f =1$, pero no es continua en $0$. Su derivada $f'(x)=1$ no se anula en $(0,1)$ [1](#page=1) [23](#page=23).
**Advertencia importante:**
Es posible que una función no cumpla todas las hipótesis del Teorema de Rolle, pero su derivada se anule en algún punto del intervalo. Por ejemplo, $f(x) = x^3$ en $[-1,1]$ es continua y derivable, pero $f(-1)=-1 \neq f =1$. Sin embargo, $f'(x) = 3x^2$ se anula en $c=0 \in (-1,1)$ [1](#page=1) [24](#page=24).
### 5.2 Teorema del valor medio
El Teorema del Valor Medio es una generalización del Teorema de Rolle y establece que, bajo ciertas condiciones, la tasa de cambio promedio de una función en un intervalo es igual a su tasa de cambio instantánea en algún punto dentro de ese intervalo [24](#page=24).
**Enunciado formal:**
Si $f : [a, b \to \mathbb{R}$ es una función que cumple las siguientes hipótesis:
1. $f$ es continua en el intervalo cerrado $[a, b]$ [24](#page=24).
2. $f$ es derivable en el intervalo abierto $(a, b)$ [24](#page=24).
**Tesis:**
Entonces, existe al menos un punto $c \in (a, b)$ tal que:
$$f'(c) = \frac{f(b) - f(a)}{b - a}$$
**Demostración:**
La demostración se basa en la aplicación del Teorema de Rolle a una función auxiliar $h(x)$ definida como:
$$h(x) = f(x) - f(a) - \frac{f(b) - f(a)}{b - a}(x - a)$$
Se verifica que $h(x)$ es continua en $[a, b]$ y derivable en $(a, b)$. Además, se comprueba que $h(a) = 0$ y $h(b) = 0$. Al cumplirse las hipótesis del Teorema de Rolle para $h(x)$, existe un $c \in (a, b)$ tal que $h'(c) = 0$. Al derivar $h(x)$, se obtiene $h'(x) = f'(x) - \frac{f(b) - f(a)}{b - a}$. Igualando $h'(c)$ a cero, se llega a la tesis del teorema [24](#page=24) [25](#page=25).
**Interpretación geométrica:**
El término $\frac{f(b) - f(a)}{b - a}$ representa la pendiente de la recta secante que une los puntos $(a, f(a))$ y $(b, f(b))$ en la gráfica de la función $f$. El Teorema del Valor Medio afirma que existe al menos un punto $c$ en el intervalo $(a, b)$ donde la pendiente de la recta tangente a la gráfica de $f$ (es decir, $f'(c)$) es igual a la pendiente de esa recta secante [25](#page=25).
> **Tip:** La interpretación geométrica es fundamental para visualizar el significado de este teorema: siempre hay un punto en el que la velocidad instantánea coincide con la velocidad promedio.
### 5.3 Implicaciones del Teorema del Valor Medio
El Teorema del Valor Medio tiene varias consecuencias importantes, incluyendo la caracterización de las funciones constantes y el establecimiento de criterios para la monotonía.
#### 5.3.1 Caracterización de las funciones constantes
Una consecuencia directa del Teorema del Valor Medio es la siguiente caracterización:
**Teorema 2.4 (Caracterización de las funciones constantes):**
Una función $f$ es constante en un intervalo $(a, b)$ si y solo si $f'(x) = 0$ para todo $x \in (a, b)$ [25](#page=25).
**Explicación:**
Si $f$ es constante, su derivada es cero. Recíprocamente, si $f'(x) = 0$ en todo $(a, b)$, tomemos dos puntos cualesquiera $x_1, x_2 \in (a, b)$ con $x_1 < x_2$. Al aplicar el Teorema del Valor Medio en $[x_1, x_2]$, existe un $c \in (x_1, x_2)$ tal que $f'(c) = \frac{f(x_2) - f(x_1)}{x_2 - x_1}$. Como $f'(c)=0$, se tiene que $\frac{f(x_2) - f(x_1)}{x_2 - x_1} = 0$, lo que implica $f(x_2) - f(x_1) = 0$, es decir, $f(x_1) = f(x_2)$. Como esto se cumple para cualquier par de puntos, la función es constante en $(a, b)$ [25](#page=25).
**Relación entre funciones con la misma derivada:**
Si dos funciones $f$ y $g$ tienen la misma derivada en un intervalo $(a, b)$, es decir, $f'(x) = g'(x)$ para todo $x \in (a, b)$, entonces la función $h(x) = f(x) - g(x)$ tiene derivada $h'(x) = f'(x) - g'(x) = 0$. Por el Teorema 2.4, $h(x)$ debe ser una función constante en $(a, b)$. Esto significa que $f(x) - g(x) = k$ para alguna constante $k$, o equivalentemente, $f(x) = g(x) + k$ [25](#page=25).
### 5.4 Funciones monótonas
Las condiciones de monotonía de una función están intrínsecamente ligadas al signo de su derivada.
**Definición 2.5 (Monotonía):**
* Una función $f$ es **creciente** en un intervalo $I$ si para todo $a, b \in I$ con $a < b$, se cumple $f(a) \leq f(b)$ [26](#page=26).
* Una función $f$ es **decreciente** en un intervalo $I$ si para todo $a, b \in I$ con $a < b$, se cumple $f(b) \leq f(a)$ [26](#page=26).
* Una función $f$ es **estrictamente creciente** en $I$ si para todo $a, b \in I$ con $a < b$, se cumple $f(a) < f(b)$ [26](#page=26).
* Una función $f$ es **estrictamente decreciente** en $I$ si para todo $a, b \in I$ con $a < b$, se cumple $f(b) < f(a)$ [26](#page=26).
* Una función $f$ es **monótona** en $I$ si es creciente o decreciente en $I$ [26](#page=26).
**Proposición 2.4 (Condiciones de monotonía basadas en la derivada):**
Sea $I$ un intervalo.
* Si $f'(x) > 0$ para todo $x \in I$, entonces $f$ es **estrictamente creciente** en $I$ [26](#page=26).
* Si $f'(x) < 0$ para todo $x \in I$, entonces $f$ es **estrictamente decreciente** en $I$ [26](#page=26).
* Si $f'(x) \geq 0$ para todo $x \in I$, entonces $f$ es **creciente** en $I$ [26](#page=26).
* Si $f'(x) \leq 0$ para todo $x \in I$, entonces $f$ es **decreciente** en $I$ [26](#page=26).
**Demostración (para $f'(x)>0$):**
Para cualesquiera $a, b \in I$ con $a < b$, el Teorema del Valor Medio garantiza la existencia de un $c \in (a, b)$ tal que $f'(c) = \frac{f(b) - f(a)}{b - a}$ [26](#page=26).
Si $f'(x) > 0$ en $I$, entonces $f'(c) > 0$. Dado que $b - a > 0$, tenemos que $f(b) - f(a) = f'(c)(b - a) > 0$, lo que implica $f(a) < f(b)$. Por lo tanto, $f$ es estrictamente creciente en $I$ [26](#page=26).
> **Tip:** Las condiciones de la Proposición 2.4 son **suficientes** para la monotonía. Una función puede ser monótona sin ser continua o derivable en todo el intervalo, como se ve en el Ejemplo 2.21 [27](#page=27).
**Ejemplos:**
* La función $f(x) = x^3$. Su derivada es $f'(x) = 3x^2$. Para $x \neq 0$, $f'(x) > 0$, por lo que $f$ es estrictamente creciente en $(-\infty, 0)$ y en $(0, \infty)$. Aunque $f' =0$, la función es estrictamente creciente en todo $\mathbb{R}$ porque para $x>0$, $f(x)=x^3>0=f $, y para $x<0$, $f(x)=x^3<0=f $. Este ejemplo demuestra que el recíproco de la Proposición 2.4 no es siempre cierto, incluso para funciones con derivada continua [27](#page=27).
* Estudio de monotonía de $f(x) = x e^{(1-x)}$ [28](#page=28).
La derivada es $f'(x) = e^{(1-x)} + x e^{(1-x)}(-1) = e^{(1-x)}(1-x)$ [28](#page=28).
La exponencial $e^{(1-x)}$ es siempre positiva. Por lo tanto, el signo de $f'(x)$ depende del signo de $(1-x)$.
* Si $1-x > 0 \implies x < 1$, entonces $f'(x) > 0$ y $f$ es estrictamente creciente en $(-\infty, 1)$ [28](#page=28).
* Si $1-x < 0 \implies x > 1$, entonces $f'(x) < 0$ y $f$ es estrictamente decreciente en $(1, \infty)$ [28](#page=28).
> **Advertencia:** El recíproco de la Proposición 2.4 no es generalmente cierto. Es decir, que una función sea creciente (o decreciente) en un intervalo $I$ no implica necesariamente que $f'(x) > 0$ (o $f'(x) < 0$) en todo $I$. Podría haber puntos donde la derivada sea cero, como en el caso de $f(x)=x^3$. Sin embargo, si una función es creciente en $I$, sí se cumple que $f'(x) \geq 0$ para todo $x \in I$, asumiendo que $f$ es derivable en $I$ [27](#page=27) [29](#page=29).
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Term | Definition |
|------|------------|
| Derivada en un punto | El valor límite de la razón de incremento de la función y el incremento de la variable independiente cuando este último tiende a cero. Representa la pendiente de la recta tangente a la gráfica de la función en dicho punto. |
| Función derivable | Una función que posee derivada en todos los puntos de su dominio o en un subconjunto específico de este, lo que implica que su gráfica es continua y no presenta aristas. |
| Recta tangente | La recta que toca a una curva en un punto dado, compartiendo la misma dirección que la curva en ese punto. Su pendiente es igual a la derivada de la función en ese punto. |
| Continuidad | Una función es continua en un punto si el límite de la función en ese punto existe, es igual al valor de la función en ese punto, y está definida en ese punto. |
| Derivadas laterales | Las derivadas calculadas considerando los límites por la derecha y por la izquierda. Si ambas existen y son iguales, la derivada en el punto existe. |
| Regla de la cadena | Un teorema que permite calcular la derivada de una función compuesta. Establece que la derivada de una composición de funciones es el producto de las derivadas de las funciones externas e internas evaluadas apropiadamente. |
| Regla de L'Hôpital | Un método para calcular límites de cocientes de funciones que resultan en indeterminaciones del tipo 0/0 o ∞/∞. Consiste en calcular el límite del cociente de las derivadas de las funciones. |
| Método de Newton | Un algoritmo iterativo para encontrar aproximaciones de las raíces de una función, utilizando la tangente a la gráfica de la función en cada iteración. La fórmula de iteración es $x_{n+1} = x_n - f(x_n)/f'(x_n)$. |
| Punto fijo | Un valor $x$ en el dominio de una función $g$ tal que $g(x) = x$. Gráficamente, son las intersecciones de la gráfica de la función con la recta $y=x$. |
| Método de punto fijo | Un método iterativo para aproximar puntos fijos de una función. La sucesión se genera mediante la fórmula $x_{n+1} = g(x_n)$, donde se espera que la sucesión converja al punto fijo. |
| Teorema de Rolle | Establece que si una función es continua en un intervalo cerrado [a, b], derivable en el intervalo abierto (a, b), y toma el mismo valor en los extremos ($f(a)=f(b)$), entonces existe al menos un punto $c$ en (a, b) tal que $f'(c) = 0$. |
| Teorema del valor medio | Generaliza el Teorema de Rolle. Si una función es continua en [a, b] y derivable en (a, b), entonces existe al menos un punto $c$ en (a, b) tal que $f'(c) = (f(b) - f(a))/(b - a)$. |
| Función monótona | Una función que es consistentemente creciente o decreciente en un intervalo dado. Si su derivada es positiva o negativa en un intervalo, la función es estrictamente monótona en ese intervalo. |
| Derivada | El resultado de aplicar el proceso de diferenciación a una función, que representa la tasa de cambio instantánea de la función. |
| Continuidad en un punto | Una función $f$ es continua en un punto $a$ si el límite de $f(x)$ cuando $x$ tiende a $a$ existe, es igual a $f(a)$, y $f(a)$ está definido. |
| Cociente incremental | La expresión $(f(x) - f(a))/(x - a)$, que representa la pendiente de la recta secante que une dos puntos de la gráfica de una función. |
| Función escalón unitario (Heaviside) | Una función definida como 1 para valores positivos de la variable y 0 para valores no positivos. Es discontinua en 0. |
| Regla de suma para derivadas | La derivada de la suma de dos funciones es la suma de sus derivadas: $(f+g)'(a) = f'(a) + g'(a)$. |
| Regla del producto para derivadas | La derivada del producto de dos funciones es $(f \cdot g)'(a) = f'(a) \cdot g(a) + f(a) \cdot g'(a)$. |
| Regla del cociente para derivadas | La derivada del cociente de dos funciones es $(f/g)'(a) = (f'(a) \cdot g(a) - f(a) \cdot g'(a)) / [g(a)]^2$, siempre que $g(a) \neq 0$. |
| Indeterminación | Una forma que resulta al evaluar un límite, como $0/0$ o $\infty/\infty$, que no permite determinar el valor del límite directamente y requiere métodos adicionales como la Regla de L'Hôpital. |
| Error absoluto | La diferencia entre el valor verdadero de una cantidad y su valor aproximado, tomada en valor absoluto $|x_n - \tilde{x}|$. |
| Error relativo | El error absoluto dividido por el valor verdadero, tomado en valor absoluto $|x_n - \tilde{x}| / |\tilde{x}|$. |
| Función creciente | Una función $f$ es creciente en un intervalo $I$ si para cualquier par de puntos $a, b \in I$ con $a < b$, se cumple que $f(a) \leq f(b)$. |
| Función estrictamente creciente | Una función $f$ es estrictamente creciente en un intervalo $I$ si para cualquier par de puntos $a, b \in I$ con $a < b$, se cumple que $f(a) < f(b)$. |
Cover
CÁLCULO TEORÍA 3.pdf
Summary
# Derivadas sucesivas y polinomio de Taylor
Este tema explora cómo las derivadas de orden superior proporcionan información sobre el comportamiento local y global de una función, permitiendo su aproximación mediante polinomios de Taylor [1](#page=1).
### 1.1 Derivadas sucesivas
Las derivadas sucesivas de una función son el resultado de aplicar el proceso de derivación de forma reiterada. Si una función $f$ es derivable en un conjunto $D$, su derivada primera, $f'$, puede ser a su vez derivable en un subconjunto $C \subseteq D$, dando lugar a la derivada segunda, $f''$. Este proceso puede continuar indefinidamente, generando la derivada tercera $f'''$, la cuarta $f^{ }$, y así sucesivamente. Todas estas derivadas reciben el nombre de derivadas sucesivas o de orden superior [2](#page=2) [4](#page=4).
#### 1.1.1 Notación para derivadas sucesivas
Además de la notación con apóstrofes ($f', f'', f'''$), las derivadas de orden superior se pueden denotar utilizando números romanos para órdenes bajos (por ejemplo, $f^{(iv)}$ para la cuarta derivada) o, más comúnmente, utilizando un superíndice entre paréntesis para indicar el orden de la derivada ($f^{(n)}(x)$ para la $n$-ésima derivada) [2](#page=2).
#### 1.1.2 Ejemplos de cálculo de derivadas sucesivas
**Ejemplo 3.1:** Calculando las derivadas sucesivas de $f(x) = 3x^3$:
* $f'(x) = 9x^2$
* $f''(x) = 18x$
* $f'''(x) = 18$
* $f^{ }(x) = 0$ [4](#page=4).
* $f^{ }(x) = 0$ [5](#page=5).
Para cualquier $n \geq 4$, $f^{(n)}(x) = 0$ [3](#page=3).
**Ejemplo 3.2:** Calculando las derivadas primera a tercera de $f(x) = xe^{x^2}$:
* $f'(x) = e^{x^2} + 2x^2e^{x^2}$
* $f''(x) = 2xe^{x^2} + 4xe^{x^2} + 4x^3e^{x^2} = 6xe^{x^2} + 4x^3e^{x^2}$
* $f'''(x) = 6e^{x^2} + 12x^2e^{x^2} + 12x^2e^{x^2} + 8x^4e^{x^2} = 6e^{x^2} + 24x^2e^{x^2} + 8x^4e^{x^2}$ [3](#page=3).
**Ejemplo 3.3:** Calculando las derivadas sucesivas de $f(x) = \begin{cases} x^2 & \text{si } x < 0 \\ x^3 & \text{si } x \geq 0 \end{cases}$ con $x > 0$ en la definición original.
La función es continua en $x=0$. Para $x \neq 0$, $f'(x) = \begin{cases} 2x & \text{si } x < 0 \\ 3x^2 & \text{si } x > 0 \end{cases}$.
Se verifica que $f' = 0$. Así, $f'(x) = \begin{cases} 2x & \text{si } x < 0 \\ 0 & \text{si } x = 0 \\ 3x^2 & \text{si } x > 0 \end{cases}$ [3](#page=3) [4](#page=4).
Para la derivada segunda, para $x \neq 0$, $f''(x) = \begin{cases} 2 & \text{si } x < 0 \\ 6x & \text{si } x > 0 \end{cases}$.
Las derivadas laterales de $f'$ en $x=0$ no coinciden ($f''(0^-) = 2$ y $f''(0^+) = 0$). Por lo tanto, la derivada segunda de $f$ no está definida en $x = 0$ [4](#page=4).
> **Tip:** Es importante notar que la existencia de derivadas sucesivas puede estar limitada en ciertos puntos, como se ilustra en el Ejemplo 3.3, donde la segunda derivada no existe en $x=0$ debido a un cambio abrupto en la pendiente de la primera derivada.
#### 1.1.3 Conjuntos de funciones
Los conjuntos de funciones continuas en un intervalo $(a, b)$, denotado por $C(a, b)$, y aquellos con derivadas de orden $k$ continuas, denotados por $C^k(a, b)$, forman espacios vectoriales importantes en matemáticas [4](#page=4).
### 1.2 El Teorema de Taylor
El Teorema de Taylor permite aproximar funciones, especialmente aquellas que son difíciles de evaluar directamente (como las funciones trigonométricas o exponenciales), utilizando polinomios. Los polinomios son ventajosos porque su evaluación es computacionalmente sencilla, requiriendo solo sumas y multiplicaciones [5](#page=5).
#### 1.2.1 Polinomios centrados en $x_0$
Un polinomio está centrado en $x_0$ si está expresado en potencias de $(x - x_0)$. Cualquier polinomio puede ser reescrito en esta forma sustituyendo $x$ por $(x - x_0) + x_0$ [5](#page=5).
**Ejemplo 3.4:** Escribir $p(x) = x^2 + x + 2$ en potencias de $(x-2)$:
Sustituyendo $x = (x-2) + 2$:
$p(x) = ((x-2)+2)^2 + ((x-2)+2) + 2$
$p(x) = (x-2)^2 + 4(x-2) + 4 + (x-2) + 2 + 2$
$p(x) = (x-2)^2 + 5(x-2) + 8$ [5](#page=5).
#### 1.2.2 Relación entre derivadas de un polinomio y su expresión centrada
Un polinomio $p(x)$ de orden $n$ puede ser expresado de forma única en potencias de $(x-x_0)$ como:
$$p(x) = \sum_{i=0}^{n} \frac{p^{(i)}(x_0)}{i!}(x-x_0)^i$$
donde $p^{ }(x_0) = p(x_0)$ [6](#page=6).
**Ejemplo 3.5:** Si $p$ es un polinomio de orden 3 tal que $p =1$, $p' =0$, $p'' =6$, y $p''' =-6$, su expresión es :
$p(x) = p + p' x + \frac{p'' }{2!}x^2 + \frac{p''' }{3!}x^3$ .
$p(x) = 1 + x + \frac{6}{2}x^2 + \frac{-6}{6}x^3$ .
$p(x) = 1 + 3x^2 - x^3$ [6](#page=6).
#### 1.2.3 Definición del polinomio de Taylor
Si conocemos los valores de las $n$ primeras derivadas de una función $f$ en un punto $x_0$, podemos construir un polinomio $P_n(x)$ de orden menor o igual que $n$ tal que $P_n^{(i)}(x_0) = f^{(i)}(x_0)$ para $0 \leq i \leq n$. Este polinomio, único, es el polinomio de Taylor de $f$ centrado en $x_0$ de orden $n$:
$$P_n(x) = f(x_0) + f'(x_0)(x-x_0) + \frac{f''(x_0)}{2!}(x-x_0)^2 + \dots + \frac{f^{(n)}(x_0)}{n!}(x-x_0)^n = \sum_{i=0}^{n} \frac{f^{(i)}(x_0)}{i!}(x-x_0)^i$$ [6](#page=6).
El polinomio de Taylor centrado en el origen ($x_0=0$) se conoce a menudo como polinomio de Maclaurin [6](#page=6).
**Ejemplo 3.6:** Polinomio de Taylor de $f(x) = e^x$ centrado en el origen de orden 5.
Dado que $f^{(n)}(x) = e^x$ para todo $n$, y $f^{(n)} = 1$ para todo $n$ :
$P_5(x) = 1 + 1x + \frac{1}{2!}x^2 + \frac{1}{3!}x^3 + \frac{1}{4!}x^4 + \frac{1}{5!}x^5 = 1 + x + \frac{x^2}{2} + \frac{x^3}{6} + \frac{x^4}{24} + \frac{x^5}{120}$ [7](#page=7).
El polinomio de Taylor de $e^x$ centrado en el origen de orden $n$ es:
$$P_n(x) = \sum_{i=0}^{n} \frac{x^i}{i!}$$ [7](#page=7).
**Ejemplo 3.7:** Polinomio de Taylor de $g(x) = \sin x$ centrado en el origen de orden 5.
Evaluando las derivadas en $x=0$: $g =0$, $g' =1$, $g'' =0$, $g''' =-1$, $g^{ } =0$, $g^{ } =1$ [4](#page=4) [5](#page=5).
$P_5(x) = 0 + 1x + \frac{0}{2!}x^2 + \frac{-1}{3!}x^3 + \frac{0}{4!}x^4 + \frac{1}{5!}x^5 = x - \frac{x^3}{6} + \frac{x^5}{120}$ [7](#page=7).
Para $g(x) = \sin x$, las derivadas en $0$ son $0$ si $n$ es par, y $(-1)^k$ si $n=2k+1$. Los polinomios de Taylor de órdenes $2n+1$ y $2n+2$ son:
$$P_{2n+1}(x) = P_{2n+2}(x) = x - \frac{x^3}{3!} + \frac{x^5}{5!} + \dots + (-1)^n \frac{x^{2n+1}}{(2n+1)!}$$ [7](#page=7).
**Ejemplo 3.8:** Polinomio de Taylor de $f(x) = \sin x$ centrado en $\pi/4$ de orden 3.
$f(\pi/4) = \frac{\sqrt{2}}{2}$, $f'(\pi/4) = \frac{\sqrt{2}}{2}$, $f''(\pi/4) = -\frac{\sqrt{2}}{2}$, $f'''(\pi/4) = -\frac{\sqrt{2}}{2}$.
$P_3(x) = \frac{\sqrt{2}}{2} + \frac{\sqrt{2}}{2}(x-\frac{\pi}{4}) - \frac{\sqrt{2}}{4}(x-\frac{\pi}{4})^2 - \frac{\sqrt{2}}{12}(x-\frac{\pi}{4})^3$ [8](#page=8).
#### 1.2.4 Aproximación de polinomios de Taylor mediante manipulación
En algunos casos, el polinomio de Taylor de una función compuesta puede obtenerse sustituyendo la variable en el polinomio de Taylor de otra función [8](#page=8).
**Ejemplo 3.9:** Polinomio de Taylor de $f(x) = e^{x^2}$ centrado en el origen de orden 7.
Sustituyendo $x$ por $x^2$ en el polinomio de Taylor de $e^x$:
$e^{x^2} = 1 + (x^2) + \frac{(x^2)^2}{2!} + \frac{(x^2)^3}{3!} + \dots$
$e^{x^2} = 1 + x^2 + \frac{x^4}{2} + \frac{x^6}{6} + \dots$
El polinomio de Taylor de orden 7 es $P_7(x) = 1 + x^2 + \frac{x^4}{2} + \frac{x^6}{6}$ [8](#page=8).
#### 1.2.5 El resto de Lagrange
El Teorema de Taylor también proporciona una forma de estimar el error cometido al aproximar una función $f(x)$ por su polinomio de Taylor $P_n(x)$ en un punto $x$. El error, conocido como el resto de Lagrange $R_n(x)$, es:
$$R_n(x) = f(x) - P_n(x) = \frac{f^{(n+1)}(c)}{(n+1)!}(x-x_0)^{n+1}$$
para algún $c$ entre $x_0$ y $x$ [9](#page=9).
**Ejemplo 3.10:** Calcular $\sin(\frac{1}{2})$ con un error absoluto menor que $0.001$.
Se utiliza el polinomio de Taylor de $\sin x$ centrado en $0$. Las derivadas superiores de $\sin x$ son $\sin x, \cos x, -\sin x, -\cos x$, cuyos valores absolutos oscilan entre $0$ y $1$. El error es $|R_n(\frac{1}{2})| \leq \frac{1}{(n+1)!}(\frac{1}{2})^{n+1}$ [9](#page=9).
Se busca el menor $n$ tal que $|R_n(\frac{1}{2})| < 0.001$.
* Para $n=0$, $|R_0(\frac{1}{2})| \leq 0.5$.
* Para $n=1$, $|R_1(\frac{1}{2})| \leq 0.125$.
* Para $n=2$, $|R_2(\frac{1}{2})| \leq 0.020$.
* Para $n=3$, $|R_3(\frac{1}{2})| \leq 0.0026$.
* Para $n=4$, $|R_4(\frac{1}{2})| \leq 0.00026$.
Por lo tanto, $n=4$ es suficiente. El valor aproximado es $P_4(\frac{1}{2}) = \frac{1}{2} - \frac{(1/2)^3}{3!} + \frac{(1/2)^5}{5!} = 0.5 - \frac{1/8}{6} + \frac{1/32}{120} = 0.5 - 0.0104166 + 0.0000416 \approx 0.489625$. (El documento muestra $p_4(1/2) = 0.5 - 0.020833 = 0.479166$, lo cual parece ser un cálculo intermedio de $p_3(1/2)$ sin el término de $x^5$, y la aproximación final en el texto podría tener un error tipográfico o ser un cálculo diferente).
La aproximación con $P_4(x)$ centrada en el origen de orden 4 es $\frac{1}{2} - \frac{(1/2)^3}{3!} + \frac{(1/2)^5}{5!} = \frac{1}{2} - \frac{1}{48} + \frac{1}{3840} \approx 0.5 - 0.020833 + 0.00026 = 0.479427$ [10](#page=10) [9](#page=9).
#### 1.2.6 Propiedad del polinomio de Taylor para polinomios
Si $f(x)$ es un polinomio, su polinomio de Taylor centrado en $x_0$ de orden $n$ coincide con los monomios de $f(x)$ de orden menor o igual que $n$, siempre que esté centrado en el origen. Por ejemplo, el polinomio de Taylor de $f(x) = x^5 + 3x^4 - x^2 + 1$ de orden 3 centrado en el origen es $P_3(x) = -x^2 + 1$ [10](#page=10).
---
# Aplicaciones a series y sucesiones de funciones
Claro, aquí tienes el resumen detallado sobre "Aplicaciones a series y sucesiones de funciones", estructurado según tus indicaciones y listo para un examen.
## 2. Aplicaciones a series y sucesiones de funciones
Esta sección explora cómo la derivación se comporta al tomar el límite de sucesiones y series funcionales, así como la derivación de series de potencias [11](#page=11).
### 2.1 Derivación de sucesiones de funciones
La convergencia uniforme de una sucesión de funciones preserva la continuidad de sus elementos en la función límite. Para la derivabilidad, se establece una proposición que relaciona la convergencia uniforme de las derivadas con la derivabilidad de la función límite [11](#page=11).
#### 2.1.1 Proposición sobre convergencia uniforme y derivabilidad
Dada una sucesión de funciones $\{f_n\}$ definidas en un intervalo acotado $(a, b)$, se deben cumplir las siguientes condiciones para asegurar la derivabilidad de la función límite $f$:
1. Las funciones $f_n$ son derivables en $(a, b)$ [12](#page=12).
2. La sucesión de derivadas $\{f'_n\}$ converge uniformemente en $(a, b)$ [12](#page=12).
3. Existe algún $x_0 \in (a, b)$ tal que la sucesión numérica $\{f_n(x_0)\}$ es convergente [12](#page=12).
Si estas condiciones se cumplen, entonces $\{f_n\}$ converge uniformemente a una función límite $f$ en $(a, b)$, la cual es derivable en $(a, b)$ y satisface:
$$f'(x) = \lim_{n\to\infty} f'_n(x), \quad \forall x \in (a, b)$$ [12](#page=12).
> **Tip:** Es crucial notar que la convergencia uniforme de $\{f'_n\}$ es una condición *suficiente* para la derivabilidad de la función límite, pero no es una condición *necesaria* [12](#page=12).
#### 2.1.2 Ejemplo de convergencia uniforme y derivabilidad
Consideremos la sucesión de funciones $f_n(x) = \frac{1}{1 + n^2x^2}$ para $x \in (-1,1)$ [12](#page=12).
La convergencia puntual a $f(x) = 0$ se verifica calculando $\lim_{n\to\infty} f_n(x) = 0$ [12](#page=12).
Para la convergencia uniforme, se analiza el supremo de $|f_n(x) - f(x)|$ en $(-1,1)$, que resulta ser $\frac{1}{2n}$ para $n \ge 1$. Dado que $\lim_{n\to\infty} \frac{1}{2n} = 0$, la sucesión converge uniformemente a $f(x) = 0$ en $(-1,1)$ [13](#page=13).
Sin embargo, al derivar $f_n(x)$, se obtiene $f'_n(x) = \frac{-2n^2x}{(1+n^2x^2)^2}$ [13](#page=13).
El límite de estas derivadas es:
$$ \lim_{n\to\infty} f'_n(x) = \begin{cases} 1, & \text{si } x = 0 \\ 0, & \text{si } x \ne 0 \end{cases} $$ [13](#page=13).
Observamos que $f'(x)$ (la derivada de la función límite $f(x)=0$) es $0$ para todo $x$. Por lo tanto, $f'(x) \ne \lim_{n\to\infty} f'_n(x)$ cuando $x \ne 0$. Esto confirma que la sucesión de derivadas $\{f'_n\}$ no converge uniformemente en $(-1,1)$ [13](#page=13).
#### 2.1.3 Derivación de series de funciones
La propiedad de transmisión de la derivabilidad mediante convergencia uniforme se extiende a las series de funciones. Si $\sum_{n=1}^\infty f_n$ es una serie de funciones derivables en $(a, b)$, con derivadas finitas, y si para un $x_0 \in (a, b)$ la serie numérica $\sum_{n=1}^\infty f_n(x_0)$ converge, y la serie de las derivadas $\sum_{n=1}^\infty f'_n$ converge uniformemente en $(a, b)$, entonces la serie $\sum_{n=1}^\infty f_n$ converge uniformemente a una función derivable $F$ en $(a, b)$, cumpliéndose:
$$F'(x) = \sum_{n=1}^\infty f'_n(x), \quad \forall x \in (a, b)$$ [13](#page=13).
### 2.2 Derivación de series de potencias
En el caso particular de las series de potencias, el intercambio entre derivación y el paso al límite está garantizado si la serie es convergente.
#### 2.2.1 Proposición sobre derivación de series de potencias
Si una función $f(x)$ se representa por una serie de potencias $f(x) = \sum_{n=0}^\infty a_n x^n$ para todo $x \in (-c, c)$, entonces $f$ es derivable en $(-c, c)$ y su derivada es $f'(x) = \sum_{n=0}^\infty a_n (n x^{n-1})$ para todo $x \in (-c, c)$ [14](#page=14).
#### 2.2.2 Teorema de derivación término a término para series de potencias
Aplicando reiteradamente el resultado anterior, se obtiene que una serie de potencias $\sum_{n=0}^\infty a_n x^n$ define una función infinitamente derivable en su intervalo de convergencia. Las derivadas de esta función pueden obtenerse derivando término a término:
$$ \frac{d^p}{dx^p} \left(\sum_{n=0}^\infty a_n x^n\right) = \sum_{n=0}^\infty \frac{d^p}{dx^p} (a_n x^n) = \sum_{n=p}^\infty a_n n(n-1)\cdots(n-p+1) x^{n-p} $$ [14](#page=14).
#### 2.2.3 Ejemplo de derivación de series de potencias
Para calcular la derivada de la serie de potencias $f(x) = \sum_{n=0}^\infty \frac{(-1)^n x^{2n+1}}{(2n+1)!}$ (que converge en $\mathbb{R}$), se deriva término a término:
$$ \frac{d}{dx} f(x) = \frac{d}{dx} \left(x - \frac{x^3}{3!} + \frac{x^5}{5!} - \frac{x^7}{7!} + \dots \right) $$
$$ = 1 - \frac{3x^2}{3!} + \frac{5x^4}{5!} - \frac{7x^6}{7!} + \dots $$
$$ = 1 - \frac{x^2}{2!} + \frac{x^4}{4!} - \frac{x^6}{6!} + \dots = \sum_{n=0}^\infty \frac{(-1)^n x^{2n}}{(2n)!} $$ [14](#page=14).
Esta serie resultante corresponde a la función $\cos(x)$ [14](#page=14).
### 2.3 Funciones analíticas
Una familia especialmente importante de series de potencias son las series de Taylor, definidas como:
$$ \sum_{n=0}^\infty \frac{f^{(n)}(x_0)}{n!} (x - x_0)^n $$
donde $f$ es una función con derivadas de todos los órdenes en $x_0$. Estas series representan a $f$ si, en un intervalo que contiene a $x_0$, se cumple [15](#page=15):
$$ f(x) = \sum_{n=0}^\infty \frac{f^{(n)}(x_0)}{n!} (x - x_0)^n $$ [16](#page=16).
Las funciones que poseen esta propiedad se denominan funciones analíticas. Las funciones polinómicas, trigonométricas, exponenciales y logarítmicas son ejemplos de funciones analíticas [16](#page=16).
#### 2.3.1 Serie de Taylor de $e^{2x}$
Para calcular la serie de Taylor de $f(x) = e^{2x}$ en $x_0 = 0$, se determina que $f^{(n)}(x) = 2^n e^{2x}$, por lo que $f^{(n)} = 2^n$ [15](#page=15).
La serie de Taylor es:
$$ \sum_{n=0}^\infty \frac{2^n}{n!} x^n $$ [15](#page=15).
Utilizando el criterio del cociente para el radio de convergencia:
$$ \lim_{n\to\infty} \left|\frac{2^{n+1}x^{n+1}}{(n+1)!} \cdot \frac{n!}{2^n x^n}\right| = \lim_{n\to\infty} \left|\frac{2x}{n+1}\right| = 0 $$ [15](#page=15).
Como el límite es $0$ para todo $x$, el radio de convergencia es infinito [15](#page=15).
#### 2.3.2 Serie de Taylor de $\cos x$
Para $f(x) = \cos x$ en $x_0 = 0$, las derivadas de orden impar en $0$ son nulas, y las de orden par valen alternativamente $-1$ y $1$ [15](#page=15).
La serie de Taylor correspondiente es:
$$ \sum_{k=0}^\infty \frac{(-1)^k}{(2k)!} x^{2k} = 1 - \frac{x^2}{2!} + \frac{x^4}{4!} - \frac{x^6}{6!} + \dots $$ [15](#page=15).
#### 2.3.3 Relación entre series de potencias y series de Taylor
En su intervalo de convergencia, una serie de potencias define una función analítica y es la serie de Taylor de dicha suma. Para demostrar esto, se puede derivar la serie de potencias $f(x) = a_0 + a_1x + a_2x^2 + \dots + a_nx^n + \dots$ término a término. Al hacerlo, se comprueba que $f^{(n)} = n!a_n$, lo que implica $a_n = \frac{f^{(n)} }{n!}$, confirmando que la serie de potencias es la serie de Taylor de su suma [16](#page=16).
#### 2.3.4 Ejemplo de desarrollo en serie de potencias
Para desarrollar $x^2 \cos(x^3)$ en serie de potencias de $x$:
Se parte de la serie de $\cos x$:
$$ \cos x = 1 - \frac{x^2}{2!} + \frac{x^4}{4!} - \frac{x^6}{6!} + \dots $$ [16](#page=16).
Sustituyendo $x$ por $x^3$:
$$ \cos(x^3) = 1 - \frac{(x^3)^2}{2!} + \frac{(x^3)^4}{4!} - \frac{(x^3)^6}{6!} + \dots = 1 - \frac{x^6}{2!} + \frac{x^{12}}{4!} - \frac{x^{18}}{6!} + \dots $$ [16](#page=16).
Finalmente, multiplicando por $x^2$:
$$ x^2 \cos(x^3) = x^2 \left(1 - \frac{x^6}{2!} + \frac{x^{12}}{4!} - \frac{x^{18}}{6!} + \dots \right) = x^2 - \frac{x^8}{2!} + \frac{x^{14}}{4!} - \frac{x^{20}}{6!} + \dots $$ [16](#page=16).
Este desarrollo es válido para todo $x$ [16](#page=16).
---
# Interpolación polinómica
La interpolación polinómica es un método para encontrar un polinomio que pase exactamente por un conjunto dado de puntos, útil cuando la función subyacente es desconocida o se desea una representación más simple [18](#page=18).
### 3.1 Motivación para la interpolación polinómica
En diversas situaciones, se dispone de datos experimentales o mediciones en puntos discretos, pero no se conoce la función analítica que los describe. Por ejemplo, se pueden tener registros de temperatura en distintos momentos o concentraciones de sustancias en instantes específicos. Para poder realizar operaciones como derivación, integración o evaluar la función en otros puntos, es necesario construir una representación funcional. Si bien una poligonal que une los puntos puede ser una aproximación, se busca una curva suave, fácil de construir y evaluar, lo que lleva al uso de polinomios [18](#page=18).
### 3.2 El problema de la interpolación polinómica
Dado un conjunto de $n+1$ puntos $(x_k, f_k)$, para $k = 0, 1, \dots, n$, donde $x_k$ son los nodos y $f_k$ son los valores de una función desconocida $f(x)$ en esos nodos, el objetivo es encontrar un polinomio $P_n(x)$ de grado a lo sumo $n$ tal que $P_n(x_k) = f_k$ para todo $k$ [18](#page=18).
Este polinomio, llamado polinomio de interpolación o interpolador, se expresa generalmente como:
$$ P_n(x) = a_0 + a_1x + a_2x^2 + \dots + a_nx^n $$
Las condiciones de interpolación se traducen en un sistema de $n+1$ ecuaciones lineales con $n+1$ incógnitas (los coeficientes $a_i$) [19](#page=19):
$$
\begin{aligned}
a_0 + a_1x_0 + a_2x_0^2 + \dots + a_nx_0^n &= f_0 \\
a_0 + a_1x_1 + a_2x_1^2 + \dots + a_nx_1^n &= f_1 \\
&\vdots \\
a_0 + a_1x_n + a_2x_n^2 + \dots + a_nx_n^n &= f_n
\end{aligned}
$$
Este sistema se puede resolver utilizando métodos de álgebra lineal. Es importante destacar que el polinomio de interpolación es único para un conjunto dado de nodos distintos [19](#page=19).
> **Tip:** Antes de aplicar un método de interpolación, es recomendable graficar los datos para anticipar el comportamiento del polinomio. También es crucial verificar el resultado obtenido, ya que los cálculos de interpolación involucran diversas operaciones y son propensos a errores [18](#page=18).
#### 3.2.1 Métodos de interpolación
Si bien resolver el sistema lineal es una opción, puede ser computacionalmente costoso para una gran cantidad de datos. Por ello, se estudian métodos alternativos para construir el polinomio de interpolación de manera más eficiente [19](#page=19).
##### 3.2.1.1 Método de diferencias divididas de Newton
Este es uno de los métodos más populares y ventajosos. Se basa en la construcción recursiva de diferencias divididas [19](#page=19).
**Definición de diferencias divididas:**
* **Orden 0:**
$$ f[x_k = f_k $$
* **Orden 1:**
$$ f[x_k, x_{k+1}] = \frac{f[x_{k+1}] - f[x_k]}{x_{k+1} - x_k} = \frac{f_{k+1} - f_k}{x_{k+1} - x_k} $$
* **Orden $m$ (recursiva):**
$$ f[x_k, x_{k+1}, \dots, x_{k+m}] = \frac{f[x_{k+1}, \dots, x_{k+m}] - f[x_k, \dots, x_{k+m-1}]}{x_{k+m} - x_k} $$
Geométricamente, las diferencias divididas de orden $m$ son una aproximación de la $m$-ésima derivada de la función $f(x)$ [21](#page=21).
La forma más eficiente de calcular estas diferencias es mediante una **tabla de diferencias divididas**:
| $x_k$ | $f[x_k]$ (Orden 0) | $f[x_k, x_{k+1}]$ (Orden 1) | $f[x_k, \dots, x_{k+2}]$ (Orden 2) | $f[x_k, \dots, x_{k+3}]$ (Orden 3) |
| :---: | :----------------: | :-------------------------: | :--------------------------------: | :---------------------------------: |
| $x_0$ | $f_0$ | | | |
| | | $f[x_0, x_1]$ | | |
| $x_1$ | $f_1$ | | $f[x_0, x_1, x_2]$ | |
| | | $f[x_1, x_2]$ | | $f[x_0, x_1, x_2, x_3]$ |
| $x_2$ | $f_2$ | | $f[x_1, x_2, x_3]$ | |
| | | $f[x_2, x_3]$ | | |
| $x_3$ | $f_3$ | | | |
El polinomio de interpolación de Newton se construye utilizando las diferencias divididas de la diagonal superior de la tabla:
$$ P_n(x) = f[x_0 + f[x_0, x_1](x-x_0) + f[x_0, x_1, x_2](x-x_0)(x-x_1) + \dots + f[x_0, x_1, \dots, x_n](x-x_0)(x-x_1)\dots(x-x_{n-1}) $$
> **Tip:** Una ventaja significativa del método de Newton es que, al añadir un nuevo punto $(x_{n+1}, f_{n+1})$, el polinomio de interpolación de grado $n+1$ se obtiene a partir del polinomio de grado $n$ ($P_{n+1}(x) = P_n(x) + f[x_0, \dots, x_{n+1}](x-x_0)\dots(x-x_n)$) sin tener que recalcular todo desde cero [22](#page=22).
##### 3.2.1.2 Ejemplo de cálculo de diferencias divididas y polinomio de Newton
Consideremos los siguientes datos de temperatura en grados centígrados:
| $k$ | $x_k$ (hora) | $f_k$ (Temperatura) |
| :--: | :-----------: | :------------------: |
| 0 | 0 | 15 |
| 1 | 1 | 18 |
| 2 | 2 | 20 |
| 3 | 4 | 23 |
Construcción de la tabla de diferencias divididas:
| $x_k$ | $f[x_k]$ | $f[x_k, x_{k+1}]$ | $f[x_k, \dots, x_{k+2}]$ | $f[x_k, \dots, x_{k+3}]$ |
| :---: | :-------: | :---------------: | :--------------------: | :--------------------: |
| 0 | 15 | | | |
| | | $\frac{18-15}{1-0} = 3$ | | |
| 1 | 18 | | $\frac{2-3}{2-0} = -\frac{1}{2}$ | |
| | | $\frac{20-18}{2-1} = 2$ | | $\frac{3/2 - 2}{4-0} = -\frac{1}{8}$ |
| 2 | 20 | | $\frac{3-2}{4-1} = \frac{1}{3}$ | |
| | | $\frac{23-20}{4-2} = \frac{3}{2}$ | | |
| 4 | 23 | | | |
El polinomio de interpolación de grado 3 es:
$$ P_3(x) = f[x_0 + f[x_0, x_1](x-x_0) + f[x_0, x_1, x_2](x-x_0)(x-x_1) + f[x_0, x_1, x_2, x_3](x-x_0)(x-x_1)(x-x_2) $$
Sustituyendo los valores de la tabla:
$$ P_3(x) = 15 + 3(x-0) + (-\frac{1}{2})(x-0)(x-1) + (-\frac{1}{8})(x-0)(x-1)(x-2) $$
$$ P_3(x) = 15 + 3x - \frac{1}{2}x(x-1) - \frac{1}{8}x(x-1)(x-2) $$
Expandiendo y simplificando:
$$ P_3(x) = 15 + 3x - \frac{1}{2}(x^2 - x) - \frac{1}{8}(x^3 - 3x^2 + 2x) $$
$$ P_3(x) = 15 + 3x - \frac{1}{2}x^2 + \frac{1}{2}x - \frac{1}{8}x^3 + \frac{3}{8}x^2 - \frac{1}{4}x $$
Agrupando términos:
$$ P_3(x) = -\frac{1}{8}x^3 + (-\frac{1}{2} + \frac{3}{8})x^2 + (3 + \frac{1}{2} - \frac{1}{4})x + 15 $$
$$ P_3(x) = -\frac{1}{8}x^3 - \frac{1}{8}x^2 + \frac{13}{4}x + 15 $$
Este es el polinomio que interpola los cuatro puntos dados [22](#page=22).
---
# Optimización: Extremos relativos y absolutos
Este tema se centra en los conceptos de extremos relativos y absolutos de una función, puntos críticos y las condiciones para su cálculo, aplicados al campo de la optimización [23](#page=23).
### 4.1 Introducción y motivación
La optimización es una rama de las matemáticas dedicada a la toma de decisiones para minimizar costos y maximizar beneficios. Es fundamental para el desarrollo académico y profesional, y se abordará nuevamente al estudiar funciones de varias variables. Este tema proporcionará una base sólida en conceptos como extremos relativos y absolutos para funciones de una variable, puntos críticos y las condiciones suficientes para calcular extremos de funciones derivables [23](#page=23).
### 4.2 Extremos absolutos
Los extremos absolutos de una función continua definida sobre un intervalo cerrado corresponden a sus valores máximo y mínimo en dicho intervalo [23](#page=23).
#### 4.2.1 Definiciones
* **Mínimo absoluto:** Una función $f: D \to \mathbb{R}$ tiene un mínimo absoluto en $c$ si $f(c) \leq f(x)$ para todo $x \in D$ [24](#page=24).
* **Máximo absoluto:** Una función $f: D \to \mathbb{R}$ tiene un máximo absoluto en $c$ si $f(c) \geq f(x)$ para todo $x \in D$ [24](#page=24).
* **Extremo absoluto:** Una función $f: D \to \mathbb{R}$ tiene un extremo absoluto en $c$ si alcanza un máximo o un mínimo absoluto en $c$ [24](#page=24).
#### 4.2.2 Puntos críticos
Un punto $c \in (a, b)$ es un punto crítico de una función continua $f: [a, b \to \mathbb{R}$ si $f'(c) = 0$ o si $f$ no es derivable en $c$ [24](#page=24).
#### 4.2.3 Proposición de localización de extremos absolutos
Los extremos absolutos de una función continua $f: [a, b \to \mathbb{R}$ se alcanzan en los extremos del intervalo o en los puntos críticos de $f$. La continuidad de la función es una hipótesis crucial para esta proposición [24](#page=24).
> **Tip:** Es común confundir el punto donde se alcanza un extremo con el valor del extremo mismo. Por ejemplo, si $f = -3$ es el mínimo y $f = 10$ es el máximo, el mínimo se alcanza en $x=1$ y el máximo en $x=2$, no al revés [1](#page=1) [25](#page=25) [2](#page=2).
#### 4.2.4 Ejemplos de cálculo de extremos absolutos
**Ejemplo 3.19:** Estudiar los extremos absolutos de $f(x) = 4x^3 - 3x^2 - 6x + 2$ en el intervalo $ $ [24](#page=24) [2](#page=2).
1. **Continuidad:** $f(x)$ es continua por ser un polinomio.
2. **Puntos críticos:** Se calcula la derivada: $f'(x) = 12x^2 - 6x - 6$. Se iguala a cero: $12x^2 - 6x - 6 = 0 \implies 2x^2 - x - 1 = 0$. Las soluciones son $x = 1$ y $x = -1/2$. El punto $x = -1/2$ no pertenece al intervalo $(0, 2)$, por lo que solo se considera $x=1$ [24](#page=24).
3. **Evaluación:** Se comparan los valores de la función en los extremos del intervalo y en los puntos críticos:
* $f = 2$ .
* $f = 4 ^3 - 3 ^2 - 6 + 2 = -3$ [1](#page=1).
* $f = 4 ^3 - 3 ^2 - 6 + 2 = 32 - 12 - 12 + 2 = 10$ [2](#page=2).
4. **Conclusión:** El valor mínimo absoluto es $-3$, alcanzado en $x=1$. El valor máximo absoluto es $10$, alcanzado en $x=2$ [25](#page=25).
**Ejemplo 3.20:** Estudiar los extremos absolutos de $f(x) = |\sin x|$ en $[0, 2\pi]$ [25](#page=25).
1. **Definición por partes:**
$f(x) = \begin{cases} \sin x, & x \in [0, \pi \\ -\sin x, & x \in (\pi, 2\pi \end{cases}$
2. **Puntos críticos:** La derivada es:
$f'(x) = \begin{cases} \cos x, & x \in [0, \pi) \\ -\cos x, & x \in (\pi, 2\pi \end{cases}$
Los puntos críticos son $x = \pi/2$ (donde $f$ no es derivable) y $x = \pi/2, x = 3\pi/2$ (donde la derivada se anula) [25](#page=25).
3. **Evaluación:** Se comparan los valores en $0, \pi/2, \pi, 3\pi/2, 2\pi$:
* $f = |\sin 0| = 0$ .
* $f(\pi/2) = |\sin(\pi/2)| = 1$
* $f(\pi) = |\sin \pi| = 0$
* $f(3\pi/2) = |\sin(3\pi/2)| = |-1| = 1$
* $f(2\pi) = |\sin(2\pi)| = 0$
4. **Conclusión:** El valor máximo absoluto es $1$, alcanzado en $x = \pi/2$ y $x = 3\pi/2$. El valor mínimo absoluto es $0$, alcanzado en $x = 0$, $x = \pi$, y $x = 2\pi$ [26](#page=26).
#### 4.2.5 Extremos absolutos en intervalos no cerrados
Para intervalos abiertos o infinitos, no se pueden evaluar los extremos del intervalo directamente. En su lugar, se consideran los límites de la función cuando la variable tiende a los extremos del intervalo. Sin embargo, no se puede garantizar a priori que la función alcance sus valores máximos y mínimos [26](#page=26).
**Ejemplo 3.21:** Estudiar los extremos absolutos de $f(x) = \frac{x}{x^2+1}$ en $(0, \infty)$ [26](#page=26).
1. **Derivada:** $f'(x) = \frac{1-x^2}{(x^2+1)^2}$ [26](#page=26).
2. **Punto crítico:** La derivada se anula cuando $1-x^2 = 0$, lo que da $x=1$ (ya que estamos en $(0, \infty)$) [27](#page=27).
3. **Límites:** Se calculan los límites en los extremos del intervalo:
* $\lim_{x \to 0^+} f(x) = \lim_{x \to 0^+} \frac{x}{x^2+1} = 0$ [27](#page=27).
* $\lim_{x \to \infty} f(x) = \lim_{x \to \infty} \frac{x}{x^2+1} = 0$ (usando L'Hôpital o dividiendo por $x^2$) [27](#page=27).
4. **Evaluación:** $f = \frac{1}{1^2+1} = \frac{1}{2}$ [1](#page=1) [27](#page=27).
5. **Conclusión:** La función alcanza un máximo absoluto de $1/2$ en $x=1$. No existe un punto donde se alcance el mínimo absoluto, ya que los valores se acercan a $0$ pero nunca lo alcanzan en el intervalo abierto [27](#page=27).
### 4.3 Extremos relativos
Los extremos relativos (o locales) son puntos donde la función alcanza un valor máximo o mínimo en un intervalo cercano. Son útiles para identificar oportunidades de beneficio al comprar bajo y vender alto [28](#page=28).
#### 4.3.1 Definiciones
* **Mínimo relativo:** Una función $f: D \to \mathbb{R}$ alcanza un mínimo relativo en $c$ si existe un intervalo $I \subseteq D$ tal que $f(c) \leq f(x)$ para todo $x \in I$ [28](#page=28).
* **Máximo relativo:** Una función $f: D \to \mathbb{R}$ alcanza un máximo relativo en $c$ si existe un intervalo $I \subseteq D$ tal que $f(c) \geq f(x)$ para todo $x \in I$ [28](#page=28).
* **Extremo relativo:** Una función $f: D \to \mathbb{R}$ alcanza un extremo relativo en $c$ si alcanza un mínimo o máximo relativo en $c$ [28](#page=28).
#### 4.3.2 Proposiciones para identificar extremos relativos
* Si una función $f$ es decreciente en $(c-\epsilon, c)$ y creciente en $(c, c+\epsilon)$, entonces $f$ alcanza un mínimo relativo en $c$ [29](#page=29).
* Si una función $f$ es creciente en $(c-\epsilon, c)$ y decreciente en $(c, c+\epsilon)$, entonces $f$ alcanza un máximo relativo en $c$ [29](#page=29).
> **Tip:** La continuidad es esencial para estas proposiciones [29](#page=29).
#### 4.3.3 Localización de extremos relativos
* Los extremos relativos de una función continua $f: [a, b \to \mathbb{R}$ se alcanzan en los extremos del intervalo o en los puntos críticos [29](#page=29).
* Los extremos relativos de una función continua $f: (a,b) \to \mathbb{R}$ se alcanzan, si existen, en los puntos críticos [29](#page=29).
#### 4.3.4 Puntos de silla
Un punto $c$ es un punto de silla para $f$ si es un punto crítico de $f$ pero $f$ no alcanza un extremo relativo en $c$ [29](#page=29).
#### 4.3.5 Criterios de clasificación de extremos relativos
**Proposición 3.7 (Criterio de la Segunda Derivada):** Sea $f: (a, b) \to \mathbb{R}$ dos veces derivable y $c \in (a, b)$ tal que $f'(c) = 0$ [29](#page=29).
* Si $f''(c) > 0$, entonces $f$ alcanza un mínimo relativo en $c$ [29](#page=29).
* Si $f''(c) < 0$, entonces $f$ alcanza un máximo relativo en $c$ [29](#page=29).
**Proposición 3.8 (Criterio de las Derivadas Superiores):** Si el orden de la primera derivada que no se anula en un punto crítico $c$ es par, entonces $f$ alcanza un máximo si la derivada es negativa y un mínimo si es positiva. Si el orden es impar, entonces $f$ tiene un punto de silla en $c$ [30](#page=30).
**Ejemplo 3.24:** Estudiar los extremos relativos de $f(x) = x^4 - 2x^3$ [30](#page=30).
1. **Puntos críticos:** $f'(x) = 4x^3 - 6x^2$. Igualando a cero: $x^2(4x - 6) = 0 \implies x = 0, x = 3/2$ [30](#page=30).
2. **Segunda derivada:** $f''(x) = 12x^2 - 12x$.
* $f'' = 0$. No se puede usar el criterio de la segunda derivada .
* $f''(3/2) = 12(3/2)^2 - 12(3/2) = 12(9/4) - 18 = 27 - 18 = 9 > 0$. Por lo tanto, $f$ tiene un mínimo relativo en $x=3/2$ [30](#page=30).
3. **Análisis de $x=0$:** Se calculan derivadas superiores:
* $f'''(x) = 24x - 12 \implies f''' = -12 \neq 0$ .
Dado que la primera derivada no nula ($f'''$) es de orden impar, $x=0$ es un punto de silla [30](#page=30).
#### 4.3.6 Ejemplos de optimización
**Ejemplo 3.25:** Construir un recinto rectangular cerrado con 100 metros de tela metálica para maximizar el área [30](#page=30).
* Sea $x$ la longitud de un lado. El otro lado mide $\frac{100-2x}{2} = 50-x$ [31](#page=31).
* El área es $A(x) = x(50-x) = 50x - x^2$, con $x \in $ [31](#page=31) .
* Derivada: $A'(x) = 50 - 2x$. El punto crítico es $x=25$ [31](#page=31).
* Segunda derivada: $A''(x) = -2 < 0$. Por lo tanto, hay un máximo relativo en $x=25$.
* Evaluación en los extremos: $A = 0$, $A = 0$ .
* **Conclusión:** El máximo absoluto es $A = 25(50-25) = 625$. El recinto debe ser un cuadrado de $25$ metros por lado [25](#page=25) [31](#page=31).
**Ejemplo 3.26:** Construir a lo sumo dos recintos (uno circular y uno cuadrado) con 100 metros de tela metálica para maximizar el área total [31](#page=31).
* Sea $x$ el lado del cuadrado. Se usan $4x$ metros de tela. Quedan $100-4x$ metros para el círculo [31](#page=31).
* Radio del círculo: $r = \frac{100-4x}{2\pi} = \frac{50-2x}{\pi}$ [32](#page=32).
* Área del círculo: $A_{circulo} = \pi r^2 = \pi \left(\frac{50-2x}{\pi}\right)^2 = \frac{(50-2x)^2}{\pi}$ [32](#page=32).
* Área total: $A(x) = x^2 + \frac{(50-2x)^2}{\pi}$, con $x \in $ [25](#page=25) [32](#page=32).
* Derivada: $A'(x) = 2x - \frac{4(50-2x)}{\pi}$. Igualando a cero: $2\pi x - 200 + 8x = 0 \implies (2\pi+8)x = 200 \implies x = \frac{100}{\pi+4}$ [32](#page=32).
* Segunda derivada: $A''(x) = 2 + \frac{8}{\pi} > 0$. Esto indica un mínimo relativo en el punto crítico.
* Evaluación en los extremos:
* $A = 0^2 + \frac{(50-0)^2}{\pi} = \frac{2500}{\pi} \approx 795.77$ [32](#page=32).
* $A = 25^2 + \frac{(50-50)^2}{\pi} = 625$ [25](#page=25) [32](#page=32).
* **Conclusión:** El máximo absoluto se alcanza en $x=0$, lo que significa que se debe dedicar toda la tela metálica para construir el recinto circular, obteniendo un área máxima de $\frac{2500}{\pi}$ [32](#page=32).
---
# Concavidad y convexidad
El estudio de la concavidad y convexidad de una función, junto con otros aspectos gráficos como asíntotas, monotonía, extremos y puntos críticos, permite dibujar gráficos aproximados e interpretar las características de las funciones. Este tema se centra en definir la convexidad y concavidad, su interpretación geométrica y las condiciones suficientes para determinarlas a partir de las derivadas de orden superior [33](#page=33).
### 5.1 Definiciones de concavidad y convexidad
Una función $f: D \to \mathbb{R}$ es **convexa** en un intervalo $I \subseteq D$ si satisface la siguiente desigualdad para todo $x, y \in I$ y $t \in $ [1](#page=1) [33](#page=33):
$$f((1-t)x + ty) \le (1-t)f(x) + tf(y)$$
Geométricamente, esto significa que la gráfica de la función entre dos puntos $x$ e $y$ se encuentra por debajo del segmento de recta que une los puntos $(x, f(x))$ y $(y, f(y))$. Intuitivamente, una función convexa tiene forma de "U" en el intervalo dado [33](#page=33).
Una función $f: D \to \mathbb{R}$ es **cóncava** en un intervalo $I \subseteq D$ si $-f$ es convexa en $I$. Gráficamente, la gráfica de la función entre dos puntos se encuentra por encima del segmento de recta que une esos puntos. Intuitivamente, una función cóncava tiene forma de "n" [33](#page=33).
> **Tip:** Es importante notar que una función puede no ser cóncava ni convexa en un intervalo particular.
#### 5.1.1 Ejemplos de concavidad y convexidad
* Las funciones $f(x) = x^2$ y $g(x) = \ln x$ son ejemplos clásicos. $f(x) = x^2$ es convexa, mientras que $g(x) = \ln x$ es cóncava [33](#page=33).
* La función $f(x) = x^3$ no es ni convexa ni cóncava en el intervalo $[-1, 1]$, ya que no satisface la desigualdad en ningún sentido para todos los $t \in $ [1](#page=1) [34](#page=34).
### 5.2 Relación con las derivadas
La relación entre la concavidad/convexidad y las derivadas de una función proporciona herramientas prácticas para su análisis.
#### 5.2.1 Primera derivada
Una función $f$ derivable en un intervalo $I$ es convexa si y solo si su primera derivada, $f'$, es creciente en $I$. De manera análoga, $f$ es cóncava en $I$ si y solo si $f'$ es decreciente en $I$ [34](#page=34).
#### 5.2.2 Segunda derivada
Utilizando las condiciones de crecimiento y decrecimiento de la primera derivada, podemos establecer condiciones suficientes basadas en la segunda derivada:
* Si $f''(x) \ge 0$ en un intervalo $I$, entonces $f$ es convexa en $I$ [34](#page=34).
* Si $f''(x) \le 0$ en un intervalo $I$, entonces $f$ es cóncava en $I$ [34](#page=34).
> **Tip:** Estas condiciones de la segunda derivada son las más utilizadas para determinar los intervalos de concavidad y convexidad de una función.
### 5.3 Puntos de inflexión
Los puntos de inflexión son aquellos puntos donde una función cambia su concavidad, pasando de ser cóncava a convexa o viceversa [35](#page=35).
#### 5.3.1 Definición y condiciones
Un punto $c$ es un punto de inflexión para una función $f$ si existe un $\epsilon > 0$ tal que $f$ es convexa en $(c-\epsilon, c)$ y cóncava en $(c, c+\epsilon)$, o viceversa [35](#page=35).
Si una función $f$ es dos veces derivable en $I$ y $c \in I$ es un punto de inflexión, entonces se debe cumplir que $f''(c) = 0$. Sin embargo, $f''(c) = 0$ es una condición necesaria pero no siempre suficiente para que $c$ sea un punto de inflexión [35](#page=35).
Una condición más completa para identificar puntos de inflexión, si la función admite derivada segunda:
* Si $f''(c) = 0$ y la primera derivada de orden superior a dos que no se anula en $c$ es de orden impar, entonces $f$ tiene un punto de inflexión en $c$. Si esta derivada impar es positiva, la función pasa de cóncava a convexa; si es negativa, pasa de convexa a cóncava [35](#page=35).
#### 5.3.2 Ejemplos de puntos de inflexión
* **Para $f(x) = x^4 - x^3 - 3x^2 + 10x + 1$**:
* Calculamos las derivadas: $f'(x) = 4x^3 - 3x^2 - 6x + 10$ y $f''(x) = 12x^2 - 6x - 6$ [35](#page=35).
* Igualamos $f''(x)$ a cero para encontrar candidatos: $12x^2 - 6x - 6 = 0$, que simplifica a $2x^2 - x - 1 = 0$. Las raíces son $x = -1/2$ y $x = 1$ [35](#page=35).
* Analizando los intervalos $(-\infty, -1/2)$, $(-1/2, 1)$ y $(1, \infty)$ con valores de prueba para $f''(x)$, encontramos que $f''(x) > 0$ en $(-\infty, -1/2)$ (convexa), $f''(x) < 0$ en $(-1/2, 1)$ (cóncava), y $f''(x) > 0$ en $(1, \infty)$ (convexa) [35](#page=35).
* Los puntos de inflexión son $x = -1/2$ y $x = 1$ [35](#page=35).
* **Para $f(x) = \tan x$ en $(-2, 2)$**:
* $f'(x) = \sec^2 x = \frac{1}{\cos^2 x}$ y $f''(x) = \frac{2 \sin x}{\cos^3 x}$ [36](#page=36).
* Los puntos donde $f''(x) = 0$ son aquellos donde $\sin x = 0$, lo que ocurre en $x = 0$ dentro del intervalo dado [36](#page=36).
* Al evaluar la tercera derivada en $x=0$, $f''' = 2$, que es una derivada impar y positiva. Por lo tanto, $x=0$ es un punto de inflexión donde la función pasa de cóncava a convexa [36](#page=36).
* **Para $g(x) = -x^5$**:
* $g'(x) = -5x^4$, $g''(x) = -20x^3$. El candidato a punto de inflexión es $x=0$ [36](#page=36).
* Continuando con las derivadas: $g'''(x) = -60x^2$, $g^{ }(x) = -120x$, $g^{ }(x) = -120$. La primera derivada que no se anula en $x=0$ es $g^{ } = -120$, que es de orden impar y negativa [37](#page=37) [4](#page=4) [5](#page=5).
* Esto indica que $x=0$ es un punto de inflexión donde la función $g$ pasa de convexa a cóncava [37](#page=37).
### 5.4 Aplicaciones en la representación gráfica
Conocer el dominio, continuidad, asíntotas, intervalos de crecimiento/decrecimiento, extremos relativos, intervalos de concavidad/convexidad y puntos de inflexión es fundamental para realizar representaciones gráficas aproximadas de funciones [37](#page=37).
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Term | Definition |
|------|------------|
| Derivadas Sucesivas | Son las derivadas de orden superior de una función. Si una función $f$ es derivable en un conjunto $D$, su derivada primera es $f'$. Si $f'$ es derivable en un subconjunto $C \subset D$, su derivada se denota como $f''$ y se llama derivada segunda, y así sucesivamente para órdenes mayores. |
| Polinomio de Taylor | Un polinomio que aproxima una función $f$ en un punto $x_0$ utilizando los valores de las derivadas de $f$ en $x_0$. La fórmula general para el polinomio de Taylor de orden $n$ centrado en $x_0$ es $P_n(x) = \sum_{i=0}^{n} \frac{f^{(i)}(x_0)}{i!} (x-x_0)^i$. |
| Polinomio de Mac Laurin | Un caso particular del polinomio de Taylor centrado en el origen, es decir, con $x_0 = 0$. Su fórmula es $P_n(x) = \sum_{i=0}^{n} \frac{f^{(i)}(0)}{i!} x^i$. |
| Resto de Lagrange | El término que representa el error cometido al aproximar una función $f(x)$ por su polinomio de Taylor $P_n(x)$ de orden $n$. Se expresa como $R_n(x) = f(x) - P_n(x) = \frac{f^{(n+1)}(c)}{(n+1)!} (x-x_0)^{n+1}$ para cierto $c$ entre $x_0$ y $x$. |
| Convergencia Uniforme | Un tipo de convergencia de sucesiones de funciones donde la diferencia máxima entre las funciones de la sucesión y la función límite es uniformemente pequeña en todo el dominio. Es una condición importante para la transmisión de la derivabilidad. |
| Serie de Potencias | Una serie de la forma $\sum_{n=0}^{\infty} a_n (x-x_0)^n$, donde $a_n$ son coeficientes y $x_0$ es el centro de la serie. Estas series definen funciones analíticas en su intervalo de convergencia. |
| Funciones Analíticas | Funciones que pueden ser representadas localmente por una serie de potencias convergente. Las funciones polinómicas, trigonométricas, exponenciales y logarítmicas son ejemplos de funciones analíticas. |
| Interpolación Polinómica | El proceso de encontrar un polinomio que pasa exactamente por un conjunto dado de puntos $(x_k, f_k)$. El polinomio resultante se denomina polinomio interpolador. |
| Nodos | Los valores $x_k$ de la variable independiente para los cuales se conocen los valores correspondientes de la función $f_k$. |
| Diferencias Divididas | Una técnica para calcular coeficientes de polinomios de interpolación. Las diferencias divididas de orden $m$ aproximan la derivada de orden $m$ de la función. |
| Punto Crítico | Un punto $c$ en el dominio de una función $f$ donde la derivada $f'(c) = 0$ o donde $f$ no es derivable. Los extremos (máximos y mínimos) de una función continua en un intervalo cerrado ocurren en los extremos del intervalo o en los puntos críticos. |
| Extremo Absoluto | El valor máximo o mínimo que una función alcanza en todo su dominio o en un intervalo específico. |
| Extremo Relativo (o Local) | Un valor que una función alcanza en un punto si este valor es el máximo o mínimo en un intervalo cercano alrededor de ese punto. |
| Punto de Silla | Un punto crítico de una función donde la función no alcanza ni un máximo ni un mínimo relativo. |
| Función Convexa | Una función $f$ en un intervalo $I$ tal que para cualesquiera $x, y \in I$ y $t \in [0,1]$, se cumple $f((1-t)x + ty) \le (1-t)f(x) + tf(y)$. Geométricamente, su gráfica tiene forma de "U". |
| Función Cóncava | Una función $f$ en un intervalo $I$ tal que $-f$ es convexa en $I$. Geométricamente, su gráfica tiene forma de "n". |
| Punto de Inflexión | Un punto en la gráfica de una función donde la concavidad cambia de convexa a cóncava, o viceversa. |
Cover
CÁLCULO TEORÍA 4.pdf
Summary
# El espacio R y sus generalizaciones
Este tema introduce el espacio Rn, sus operaciones vectoriales básicas, y conceptos como producto escalar, norma y distancia, además de sistemas de coordenadas alternativos en R2 y R3.
### 1.1 El espacio Rn: Primeras definiciones
El conjunto $R^n$ para un número natural $n$ es el producto cartesiano de $n$ copias de los números reales $R \times \dots \times R$. Sus elementos son $n$-uplas de la forma $(x_1, \dots, x_n)$, donde cada $x_i \in R$ para $i = 1, \dots, n$. Se utiliza la notación $\vec{x} = (x_1, \dots, x_n)$ para referirse a un elemento de $R^n$ [2](#page=2).
#### 1.1.1 Operaciones en Rn
En $R^n$, se definen las siguientes operaciones:
* **Suma de elementos**: Para $\vec{x} = (x_1, \dots, x_n)$ y $\vec{y} = (y_1, \dots, y_n)$, la suma es $\vec{x} + \vec{y} = (x_1+y_1, \dots, x_n+y_n)$ [3](#page=3).
* **Producto por escalares**: Para un escalar $\lambda \in R$ y $\vec{x} = (x_1, \dots, x_n)$, el producto es $\lambda\vec{x} = (\lambda x_1, \dots, \lambda x_n)$ [3](#page=3).
Con estas operaciones, $R^n$ tiene la estructura de un espacio vectorial. Los elementos de $R^n$ se denominan vectores [3](#page=3).
#### 1.1.2 Base canónica y dimensión
Los elementos de la base canónica en $R^n$ son $\vec{e}_1 = (1,0, \dots, 0)$, $\vec{e}_2 = (0,1, \dots, 0)$,..., $\vec{e}_n = (0,0, \dots, 1)$. Estos $n$ elementos forman la base canónica y definen la dimensión de $R^n$ como $n$. Cualquier vector $\vec{x} = (x_1, \dots, x_n)$ puede expresarse como una combinación lineal de la base canónica [3](#page=3):
$$ (x_1, x_2, \dots, x_n) = x_1\vec{e}_1 + x_2\vec{e}_2 + \dots + x_n\vec{e}_n $$
Los coeficientes $x_1, x_2, \dots, x_n$ son las coordenadas cartesianas del vector $\vec{x}$ [3](#page=3).
#### 1.1.3 Producto escalar, norma y distancia
**Definición 4.1**: El producto escalar de dos vectores $\vec{x} = (x_1, x_2, \dots, x_n)$ y $\vec{y} = (y_1, y_2, \dots, y_n)$ en $R^n$ se define como:
$$ \vec{x} \cdot \vec{y} = (x_1, \dots, x_n) \cdot (y_1, \dots, y_n) = x_1y_1 + \dots + x_ny_n = \sum_{i=1}^n x_i y_i $$
El resultado es un escalar [3](#page=3).
La **norma** de un vector $\vec{x}$ se define a partir del producto escalar:
$$ \|\vec{x}\| = \sqrt{\vec{x} \cdot \vec{x}} = \sqrt{x_1^2 + \dots + x_n^2} $$
La norma representa intuitivamente la "longitud" del vector. Los vectores con norma uno se denominan vectores unitarios [3](#page=3).
La **distancia** entre dos vectores (o puntos) $\vec{x}$ e $\vec{y}$ en $R^n$ se define utilizando la norma:
$$ d(\vec{x}, \vec{y}) = \|\vec{y} - \vec{x}\| = \sqrt{(y_1 - x_1)^2 + \dots + (y_n - x_n)^2} $$
[3](#page=3).
> **Tip:** La norma de un vector es su distancia al origen, y la distancia entre dos vectores es la norma de su diferencia.
##### 1.1.3.1 Ejemplos de operaciones y distancias
**Ejemplo 4.1 (En $R^2$)**:
Sean los vectores $\vec{x} = (1,2)$ e $\vec{y} = (3,1)$.
Suma: $\vec{z} = \vec{x} + \vec{y} = (1+3, 2+1) = (4,3)$ [4](#page=4).
Producto por escalar: $\vec{w} = 2\vec{x} = (2 \cdot 1, 2 \cdot 2) = (2,4)$ [4](#page=4).
Norma de $\vec{y}$: $\|\vec{y}\| = \sqrt{3^2 + 1^2} = \sqrt{10}$ [4](#page=4).
Distancia entre $\vec{x}$ e $\vec{y}$: $d(\vec{x}, \vec{y}) = \sqrt{(3-1)^2 + (1-2)^2} = \sqrt{2^2 + (-1)^2} = \sqrt{5}$ [4](#page=4).
**Ejemplo 4.2 (En $R^3$)**:
Sea el vector $\vec{v} = (1,2,1)$.
Norma de $\vec{v}$: $\|\vec{v}\| = \sqrt{1^2 + 2^2 + 1^2} = \sqrt{6}$ [4](#page=4).
Distancia entre $(0,1,3)$ y $(1,2,1)$: $d((0,1,3), (1,2,1)) = \sqrt{(1-0)^2 + (2-1)^2 + (1-3)^2} = \sqrt{1^2 + 1^2 + (-2)^2} = \sqrt{1+1+4} = \sqrt{6}$ [5](#page=5).
### 1.2 Conjuntos y puntos destacados en $R^n$
Para extender conceptos de funciones de una variable a varias variables, es fundamental comprender ciertos tipos de conjuntos y puntos en $R^n$.
#### 1.2.1 Disco y bola
* **Disco abierto en $R^2$**: Un disco abierto de centro $(a, b)$ y radio $r$ es el conjunto $\{(x, y) \in R^2: d((a, b), (x, y)) < r\}$ [5](#page=5).
* **Disco cerrado en $R^2$**: Un disco cerrado de centro $(a, b)$ y radio $r$ es el conjunto $\{(x, y) \in R^2: d((a, b), (x, y)) \le r\}$ [5](#page=5).
* En $R^3$ o $R^n$ en general, se habla de **bola abierta** (o cerrada) de centro $(x_1, \dots, x_n)$ y radio $r$, con definiciones análogas [6](#page=6).
#### 1.2.2 Puntos interiores y frontera
* Un punto $(a, b) \in R^2$ es un **punto interior** a un conjunto $C$ si existe un disco abierto de centro $(a, b)$ que está completamente contenido en $C$ [5](#page=5).
* Un punto $(a, b)$ es un **punto frontera** de $C$ si cualquier disco abierto de centro $(a, b)$ contiene tanto puntos de $C$ como puntos fuera de $C$ [6](#page=6).
* La **frontera** de un conjunto $C$ es el conjunto de todos sus puntos frontera [6](#page=6).
#### 1.2.3 Conjuntos abiertos y cerrados
* Un conjunto $C \subseteq R^2$ es **abierto** si es vacío o todos sus puntos son interiores. Por ejemplo, $R^2$ es un conjunto abierto [6](#page=6).
* Un conjunto $C$ es **cerrado** si contiene a su frontera. Si un conjunto no tiene puntos frontera (como $R^2$), también es cerrado [6](#page=6).
#### 1.2.4 Conjuntos acotados
Un conjunto es **acotado** si puede ser incluido dentro de un disco (o bola en dimensiones superiores), lo que significa que su extensión es finita [6](#page=6).
**Ejemplo 4.3 (Conjunto en $R^2$)**:
Consideremos el conjunto $C = \{(x,y) \in R^2 : (x-1)^2+(y+2)^2 < 9\}$.
Este conjunto es un disco abierto de radio 3 centrado en $(1, -2)$ [7](#page=7).
Su **frontera** es la circunferencia $\{(x,y) \in R^2: (x-1)^2 +(y +2)^2 =9\}$ [7](#page=7).
Todos los puntos del conjunto son **interiores**, por lo que el conjunto es **abierto** [7](#page=7).
#### 1.2.5 Ortogonalidad de vectores
A partir del producto escalar, se puede definir el **ángulo $\alpha$** entre dos vectores $\vec{x}$ e $\vec{y}$:
$$ \cos \alpha = \frac{\vec{x} \cdot \vec{y}}{\|\vec{x}\| \|\vec{y}\|} $$
[7](#page=7).
Dos vectores son **ortogonales** si y solo si su producto escalar es cero [7](#page=7).
### 1.3 Sistemas de coordenadas alternativos
#### 1.3.1 Coordenadas polares en $R^2$
En $R^2 \setminus \{(0,0)\}$, cualquier punto $(x, y)$ puede definirse de forma única mediante un radio $p > 0$ y un ángulo $\theta \in [0, 2\pi)$ [8](#page=8).
* $p$ es la distancia del punto al origen, $p = \sqrt{x^2+y^2} = \|(x,y)\|$ [8](#page=8).
* $\theta$ es el ángulo formado por el vector $(x, y)$ y el eje $x$ positivo, medido en sentido antihorario [8](#page=8).
Las ecuaciones de transformación son:
* **Cartesianas a polares**:
$x = p \cos \theta$
$y = p \sin \theta$
$p = \sqrt{x^2+y^2}$
$\tan \theta = \frac{y}{x}$ (con atención a los signos de $x$ e $y$ para determinar el cuadrante) [8](#page=8).
* **Polares a cartesianas**:
$x = p \cos \theta$
$y = p \sin \theta$
[8](#page=8).
**Ejemplo 4.4**: Coordenadas polares de $(2, 2\sqrt{3})$ [9](#page=9).
$p = \sqrt{2^2 + (2\sqrt{3})^2} = \sqrt{4+12} = 4$.
$\tan \theta = \frac{2\sqrt{3}}{2} = \sqrt{3}$. Como $x>0, y>0$, $\theta = \frac{\pi}{3}$.
Coordenadas polares: $(4, \frac{\pi}{3})$.
**Ejemplo 4.5**: Coordenadas cartesianas de $(2, \frac{\pi}{4})$ [9](#page=9).
$x = 2 \cos(\frac{\pi}{4}) = 2 \cdot \frac{\sqrt{2}}{2} = \sqrt{2}$.
$y = 2 \sin(\frac{\pi}{4}) = 2 \cdot \frac{\sqrt{2}}{2} = \sqrt{2}$.
Coordenadas cartesianas: $(\sqrt{2}, \sqrt{2})$.
#### 1.3.2 Coordenadas cilíndricas en $R^3$
Son una generalización de las polares a $R^3 \setminus \{(0,0,0)\}$. Se representan $(x, y)$ en polares y se mantiene la coordenada $z$. La terna es $(p, \theta, z)$ [9](#page=9).
* **Cartesianas a cilíndricas**:
$x = p \cos \theta$
$y = p \sin \theta$
$z = z$
$p = \sqrt{x^2+y^2}$
$\tan \theta = \frac{y}{x}$
[9](#page=9).
* **Cilíndricas a cartesianas**:
$x = p \cos \theta$
$y = p \sin \theta$
$z = z$
[9](#page=9).
**Ejemplo 4.6**: Coordenadas cartesianas de $(2, \frac{\pi}{3}, -1)$ en cilíndricas [9](#page=9).
$x = 2 \cos(\frac{\pi}{3}) = 2 \cdot \frac{1}{2} = 1$.
$y = 2 \sin(\frac{\pi}{3}) = 2 \cdot \frac{\sqrt{3}}{2} = \sqrt{3}$.
$z = -1$.
Coordenadas cartesianas: $(1, \sqrt{3}, -1)$.
#### 1.3.3 Coordenadas esféricas en $R^3$
Una terna $(p, \theta, \phi)$ donde $p > 0$, $\theta \in [0, 2\pi)$ y $\phi \in [-\frac{\pi}{2}, \frac{\pi}{2}]$ [10](#page=10).
* $p$ es la distancia del punto al origen $(0,0,0)$, $p = \sqrt{x^2+y^2+z^2}$ [10](#page=10).
* $\theta$ es el ángulo de la proyección sobre el plano $xy$ con el eje $x$ positivo (igual que en cilíndricas) [10](#page=10).
* $\phi$ es el ángulo que forma el vector $(x, y, z)$ con su proyección sobre el plano $xy$ [10](#page=10).
* **Cartesianas a esféricas**:
$x = p \cos \phi \cos \theta$
$y = p \cos \phi \sin \theta$
$z = p \sin \phi$
$p = \sqrt{x^2+y^2+z^2}$
$\tan \theta = \frac{y}{x}$
$\sin \phi = \frac{z}{\sqrt{x^2+y^2+z^2}}$
[10](#page=10).
* **Esféricas a cartesianas**:
$x = p \cos \phi \cos \theta$
$y = p \cos \phi \sin \theta$
$z = p \sin \phi$
[10](#page=10).
**Ejemplo 4.7**: Coordenadas cilíndricas y esféricas de $(3, -4, -1)$ [11](#page=11).
* **Cilíndricas**:
$p = \sqrt{3^2 + (-4)^2} = 5$.
$\tan \theta = \frac{-4}{3}$. Como $x>0, y<0$, $\theta$ está en el cuarto cuadrante, $\theta \approx 5.3559$ radianes.
$z = -1$.
Coordenadas cilíndricas: $(5, 5.3559, -1)$.
* **Esféricas**:
$p = \sqrt{3^2 + (-4)^2 + (-1)^2} = \sqrt{9+16+1} = \sqrt{26}$.
$\theta \approx 5.3559$ radianes (mismo que en cilíndricas).
$\sin \phi = \frac{-1}{\sqrt{26}}$. $\phi = \arcsin(\frac{-1}{\sqrt{26}}) \approx -0.1974$ radianes.
Coordenadas esféricas: $(\sqrt{26}, 5.3559, -0.1974)$.
**Ejemplo 4.8**: Coordenadas cartesianas de $(1, \frac{\pi}{6}, \frac{\pi}{3})$ en esféricas [12](#page=12).
$p=1, \theta=\frac{\pi}{6}, \phi=\frac{\pi}{3}$.
$x = 1 \cos(\frac{\pi}{3}) \cos(\frac{\pi}{6}) = 1 \cdot \frac{1}{2} \cdot \frac{\sqrt{3}}{2} = \frac{\sqrt{3}}{4}$.
$y = 1 \cos(\frac{\pi}{3}) \sin(\frac{\pi}{6}) = 1 \cdot \frac{1}{2} \cdot \frac{1}{2} = \frac{1}{4}$.
$z = 1 \sin(\frac{\pi}{3}) = \frac{\sqrt{3}}{2}$.
Coordenadas cartesianas: $(\frac{\sqrt{3}}{4}, \frac{1}{4}, \frac{\sqrt{3}}{2})$.
Cada punto de $R^3 \setminus \{(0,0,0)\}$ puede expresarse en coordenadas cartesianas, cilíndricas o esféricas [11](#page=11).
---
# Funciones de varias variables: límites y continuidad
Este tema extiende los conceptos de funciones de una variable a funciones de dos o más variables, centrándose en la definición formal, el cálculo y las propiedades de sus límites y continuidad.
### 2.1 Funciones de varias variables
Una función de dos variables es una aplicación $f: D \subset \mathbb{R}^2 \to \mathbb{R}$, donde $D$ es un subconjunto de $\mathbb{R}^2$ llamado dominio, y para cada par $(x, y) \in D$, la función asigna un único número real $f(x, y)$. El conjunto de valores que toma la función se denomina imagen, $f(D) \subset \mathbb{R}$. Si el dominio no se especifica explícitamente, se considera el mayor conjunto posible donde la expresión $f(x, y)$ tiene sentido [13](#page=13).
#### 2.1.1 Dominio y ejemplos
El dominio de una función de varias variables se determina considerando las mismas restricciones que para funciones de una variable: el argumento de una raíz par debe ser no negativo, el argumento de un logaritmo debe ser positivo, y los denominadores no pueden ser cero [13](#page=13).
> **Ejemplo:** Para la función $f(x, y) = \sqrt{1+x^2 - y}$, el dominio se define por $1+x^2 - y \ge 0$, lo que implica $y \le 1+x^2$ [13](#page=13) [14](#page=14).
La notación $z = f(x, y)$ se utiliza comúnmente para funciones de dos variables, donde $x$ e $y$ son variables independientes y $z$ es la variable dependiente. Este concepto se extiende a funciones de $n$ variables, $f: D \subset \mathbb{R}^n \to \mathbb{R}$, donde $D \subset \mathbb{R}^n$ y $f(x_1, \dots, x_n)$ es un único número real [14](#page=14).
#### 2.1.2 Representación gráfica
La gráfica de una función de dos variables $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ es el conjunto de puntos $(x, y, f(x, y))$ en $\mathbb{R}^3$. La proyección de esta gráfica sobre el plano $xy$ coincide con el dominio, y la proyección sobre el eje $z$ coincide con la imagen [15](#page=15).
Las **curvas de nivel** o curvas de contorno son conjuntos de puntos $(x, y)$ en el plano $xy$ tales que $f(x, y) = k$ para una constante $k$. Estas curvas proporcionan información sobre la forma de la superficie definida por la función. Ejemplos cotidianos incluyen mapas topográficos (altitud constante) o mapas meteorológicos (presión constante) [15](#page=15).
> **Ejemplo:** Para $f(x, y) = x^2 + y^2 + 1$, las curvas de nivel $x^2 + y^2 = k-1$ (para $k>1$) son circunferencias centradas en el origen con radio $\sqrt{k-1}$. La gráfica de esta función es un paraboloide de revolución [16](#page=16).
#### 2.1.3 Operaciones con funciones
Las operaciones de suma, resta, multiplicación, división y multiplicación por una constante se extienden a funciones de varias variables de manera análoga a las funciones de una variable [17](#page=17).
* $(c f)(x, y) = c f(x, y)$
* $(f + g)(x, y) = f(x, y) + g(x, y)$
* $(f \cdot g)(x, y) = f(x, y) \cdot g(x, y)$
* $(\frac{f}{g})(x, y) = \frac{f(x, y)}{g(x, y)}$, si $g(x, y) \neq 0$
Para que estas operaciones tengan sentido, los dominios de las funciones deben coincidir [17](#page=17).
#### 2.1.4 Composición de funciones
La composición de funciones de varias variables también se define. Si $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ y $g: D' \subset \mathbb{R} \to \mathbb{R}$, la composición $g \circ f$ está definida si la imagen de $f$ está contenida en el dominio de $g$ [17](#page=17) [18](#page=18).
> **Ejemplo:** Para $f(x, y) = x^2 - y^2 + xy$ y $g(x) = \cos x$, la composición $g \circ f$ es $g(f(x,y)) = \cos(x^2 - y^2 + xy)$ [18](#page=18).
La composición de funciones es particularmente útil para cambios de variable. Si $h: \mathbb{R}^2 \to \mathbb{R}$ y $g: \mathbb{R}^2 \to \mathbb{R}^2$, entonces $h \circ g$ es una composición de funciones de varias variables [18](#page=18).
### 2.2 Límite de una función en un punto
El concepto de límite para funciones de varias variables extiende la idea de aproximación. Para que el límite de $f(x, y)$ exista cuando $(x, y)$ tiende a $(a, b)$, los valores de $f(x, y)$ deben aproximarse a un valor $l$ independientemente del camino que siga $(x, y)$ para acercarse a $(a, b)$ [18](#page=18) [19](#page=19).
#### 2.2.1 Definición formal de límite
Formalmente, el límite de una función $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ en un punto $(a, b)$ es $l$, denotado como $\lim_{(x,y) \to (a,b)} f(x, y) = l$, si para cada $\epsilon > 0$, existe un $\delta > 0$ tal que si $0 < d((a,b), (x,y)) < \delta$ y $(x,y) \in D$, entonces $|f(x,y) - l| < \epsilon$. Aquí, $d((a,b), (x,y))$ es la distancia euclidiana entre los puntos [19](#page=19).
Esta definición se puede generalizar para funciones de $n$ variables: $\lim_{(x_1, \dots, x_n) \to (a_1, \dots, a_n)} f(x_1, \dots, x_n) = l$ si para cada $\epsilon > 0$, existe un $\delta > 0$ tal que si $0 < d((a_1, \dots, a_n), (x_1, \dots, x_n)) < \delta$ y $(x_1, \dots, x_n) \in D$, entonces $|f(x_1, \dots, x_n) - l| < \epsilon$ [19](#page=19) [20](#page=20).
#### 2.2.2 Álgebra de límites
Las reglas del álgebra de límites para funciones de una variable también aplican a funciones de varias variables:
* $\lim_{(x,y) \to (a,b)} c f(x, y) = c \cdot l$ [20](#page=20).
* $\lim_{(x,y) \to (a,b)} (f(x,y) + g(x,y)) = l + m$ [20](#page=20).
* $\lim_{(x,y) \to (a,b)} (f(x,y) \cdot g(x,y)) = l \cdot m$ [20](#page=20).
* $\lim_{(x,y) \to (a,b)} \frac{f(x,y)}{g(x,y)} = \frac{l}{m}$, si $m \neq 0$ [20](#page=20).
#### 2.2.3 Estrategias para el cálculo de límites
Si los límites reiterados coinciden, no garantiza la existencia del límite. Si no coinciden, el límite no existe [21](#page=21).
* **Límites reiterados:** Se calcula el límite fijando una variable y luego se calcula el límite de la expresión resultante con la otra variable [21](#page=21).
$$ \lim_{y \to b} \left( \lim_{x \to a} f(x, y) \right) \quad \text{y} \quad \lim_{x \to a} \left( \lim_{y \to b} f(x, y) \right) $$
* **Aproximación por rectas:** Se evalúa el límite a lo largo de rectas de la forma $y = mx + k$ o $x = m'y + k'$. Si el límite depende de $m$ o $k$, entonces el límite no existe [21](#page=21) [22](#page=22).
> **Ejemplo:** Para $f(x, y) = \frac{y - x + 2xy}{1}$ evaluando en $(1,1)$ por $y=1$ y $x=1$ se obtienen límites iguales, pero esto no prueba la existencia del límite [22](#page=22).
* **Aproximación por curvas:** De forma más general, se pueden usar curvas $y = g(x)$ o $x = h(y)$. Si el límite depende de la curva elegida, no existe [21](#page=21).
> **Ejemplo:** Para $f(x, y) = \frac{x^3y}{x^6 + y^2}$ en $(0,0)$, si se toma la curva $y=x^3$, el límite difiere de otros caminos, indicando que el límite no existe. La elección de la curva $y=x^3$ se debe a la estructura de las potencias en la función [22](#page=22) [23](#page=23).
* **Regla del emparedado:** Si $g(x, y) \le f(x, y) \le h(x, y)$ en un disco alrededor de $(a, b)$ y $\lim_{(x,y) \to (a,b)} g(x, y) = \lim_{(x,y) \to (a,b)} h(x, y) = l$, entonces $\lim_{(x,y) \to (a,b)} f(x, y) = l$ [23](#page=23).
> **Ejemplo:** Para $f(x, y) = \frac{x^2y}{x^2 + y^4}$ en $(0,0)$, utilizando la regla del emparedado se demuestra que el límite es $0$ [24](#page=24).
* **Propiedad del producto:** Si $\lim_{(x,y) \to (a,b)} f(x, y) = 0$ y $g$ es una función acotada cerca de $(a,b)$, entonces $\lim_{(x,y) \to (a,b)} f(x,y)g(x,y) = 0$ [25](#page=25).
* **Coordenadas polares:** Para funciones de dos variables, se puede realizar un cambio a coordenadas polares centradas en $(a,b)$: $x = a + \rho \cos \theta$, $y = b + \rho \sin \theta$. Se evalúa el límite cuando $\rho \to 0$ [25](#page=25).
1. Si el límite de $F(\rho, \theta)$ depende de $\theta$, el límite no existe.
2. Si $0 \le |F(\rho, \theta) - l| \le h(\rho)$ y $h(\rho) \to 0$ cuando $\rho \to 0$, entonces el límite es $l$.
3. En otros casos, no se puede concluir nada [25](#page=25).
> **Ejemplo:** Para $f(x, y) = \frac{x^3}{x^2 + y^2}$ en $(0,0)$, el cambio a polares resulta en $f(\rho \cos \theta, \rho \sin \theta) = \rho \cos^3 \theta$. Como $\rho \to 0$ y $\cos \theta$ está acotado, el límite es $0$ [25](#page=25).
### 2.3 Continuidad de funciones de varias variables
Una función $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ es continua en un punto $(a, b) \in D$ si $\lim_{(x,y) \to (a,b)} f(x, y) = f(a,b)$. Si esta condición no se cumple, la función es discontinua en $(a, b)$. Una función es continua en un conjunto $A \subset D$ si es continua en cada punto de $A$ [26](#page=26).
Las propiedades de los límites y la definición de continuidad implican que el producto por una constante, la suma, el producto, el cociente (donde el denominador no se anula) y la composición de funciones continuas son también continuas en sus respectivos dominios de definición [26](#page=26).
* Los monomios $c x^n y^m$ son continuos en $\mathbb{R}^2$.
* Los polinomios (suma de monomios) son continuos en $\mathbb{R}^2$.
* Las funciones racionales $\frac{P(x, y)}{Q(x, y)}$ son continuas donde $Q(x, y) \neq 0$.
* Funciones como exponenciales, raíces, logaritmos y trigonométricas son continuas donde están definidas y cumplen las condiciones de continuidad de sus argumentos [26](#page=26) [27](#page=27).
> **Ejemplo:** $f(x, y) = e^{x^2+y}$ es continua en $\mathbb{R}^2$ porque $x^2+y$ y la función exponencial son continuas [27](#page=27).
> **Ejemplo:** La función $f(x, y) = \frac{x^3}{x^2 + y^2}$ para $(x,y) \neq (0,0)$ y $f(0,0) = 0$ es continua en $(0,0)$ porque su límite en $(0,0)$ es $0$, que coincide con $f(0,0)$ [27](#page=27).
> **Ejemplo:** La función $f(x, y) = \frac{x^2}{x^2 + y^2}$ para $(x,y) \neq (0,0)$ y $f(0,0) = 0$ es discontinua en $(0,0)$ porque el límite depende del camino de aproximación. Sin embargo, es continua en $\mathbb{R}^2 \setminus \{(0,0)\}$ [27](#page=27).
---
# Derivadas parciales, gradiente y derivadas de orden superior
Aquí tienes un resumen detallado y completo del tema "Derivadas parciales, gradiente y derivadas de orden superior", basado en el contenido proporcionado.
## 3. Derivadas parciales, gradiente y derivadas de orden superior
Este tema generaliza el concepto de derivada a funciones de varias variables, explorando las derivadas parciales, la interpretación geométrica, el gradiente y las derivadas de orden superior.
### 3.1 Derivada parcial
Las derivadas parciales extienden el concepto de derivada de funciones de una variable a funciones de varias variables [28](#page=28).
#### 3.1.1 Definición y notación
Para una función $g: D \subset \mathbb{R}^2 \to \mathbb{R}$ definida en un conjunto abierto $D$, la derivada parcial con respecto a $x$ en un punto $(a, b) \in D$ se define como el límite:
$$ \frac{\partial g}{\partial x}(a, b) = \lim_{h \to 0} \frac{g(a + h, b) - g(a, b)}{h} $$
siempre que el límite exista. Geométricamente, representa la pendiente de la recta tangente a la curva formada por la intersección de la gráfica de $g$ con el plano $y = b$ [29](#page=29).
De manera análoga, la derivada parcial con respecto a $y$ en el punto $(a, b) \in D$ es:
$$ \frac{\partial g}{\partial y}(a, b) = \lim_{h \to 0} \frac{g(a, b + h) - g(a, b)}{h} $$
siempre que exista. Esta derivada representa la pendiente de la recta tangente a la curva formada por la intersección de la gráfica de $g$ con el plano $x = a$ en el punto $(a, b, g(a, b))$ [30](#page=30).
Existen diversas notaciones para las derivadas parciales:
* Con respecto a la primera variable (generalmente $x$): $\frac{\partial g}{\partial x}$, $g_x$, $D_1 g$ [30](#page=30).
* Con respecto a la segunda variable (generalmente $y$): $\frac{\partial g}{\partial y}$, $g_y$, $D_2 g$ [30](#page=30).
#### 3.1.2 Cálculo de derivadas parciales
El cálculo de derivadas parciales se simplifica al tratar la variable respecto a la cual se deriva como la variable principal y las demás como constantes [31](#page=31).
> **Tip:** Para calcular derivadas parciales, aplica las reglas de derivación habituales, pero considera las variables no involucradas en la derivación como constantes.
**Ejemplo:** Para $f(x, y) = x^2 y^3$:
* $\frac{\partial f}{\partial x}(x, y) = 2x y^3$ (tratando $y$ como constante) [31](#page=31).
* $\frac{\partial f}{\partial y}(x, y) = x^2 (3y^2) = 3x^2 y^2$ (tratando $x$ como constante) [31](#page=31).
#### 3.1.3 Derivadas parciales para funciones de más de dos variables
El concepto de derivada parcial se extiende a funciones de tres o más variables. Para una función $f(x_1, x_2, \ldots, x_n)$, la derivada parcial con respecto a $x_k$ en un punto $(a_1, a_2, \ldots, a_n)$ se define como la derivada de la función de una variable $h(x_k) = f(a_1, \ldots, a_{k-1}, x_k, a_{k+1}, \ldots, a_n)$ en $x_k = a_k$ [33](#page=33).
**Ejemplo:** Para $f(x, y, z) = xyz^2$:
* $\frac{\partial f}{\partial x}(x, y, z) = yz^2$ [33](#page=33).
* $\frac{\partial f}{\partial y}(x, y, z) = xz^2$ [33](#page=33).
* $\frac{\partial f}{\partial z}(x, y, z) = 2xyz$ [33](#page=33).
#### 3.1.4 Continuidad y existencia de derivadas parciales
Es importante notar que una función puede tener derivadas parciales en un punto sin ser continua en él, a diferencia de las funciones de una variable donde la diferenciabilidad implica continuidad [32](#page=32).
**Ejemplo:** La función $f(x, y) = \begin{cases} \frac{\arctan(xy)}{x^2+y^2} & \text{si } (x,y) \neq (0,0) \\ 0 & \text{si } (x, y) = (0,0) \end{cases}$ no es continua en $(0,0)$, pero sus derivadas parciales existen en $(0,0)$ y son ambas cero [32](#page=32).
### 3.2 Gradiente
Si una función $f$ de dos variables admite derivadas parciales en un punto $(a, b)$, el vector gradiente de $f$ en $(a, b)$ se define como el vector formado por sus derivadas parciales en ese punto [33](#page=33).
#### 3.2.1 Definición y notación
El gradiente de $f$ en $(a, b)$ se denota como $\nabla f(a, b)$ y se define:
$$ \nabla f(a, b) = \left( \frac{\partial f}{\partial x}(a, b), \frac{\partial f}{\partial y}(a, b) \right) $$
Este vector existe en los puntos donde existen ambas derivadas parciales [33](#page=33).
#### 3.2.2 Gradiente para funciones de n variables
Para una función $f$ de $n$ variables $x_1, x_2, \ldots, x_n$, el gradiente en el punto $(a_1, a_2, \ldots, a_n)$ es un vector de $n$ componentes:
$$ \nabla f(a_1, a_2, \ldots, a_n) = \left( \frac{\partial f}{\partial x_1}(a_1, \ldots, a_n), \ldots, \frac{\partial f}{\partial x_n}(a_1, \ldots, a_n) \right) $$
[34](#page=34).
**Ejemplo:** Para $f(x, y) = e^{x+y} + \arctan(x^2+1)$:
* $\frac{\partial f}{\partial x}(x, y) = e^{x+y} + \frac{2x}{x^2+1}$ [34](#page=34).
* $\frac{\partial f}{\partial y}(x, y) = e^{x+y}$ [34](#page=34).
* El gradiente en $(0,0)$ es $\nabla f(0,0) = (1, 1)$ [34](#page=34).
#### 3.2.3 Propiedad del gradiente y curvas de nivel
El vector gradiente en un punto es perpendicular a la curva de nivel que pasa por ese punto [34](#page=34).
### 3.3 Derivadas de orden superior
Se pueden calcular derivadas de las derivadas parciales, dando lugar a derivadas de orden superior.
#### 3.3.1 Derivadas parciales segundas
Si una función $f(x, y)$ tiene derivada parcial $\frac{\partial f}{\partial x}$, esta es a su vez una función que puede tener sus propias derivadas parciales. La derivada de $\frac{\partial f}{\partial x}$ con respecto a $x$ es la derivada parcial segunda $\frac{\partial^2 f}{\partial x^2}$, y la derivada de $\frac{\partial f}{\partial x}$ con respecto a $y$ es la derivada parcial mixta $\frac{\partial^2 f}{\partial y \partial x}$ [35](#page=35).
Para una función de dos variables, existen cuatro derivadas parciales segundas posibles:
* $\frac{\partial^2 f}{\partial x^2}$
* $\frac{\partial^2 f}{\partial y \partial x}$
* $\frac{\partial^2 f}{\partial x \partial y}$
* $\frac{\partial^2 f}{\partial y^2}$
. La notación para estas derivadas también varía, incluyendo $f_{xx}, f_{yx}, f_{xy}, f_{yy}$ [36](#page=36).
#### 3.3.2 Matriz Hessiana
Para una función que admite todas las derivadas parciales de segundo orden en un punto, se puede definir la matriz Hessiana. Para una función $f$ de dos variables en el punto $(a, b)$, la matriz Hessiana $H_f(a,b)$ es:
$$ H_f(a,b) = \begin{pmatrix} \frac{\partial^2 f}{\partial x^2}(a, b) & \frac{\partial^2 f}{\partial x \partial y}(a, b) \\ \frac{\partial^2 f}{\partial y \partial x}(a, b) & \frac{\partial^2 f}{\partial y^2}(a, b) \end{pmatrix} $$
. La matriz Hessiana proporciona información sobre el comportamiento local de la función, similar a cómo la segunda derivada lo hace para funciones de una variable [37](#page=37).
**Ejemplo:** Para $f(x, y) = \ln(x^2 + e^y)$:
* $\frac{\partial f}{\partial x}(x, y) = \frac{2x}{x^2 + e^y}$ [37](#page=37).
* $\frac{\partial f}{\partial y}(x, y) = \frac{e^y}{x^2 + e^y}$ [37](#page=37).
* $\frac{\partial^2 f}{\partial x^2}(x, y) = \frac{2(x^2 + e^y) - 2x(2x)}{(x^2 + e^y)^2} = \frac{2e^y - 2x^2}{(x^2 + e^y)^2}$ [37](#page=37).
* $\frac{\partial^2 f}{\partial y^2}(x, y) = \frac{e^y(x^2 + e^y) - e^y(e^y)}{(x^2 + e^y)^2} = \frac{x^2 e^y}{(x^2 + e^y)^2}$ [37](#page=37).
* $\frac{\partial^2 f}{\partial x \partial y}(x, y) = \frac{-2x e^y}{(x^2 + e^y)^2}$ [37](#page=37).
* $\frac{\partial^2 f}{\partial y \partial x}(x, y) = \frac{-2x e^y}{(x^2 + e^y)^2}$ [37](#page=37).
* La matriz Hessiana en $(1,0)$ es:
$$ H_f(1,0) = \begin{pmatrix} -1/4 & -1/4 \\ -1/4 & 1/4 \end{pmatrix} $$
[37](#page=37).
#### 3.3.3 Teorema de Clairaut (Igualdad de derivadas cruzadas)
El teorema de Clairaut establece condiciones bajo las cuales las derivadas parciales mixtas son iguales.
**Teorema:** Sea $f$ una función con derivadas parciales continuas en un conjunto abierto $D$. Si existen $\frac{\partial^2 f}{\partial y \partial x}$ y $\frac{\partial^2 f}{\partial x \partial y}$ en todos los puntos de $D$, y $\frac{\partial^2 f}{\partial y \partial x}$ es continua en $(a,b) \in D$, entonces existe $\frac{\partial^2 f}{\partial x \partial y}(a,b)$ y además:
$$ \frac{\partial^2 f}{\partial y \partial x}(a, b) = \frac{\partial^2 f}{\partial x \partial y}(a, b) $$
[38](#page=38).
**Ejemplo:** Si se sabe que para una función $f: \mathbb{R}^2 \to \mathbb{R}$, las derivadas parciales son continuas y $\frac{\partial^2 f}{\partial y \partial x}(x, y) = \sin(xy)$, entonces para calcular $\frac{\partial^2 f}{\partial x \partial y}(0,1)$, se aplica el teorema:
$$ \frac{\partial^2 f}{\partial x \partial y}(0,1) = \frac{\partial^2 f}{\partial y \partial x}(0,1) = \sin(0 \cdot 1) = 0 $$
[38](#page=38).
---
# Derivada direccional y tasas de cambio
La derivada direccional extiende el concepto de tasa de cambio de una función de varias variables a direcciones arbitrarias, permitiendo analizar el comportamiento de la función en cualquier sentido y determinando las direcciones de máximo ascenso y descenso a través del gradiente [39](#page=39) [41](#page=41).
### 4.1 Definición de derivada direccional
La derivada direccional de una función de dos variables $f(x, y)$ en un punto $(a, b)$ y en la dirección de un vector unitario $\vec{v} = (v_1, v_2)$ se define como el límite de la razón de cambio de la función a lo largo de esa dirección:
$$D_{\vec{v}}f(a, b) = \lim_{h \to 0} \frac{f(a + hv_1, b + hv_2) - f(a, b)}{h}$$
siempre que el límite exista [39](#page=39).
Esta definición es una generalización de las derivadas parciales. Específicamente, para los vectores unitarios canónicos $\vec{e}_1 = (1, 0)$ y $\vec{e}_2 = (0, 1)$:
* $D_{\vec{e}_1}f(a, b) = \frac{\partial f}{\partial x}(a, b)$ [40](#page=40).
* $D_{\vec{e}_2}f(a, b) = \frac{\partial f}{\partial y}(a, b)$ [40](#page=40).
Geométricamente, la derivada direccional representa la pendiente de la recta tangente a la curva de intersección de la gráfica de la función $f(x, y)$ con un plano que contiene al punto $(a, b, f(a, b))$ y es paralelo al vector $\vec{v} = (v_1, v_2, 0)$ en el espacio tridimensional. El vector director de esta recta tangente es $(v_1, v_2, D_{\vec{v}}f(a, b))$ [40](#page=40).
> **Tip:** La definición formal de la derivada direccional requiere que el límite exista. Sin embargo, existen métodos más sencillos para calcularla si se cumplen ciertas condiciones sobre las derivadas parciales de la función.
### 4.2 Cálculo de derivadas direccionales mediante el gradiente
Si una función $f$ admite derivadas parciales en un entorno del punto $(a, b)$ y estas derivadas parciales son continuas en $(a, b)$, entonces la derivada direccional en la dirección de un vector unitario $\vec{v} = (v_1, v_2)$ puede calcularse eficientemente mediante el producto escalar del gradiente de $f$ en $(a, b)$ por $\vec{v}$:
$$D_{\vec{v}}f(a, b) = \nabla f(a, b) \cdot \vec{v}$$
donde $\nabla f(a, b) = \left(\frac{\partial f}{\partial x}(a, b), \frac{\partial f}{\partial y}(a, b)\right)$ es el vector gradiente de $f$ en $(a, b)$ [40](#page=40) [41](#page=41).
Esta relación se generaliza fácilmente a funciones de $n$ variables, donde el gradiente es un vector con $n$ componentes y $\vec{v}$ es un vector unitario en $\mathbb{R}^n$ [40](#page=40).
> **Tip:** La continuidad de las derivadas parciales es una condición *suficiente* para aplicar esta fórmula del gradiente, pero no es *necesaria*. Existen funciones que admiten derivadas direccionales en todas las direcciones sin que sus derivadas parciales sean continuas en el punto [41](#page=41).
#### Ejemplo de cálculo
Calcular la derivada direccional $D_{\vec{v}}f(1, 0)$ para $f(x, y) = x^2y + y^3$, donde $\vec{v} = (\frac{1}{\sqrt{5}}, \frac{2}{\sqrt{5}})$ [40](#page=40).
1. **Calcular las derivadas parciales:**
$\frac{\partial f}{\partial x}(x, y) = 2xy$
$\frac{\partial f}{\partial y}(x, y) = x^2 + 3y^2$
Estas derivadas parciales son continuas en todo $\mathbb{R}^2$ [40](#page=40) [41](#page=41).
2. **Evaluar las derivadas parciales en el punto (1, 0):**
$\frac{\partial f}{\partial x}(1, 0) = 2 = 0$ [1](#page=1).
$\frac{\partial f}{\partial y}(1, 0) = ^2 + 3 ^2 = 1$ [1](#page=1).
3. **Formar el vector gradiente en (1, 0):**
$\nabla f(1, 0) = (0, 1)$
4. **Calcular el producto escalar con el vector dirección unitario:**
$D_{\vec{v}}f(1, 0) = \nabla f(1, 0) \cdot \vec{v} = (0, 1) \cdot \left(\frac{1}{\sqrt{5}}, \frac{2}{\sqrt{5}}\right) = 0 \cdot \frac{1}{\sqrt{5}} + 1 \cdot \frac{2}{\sqrt{5}} = \frac{2}{\sqrt{5}}$ [41](#page=41).
> **Example:** Para $f(x, y) = x^2y + y^3$ y $\vec{v} = (\frac{1}{\sqrt{5}}, \frac{2}{\sqrt{5}})$ en el punto $(1, 0)$, la derivada direccional es $\frac{2}{\sqrt{5}}$ [41](#page=41).
### 4.3 Direcciones de máxima variación
Un concepto fundamental relacionado con la derivada direccional es la determinación de las direcciones en las que una función cambia más rápidamente (máximo ascenso) o menos rápidamente (máximo descenso) [41](#page=41).
#### Teorema sobre la dirección de máxima variación
Si una función $f$ admite derivadas parciales continuas en $(a, b)$ y el gradiente $\nabla f(a, b)$ es distinto del vector nulo [42](#page=42):
1. **Máxima derivada direccional:** La derivada direccional máxima de $f$ en $(a, b)$ ocurre en la dirección del vector gradiente $\nabla f(a, b)$, es decir, en la dirección del vector unitario $\frac{\nabla f(a, b)}{\|\nabla f(a, b)\|}$. El valor de esta derivada direccional máxima es la norma del gradiente, $\|\nabla f(a, b)\|$ [42](#page=42).
2. **Mínima derivada direccional:** La derivada direccional mínima de $f$ en $(a, b)$ ocurre en la dirección opuesta al gradiente, es decir, en la dirección del vector unitario $-\frac{\nabla f(a, b)}{\|\nabla f(a, b)\|}$. El valor de esta derivada direccional mínima es el negativo de la norma del gradiente, $-\|\nabla f(a, b)\|$ [42](#page=42).
Si el gradiente $\nabla f(a, b)$ es el vector nulo, entonces todas las derivadas direccionales en $(a, b)$ son nulas [42](#page=42).
> **Tip:** Piense en el gradiente como una flecha que señala la dirección de la subida más pronunciada en la superficie definida por la función $f$. Su magnitud indica la rapidez de esa subida.
#### Ejemplo de cálculo de máximos y mínimos direccionales
Calcular las direcciones de las derivadas direccionales máxima y mínima y sus valores para $f(x, y, z) = x^2 - y^2 + z$ en el punto $(1, 1, 1)$ [42](#page=42).
1. **Calcular el gradiente de $f$:**
$\nabla f(x, y, z) = \left(\frac{\partial f}{\partial x}, \frac{\partial f}{\partial y}, \frac{\partial f}{\partial z}\right) = (2x, -2y, 1)$
2. **Evaluar el gradiente en el punto (1, 1, 1):**
$\nabla f(1, 1, 1) = (2 -2 1) = (2, -2, 1)$ [1](#page=1).
3. **Calcular la norma del gradiente:**
$\|\nabla f(1, 1, 1)\| = \sqrt{2^2 + (-2)^2 + 1^2} = \sqrt{4 + 4 + 1} = \sqrt{9} = 3$ [42](#page=42).
4. **Dirección de máxima derivada direccional:**
La dirección es $\frac{\nabla f(1, 1, 1)}{\|\nabla f(1, 1, 1)\|} = \frac{(2, -2, 1)}{3} = \left(\frac{2}{3}, -\frac{2}{3}, \frac{1}{3}\right)$ [42](#page=42).
El valor máximo de la derivada direccional es $\|\nabla f(1, 1, 1)\| = 3$ [43](#page=43).
5. **Dirección de mínima derivada direccional:**
La dirección es $-\frac{\nabla f(1, 1, 1)}{\|\nabla f(1, 1, 1)\|} = -\left(\frac{2}{3}, -\frac{2}{3}, \frac{1}{3}\right) = \left(-\frac{2}{3}, \frac{2}{3}, -\frac{1}{3}\right)$ [42](#page=42).
El valor mínimo de la derivada direccional es $-\|\nabla f(1, 1, 1)\| = -3$ [43](#page=43).
> **Example:** Para la función $f(x, y, z) = x^2 - y^2 + z$ en el punto $(1, 1, 1)$, la dirección de máximo ascenso es $(\frac{2}{3}, -\frac{2}{3}, \frac{1}{3})$ con una tasa de cambio de $3$ unidades por unidad de distancia, y la dirección de máximo descenso es $(-\frac{2}{3}, \frac{2}{3}, -\frac{1}{3})$ con una tasa de cambio de $-3$ unidades por unidad de distancia [42](#page=42) [43](#page=43).
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Término | Definición |
|---|---|
| Espacio R" | El conjunto R" es el producto cartesiano de n copias de los números reales (R x R x ... x R). Sus elementos son n-uplas de la forma (x1, x2, ..., xn), donde cada x¡ pertenece a R. Este espacio generaliza la recta (R) y el plano (R2) a dimensiones superiores y se utiliza para representar puntos o vectores en n dimensiones. |
| Base canónica | La base canónica de R" está formada por n vectores unitarios, donde cada vector tiene un 1 en una posición y 0 en las demás. Por ejemplo, en R3, la base canónica es e1=(1,0,0), e2=(0,1,0), e3=(0,0,1). Cualquier vector en R" puede expresarse como una combinación lineal de estos vectores base. |
| Producto escalar | El producto escalar de dos vectores 7 = (x1, ..., xn) y j = (y1, ..., yn) en R" es un número real dado por la suma de los productos de sus componentes correspondientes: 7 · j = x1y1 + ... + xnyn = Σ(i=1 hasta n) xiyi. Es fundamental para definir la norma y la distancia entre vectores. |
| Norma de un vector | La norma de un vector ī = (x1, ..., xn) en R" es su longitud o magnitud, definida como ||x|| = sqrt(x · x) = sqrt(x1^2 + ... + xn^2). Los vectores con norma uno se denominan vectores unitarios. |
| Distancia entre puntos | La distancia entre dos puntos o vectores x e y en R" se define utilizando la norma de su diferencia: d(x, y) = ||x - y|| = sqrt((y1-x1)^2 + ... + (yn-xn)^2). Esta definición generaliza la noción de distancia euclidiana. |
| Disco abierto | Un disco abierto en R2 con centro (a, b) y radio r es el conjunto de puntos (x, y) tales que la distancia al centro es menor que el radio: {(x, y) E R2 : d((a, b), (x, y)) < r}. Representa una región circular sin incluir su borde. |
| Conjunto abierto | Un conjunto C en R" es abierto si para cada punto en C existe una bola abierta centrada en ese punto que está completamente contenida en C. Los discos abiertos y R" son ejemplos de conjuntos abiertos. |
| Conjunto cerrado | Un conjunto C en R" es cerrado si contiene todos sus puntos frontera. El complemento de un conjunto abierto es un conjunto cerrado, y viceversa. El conjunto vacío y R" son tanto abiertos como cerrados. |
| Coordenadas polares | Un sistema de coordenadas en R2 que utiliza la distancia (p) a un punto de referencia (el origen) y el ángulo (0) con un eje fijo (generalmente el eje x). Permite describir puntos mediante (p, 0) en lugar de (x, y). |
| Coordenadas cilíndricas | Una extensión de las coordenadas polares a R3, utilizando la distancia y el ángulo en el plano xy (p, 0) y manteniendo la coordenada z sin cambios. Son útiles para describir cilindros y superficies de revolución. |
| Coordenadas esféricas | Un sistema de coordenadas en R3 que utiliza la distancia (p) al origen, un ángulo azimutal (0) en el plano xy y un ángulo polar (y) con el eje z. Son adecuadas para describir esferas y conos. |
| Función de varias variables | Una función f : D C R" -> R que asigna a cada n-upla (x1, ..., xn) en un subconjunto D de R" un único número real f(x1, ..., xn). |
| Límite de una función en un punto | El límite de una función f(x, y) cuando (x, y) tiende a (a, b) es l si los valores de f(x, y) se aproximan arbitrariamente a l a medida que (x, y) se acerca a (a, b) por cualquier camino. |
| Continuidad de una función | Una función f es continua en un punto (a, b) si el límite de f cuando (x, y) tiende a (a, b) existe y es igual a f(a, b). |
| Derivada parcial | La derivada parcial de una función g(x, y) con respecto a x en un punto (a, b) mide la tasa de cambio de g al variar x, manteniendo y constante. Se calcula como el límite de la diferencia del cociente o, más comúnmente, derivando g(x, b) respecto a x. |
| Gradiente | El gradiente de una función f(x, y) en un punto (a, b), denotado por Vf(a, b), es un vector cuyas componentes son las derivadas parciales de f en ese punto: Vf(a, b) = (∂f/∂x(a, b), ∂f/∂y(a, b)). Indica la dirección de máximo crecimiento de la función. |
| Derivadas de orden superior | Son las derivadas de las derivadas parciales. Por ejemplo, la segunda derivada parcial con respecto a x se denota como ∂²f/∂x². Las derivadas parciales cruzadas (como ∂²f/∂x∂y y ∂²f/∂y∂x) son iguales si se cumplen ciertas condiciones de continuidad. |
| Matriz Hessiana | Para una función f(x, y), la matriz Hessiana Hf(a,b) es una matriz cuadrada cuyas entradas son las segundas derivadas parciales de f en el punto (a, b). Es útil para clasificar puntos críticos. |
| Derivada direccional | La derivada direccional de una función f en un punto (a, b) en la dirección de un vector unitario v mide la tasa de cambio de f en esa dirección específica. Se puede calcular como el producto escalar del gradiente de f por el vector direccional. |
| Curvas de nivel | Las curvas de nivel de una función f(x, y) son las curvas en el plano xy donde la función toma un valor constante, es decir, f(x, y) = k. El vector gradiente en un punto es perpendicular a la curva de nivel que pasa por ese punto. |
Cover
CÁLCULO TEORÍA 5.pdf
Summary
# La diferencial de una función
Este tema generaliza el concepto de derivada para funciones de varias variables, introduciendo la noción de diferenciabilidad y el plano tangente como aproximación local de la gráfica de la función [2](#page=2).
### 1.1 Motivación e introducción
Para funciones de una variable, la existencia de la derivada en un punto implica continuidad en dicho punto, debido a que la gráfica de la función puede ser aproximada localmente por una recta tangente. Esta idea se extiende a funciones de varias variables, donde la aproximación local por una recta se generaliza a un plano tangente para funciones de dos variables [2](#page=2) [3](#page=3).
### 1.2 Función diferenciable. Plano tangente
Para una función $f$ de dos variables, la existencia de derivadas parciales en un punto $(a, b)$ garantiza la posibilidad de aproximar localmente la gráfica por una recta en la dirección de los ejes coordenados. Sin embargo, para funciones de varias variables, esto no es suficiente. Se busca una aproximación local que independientemente de la dirección [3](#page=3).
Para funciones de dos variables, el papel de la recta tangente lo desempeña un plano tangente. Si una función $f$ admite derivadas parciales en $(a, b)$, se puede definir un plano que pasa por el punto $(a, b, f(a, b))$ y contiene las rectas tangentes a las curvas de la gráfica de $f$ en la dirección de los ejes $x$ e $y$. Los vectores directores de estas rectas tangentes son $(1, 0, \frac{\partial f}{\partial x}(a,b))$ y $(0, 1, \frac{\partial f}{\partial y}(a,b))$ [3](#page=3).
La ecuación de este plano puede obtenerse mediante la ecuación paramétrica vectorial:
$$(x, y, z) = (a, b, f(a,b)) + \lambda (1, 0, \frac{\partial f}{\partial x}(a,b)) + \mu (0, 1, \frac{\partial f}{\partial y}(a,b)), \quad \lambda, \mu \in \mathbb{R}$$ [3](#page=3).
Alternativamente, utilizando la dependencia lineal de los vectores $(x-a, y-b, z-f(a,b))$, $(1, 0, \frac{\partial f}{\partial x}(a,b))$ y $(0, 1, \frac{\partial f}{\partial y}(a,b))$, se obtiene el determinante nulo:
$$ \begin{vmatrix} x-a & y-b & z-f(a,b) \\ 1 & 0 & \frac{\partial f}{\partial x}(a,b) \\ 0 & 1 & \frac{\partial f}{\partial y}(a,b) \end{vmatrix} = 0 $$ [4](#page=4).
Desarrollando este determinante, se llega a la ecuación del plano:
$$ \frac{\partial f}{\partial x}(a, b) (x-a) - \frac{\partial f}{\partial y}(a,b) (y-b) + z - f(a,b) = 0 $$ [4](#page=4).
Reordenando, se obtiene:
$$ z = f(a,b) + \frac{\partial f}{\partial x}(a,b) (x-a) + \frac{\partial f}{\partial y}(a,b) (y-b) $$ [4](#page=4).
Esta ecuación se puede expresar de forma compacta usando el producto escalar del gradiente:
$$ z = f(a,b) + \nabla f(a,b) \cdot (x-a, y-b) $$ [4](#page=4).
### 1.3 Definición de diferenciabilidad
La existencia de derivadas parciales en un punto no garantiza la existencia del plano tangente, ya que una función puede tener derivadas parciales en un punto y ser discontinua en él. Si el plano tangente existe, debe ser el definido por las derivadas parciales, ya que contiene al menos dos rectas tangentes a curvas de la superficie [4](#page=4) [5](#page=5).
**Definición 5.1** Una función de dos variables $f$ es diferenciable en $(a, b)$ si:
$$ \lim_{(h,k) \to (0,0)} \frac{f(a+h,b+k) - f(a,b) - \nabla f(a,b) \cdot (h,k)}{||(h, k)||} = 0 $$ [5](#page=5).
Este límite indica que el numerador tiende a cero más rápidamente que el denominador. La expresión $f(a, b) + \nabla f(a,b) \cdot (h,k)$ coincide con la $z$ del plano (5.1) si tomamos $(x, y) = (a+h, b+k)$. Por lo tanto, si el límite es cero, la gráfica de $f$ y el plano (5.1) se aproximan de forma más rápida en el punto $(a,b)$ que la distancia del vector al origen. A un plano con esta propiedad se le llama plano tangente [5](#page=5).
**Ecuación del plano tangente:**
$$ z = f(a, b) + \nabla f(a, b) \cdot (x -a, y -b) $$ [5](#page=5).
**Definición 5.2** Una función de $n$ variables $f$ es diferenciable en $(a_1, \dots, a_n)$ si:
$$ \lim_{h \to 0} \frac{f(a_1 + h_1, \dots, a_n + h_n) - f(a_1, \dots, a_n) - \nabla f(a_1, \dots, a_n) \cdot h}{||h||} = 0 $$ [6](#page=6).
donde $h = (h_1, h_2, \dots, h_n)$.
Para que una función sea diferenciable en un punto, es necesario que existan todas sus derivadas parciales en ese punto, ya que el gradiente $\nabla f$ está compuesto por ellas. La diferenciabilidad también implica continuidad, ya que la aproximación lineal local exige continuidad [7](#page=7).
**Teorema 5.1** Si $f$ es diferenciable en un punto, entonces:
* Admite derivadas parciales en ese punto [7](#page=7).
* Es continua en ese punto [7](#page=7).
> **Tip:** La continuidad y la existencia de derivadas parciales son condiciones necesarias pero no suficientes para la diferenciabilidad.
#### 1.3.1 Ejemplo de no diferenciabilidad
* **Función $f(x,y)$:**
$$ f(x,y) = \begin{cases} xy+1, & x>0 \\ x-y, & x \le 0 \end{cases} $$
Esta función no es diferenciable en $(0,0)$ porque es discontinua en ese punto. Al acercarse por el semiplano $x>0$, el límite de $f(x,y)$ es 1, mientras que $f(0,0)=0$ [7](#page=7).
* **Función $g(x,y) = x + |y|$**
Esta función es continua en $(0,0)$ ($\lim_{(x,y)\to(0,0)} (x+|y|) = 0 = g(0,0)$). Sin embargo, no es diferenciable en $(0,0)$ porque la derivada parcial con respecto a $y$ no existe en ese punto. El límite para calcular $\frac{\partial g}{\partial y}(0,0)$ difiere si se acerca por la derecha o por la izquierda (-1) [1](#page=1) [7](#page=7).
### 1.4 Condición suficiente de diferenciabilidad
Una condición importante para garantizar la diferenciabilidad y la existencia del plano tangente se basa en la continuidad de las derivadas parciales.
**Condición suficiente de diferenciabilidad:** Si una función de $n$ variables $f$ admite derivadas parciales cerca de $(a_1, \dots, a_n)$ y estas derivadas parciales son continuas en $(a_1, \dots, a_n)$, entonces $f$ es diferenciable en $(a_1, \dots, a_n)$ [8](#page=8).
Se considera una función **regular** si es continua y tiene derivadas parciales continuas [8](#page=8).
#### 1.4.1 Ejemplo de diferenciabilidad
* **Función $f(x,y) = \sin(\frac{1}{x^2+y^2})$**
Esta función es una composición de una función racional y una función trigonométrica. Por lo tanto, admite derivadas parciales en todo su dominio ($\mathbb{R}^2 \setminus \{(0,0)\}$), y estas derivadas parciales son continuas en su dominio. Según la condición suficiente, $f$ es diferenciable en cualquier punto de su dominio. No se puede hablar de su diferenciabilidad en $(0,0)$ por no pertenecer este punto a su dominio [8](#page=8).
### 1.5 La diferencial de una función
Para funciones de $n$ variables, la aproximación lineal se generaliza. Para $n=2$, la aproximación lineal es un plano. Para $n>2$, la aproximación lineal es un espacio tangente de dimensión $n$ [8](#page=8).
La ecuación del espacio tangente a la gráfica de una función diferenciable $f$ de $n$ variables en el punto $(a_1, \dots, a_n)$ es:
$$ x_{n+1} = f(a_1, \dots, a_n) + \nabla f(a_1, \dots, a_n) \cdot (x_1 - a_1, \dots, x_n - a_n) $$ [9](#page=9).
**Definición 5.3** La **diferencial** de una función diferenciable $f$ en un punto $(a_1, \dots, a_n)$, denotada como $Df(a_1, \dots, a_n)$, es la aplicación lineal que define la ecuación (5.3) [9](#page=9).
Para una función de dos variables $f$ diferenciable en $(a, b)$:
$$ Df(a,b)(x,y) = \nabla f(a,b) \cdot (x,y) $$ [9](#page=9).
Para una función de $n$ variables $f$ diferenciable en $(a_1, \dots, a_n)$:
$$ Df(a_1, \dots, a_n)(x_1, \dots, x_n) = \nabla f(a_1, \dots, a_n) \cdot (x_1, \dots, x_n) $$ [9](#page=9).
Por lo tanto, la matriz asociada a la aplicación lineal que define la diferencial es el gradiente de la función [9](#page=9).
#### 1.5.1 Ejemplo de cálculo de la diferencial
* **Calcular la diferencial en el punto (1, 2) de $f(x, y) = x^2 + y$.**
La función es polinómica, por lo que tiene derivadas parciales continuas en todo su dominio y es diferenciable en todos los puntos de $\mathbb{R}^2$ [9](#page=9).
Necesitamos calcular las derivadas parciales en $(1,2)$:
$\frac{\partial f}{\partial x}(1,2) = 2x |_{(1,2)} = 2 = 2$ [1](#page=1).
$\frac{\partial f}{\partial y}(1,2) = 1 |_{(1,2)} = 1$
El gradiente en $(1,2)$ es $\nabla f(1,2) = (2,1)$.
La diferencial en $(1,2)$ es:
$Df(1,2)(x,y) = \nabla f(1,2) \cdot (x,y) = (2,1) \cdot (x,y) = 2x + y$ [9](#page=9).
**Definición 5.4** Si una función es diferenciable en todos los puntos de un subconjunto $A$ de su dominio, se dice que es diferenciable en $A$ [9](#page=9).
---
# Regla de la cadena y teorema del valor medio
Este tema extiende la regla de la cadena a funciones de varias variables, introduce el teorema del valor medio generalizado, y discute sus aplicaciones, junto con los conceptos de segmento y conjuntos convexos.
### 2.1 Regla de la cadena
La regla de la cadena se refiere a cómo se comporta la diferenciabilidad bajo la composición de funciones, permitiendo calcular derivadas o gradientes de funciones compuestas a partir de las derivadas o gradientes de las funciones que las componen [12](#page=12) [14](#page=14).
#### 2.1.1 Propiedades de las funciones diferenciables
Las funciones constantes son diferenciables y su diferencial es la aplicación lineal nula. Las sumas, productos y productos por escalares de funciones diferenciables también son diferenciables, siguiendo reglas análogas a las de una sola variable [10](#page=10) [11](#page=11):
* $D(f + g)(\bar{a}) = Df(\bar{a}) + Dg(\bar{a})$ [10](#page=10).
* $D(cf)(\bar{a}) = cDf(\bar{a})$ [10](#page=10).
* $D(f \cdot g)(\bar{a}) = Df(\bar{a})g(\bar{a}) + f(\bar{a})Dg(\bar{a})$ [10](#page=10).
El cociente $f/g$ de funciones diferenciables es diferenciable si $g(\bar{a}) \neq 0$ y se cumple:
$$D(f/g)(\bar{a}) = \frac{Df(\bar{a})g(\bar{a}) - f(\bar{a})Dg(\bar{a})}{(g(\bar{a}))^2}$$
> **Tip:** Estas reglas son fundamentales para el desarrollo teórico en el que intervienen funciones arbitrarias, aunque a veces el cálculo directo del gradiente sea más sencillo [11](#page=11).
#### 2.1.2 Cálculo de derivadas de funciones compuestas
El cálculo de las derivadas parciales para una composición de funciones se puede visualizar mediante diagramas de dependencia.
* **Composición de una función de dos variables con funciones de una variable:** Para $f(g(t), h(t))$, la derivada con respecto a $t$ es:
$$\frac{df}{dt}(t) = \frac{\partial f}{\partial x}(g(t), h(t)) g'(t) + \frac{\partial f}{\partial y}(g(t), h(t)) h'(t)$$
donde $x$ e $y$ son variables mudas que representan las variables de $f$.
> **Example:** Calcular la derivada con respecto a $t$ de $f(e^t, 1+t^2)$ donde $f(x, y) = \sqrt{x} + 2y$.
> Aquí, $g(t) = e^t$ y $h(t) = 1+t^2$. Las derivadas parciales de $f$ son $\frac{\partial f}{\partial x} = \frac{1}{2\sqrt{x}}$ y $\frac{\partial f}{\partial y} = 2$. Las derivadas de $g$ y $h$ son $g'(t) = e^t$ y $h'(t) = 2t$.
> Aplicando la fórmula:
> $\frac{df}{dt} = \frac{1}{2\sqrt{e^t}} (e^t) + 2 (2t) = \frac{e^t}{2e^{t/2}} + 4t = \frac{1}{2}e^{t/2} + 4t$.
> En el punto $(e^t, 1+t^2)$: $\frac{df}{dt} = \frac{1}{2\sqrt{e^t+2(1+t^2)}} e^t + 2(2t) = \frac{e^t}{2\sqrt{e^t+2(1+t^2)}} + 4t$. El ejemplo del documento aplica la fórmula directamente sin calcular explícitamente las variables mudas [13](#page=13).
* **Composición de una función de dos variables con funciones de dos variables:** Para $f(g(u, v), h(u, v))$, las derivadas parciales son:
$$\frac{\partial f}{\partial u}(g(u, v), h(u, v)) = \frac{\partial f}{\partial x}(g(u, v), h(u, v)) \frac{\partial g}{\partial u}(u, v) + \frac{\partial f}{\partial y}(g(u, v), h(u, v)) \frac{\partial h}{\partial u}(u, v)$$
$$\frac{\partial f}{\partial v}(g(u, v), h(u, v)) = \frac{\partial f}{\partial x}(g(u, v), h(u, v)) \frac{\partial g}{\partial v}(u, v) + \frac{\partial f}{\partial y}(g(u, v), h(u, v)) \frac{\partial h}{\partial v}(u, v)$$
#### 2.1.3 Regla de la cadena generalizada
La regla de la cadena se extiende a funciones $f: \mathbb{R}^m \to \mathbb{R}$ y $g_1, \dots, g_m: \mathbb{R}^n \to \mathbb{R}$ diferenciables. Si $f$ es diferenciable en $(g_1(\bar{a}), \dots, g_m(\bar{a}))$ y $g_i$ son diferenciables en $\bar{a} \in \mathbb{R}^n$, entonces la composición $F(\bar{a}) = f(g_1(\bar{a}), \dots, g_m(\bar{a}))$ es diferenciable en $\bar{a}$, y su gradiente se calcula como:
$$\nabla(f(g_1, \dots, g_m))(\bar{a}) = \nabla f(g_1(\bar{a}), \dots, g_m(\bar{a})) \begin{pmatrix} \nabla g_1(\bar{a}) \\ \vdots \\ \nabla g_m(\bar{a}) \end{pmatrix}$$
Esto puede expresarse como:
$$\nabla(f(g_1, \dots, g_m))(\bar{a}) = \sum_{i=1}^m \frac{\partial f}{\partial x_i}(g_1(\bar{a}), \dots, g_m(\bar{a})) \nabla g_i(\bar{a})$$
> **Tip:** El gradiente de la composición es un producto matricial donde la primera matriz es el gradiente de $f$ y la segunda matriz contiene los gradientes de las funciones $g_i$ como filas. Si $n=m=1$, esta regla se reduce a la derivada de una función de una variable [14](#page=14) [16](#page=16).
> **Example:** Calcular la derivada con respecto a $x$ de $f(x, h(x))$, donde $g(x)=x$.
> Aplicando la regla de la cadena:
> $\frac{d}{dx} f(x, h(x)) = \nabla f(x, h(x)) \cdot (1, h'(x))$
> $\frac{d}{dx} f(x, h(x)) = \frac{\partial f}{\partial x}(x, h(x)) \cdot 1 + \frac{\partial f}{\partial y}(x, h(x)) \cdot h'(x)$
> Para $f(x, y) = xy^2$ y $h(x) = e^x$:
> $\nabla f(x, y) = (y^2, 2xy)$. Así, $\nabla f(x, h(x)) = ((e^x)^2, 2x e^x) = (e^{2x}, 2xe^x)$.
> $h'(x) = e^x$.
> $\frac{d}{dx} f(x, e^x) = (e^{2x}) \cdot 1 + (2xe^x) \cdot e^x = e^{2x} + 2xe^{2x} = (2x+1)e^{2x}$ [15](#page=15).
> **Example:** Calcular el gradiente en $(0,0)$ de $f(g(u,v), h(u,v))$ para $f(x,y) = 2x+2y$, $g(u,v) = uv$, $h(u,v) = \sin u + 3$.
> $\nabla f(x, y) = (2,2)$.
> $\nabla g(u,v) = (v, u)$.
> $\nabla h(u,v) = (\cos u, 0)$.
> $g(0,0) = 0$, $h(0,0) = \sin + 3 = 3$ .
> $\nabla(f(g,h))(0,0) = \nabla f(g(0,0), h(0,0)) \begin{pmatrix} \nabla g(0,0) \\ \nabla h(0,0) \end{pmatrix}$
> $\nabla(f(g,h))(0,0) = (2,2) \begin{pmatrix} (0,0) \\ (\cos 0, 0) \end{pmatrix} = (2,2) \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}$
> $\nabla(f(g,h))(0,0) = (2 \cdot 0 + 2 \cdot 1, 2 \cdot 0 + 2 \cdot 0) = (2,0)$ [15](#page=15).
### 2.2 Teorema del valor medio
Este teorema generaliza el teorema del valor medio para funciones de una variable a funciones de varias variables, requiriendo el concepto de segmento y conjunto convexo.
#### 2.2.1 Segmento y conjuntos convexos
* **Segmento:** El segmento que une dos puntos $\bar{a} = (a_1, \dots, a_n)$ y $\bar{b} = (b_1, \dots, b_n)$ en $\mathbb{R}^n$ es el conjunto de puntos $\bar{x}$ de la forma:
$$\bar{x} = (1-\lambda)\bar{a} + \lambda\bar{b}, \quad \lambda \in $$ [1](#page=1).
En $\mathbb{R}^2$, esto describe la línea recta que conecta los dos puntos [17](#page=17).
* **Conjunto convexo:** Un subconjunto $D \subseteq \mathbb{R}^n$ es convexo si para cualquier par de puntos en $D$, el segmento que los une está completamente contenido en $D$ [17](#page=17).
* Ejemplos de conjuntos convexos: discos, bolas, rectas, planos.
* Ejemplos de conjuntos no convexos: una circunferencia (el borde de un disco) [17](#page=17).
> **Example:** Una región que es un círculo completo es un conjunto convexo. Si tomas dos puntos cualesquiera dentro del círculo, la línea recta que los une permanecerá completamente dentro del círculo. Una región con una hendidura o un agujero en el medio no sería un conjunto convexo si pudieras seleccionar dos puntos de tal manera que el segmento que los une pase por el área vacía.
#### 2.2.2 Teorema del valor medio generalizado
Sea $f: D \subseteq \mathbb{R}^n \to \mathbb{R}$ una función continua y con derivadas parciales continuas en $D$. Si el segmento que une dos puntos $\bar{a}$ y $\bar{b}$ de $D$ está contenido en $D$, entonces existe un punto $\bar{c}$ en ese segmento tal que:
$$f(\bar{a}) - f(\bar{b}) = \nabla f(\bar{c}) \cdot (\bar{a} - \bar{b})$$
#### 2.2.3 Aplicaciones del teorema del valor medio
Este teorema permite obtener resultados similares a los de funciones de una variable sobre el crecimiento y decrecimiento de una función.
* Si en un conjunto convexo $A$, las componentes del gradiente de $f$ son estrictamente positivas, entonces $f(\bar{a}) > f(\bar{b})$ si $a_i > b_i$ para todo $i$. Esto implica que $f$ crece al moverse en la dirección de un vector del primer cuadrante [18](#page=18).
* Si en un conjunto convexo $A$, las componentes del gradiente de $f$ son estrictamente negativas, entonces $f(\bar{a}) < f(\bar{b})$ si $a_i > b_i$ para todo $i$. Esto implica que $f$ decrece al moverse en la dirección de un vector del primer cuadrante [18](#page=18).
> **Example:** La función $f(x,y) = x^3 + y^3$ tiene gradiente $\nabla f(x, y) = (3x^2, 3y^2)$. En cualquier punto donde $xy \neq 0$ (es decir, fuera de los ejes), ambas componentes del gradiente son estrictamente positivas. Por lo tanto, en un conjunto convexo (como $\mathbb{R}^2$ excluyendo los ejes), la función crece si aumentan ambas componentes de las variables, siguiendo la dirección de un vector del primer cuadrante [19](#page=19).
---
# Teorema de la función implícita y derivación implícita
Este apartado introduce el teorema de la función implícita, que establece las condiciones bajo las cuales una ecuación implícita puede ser resuelta explícitamente para una variable, y presenta la técnica de derivación implícita para calcular derivadas sin necesidad de despejar la función [20](#page=20).
### 3.1. Motivación y concepto de ecuación implícita
Una ecuación de dos variables, como $x^2 + y^2 = 1$, describe una relación entre ellas. Cuando una de las variables se expresa directamente en términos de la otra, como $y = \sqrt{1-x^2}$, se tiene una ecuación explícita. En contraste, una ecuación de la forma $f(x_1, \ldots, x_n) = 0$ se denomina ecuación implícita, ya que no siempre permite despejar una variable explícitamente [20](#page=20) [21](#page=21).
El objetivo principal es determinar cuándo es posible pasar de una forma implícita a una explícita y, adicionalmente, obtener información sobre la derivada de la función resultante [21](#page=21).
> **Tip:** Pasar de una ecuación explícita a una implícita es sencillo, por ejemplo, $y = x^2$ se puede escribir como $f(x,y) = x^2 - y = 0$ [21](#page=21).
### 3.2. Teorema de la función implícita
El teorema de la función implícita proporciona las condiciones necesarias para garantizar la existencia de una solución explícita y su derivabilidad.
#### 3.2.1. Para funciones de dos variables
Sea $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ una función continua con derivadas parciales continuas en un abierto $D$. Si $(a,b) \in D$ es un punto tal que $f(a,b) = 0$ y la derivada parcial de $f$ respecto a $y$ en $(a,b)$ no es cero, es decir, $\frac{\partial f}{\partial y}(a,b) \neq 0$ entonces [22](#page=22):
* Existen intervalos abiertos $U$ (conteniendo a $a$) y $V$ (conteniendo a $b$) tales que para cada $x \in U$, existe una única función $g: U \to V$ que satisface $f(x, g(x)) = 0$ [22](#page=22).
* Se cumple que $b = g(a)$ [22](#page=22).
* La función $g$ es continua y tiene derivada continua [22](#page=22).
* La derivada de $g$ se puede calcular mediante la fórmula:
$$ \frac{dg}{dx} = -\frac{\frac{\partial f}{\partial x}}{\frac{\partial f}{\partial y}} $$
para todo $x \in U$ y $y \in V$ [22](#page=22).
Si en lugar de $\frac{\partial f}{\partial y}(a,b) \neq 0$, se cumple $\frac{\partial f}{\partial x}(a,b) \neq 0$, entonces se puede despejar $x$ en función de $y$ [22](#page=22).
> **Example:** Para la circunferencia $f(x,y) = x^2 + y^2 - 1 = 0$, las derivadas parciales son $\frac{\partial f}{\partial x} = 2x$ y $\frac{\partial f}{\partial y} = 2y$. Podemos despejar $y$ en función de $x$ donde $\frac{\partial f}{\partial y} = 2y \neq 0$, es decir, $y \neq 0$. En puntos como $(\frac{\sqrt{2}}{2}, \frac{\sqrt{2}}{2})$, $y$ se puede despejar como $y = \sqrt{1-x^2}$. Sin embargo, en $(1,0)$, donde $y=0$, no podemos despejar $y$, pero sí podemos despejar $x$ ya que $\frac{\partial f}{\partial x}(1,0) = 2 = 2 \neq 0$ [1](#page=1) [22](#page=22) [23](#page=23).
#### 3.2.2. Derivación implícita
Una consecuencia directa del teorema de la función implícita es la posibilidad de calcular derivadas sin conocer la expresión explícita de la función. Si la ecuación $f(x,y) = 0$ define implícitamente a $y$ como una función de $x$, denotada por $y(x)$, entonces podemos derivar la ecuación $f(x, y(x)) = 0$ respecto a $x$ usando la regla de la cadena:
$$ \frac{\partial f}{\partial x} \frac{dx}{dx} + \frac{\partial f}{\partial y} \frac{dy}{dx} = 0 $$
Dado que $\frac{dx}{dx} = 1$ y que $f(x, y(x)) = 0$, su derivada también es cero. Esto nos lleva a la fórmula de derivación implícita:
$$ \frac{dy}{dx} = -\frac{\frac{\partial f}{\partial x}}{\frac{\partial f}{\partial y}} $$
Este proceso es conocido como **derivación implícita**. Si las condiciones son adecuadas, se pueden calcular derivadas de orden superior de manera sucesiva [23](#page=23) [25](#page=25).
> **Example:** Consideremos el Folium de Descartes, $f(x,y) = x^3 + y^3 - 3xy = 0$. Las derivadas parciales son $\frac{\partial f}{\partial x} = 3x^2 - 3y$ y $\frac{\partial f}{\partial y} = 3y^2 - 3x$. Para poder escribir $y$ en función de $x$, se requiere $\frac{\partial f}{\partial y} \neq 0$, es decir, $3y^2 - 3x \neq 0$, o $x \neq y^2$. La derivada de $y$ respecto a $x$ es:
>
> $$ \frac{dy}{dx} = -\frac{3x^2 - 3y}{3y^2 - 3x} = \frac{y - x^2}{y^2 - x} $$
>
> Para calcular la segunda derivada, se deriva implícitamente la ecuación $3x^2 + 3y^2\frac{dy}{dx} - 3y - 3x\frac{dy}{dx} = 0$ [25](#page=25).
#### 3.2.3. Aplicaciones a curvas de nivel
El teorema de la función implícita y la derivación implícita son útiles para calcular la pendiente de las curvas de nivel de una función $z = f(x,y)$. Para una curva de nivel $f(x,y) = k$, la pendiente de la recta tangente viene dada por:
$$ \frac{dy}{dx} = -\frac{\frac{\partial f}{\partial x}}{\frac{\partial f}{\partial y}} $$
Esto significa que la pendiente es el negativo del cociente de las componentes del gradiente $\nabla f = (\frac{\partial f}{\partial x}, \frac{\partial f}{\partial y})$ en ese punto [26](#page=26).
> **Example:** Para la función $f(x,y) = x^2 + 3xy - y^2$, consideramos la curva de nivel que pasa por el punto $(1,0)$. Como $f(1,0) = 1^2 + 3 - 0^2 = 1$, la curva de nivel es $x^2 + 3xy - y^2 = 1$. Las derivadas parciales son $\frac{\partial f}{\partial x} = 2x + 3y$ y $\frac{\partial f}{\partial y} = 3x - 2y$. En el punto $(1,0)$, ambas derivadas parciales son distintas de cero. La pendiente de la recta tangente en $(1,0)$ es [1](#page=1):
>
> $$ \frac{dy}{dx}\bigg|_{(1,0)} = -\frac{\frac{\partial f}{\partial x}(1,0)}{\frac{\partial f}{\partial y}(1,0)} = -\frac{2 + 3 }{3 - 2 } = -\frac{2}{3} $$ [1](#page=1).
>
> Si bien la fórmula general da $-\frac{\partial f/\partial x}{\partial f/\partial y}$, el ejemplo en la página usa $\frac{-(\partial f/\partial x)}{\partial f/\partial y}$ que es $-\frac{2x+3y}{3x-2y}$, y evaluado en (1,0) da $-\frac{2}{3}$. Sin embargo, la derivación implícita directa en el ejemplo resulta en $\frac{dy}{dx} = \frac{3x-2y}{2x+3y}$, que evaluado en $(1,0)$ es $\frac{3}{2}$. La confusión parece estar en la aplicación de la fórmula. La fórmula correcta derivada del teorema es $\frac{dy}{dx} = -\frac{\partial f/\partial x}{\partial f/\partial y}$. Si calculamos implícitamente $2x + 3y + 3x\frac{dy}{dx} - 2y\frac{dy}{dx} = 0$, entonces $\frac{dy}{dx}(3x-2y) = -(2x+3y)$, lo que resulta en $\frac{dy}{dx} = -\frac{2x+3y}{3x-2y}$. Evaluado en $(1,0)$, esto es $-\frac{2}{3}$. El ejemplo en la página parece tener un error de signo o en la aplicación de la fórmula. Revisando, la fórmula presentada en es $\frac{dy}{dx} = -\frac{\frac{\partial f}{\partial x}}{\frac{\partial f}{\partial y}}$ (en forma de cociente de derivadas parciales), pero luego en el ejemplo calcula $\frac{3x-2y}{2x+3y}$. Si usamos la fórmula del teorema: $\frac{dy}{dx} = -\frac{2x+3y}{3x-2y}$. En el punto (1,0): $\frac{dy}{dx} = -\frac{2 +3 }{3 -2 } = -\frac{2}{3}$. El ejemplo proporciona $\frac{3}{2}$ como resultado, que es el inverso del negativo. Asumiendo que la intención es la aplicación correcta del teorema, el resultado debería ser -2/3 [1](#page=1) [26](#page=26).
#### 3.2.4. Para funciones de varias variables
El teorema de la función implícita se generaliza a funciones de $n+1$ variables. Sea $f: D \subset \mathbb{R}^{n+1} \to \mathbb{R}$ una función con derivadas parciales continuas en un abierto $D$. Si $(a_1, \ldots, a_n, b) \in D$ es un punto tal que $f(a_1, \ldots, a_n, b) = 0$ y $\frac{\partial f}{\partial z}(a_1, \ldots, a_n, b) \neq 0$, entonces:
* Existen un entorno $U$ de $(a_1, \ldots, a_n)$ y un intervalo abierto $V$ de $b$ tales que existe una única función $g: U \to V$ con derivadas parciales continuas, satisfaciendo $f(x_1, \ldots, x_n, g(x_1, \ldots, x_n)) = 0$ para todo $(x_1, \ldots, x_n) \in U$ [27](#page=27).
* La derivada parcial de $z = g(x_1, \ldots, x_n)$ respecto a $x_j$ se calcula como:
$$ \frac{\partial z}{\partial x_j} = -\frac{\frac{\partial f}{\partial x_j}}{\frac{\partial f}{\partial z}} $$
para todo $(x_1, \ldots, x_n) \in U$ y $z \in V$ [27](#page=27).
Por comodidad, se suele tomar la última variable ($z$) como la que se expresa en función de las otras, pero el resultado es válido para cualquier variable [27](#page=27).
> **Example:** Para la ecuación $x^2 - xy + 3z^2 = 3$, definimos $f(x,y,z) = x^2 - xy + 3z^2 - 3$. Las derivadas parciales son $\frac{\partial f}{\partial x} = 2x - y$, $\frac{\partial f}{\partial y} = -x$, y $\frac{\partial f}{\partial z} = 6z$. En el punto $(0,1,1)$, $f(0,1,1) = 0$ y $\frac{\partial f}{\partial z}(0,1,1) = 6 = 6 \neq 0$. Por lo tanto, $z$ puede expresarse como una función de $x$ e $y$, $z = g(x,y)$, cerca de $(0,1)$. Las derivadas parciales de $z$ en $(0,1)$ son [1](#page=1):
>
> $$ \frac{\partial z}{\partial x}(0,1) = -\frac{\frac{\partial f}{\partial x}(0,1,1)}{\frac{\partial f}{\partial z}(0,1,1)} = -\frac{2 - 1}{6} = -\frac{-1}{6} = \frac{1}{6} $$ .
>
> $$ \frac{\partial z}{\partial y}(0,1) = -\frac{\frac{\partial f}{\partial y}(0,1,1)}{\frac{\partial f}{\partial z}(0,1,1)} = -\frac{- }{6} = 0 $$ .
>
> En este caso, se puede despejar $z$ explícitamente como $z = \sqrt{\frac{3 - x^2 + xy}{3}}$. El cálculo de las derivadas parciales de $z$ usando la fórmula implícita se verifica con el despeje explícito [28](#page=28).
---
# Valores extremos y optimización condicional
Este tema aborda la identificación y clasificación de los valores máximos y mínimos de funciones de varias variables, tanto absolutos como relativos, y presenta el método de los multiplicadores de Lagrange para resolver problemas de optimización bajo restricciones.
### 4.1 Extremos absolutos y relativos
#### 4.1.1 Definiciones de extremos
Se definen los extremos absolutos y relativos de una función $f: D \subset \mathbb{R}^n \to \mathbb{R}$ [29](#page=29) [30](#page=30).
* **Máximo absoluto:** Un punto $(a_1, \dots, a_n) \in D$ es un máximo absoluto si $f(x_1, \dots, x_n) \leq f(a_1, \dots, a_n)$ para todo $(x_1, \dots, x_n) \in D$ [29](#page=29).
* **Mínimo absoluto:** Un punto $(a_1, \dots, a_n) \in D$ es un mínimo absoluto si $f(x_1, \dots, x_n) \geq f(a_1, \dots, a_n)$ para todo $(x_1, \dots, x_n) \in D$ [29](#page=29).
* Los máximos y mínimos absolutos se denominan **extremos absolutos** [29](#page=29).
* **Máximo relativo:** Un punto $(a, b)$ es un máximo relativo si existe un disco abierto $A$ tal que $f(x, y) \leq f(a, b)$ para todo $(x, y) \in A \cap D$ [30](#page=30).
* **Mínimo relativo:** Un punto $(a, b)$ es un mínimo relativo si existe un disco abierto $A$ tal que $f(x, y) \geq f(a, b)$ para todo $(x, y) \in A \cap D$ [30](#page=30).
* Los máximos y mínimos relativos se denominan **extremos relativos** [30](#page=30).
Si las desigualdades en las definiciones son estrictas, se habla de extremos absolutos o relativos estrictos [29](#page=29) [30](#page=30).
> **Tip:** Es útil visualizar la gráfica de la función para comprender intuitivamente los extremos absolutos y relativos. Los extremos absolutos son los puntos más altos y más bajos en todo el dominio, mientras que los extremos relativos son los puntos más altos o más bajos en su vecindad inmediata.
##### 4.1.1.1 Ejemplo de extremos
La función $f(x, y) = x^2 + y^2$ alcanza un mínimo absoluto en $(0, 0)$ porque $f(x, y) \geq 0$ para todo $(x, y)$ y $f(0,0)=0$. Este mínimo es estricto ya que para $(x,y) \neq (0,0)$, $f(x,y) > 0$. La función no alcanza un máximo absoluto, ya que para cualquier valor $t$, se puede encontrar un punto $(a,b)$ tal que $f(a,b) \geq t$ [29](#page=29).
##### 4.1.1.2 Ejemplo de extremos relativos
La función $f(x, y) = 15(x^3 + xy^4)e^{-(x^2+y^2)}$ alcanza tres máximos relativos (uno de ellos absoluto) y tres mínimos relativos (uno de ellos absoluto) en el dominio considerado [31](#page=31).
#### 4.1.2 Puntos críticos
Los puntos críticos son candidatos para la localización de extremos relativos.
* **Definición de punto crítico:** Una función regular $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ tiene un punto crítico en $(a, b)$ si sus derivadas parciales se anulan en ese punto: $\frac{\partial f}{\partial x}(a, b) = 0$ y $\frac{\partial f}{\partial y}(a, b) = 0$. Esto es equivalente a $\nabla f(a, b) = \mathbf{0}$ [32](#page=32).
* Para funciones $f: D \subset \mathbb{R}^n \to \mathbb{R}$, los puntos críticos son aquellos donde $\nabla f(a_1, \dots, a_n) = \mathbf{0}$ [32](#page=32).
* Si una función no es regular, los puntos críticos son aquellos donde la función no está definida o no es diferenciable [32](#page=32).
> **Tip:** Encontrar puntos críticos implica resolver un sistema de ecuaciones, que no siempre es lineal y puede requerir ingenio e intuición.
##### 4.1.2.1 Ejemplo de puntos críticos
Para $f(x,y) = (x^2 + 2y^2)e^{1-(x^2+y^2)}$, los puntos críticos se obtienen igualando a cero las derivadas parciales, lo que lleva a las soluciones $(0,0), (1,0), (-1,0), (0,1), (0,-1)$ [32](#page=32).
Para $f(x,y) = \begin{cases} \frac{x^2y^2}{x^2+y^2} & (x,y) \neq (0,0) \\ 0 & (x,y) = (0,0) \end{cases}$, los puntos críticos en $\mathbb{R}^2 \setminus \{(0,0)\}$ son aquellos en los que $x=0$ o $y=0$, es decir, cualquier punto en los ejes coordenados [33](#page=33).
#### 4.1.3 Condición necesaria y suficiente de extremo relativo
* **Condición necesaria de extremo relativo:** Si una función diferenciable $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ alcanza un extremo relativo en $(a, b) \in D$ (abierto), entonces $\nabla f(a, b) = \mathbf{0}$ [34](#page=34).
* **Punto de ensilladura (o punto de silla):** Un punto crítico que no es un extremo relativo se denomina punto de ensilladura. Geométricamente, la gráfica de la función cerca de este punto se asemeja a una silla de montar [35](#page=35).
* **Condición suficiente de extremo:** Supongamos que $f: D \subset \mathbb{R}^2 \to \mathbb{R}$ tiene un punto crítico en $(a, b)$. Sea $H_f(a,b)$ la matriz Hessiana en $(a,b)$, y $d = \det(H_f(a,b))$. Si $r = \frac{\partial^2 f}{\partial x^2}(a,b)$:
* Si $d > 0$ y $r > 0$: $f$ alcanza un **mínimo relativo** en $(a, b)$ [36](#page=36).
* Si $d > 0$ y $r < 0$: $f$ alcanza un **máximo relativo** en $(a, b)$ [36](#page=36).
* Si $d < 0$: $f$ tiene un **punto de silla** en $(a, b)$ [36](#page=36).
* Si $d = 0$: el caso es dudoso [36](#page=36).
> **Tip:** La matriz Hessiana $H_f(a,b) = \begin{pmatrix} \frac{\partial^2 f}{\partial x^2}(a, b) & \frac{\partial^2 f}{\partial x \partial y}(a, b) \\ \frac{\partial^2 f}{\partial y \partial x}(a, b) & \frac{\partial^2 f}{\partial y^2}(a, b) \end{pmatrix} = \begin{pmatrix} r & s \\ u & t \end{pmatrix}$ proporciona información crucial sobre la naturaleza de los puntos críticos [36](#page=36).
##### 4.1.3.1 Ejemplo de clasificación de puntos críticos
Para $f(x,y) = (x^2 + 2y^2)e^{-(x^2+y^2)}$, se analizan los puntos críticos encontrados previamente:
* En $(0,0)$: $d = 8e^2 > 0$ y $r = 2e > 0$, por lo tanto, hay un **mínimo relativo** [37](#page=37).
* En $(1,0)$ y $(-1,0)$: $d = -8 < 0$, por lo tanto, son **puntos de silla** [38](#page=38).
* En $(0,1)$ y $(0,-1)$: $d = 16 > 0$ y $r = -2 < 0$, por lo tanto, hay **máximos relativos** [38](#page=38).
#### 4.1.4 Teorema de los valores extremos
* **Teorema de los valores extremos:** Si una función continua $f$ está definida en un subconjunto $S \subset \mathbb{R}^n$ cerrado y acotado, entonces $f$ alcanza el máximo y el mínimo absolutos en $S$. Estos extremos se alcanzan en la frontera de $S$ o en un punto crítico de $f$ en el interior de $S$ [38](#page=38).
> **Procedimiento para encontrar extremos absolutos:**
> 1. Hallar los puntos críticos de $f$ en el interior de $S$.
> 2. Hallar los posibles puntos de extremos absolutos en la frontera de $S$.
> 3. Calcular el valor de $f$ en todos los puntos determinados en los pasos anteriores. El valor mayor (menor) corresponde al máximo (mínimo) absoluto [38](#page=38).
##### 4.1.4.1 Ejemplo de aplicación del teorema
Para $f(x, y) = x^2 + 2y^2$ en $S = \{(x, y) \in \mathbb{R}^2 : x^2 + y^2 \leq 1\}$:
* Punto crítico interior: $(0,0)$, donde $f(0,0)=0$ (mínimo absoluto) [39](#page=39).
* Frontera ($x^2+y^2=1$): se analizan los puntos $(0, \pm 1)$ con $f=2$ (máximos absolutos) y $(\pm 1, 0)$ con $f=1$ [40](#page=40).
El máximo absoluto de $f$ en $S$ se alcanza en $(0,1)$ y $(0,-1)$, y el mínimo absoluto en $(1,0)$ y $(-1,0)$ [40](#page=40).
### 4.2 Optimización condicional: Método de los multiplicadores de Lagrange
#### 4.2.1 Motivación
Frecuentemente, se busca optimizar una función sujeta a ciertas restricciones. El método de los multiplicadores de Lagrange es una herramienta fundamental para resolver este tipo de problemas de optimización condicional, especialmente cuando no es posible despejar una variable en función de otra de forma sencilla [39](#page=39) [41](#page=41).
#### 4.2.2 Teorema de Lagrange
* **Teorema de Lagrange (para dos variables):** Sean $f$ y $g$ funciones continuas y con derivadas parciales continuas. Si $f$ tiene un extremo relativo en $(a, b)$ sobre la curva $g(x, y) = 0$, y $\nabla g(a, b) \neq \mathbf{0}$, entonces existe un número $\lambda$ tal que $\nabla f(a, b) = \lambda \nabla g(a, b)$ [42](#page=42).
* El número $\lambda$ se denomina **multiplicador de Lagrange** [42](#page=42).
* La función auxiliar $F(x, y, \lambda) = f(x, y) + \lambda g(x, y)$ tiene un punto crítico en $(a, b, \lambda)$ [42](#page=42).
> **Interpretación geométrica:** En el punto de extremo condicionado, las curvas de nivel de $f$ y la curva de restricción $g(x,y)=0$ son tangentes. Esto implica que sus gradientes son paralelos, es decir, $\nabla f = \lambda \nabla g$ [43](#page=43).
* **Teorema de Lagrange (general):** Para $f, g: D \subset \mathbb{R}^n \to \mathbb{R}$, si $f$ tiene un extremo relativo en $(a_1, \dots, a_n)$ sobre $g(x_1, \dots, x_n) = 0$ y $\nabla g(a_1, \dots, a_n) \neq \mathbf{0}$, entonces existe $\lambda$ tal que $\nabla f(a_1, \dots, a_n) = \lambda \nabla g(a_1, \dots, a_n)$ [44](#page=44).
#### 4.2.3 Método de los multiplicadores de Lagrange con una condición
Para calcular los extremos de $f(x, y)$ sujeto a $g(x, y) = 0$:
1. Definir la función auxiliar $F(x, y, \lambda) = f(x, y) + \lambda g(x, y)$.
2. Resolver el sistema $\nabla F(x, y, \lambda) = (\mathbf{0}, \mathbf{0}, 0)$, es decir, igualar a cero todas las derivadas parciales de $F$. Esto localiza los puntos críticos de $F$.
3. Si el conjunto definido por $g(x, y) = 0$ es cerrado y acotado, calcular el valor de $f(x, y)$ en los puntos críticos de $F$. El valor mayor (menor) de $f$ corresponde al máximo (mínimo) absoluto [44](#page=44).
4. Si $g(x, y) = 0$ permite expresar $y$ como función implícita de $x$, $y = h(x)$, se puede estudiar el extremo de $f(x, h(x))$ [44](#page=44).
##### 4.2.3.1 Ejemplo de multiplicadores de Lagrange
Calcular los extremos de $f(x, y) = x^2 + 2y^2$ en $C = \{(x,y) \in \mathbb{R}^2 : x^2+y^2=1\}$:
* Función auxiliar: $F(x, y, \lambda) = x^2 + 2y^2 + \lambda(x^2 + y^2 - 1)$.
* Sistema de ecuaciones:
* $\frac{\partial F}{\partial x} = 2x + 2\lambda x = 2x(1+\lambda) = 0$
* $\frac{\partial F}{\partial y} = 4y + 2\lambda y = 2y(2+\lambda) = 0$
* $\frac{\partial F}{\partial \lambda} = x^2 + y^2 - 1 = 0$
* Soluciones:
* Si $\lambda = -1$, entonces $2x = 0$ (cualquier $x$) y $2y = 0 \implies y=0$. Con $x^2+y^2=1$, obtenemos $(\pm 1, 0)$, con $\lambda = -1$ [1](#page=1).
* Si $\lambda = -2$, entonces $2x(-1) = 0 \implies x=0$ y $2y = 0$ (cualquier $y$). Con $x^2+y^2=1$, obtenemos $(0, \pm 1)$, con $\lambda = -2$ .
* Los puntos críticos son $(\pm 1, 0)$ y $(0, \pm 1)$. Comparando los valores de $f$: $f(\pm 1, 0) = 1$ y $f(0, \pm 1) = 2$. Por lo tanto, el máximo es 2 y el mínimo es 1 [45](#page=45).
##### 4.2.3.2 Ejemplo de optimización de producto
Encontrar dos números positivos cuya suma sea 9 y su producto sea máximo:
* Maximizar $f(x, y) = xy$ sujeto a $x+y-9=0$, con $x \geq 0, y \geq 0$.
* Función auxiliar: $F(x, y, \lambda) = xy + \lambda(x+y-9)$.
* Sistema de ecuaciones:
* $\frac{\partial F}{\partial x} = y + \lambda = 0$
* $\frac{\partial F}{\partial y} = x + \lambda = 0$
* $\frac{\partial F}{\partial \lambda} = x+y-9 = 0$
* Solución: $x=y=\frac{9}{2}$ y $\lambda = -\frac{9}{2}$. En el punto $(\frac{9}{2}, \frac{9}{2})$, el producto es $f(\frac{9}{2}, \frac{9}{2}) = \frac{81}{4}$. En los extremos del segmento de restricción, $(9,0)$ y $(0,9)$, el producto es 0. Por lo tanto, el producto máximo es $\frac{81}{4}$ para $x=y=\frac{9}{2}$ [46](#page=46).
##### 4.2.3.3 Ejemplo de optimización de producto de tres números
Encontrar tres números positivos cuya suma sea 9 y su producto sea máximo:
* Maximizar $f(x, y, z) = xyz$ sujeto a $x+y+z-9=0$, con $x \geq 0, y \geq 0, z \geq 0$.
* Función auxiliar: $F(x,y,z,\lambda) = xyz + \lambda(x+y+z-9)$.
* Sistema de derivadas parciales:
* $\frac{\partial F}{\partial x} = yz + \lambda = 0$
* $\frac{\partial F}{\partial y} = xz + \lambda = 0$
* $\frac{\partial F}{\partial z} = xy + \lambda = 0$
* $\frac{\partial F}{\partial \lambda} = x+y+z-9 = 0$
* Soluciones:
* Para $\lambda = 0$, las soluciones son $(9,0,0)$ y sus permutaciones, donde $f=0$.
* Para $\lambda \neq 0$, se deduce $x=y=z$. Sustituyendo en la restricción: $3x=9 \implies x=3$. El punto crítico es $(3,3,3)$, con $\lambda=-9$.
* El valor de la función es $f(3,3,3) = 27$.
El producto máximo es 27 y los números son $x=y=z=3$ [47](#page=47).
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Término | Definición |
|---|---|
| Diferencial | La diferencial de una función en un punto es una aplicación lineal que generaliza la idea de la derivada para funciones de varias variables, permitiendo aproximar linealmente la función cerca de dicho punto. |
| Derivada parcial | La tasa de cambio instantánea de una función de varias variables con respecto a una de sus variables, manteniendo las demás constantes. |
| Gradiente | Un vector cuyas componentes son las derivadas parciales de una función en un punto dado. Indica la dirección de máximo crecimiento de la función. |
| Plano tangente | El plano que mejor aproxima localmente la gráfica de una función de dos variables diferenciable en un punto. Su ecuación se relaciona con el gradiente de la función en ese punto. |
| Función diferenciable | Una función de varias variables que admite una aproximación lineal en un punto, es decir, la diferencia entre el valor real de la función y su aproximación lineal es negligible en comparación con la distancia al punto. |
| Regla de la cadena | Un teorema que permite calcular la derivada de una función compuesta. Para funciones de varias variables, relaciona las derivadas parciales de la función compuesta con las derivadas parciales de las funciones que la componen. |
| Teorema del valor medio | Generalización del teorema del valor medio para funciones de varias variables, que relaciona la diferencia de valor de la función entre dos puntos con el gradiente y el vector que une dichos puntos. |
| Conjunto convexo | Un subconjunto de un espacio vectorial en el cual el segmento que une dos puntos cualesquiera del conjunto está completamente contenido dentro del mismo conjunto. |
| Teorema de la función implícita | Establece condiciones bajo las cuales una ecuación implícita define una o más variables como funciones explícitas de las otras. Permite calcular las derivadas de estas funciones implícitas. |
| Derivación implícita | Un método para calcular la derivada de una función definida implícitamente por una ecuación, sin necesidad de despejar explícitamente la variable dependiente. |
| Extremos absolutos | El valor máximo o mínimo que una función alcanza en todo su dominio. |
| Extremos relativos | El valor máximo o mínimo que una función alcanza en una vecindad de un punto específico de su dominio. |
| Puntos críticos | Puntos de una función donde el gradiente se anula o no está definido. Son candidatos a ser extremos relativos. |
| Matriz Hessiana | La matriz cuadrada de segundas derivadas parciales de una función. Se utiliza para clasificar los puntos críticos como máximos, mínimos o puntos de silla. |
| Teorema de los valores extremos | Establece que una función continua definida en un conjunto cerrado y acotado alcanza sus extremos absolutos dentro de ese conjunto, ya sea en puntos críticos o en la frontera. |
| Extremos condicionados | Problemas de optimización donde se buscan los valores extremos de una función sujeta a una o varias restricciones. |
| Multiplicadores de Lagrange | Un método para encontrar los extremos condicionados de una función. Se introduce una nueva función auxiliar y se igualan a cero sus derivadas parciales y las de la función de restricción. |
| Curva de nivel | Una curva en el plano donde una función de dos variables toma un valor constante. |
| Paraboloide hiperbólico | Una superficie tridimensional que es el gráfico de una función cuadrática de dos variables con un punto de silla. |
Cover
CÁLCULO TEORÍA 6.pdf
Summary
# Introducción a la integral de Riemann
El cálculo integral unifica la resolución de problemas aparentemente dispares como el cálculo de áreas y volúmenes, la determinación de la posición de un móvil a partir de su velocidad, la inversión del proceso de derivación, y el cálculo de promedios de magnitudes físicas como la temperatura [1](#page=1).
### 1.1 Diagrama conceptual
El estudio del cálculo integral se puede visualizar a través de un diagrama que relaciona los siguientes conceptos [1](#page=1):
* **Integral definida:** Se obtiene a través de la aproximación de áreas [1](#page=1).
* **Integral indefinida (o primitiva):** Representa la operación inversa de la derivación [1](#page=1).
* **Teoremas fundamentales:** Establecen la conexión entre la integral definida y la integral indefinida [1](#page=1).
* **Integración numérica:** Útil cuando el cálculo de una primitiva no es sencillo [1](#page=1).
* **Integrales impropias:** Se utilizan para casos de intervalos no acotados o funciones no acotadas [1](#page=1).
### 1.2 Motivación para el cálculo integral
El cálculo integral tiene sus raíces en la antigüedad, con métodos como el de exhaución de Eudoxo, que ya utilizaba la división de figuras en subfiguras para calcular áreas y volúmenes, sentando las bases del principio de la integración definida [2](#page=2).
El cálculo integral permite conectar conceptos ya conocidos como las derivadas y las propiedades geométricas de figuras (áreas, volúmenes) con magnitudes y propiedades físicas [2](#page=2).
#### 1.2.1 El cálculo de áreas
El cálculo de áreas de figuras geométricas es un problema que se ha abordado desde la antigüedad. Si bien el área de figuras simples como rectángulos, triángulos o círculos es conocida, surge la pregunta de cómo calcular el área de figuras de forma arbitraria [1](#page=1) [2](#page=2).
#### 1.2.2 La inversión de la derivación
Dada una función, si conocemos su derivada, nos preguntamos si es posible realizar el proceso inverso: encontrar una función cuya derivada sea la función dada. Esta operación se conoce como encontrar la primitiva o la integral indefinida [1](#page=1).
#### 1.2.3 Cálculo de promedios
El cálculo integral también se aplica para determinar magnitudes promedio de una función en un intervalo. Por ejemplo, si se conoce la temperatura en cada punto de una barra, se puede calcular la temperatura media utilizando integrales [1](#page=1).
### 1.3 La integral definida
La integral definida se introduce como una herramienta para calcular el área bajo la curva de una función continua [2](#page=2).
#### 1.3.1 Aproximación mediante rectángulos
Para funciones continuas $f: [a, b \to \mathbb{R}$ donde $f(x) \ge 0$ en el intervalo $[a, b]$, el área comprendida entre la gráfica de $f$, el eje $x$, y las rectas verticales $x = a$ y $x = b$ puede aproximarse sumando las áreas de rectángulos. El proceso implica dividir el intervalo $[a, b]$ en subintervalos, construir rectángulos sobre estos subintervalos y, finalmente, tomar el límite cuando la base de los rectángulos tiende a cero [2](#page=2).
> **Tip:** El método de aproximación mediante rectángulos es la base conceptual de la integral de Riemann. La precisión aumenta a medida que el número de rectángulos se incrementa y su base disminuye.
#### 1.3.2 Ejemplo de cálculo de área
Se plantea el cálculo del área comprendida entre la gráfica de la función $f(x) = e^x$ en el intervalo $ $ y el eje $x$. El procedimiento para resolverlo implica la aproximación mediante rectángulos y la posterior toma de un límite [1](#page=1) [2](#page=2).
> **Example:** Para calcular el área bajo $f(x) = x^2$ en $ $ usando rectángulos, se dividiría el intervalo en $n$ subintervalos de igual ancho $\Delta x = \frac{2-0}{n} = \frac{2}{n}$. Si se eligen los extremos derechos de cada subintervalo, se sumarían las áreas de los rectángulos: $\sum_{i=1}^{n} f(x_i) \Delta x$, donde $x_i = a + i \Delta x$. Tomando el límite cuando $n \to \infty$ se obtendría el área exacta [2](#page=2).
---
# Definición y propiedades de la integral definida
La integral definida se define formalmente a través de sumas de Riemann y representa el área neta bajo la curva de una función, teniendo en cuenta tanto las áreas por encima como por debajo del eje x [4](#page=4).
### 2.1 La integral de Riemann
#### 2.1.1 Motivación y concepto
El cálculo de áreas y volúmenes ha sido abordado desde la antigüedad, utilizando métodos que implican la división de figuras en partes más simples. La integral definida generaliza este principio, permitiendo calcular áreas bajo curvas mediante la aproximación con rectángulos. Si una función $f(x)$ es continua y no negativa en un intervalo $[a, b]$, el área comprendida entre su gráfica, el eje x y las rectas verticales $x=a$ y $x=b$ puede aproximarse sumando las áreas de rectángulos. La precisión de esta aproximación aumenta al refinar la partición del intervalo, es decir, al disminuir la base de los rectángulos. El área exacta se obtiene al tomar el límite de estas sumas cuando la longitud de la base de los rectángulos tiende a cero [2](#page=2) [4](#page=4).
#### 2.1.2 La suma de Riemann
Para definir formalmente la integral, se considera una partición $P$ del intervalo $[a, b]$ en $n$ subintervalos, definidos por puntos $a=x_0 < x_1 < x_2 < \dots < x_n =b$. La longitud del $i$-ésimo subintervalo es $\Delta x_i = x_i - x_{i-1}$, y la finura de la partición, denotada $|P|$, es el máximo de estas longitudes. En cada subintervalo $[x_{i-1}, x_i]$, se elige un punto representativo $c_i$. La altura de cada rectángulo de aproximación es $f(c_i)$, y su área tiene un "signo" asociado: se suma si $f(c_i) \ge 0$ y se resta si $f(c_i) < 0$ [4](#page=4).
La suma de Riemann para una partición $P$ y puntos representativos $c_i$ es:
$$ S_n = \sum_{i=1}^{n} f(c_i) \Delta x_i $$
Esta suma proporciona una aproximación del área neta bajo la curva de $f(x)$ en $[a, b]$ [4](#page=4) [5](#page=5).
#### 2.1.3 Definición formal
La integral definida de una función continua $f: [a, b \to \mathbb{R}$ se define como el límite de la suma de Riemann cuando la finura de la partición tiende a cero:
$$ \int_{a}^{b} f(x) \, dx = \lim_{|P| \to 0} \sum_{i=1}^{n} f(c_i) \Delta x_i $$
Si este límite existe y no depende de la elección de la partición ni de los puntos representativos, se dice que la función es integrable en $[a, b]$ [5](#page=5).
> **Tip:** La continuidad de la función $f(x)$ es fundamental para garantizar la existencia de la integral definida y que su valor no dependa de la elección de los puntos $c_i$ [4](#page=4).
#### 2.1.4 Ejemplos de cálculo
**Ejemplo 6.1 (Página 3):** Cálculo del área bajo la parábola $f(x) = e^x$ en $ $ [1](#page=1).
1. Se divide el intervalo $ $ en $n$ subintervalos de longitud $\Delta x = 1/n$ [1](#page=1).
2. Se elige la altura del $i$-ésimo rectángulo como $f(c_i) = e^{(i-1)/n}$.
3. La suma de las áreas de los $n$ rectángulos es una suma geométrica:
$$ S_n = \sum_{i=1}^{n} \frac{1}{n} e^{(i-1)/n} $$
4. El límite de esta suma cuando $n \to \infty$ es:
$$ A = \lim_{n \to \infty} S_n = \lim_{n \to \infty} \frac{1}{n} \frac{e - 1}{e^{1/n} - 1} = e - 1 $$
Se aplicó la regla de L'Hôpital para evaluar el límite [3](#page=3) [4](#page=4).
**Ejemplo 6.2 (Página 5):** Cálculo de $\int_{-1}^{2} 2x \, dx$.
1. Se divide el intervalo $[-1, 2]$ en $n$ subintervalos de longitud $\Delta x = 3/n$.
2. Se elige $c_i = x_i = -1 + i(3/n)$ como punto representativo.
3. La función es $f(x) = 2x$. La suma de Riemann es:
$$ S_n = \sum_{i=1}^{n} f(c_i) \Delta x_i = \sum_{i=1}^{n} \left( 2 \left(-1 + \frac{3i}{n}\right) \right) \frac{3}{n} = \sum_{i=1}^{n} \left( -2 + \frac{6i}{n} \right) \frac{3}{n} $$
$$ S_n = \sum_{i=1}^{n} \left( -\frac{6}{n} + \frac{18i}{n^2} \right) = -\frac{6n}{n} + \frac{18}{n^2} \sum_{i=1}^{n} i $$
Usando la fórmula para la suma de los primeros $n$ enteros ($\sum_{i=1}^{n} i = \frac{n(n+1)}{2}$):
$$ S_n = -6 + \frac{18}{n^2} \frac{n(n+1)}{2} = -6 + 9 \frac{n+1}{n} = -6 + 9 \left(1 + \frac{1}{n}\right) = 3 + \frac{9}{n} $$
4. El límite cuando $n \to \infty$ es:
$$ \int_{-1}^{2} 2x \, dx = \lim_{n \to \infty} \left( 3 + \frac{9}{n} \right) = 3 $$
[5](#page=5).
### 2.2 Propiedades de la integral definida
Las propiedades de la integral definida simplifican su cálculo y se derivan directamente de su definición y su interpretación geométrica. Sean $f(x)$ y $g(x)$ funciones continuas en un intervalo $[a, b]$ y $k$ una constante [6](#page=6).
* **Integral de una función constante:**
$$ \int_{a}^{a} f(x) \, dx = 0 $$
El área sobre un intervalo de longitud cero es cero [6](#page=6).
* **Producto por una constante:**
$$ \int_{a}^{b} k f(x) \, dx = k \int_{a}^{b} f(x) \, dx $$
Si se escala la función por una constante, el área también se escala por esa constante [6](#page=6).
* **Suma de funciones:**
$$ \int_{a}^{b} (f(x) + g(x)) \, dx = \int_{a}^{b} f(x) \, dx + \int_{a}^{b} g(x) \, dx $$
El área bajo la suma de dos funciones es la suma de las áreas bajo cada función [6](#page=6).
* **Monotonía:** Si $f(x) \le g(x)$ en $[a, b]$, entonces:
$$ \int_{a}^{b} f(x) \, dx \le \int_{a}^{b} g(x) \, dx $$
Si una función está por debajo de otra, su integral (área neta) será menor o igual [6](#page=6).
* **Valor absoluto:**
$$ \left| \int_{a}^{b} f(x) \, dx \right| \le \int_{a}^{b} |f(x)| \, dx $$
Esta propiedad indica que el valor absoluto de la integral definida de una función es menor o igual a la integral de su valor absoluto [6](#page=6).
* **Aditividad del intervalo de integración:** Si $c \in [a, b]$:
$$ \int_{a}^{b} f(x) \, dx = \int_{a}^{c} f(x) \, dx + \int_{c}^{b} f(x) \, dx $$
El área total sobre un intervalo es la suma de las áreas sobre subintervalos que lo componen [6](#page=6).
* **Cambio de orden en los límites de integración:**
$$ \int_{a}^{b} f(x) \, dx = - \int_{b}^{a} f(x) \, dx $$
Invertir los límites de integración cambia el signo de la integral [6](#page=6).
#### 2.2.1 Ejemplo de aplicación de propiedades
**Ejemplo 6.3 (Página 6):** Cálculo de $\int_{-1}^{2} 2x \, dx$ usando propiedades.
Se puede expresar la integral como:
$$ \int_{-1}^{2} 2x \, dx = 2 \int_{-1}^{2} x \, dx $$
Interpretando geométricamente $\int_{-1}^{2} x \, dx$:
* De $-1$ a $0$, el área es un triángulo debajo del eje x con base $1$ y altura $1$. Su valor es $-\frac{1}{2} \times 1 \times 1 = -\frac{1}{2}$.
* De $0$ a $2$, el área es un triángulo sobre el eje x con base $2$ y altura $2$. Su valor es $\frac{1}{2} \times 2 \times 2 = 2$.
Aplicando la propiedad de aditividad:
$$ \int_{-1}^{2} x \, dx = \int_{-1}^{0} x \, dx + \int_{0}^{2} x \, dx = -\frac{1}{2} + 2 = \frac{3}{2} $$
Finalmente, multiplicando por la constante $2$:
$$ \int_{-1}^{2} 2x \, dx = 2 \times \frac{3}{2} = 3 $$
[6](#page=6).
### 2.3 Interpretación geométrica
La integral definida $\int_{a}^{b} f(x) \, dx$ se interpreta geométricamente como el **área neta** comprendida entre la gráfica de la función $f(x)$, el eje x y las rectas verticales $x=a$ y $x=b$. Las áreas por encima del eje x se consideran positivas y se suman, mientras que las áreas por debajo del eje x se consideran negativas y se restan. Si la función es siempre positiva, la integral definida coincide con el área geométrica bajo la curva. Para funciones que toman valores positivos y negativos, la integral representa la diferencia entre el área positiva y la área negativa. Las funciones continuas en un intervalo $[a, b]$ son integrables en dicho intervalo [2](#page=2) [4](#page=4) [5](#page=5) [6](#page=6).
---
# Integral indefinida y teoremas fundamentales del cálculo
Este tema explora la relación inversa entre derivación e integración, presentando el concepto de primitiva y la integral indefinida, junto con los teoremas fundamentales que formalizan esta conexión.
### 3.1 La integral indefinida
La integral indefinida surge como el proceso inverso de la derivación. Para una función continua $f: (a,b) \to \mathbb{R}$, una primitiva de $f$ es cualquier función $F$ tal que $F'(x) = f(x)$ para todo $x \in (a, b)$ [7](#page=7).
La notación para una primitiva es:
$$ \int f(x) \, dx $$
En esta expresión, $f(x)$ se denomina integrando, $x$ es la variable de integración, y $dx$ indica la variable respecto a la cual se realiza la integración. La integral indefinida de $f$ se define como el conjunto de todas sus primitivas [7](#page=7).
Es crucial notar que la primitiva de una función no es única. Si $F(x)$ es una primitiva de $f(x)$, entonces cualquier función de la forma $F(x) + k$, donde $k$ es una constante real, también es una primitiva de $f(x)$, ya que la derivada de una constante es cero: $(F(x) + k)' = F'(x) = f(x)$ [7](#page=7).
> **Tip:** La diferencia formal entre la integral indefinida y la integral definida radica en los límites de integración. Las integrales definidas presentan límites numéricos, mientras que la integral indefinida representa un conjunto de funciones [7](#page=7).
**Ejemplo:** Dada la función $f(x) = 2x - 1$, una primitiva es $F(x) = x^2 - x$. Sin embargo, $F(x) = x^2 - x + 1$ y $F(x) = x^2 - x + 3$ también son primitivas. En general, la integral indefinida se expresa como [7](#page=7):
$$ \int (2x - 1) \, dx = x^2 - x + k $$
donde $k$ es una constante real arbitraria [7](#page=7).
Si dos funciones $F(x)$ y $G(x)$ tienen la misma derivada en un intervalo, entonces difieren en una constante, es decir, $F(x) - G(x) = k$. Por ello, al escribir una integral indefinida, se suele tomar una primitiva particular y añadirle la constante de integración $k$ [8](#page=8).
### 3.2 Teoremas fundamentales del cálculo
Los teoremas fundamentales del cálculo establecen una conexión profunda entre la integración (entendida como suma o área bajo una curva) y la derivación, demostrando que son procesos inversos. Estos teoremas fueron desarrollados independientemente por Newton y Leibniz en el siglo XVII [8](#page=8).
#### 3.2.1 Primer teorema fundamental del Cálculo
Este teorema establece que si una función $f$ es continua en un intervalo cerrado $[a, b]$, entonces la función definida como la integral de $f$ desde $a$ hasta una variable $x$ es derivable en $[a, b]$, y su derivada es la propia función $f(x)$ [9](#page=9).
**Teorema 6.1 (Primer teorema fundamental del Cálculo)**. Si $f : [a, b \to \mathbb{R}$ es una función continua, entonces la función
$$ F(x) = \int_a^x f(t) \, dt $$
es derivable en $[a, b]$ y se cumple que
$$ F'(x) = f(x) \quad \forall x \in (a, b) $$
[9](#page=9).
Este teorema es fundamental porque garantiza que toda función continua en un intervalo posee una primitiva. Además, permite asegurar la existencia de primitivas incluso para funciones cuyas primitivas no pueden expresarse mediante funciones elementales, como es el caso de $f(t) = e^{-t^2}$ [10](#page=10) [8](#page=8) [9](#page=9).
**Ejemplo 6.5**. La función error, utilizada en estadística, se define como:
$$ \text{erf}(x) = \frac{2}{\sqrt{\pi}} \int_0^x e^{-t^2} \, dt $$
. Aunque la primitiva de $e^{-t^2}$ no es una función elemental, la derivada de $\text{erf}(x)$ se puede encontrar directamente. Si $F(x) = \int_0^x e^{-t^2} \, dt$, entonces, según el primer teorema fundamental, $F'(x) = e^{-x^2}$ [9](#page=9).
**Ejemplo 6.6**. Para calcular la derivada de $F(x) = \int_a^x (t^2 \sin t + 2t) \, dt$, simplemente sustituimos $t$ por $x$ en el integrando:
$$ F'(x) = x^2 \sin x + 2x $$
[10](#page=10).
Si la variable de integración se encuentra en el límite inferior, se puede aplicar el teorema invirtiendo el límite de integración y cambiando el signo, como se muestra en el siguiente ejemplo.
**Ejemplo 6.7**. Para $G(x) = \int_x^b (t^4 + 2)e^{-t^2} \, dt$:
$$ G'(x) = -\frac{d}{dx} \int_b^x (t^4 + 2)e^{-t^2} \, dt = -(x^4 + 2)e^{-x^2} $$
[10](#page=10).
#### 3.2.2 Segundo teorema fundamental del Cálculo (Regla de Barrow)
El segundo teorema fundamental del Cálculo, también conocido como Regla de Barrow, proporciona un método eficiente para calcular integrales definidas utilizando primitivas.
**Teorema 6.2 (Segundo teorema fundamental del Cálculo)**. Si $f(x)$ es una función continua en $[a, b]$ y $F(x)$ es cualquier primitiva de $f(x)$, entonces:
$$ \int_a^b f(x) \, dx = F(b) - F(a) $$
[10](#page=10) [11](#page=11).
La notación $F(x)|_a^b$ se utiliza para representar $F(b) - F(a)$ [10](#page=10).
**Demostración**: Se define $G(x) = \int_a^x f(t) \, dt$. Por el primer teorema fundamental, $G'(x) = f(x)$. Dado que $F(x)$ es también una primitiva de $f(x)$, se tiene que $(F-G)'(x) = F'(x) - G'(x) = f(x) - f(x) = 0$. Esto implica que $F(x) - G(x) = k$ para alguna constante $k$. Evaluando en $x=a$, tenemos $G(a) = \int_a^a f(t) \, dt = 0$. Por lo tanto, $F(a) - G(a) = F(a) - 0 = k$, lo que significa que $k = F(a)$. Sustituyendo en la expresión de $F(x) - G(x)$, obtenemos $F(x) = G(x) + F(a)$. Evaluando en $x=b$, se llega a $F(b) = G(b) + F(a)$, y dado que $G(b) = \int_a^b f(x) \, dx$, se concluye que $\int_a^b f(x) \, dx = F(b) - F(a)$ [11](#page=11).
Este teorema simplifica enormemente el cálculo de integrales definidas. En lugar de aproximar el área mediante sumas, basta encontrar una primitiva de la función e evaluar la diferencia de esta primitiva en los límites de integración [11](#page=11).
**Ejemplo 6.8**. Para calcular $\int_0^1 e^x \, dx$, encontramos una primitiva de $e^x$, que es $F(x) = e^x$. Aplicando el segundo teorema fundamental:
$$ \int_0^1 e^x \, dx = F - F = e^1 - e^0 = e - 1 $$ [1](#page=1).
. Este cálculo es considerablemente más sencillo que uno basado en la definición de integral [11](#page=11).
**Interpretación intuitiva**: La velocidad $v(t)$ como la derivada de la posición $x(t)$ ofrece una interpretación intuitiva de la Regla de Barrow. Si $v(t) = x'(t)$, entonces la integral definida de la velocidad entre dos instantes $a$ y $b$ representa el cambio en la posición, es decir, el espacio recorrido:
$$ \int_a^b v(t) \, dt = x(b) - x(a) $$
. Si se asume que la velocidad no cambia de signo en el intervalo $[a, b]$, el lado derecho de la igualdad es el desplazamiento neto entre $a$ y $b$ [11](#page=11).
---
# Técnicas de cálculo de integrales
Este apartado repasa y amplía las técnicas fundamentales para el cálculo de primitivas de funciones, desde las más inmediatas hasta métodos más complejos como la integración por partes y la descomposición en fracciones simples.
### 4.1 Introducción y propiedades generales
El cálculo de integrales definidas mediante límites es un proceso tedioso y poco práctico. En su lugar, se utilizan técnicas que facilitan la búsqueda de una primitiva. Es importante tener un buen dominio de estas técnicas para resolver integrales con soltura [12](#page=12).
La integración, al igual que la derivación, es una operación lineal. Esto se refleja en las siguientes propiedades de la integral indefinida, si $f$ y $g$ son funciones continuas y $c$ es una constante [13](#page=13):
* **Producto por una constante:**
$$ \int c f(x) \, dx = c \int f(x) \, dx $$
* **Integral de una suma:**
$$ \int (f(x) + g(x)) \, dx = \int f(x) \, dx + \int g(x) \, dx $$
**Ejemplo:**
$$ \int (3x^2 - 2x + 5) \, dx = 3 \int x^2 \, dx - 2 \int x \, dx + 5 \int 1 \, dx = x^3 - x^2 + 5x + k $$
donde $k$ es la constante de integración [13](#page=13).
### 4.2 Integrales inmediatas
Las integrales inmediatas se obtienen directamente de las derivadas de funciones usuales. Es fundamental recordar una tabla de integrales básicas. Las siguientes fórmulas son válidas en los puntos donde las expresiones tienen sentido, e $f'(x)$ representa la derivada de $f(x)$ [14](#page=14):
* $$ \int a \, dx = ax + k $$
* $$ \int f(x)^a \cdot f'(x) \, dx = \frac{f(x)^{a+1}}{a+1} + k, \quad \text{si } a \neq -1 $$
* $$ \int \frac{f'(x)}{f(x)} \, dx = \ln |f(x)| + k $$
* $$ \int e^{f(x)} \cdot f'(x) \, dx = e^{f(x)} + k $$
* $$ \int a^{f(x)} \cdot f'(x) \, dx = \frac{1}{\ln a} a^{f(x)} + k $$
* $$ \int \cos(f(x)) \cdot f'(x) \, dx = \sin(f(x)) + k $$
* $$ \int \sin(f(x)) \cdot f'(x) \, dx = -\cos(f(x)) + k $$
* $$ \int \frac{f'(x)}{\cos^2(f(x))} \, dx = \tan(f(x)) + k $$
* $$ \int \frac{f'(x)}{1 + f(x)^2} \, dx = \arctan(f(x)) + k $$
* $$ \int \frac{f'(x)}{\sqrt{1 - f(x)^2}} \, dx = \arcsin(f(x)) + k $$
* $$ \int \frac{-f'(x)}{\sqrt{1 - f(x)^2}} \, dx = \arccos(f(x)) + k $$
**Ejemplo:**
$$ \int 3 \cos^2 x \sin x \, dx = -3 \int (\cos x)^2 (-\sin x) \, dx = -\cos^3 x + k $$
Aquí, $f(x) = \cos x$ y $f'(x) = -\sin x$ [14](#page=14).
**Ejemplo:**
$$ \int e^x \cos(e^x) \, dx = \sin(e^x) + k $$
ya que $f(x) = e^x$, $f'(x) = e^x$ [15](#page=15).
**Ejemplo:**
$$ \int \frac{4x}{\sqrt{1 - 4x^4}} \, dx = \int \frac{4x}{\sqrt{1 - (2x^2)^2}} \, dx = \arcsin(2x^2) + k $$
La manipulación algebraica también puede llevar integrales a ser inmediatas. Por ejemplo:
$$ \int \frac{2x}{x^2+3} \, dx = \ln |x^2+3| + k $$
ya que el numerador es la derivada del denominador [15](#page=15).
**Ejemplo:**
$$ \int \frac{1}{x} \, dx = \ln |x| + k $$
Se utiliza el valor absoluto para asegurar que el argumento del logaritmo sea positivo [15](#page=15).
### 4.3 Cambio de variable
Esta técnica, derivada de la regla de la cadena, permite simplificar integrales mediante la sustitución de una parte del integrando por una nueva variable, $t$. Si hacemos $x = g(t)$, entonces $dx = g'(t) \, dt$. La integral se transforma en:
$$ \int f(x) \, dx = \int f(g(t)) g'(t) \, dt $$
Es crucial deshacer el cambio de variable al final para que el resultado esté en función de $x$ [16](#page=16).
> **Tip:** La clave está en elegir el cambio de variable adecuado. Una buena pista es buscar si el integrando se puede descomponer en dos partes, donde una es la derivada de la otra.
**Ejemplo:**
Para resolver $I = \int \frac{(-3x+2)^2+1}{2} \, dx$, proponemos el cambio $t = -3x+2$. Derivando, obtenemos $dt = -3 \, dx$, por lo que $dx = -\frac{1}{3} dt$. La integral se transforma en:
$$ I = \int \frac{t^2+1}{2} \left(-\frac{1}{3}\right) dt = -\frac{1}{6} \int (t^2+1) \, dt = -\frac{1}{6} \left(\frac{t^3}{3} + t\right) + k $$
Deshaciendo el cambio:
$$ I = -\frac{1}{6} \left(\frac{(-3x+2)^3}{3} + (-3x+2)\right) + k $$
Otra forma de resolverla sería haberla transformado en una integral arcotangente directamente [16](#page=16).
**Ejemplo:**
Resolver $I = \int \cos x \sqrt{1+\sin x} \, dx$. Observamos que $\cos x$ es la derivada de $1+\sin x$. Sea $t = 1+\sin x$, entonces $dt = \cos x \, dx$. La integral se convierte en:
$$ I = \int \sqrt{t} \, dt = \int t^{1/2} \, dt = \frac{t^{3/2}}{3/2} + k = \frac{2}{3} (1+\sin x)^{3/2} + k $$
[16](#page=16).
Para **integrales definidas**, se puede optar por transformar también los límites de integración de acuerdo con el cambio de variable. Si $x = g(t)$ con $g$ continua y derivable en $[c, d]$, y $a=g(c)$, $b=g(d)$, entonces:
$$ \int_a^b f(x) \, dx = \int_c^d f(g(t)) g'(t) \, dt $$
[17](#page=17).
**Ejemplo:**
Calcular $I = \int_0^{\pi^2} \sin(\sqrt{x}) \, dx$. Sea $t = \sqrt{x}$, entonces $dt = \frac{1}{2\sqrt{x}} dx$, o $dx = 2\sqrt{x} dt = 2t \, dt$. Los límites cambian: si $x=0$, $t=0$; si $x=\pi^2$, $t=\pi$.
$$ I = \int_0^\pi \sin(t) (2t \, dt) = 2 \int_0^\pi t \sin t \, dt $$
Esta integral se resolverá más adelante [17](#page=17).
### 4.4 Integración por partes
Este método se basa en la regla de la derivada de un producto: $(uv)' = u'v + uv'$. Integrando, obtenemos la fórmula de integración por partes:
$$ \int uv' \, dx = uv - \int u'v \, dx $$
[18](#page=18).
> **Tip:** La clave es elegir $u$ y $v'$ de tal manera que la nueva integral $\int u'v \, dx$ sea más sencilla que la original y que sea fácil derivar $u$ y encontrar una primitiva de $v'$.
**Ejemplo:**
Calcular $I = \int \ln x \, dx$. Elegimos $u = \ln x$ y $v' = 1$. Entonces, $u' = \frac{1}{x}$ y $v = x$.
$$ I = x \ln x - \int x \cdot \frac{1}{x} \, dx = x \ln x - \int 1 \, dx = x \ln x - x + k $$
[18](#page=18).
A veces, es necesario aplicar la integración por partes varias veces, lo que se conoce como **integración por partes reiterada**.
**Ejemplo:**
Calcular $I = \int x^2 e^x \, dx$. Aplicamos integración por partes dos veces.
Primera aplicación: $u = x^2$, $v' = e^x \implies u' = 2x$, $v = e^x$.
$$ I = x^2 e^x - \int 2x e^x \, dx = x^2 e^x - 2 \int x e^x \, dx $$
Segunda aplicación para $\int x e^x \, dx$: $u = x$, $v' = e^x \implies u' = 1$, $v = e^x$.
$$ \int x e^x \, dx = x e^x - \int 1 \cdot e^x \, dx = x e^x - e^x $$
Sustituyendo de nuevo:
$$ I = x^2 e^x - 2(x e^x - e^x) + k = x^2 e^x - 2x e^x + 2e^x + k $$
[18](#page=18).
En ocasiones, la integración por partes conduce a una ecuación donde la integral original puede despejarse.
**Ejemplo:**
Calcular $I = \int e^x \cos x \, dx$.
Primera aplicación: $u = \cos x$, $v' = e^x \implies u' = -\sin x$, $v = e^x$.
$$ I = e^x \cos x - \int (-\sin x) e^x \, dx = e^x \cos x + \int e^x \sin x \, dx $$
Segunda aplicación para $\int e^x \sin x \, dx$: $u = \sin x$, $v' = e^x \implies u' = \cos x$, $v = e^x$.
$$ \int e^x \sin x \, dx = e^x \sin x - \int e^x \cos x \, dx $$
Sustituyendo en la primera ecuación:
$$ I = e^x \cos x + (e^x \sin x - I) $$
$$ 2I = e^x \cos x + e^x \sin x $$
$$ I = \frac{1}{2} e^x (\cos x + \sin x) + k $$
[19](#page=19).
La integración por partes también puede generar **fórmulas de recurrencia**.
**Ejemplo:**
Calcular $I_n = \int \cos^n x \, dx$. Elegimos $u = \cos^{n-1} x$ y $v' = \cos x$. Entonces $u' = -(n-1) \cos^{n-2} x \sin x$ y $v = \sin x$.
$$ I_n = \sin x \cos^{n-1} x - \int (-(n-1) \cos^{n-2} x \sin x) \sin x \, dx $$
$$ I_n = \sin x \cos^{n-1} x + (n-1) \int \cos^{n-2} x \sin^2 x \, dx $$
Usando $\sin^2 x = 1 - \cos^2 x$:
$$ I_n = \sin x \cos^{n-1} x + (n-1) \int \cos^{n-2} x (1 - \cos^2 x) \, dx $$
$$ I_n = \sin x \cos^{n-1} x + (n-1) \int \cos^{n-2} x \, dx - (n-1) \int \cos^n x \, dx $$
$$ I_n = \sin x \cos^{n-1} x + (n-1) I_{n-2} - (n-1) I_n $$
Despejando $I_n$:
$$ n I_n = \sin x \cos^{n-1} x + (n-1) I_{n-2} $$
$$ I_n = \frac{1}{n} \sin x \cos^{n-1} x + \frac{n-1}{n} I_{n-2} $$
[20](#page=20).
Para **integrales definidas**, se aplica el segundo teorema fundamental del cálculo junto con la integración por partes:
$$ \int_a^b uv' \, dx = [uv]_a^b - \int_a^b u'v \, dx = u(b)v(b) - u(a)v(a) - \int_a^b u'v \, dx $$
[20](#page=20).
**Ejemplo:**
Resolviendo la integral pendiente $I = \int_0^{\pi^2} \sin(\sqrt{x}) \, dx$ (de Ejemplo 6.17) por partes. Ya habíamos obtenido $I = 2 \int_0^\pi t \sin t \, dt$.
Elegimos $u = t$ y $v' = \sin t$. Entonces $u' = 1$ y $v = -\cos t$.
$$ I = 2 \left( [-t \cos t]_0^\pi - \int_0^\pi (-\cos t) \, dt \right) $$
$$ I = 2 \left( (-\pi \cos \pi - 0) + \int_0^\pi \cos t \, dt \right) $$
$$ I = 2 \left( \pi + [\sin t]_0^\pi \right) = 2 (\pi + (\sin \pi - \sin 0)) = 2\pi $$
[20](#page=20).
### 4.5 Integración de funciones racionales
Se refiere a la integración de funciones de la forma $\frac{p(x)}{q(x)}$, donde $p(x)$ y $q(x)$ son polinomios.
#### 4.5.1 Descomposición en fracciones simples
Si el grado de $p(x)$ es mayor o igual que el de $q(x)$, se realiza la división polinomial para obtener $P(x) + \frac{r(x)}{q(x)}$, donde el grado de $r(x)$ es menor que el de $q(x)$. El objetivo es descomponer el término racional $\frac{r(x)}{q(x)}$ en una suma de fracciones más simples [21](#page=21).
La descomposición se basa en la factorización del denominador $q(x)$ en factores lineales $ (x-a_i)^{n_i} $ y factores cuadráticos irreducibles $ (x^2 + b_k x + c_k)^{m_k} $.
$$ q(x) = K \prod (x-a_i)^{n_i} \prod (x^2 + b_k x + c_k)^{m_k} $$
La función racional se descompone como:
$$ \frac{p(x)}{q(x)} = \sum_{i} \sum_{j=1}^{n_i} \frac{A_{i,j}}{(x-a_i)^j} + \sum_{k} \sum_{l=1}^{m_k} \frac{B_{k,l}x + C_{k,l}}{(x^2 + b_k x + c_k)^l} $$
donde $A_{i,j}$, $B_{k,l}$ y $C_{k,l}$ son constantes reales a determinar [21](#page=21).
> **Tip:** Las raíces reales del denominador se identifican fácilmente para formar los primeros términos de la suma. Los factores cuadráticos irreducibles corresponden a raíces complejas o a factores no factorizables en reales.
**Ejemplo:**
Descomponer $\frac{2x^3 + 13x - 30}{(x+2)(x-1)^2(x^2+4)}$.
Las raíces reales son $x=-2$ (multiplicidad 1) y $x=1$ (multiplicidad 2). El factor irreducible es $x^2+4$. La descomposición es:
$$ \frac{A}{x+2} + \frac{B}{x-1} + \frac{C}{(x-1)^2} + \frac{Dx+E}{x^2+4} $$
Igualando numeradores y dando valores a $x$ (especialmente las raíces del denominador) permite calcular los coeficientes. Para $x=1$, se obtiene $C=-1$. Para $x=-2$, se obtiene $A=-1$. Usando otros valores como $x=0, x=-1, x=2$ y resolviendo el sistema de ecuaciones resultante, se obtienen los valores $B=2$, $D=-1$, $E=-1$.
La descomposición queda:
$$ \frac{-1}{x+2} + \frac{2}{x-1} + \frac{-1}{(x-1)^2} + \frac{-x-1}{x^2+4} $$
[21](#page=21) [22](#page=22) [23](#page=23).
Las integrales de estas fracciones simples son manejables:
* Integrales de la forma $ \int \frac{A}{x-a} \, dx = A \ln |x-a| + k $.
* Integrales de la forma $ \int \frac{A}{(x-a)^n} \, dx = \frac{A}{-(n-1)(x-a)^{n-1}} + k $ para $n \neq 1$.
* Integrales con denominador irreducible de segundo grado, como $ \int \frac{Dx+E}{x^2+b x+c} \, dx $, se resuelven separando en un logaritmo y un arcotangente.
**Ejemplo:**
Calcular $I = \int \frac{2x^3 + 13x - 30}{(x+2)(x-1)^2(x^2+4)} \, dx$. Usando la descomposición anterior:
$$ I = \int \frac{-1}{x+2} \, dx + \int \frac{2}{x-1} \, dx + \int \frac{-1}{(x-1)^2} \, dx + \int \frac{-x-1}{x^2+4} \, dx $$
Las primeras tres son inmediatas:
$$ - \ln |x+2| + 2 \ln |x-1| + \frac{1}{x-1} $$
La cuarta integral se separa:
$$ \int \frac{-x}{x^2+4} \, dx - \int \frac{1}{x^2+4} \, dx = -\frac{1}{2} \ln |x^2+4| - \frac{1}{2} \arctan\left(\frac{x}{2}\right) $$
Sumando todas las partes:
$$ I = -\ln |x+2| + 2 \ln |x-1| + \frac{1}{x-1} - \frac{1}{2} \ln |x^2+4| - \frac{1}{2} \arctan\left(\frac{x}{2}\right) + k $$
Combinando logaritmos y reordenando:
$$ I = \ln \frac{|x-1|^2}{|x+2|\sqrt{x^2+4}} + \frac{1}{x-1} - \frac{1}{2} \arctan\left(\frac{x}{2}\right) + k $$
[23](#page=23) [24](#page=24).
#### 4.5.2 Método de Hermite
Este método es particularmente útil para integrales racionales con raíces múltiples en el denominador. La idea es expresar la integral racional como la suma de una derivada de una fracción racional y una integral racional más simple:
$$ \int \frac{p(x)}{q(x)} \, dx = \frac{d}{dx} \left(\frac{g(x)}{q_1(x)}\right) + \int \frac{P_1(x)}{q_1(x)} \, dx $$
donde $q_1(x)$ es el factor obtenido al dividir $q(x)$ por el máximo común divisor de $q(x)$ y $q'(x)$. $q_1(x)$ contiene las mismas raíces que $q(x)$ pero con multiplicidad uno. $g(x)$ es un polinomio con las mismas raíces que $q(x)$ pero con multiplicidad reducida en uno. La integral restante $\int \frac{P_1(x)}{q_1(x)} \, dx$ es una integral racional con denominador de raíces simples.
**Ejemplo:**
Calcular $I = \int \frac{1}{(x+1)(x^2+1)^2} \, dx$.
El denominador es $q(x) = (x+1)(x^2+1)^2$.
El método de Hermite propone la forma:
$$ I = \frac{d}{dx} \left(\frac{cx+d}{x^2+1}\right) + \int \left(\frac{A}{x+1} + \frac{Mx+N}{x^2+1}\right) \, dx $$
Tras realizar la derivada, igualar coeficientes y resolver el sistema de ecuaciones resultante para $c, d, A, M, N$, se obtienen los valores. Este proceso es laborioso, pero simplifica la integral final.
[25](#page=25) [26](#page=26).
### 4.6 Integración de expresiones trigonométricas
Muchas integrales que involucran funciones trigonométricas pueden transformarse en integrales racionales mediante el cambio de variable $t = \tan(\frac{x}{2})$. Con este cambio:
* $dx = \frac{2 \, dt}{1+t^2}$
* $\sin x = \frac{2t}{1+t^2}$
* $\cos x = \frac{1-t^2}{1+t^2}$
[27](#page=27).
**Ejemplo:**
Calcular $I = \int \frac{1}{1+\sin^2 x} \, dx$. Aplicando el cambio $t = \tan(\frac{x}{2})$:
$$ I = \int \frac{1}{1 + \left(\frac{2t}{1+t^2}\right)^2} \cdot \frac{2 \, dt}{1+t^2} = \int \frac{1}{\frac{(1+t^2)^2 + (2t)^2}{(1+t^2)^2}} \cdot \frac{2 \, dt}{1+t^2} $$
$$ I = \int \frac{(1+t^2)^2}{(1+t^2)^2 + 4t^2} \cdot \frac{2 \, dt}{1+t^2} = \int \frac{2(1+t^2)}{1+2t^2+t^4+4t^2} \, dt = \int \frac{2(1+t^2)}{1+6t^2+t^4} \, dt $$
Esta integral racional puede resolverse. Si se utiliza el cambio $t=\tan x$ en lugar de $t=\tan(x/2)$, la integral se simplifica:
$$ I = \int \frac{1}{1+\sin^2 x} \, dx = \int \frac{1}{\cos^2 x + \sin^2 x + \sin^2 x} \, dx = \int \frac{1}{\cos^2 x + 2\sin^2 x} \, dx $$
Dividiendo numerador y denominador por $\cos^2 x$:
$$ I = \int \frac{\sec^2 x}{1 + 2\tan^2 x} \, dx $$
Sea $u = \tan x$, $du = \sec^2 x \, dx$.
$$ I = \int \frac{1}{1 + 2u^2} \, du = \frac{1}{2} \int \frac{1}{\frac{1}{2} + u^2} \, du = \frac{1}{2} \int \frac{1}{(\frac{1}{\sqrt{2}})^2 + u^2} \, du $$
$$ I = \frac{1}{2} \cdot \frac{1}{1/\sqrt{2}} \arctan\left(\frac{u}{1/\sqrt{2}}\right) + k = \frac{\sqrt{2}}{2} \arctan(\sqrt{2} u) + k = \frac{1}{\sqrt{2}} \arctan(\sqrt{2} \tan x) + k $$
[27](#page=27).
Cuando el integrando tiene la forma $\sin^m x \cos^n x$, se recurre a identidades trigonométricas para simplificar la integral.
* Si $n$ y $m$ son pares:
* $\sin^2 x = \frac{1 - \cos(2x)}{2}$
* $\cos^2 x = \frac{1 + \cos(2x)}{2}$
**Ejemplo:**
Calcular $I = \int \cos^2 x \sin^2 x \, dx$.
$$ I = \int \left(\frac{1+\cos(2x)}{2}\right) \left(\frac{1-\cos(2x)}{2}\right) \, dx = \int \frac{1 - \cos^2(2x)}{4} \, dx $$
Usando de nuevo la identidad para $\cos^2$:
$$ I = \frac{1}{4} \int \left(1 - \frac{1+\cos(4x)}{2}\right) \, dx = \frac{1}{4} \int \left(\frac{1}{2} - \frac{\cos(4x)}{2}\right) \, dx $$
$$ I = \frac{1}{8} \int (1 - \cos(4x)) \, dx = \frac{1}{8} \left(x - \frac{1}{4} \sin(4x)\right) + k = \frac{x}{8} - \frac{1}{32} \sin(4x) + k $$
[28](#page=28).
---
# Integración numérica y aproximaciones
Este tema aborda la necesidad de aproximar el valor de integrales definidas cuando su cálculo analítico es imposible o cuando solo se conocen los valores de la función en puntos discretos [29](#page=29) [30](#page=30).
### 5.1 Motivación y principios generales
La integración numérica se vuelve esencial porque no siempre es posible encontrar una primitiva de una función para aplicar la Regla de Barrow. Además, en escenarios prácticos, a menudo solo se dispone de valores de la función en puntos específicos dentro del intervalo de integración. Los métodos de integración numérica se basan en la idea de que la integral definida de una función sobre un intervalo representa el área bajo su curva. La estrategia general implica dividir el intervalo de integración en subintervalos más pequeños y aplicar fórmulas de aproximación del área en cada uno de ellos, sumando luego los resultados [29](#page=29) [30](#page=30).
> **Tip:** Es recomendable representar gráficamente el significado de la integración numérica para una mejor comprensión. Para minimizar errores de cálculo, se aconseja el uso de hojas de cálculo o software de cálculo simbólico [29](#page=29).
### 5.2 Métodos elementales de aproximación
Los métodos elementales de integración numérica aproximan la función por polinomios sencillos cuyos valores se conocen en puntos específicos.
#### 5.2.1 Fórmulas de los rectángulos
Las fórmulas de los rectángulos aproximan la integral utilizando el área de rectángulos [30](#page=30).
* **Fórmula del rectángulo izquierdo:** Se aproxima la integral por el área de un rectángulo con base `(b-a)` y altura `f(a)` [30](#page=30).
$$ \int_a^b f(x) dx \approx f(a)(b-a) $$
* **Fórmula del rectángulo derecho:** Se aproxima la integral por el área de un rectángulo con base `(b-a)` y altura `f(b)` [30](#page=30).
$$ \int_a^b f(x) dx \approx f(b)(b-a) $$
* **Fórmula del rectángulo central:** Se aproxima la integral por el área de un rectángulo con base `(b-a)` y altura `f((a+b)/2)` [30](#page=30).
$$ \int_a^b f(x) dx \approx f\left(\frac{a+b}{2}\right)(b-a) $$
> **Example:** Para la función $f(x) = x^3 - 3.3x^2 + 3x$ en el intervalo [1, 2.5, la fórmula del rectángulo izquierdo da una aproximación de 1.05, la del derecho de 3.75, y la central de 0.75 [31](#page=31).
#### 5.2.2 Fórmulas compuestas de los rectángulos
Para reducir el error, el intervalo `[a, b]` se divide en `n` subintervalos iguales de longitud `h = (b-a)/n`. Las fórmulas compuestas aplican el método del rectángulo en cada subintervalo y suman los resultados [32](#page=32).
* **Fórmula compuesta del rectángulo izquierdo:**
$$ \int_a^b f(x) dx \approx \frac{(b-a)}{n} \sum_{k=0}^{n-1} f(x_k) $$
donde $x_k = a + kh$.
* **Fórmula compuesta del rectángulo derecho:**
$$ \int_a^b f(x) dx \approx \frac{(b-a)}{n} \sum_{k=1}^{n} f(x_k) $$
donde $x_k = a + kh$.
* **Fórmula compuesta del rectángulo central:**
$$ \int_a^b f(x) dx \approx \frac{(b-a)}{n} \sum_{k=0}^{n-1} f\left(x_k + \frac{h}{2}\right) $$
donde $x_k = a + kh$.
> **Example:** Aplicando las fórmulas compuestas de los rectángulos a la integral del Ejemplo 6.29 con tres subintervalos: el izquierdo aproxima la integral a 0.975, el derecho a 1.875, y el central a 1.242 [32](#page=32).
#### 5.2.3 Fórmula del trapecio
La fórmula del trapecio aproxima la función mediante un polinomio de grado uno (una recta) que une dos puntos consecutivos, y luego integra esta recta [32](#page=32).
* **Fórmula del trapecio:**
$$ \int_a^b f(x) dx \approx \frac{f(a) + f(b)}{2} (b-a) $$
Geométricamente, esto corresponde al área de un trapecio con bases $f(a)$ y $f(b)$ y altura $(b-a)$ [33](#page=33).
> **Example:** Para la integral del Ejemplo 6.29, la fórmula del trapecio da una aproximación de 2.4 [33](#page=33).
#### 5.2.4 Fórmula compuesta del trapecio
Similar a las fórmulas compuestas de los rectángulos, el intervalo `[a, b]` se divide en `n` subintervalos iguales. Se aplica la fórmula del trapecio en cada subintervalo y se suman los resultados [33](#page=33).
$$ \int_a^b f(x) dx \approx \frac{h}{2} (f_0 + 2f_1 + 2f_2 + \dots + 2f_{n-1} + f_n) $$
donde $h = (b-a)/n$ y $f_k = f(x_k)$ con $x_k = a + kh$.
> **Tip:** La fórmula compuesta del trapecio se puede recordar como: $\frac{h}{2} (\text{Extremos} + 2 \times \text{Centrales})$.
> **Example:** Aplicando la fórmula compuesta del trapecio con dos subintervalos a la integral del Ejemplo 6.29, se obtiene una aproximación de 1.577 [33](#page=33).
#### 5.2.5 Fórmula de Simpson
La fórmula de Simpson aproxima la función mediante un polinomio de grado dos (una parábola) que pasa por tres puntos: los extremos del subintervalo y el punto medio [33](#page=33).
* **Fórmula de Simpson (para un solo intervalo de la forma `[a, b]` con un punto medio `(a+b)/2`):**
$$ \int_a^b f(x) dx \approx \frac{f(a) + 4f\left(\frac{a+b}{2}\right) + f(b)}{6} (b-a) $$
#### 5.2.6 Regla de Simpson compuesta
Para la regla de Simpson compuesta, el intervalo `[a, b]` se divide en `n` subintervalos, lo que requiere que el número total de puntos sea `2n` (incluyendo los extremos y los puntos medios de cada subintervalo) [34](#page=34).
$$ \int_a^b f(x) dx \approx \frac{h}{6} (f_0 + 4f_1 + 2f_2 + 4f_3 + \dots + 2f_{2n-2} + 4f_{2n-1} + f_{2n}) $$
donde $h = (b-a)/n$ y $f_k = f(x_k)$ con $x_k = a + kh$.
> **Tip:** La regla de Simpson compuesta se puede recordar como: $\frac{h}{6} (\text{Extremos} + 2 \times \text{Pares} + 4 \times \text{Impares})$.
> **Example:** Para una tabla de valores dada, la fórmula de Simpson simple aproxima la integral I a 1.23. Utilizando la fórmula compuesta de Simpson en tres subintervalos, la aproximación es 1.2333 [34](#page=34).
### 5.3 Estimaciones del error
La estimación del error es crucial en métodos numéricos para evaluar la precisión de las aproximaciones [35](#page=35).
#### 5.3.1 Error de la fórmula compuesta del trapecio
Si se utiliza la fórmula compuesta del trapecio con `m` subintervalos, el error absoluto `$\epsilon$` satisface la siguiente cota [35](#page=35):
$$ |\epsilon| \le \frac{(b-a)^3}{12m^2} M_2 $$
donde $M_2$ es una cota superior del valor absoluto de la segunda derivada de $f(x)$ en el intervalo $[a, b]$, es decir, $|f''(x)| \le M_2$ para todo $x \in [a, b]$.
> **Example:** Al aproximar la integral $\int_0^1 e^{-x^2} dx$ con 10 y 20 subintervalos, y sabiendo que $|f''(x)| \le 2$ en $ $, los errores máximos estimados son $\epsilon_{10} \le 1/600$ y $\epsilon_{20} \le 1/2400$ [1](#page=1) [35](#page=35) [36](#page=36).
#### 5.3.2 Error de la regla de Simpson compuesta
Si se utiliza la regla de Simpson compuesta con `m` subintervalos, el error absoluto `$\epsilon$` satisface la siguiente cota [36](#page=36):
$$ |\epsilon| \le \frac{(b-a)^5}{2880m^4} M_4 $$
donde $M_4$ es una cota superior del valor absoluto de la cuarta derivada de $f(x)$ en el intervalo $[a, b]$, es decir, $|f^{ }(x)| \le M_4$ para todo $x \in [a, b]$ [4](#page=4).
> **Example:** Para aproximar $\int_0^2 f(x) dx$ con $|f^{ }(x)| \le 50$ y un error absoluto deseado menor que 0.0001, se necesita dividir el intervalo en al menos nueve subintervalos [36](#page=36) [4](#page=4).
---
# Integrales impropias y paso al límite en integración
Este tema explora cómo extender el concepto de integración a intervalos no acotados o funciones no acotadas, analizando su convergencia y divergencia, y estableciendo condiciones para intercambiar el orden del límite y la integral en sucesiones de funciones.
### 6.1 Integrales impropias
Las integrales impropias surgen cuando el intervalo de integración no está acotado o la función a integrar no está acotada en dicho intervalo. Su cálculo se basa en la noción de límite [37](#page=37) [38](#page=38).
#### 6.1.1 Integrales impropias de primera especie
Estas integrales involucran intervalos de integración no acotados [38](#page=38).
* **Definición:** Si $f : [a, \infty) \to \mathbb{R}$ es una función continua, la integral impropia de primera especie en $[a, \infty)$ se define como:
$$ \int_{a}^{\infty} f(x) dx = \lim_{M \to \infty} \int_{a}^{M} f(x) dx $$
Si el límite existe y es un número real, la integral es **convergente**; de lo contrario, es **divergente** [38](#page=38).
* **Extensión a otros intervalos:** La definición se extiende a intervalos $(-\infty, b]$ y $\mathbb{R}$:
$$ \int_{-\infty}^{b} f(x) dx = \lim_{M \to -\infty} \int_{M}^{b} f(x) dx $$
$$ \int_{-\infty}^{\infty} f(x) dx = \int_{-\infty}^{c} f(x) dx + \int_{c}^{\infty} f(x) dx $$
para un número real $c$. La integral en $\mathbb{R}$ es convergente si ambas integrales son convergentes [40](#page=40).
* **Ejemplos:**
* Estudio de $\int_{1}^{\infty} \frac{1}{x} dx$:
$$ \int_{1}^{\infty} \frac{1}{x} dx = \lim_{M \to \infty} \int_{1}^{M} \frac{1}{x} dx = \lim_{M \to \infty} [\ln x]_{1}^{M} = \lim_{M \to \infty} (\ln M - \ln 1) = \infty $$
La integral es divergente [39](#page=39).
* Estudio de $\int_{1}^{\infty} \frac{1}{x^p} dx$ para $p \in \mathbb{R}$:
* Si $p=1$, diverge (como se vio anteriormente) [39](#page=39).
* Si $p \neq 1$:
$$ \int_{1}^{\infty} \frac{1}{x^p} dx = \lim_{M \to \infty} \int_{1}^{M} x^{-p} dx = \lim_{M \to \infty} \left[ \frac{x^{1-p}}{1-p} \right]_{1}^{M} = \lim_{M \to \infty} \frac{1}{1-p} (M^{1-p} - 1) $$
* Si $1-p > 0$ (es decir, $p < 1$), el límite es $\infty$, por lo que la integral diverge [39](#page=39).
* Si $1-p < 0$ (es decir, $p > 1$), el límite es $-\frac{1}{1-p} = \frac{1}{p-1}$, por lo que la integral converge [39](#page=39).
* Estudio de $\int_{0}^{\infty} e^{-kx} dx$:
* Si $k=0$, la integral $\int_{0}^{\infty} 1 dx$ es divergente [39](#page=39).
* Si $k \neq 0$:
$$ \int_{0}^{\infty} e^{-kx} dx = \lim_{M \to \infty} \int_{0}^{M} e^{-kx} dx = \lim_{M \to \infty} \left[ -\frac{1}{k} e^{-kx} \right]_{0}^{M} = \lim_{M \to \infty} -\frac{1}{k} (e^{-kM} - 1) $$
* Si $k > 0$, $\lim_{M \to \infty} e^{-kM} = 0$, por lo que el límite es $\frac{1}{k}$, y la integral converge [40](#page=40).
* Si $k < 0$, $\lim_{M \to \infty} e^{-kM} = \infty$, por lo que la integral diverge [40](#page=40).
* Estudio de $\int_{-\infty}^{\infty} \frac{1}{1+x^2} dx$:
$$ \int_{-\infty}^{\infty} \frac{1}{1+x^2} dx = \int_{-\infty}^{0} \frac{1}{1+x^2} dx + \int_{0}^{\infty} \frac{1}{1+x^2} dx $$
$$ = \lim_{N \to -\infty} \int_{N}^{0} \frac{1}{1+x^2} dx + \lim_{M \to \infty} \int_{0}^{M} \frac{1}{1+x^2} dx $$
$$ = \lim_{N \to -\infty} [\arctan x]_{N}^{0} + \lim_{M \to \infty} [\arctan x]_{0}^{M} = \lim_{N \to -\infty} (0 - \arctan N) + \lim_{M \to \infty} (\arctan M - 0) $$
$$ = 0 - (-\frac{\pi}{2}) + (\frac{\pi}{2} - 0) = \frac{\pi}{2} + \frac{\pi}{2} = \pi $$
La integral es convergente [40](#page=40).
* **Condición necesaria para convergencia:** Si $\int_{a}^{\infty} f(x) dx$ converge, entonces $\lim_{x \to \infty} f(x) = 0$, siempre que el límite exista [40](#page=40).
#### 6.1.2 Integrales impropias de segunda especie
Estas integrales involucran funciones no acotadas en un intervalo acotado [40](#page=40) [41](#page=41).
* **Definición:** Si $f : (a, b \to \mathbb{R}$ es una función continua y no acotada en $(a, b]$, la integral impropia de segunda especie es:
$$ \int_{a}^{b} f(x) dx = \lim_{c \to a^{+}} \int_{c}^{b} f(x) dx $$
Si el límite es un número real, la integral es **convergente**; de lo contrario, es **divergente** [41](#page=41).
De forma análoga, si $f : [a, b) \to \mathbb{R}$ es continua y no acotada en $[a, b)$, se define como:
$$ \int_{a}^{b} f(x) dx = \lim_{c \to b^{-}} \int_{a}^{c} f(x) dx $$
* **Integrales con asíntota vertical:** Si una función $f: (a, b \to \mathbb{R}$ tiene una asíntota vertical en $x=c$, donde $c \in [a, b]$, la integral se divide en dos integrales de segunda especie [42](#page=42).
* **Ejemplos:**
* Estudio de $\int_{0}^{1} \frac{1}{x^p} dx$ para $p \in \mathbb{R}$:
* Para $c \in (0, 1]$ y $p \neq 1$:
$$ \int_{c}^{1} \frac{1}{x^p} dx = \int_{c}^{1} x^{-p} dx = \left[ \frac{x^{1-p}}{1-p} \right]_{c}^{1} = \frac{1 - c^{1-p}}{1-p} $$
* Si $1-p > 0$ (es decir, $p < 1$), $\lim_{c \to 0^{+}} c^{1-p} = 0$. El límite es $\frac{1}{1-p}$, por lo que la integral converge [41](#page=41).
* Si $1-p < 0$ (es decir, $p > 1$), $\lim_{c \to 0^{+}} c^{1-p} = \infty$. El límite es $\infty$, por lo que la integral diverge [41](#page=41).
* Si $p=1$:
$$ \int_{0}^{1} \frac{1}{x} dx = \lim_{c \to 0^{+}} \int_{c}^{1} \frac{1}{x} dx = \lim_{c \to 0^{+}} [\ln x]_{c}^{1} = \lim_{c \to 0^{+}} (\ln 1 - \ln c) = \lim_{c \to 0^{+}} (-\ln c) = \infty $$
La integral diverge [41](#page=41).
* Estudio de $\int_{-1}^{1} \frac{1}{x^2} dx$:
La función $\frac{1}{x^2}$ tiene una asíntota vertical en $x=0$. Se divide en dos integrales impropias de segunda especie:
$$ \int_{-1}^{1} \frac{1}{x^2} dx = \int_{-1}^{0} \frac{1}{x^2} dx + \int_{0}^{1} \frac{1}{x^2} dx $$
Ambas integrales son divergentes:
$$ \int_{0}^{1} \frac{1}{x^2} dx = \lim_{c \to 0^{+}} \int_{c}^{1} x^{-2} dx = \lim_{c \to 0^{+}} \left[ -x^{-1} \right]_{c}^{1} = \lim_{c \to 0^{+}} (-1 - (-\frac{1}{c})) = \lim_{c \to 0^{+}} (\frac{1}{c} - 1) = \infty $$
$$ \int_{-1}^{0} \frac{1}{x^2} dx = \lim_{c \to 0^{-}} \int_{-1}^{c} x^{-2} dx = \lim_{c \to 0^{-}} \left[ -x^{-1} \right]_{-1}^{c} = \lim_{c \to 0^{-}} (-\frac{1}{c} - (-\frac{1}{-1})) = \lim_{c \to 0^{-}} (-\frac{1}{c} - 1) = \infty $$
Por lo tanto, la integral $\int_{-1}^{1} \frac{1}{x^2} dx$ es divergente [42](#page=42).
#### 6.1.3 Integrales de tercera especie
Son aquellas donde el intervalo de integración es no acotado y la función a integrar no está acotada simultáneamente. Se resuelven dividiéndolas en la suma de una integral de primera especie y una de segunda especie [41](#page=41).
### 6.2 Criterios de convergencia y divergencia
Evaluar integrales impropias puede ser complejo, por lo que se utilizan criterios de comparación con integrales conocidas.
#### 6.2.1 Criterio de comparación (primera especie)
Sean $f(x) \ge 0$ y $g(x) \ge 0$ funciones continuas para $x \in [a, \infty)$.
* Si $\int_{a}^{\infty} g(x) dx$ converge, entonces $\int_{a}^{\infty} f(x) dx$ también converge [43](#page=43).
* Si $\int_{a}^{\infty} f(x) dx$ diverge, entonces $\int_{a}^{\infty} g(x) dx$ también diverge [43](#page=43).
* **Ejemplo:** Estudiar la convergencia de $\int_{1}^{\infty} \frac{1}{\sqrt{x^4 + x^2 + 1}} dx$.
Para $x \ge 1$, tenemos:
$$ 0 \le \frac{1}{\sqrt{x^4 + x^2 + 1}} \le \frac{1}{\sqrt{x^4}} = \frac{1}{x^2} $$
Como $\int_{1}^{\infty} \frac{1}{x^2} dx$ converge (p=2 > 1) por el criterio de comparación, $\int_{1}^{\infty} \frac{1}{\sqrt{x^4 + x^2 + 1}} dx$ también converge [39](#page=39) [43](#page=43).
Este criterio tiene un equivalente para integrales de segunda especie [43](#page=43).
#### 6.2.2 Criterio de comparación mediante límite
Sean $f(x) \ge 0$ y $g(x) > 0$ funciones continuas para $x \in [a, \infty)$. Sea $L = \lim_{x \to \infty} \frac{f(x)}{g(x)}$.
* Si $L \in (0, \infty)$, entonces $\int_{a}^{\infty} f(x) dx$ y $\int_{a}^{\infty} g(x) dx$ son ambas convergentes o ambas divergentes [44](#page=44).
* Si $L = 0$ y $\int_{a}^{\infty} g(x) dx$ converge, entonces $\int_{a}^{\infty} f(x) dx$ converge [44](#page=44).
* Si $L = \infty$ y $\int_{a}^{\infty} g(x) dx$ diverge, entonces $\int_{a}^{\infty} f(x) dx$ diverge [44](#page=44).
* **Ejemplo:** Estudiar la convergencia de $\int_{0}^{\infty} \frac{1}{e^x + 1} dx$.
Sabemos que $\int_{0}^{\infty} e^{-x} dx$ converge (k=1 > 0) [40](#page=40).
Consideremos el límite:
$$ \lim_{x \to \infty} \frac{\frac{1}{e^x + 1}}{e^{-x}} = \lim_{x \to \infty} \frac{e^x}{e^x + 1} = \lim_{x \to \infty} \frac{1}{1 + e^{-x}} = 1 $$
Como el límite es $1 \in (0, \infty)$ y $\int_{0}^{\infty} e^{-x} dx$ converge, la integral $\int_{0}^{\infty} \frac{1}{e^x + 1} dx$ también converge [44](#page=44).
Este criterio también se puede extender a integrales de segunda especie [44](#page=44).
### 6.3 Sucesiones funcionales e integrabilidad
La relación entre límite e integral en sucesiones de funciones se establece mediante el concepto de convergencia uniforme.
#### 6.3.1 Proposición sobre convergencia uniforme e integrabilidad
Sea $\{f_n\}$ una sucesión de funciones que converge uniformemente a la función $f$ en $[a, b]$. Si las funciones $f_n$ son continuas en $[a, b]$, entonces se puede intercambiar el límite y la integral:
$$ \int_{a}^{b} f(x) dx = \lim_{n \to \infty} \int_{a}^{b} f_n(x) dx $$
* **Ejemplo:** Sea $f_n(x) = \frac{2n \cos x + \sin(2nx)}{n}$ en $[0, \pi]$.
* Convergencia puntual:
$$ \lim_{n \to \infty} f_n(x) = \lim_{n \to \infty} \left( 2 \cos x + \frac{\sin(2nx)}{n} \right) $$
Como $0 \le \sin(2nx) \le 1$, $\lim_{n \to \infty} \frac{\sin(2nx)}{n} = 0$.
Por lo tanto, $f_n(x)$ converge puntualmente a $f(x) = 2 \cos x$ [45](#page=45).
* Convergencia uniforme:
$$ |f_n(x) - f(x)| = \left| \frac{2n \cos x + \sin(2nx)}{n} - 2 \cos x \right| = \left| 2 \cos x + \frac{\sin(2nx)}{n} - 2 \cos x \right| = \left| \frac{\sin(2nx)}{n} \right| \le \frac{1}{n} $$
Entonces, $\sup_{x \in [0, \pi]} |f_n(x) - f(x)| \le \frac{1}{n}$. Dado que $\lim_{n \to \infty} \frac{1}{n} = 0$, la convergencia es uniforme [45](#page=45).
* Cálculo de la integral del límite:
Como la convergencia es uniforme y las $f_n$ son continuas, podemos intercambiar el límite y la integral:
$$ \lim_{n \to \infty} \int_{0}^{\pi} f_n(x) dx = \int_{0}^{\pi} f(x) dx = \int_{0}^{\pi} 2 \cos x dx = [2 \sin x]_{0}^{\pi} = 2 \sin \pi - 2 \sin 0 = 0 - 0 = 0 $$
#### 6.3.2 Integración término a término de series
Si una función $f(x)$ se representa como una serie de potencias en $(-c, c)$, $f(x) = \sum_{n=0}^{\infty} a_n x^n$, entonces su integral también puede calcularse término a término:
$$ \int f(x) dx = \int \left( \sum_{n=0}^{\infty} a_n x^n \right) dx = \sum_{n=0}^{\infty} \int a_n x^n dx = \sum_{n=0}^{\infty} a_n \frac{x^{n+1}}{n+1} + k $$
donde $k \in \mathbb{R}$ es la constante de integración [46](#page=46).
* **Ejemplo:** Calcular una primitiva de $f(x) = \sum_{n=0}^{\infty} (-1)^n x^n = 1 - x + x^2 - x^3 + \dots$ en $(-1, 1)$.
$$ \int f(x) dx = \int \left( \sum_{n=0}^{\infty} (-1)^n x^n \right) dx = \sum_{n=0}^{\infty} \int (-1)^n x^n dx = \sum_{n=0}^{\infty} (-1)^n \frac{x^{n+1}}{n+1} + k $$
---
## Errores comunes a evitar
- Revise todos los temas a fondo antes de los exámenes
- Preste atención a las fórmulas y definiciones clave
- Practique con los ejemplos proporcionados en cada sección
- No memorice sin entender los conceptos subyacentes
Glossary
| Término | Definición |
|---|---|
| Integral de Riemann | Es una forma de definir formalmente la integral definida de una función continua como el límite de una suma ponderada de los valores de la función en puntos de una partición del intervalo de integración, donde la finura de la partición tiende a cero. |
| Integral definida | Representa el área neta (o volumen neto) bajo una curva entre dos puntos específicos en el eje horizontal. Se calcula como el límite de las sumas de Riemann. |
| Integral indefinida | Se refiere al conjunto de todas las primitivas de una función dada. Es la operación inversa de la derivación y se denota usualmente con la constante de integración 'k'. |
| Primitiva | Una función $F(x)$ es una primitiva de otra función $f(x)$ si la derivada de $F(x)$ es igual a $f(x)$ en todo el intervalo considerado, es decir, $F'(x) = f(x)$. |
| Suma de Riemann | Es la suma de las áreas de rectángulos que aproximan la región bajo la curva de una función. Se calcula como $\sum_{i=1}^{n} f(c_i) \Delta x_i$, donde $c_i$ es un punto en el subintervalo y $\Delta x_i$ es la longitud del subintervalo. |
| Teorema fundamental del Cálculo | Un conjunto de dos teoremas que establecen la relación fundamental entre la derivación y la integración, permitiendo calcular integrales definidas evaluando una primitiva en los límites de integración. |
| Regla de Barrow | También conocida como el segundo teorema fundamental del Cálculo, establece que la integral definida de una función $f(x)$ desde $a$ hasta $b$ es igual a $F(b) - F(a)$, donde $F(x)$ es cualquier primitiva de $f(x)$. |
| Cambio de variable | Una técnica de integración que sustituye la variable de integración por una nueva variable, a menudo para simplificar la integral o transformarla en una forma conocida, utilizando la regla de la cadena de la derivación. |
| Integración por partes | Una técnica de integración que deriva de la regla del producto de la derivación, permitiendo integrar el producto de dos funciones mediante la fórmula $\int u \, dv = uv - \int v \, du$. |
| Fracciones simples | Término utilizado en la descomposición de funciones racionales, donde un cociente de polinomios se expresa como una suma de fracciones con denominadores que son potencias de factores lineales o cuadráticos irreducibles del denominador original. |
| Integración numérica | Métodos para aproximar el valor de una integral definida cuando no es posible calcularla analíticamente o cuando solo se conocen valores discretos de la función. |
| Fórmulas de los rectángulos | Métodos de integración numérica que aproximan la integral mediante el área de rectángulos. Las fórmulas izquierda, derecha y central utilizan la altura de los rectángulos en los extremos o en el punto medio de cada subintervalo. |
| Fórmula del trapecio | Un método de integración numérica que aproxima la integral mediante el área de trapecios formados por conectar puntos adyacentes de la función con líneas rectas. |
| Fórmula de Simpson | Un método de integración numérica que aproxima la integral utilizando polinomios de grado dos (parábolas) para interpolar puntos de la función, ofreciendo generalmente una mayor precisión que los métodos anteriores. |
| Integrales impropias | Integrales definidas donde el intervalo de integración es infinito o la función a integrar es no acotada en algún punto del intervalo. Se definen como límites de integrales definidas ordinarias. |
| Convergencia de una integral | Una integral impropia se dice que es convergente si el límite que la define existe y es un número real finito. |
| Divergencia de una integral | Una integral impropia se dice que es divergente si el límite que la define no existe o es infinito. |
| Sucesión funcional | Una colección de funciones, indexadas por un número natural, que puede converger a otra función (puntual o uniformemente) bajo ciertas condiciones. |
| Convergencia uniforme | Un tipo de convergencia de sucesiones funcionales donde la distancia máxima entre la función de la sucesión y la función límite es uniformemente pequeña en todo el intervalo. |
Cover
lezione251003_833f05d8505c6b78e8a23d150bf187e2.pdf
Summary
# Maggioranti, minoranti, massimi, minimi, estremi superiori ed inferiori
Ecco il riassunto di studio per l'argomento "Maggioranti, minoranti, massimi, minimi, estremi superiori ed inferiori".
## 1. Maggioranti, minoranti, massimi, minimi, estremi superiori ed inferiori
Questo argomento introduce i concetti fondamentali per descrivere la limitatezza degli insiemi numerici, definendo gli elementi che circoscrivono un insieme e quelli che vi appartengono, culminando negli estremi superiori e inferiori.
### 1.1 Limitazione di un insieme
#### 1.1.1 Insieme superiormente limitato
Un insieme $A \subseteq \mathbb{R}$ si dice **superiormente limitato** se esiste un numero reale $M$ tale che per ogni elemento $a$ appartenente ad $A$, si ha $a \le M$. Tale numero reale $M$ è chiamato **maggiorante** dell'insieme $A$ [1](#page=1).
Se un insieme non ammette alcun maggiorante, si dice **superiormente illimitato** [1](#page=1).
#### 1.1.2 Insieme inferiormente limitato
Analogamente, un insieme $A \subseteq \mathbb{R}$ si dice **inferiormente limitato** se esiste un numero reale $m$ tale che per ogni elemento $a$ appartenente ad $A$, si ha $a \ge m$. Tale numero reale $m$ è chiamato **minorante** dell'insieme $A$ [1](#page=1).
Se un insieme non ammette alcun minorante, si dice **inferiormente illimitato** [1](#page=1).
#### 1.1.3 Insieme limitato
Infine, un insieme $A \subseteq \mathbb{R}$ si dice **limitato** se è sia superiormente che inferiormente limitato. Questo significa che esistono due numeri reali, $m$ e $M$, tali che per ogni $a \in A$, si ha $m \le a \le M$ [1](#page=1).
Un'osservazione importante è che un insieme $A$ è limitato se e solo se esiste un numero reale $N$ tale che $|a| \le N$ per ogni $a \in A$ [1](#page=1).
> **Tip:** La rappresentazione grafica di un insieme su una retta reale può aiutare a visualizzare i maggioranti e i minoranti. Tutti i numeri a destra di un maggiorante sono anch'essi maggioranti, e tutti i numeri a sinistra di un minorante sono anch'essi minoranti.
### 1.2 Massimo e minimo di un insieme
#### 1.2.1 Definizione di massimo e minimo
Un numero che è un maggiorante di un insieme $A$ e che appartiene all'insieme $A$ stesso è detto **massimo** di $A$, denotato con $\max A$ [2](#page=2).
Analogamente, un numero che è un minorante di un insieme $A$ e che appartiene all'insieme $A$ stesso è detto **minimo** di $A$, denotato con $\min A$ [2](#page=2).
#### 1.2.2 Proprietà di unicità del massimo e del minimo
Se il massimo (o il minimo) di un insieme esiste, allora esso è unico [2](#page=2).
* **Dimostrazione (per il massimo):** Supponiamo che $M$ e $M'$ siano entrambi massimi dell'insieme $A \subseteq \mathbb{R}$, con $A \neq \emptyset$. Per definizione di massimo, entrambi appartengono ad $A$ ($M \in A$, $M' \in A$) e sono maggioranti di $A$. Poiché $M$ è un maggiorante, deve valere $M' \le M$ (poiché $M'$ è un elemento di $A$). Poiché $M'$ è un maggiorante, deve valere $M \le M'$ (poiché $M$ è un elemento di $A$). Dalle due disuguaglianze, segue che $M = M'$. La dimostrazione per il minimo è analoga [2](#page=2).
> **Tip:** Non tutti gli insiemi ammettono massimo o minimo. Ad esempio, l'intervallo aperto $(0, 1)$ non ammette né massimo né minimo.
### 1.3 Estremo superiore ed estremo inferiore
#### 1.3.1 Definizione di estremo superiore ed inferiore
Sia $A \subseteq \mathbb{R}$ un insieme non vuoto e superiormente limitato. Un numero reale $S$ è detto **estremo superiore** di $A$, denotato con $\sup A$, se $S$ è il minimo dell'insieme dei maggioranti di $A$. In altre parole, $S = \min \{M \in \mathbb{R} \mid M \text{ è maggiorante di } A\}$ [3](#page=3).
Analogamente, sia $A \subseteq \mathbb{R}$ un insieme non vuoto e inferiormente limitato. Un numero reale $I$ è detto **estremo inferiore** di $A$, denotato con $\inf A$, se $I$ è il massimo dell'insieme dei minoranti di $A$. In altre parole, $I = \max \{m \in \mathbb{R} \mid m \text{ è minorante di } A\}$ [3](#page=3).
#### 1.3.2 Proprietà di unicità dell'estremo superiore ed inferiore
Se l'estremo superiore (o l'estremo inferiore) di un insieme esiste, allora esso è unico. Questo segue direttamente dall'unicità del massimo e del minimo, poiché l'estremo superiore è il minimo dei maggioranti e l'estremo inferiore è il massimo dei minoranti [3](#page=3).
#### 1.3.3 Relazione tra estremi e massimo/minimo
Ci sono due osservazioni cruciali riguardo la relazione tra estremi e massimo/minimo:
1. Se $\sup A \in A$, allora $A$ ammette massimo e si ha $\max A = \sup A$ [3](#page=3).
2. Se $\inf A \in A$, allora $A$ ammette minimo e si ha $\min A = \inf A$ [3](#page=3).
> **Tip:** È un errore comune confondere la definizione di estremo superiore/inferiore con quelle di massimo/minimo. La definizione di $\sup A$ e $\inf A$ si basa su quelle di $\max$ e $\min$ (dei rispettivi insiemi di maggioranti/minoranti), e non viceversa [3](#page=3).
#### 1.3.4 Teorema di completezza (seconda forma)
Questo teorema fondamentale afferma che ogni insieme non vuoto di numeri reali che è superiormente limitato ammette un estremo superiore. Analogamente, ogni insieme non vuoto di numeri reali che è inferiormente limitato ammette un estremo inferiore. Questo principio è noto anche come assioma di completezza di $\mathbb{R}$ [3](#page=3).
> **Esempio:** Consideriamo l'insieme $A = \{x \in \mathbb{R} \mid x > 0 \text{ e } x < 2\}$. Questo insieme è superiormente limitato. L'insieme dei maggioranti di $A$ è $[2, +\infty)$. Il minimo di questo insieme di maggioranti è 2. Quindi, $\sup A = 2$. Poiché $2 \notin A$, l'insieme $A$ non ammette massimo. L'insieme dei minoranti di $A$ è $(-\infty, 0]$. Il massimo di questo insieme di minoranti è 0. Quindi, $\inf A = 0$. Poiché $0 \notin A$, l'insieme $A$ non ammette minimo [3](#page=3).
---
# Teorema di completezza e caratterizzazione di sup e inf
Questo argomento esplora il Teorema di Completezza di Dedekind e la sua applicazione agli insiemi numerici reali, introducendo contemporaneamente i teoremi che definiscono in modo rigoroso l'estremo superiore e l'estremo inferiore di un insieme.
### 2.1 Definizione di estremo superiore e inferiore
Un numero $s$ è definito come estremo superiore (o supremum, $\sup$) di un insieme $A \subseteq \mathbb{R}$ se $s$ è il minimo dell'insieme dei maggioranti di $A$. Formalmente, $s = \sup A$ se e solo se [3](#page=3):
1. $s$ è un maggiorante di $A$ (cioè, per ogni $x \in A$, si ha $x \leq s$) [3](#page=3).
2. Per ogni $\epsilon > 0$, esiste $a \in A$ tale che $a > s - \epsilon$ [4](#page=4).
Analogamente, un numero $i$ è definito come estremo inferiore (o infimum, $\inf$) di un insieme $A \subseteq \mathbb{R}$ se $i$ è il massimo dell'insieme dei minoranti di $A$. Formalmente, $i = \inf A$ se e solo se [3](#page=3):
1. $i$ è un minorante di $A$ (cioè, per ogni $x \in A$, si ha $x \geq i$) [3](#page=3).
2. Per ogni $\epsilon > 0$, esiste $a \in A$ tale che $a < i + \epsilon$ [4](#page=4).
> **Osservazione:** Se l'estremo superiore o inferiore appartiene all'insieme $A$, allora esso coincide rispettivamente con il massimo o il minimo dell'insieme. Tuttavia, è cruciale ricordare che le definizioni di $\sup A$ e $\inf A$ non dipendono dal fatto che tali elementi appartengano o meno all'insieme $A$ [3](#page=3).
> **Tip:** È un errore comune confondere la definizione di massimo/minimo con quella di estremo superiore/inferiore. La definizione di $\sup$ e $\inf$ è più generale e non richiede che tali elementi appartengano all'insieme stesso.
### 2.2 Teorema di completezza (seconda forma)
Il Teorema di Completezza, nella sua seconda forma, stabilisce che ogni sottoinsieme non vuoto di numeri reali $\mathbb{R}$, se superiormente limitato, ammette un estremo superiore. Analogamente, ogni sottoinsieme non vuoto di $\mathbb{R}$, se inferiormente limitato, ammette un estremo inferiore [3](#page=3).
**Enunciato:** Sia $A \subseteq \mathbb{R}$ un insieme non vuoto e limitato superiormente (o inferiormente). Allora $A$ ammette un estremo superiore (o inferiore) in $\mathbb{R}$ [3](#page=3).
> **Osservazione:** Questo teorema non è valido per l'insieme dei numeri razionali ($\mathbb{Q}$). Ad esempio, l'insieme dei razionali il cui quadrato è minore di 2, pur essendo limitato superiormente in $\mathbb{Q}$ (ad esempio da 2), non ammette un estremo superiore in $\mathbb{Q}$ perché $\sqrt{2}$ non è razionale [4](#page=4).
### 2.3 Teorema di caratterizzazione del sup e dell'inf
Questo teorema fornisce un criterio alternativo per verificare se un numero è l'estremo superiore o inferiore di un insieme.
**Teorema:** Sia $A \subseteq \mathbb{R}$ un insieme non vuoto.
I) Se $A$ è superiormente limitato, allora $s = \sup A$ se e solo se valgono le seguenti due condizioni:
a) $s$ è un maggiorante di $A$ (cioè, $\forall x \in A, x \leq s$) [4](#page=4).
b) Per ogni $\epsilon > 0$, esiste $a \in A$ tale che $a > s - \epsilon$ (equivalente a dire che $s - \epsilon$ non è un maggiorante di $A$) [4](#page=4).
II) Se $A$ è inferiormente limitato, allora $i = \inf A$ se e solo se valgono le seguenti due condizioni:
a) $i$ è un minorante di $A$ (cioè, $\forall x \in A, x \geq i$) [4](#page=4).
b) Per ogni $\epsilon > 0$, esiste $a \in A$ tale che $a < i + \epsilon$ (equivalente a dire che $i + \epsilon$ non è un minorante di $A$) [4](#page=4).
---
# Potenze, radici e logaritmi
Questo capitolo definisce rigorosamente potenze (intere, razionali, reali), radici e logaritmi, analizzando le loro proprietà e il teorema di esistenza del logaritmo [4](#page=4).
### 3.1 Potenze intere
Siano $a \in \mathbb{R}$ e $p \in \mathbb{Z}$. La potenza intera si definisce come segue [4](#page=4):
* Se $p > 0$, $a^p = a \cdot a \cdot \dots \cdot a$ ($p$ volte) [4](#page=4).
* Se $p < 0$ e $a \neq 0$, $a^p = \frac{1}{a^{-p}}$ [4](#page=4).
* Se $p = 0$ e $a \neq 0$, $a^0 = 1$ [4](#page=4).
### 3.2 Radici
Siano $y \in \mathbb{R}$ e $n \in \mathbb{N}, n \ge 2$ [4](#page=4).
* **Radice n-esima:** Se $n$ è dispari, esiste un unico $x \in \mathbb{R}$ tale che $x^n = y$. Questo $x$ è la radice n-esima di $y$, denotata $\sqrt[n]{y}$ [5](#page=5).
* **Radice n-esima (casi particolari):**
* Se $n$ è pari, $\sqrt[n]{y}$ ha senso solo se $y \ge 0$. In questo caso, $\sqrt[n]{y} \ge 0$ [5](#page=5).
* $\sqrt {x} = |x|$ è una corretta interpretazione quando si considera la radice quadrata come operazione inversa dell'elevamento al quadrato [2](#page=2) [5](#page=5).
> **Tip:** Ricorda che per $n$ pari, la radice n-esima restituisce sempre un valore non negativo.
### 3.3 Potenze razionali
Siano $a \in \mathbb{R}, a \ge 0$ e $p, q \in \mathbb{Z}$ con $q > 0$ [5](#page=5).
La potenza razionale è definita come:
$$a^{\frac{p}{q}} = (\sqrt[q]{a})^p$$
se $a \neq 0$ oppure $p = 0$ [5](#page=5).
### 3.4 Potenze reali
Siano $a \in \mathbb{R}, a > 0$ e $r \in \mathbb{R}$ [5](#page=5).
* Se $a > 1$, $a^r = \sup \{a^s: s \in \mathbb{Q}, s < r\}$ [5](#page=5).
* Se $a = 1$, $a^r = 1$ [5](#page=5).
* Se $a \in (0, 1)$, $a^r = \sup \{a^s: s \in \mathbb{Q}, s > r\}$ [5](#page=5).
Analogamente si definisce per $r < 0$ [5](#page=5).
**Proprietà grafiche delle potenze:** [5](#page=5) [6](#page=6).
1. Se $a > 1$, la funzione $y = a^x$ è crescente [6](#page=6).
2. Se $a = 1$, la funzione $y = a^x$ è costante e vale 1 [6](#page=6).
3. Se $a \in (0, 1)$, la funzione $y = a^x$ è decrescente [6](#page=6).
### 3.5 Teorema di esistenza del logaritmo
Siano $a, y \in \mathbb{R}$ entrambi positivi e con $a \neq 1$ [6](#page=6).
Allora, esiste un unico $x \in \mathbb{R}$ tale che $a^x = y$. Questo $x$ è denotato con $\log_a y$ (logaritmo in base $a$ di $y$) [6](#page=6).
L'unicità di $x$ è garantita dal teorema di completezza dei numeri reali, e $x$ è individuato come [6](#page=6):
* $x = \sup \{s \in \mathbb{Q}: a^s < y\}$ se $a > 1$ [6](#page=6).
* $x = \sup \{s \in \mathbb{Q}: a^s > y\}$ se $a \in (0, 1)$ [6](#page=6).
**Regola mnemonica:** $\log_a y$ è l'esponente a cui devo elevare la base $a$ per ottenere $y$ [6](#page=6).
**Grafici dei logaritmi:** [7](#page=7).
1. Se $a > 1$, la funzione $y = \log_a x$ ha un grafico crescente [7](#page=7).
2. Se $a \in (0, 1)$, la funzione $y = \log_a x$ ha un grafico decrescente [7](#page=7).
### 3.6 Proprietà dei logaritmi
Siano $a > 0, a \neq 1$ e $x, y > 0$. Valgono le seguenti proprietà [7](#page=7):
1. $\log_a a = 1$ [7](#page=7).
2. $\log_a (a^b) = b$ [7](#page=7).
3. $\log_a 1 = 0$ [7](#page=7).
4. $\log_a (xy) = \log_a |x| + \log_a y$ [7](#page=7).
5. $\log_a (x^z) = z \log_a x$ [7](#page=7).
* Caso particolare: $\log_a \left(\frac{1}{x}\right) = -\log_a x$ [7](#page=7).
6. $\log_a \left(\frac{x}{y}\right) = \log_a |x| - \log_a y$ [7](#page=7).
7. **Formula del cambio di base:** $\log_a b = \frac{\log_c b}{\log_c a}$ [7](#page=7).
* Caso particolare: $\log_a b = \frac{\log_a b}{\log_a a} = \log_a b$. (Questa è una tautologia che può essere usata per ricordare la formula generale) [7](#page=7).
---
# Esercizi di ricapitolazione
Questa sezione si concentra sulla risoluzione pratica di equazioni con radici, ponendo un'enfasi particolare sulla determinazione del campo di esistenza e sull'applicazione corretta delle proprietà algebriche [8](#page=8) [9](#page=9).
### 4.1 Risoluzione di equazioni irrazionali
La risoluzione di equazioni irrazionali, ovvero quelle contenenti incognite sotto il segno di radice, richiede una procedura attenta che inizia con la definizione del campo di esistenza (C.d.E.) [8](#page=8).
#### 4.1.1 Determinazione del campo di esistenza
Il campo di esistenza è fondamentale perché garantisce che le espressioni sotto radice siano ben definite (non negative) e che la soluzione trovata sia valida per l'equazione originale [8](#page=8).
* Per radici quadrate, il radicando (l'espressione sotto la radice) deve essere maggiore o uguale a zero. Se un'equazione presenta più radici, tutti i rispettivi radicandi devono soddisfare questa condizione simultaneamente [8](#page=8) [9](#page=9).
#### 4.1.2 Applicazione delle proprietà algebriche
Una volta stabilito il campo di esistenza, è possibile manipolare l'equazione per isolare la radice e procedere alla sua eliminazione, solitamente tramite l'elevamento al quadrato di entrambi i membri [8](#page=8) [9](#page=9).
* **Condizione per elevare al quadrato**: È cruciale assicurarsi che entrambi i membri dell'equazione siano non negativi prima di elevarli al quadrato. Se un membro è negativo, elevarlo al quadrato potrebbe introdurre soluzioni estranee. Ad esempio, l'equazione $2 = -5$ è falsa, ma elevando al quadrato si otterrebbe $4 = 25$, che è anch'essa falsa. Tuttavia, se elevassimo al quadrato senza controllare, potremmo considerare valide manipolazioni errate [9](#page=9).
> **Tip:** Dopo aver trovato le soluzioni dall'equazione manipolata, è **obbligatorio** verificare che ciascuna soluzione appartenga al campo di esistenza definito inizialmente. Solo le soluzioni che soddisfano sia le condizioni algebriche sia quelle del campo di esistenza sono da considerarsi valide per l'equazione irrazionale originale [8](#page=8) [9](#page=9).
#### 4.1.3 Esempi pratici
**Esempio 1: Equazione con una radice quadrata**
Risolvere $\sqrt{x+1} = 4$ [8](#page=8).
1. **Campo di esistenza**: Il radicando $x+1$ deve essere maggiore o uguale a zero: $x+1 \ge 0 \implies x \ge -1$ [8](#page=8).
2. **Elevamento al quadrato**: Poiché entrambi i membri ($ \sqrt{x+1} $ e $4$) sono non negativi nel C.d.E., possiamo elevarli al quadrato:
$(\sqrt{x+1})^2 = 4^2$
$x+1 = 16$
$x = 15$ [8](#page=8).
3. **Verifica nel C.d.E.**: La soluzione $x=15$ soddisfa la condizione $x \ge -1$ ($15 \ge -1$).
4. **Soluzione**: Pertanto, $x=15$ è la soluzione valida dell'equazione [8](#page=8).
**Esempio 2: Equazione con due radici quadrate e un termine lineare**
Risolvere $\sqrt{x^2+x-1} = \sqrt{x}$ [9](#page=9).
1. **Campo di esistenza**: Dobbiamo avere contemporaneamente:
* $x^2+x-1 \ge 0$. Le radici di $x^2+x-1=0$ sono $x = \frac{-1 \pm \sqrt{1 - 4 (-1)}}{2} = \frac{-1 \pm \sqrt{5}}{2}$. Quindi, $x^2+x-1 \ge 0$ per $x \le \frac{-1-\sqrt{5}}{2}$ o $x \ge \frac{-1+\sqrt{5}}{2}$ [1](#page=1).
* $x \ge 0$.
La combinazione di queste condizioni porta a un C.d.E. di $x \ge \frac{-1+\sqrt{5}}{2}$ [8](#page=8) [9](#page=9).
2. **Elevamento al quadrato**: Entrambi i membri sono non negativi nel C.d.E. (poiché $x \ge 0$). Eleviamo al quadrato:
$(\sqrt{x^2+x-1})^2 = (\sqrt{x})^2$
$x^2+x-1 = x$
$x^2 - 1 = 0$
$x^2 = 1$
Le soluzioni sono $x = \pm 1$ [9](#page=9).
3. **Verifica nel C.d.E.**: Dobbiamo controllare quali di queste soluzioni appartengono al C.d.E. $x \ge \frac{-1+\sqrt{5}}{2}$ (circa $x \ge 0.618$).
* $x=1$: $1 \ge \frac{-1+\sqrt{5}}{2}$ è vera.
* $x=-1$: $-1 \ge \frac{-1+\sqrt{5}}{2}$ è falsa.
4. **Soluzione**: L'unica soluzione valida è $x=1$ [9](#page=9).
> **Osservazione importante:** Quando si eleva al quadrato un'equazione, è fondamentale controllare che entrambi i membri siano non negativi nel campo di esistenza. Ignorare questa condizione può portare all'introduzione di soluzioni spurie [9](#page=9).
---
## Errori comuni da evitare
- Rivedete tutti gli argomenti accuratamente prima degli esami
- Prestate attenzione alle formule e definizioni chiave
- Praticate con gli esempi forniti in ogni sezione
- Non memorizzate senza comprendere i concetti sottostanti
Glossary
| Termine | Definizione |
|------|------------|
| Maggiorante | Un numero M appartenente all'insieme dei numeri reali è detto maggiorante di un insieme A se ogni elemento di A è minore o uguale a M. |
| Minorante | Un numero m appartenente all'insieme dei numeri reali è detto minorante di un insieme A se ogni elemento di A è maggiore o uguale a m. |
| Massimo di un insieme | Il massimo di un insieme A, denotato con max A, è un maggiorante di A che appartiene ad A stesso. Se esiste, è unico. |
| Minimo di un insieme | Il minimo di un insieme A, denotato con min A, è un minorante di A che appartiene ad A stesso. Se esiste, è unico. |
| Estremo superiore (sup A) | L'estremo superiore di un insieme A, denotato con sup A, è il minimo dell'insieme dei maggioranti di A. |
| Estremo inferiore (inf A) | L'estremo inferiore di un insieme A, denotato con inf A, è il massimo dell'insieme dei minoranti di A. |
| Teorema di completezza (2° forma) | Afferma che ogni sottoinsieme non vuoto di numeri reali che è superiormente limitato ammette un estremo superiore in R. Analogamente per l'estremo inferiore se il sottoinsieme è inferiormente limitato. |
| Potenza intera | Per $a \in \mathbb{R}$ e $p \in \mathbb{Z}$: se $p > 0$, $a^p = a \cdot a \cdot \dots \cdot a$ (p volte); se $p < 0$ e $a \neq 0$, $a^p = \frac{1}{a^{-p}}$; se $p = 0$ e $a \neq 0$, $a^0 = 1$. |
| Radice n-esima | La radice n-esima di un numero reale y, denotata con $\sqrt[n]{y}$, è quel numero reale x tale che $x^n = y$. Per $n$ pari, si richiede $y \ge 0$ e si assume la radice non negativa; per $n$ dispari, è definita per ogni $y \in \mathbb{R}$. |
| Potenza razionale | Per $a \in \mathbb{R}$, $a \ge 0$ e $\frac{p}{q} \in \mathbb{Q}$ con $q > 0$, $a^{\frac{p}{q}} = (\sqrt[q]{a})^p$. |
| Potenza reale | Per $a \in \mathbb{R}$, $a > 0$, la potenza reale $a^z$ con $z \in \mathbb{R}$ è definita come l'estremo superiore dell'insieme $\{a^q \mid q \in \mathbb{Q}, q \le z\}$ se $a > 1$, come 1 se $a = 1$, e come l'estremo inferiore dell'insieme $\{a^q \mid q \in \mathbb{Q}, q \le z\}$ se $a \in (0, 1)$. |
| Logaritmo | Il logaritmo in base a di y, denotato con $\log_a y$, è l'esponente x tale che $a^x = y$. È definito per $a > 0$, $a \neq 1$ e $y > 0$. |
Cover
MI1 - Suites Numeriques de Reference - Corrige.pdf
Summary
# Introduction aux suites numériques
Ce chapitre introduit la notion de suite numérique, ses modes de définition et les concepts de bornes et de variations.
### 1.1 Notion de suite numérique
Une suite numérique est une application d'une partie de $\mathbb{N}$ (les entiers naturels) vers $\mathbb{R}$ (les nombres réels). Le terme $u(n)$ est noté $u_n$ et est appelé le $n$-ième terme ou terme général de la suite. Dans ce contexte, le terme "suite" sera utilisé à la place de "suite numérique" pour plus de concision [5](#page=5).
Une suite est généralement notée sous la forme $(u_n)_{n \in \mathbb{N}}$ ou $(u_n)$ lorsque l'ensemble des indices $n$ est clair. Si l'indice commence à un rang $n_0$, on note $(u_n)_{n \geqslant n_0}$ [5](#page=5).
#### 1.1.1 Modes de définition d'une suite
Il existe deux principales manières de définir une suite :
1. **Formule explicite:** La suite est définie par une formule explicite de la forme $u_n = f(n)$, où $f$ est une fonction [6](#page=6).
> **Example:** La suite $(u_n)_{n \in \mathbb{N}}$ définie par $u_n = 3n - 1$ pour tout $n \in \mathbb{N}$ est un exemple de suite définie par une formule explicite, où la fonction $f$ est $x \mapsto 3x - 1$ [6](#page=6).
2. **Relation de récurrence:** La suite est définie par une relation de récurrence de la forme $u_{n+1} = f(u_n)$, accompagnée de la donnée d'un terme initial [6](#page=6).
#### 1.1.2 Bornes d'une suite
La définition de bornes permet de caractériser le comportement de croissance ou de décroissance d'une suite.
* Une suite $(u_n)_{n \in \mathbb{N}}$ est dite **majorée** s'il existe un nombre réel $M$ tel que pour tout $n \in \mathbb{N}$, on a $u_n \leqslant M$ [6](#page=6).
* Une suite $(u_n)_{n \in \mathbb{N}}$ est dite **minorée** s'il existe un nombre réel $m$ tel que pour tout $n \in \mathbb{N}$, on a $m \leqslant u_n$ [6](#page=6).
* Une suite est dite **bornée** si elle est à la fois majorée et minorée [6](#page=6).
> **Example:** La Figure 12.1 illustre des suites majorées et minorées [6](#page=6).
### 1.2 Variations d'une suite
L'étude des variations d'une suite permet de décrire sa tendance d'évolution (croissance ou décroissance).
* Une suite $(u_n)_{n \in \mathbb{N}}$ est dite **croissante** si pour tout $n \in \mathbb{N}$, $u_{n+1} \geqslant u_n$ [6](#page=6).
* Une suite $(u_n)_{n \in \mathbb{N}}$ est dite **strictement croissante** si pour tout $n \in \mathbb{N}$, $u_{n+1} > u_n$ [6](#page=6).
* Une suite $(u_n)_{n \in \mathbb{N}}$ est dite **décroissante** si pour tout $n \in \mathbb{N}$, $u_{n+1} \leqslant u_n$ [6](#page=6).
* Une suite $(u_n)_{n \in \mathbb{N}}$ est dite **strictement décroissante** si pour tout $n \in \mathbb{N}$, $u_{n+1} < u_n$ [6](#page=6).
---
# Étude des variations et limites des suites
Ce chapitre explore la croissance, la décroissance et la monotonicité des suites, ainsi que la formalisation rigoureuse des limites finies et infinies et la notion de convergence.
### 2.1 Variations d'une suite
L'étude des variations d'une suite permet de comprendre comment ses termes évoluent.
**Définition 2.1.1.** Soit $(u_n)_{n \in \mathbb{N}}$ une suite. On dit que cette suite est :
* **majorée** si: $\exists M \in \mathbb{R}: \forall n \in \mathbb{N}, u_n \leqslant M$ [6](#page=6).
* **minorée** si: $\exists m \in \mathbb{R}: \forall n \in \mathbb{N}, m \leqslant u_n$ [6](#page=6).
* **bornée** si elle est majorée et minorée [6](#page=6).
**Définition 2.1.2.** Soit $(u_n)_{n \in \mathbb{N}}$ une suite. On dit que cette suite est :
* **croissante** si: $\forall n \in \mathbb{N}, u_{n+1} \geqslant u_n$ [6](#page=6).
* **strictement croissante** si: $\forall n \in \mathbb{N}, u_{n+1} > u_n$ [6](#page=6).
* **décroissante** si: $\forall n \in \mathbb{N}, u_{n+1} \leqslant u_n$ [6](#page=6).
* **strictement décroissante** si: $\forall n \in \mathbb{N}, u_{n+1} < u_n$ [6](#page=6).
* **monotone** si elle est croissante ou décroissante [7](#page=7).
* **strictement monotone** si elle est strictement croissante ou strictement décroissante [7](#page=7).
> **Tip:** La méthode standard pour étudier les variations d'une suite est d'étudier le signe de la différence $u_{n+1} - u_n$ [8](#page=8).
**Exemple 2.1.3.** La suite $(u_n)_{n \in \mathbb{N}}$ définie par $\forall n \in \mathbb{N}, u_n = n^2 + 3n + 2$ est strictement croissante. En effet, $u_{n+1} - u_n = (n+1)^2 + 3(n+1) + 2 - (n^2 + 3n + 2) = 2n + 1$. Comme $n \in \mathbb{N}$, $2n+1 > 0$, donc $u_{n+1} > u_n$ pour tout $n \in \mathbb{N}$ [7](#page=7).
**Exemple 2.1.4.** La suite $(u_n)_{n \in \mathbb{N}}$ définie par $\forall n \in \mathbb{N}, u_n = n^2 - 8n + 15$ n'est ni croissante ni décroissante. En effet, $u_0 = 15$, $u_1 = 8$ (donc $u_0 > u_1$), et $u_4 = -1$, $u_5 = 0$ (donc $u_4 < u_5$). Ceci prouve que la suite n'est pas monotone [7](#page=7).
### 2.2 Limite d'une suite
La notion de limite formalise l'idée qu'une suite se stabilise autour d'une valeur lorsque son indice devient très grand.
#### 2.2.1 Limite finie
Intuitivement, une suite $(u_n)$ tend vers une limite finie $\ell$ si ses termes se rapprochent de plus en plus de $\ell$ à mesure que $n$ augmente. Formellement, cela signifie que pour toute tolérance $\varepsilon > 0$, il existe un rang $n_0$ à partir duquel tous les termes de la suite sont dans l'intervalle $]\ell - \varepsilon, \ell + \varepsilon[$.
**Définition 2.2.1.1.** La suite $(u_n)_{n \in \mathbb{N}}$ a pour limite $\ell$ si :
$$ \forall \varepsilon > 0, \exists n_0 \in \mathbb{N} : \forall n \geqslant n_0, |u_n - \ell| < \varepsilon $$
On dit aussi que la suite $(u_n)_{n \in \mathbb{N}}$ tend (ou converge) vers $\ell$ et on note $\lim_{n \to +\infty} u_n = \ell$ [8](#page=8).
> **Tip:** Le rang $n_0$ dépend de $\varepsilon$. Plus $\varepsilon$ est petit, plus $n_0$ est potentiellement grand. Il n'est pas nécessaire de trouver le plus petit $n_0$, mais juste un qui satisfasse la condition [9](#page=9).
**Exemple 2.2.1.2.** Considérons la suite $(u_n)_{n \in \mathbb{N}^*}$ définie par $\forall n \in \mathbb{N}, u_n = \frac{n+1}{n}$. Intuitivement, pour $n$ grand, $u_n$ tend vers 1 [9](#page=9).
Pour le prouver formellement, soit $\varepsilon > 0$. On cherche $n_0$ tel que pour tout $n \geqslant n_0$, $|u_n - 1| < \varepsilon$.
$$ \left|\frac{n+1}{n} - 1\right| < \varepsilon $$
$$ \left|\frac{n+1 - n}{n}\right| < \varepsilon $$
$$ \left|\frac{1}{n}\right| < \varepsilon $$
Comme $n > 0$, ceci équivaut à $\frac{1}{n} < \varepsilon$, soit $n > \frac{1}{\varepsilon}$.
On peut choisir $n_0 = \lceil \frac{1}{\varepsilon} \rceil + 1$. Ainsi, pour tout $n \geqslant n_0$, on a $n > \frac{1}{\varepsilon}$, ce qui implique $|u_n - 1| < \varepsilon$. La suite converge donc vers 1 [10](#page=10).
#### 2.2.2 Limite infinie
Une suite peut également tendre vers l'infini, positif ou négatif.
**Définition 2.2.2.1.** On dit que la suite $(u_n)_{n \in \mathbb{N}}$ tend vers $+\infty$ si :
$$ \forall \varepsilon > 0, \exists n_0 \in \mathbb{N} : \forall n \geqslant n_0, u_n > \varepsilon $$
Intuitivement, cela signifie que les valeurs de la suite deviennent arbitrairement grandes à mesure que $n$ augmente [11](#page=11).
**Exemple 2.2.2.2.** Considérons la suite $(u_n)_{n \in \mathbb{N}^*}$ définie par $\forall n \in \mathbb{N}, u_n = n^2$. Pour prouver qu'elle tend vers $+\infty$, soit $\varepsilon > 0$. On cherche $n_0$ tel que pour tout $n \geqslant n_0$, $n^2 > \varepsilon$ [11](#page=11).
Ceci équivaut à $n > \sqrt{\varepsilon}$ (car $n > 0$). On peut choisir $n_0 = \lceil \sqrt{\varepsilon} \rceil + 1$. Ainsi, pour tout $n \geqslant n_0$, on a $n > \sqrt{\varepsilon}$, ce qui implique $n^2 > \varepsilon$. La suite $(u_n)$ tend donc vers $+\infty$ [12](#page=12).
**Définition 2.2.2.3.** On dit que la suite $(u_n)_{n \in \mathbb{N}}$ tend vers $-\infty$ si :
$$ \forall \varepsilon > 0, \exists n_0 \in \mathbb{N} : \forall n \geqslant n_0, u_n < -\varepsilon $$
Intuitivement, cela signifie que les valeurs de la suite deviennent arbitrairement petites (grands négatifs) à mesure que $n$ augmente [12](#page=12).
#### 2.2.3 Convergence d'une suite
La convergence est une propriété fondamentale des suites.
**Définition 2.2.3.1.** On dit qu'une suite $(u_n)_{n \in \mathbb{N}}$ est **convergente** si elle admet une limite finie. Dans le cas contraire, on dit que la suite est **divergente** [12](#page=12).
**Exemple 2.2.3.2.**
* La suite $(u_n)_{n \in \mathbb{N}^*}$ avec $u_n = \frac{n+1}{n}$ est convergente car sa limite est 1 [13](#page=13).
* La suite $(v_n)_{n \in \mathbb{N}}$ avec $v_n = n^2$ est divergente car sa limite est $+\infty$ [13](#page=13).
* La suite $(w_n)_{n \in \mathbb{N}}$ avec $w_n = (-1)^n$ est divergente car elle n'a pas de limite (elle oscille entre -1 et 1) [13](#page=13).
#### 2.2.4 Propriétés des limites
Les propriétés des limites permettent de simplifier le calcul de limites.
**Théorème 2.2.4.1 (Unicité de la Limite).** Si une suite admet une limite, alors cette limite est unique [13](#page=13).
**Théorème 2.2.4.2.** Toute suite croissante et majorée converge [13](#page=13).
**Théorème 2.2.4.3.** Toute suite décroissante et minorée converge [13](#page=13).
**Corollaire 2.2.4.4.** Toute suite monotone et bornée converge [13](#page=13).
**Proposition 2.2.4.5.** Supposons que la suite $(u_n)_{n \in \mathbb{N}}$ converge vers $\ell$ et que la suite $(v_n)_{n \in \mathbb{N}}$ converge vers $\ell'$. Nous obtenons :
* Pour tout $\lambda \in \mathbb{R}$, la suite $(\lambda u_n)_{n \in \mathbb{N}}$ converge et: $\lim_{n \to +\infty} (\lambda u_n) = \lambda \ell$ [13](#page=13).
* La suite $(u_n + v_n)_{n \in \mathbb{N}}$ converge et $\lim_{n \to +\infty} (u_n + v_n) = \ell + \ell'$ [13](#page=13).
* La suite $(u_n \times v_n)_{n \in \mathbb{N}}$ converge et $\lim_{n \to +\infty} (u_n \times v_n) = \ell \times \ell'$ [13](#page=13).
* Si $\ell \neq 0$, alors la suite $(\frac{1}{u_n})_{n \in \mathbb{N}}$ est définie au voisinage de $+\infty$ et converge vers $\frac{1}{\ell}$ [13](#page=13).
**Proposition 2.2.4.6.** Supposons que $u_n \leqslant v_n$ pour tout $n$ suffisamment grand. Nous avons :
* Si $(u_n)$ converge vers $\ell$ et $(v_n)$ converge vers $\ell'$, alors $\ell \leqslant \ell'$ [13](#page=13).
* Si $(u_n)$ diverge vers $+\infty$, alors $(v_n)$ aussi [13](#page=13).
* Si $(v_n)$ diverge vers $-\infty$, alors $(u_n)$ aussi [13](#page=13).
---
# Familles importantes de suites numériques
Voici un résumé détaillé des familles importantes de suites numériques, basé sur le contenu des pages 10 à 18 du document.
## 3 Familles importantes de suites numériques
Ce chapitre explore les propriétés et le comportement des suites arithmétiques, géométriques, arithmético-géométriques et récurrentes, en se concentrant sur leurs définitions, leurs formules explicites et leurs limites.
### 3.1 Suites arithmétiques
Une suite arithmétique est caractérisée par une différence constante entre deux termes consécutifs.
#### 3.1.1 Définition et propriétés
**Définition 12.26.** Une suite $(u_n)_{n \in \mathbb{N}}$ est dite arithmétique s'il existe un réel $r$ appelé raison tel que :
$$ \forall n \in \mathbb{N}, u_{n+1} = u_n + r $$
**Proposition 12.27.** Si $(u_n)_{n \in \mathbb{N}}$ est une suite arithmétique de raison $r$, alors :
* $ \forall n \in \mathbb{N}, \forall p \in \mathbb{N}, u_n = u_p + (n - p) r $
* $ \forall n \in \mathbb{N}, u_n = u_0 + n r $ (formule explicite) [14](#page=14).
**Proposition 12.28.** Pour toute suite arithmétique $(u_n)_{n \in \mathbb{N}}$ de raison $r$ :
* Si $r > 0$, alors $(u_n)_{n \in \mathbb{N}}$ est strictement croissante [14](#page=14).
* Si $r < 0$, alors $(u_n)_{n \in \mathbb{N}}$ est strictement décroissante [14](#page=14).
* Si $r = 0$, alors $(u_n)_{n \in \mathbb{N}}$ est constante [14](#page=14).
**Proposition 12.29.** Pour toute suite arithmétique $(u_n)_{n \in \mathbb{N}}$ de raison $r$ :
* Si $r > 0$, alors $(u_n)_{n \in \mathbb{N}}$ diverge vers $ + \infty $ [15](#page=15).
* Si $r < 0$, alors $(u_n)_{n \in \mathbb{N}}$ diverge vers $ - \infty $ [15](#page=15).
* Si $r = 0$, alors $(u_n)_{n \in \mathbb{N}}$ converge vers $u_0$ [15](#page=15).
#### 3.1.2 Exemple
> **Exemple 12.30.** Considérons les suites arithmétiques :
> $u_{n+1} = u_n - 5$, avec $u_0 = 4$.
> $v_{n+1} = v_n + 2$, avec $v_0 = -3$.
>
> Les formules explicites sont :
> $u_n = -5n + 4$ [15](#page=15).
> $v_n = 2n - 3$ [15](#page=15).
>
> La suite $(u_n)_{n \in \mathbb{N}}$ est strictement décroissante et diverge vers $ - \infty $.
> La suite $(v_n)_{n \in \mathbb{N}}$ est strictement croissante et diverge vers $ + \infty $ [15](#page=15).
### 3.2 Suites géométriques
Une suite géométrique est caractérisée par un rapport constant entre deux termes consécutifs.
#### 3.2.1 Définition et propriétés
**Définition 12.31.** Une suite $(u_n)_{n \in \mathbb{N}}$ est dite géométrique s'il existe un réel $q$ appelé raison tel que :
$$ \forall n \in \mathbb{N}, u_{n+1} = q u_n $$
**Proposition 12.32.** Si $(u_n)_{n \in \mathbb{N}}$ est une suite géométrique de raison $q$, alors :
* $ \forall n \in \mathbb{N}, \forall p \in \mathbb{N}, u_n = u_p q^{n-p} $
* $ \forall n \in \mathbb{N}, u_n = u_0 q^n $ (formule explicite) [15](#page=15).
**Proposition 12.33.** Soit $q$ un nombre réel :
* Si $q > 1$, alors $(q^n)_{n \in \mathbb{N}}$ diverge vers $ + \infty $ [15](#page=15).
* Si $q = 1$, alors $(q^n)_{n \in \mathbb{N}}$ converge vers $1$ (la suite est constante) [15](#page=15).
* Si $ -1 < q < 1 $, alors $(q^n)_{n \in \mathbb{N}}$ converge vers $0$ [15](#page=15).
* Si $ q \leqslant -1 $, alors $(q^n)_{n \in \mathbb{N}}$ diverge sans limite [16](#page=16).
**Remarque 12.34.** Pour déterminer les variations et le comportement à l'infini d'une suite $(u_n)_{n \in \mathbb{N}}$ de raison $q$, il faut utiliser le résultat précédent et prendre en compte la valeur et le signe de $u_0$ (formule explicite) [16](#page=16).
#### 3.2.2 Somme des termes d'une suite géométrique
**Proposition 12.36.** Si $q \neq 1$ :
$$ \forall n \in \mathbb{N}, \sum_{k=0}^{n} q^k = 1 + q + q^2 + \cdots + q^n = \frac{1 - q^{n+1}}{1 - q} $$
> **Exemple 12.37.** Nous avons :
> $ \sum_{k=0}^{10} 2^k = 1 + 2 + 2^2 + \cdots + 2^{10} = \frac{1 - 2^{10+1}}{1 - 2} = 2^{11} - 1 = 2047 $ [16](#page=16).
Ce résultat se généralise aux suites géométriques de raison différente de 1.
**Proposition 12.38 (Somme des $k+1$ premiers termes).** Soit $(u_n)_{n \in \mathbb{N}}$ une suite géométrique de raison $q \neq 1$. On a :
$$ \sum_{n=0}^{k} u_n = u_0 \frac{1 - q^{k+1}}{1 - q} $$
**Proposition 12.39 (Sommes de termes consécutifs).** Soit $(u_n)_{n \in \mathbb{N}}$ une suite géométrique de raison $q \neq 1$. On a :
$$ \sum_{n=n_0}^{n_1} u_n = u_{n_0} \frac{1 - q^{n_1-n_0+1}}{1 - q} $$
#### 3.2.3 Exemple
> **Exemple 12.35.** Considérons les suites :
> $ u_{n+1} = -\frac{1}{2} u_n $, avec $u_0 = 4$.
> $ v_{n+1} = 2 v_n $, avec $v_0 = -3$.
>
> Les formules explicites sont :
> $ u_n = 4 \left(-\frac{1}{2}\right)^n $ [16](#page=16).
> $ v_n = -3 \times 2^n $ [16](#page=16).
>
> La suite $(u_n)_{n \in \mathbb{N}}$ n'est ni croissante ni décroissante (elle change de signe constamment – elle est dite alternée) et converge vers $0$.
> La suite $(v_n)_{n \in \mathbb{N}}$ est strictement décroissante et diverge vers $ - \infty $ [16](#page=16).
### 3.3 Suites arithmético-géométriques
Ces suites généralisent les suites arithmétiques et géométriques, impliquant une transformation affine.
#### 3.3.1 Définition et propriétés
**Définition 12.40.** Une suite $(u_n)_{n \in \mathbb{N}}$ est dite arithmético-géométrique s'il existe deux réels $a$ et $b$ tels que :
$$ \forall n \in \mathbb{N}, u_{n+1} = a u_n + b $$
**Remarque 12.41.** Lorsque $b=0$, la suite est géométrique (de raison $a$). Lorsque $a=1$, la suite est arithmétique (de raison $b$) [17](#page=17).
**Proposition 12.42.** Soit $(u_n)_{n \in \mathbb{N}}$ une suite arithmético-géométrique définie par :
$$ \forall n \in \mathbb{N}, u_{n+1} = a u_n + b \text{ avec } a \neq 1 $$
Posons $ \ell = \frac{b}{1-a} $ et considérons la suite $(v_n)_{n \in \mathbb{N}}$ définie par :
$$ \forall n \in \mathbb{N}, v_n = u_n - \ell $$
Alors, la suite $(v_n)_{n \in \mathbb{N}}$ est une suite géométrique de raison $a$ [17](#page=17).
> **Exemple 12.43.** Considérons la suite $(u_n)_{n \in \mathbb{N}}$ définie par :
> $ u_{n+1} = 3 u_n + 4 $ [17](#page=17).
> Posons $ \ell = \frac{4}{1-3} = -2 $. La suite dont le terme général $v_n$ est :
> $ v_n = u_n + 2 $ [17](#page=17).
> est une suite géométrique de raison $3$.
**Proposition 12.44.** Avec les notations de la proposition précédente, si la suite arithmético-géométrique $(u_n)_{n \in \mathbb{N}}$ converge, alors sa limite est $ \ell $ [18](#page=18).
**Remarque 12.45.** Ce résultat implique la recherche du point fixe de la transformation affine sous-jacente et sera généralisé dans l'étude des suites récurrentes [18](#page=18).
### 3.4 Suites récurrentes
Ces suites sont définies par une relation de récurrence impliquant une fonction.
#### 3.4.1 Définition
**Définition 12.46.** On appelle suite récurrente toute suite $(u_n)_{n \in \mathbb{N}}$ telle qu'il existe une fonction $f: I \to \mathbb{R}$, où l'intervalle $I$ est stable par $f$, vérifiant :
$$ \forall n \in \mathbb{N}, u_{n+1} = f(u_n) $$
avec $u_0 \in I$ [18](#page=18).
#### 3.4.2 Exemples
> **Exemple 12.47.** Voici des suites récurrentes :
> $ u_{n+1} = u_n^2 $, avec $u_0 = -8$ [18](#page=18).
> $ v_{n+1} = \exp(v_n) $, avec $v_0 = 0$ [18](#page=18).
>
> Pour la suite de gauche, on a $I = \mathbb{R}$ et $f$ est la fonction carrée. Pour la suite de droite, on peut prendre $I = \mathbb{R}^+$ et $f$ est la fonction exponentielle [18](#page=18).
---
# Exercices et éléments de correction sur les suites
Voici une synthèse détaillée des exercices et éléments de correction sur les suites, basée sur le contenu des pages 15 à 36 du document.
## 4 Exercices et éléments de correction sur les suites
Ce chapitre propose des exercices d'application pour étudier les variations, le comportement à l'infini, les limites, et appliquer les formules relatives aux différentes familles de suites, accompagnés d'éléments de correction [15](#page=15) [16](#page=16) [17](#page=17) [18](#page=18) [19](#page=19) [20](#page=20) [21](#page=21) [22](#page=22) [29](#page=29) [30](#page=30) [31](#page=31) [32](#page=32) [33](#page=33) [34](#page=34) [35](#page=35) [36](#page=36).
### 4.1 Étude des variations et comportement à l'infini
Les exercices de cette section visent à appliquer les méthodes d'étude des suites pour déterminer leur monotonie et leur limite éventuelle [19](#page=19).
#### 4.1.1 Exercice 12.1 : Étude de variations et comportement à l'infini
Cet exercice propose d'étudier plusieurs suites en utilisant différentes méthodes [19](#page=19).
* **Cas 1: $u_n = 5 - (n+2)^2$** [29](#page=29).
* Pour étudier les variations, on calcule la différence $u_{n+1} - u_n$.
* $u_{n+1} - u_n = (5 - (n+1+2)^2) - (5 - (n+2)^2) = (n+2)^2 - (n+3)^2$.
* Comme la fonction carrée est strictement croissante sur $\mathbb{R}^+$, $(n+2)^2 < (n+3)^2$, donc $u_{n+1} - u_n < 0$. La suite $(u_n)$ est strictement décroissante [29](#page=29).
* Pour le comportement à l'infini, $\lim_{n \to +\infty} u_n = \lim_{n \to +\infty} (5 - (n+2)^2) = -\infty$. La suite diverge vers $-\infty$ [29](#page=29).
* **Cas 2: $u_n = \frac{e^{2n}}{5n+2}$** [29](#page=29).
* La suite peut être réécrite sous la forme $u_n = \frac{1}{5^2} \times \left(\frac{e^2}{5}\right)^n$.
* Il s'agit d'une suite géométrique de raison $q = \frac{e^2}{5}$ et de premier terme $u_0 = \frac{1}{25}$ [29](#page=29).
* Comme $e^2 > 5$, la raison $q$ est strictement supérieure à 1 ($q \approx \frac{7.389}{5} \approx 1.478$).
* Le premier terme est strictement positif. Donc, la suite $(u_n)$ est strictement croissante et diverge vers $+\infty$ [29](#page=29).
* **Cas 3: $u_n = 1 - \frac{2}{n+3}$** [29](#page=29).
* La fonction $n \mapsto \frac{2}{n+3}$ tend vers 0 en décroissant strictement lorsque $n$ augmente [29](#page=29).
* Par conséquent, $1 - \frac{2}{n+3}$ est strictement croissante.
* La suite $(u_n)$ est strictement croissante et converge vers 1 [29](#page=29).
* **Cas 4: $u_n = e^n - n$** [29](#page=29) [30](#page=30).
* On étudie la fonction associée $f(x) = e^x - x$ sur $\mathbb{R}^+$ [30](#page=30).
* La dérivée est $f'(x) = e^x - 1$.
* Le tableau de variations de $f$ montre que $f'(x) > 0$ pour $x > 0$, donc $f$ est strictement croissante sur $\mathbb{R}^+$.
* De plus, $\lim_{x \to +\infty} f(x) = +\infty$.
* Ces propriétés appliquées à la suite $(u_n)$ impliquent qu'elle est strictement croissante et diverge vers $+\infty$ [30](#page=30).
#### 4.1.2 Exercice 12.2 : Modélisation de situations par des suites
Cet exercice modélise deux scénarios de diffusion d'informations à l'aide de suites arithmétiques et géométriques [19](#page=19) [20](#page=20) [30](#page=30) [31](#page=31).
* **Situation 1: Réception des élèves** [19](#page=19) [30](#page=30).
* Le responsable reçoit 2 élèves le premier jour, puis 5 les jours suivants. Soit $u_n$ le nombre d'élèves reçus à la fin du jour $n$ (pour $n \ge 1$) [19](#page=19).
* **Nature de la suite:** Pour passer de $u_n$ à $u_{n+1}$, on ajoute 5. C'est une suite arithmétique de raison $r=5$ et de premier terme $u_1 = 2$ [30](#page=30).
* **Formule explicite :** Pour $n \ge 1$, $u_n = u_1 + (n-1)r = 2 + (n-1)5 = 5n - 3$.
* *Correction:* L'énoncé indique $u_n$ le nombre d'élèves reçus à la fin du jour $n$. Pour le jour 1, 2 élèves. Pour le jour 2, $2+5=7$ élèves. Donc $u_1=2$, $u_2=7$.
* La formule $u_n = 5(n-1)+2$ pour $n \ge 1$ donne $u_1 = 5 +2=2$ et $u_2 = 5 +2=7$. La formule est correcte [1](#page=1) [30](#page=30).
* **Journées nécessaires :** On cherche le plus petit entier $n_0$ tel que $u_{n_0} \ge 60$.
* $5(n_0 - 1) + 2 \ge 60 \implies 5(n_0 - 1) \ge 58 \implies n_0 - 1 \ge \frac{58}{5} = 11.6$.
* $n_0 \ge 12.6$. Donc $n_0 = 13$ journées [30](#page=30) [31](#page=31).
* **Situation 2: Information des élèves** [20](#page=20) [31](#page=31).
* Au départ, 3 dirigeants ($v_0 = 3$). Chaque jour, chaque élève au courant parle à deux nouveaux élèves. Soit $v_n$ le nombre d'élèves au courant à la fin du jour $n$ [20](#page=20).
* **Nature de la suite:** Pour passer de $v_n$ à $v_{n+1}$, le nombre d'élèves au courant est multiplié par 3 (les anciens + 2 nouveaux par ancien). Le raisonnement exact est: au jour $n$, il y a $v_n$ élèves au courant. Ces $v_n$ élèves informent $2 v_n$ nouveaux élèves. Donc $v_{n+1} = v_n + 2v_n = 3v_n$. C'est une suite géométrique de raison $q=3$ et de premier terme $v_0 = 3$ [31](#page=31).
* **Formule explicite :** $v_n = v_0 q^n = 3 \times 3^n = 3^{n+1}$.
* *Correction:* L'énoncé précise que "chacun des trois représentants parle à deux nouveaux élèves le premier jour puis, les jours suivants, chacun des élèves au courant ... parle à deux nouveaux élèves".
* Jour 0: $v_0 = 3$.
* Jour 1: Les 3 dirigeants parlent à 2 nouveaux chacun, donc 6 nouveaux. $v_1 = 3 + 6 = 9$.
* Jour 2: Les 9 élèves au courant parlent à 2 nouveaux chacun, donc 18 nouveaux. $v_2 = 9 + 18 = 27$.
* Il semble que la relation de récurrence soit $v_{n+1} = v_n + 2v_n = 3v_n$. Le premier terme est $v_0=3$. La formule explicite est donc $v_n = 3 \times 3^n = 3^{n+1}$ [31](#page=31).
* **Journées nécessaires :** On cherche le plus petit entier $n_0$ tel que $v_{n_0} \ge 60$.
* $3^{n_0+1} \ge 60$.
* Si $n_0 = 3$, $3^{3+1} = 3^4 = 81 \ge 60$.
* Si $n_0 = 2$, $3^{2+1} = 3^3 = 27 < 60$.
* Donc $n_0 = 3$ journées [31](#page=31).
* *Correction des éléments de correction:* L'élément de correction indique $v_n = 3 \times 2^n$ ce qui correspondrait à $v_{n+1} = 2v_n$. L'énoncé suggère $v_{n+1} = 3v_n$. Il y a une divergence ici. Si on suit l'énoncé qui dit "chacun... parle à deux nouveaux élèves", cela signifie que le nombre de nouveaux élèves informés est le double du nombre d'élèves déjà informés. Donc si $v_n$ élèves sont informés au jour $n$, alors $2v_n$ nouveaux élèves sont informés au jour $n+1$. La relation de récurrence est $v_{n+1} = v_n + 2v_n = 3v_n$. L'élément de correction semble erroné pour cette partie. En utilisant $v_n = 3 \times 2^n$ comme indiqué dans la correction: $3 \times 2^{n_0} \ge 60 \implies 2^{n_0} \ge 20$. $2^4=16$, $2^5=32$. Donc $n_0 = 5$ journées. L'interprétation de "parle à deux nouveaux élèves" est ambiguë. Si cela signifie que le nombre d'élèves au courant double à chaque étape, c'est $v_{n+1}=2v_n$. Si cela signifie que chaque élève au courant en informe 2 *nouveaux*, alors $v_{n+1} = v_n + 2v_n = 3v_n$. L'élément de correction semble pencher pour la seconde interprétation, mais utilise une formule géométrique de raison 2, ce qui est contradictoire. En considérant la correction comme juste ($v_n = 3 \times 2^n$), la limite est 5 [31](#page=31).
#### 4.1.3 Exercice 12.3 : Limites de suites combinées
Cet exercice étudie les limites de suites formées par des combinaisons linéaires ou des quotients de suites géométriques [20](#page=20) [31](#page=31).
* **Suites $u_n$ et $v_n$** [20](#page=20) [31](#page=31).
* $u_n = 0.5^n / 7$. C'est une suite géométrique de raison $q = 0.5$ et de premier terme $u_0 = 1/7$. Comme $-1 < 0.5 < 1$, $\lim_{n \to +\infty} u_n = 0$ [31](#page=31).
* $v_n = -2 \times (4/3)^n$. C'est une suite géométrique de raison $q = 4/3$ et de premier terme $v_0 = -2$. Comme $4/3 > 1$ et le premier terme est négatif, $\lim_{n \to +\infty} v_n = -\infty$ [31](#page=31).
* **Suites $w_n = u_n - 3v_n$ et $t_n = u_n / v_n$** [20](#page=20) [31](#page=31).
* **Suite $w_n$:** $\lim_{n \to +\infty} u_n = 0$ et $\lim_{n \to +\infty} v_n = -\infty$. Donc, $\lim_{n \to +\infty} (-3v_n) = +\infty$. Par addition, $\lim_{n \to +\infty} w_n = 0 + (+\infty) = +\infty$ [31](#page=31).
* **Suite $t_n$:** $\lim_{n \to +\infty} u_n = 0$ et $\lim_{n \to +\infty} v_n = -\infty$. Par quotient, $\lim_{n \to +\infty} t_n = \frac{0}{-\infty} = 0$ [31](#page=31).
### 4.2 Étude des suites arithmético-géométriques
Ces exercices appliquent la méthode de transformation en suite géométrique pour étudier les suites arithmético-géométriques [20](#page=20) [21](#page=21) [32](#page=32) [33](#page=33).
#### 4.2.1 Exercice 12.4 : Démonstration des propriétés des suites arithmético-géométriques
Cet exercice vise à retrouver les résultats du cours sur les suites arithmético-géométriques [20](#page=20) [32](#page=32) [33](#page=33).
* **Cas particulier: $a=1$** [20](#page=20) [32](#page=32).
* La suite est de la forme $u_{n+1} = u_n + b$. C'est une suite arithmétique de raison $b$ [32](#page=32).
* L'expression explicite est $u_n = u_0 + nb$ [32](#page=32).
* La limite dépend de $b$ :
* Si $b < 0$, $\lim_{n \to +\infty} u_n = -\infty$ [32](#page=32).
* Si $b = 0$, la suite est constante, $\lim_{n \to +\infty} u_n = u_0$ [32](#page=32).
* Si $b > 0$, $\lim_{n \to +\infty} u_n = +\infty$ [32](#page=32).
* **Cas général: $a \ne 1$** [21](#page=21) [32](#page=32) [33](#page=33).
* La suite est définie par $u_{n+1} = a u_n + b$ avec $a \ne 1$ [20](#page=20).
* **Point fixe:** L'équation $f(x) = x$, où $f(x) = ax+b$, admet une unique solution $\omega = \frac{b}{1-a}$ (car $a \ne 1$) [32](#page=32).
* **Suite auxiliaire:** On pose $v_n = u_n - \omega$ [21](#page=21).
* On montre que $v_{n+1} = u_{n+1} - \omega = (a u_n + b) - (a \omega + b) = a(u_n - \omega) = a v_n$. La suite $(v_n)$ est donc géométrique de raison $a$ [33](#page=33).
* **Formule explicite :** $v_n = a^n v_0 = a^n (u_0 - \omega) = a^n \left(u_0 - \frac{b}{1-a}\right)$.
* Donc, $u_n = v_n + \omega = a^n \left(u_0 - \frac{b}{1-a}\right) + \frac{b}{1-a}$ [33](#page=33).
* **Convergence:** Si $|a| < 1$, alors $\lim_{n \to +\infty} a^n = 0$. Par conséquent, $\lim_{n \to +\infty} v_n = 0$. La suite $(u_n)$ converge vers $\omega = \frac{b}{1-a}$ [33](#page=33).
#### 4.2.2 Exercice 12.7 : Étude d'une suite récurrente via une suite géométrique auxiliaire
Cet exercice utilise une suite géométrique auxiliaire pour étudier une suite récurrente plus complexe [22](#page=22) [35](#page=35) [36](#page=36).
* **Suite $(u_n)$ définie par $u_0 = 1$ et $u_{n+1} = \frac{6u_n}{1+u_n}$** [22](#page=22) [35](#page=35).
* **Bornes:** On démontre par récurrence que $0 < u_n \le 5$ pour tout $n \in \mathbb{N}$ [35](#page=35).
* Initialisation : $0 < u_0 = 1 \le 5$. Vrai.
* Hérédité : Supposons $0 < u_n \le 5$. Alors $1 < 1+u_n \le 6$ et $0 < 6u_n \le 30$.
* $u_{n+1} = \frac{6u_n}{1+u_n} > 0$.
* $u_{n+1} - 5 = \frac{6u_n}{1+u_n} - 5 = \frac{6u_n - 5(1+u_n)}{1+u_n} = \frac{u_n - 5}{1+u_n}$. Comme $u_n \le 5$ et $1+u_n > 0$, $u_{n+1} - 5 \le 0$, donc $u_{n+1} \le 5$. La propriété est héréditaire [35](#page=35).
* **Suite auxiliaire $(v_n)$:** On définit $v_n = \frac{1 - 5}{u_n}$ [22](#page=22) [35](#page=35).
* **Nature de $(v_n)$ :** $v_{n+1} = \frac{1 - 5}{u_{n+1}} = \frac{1 - 5}{\frac{6u_n}{1+u_n}} = \frac{1+u_n - 5}{6u_n} = \frac{u_n - 5}{6u_n} = \frac{1}{6} \left(1 - \frac{5}{u_n}\right) = \frac{1}{6} v_n$.
* La suite $(v_n)$ est géométrique de raison $q = 1/6$ et de premier terme $v_0 = \frac{1 - 5}{u_0} = \frac{1 - 5}{1} = -4$ [35](#page=35).
* **Formule explicite :**
* $v_n = v_0 q^n = -4 \left(\frac{1}{6}\right)^n$ [35](#page=35).
* On tire $u_n$ de la définition de $v_n$: $v_n = 1 - \frac{5}{u_n} \implies \frac{5}{u_n} = 1 - v_n \implies u_n = \frac{5}{1 - v_n}$.
* $u_n = \frac{5}{1 - (-4(1/6)^n)} = \frac{5}{1 + 4(1/6)^n}$ [36](#page=36).
* **Limite de $(u_n)$ :** Comme $|1/6| < 1$, $\lim_{n \to +\infty} v_n = 0$.
* Par conséquent, $\lim_{n \to +\infty} u_n = \frac{5}{1 - 0} = 5$ [36](#page=36).
### 4.3 Exercices variés sur les suites
D'autres exercices abordent différentes facettes de l'étude des suites.
#### 4.3.1 Exercice 12.5 : Suite convergente ou divergente
Cet exercice analyse une suite récurrente quadratique [21](#page=21) [33](#page=33) [34](#page=34).
* **Suite $(u_n)$ définie par $u_0 = 1$ et $u_{n+1} = u_n^2 + u_n$** [21](#page=21).
* **Monotonie:** $u_{n+1} - u_n = u_n^2$. Comme $u_0=1>0$, et la suite sera croissante, $u_n>0$ pour tout $n$. Donc $u_{n+1}-u_n = u_n^2 \ge 0$. La suite est croissante [33](#page=33).
* **Limite potentielle:** Si $(u_n)$ converge vers une limite $\ell$, alors $\ell = \ell^2 + \ell$, ce qui implique $\ell^2 = 0$, donc $\ell = 0$ [33](#page=33).
* **Divergence vers $+\infty$ :** Raisonnons par l'absurde. Si $(u_n)$ ne diverge pas vers $+\infty$, comme elle est croissante, elle converge vers une limite $\ell$. D'après le point précédent, $\ell=0$.
* Cependant, $u_0=1 > 0$. Comme la suite est croissante, $u_n \ge u_0 = 1$ pour tout $n$.
* Ceci contredit $\ell=0$. Donc l'hypothèse de convergence est fausse. La suite diverge vers $+\infty$ [33](#page=33) [34](#page=34).
#### 4.3.2 Exercice 12.6 : Conjecture et preuve par récurrence
Cet exercice combine la formulation d'une conjecture sur une formule explicite et sa démonstration par récurrence [21](#page=21) [34](#page=34).
* **Suite $(u_n)$ définie par $u_0 = 1$ et $u_{n+1} = u_n + 2n + 3$** [21](#page=21).
* **Calcul des premiers termes et conjecture :**
* $u_0 = 1$
* $u_1 = u_0 + 2 + 3 = 1 + 3 = 4$ .
* $u_2 = u_1 + 2 + 3 = 4 + 2 + 3 = 9$ [1](#page=1).
* $u_3 = u_2 + 2 + 3 = 9 + 4 + 3 = 16$ [2](#page=2).
* $u_4 = u_3 + 2 + 3 = 16 + 6 + 3 = 25$ [3](#page=3).
* $u_5 = u_4 + 2 + 3 = 25 + 8 + 3 = 36$ [4](#page=4).
* On observe que $u_n = (n+1)^2$ pour $n \in \{0, 1, \dots, 5\}$ [34](#page=34).
* **Preuve par récurrence :** Soit $P(n)$ la propriété $u_n = (n+1)^2$.
* **Initialisation:** $P $ est vraie car $u_0 = 1 = (0+1)^2$ [34](#page=34).
* **Hérédité :** Supposons $P(n)$ vraie pour un entier $n \ge 0$, c'est-à-dire $u_n = (n+1)^2$. Montrons que $P(n+1)$ est vraie :
* $u_{n+1} = u_n + 2n + 3$ (hypothèse de récurrence)
* $u_{n+1} = (n+1)^2 + 2n + 3$
* $u_{n+1} = (n^2 + 2n + 1) + 2n + 3$
* $u_{n+1} = n^2 + 4n + 4$
* $u_{n+1} = (n+2)^2 = ((n+1)+1)^2$.
* Donc $P(n+1)$ est vraie [34](#page=34).
* **Conclusion:** Par le principe de récurrence, $u_n = (n+1)^2$ pour tout $n \in \mathbb{N}$ [34](#page=34).
---
## Erreurs courantes à éviter
- Révisez tous les sujets en profondeur avant les examens
- Portez attention aux formules et définitions clés
- Pratiquez avec les exemples fournis dans chaque section
- Ne mémorisez pas sans comprendre les concepts sous-jacents
Glossary
| Term | Definition |
|------|------------|
| Suite numérique | Une application u : N → R, où u(n) est noté u_n et est appelé le n-ième terme de la suite. |
| Suite majorée | Une suite (u_n) est majorée s'il existe un réel M tel que pour tout n ∈ N, u_n ⩽ M. |
| Suite minorée | Une suite (u_n) est minorée s'il existe un réel m tel que pour tout n ∈ N, m ⩽ u_n. |
| Suite bornée | Une suite est bornée si elle est à la fois majorée et minorée. |
| Suite croissante | Une suite (u_n) est croissante si pour tout n ∈ N, u_{n+1} ⩾ u_n. |
| Suite strictement croissante | Une suite (u_n) est strictement croissante si pour tout n ∈ N, u_{n+1} > u_n. |
| Suite décroissante | Une suite (u_n) est décroissante si pour tout n ∈ N, u_{n+1} ⩽ u_n. |
| Suite strictement décroissante | Une suite (u_n) est strictement décroissante si pour tout n ∈ N, u_{n+1} < u_n. |
| Suite monotone | Une suite est monotone si elle est soit croissante, soit décroissante. |
| Limite finie | Une suite (u_n) a pour limite ℓ si pour tout ε > 0, il existe un entier naturel n_0 tel que pour tout n ⩾ n_0, on ait |u_n - ℓ| < ε. |
| Limite infinie | Une suite (u_n) tend vers +∞ si pour tout ε > 0, il existe un entier naturel n_0 tel que pour tout n ⩾ n_0, on ait u_n > ε. De manière analogue, elle tend vers -∞ si pour tout ε > 0, il existe n_0 tel que pour tout n ⩾ n_0, u_n < -ε. |
| Suite convergente | Une suite est dite convergente si elle admet une limite finie. |
| Suite divergente | Une suite est dite divergente si elle n'est pas convergente, c'est-à-dire si elle tend vers une limite infinie ou si elle n'a pas de limite. |
| Suite arithmétique | Une suite (u_n) est arithmétique s'il existe un réel r (raison) tel que pour tout n ∈ N, u_{n+1} = u_n + r. |
| Suite géométrique | Une suite (u_n) est géométrique s'il existe un réel q (raison) tel que pour tout n ∈ N, u_{n+1} = q * u_n. |
| Suite arithmético-géométrique | Une suite (u_n) est arithmético-géométrique s'il existe deux réels a et b tels que pour tout n ∈ N, u_{n+1} = a * u_n + b. |
| Suite récurrente | Une suite (u_n) est récurrente s'il existe une fonction f et un intervalle I stable par f tels que pour tout n ∈ N, u_{n+1} = f(u_n) et u_0 ∈ I. |
| Raison d'une suite arithmétique | La constante r ajoutée à un terme pour obtenir le terme suivant dans une suite arithmétique. |
| Raison d'une suite géométrique | Le facteur q par lequel on multiplie un terme pour obtenir le terme suivant dans une suite géométrique. |
| Point fixe d'une fonction affine | La valeur x telle que f(x) = x, où f(x) = ax + b. Ce point fixe est ω = b / (1 - a) lorsque a ≠ 1. |
| Somme des premiers termes d'une suite géométrique | La formule 1 + q + q^2 + ... + q^n = (1 - q^{n+1}) / (1 - q) pour q ≠ 1. |
Cover
Signalen_en_Systemen_Ch3_lesdocument_24-66.pdf
Summary
# De Laplace-transformatie: definities en convergentie
Dit onderwerp introduceert de basisdefinities van de Laplace-transformatie en de inverse Laplace-transformatie, met de nadruk op het convergentiegebied van de getransformeerde functie.
### 1.1 Definities van de Laplace-transformatie
De Laplace-transformatie is een wiskundige transformatie die een functie van de tijdsdomeinvariabele $t$ omzet naar een functie van de complex-frequentiedomeinvariabele $s$. Dit proces is vooral nuttig voor het oplossen van lineaire differentiaalvergelijkingen en systeemanalyses [1](#page=1).
#### 1.1.1 De Laplace-transformatie
De definitie van de Laplace-transformatie van een functie $x(t)$ wordt gegeven door de integraal:
$$X(s) = \mathcal{L}\{x(t)\} = \int_{-\infty}^{\infty} x(t) e^{-st} dt$$ [1](#page=1).
Hierin is $X(s)$ de Laplace-getransformeerde van $x(t)$, en $s$ is een complexe variabele, meestal geschreven als $s = \sigma + j\omega$, waar $\sigma$ het reële deel is en $\omega$ het imaginaire deel [2](#page=2).
#### 1.1.2 De inverse Laplace-transformatie
De inverse Laplace-transformatie stelt ons in staat om terug te keren van het $s$-domein naar het tijdsdomein. Deze wordt gedefinieerd door de volgende integraal:
$$x(t) = \mathcal{L}^{-1}\{X(s)\} = \frac{1}{2\pi j} \int_{\sigma - j\infty}^{\sigma + j\infty} X(s) e^{st} ds$$ [1](#page=1).
Hierin moet $\sigma$ zo gekozen worden dat de integraal convergeert. Dit impliceert dat $\sigma$ binnen het convergentiegebied van $X(s)$ moet liggen [1](#page=1).
#### 1.1.3 Laplace-paar
Een "Laplace-paar" verwijst naar de relatie tussen een tijdsdomeinfunctie $x(t)$ en zijn corresponderende Laplace-getransformeerde $X(s)$ [1](#page=1).
### 1.2 Convergentiegebied (Region of Convergence - ROC)
Het convergentiegebied (ROC) is cruciaal voor de unieke definitie van de Laplace-transformatie en zijn inverse [2](#page=2).
#### 1.2.1 Definitie van het convergentiegebied
Het convergentiegebied is het gebied in het complexe $s$-vlak (het $\sigma j\omega$-vlak) waarin alle waarden van $s$ liggen waarvoor de Laplace-transformatie integraal convergeert [2](#page=2).
#### 1.2.2 Voorbeelden van convergentiegebieden
* **Voor een rechtshandig signaal:** Beschouw het signaal $x_1(t) = e^{-at}u(t)$, waarbij $u(t)$ de eenheidsstapfunctie is en $a$ een reële constante is. De Laplace-transformatie hiervan is [2](#page=2):
$$X_1(s) = \frac{1}{s+a}$$
Het convergentiegebied voor dit signaal is $Re(s) > -a$. Dit betekent dat de transformatie alleen convergeert voor waarden van $s$ waarvan het reële deel groter is dan $-a$. Visueel is dit het gebied rechts van de verticale lijn $Re(s) = -a$ in het $s$-vlak [2](#page=2) [3](#page=3).
* **Voor een linkshandig signaal:** Beschouw het signaal $x_2(t) = -e^{-at}u(-t)$, waarbij $u(-t)$ de eenheidsstapfunctie is die nul is voor $t>0$. De Laplace-transformatie hiervan is:
$$X_2(s) = \frac{1}{s+a}$$
Het convergentiegebied voor dit signaal is $Re(s) < -a$. Dit betekent dat de transformatie alleen convergeert voor waarden van $s$ waarvan het reële deel kleiner is dan $-a$. Visueel is dit het gebied links van de verticale lijn $Re(s) = -a$ in het $s$-vlak [3](#page=3).
> **Tip:** Het teken (minteken) voor $e^{-at}$ bij het linkshandige signaal is essentieel om ervoor te zorgen dat de integralen convergeren en de transformatie gedefinieerd is [3](#page=3).
#### 1.2.3 Belang van het convergentiegebied
Het convergentiegebied is niet alleen een voorwaarde voor de convergentie van de integraal, maar het bevat ook belangrijke informatie over de causaliteit van het signaal en de stabiliteit van het corresponderende systeem. Voor linkshandige signalen ligt het ROC aan de linkerkant van een verticale lijn, terwijl het voor rechtshandige signalen aan de rechterkant ligt [20](#page=20) [21](#page=21) [22](#page=22).
### 1.3 Polen en nullen van $X(s)$
Rational functies in $s$ kunnen worden geanalyseerd aan de hand van hun polen en nullen [18](#page=18).
#### 1.3.1 Definitie van polen en nullen
De Laplace-getransformeerde $X(s)$ wordt vaak uitgedrukt als een rationale functie van $s$:
$$X(s) = \frac{b_m s^m + b_{m-1} s^{m-1} + \dots + b_0}{a_n s^n + a_{n-1} s^{n-1} + \dots + a_0}$$ [18](#page=18).
Hierin zijn $a_i$ en $b_i$ reële constanten [18](#page=18).
* **Nulpunten ($Z_k$):** Dit zijn de waarden van $s$ waarvoor de teller van $X(s)$ gelijk is aan nul. Bij deze waarden is $X(s) = 0$ [18](#page=18).
* **Polen ($P_k$):** Dit zijn de waarden van $s$ waarvoor de noemer van $X(s)$ gelijk is aan nul. Bij deze waarden wordt $X(s)$ oneindig (de functie divergeert) [18](#page=18).
#### 1.3.2 Visuele representatie in het $s$-vlak
Polen en nullen, samen met het convergentiegebied, kunnen compact visueel worden weergegeven in het $s$-vlak (het $\sigma j\omega$-vlak). Nullen worden meestal aangegeven met een 'o' en polen met een 'x' [19](#page=19).
> **Voorbeeld:** Beschouw $X(s) = \frac{2s+4}{s^2+4s+3}$ met $Re(s) > -1$ [19](#page=19).
> De nullen worden gevonden door de teller gelijk te stellen aan nul: $2s+4=0 \implies s = -2$.
> De polen worden gevonden door de noemer gelijk te stellen aan nul: $s^2+4s+3=0 \implies (s+1)(s+3)=0 \implies s = -1, s = -3$.
> Het convergentiegebied is $Re(s) > -1$. De nul ligt op $s=-2$. De polen liggen op $s=-1$ en $s=-3$. Aangezien het ROC $Re(s) > -1$ is, ligt de pool op $s=-1$ op de grens van het ROC, en de pool op $s=-3$ ligt buiten het ROC. Dit wijst op een rechtshandig signaal [19](#page=19).
> **Voorbeeld 2:** Beschouw $X(s) = \frac{2}{(s+2)(s+1)(s+3)}$ met $Re(s) > -1$ [20](#page=20).
> De nul ligt bij $s=0$ (impliciet in de teller). De polen bevinden zich op $s=-1$, $s=-2$, en $s=-3$. Het ROC is $Re(s) > -1$. De polen op $s=-1$ en $s=-2$ liggen binnen of op de grens van het ROC, terwijl de pool op $s=-3$ buiten het ROC ligt [20](#page=20) [21](#page=21).
#### 1.3.3 Eigenschappen van het convergentiegebied gerelateerd aan polen en nullen
* **Eigenschap 1:** Het convergentiegebied van een Laplace-transformatie bevat nooit polen van $X(s)$. Dit komt doordat de transformatie bij polen divergeert [20](#page=20).
* **Eigenschap 2:** Als $x(t)$ een signaal is met een eindige duur, dan is het convergentiegebied het volledige $s$-vlak, met mogelijke uitzondering van $s=0$ of $s=\infty$ [20](#page=20) [21](#page=21).
* **Eigenschap 3:** Als $x(t)$ een rechtshandig signaal is (d.w.z. $x(t) = 0$ voor $t \sigma_{max}$, waarbij $\sigma_{max}$ het maximale reële deel van de polen van $X(s)$ is [20](#page=20) [21](#page=21).
* **Eigenschap 4:** Als $x(t)$ een linkshandig signaal is (d.w.z. $x(t) = 0$ voor $t>T$ voor enige $T$), dan is het convergentiegebied van de vorm $Re(s) < \sigma_{min}$, waarbij $\sigma_{min}$ het minimale reële deel van de polen van $X(s)$ is [20](#page=20) [22](#page=22).
> **Samenvatting:** Het bestuderen van de polen en nullen van $X(s)$ in combinatie met het convergentiegebied biedt diepgaand inzicht in de eigenschappen van het oorspronkelijke tijdsdomeinsignaal $x(t)$ en de stabiliteit van het systeem dat het signaal representeert.
---
# Laplace-transformaties van veelvoorkomende signalen
Dit gedeelte beschrijft de berekening van de Laplace-transformaties voor standaard signalen zoals de eenheidsimpuls en de eenheidsstap [4](#page=4).
### 3.3.1 Eenheidsimpulsfunctie $\delta(t)$
De eenheidsimpulsfunctie, ook wel de Dirac-deltafunctie genoemd, is een gegeneraliseerde functie die overal nul is behalve op $t=0$, waar de waarde oneindig is, maar de integraal ervan over alle tijden is één. De Laplace-transformatie van de eenheidsimpulsfunctie $\delta(t)$ wordt als volgt berekend [4](#page=4):
$$
\mathcal{L}\{\delta(t)\} = \int_{-\infty}^{\infty} \delta(t) e^{-st} dt
$$
Vanwege de eigenschappen van de Dirac-deltafunctie is de integraal gelijk aan de waarde van de functie $e^{-st}$ geëvalueerd op $t=0$:
$$
\int_{-\infty}^{\infty} \delta(t) e^{-st} dt = e^{-s \cdot 0} = e^0 = 1
$$
Dus, de Laplace-transformatie van de eenheidsimpulsfunctie is:
$$
\mathcal{L}\{\delta(t)\} = 1
$$
> **Tip:** De Dirac-deltafunctie is cruciaal in signaalverwerking en systeemtheorie omdat het helpt bij het analyseren van de respons van een systeem op een zeer korte input.
### 3.3.2 Eenheidsstapfunctie $u(t)$
De eenheidsstapfunctie, ook wel de Heaviside-stapfunctie genoemd, wordt gedefinieerd als:
$u(t) = \begin{cases} 0 & \text{voor } t < 0 \\ 1 & \text{voor } t \ge 0 \end{cases}$
De Laplace-transformatie van de eenheidsstapfunctie $u(t)$ wordt berekend met de definitie van de Laplace-transformatie:
$$
\mathcal{L}\{u(t)\} = \int_{-\infty}^{\infty} u(t) e^{-st} dt
$$
Aangezien $u(t)$ nul is voor $t < 0$, wordt de integraal gedefinieerd vanaf $0$ tot $\infty$:
$$
\mathcal{L}\{u(t)\} = \int_{0}^{\infty} 1 \cdot e^{-st} dt = \int_{0}^{\infty} e^{-st} dt
$$
Om deze integraal op te lossen, integreren we $e^{-st}$ met betrekking tot $t$:
$$
\int_{0}^{\infty} e^{-st} dt = \left[ \frac{e^{-st}}{-s} \right]_{0}^{\infty}
$$
Voor de convergentie van de Laplace-transformatie is het noodzakelijk dat de reële component van $s$ groter is dan nul, oftewel $\text{Re}(s) > 0$. Onder deze voorwaarde geldt dat $\lim_{t \to \infty} e^{-st} = 0$.
$$
\left[ \frac{e^{-st}}{-s} \right]_{0}^{\infty} = \lim_{t \to \infty} \left( \frac{e^{-st}}{-s} \right) - \left( \frac{e^{-s \cdot 0}}{-s} \right) = 0 - \left( \frac{e^0}{-s} \right) = 0 - \left( \frac{1}{-s} \right) = \frac{1}{s}
$$
Dus, de Laplace-transformatie van de eenheidsstapfunctie is:
$$
\mathcal{L}\{u(t)\} = \frac{1}{s} \quad \text{voor } \text{Re}(s) > 0
$$
> **Tip:** De voorwaarde $\text{Re}(s) > 0$ is essentieel voor de convergentie van de integraal. Zonder deze voorwaarde is de integraal niet gedefinieerd.
> **Voorbeeld:** Als we de Laplace-transformatie van $5u(t)$ willen vinden, kunnen we de lineariteitseigenschap van de Laplace-transformatie gebruiken: $\mathcal{L}\{c f(t)\} = c \mathcal{L}\{f(t)\}$. Dus, $\mathcal{L}\{5u(t)\} = 5 \mathcal{L}\{u(t)\} = 5 \cdot \frac{1}{s} = \frac{5}{s}$. Dit geldt voor $\text{Re}(s) > 0$ [4](#page=4).
---
# Eigenschappen van de Laplace-transformatie
De Laplace-transformatie is een krachtig wiskundig instrument met diverse eigenschappen die het mogelijk maken om bewerkingen in het tijdsdomein te vereenvoudigen naar algebraïsche bewerkingen in het s-domein.
### 3.1 Lineariteit
De lineariteitseigenschap stelt dat een lineaire combinatie van signalen in het tijdsdomein overeenkomt met dezelfde lineaire combinatie van hun Laplace-transformaties in het s-domein [5](#page=5).
Stel dat we twee signalen hebben, $x_1(t)$ met Laplace-transformatie $X_1(s)$ en een bijbehorende convergentieregio $R_1$, en $x_2(t)$ met transformatie $X_2(s)$ en convergentieregio $R_2$. Dan geldt voor een lineaire combinatie $a_1x_1(t) + a_2x_2(t)$ [5](#page=5):
$$ \mathcal{L}\{a_1x_1(t) + a_2x_2(t)\} = a_1X_1(s) + a_2X_2(s) $$
De convergentieregio van de resulterende transformatie is de doorsnede van de individuele convergentieregio's: $R_1 \cap R_2$ [5](#page=5).
### 3.2 Verschuiving in het tijdsdomein
Deze eigenschap beschrijft hoe een tijdsvertraging van een signaal zijn Laplace-transformatie beïnvloedt [6](#page=6).
Als de Laplace-transformatie van $x(t)$ gelijk is aan $X(s)$ met convergentieregio $R$, dan is de transformatie van $x(t-t_0)$ gelijk aan:
$$ \mathcal{L}\{x(t-t_0)\} = e^{-st_0}X(s) $$
De convergentieregio blijft $R$. De interpretatie is dat het vertragen van een tijdssignaal overeenkomt met het vermenigvuldigen van zijn Laplace-transformatie met $e^{-st_0}$ [6](#page=6).
### 3.3 Verschuiving in het s-domein
Een verschuiving in het s-domein van een Laplace-transformatie correspondeert met een vermenigvuldiging in het tijdsdomein [7](#page=7).
Als de Laplace-transformatie van $x(t)$ gelijk is aan $X(s)$ met convergentieregio $R$, dan is de transformatie van $e^{s_0t}x(t)$ gelijk aan:
$$ \mathcal{L}\{e^{s_0t}x(t)\} = X(s-s_0) $$
De convergentieregio wordt verschoven met $s_0$, dus $R + \text{Re}(s_0)$. Dit betekent dat een verschuiving in het s-domein met $s_0$ equivalent is aan het vermenigvuldigen in het tijdsdomein met $e^{s_0t}$ [7](#page=7).
### 3.4 Tijdschaling
De tijdschaaleigenschap relateert het schalen van de tijdsas van een signaal aan de transformatie in het s-domein [8](#page=8).
Als de Laplace-transformatie van $x(t)$ gelijk is aan $X(s)$ met convergentieregio $R$, dan is de transformatie van $x(at)$ gelijk aan:
$$ \mathcal{L}\{x(at)\} = \frac{1}{|a|}X\left(\frac{s}{a}\right) $$
De convergentieregio wordt geschaald met $a$, dus $aR$. De interpretatie is dat het schalen van de tijdsvariabele (compressie of decompressie) leidt tot de inverse schaling van de s-variabele en een amplitudeschaling in het s-domein [8](#page=8).
### 3.5 Convolutie
De convolutie-eigenschap is van fundamenteel belang in signaalverwerking en systeemtheorie, omdat het de relatie legt tussen convolutie in het tijdsdomein en vermenigvuldiging in het s-domein [9](#page=9).
Als $x_1(t)$ getransformeerd wordt naar $X_1(s)$ met convergentieregio $R_1$, en $x_2(t)$ naar $X_2(s)$ met convergentieregio $R_2$, dan geldt voor hun convolutie $x_1(t) * x_2(t)$:
$$ \mathcal{L}\{x_1(t) * x_2(t)\} = X_1(s) \cdot X_2(s) $$
De convergentieregio van het product is een subset van de doorsnede van $R_1$ en $R_2$, aangeduid als $R_1 \cap R_2$. Dit impliceert dat de convolutie van twee tijdsignalen equivalent is aan het vermenigvuldigen van hun Laplace-transformaties in het s-domein [9](#page=9).
### 3.6 Differentiëren in het tijdsdomein
Het differentiëren van een signaal in het tijdsdomein heeft een directe analogie in het s-domein [10](#page=10).
Als de Laplace-transformatie van $x(t)$ gelijk is aan $X(s)$ met convergentieregio $R$, dan is de transformatie van de afgeleide $\frac{dx(t)}{dt}$ gelijk aan:
$$ \mathcal{L}\left\{\frac{dx(t)}{dt}\right\} = sX(s) $$
De convergentieregio van $sX(s)$ is een subset van de oorspronkelijke convergentieregio $R$. De interpretatie is dat het afleiden van een tijdssignaal overeenkomt met het vermenigvuldigen van zijn Laplace-transformatie met $s$ [10](#page=10).
### 3.7 Differentiëren in het s-domein
Differentiëren in het s-domein correspondeert met vermenigvuldiging met $-t$ in het tijdsdomein [11](#page=11).
Als de Laplace-transformatie van $x(t)$ gelijk is aan $X(s)$ met convergentieregio $R$, dan geldt:
$$ \mathcal{L}\{-tx(t)\} = \frac{dX(s)}{ds} $$
De convergentieregio van de afgeleide $\frac{dX(s)}{ds}$ is gelijk aan $R$. Dit betekent dat afleiden in het s-domein overeenkomt met het vermenigvuldigen van het corresponderende tijdsignaal met $-t$ [11](#page=11).
### 3.8 Integratie in het t-domein
Integratie van een signaal in het tijdsdomein is gerelateerd aan het delen van de Laplace-transformatie door $s$ [12](#page=12).
Als de Laplace-transformatie van $x(t)$ gelijk is aan $X(s)$ met convergentieregio $R$, dan is de transformatie van de integraal $\int_{-\infty}^{t} x(\tau) d\tau$ gelijk aan:
$$ \mathcal{L}\left\{\int_{-\infty}^{t} x(\tau) d\tau\right\} = \frac{1}{s}X(s) $$
De convergentieregio van $\frac{1}{s}X(s)$ is de doorsnede van $R$ en het halfvlak $\text{Re}(s) > 0$. De interpretatie is dat het integreren van een tijdssignaal overeenkomt met het delen van zijn Laplace-transformatie door $s$ [12](#page=12).
### 3.9 Toepassingen van de eigenschappen
De eigenschappen van de Laplace-transformatie maken het mogelijk om de transformaties van diverse signalen af te leiden, zelfs zonder directe toepassing van de definitie-integraal [13](#page=13).
**Voorbeelden van afleidingen:**
* **Impulsfunctie $\delta(t)$:** De transformatie van de Dirac-deltafunctie is 1, met een convergentieregio die het hele s-vlak beslaat [14](#page=14).
* **Rampfunctie $t u(t)$:** Door gebruik te maken van de eigenschap voor integratie of door de transformatie van $u(t)$ te differentiëren in het s-domein, kan de transformatie van $t u(t)$ worden afgeleid als $\frac{1}{s^2}$ [14](#page=14).
* **Exponentiële functie $e^{-at}u(t)$:** Met de s-domein verschuivingseigenschap, uitgaande van de transformatie van $u(t)$ als $\frac{1}{s}$, wordt de transformatie $e^{-at}u(t)$ gelijk aan $\frac{1}{s+a}$ [15](#page=15).
* **Getrapte exponentiële functie $t e^{-at}u(t)$:** Deze kan worden verkregen door de transformatie van $e^{-at}u(t)$ te differentiëren in het s-domein [15](#page=15).
* **Gecosinusoidaliseerde functie $\cos(\omega_0t)u(t)$:** Deze kan worden afgeleid met behulp van de definitie of door eigenschappen toe te passen op complexe exponentiële functies [16](#page=16).
* **Gedempte cosinusfunctie $e^{-at}\cos(\omega_0t)u(t)$:** Verkregen door de s-domein verschuivingseigenschap toe te passen op de transformatie van $\cos(\omega_0t)u(t)$ [16](#page=16).
Deze voorbeelden illustreren hoe de eigenschappen, in combinatie met de bekende transformatie van de eenheidsstapfunctie $u(t)$, een breed scala aan signaaltransformaties efficiënt kunnen berekenen (#page=13,14,15,16) [13](#page=13) [14](#page=14) [15](#page=15) [16](#page=16).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Laplace-transformatie | Een integraaltransformatie die een functie van de tijd, $x(t)$, omzet naar een functie van de complexe frequentie, $X(s)$. Dit wordt gedefinieerd door de integraal $X(s) = \int_{-\infty}^{\infty} x(t) e^{-st} dt$. |
| Inverse Laplace-transformatie | De transformatie die een functie van de complexe frequentie, $X(s)$, terug omzet naar de oorspronkelijke functie van de tijd, $x(t)$. Dit wordt gedefinieerd door de complexe integraal $x(t) = \frac{1}{2\pi j} \int_{\sigma-j\infty}^{\sigma+j\infty} X(s) e^{st} ds$. |
| Convergentiegebied (ROC) | Het gebied in het s-vlak waarin de Laplace-transformatie van een signaal convergeert. Dit gebied is cruciaal voor de unieke bepaling van de inverse Laplace-transformatie. |
| Eenheidsimpulsfunctie ($\delta(t)$) | Een gegeneraliseerde functie die nul is voor alle $t \neq 0$ en waarvan de integraal over de gehele tijdsas gelijk is aan 1. Het is de afgeleide van de eenheidsstapfunctie. |
| Eenheidsstapfunctie ($u(t)$) | Een functie die nul is voor $t < 0$ en één is voor $t \geq 0$. Het vertegenwoordigt een plotselinge toename van nul naar één op tijdstip $t=0$. |
| Lineairiteit | Een eigenschap van transformaties waarbij de transformatie van een lineaire combinatie van functies gelijk is aan de lineaire combinatie van de transformaties van die functies. Voor de Laplace-transformatie geldt: $\mathcal{L}\{a_1x_1(t) + a_2x_2(t)\} = a_1X_1(s) + a_2X_2(s)$. |
| Verschuiving in tijdsdomein | De eigenschap die stelt dat het vertragen van een signaal met $t_0$ seconden in het tijdsdomein ($x(t-t_0)u(t-t_0)$) overeenkomt met het vermenigvuldigen van de Laplace-transformatie met $e^{-st_0}$ in het s-domein. |
| Verschuiving in s-domein | De eigenschap die aangeeft dat het vermenigvuldigen van een signaal in het tijdsdomein met $e^{s_0t}$ ($e^{s_0t}x(t)$) overeenkomt met het verschuiven van de Laplace-transformatie met $s_0$ in het s-domein ($X(s-s_0)$). |
| Tijdschaling | Deze eigenschap beschrijft hoe het schalen van de tijdsvariabele in $x(at)$ de Laplace-transformatie beïnvloedt. Het resulteert in een schaling van de s-variabele en een inversie van de schaalingsfactor ($ \frac{1}{|a|} X(\frac{s}{a}) $). |
| Convolutie | De bewerking die de interactie tussen twee signalen beschrijft. De convolutie van twee signalen in het tijdsdomein is equivalent aan de vermenigvuldiging van hun Laplace-transformaties in het s-domein. |
| Polen van X(s) | De waarden van $s$ waarvoor de noemer van de rationale functie $X(s)$ nul is, wat resulteert in een oneindige waarde voor $X(s)$. Deze bepalen mede de dynamische eigenschappen van een systeem. |
| Nullen van X(s) | De waarden van $s$ waarvoor de teller van de rationale functie $X(s)$ nul is, wat resulteert in een nulwaarde voor $X(s)$. |
Cover
Syllabus.pdf
Summary
# Basisbegrippen uit de logica en verzamelingen
Dit deel introduceert fundamentele concepten uit de logica, zoals proposities, kwantoren en implicaties, en behandelt basisbegrippen met betrekking tot verzamelingen, inclusief operaties zoals unie en doorsnede [5](#page=5) [6](#page=6) [7](#page=7).
### 1.1 Basisbegrippen uit de logica
In de logica gebruiken we specifieke symbolen voor negatie ($\neg$), disjunctie ($\vee$), conjunctie ($\wedge$), implicatie ($\Rightarrow$) en equivalentie ($\Leftrightarrow$) [5](#page=5).
* **Implicatie ($P \Rightarrow Q$)**: Deze uitspraak betekent "als $P$ waar is, dan is ook $Q$ waar" [5](#page=5).
* $P$ wordt de *voldoende voorwaarde* voor $Q$ genoemd [5](#page=5).
* $Q$ wordt de *noodzakelijke voorwaarde* voor $P$ genoemd [5](#page=5).
* $P \Rightarrow Q$ is equivalent met $\neg P \vee Q$ [5](#page=5).
* De negatie van $P \Rightarrow Q$ is $P \wedge \neg Q$ [5](#page=5).
* De implicatie $P \Rightarrow Q$ is equivalent met haar *contrapositie* $\neg Q \Rightarrow \neg P$ [5](#page=5).
* **Kwantoren**:
* **Existentiële kwantor ($\exists$)**: $\exists x: P(x)$ drukt uit dat er een $x$ bestaat waarvoor de eigenschap $P(x)$ waar is [5](#page=5).
* **Universele kwantor ($\forall$)**: $\forall x: P(x)$ drukt uit dat de eigenschap $P(x)$ waar is voor alle $x$ [5](#page=5).
> **Voorbeeld 1.1.1**
> 1. De formule $\forall x \in \mathbb{R}: x \geq 0 \Rightarrow x^2 \geq 0$ betekent dat voor elk reëel getal $x$ geldt: als $x$ positief is, dan is zijn kwadraat ook positief [5](#page=5).
> 2. De formule $\forall y \geq 0 \exists x \in \mathbb{R}: x^2 = y$ betekent dat er voor elk positief reëel getal $y$ een reëel getal $x$ bestaat zodat $x^2 = y$ [5](#page=5).
* **Negatie van kwantoren**:
* De negatie van $\exists x: P(x)$ is $\forall x: \neg P(x)$. Dit drukt uit dat er geen enkele $x$ bestaat waarvoor $P(x)$ geldt [5](#page=5).
* De negatie van $\forall x: P(x)$ is $\exists x: \neg P(x)$. Dit drukt uit dat er ten minste één $x$ bestaat waarvoor $P(x)$ niet geldt [5](#page=5).
*Regel voor negatie van formules met kwantoren*: Vervang alle kwantoren $\exists$ door $\forall$ en omgekeerd, en sluit af met de negatie van de laatste (meest rechtse) deelformule [5](#page=5).
> **Voorbeeld 1.1.2**
> 1. De negatie van $\forall x \in \mathbb{R}: x \geq 0 \Rightarrow x^2 \geq 0$ is $\exists x \in \mathbb{R}: x \geq 0 \land x^2 < 0$ [5](#page=5).
> 2. De negatie van $\forall y \geq 0 \exists x \in \mathbb{R}: x^2 = y$ is $\exists y \geq 0 \forall x \in \mathbb{R}: x^2 \neq y$ [6](#page=6).
* **Stellingen bewijzen**: Een stelling bestaat uit *gegeven* (veronderstellingen) en een *te bewijzen* eigenschap. Een bewijs is een logische ketting van uitspraken die het te bewijzen afleidt uit het gegeven en eerder bewezen eigenschappen. Het symbool $\Box$ duidt het einde van een bewijs aan [6](#page=6).
### 1.2 Verzamelingen
Een verzameling is een collectie van objecten, die we *elementen* noemen [6](#page=6).
* $x \in A$ betekent dat object $x$ behoort tot verzameling $A$ [6](#page=6).
* $x \notin A$ betekent dat object $x$ niet behoort tot verzameling $A$ [6](#page=6).
* De *lege verzameling* is de verzameling die geen enkel element bevat, genoteerd als $\emptyset$ [6](#page=6).
> **Opmerking 1.2.1**
> De volgorde van elementen in een verzameling is niet van belang, dus $\{a,b,c\} = \{b,a,c\}$ [6](#page=6).
* **Definiëren van verzamelingen**:
* **Door opsomming**: Expliciet alle elementen worden opgesomd, ook voor oneindige verzamelingen [6](#page=6).
> **Voorbeeld 1.2.2**
> 1. Zij $V = \{a,b,c\}$. $V$ bestaat uit de elementen $a,b,c$ [6](#page=6).
> 2. Zij $V = \{0,2,4,6,... \}$. $V$ is de verzameling van even natuurlijke getallen [6](#page=6).
* **Door omschrijving**: Een verzameling $A$ en een eigenschap $P(x)$ bepalen de verzameling $\{x \in A \mid P(x)\}$, bestaande uit elementen $x$ uit $A$ die aan $P(x)$ voldoen [6](#page=6).
> **Voorbeeld 1.2.3**
> Zij $V = \{n \in \mathbb{N} \mid n \text{ is even}\}$. $V$ is de verzameling van even natuurlijke getallen [6](#page=6).
* **Deelverzameling**: Een verzameling $A$ is een deelverzameling van $B$ (genoteerd als $A \subseteq B$) als elk element van $A$ ook een element van $B$ is [6](#page=6).
* **Verzamelingsoperaties**:
* **Unie ($A \cup B$)**: De verzameling van elementen die tot $A$ of tot $B$ behoren. $A \cup B = \{x \mid x \in A \lor x \in B\}$ [6](#page=6).
* **Doorsnede ($A \cap B$)**: De verzameling van elementen die tot zowel $A$ als $B$ behoren. $A \cap B = \{x \mid x \in A \land x \in B\}$ [6](#page=6).
* **Verschil ($A \setminus B$)**: De verzameling van elementen van $A$ die niet tot $B$ behoren. $A \setminus B = \{x \in A \mid x \notin B\}$ [7](#page=7).
* **Cartesisch product ($A_1 \times A_2 \times \dots \times A_n$)**: De verzameling van koppels $(a_1, a_2, \dots, a_n)$ waarbij $a_i \in A_i$ voor alle $i \in \{1, \dots, n\}$.
$$A_1 \times A_2 \times \dots \times A_n = \{(a_1, a_2, \dots, a_n) \mid a_i \in A_i \text{ voor alle } i \in \{1, \dots, n\}\}$$ [7](#page=7).
### 1.3 Grieks alfabet
Letters uit het Griekse alfabet worden veel gebruikt in de wiskunde. Hieronder volgt een overzicht van de kleine en hoofdletters met hun uitspraak [7](#page=7):
| Kleine letter | Hoofdletter | Uitspraak |
| :------------: | :----------: | :--------: |
| $\alpha$ | $\text{A}$ | alfa |
| $\beta$ | $\text{B}$ | bèta |
| $\gamma$ | $\Gamma$ | gamma |
| $\delta$ | $\Delta$ | delta |
| $\varepsilon$ | $\text{E}$ | epsilon |
| $\zeta$ | $\text{Z}$ | zèta |
| $\eta$ | $\text{H}$ | èta |
| $\theta$ | $\Theta$ | thèta |
| $\iota$ | $\text{I}$ | jota |
| $\kappa$ | $\text{K}$ | kappa |
| $\lambda$ | $\Lambda$ | lambda |
| $\mu$ | $\text{M}$ | mu |
| $\nu$ | $\text{N}$ | nu |
| $\xi$ | $\Xi$ | ksi |
| $o$ | $\text{O}$ | omikron |
| $\pi$ | $\Pi$ | pi |
| $\rho$ | $\text{P}$ | ro |
| $\sigma$ | $\Sigma$ | sigma |
| $\tau$ | $\text{T}$ | tau |
| $\upsilon$ | $\Upsilon$ | upsilon |
| $\phi$ of $\varphi$ | $\Phi$ | phi |
| $\chi$ | $\text{X}$ | chi |
| $\psi$ | $\Psi$ | psi |
| $\omega$ | $\Omega$ | omega |
> **Tip**: Verwar de Griekse letter $\varepsilon$ niet met het symbool $\in$ ('element van'), en de Griekse letter $\delta$ niet met het symbool $\partial$ ('ronde d') [7](#page=7).
---
# Eigenschappen van de reële getallen en limieten van rijen
Dit hoofdstuk introduceert fundamentele eigenschappen van de reële getallen, waaronder begrensdheid, supremum en infimum, en definieert vervolgens de limiet van een rij, samen met de bijbehorende rekenregels en stellingen.
### 2.1 Eigenschappen van de reële getallen
De verzamelingen van natuurlijke getallen ($\mathbb{N}$), gehele getallen ($\mathbb{Z}$) en rationale getallen ($\mathbb{Q}$) worden gedefinieerd, samen met $\mathbb{N}^+ = \mathbb{N} \setminus \{0\}$ [9](#page=9).
#### 2.1.1 Begrensdheid en suprema/infima
* **Definitie 2.1.2: Begrensdheid** [10](#page=10).
* Een **bovengrens** van $A \subseteq \mathbb{R}$ is een getal $b \in \mathbb{R}$ zodat $a \leq b$ voor alle $a \in A$. Een naar boven begrensde verzameling heeft een bovengrens.
* Een **ondergrens** van $A \subseteq \mathbb{R}$ is een getal $b \in \mathbb{R}$ zodat $b \leq a$ voor alle $a \in A$. Een naar onder begrensde verzameling heeft een ondergrens.
* Een verzameling is **begrensd** als ze zowel naar boven als onder begrensd is.
* **Definitie 2.1.3: Maximum en minimum** [10](#page=10).
* Het **maximum** ($\max A$) van $A \subseteq \mathbb{R}$ is een bovengrens van $A$ die tot $A$ behoort.
* Het **minimum** ($\min A$) van $A \subseteq \mathbb{R}$ is een ondergrens van $A$ die tot $A$ behoort.
* **Opmerking 2.1.4:** Maximum en minimum zijn uniek indien ze bestaan. Elke eindige verzameling heeft een minimum en een maximum [10](#page=10).
* **Definitie 2.1.5: Supremum** [11](#page=11).
* Het **supremum** ($\sup A$) van een naar boven begrensde verzameling $A \subseteq \mathbb{R}$ is het minimum van de verzameling van alle bovengrenzen van $A$.
* $\sup A = \min \{b \in \mathbb{R} \mid b \text{ is een bovengrens van } A\}$.
* **Voorbeeld 2.1.6:** $\sup \{x \in \mathbb{R} \mid x < 0\} = 0$ [11](#page=11).
* **Opmerking 2.1.7:** Het supremum behoort niet noodzakelijk tot de verzameling zelf. Als $\sup A \in A$, dan is $\sup A = \max A$ [11](#page=11).
* **Eigenschap 2.1.8: Supremumprincipe** [11](#page=11).
* Elke niet-lege, naar boven begrensde verzameling $A \subseteq \mathbb{R}$ heeft een supremum.
* Dit principe is een axioma.
* **Stelling 2.1.10:** Voor elke $a \in \mathbb{R}$ bestaat er een $n \in \mathbb{N}$ zodat $n > a$ [11](#page=11).
* **Gevolg 2.1.11:** Voor elk reëel getal $\varepsilon > 0$ bestaat er een $n \in \mathbb{N}^+$ met $\frac{1}{n} < \varepsilon$ [11](#page=11).
* **Stelling 2.1.13: Karakterisatie van het supremum** [13](#page=13).
* Zij $A \subseteq \mathbb{R}$ een niet-lege, naar boven begrensde verzameling. $M \in \mathbb{R}$ is het supremum van $A$ dan en slechts dan als:
1. $\forall a \in A : a \leq M$. (M is een bovengrens)
2. $\forall \varepsilon > 0 \exists a \in A : M - \varepsilon < a$. (M is de kleinste bovengrens)
* **Definitie 2.1.14: Infimum** [12](#page=12).
* Het **infimum** ($\inf A$) van een naar onder begrensde verzameling $A \subseteq \mathbb{R}$ is het maximum van de verzameling van alle ondergrenzen van $A$.
* $\inf A = \max \{b \in \mathbb{R} \mid b \text{ is een ondergrens van } A\}$.
* **Voorbeeld 2.1.15:** $\inf \{x \in \mathbb{R} \mid x > 1\} = 1$ [12](#page=12).
* **Opmerking 2.1.16:** Het infimum behoort niet noodzakelijk tot de verzameling zelf. Als $\inf A \in A$, dan is $\inf A = \min A$ [12](#page=12).
* **Stelling 2.1.17: Infimumprincipe** [12](#page=12).
* Elke niet-lege, naar onder begrensde verzameling $A \subseteq \mathbb{R}$ heeft een infimum.
* Dit principe volgt uit het supremumprincipe door te werken met de verzameling $-A = \{-a \mid a \in A\}$.
* **Stelling 2.1.18: Karakterisatie van het infimum** [13](#page=13).
* Zij $A \subseteq \mathbb{R}$ een niet-lege, naar onder begrensde verzameling. $m \in \mathbb{R}$ is het infimum van $A$ dan en slechts dan als:
1. $\forall a \in A : a \geq m$. (m is een ondergrens)
2. $\forall \varepsilon > 0 \exists a \in A : m + \varepsilon > a$. (m is de grootste ondergrens)
#### 2.1.2 Absolute waarde en intervallen
* **Definitie 2.1.19: Absolute waarde** [13](#page=13).
* $|x| = \begin{cases} x & \text{als } x \geq 0 \\ -x & \text{als } x \leq 0 \end{cases}$
* **Opmerking 2.1.20:** Een verzameling $A \subseteq \mathbb{R}$ is begrensd als en slechts als er een $M > 0$ bestaat zodat $|a| \leq M$ voor alle $a \in A$ [13](#page=13).
* **Definitie 2.1.21: Intervallen** [13](#page=13).
* Voor $a, b \in \mathbb{R}$ met $a < b$:
* Open interval: $(a,b) = \{x \in \mathbb{R} \mid a < x < b\}$
* Gesloten interval: $[a,b = \{x \in \mathbb{R} \mid a \leq x \leq b\}$
* Halfopen intervallen: $(a,b = \{x \in \mathbb{R} \mid a < x \leq b\}$ en $[a,b) = \{x \in \mathbb{R} \mid a \leq x < b\}$
* **Uitbreiding met oneindigheden:** $+\infty$ en $-\infty$ worden toegevoegd aan $\mathbb{R}$ [13](#page=13).
* Regels: $-\infty < x < +\infty$ voor alle $x \in \mathbb{R}$ [13](#page=13).
* $+\infty + x = +\infty$, $-\infty + x = -\infty$ [13](#page=13).
* $x \cdot (\pm \infty) = \begin{cases} \pm \infty, & \text{als } x > 0 \\ \mp \infty, & \text{als } x < 0 \end{cases}$ [13](#page=13).
* $(+\infty) + (-\infty)$ en $0 \cdot (\pm \infty)$ zijn ongedefinieerd [13](#page=13).
* **Definitie 2.1.22: Oneigenlijke intervallen** [13](#page=13).
* $(a,+\infty) = \{x \in \mathbb{R} \mid x > a\}$ (open)
* $[a,+\infty) = \{x \in \mathbb{R} \mid x \geq a\}$ (gesloten)
* $(-\infty,a) = \{x \in \mathbb{R} \mid x < a\}$ (open)
* $(-\infty,a = \{x \in \mathbb{R} \mid x \leq a\}$ (gesloten)
* Deze intervallen zijn niet begrensd [13](#page=13).
### 2.2 De vectorruimte $\mathbb{R}^n$
* **Definitie 2.2.1: $\mathbb{R}^n$** [14](#page=14).
* $\mathbb{R}^n = \mathbb{R} \times \cdots \times \mathbb{R}$ (n keer)
* Elementen zijn geordende n-tallen $\vec{x} = (x_1, \dots, x_n) \in \mathbb{R}^n$, vectoren genoemd.
* Vectoroptelling: $\vec{x} + \vec{y} = (x_1+y_1, \dots, x_n+y_n)$ [14](#page=14).
* Scalaire vermenigvuldiging: $\alpha\vec{x} = (\alpha x_1, \dots, \alpha x_n)$ voor $\alpha \in \mathbb{R}$ [14](#page=14).
* Scalair product: $\vec{x} \cdot \vec{y} = x_1y_1 + \cdots + x_ny_n = \sum_{i=1}^n x_iy_i$ [14](#page=14).
* **Eigenschappen scalair product:** [14](#page=14).
1. $\vec{x} \cdot \vec{y} = \vec{y} \cdot \vec{x}$
2. $(\alpha\vec{x}) \cdot \vec{y} = \alpha(\vec{x} \cdot \vec{y})$
3. $\vec{0} \cdot \vec{x} = 0$
4. $(\vec{x} + \vec{y}) \cdot \vec{z} = \vec{x} \cdot \vec{z} + \vec{y} \cdot \vec{z}$
5. $\vec{x} \neq \vec{0} \implies \vec{x} \cdot \vec{x} > 0$
* **Definitie 2.2.2: Norm (lengte)** [14](#page=14).
* $\|\vec{x}\| = \sqrt{\vec{x} \cdot \vec{x}} = \sqrt{\sum_{i=1}^n x_i^2}$.
* Afstand tussen $\vec{x}$ en $\vec{y}$ is $\|\vec{x} - \vec{y}\|$.
* **Stelling 2.2.3: Ongelijkheid van Cauchy-Schwarz** [15](#page=15).
* Voor alle $\vec{x}, \vec{y} \in \mathbb{R}^n$ geldt $|\vec{x} \cdot \vec{y}| \leq \|\vec{x}\| \|\vec{y}\|$.
* **Stelling 2.2.4: Driehoeksongelijkheden** [15](#page=15).
* Voor alle $\vec{x}, \vec{y} \in \mathbb{R}^n$:
1. Driehoeksongelijkheid: $\|\vec{x} + \vec{y}\| \leq \|\vec{x}\| + \|\vec{y}\|$.
2. Omgekeerde driehoeksongelijkheid: $|\|\vec{x}\| - \|\vec{y}\|| \leq \|\vec{x} - \vec{y}\|$.
* **Opmerking 2.2.5:** Voor $n=1$ komen deze overeen met de driehoeksongelijkheid voor absolute waarden: $|x+y| \leq |x|+|y|$ en $||x|-|y|| \leq |x-y|$ [15](#page=15).
### 2.3 De limiet van een rij
#### 2.3.1 Definitie en eigenschappen van convergentie
* **Definitie 3.1.1: Rij** [17](#page=17).
* Een (reële) rij is een geordende lijst $(x_n)_{n \in \mathbb{N}^+} = (x_1, x_2, x_3, \dots)$ met $x_n \in \mathbb{R}$ voor alle $n \in \mathbb{N}^+$. $x_n$ is de n-de term, $n$ is de index.
* De index kan ook starten vanaf een ander natuurlijk getal, bv. $n=0$ of $n=7$ [17](#page=17).
* **Definitie 3.1.4: Convergentie naar een limiet** [17](#page=17).
* Een rij $(x_n)$ convergeert naar $\ell \in \mathbb{R}$ als:
$\forall \varepsilon > 0 \exists N \in \mathbb{N}^+ \forall n \in \mathbb{N}^+ : n > N \implies |x_n - \ell| < \varepsilon$.
* Dit wordt genoteerd als $\lim_{n \to \infty} x_n = \ell$.
* **Opmerking 3.1.5:**
* De definitie kan geherformuleerd worden als: voor elke $\varepsilon > 0$ bestaat er een $N \in \mathbb{N}^+$ zodat $|x_n - \ell| < \varepsilon$ voor alle $n > N$ [17](#page=17).
* De ongelijkheid $|x_n - \ell| < \varepsilon$ is equivalent aan $\ell - \varepsilon < x_n < \ell + \varepsilon$ [17](#page=17).
* Het vervangen van $|x_n - \ell| < \varepsilon$ door $|x_n - \ell| \leq \varepsilon$ of $n > N$ door $n \geq N$ verandert de betekenis niet [18](#page=18).
* **Definitie 3.1.6: Divergentie naar oneindig** [18](#page=18).
* Een rij $(x_n)$ divergeert naar $+\infty$ als $\forall L > 0 \exists N \in \mathbb{N}^+ \forall n \in \mathbb{N}^+ : n > N \implies x_n > L$. Genoteerd als $\lim_{n \to \infty} x_n = +\infty$.
* Een rij $(x_n)$ divergeert naar $-\infty$ als $\forall L > 0 \exists N \in \mathbb{N}^+ \forall n \in \mathbb{N}^+ : n > N \implies x_n < -L$. Genoteerd als $\lim_{n \to \infty} x_n = -\infty$.
* **Definitie 3.1.7: Convergente en divergente rijen** [18](#page=18).
* Een rij is **convergent** als er een $\ell \in \mathbb{R}$ bestaat waarnaar de rij convergeert.
* Een rij die niet convergent is, heet **divergent**.
* Er zijn drie soorten divergente rijen: naar $+\infty$, naar $-\infty$, of een limiet die niet bestaat.
* **Voorbeeld 3.1.8:** [18](#page=18).
1. $\lim_{n \to \infty} \frac{(-1)^n}{2n} = 0$.
2. $\lim_{n \to \infty} n^2 = +\infty$.
3. $\lim_{n \to \infty} -\sqrt{n} = -\infty$.
4. $\lim_{n \to \infty} (-1)^n$ bestaat niet.
* **Opmerking 3.1.9:** Het weglaten van een eindig aantal begintermen beïnvloedt de convergentie of de waarde van de limiet niet [18](#page=18).
* **Stelling 3.1.10: Uniciteit van de limiet** [18](#page=18).
* De limiet van een convergente rij is uniek.
#### 2.3.2 Begrensdheid van rijen
* **Definitie 3.1.11: Begrensde rijen** [19](#page=19).
* Een rij $(x_n)$ is naar boven begrensd als $\{x_n \mid n \in \mathbb{N}^+\}$ naar boven begrensd is. $\sup(x_n) = \sup\{x_n \mid n \in \mathbb{N}^+\}$.
* Een rij $(x_n)$ is naar onder begrensd als $\{x_n \mid n \in \mathbb{N}^+\}$ naar onder begrensd is. $\inf(x_n) = \inf\{x_n \mid n \in \mathbb{N}^+\}$.
* Een rij is begrensd als ze zowel naar boven als onder begrensd is. Dit is equivalent aan $\exists M > 0: |x_n| \leq M$ voor alle $n \in \mathbb{N}^+$ [19](#page=19).
* **Stelling 3.1.12: Convergente rijen zijn begrensd** [19](#page=19).
* Elke convergente rij is begrensd.
* **Opmerking 3.1.13:** Omgekeerd is een begrensde rij niet noodzakelijk convergent (bv. $((-1)^n)$) [19](#page=19).
#### 2.3.3 Rekenregels voor limieten
* **Stelling 3.1.14: Rekenkundige operaties op limieten** [19](#page=19).
* Zij $(x_n)$ en $(y_n)$ twee convergente rijen met $\lim_{n \to \infty} x_n = \ell_1$ en $\lim_{n \to \infty} y_n = \ell_2$. Dan geldt:
1. $\lim_{n \to \infty} |x_n| = |\ell_1|$ [20](#page=20).
2. $\lim_{n \to \infty} (x_n + y_n) = \ell_1 + \ell_2$ [20](#page=20).
3. $\lim_{n \to \infty} (x_n - y_n) = \ell_1 - \ell_2$ [20](#page=20).
4. $\lim_{n \to \infty} (x_n y_n) = \ell_1 \ell_2$ [20](#page=20).
5. Voor elke $\alpha \in \mathbb{R}$: $\lim_{n \to \infty} (\alpha x_n) = \alpha \ell_1$ [21](#page=21).
6. Als $\ell_1 \neq 0$: $\lim_{n \to \infty} \frac{y_n}{x_n} = \frac{\ell_2}{\ell_1}$ [21](#page=21).
* **Stelling 3.1.15: Sandwichregel (indruks- of insluitstelling)** [21](#page=21).
* Zij $(x_n)$ en $(y_n)$ twee convergente rijen met $\lim_{n \to \infty} x_n = \lim_{n \to \infty} y_n = \ell$.
* Zij $(z_n)$ een rij zodanig dat $x_n \leq z_n \leq y_n$ voor alle $n \in \mathbb{N}^+$.
* Dan geldt ook $\lim_{n \to \infty} z_n = \ell$.
* **Stelling 3.1.16: Monotoniciteit van limieten** [22](#page=22).
* Zij $(x_n)$ en $(y_n)$ twee convergente rijen met $\lim_{n \to \infty} x_n = \ell_1$ en $\lim_{n \to \infty} y_n = \ell_2$.
* Als $x_n \leq y_n$ voor alle $n \in \mathbb{N}^+$, dan $\ell_1 \leq \ell_2$.
* **Gevolg 3.1.17:** Als $(x_n)$ een convergente rij is met limiet $\ell$, en $x_n \in [a,b]$ voor alle $n \in \mathbb{N}^+$, dan geldt ook $\ell \in [a,b]$ [22](#page=22).
* **Opmerking 3.1.18:** De stellingen 3.1.14 (punt 6), 3.1.15, 3.1.16 en 3.1.17 blijven geldig als de voorwaarden pas vanaf een zekere index voldaan zijn [22](#page=22).
#### 2.3.4 Monotone en begrensde rijen, deelrijen
* **Definitie 3.2.1: Monotone rijen** [23](#page=23).
* Een rij $(x_n)$ is **stijgend** als $x_n \leq x_m$ voor alle $n < m$.
* Een rij $(x_n)$ is **dalend** als $x_n \geq x_m$ voor alle $n < m$.
* Een rij is **monotoon** als ze stijgend of dalend is.
* **Stelling 3.2.2: Convergentie van stijgende rijen** [23](#page=23).
* Zij $(x_n)$ een stijgende rij:
* Als $(x_n)$ naar boven begrensd is, dan is $(x_n)$ convergent en $\lim_{n \to \infty} x_n = \sup(x_n)$.
* Als $(x_n)$ niet naar boven begrensd is, dan divergeert $(x_n)$ naar $+\infty$.
* **Stelling 3.2.3: Convergentie van dalende rijen** [23](#page=23).
* Zij $(x_n)$ een dalende rij:
* Als $(x_n)$ naar onder begrensd is, dan is $(x_n)$ convergent en $\lim_{n \to \infty} x_n = \inf(x_n)$.
* Als $(x_n)$ niet naar onder begrensd is, dan divergeert $(x_n)$ naar $-\infty$.
* **Definitie 3.2.4: Deelrij** [23](#page=23).
* Een deelrij van $(x_n)_n$ is een rij van de vorm $(x_{n_k})_k$ waarbij $1 \leq n_1 < n_2 < n_3 < \dots$.
* **Opmerking 3.2.5:** Voor een deelrij $(x_{n_k})_k$ geldt $n_k \geq k$ voor alle $k \in \mathbb{N}^+$ [23](#page=23).
* **Stelling 3.2.6: Deelrij van een convergente rij** [24](#page=24).
* Elke deelrij van een convergente rij is zelf convergent en heeft dezelfde limiet.
* **Stelling 3.2.7: Elke rij heeft een monotone deelrij** [24](#page=24).
* Elke rij $(x_n)$ heeft een monotone deelrij. Dit wordt bewezen door onderscheid te maken tussen gevallen met oneindig veel of eindig veel "topnummers" [24](#page=24).
* **Stelling 3.2.8: Stelling van Bolzano-Weierstrass** [24](#page=24).
* Elke begrensde rij heeft een convergente deelrij.
* Dit volgt uit Stelling 3.2.7 (elke rij heeft een monotone deelrij) en Stelling 3.2.2/3.2.3 (monotone en begrensde rijen convergeren).
* **Stelling 3.2.9: Kenmerk van Cauchy** [25](#page=25).
* Een rij $(x_n)$ is convergent als en slechts als:
$\forall \varepsilon > 0 \exists N \in \mathbb{N}^+ \forall n,m \in \mathbb{N}^+ : n,m > N \implies |x_n - x_m| < \varepsilon$.
* Dit kenmerk karakteriseert convergentie zonder de limiet te specificeren. Het bewijs gebruikt de stelling van Bolzano-Weierstrass om aan te tonen dat de rij begrensd is, en dus een convergente deelrij heeft [25](#page=25).
* **Opmerking 3.2.10:** Het kenmerk van Cauchy illustreert hoe de reële getallen de "gaten" in de rationale getallen opvullen [25](#page=25).
---
# Limieten en continuïteit van functies
Dit gedeelte introduceert het concept van limieten voor functies van één en meerdere veranderlijken, inclusief de rigoureuze definitie, rekenregels en de stelling van Bolzano-Weierstrass. Vervolgens wordt continuïteit in een punt en over een verzameling gedefinieerd en onderzocht.
## 3. Limieten en continuïteit van functies
### 3.1 Inleidende begrippen en definities: functies
Een functie $f: X \to Y$ verbindt met elk element van een zekere deelverzameling van $X$ (het domein) een element uit $Y$ (het codomein). Het beeld van $x \in X$ onder $f$ is $f(x) \in Y$. Het domein van $f$, genoteerd als $D_f$, is de verzameling van alle $x \in X$ waarvoor $f(x)$ gedefinieerd is. Het beeld van $f$ is de verzameling $\{f(x) | x \in D_f\}$ [27](#page=27).
De samenstelling van twee functies $f: X \to Y$ en $g: Y \to Z$ is $g \circ f: X \to Z$, gedefinieerd als $(g \circ f)(x) = g(f(x))$. Het domein van $g \circ f$ is $\{x \in D_f | f(x) \in D_g\}$ [27](#page=27).
Een functie $f: X \to Y$ met domein $D$ is:
* **Injectief** als voor elke $y \in Y$ ten hoogste één $x \in D$ bestaat zodanig dat $f(x) = y$ [28](#page=28).
* **Surjectief** als voor elke $y \in Y$ een $x \in D$ bestaat waarvoor $f(x) = y$ [28](#page=28).
* **Bijectief** als $f$ zowel injectief als surjectief is [28](#page=28).
Een bijectieve functie $f: X \to Y$ heeft een inverse functie $f^{-1}: Y \to X$ zodanig dat $f \circ f^{-1}(y) = y$ voor alle $y \in Y$ en $f^{-1} \circ f(x) = x$ voor alle $x \in X$ [28](#page=28).
Een functie $f: \mathbb{R}^n \to \mathbb{R}$ is positief over een verzameling $V \subseteq D_f$ als $f(\vec{x}) \ge 0$ voor alle $\vec{x} \in V$. Voor functies $f, g: \mathbb{R}^n \to \mathbb{R}$ met hetzelfde domein $D$ worden optelling, aftrekking, product, scalaire vermenigvuldiging en deling gedefinieerd punt per punt. Voor een functie $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$ kunnen we deze schrijven in termen van componentfuncties $\vec{F} = (f_1, \dots, f_m)$ [28](#page=28).
### 3.2 Limieten van functies
#### 3.2.1 Limieten voor functies $f: \mathbb{R} \to \mathbb{R}$
De limiet van $f(x)$ als $x$ nadert tot $a$ is $b$, genoteerd als $\lim_{x \to a} f(x) = b$, betekent intuïtief dat $f(x)$ willekeurig dicht bij $b$ ligt zodra $x$ maar willekeurig dicht bij $a$ gekozen wordt [29](#page=29).
**Definitie 3.2.1 (Limiet van een functie van één variabele)**
Zij $f: \mathbb{R} \to \mathbb{R}$ een functie met domein $D$ en $a \in \mathbb{R}$. Veronderstel dat er een $r > 0$ bestaat waarvoor $(a-r, a+r) \setminus \{a\} \subseteq D$. Dan is $b \in \mathbb{R}$ de limiet van $f$ als $x$ nadert tot $a$ indien:
$$ \forall \varepsilon > 0, \exists \delta > 0, \forall x \in D \setminus \{a\}: |x - a| < \delta \implies |f(x) - b| < \varepsilon $$
Dit wordt genoteerd als $\lim_{x \to a} f(x) = b$ of $f(x) \to b$ als $x \to a$ [29](#page=29).
#### 3.2.2 Limieten voor functies $f: \mathbb{R}^n \to \mathbb{R}$
Om de limiet voor functies van meerdere variabelen te definiëren, introduceren we begrippen als de open bal en de doorprikte open bal.
**Definitie 3.2.2 (Open bal en doorprikte open bal)**
1. De open bal met middelpunt $\vec{a} \in \mathbb{R}^n$ en straal $r > 0$ is $B(\vec{a}, r) = \{\vec{x} \in \mathbb{R}^n | \|\vec{x} - \vec{a}\| < r\}$ [29](#page=29).
2. De doorprikte open bal is $B(\vec{a}, r) \setminus \{\vec{a}\}$ [29](#page=29).
**Definitie 3.2.3 (Limiet van een functie van meerdere variabelen)**
Zij $f: \mathbb{R}^n \to \mathbb{R}$ een functie met domein $D$ en $\vec{a} \in \mathbb{R}^n$. Veronderstel dat $D$ een doorprikte open bal met middelpunt $\vec{a}$ bevat. Dan is $b \in \mathbb{R}$ de limiet van $f$ als $\vec{x}$ nadert tot $\vec{a}$ indien:
$$ \forall \varepsilon > 0, \exists \delta > 0, \forall \vec{x} \in D \setminus \{\vec{a}\}: \|\vec{x} - \vec{a}\| < \delta \implies |f(\vec{x}) - b| < \varepsilon $$
Dit wordt genoteerd als $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = b$ of $f(\vec{x}) \to b$ als $\vec{x} \to \vec{a}$ [29](#page=29).
**Opmerkingen over limieten:**
* Bij het bestuderen van limieten in $\vec{a}$, wordt verondersteld dat het domein van $f$ een doorprikte open bal rond $\vec{a}$ bevat [30](#page=30).
* Het bestaan en de waarde van een limiet worden niet beïnvloed door het feit of $f$ gedefinieerd is in $\vec{a}$ en wat de waarde van $f(\vec{a})$ is [30](#page=30).
* De definitie kan herschreven worden als $\forall \varepsilon > 0, \exists \delta > 0, \forall \vec{x} \in D: 0 < \|\vec{x} - \vec{a}\| < \delta \implies |f(\vec{x}) - b| < \varepsilon$. Dit is equivalent met $\forall \varepsilon > 0, \exists \delta > 0, \forall \vec{x} \in D \cap (B(\vec{a}, \delta) \setminus \{\vec{a}\}): |f(\vec{x}) - b| < \varepsilon$ [30](#page=30).
* De ongelijkheden $|f(\vec{x}) - b| < \varepsilon$ en $\|\vec{x} - \vec{a}\| < \delta$ mogen vervangen worden door $\le \varepsilon$ en $\le \delta$ respectievelijk, zonder de betekenis te veranderen [30](#page=30).
**Stelling 3.2.4 (Uniciteit van de limiet)**
De limiet van een functie $f: \mathbb{R}^n \to \mathbb{R}$ in een punt $\vec{a} \in \mathbb{R}^n$ is uniek, indien deze bestaat [30](#page=30).
**Definitie 3.2.5 (Begrensdheid van een functie)**
Een functie $f: \mathbb{R}^n \to \mathbb{R}$ is begrensd over een verzameling $V \subseteq D_f$ als de verzameling $\{f(\vec{x}) | \vec{x} \in V\}$ begrensd is. Dit is equivalent met het bestaan van een $M > 0$ zodanig dat $|f(\vec{x})| \le M$ voor alle $\vec{x} \in V$ [31](#page=31).
**Stelling 3.2.6 (Begrensdheid nabij een limietpunt)**
Als een functie $f: \mathbb{R}^n \to \mathbb{R}$ een limiet bezit in $\vec{a} \in \mathbb{R}^n$, dan bestaat er een doorprikte open bal rond $\vec{a}$ waarover $f$ begrensd is [31](#page=31).
**Stelling 3.2.7 (Behoud van teken)**
Zij $f: \mathbb{R}^n \to \mathbb{R}$ met $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = b$.
1. Als $b > 0$, dan bestaat er een doorprikte open bal rond $\vec{a}$ waarover $f$ strikt positief is [31](#page=31).
2. Als $b < 0$, dan bestaat er een doorprikte open bal rond $\vec{a}$ waarover $f$ strikt negatief is [31](#page=31).
**Stelling 3.2.8 (Rekenregels voor limieten)**
Zij $f, g: \mathbb{R}^n \to \mathbb{R}$ twee functies met $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = b_1$ en $\lim_{\vec{x} \to \vec{a}} g(\vec{x}) = b_2$. Dan geldt:
1. $\lim_{\vec{x} \to \vec{a}} |f(\vec{x})| = |b_1|$ [32](#page=32).
2. $\lim_{\vec{x} \to \vec{a}} (f(\vec{x}) + g(\vec{x})) = b_1 + b_2$ [32](#page=32).
3. $\lim_{\vec{x} \to \vec{a}} (f(\vec{x}) - g(\vec{x})) = b_1 - b_2$ [32](#page=32).
4. $\lim_{\vec{x} \to \vec{a}} (f(\vec{x}) g(\vec{x})) = b_1 b_2$ [32](#page=32).
5. Voor elke $\alpha \in \mathbb{R}$, $\lim_{\vec{x} \to \vec{a}} (\alpha f(\vec{x})) = \alpha b_1$ [32](#page=32).
6. Als $b_1 \ne 0$, dan $\lim_{\vec{x} \to \vec{a}} \frac{g(\vec{x})}{f(\vec{x})} = \frac{b_2}{b_1}$ [32](#page=32).
**Opmerking 3.2.9:** $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = 0$ is equivalent met $\lim_{\vec{x} \to \vec{a}} |f(\vec{x})| = 0$ [32](#page=32).
**Stelling 3.2.10 (Sandwichregel)**
Zij $f, g: \mathbb{R}^n \to \mathbb{R}$ functies met $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = \lim_{\vec{x} \to \vec{a}} g(\vec{x}) = b$. Zij $h: \mathbb{R}^n \to \mathbb{R}$ zodanig dat $f(\vec{x}) \le h(\vec{x}) \le g(\vec{x})$ voor alle $\vec{x}$ in een doorprikte open bal rond $\vec{a}$. Dan geldt $\lim_{\vec{x} \to \vec{a}} h(\vec{x}) = b$ [33](#page=33).
**Stelling 3.2.11 (Vergelijking van limieten)**
Zij $f, g: \mathbb{R}^n \to \mathbb{R}$ met $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = b_1$ en $\lim_{\vec{x} \to \vec{a}} g(\vec{x}) = b_2$. Als $f(\vec{x}) \le g(\vec{x})$ voor alle $\vec{x}$ in een doorprikte open bal rond $\vec{a}$, dan is $b_1 \le b_2$ [33](#page=33).
#### 3.2.3 Limieten voor functies $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$
**Definitie 3.2.12 (Limiet van een vectorwaardige functie)**
Zij $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$ een functie met domein $D$ en $\vec{a} \in \mathbb{R}^n$. Veronderstel dat $D$ een doorprikte open bal met middelpunt $\vec{a}$ bevat. Dan is $\vec{b} \in \mathbb{R}^m$ de limiet van $\vec{F}$ als $\vec{x}$ nadert tot $\vec{a}$ indien:
$$ \forall \varepsilon > 0, \exists \delta > 0, \forall \vec{x} \in D \setminus \{\vec{a}\}: \|\vec{x} - \vec{a}\| < \delta \implies \|\vec{F}(\vec{x}) - \vec{b}\| < \varepsilon $$
Dit wordt genoteerd als $\lim_{\vec{x} \to \vec{a}} \vec{F}(\vec{x}) = \vec{b}$ of $\vec{F}(\vec{x}) \to \vec{b}$ als $\vec{x} \to \vec{a}$ [33](#page=33).
**Lemma 3.2.13 (Norm en componenten)**
Zij $\vec{y} = (y_1, \dots, y_m) \in \mathbb{R}^m$.
1. Voor alle $i \in \{1, \dots, m\}$, $|y_i| \le \|\vec{y}\|$ [34](#page=34).
2. $\|\vec{y}\| \le \sqrt{m} \max_{i \in \{1, \dots, m\}} |y_i|$ [34](#page=34).
**Stelling 3.2.14 (Relatie tussen limiet van vectorfunctie en componentfuncties)**
Zij $\vec{F} = (f_1, \dots, f_m): \mathbb{R}^n \to \mathbb{R}^m$ een functie en $\vec{b} = (b_1, \dots, b_m) \in \mathbb{R}^m$. Dan geldt $\lim_{\vec{x} \to \vec{a}} \vec{F}(\vec{x}) = \vec{b}$ als en slechts als $\lim_{\vec{x} \to \vec{a}} f_i(\vec{x}) = b_i$ voor alle $i \in \{1, \dots, m\}$ [34](#page=34).
#### 3.2.4 Varianten van limieten voor functies $f: \mathbb{R} \to \mathbb{R}$
**Definitie 3.2.15 (Linker- en rechterlimiet)**
* De **rechterlimiet** van $f$ in $a$, genoteerd als $\lim_{x \to a^+} f(x) = b$, betekent:
$\forall \varepsilon > 0, \exists \delta > 0, \forall x \in D: a < x < a + \delta \implies |f(x) - b| < \varepsilon$ [34](#page=34).
* De **linkerlimiet** van $f$ in $a$, genoteerd als $\lim_{x \to a^-} f(x) = b$, betekent:
$\forall \varepsilon > 0, \exists \delta > 0, \forall x \in D: a - \delta < x < a \implies |f(x) - b| < \varepsilon$ [35](#page=35).
**Stelling 3.2.16 (Relatie limiet, linker- en rechterlimiet)**
$\lim_{x \to a} f(x) = b$ als en slechts als $\lim_{x \to a^-} f(x) = \lim_{x \to a^+} f(x) = b$ [35](#page=35).
**Stelling 3.2.17 (Behoud van teken voor linker- en rechterlimieten)**
* Als $\lim_{x \to a^+} f(x) = b > 0$ (resp. $b < 0$), dan is $f$ strikt positief (resp. negatief) over een interval $(a, a+r)$ voor zekere $r > 0$ [35](#page=35).
* Als $\lim_{x \to a^-} f(x) = b > 0$ (resp. $b < 0$), dan is $f$ strikt positief (resp. negatief) over een interval $(a-r, a)$ voor zekere $r > 0$ [35](#page=35).
**Definitie 3.2.18 (Divergentie naar oneindig)**
* $\lim_{x \to a} f(x) = +\infty$ als $\forall L > 0, \exists \delta > 0, \forall x \in D \setminus \{a\}: |x - a| < \delta \implies f(x) > L$ [36](#page=36).
* $\lim_{x \to a} f(x) = -\infty$ als $\forall L > 0, \exists \delta > 0, \forall x \in D \setminus \{a\}: |x - a| < \delta \implies f(x) < -L$ [36](#page=36).
**Definitie 3.2.19 (Limiet op oneindig)**
* $\lim_{x \to +\infty} f(x) = b$ als $\forall \varepsilon > 0, \exists L > 0, \forall x \in D: x > L \implies |f(x) - b| < \varepsilon$ [36](#page=36).
* $\lim_{x \to -\infty} f(x) = b$ als $\forall \varepsilon > 0, \exists L > 0, \forall x \in D: x < -L \implies |f(x) - b| < \varepsilon$ [36](#page=36).
### 3.3 Continuïteit in een vast punt
**Definitie 3.3.1 (Inwendig punt)**
Een punt $\vec{a} \in \mathbb{R}^n$ is een inwendig punt van een verzameling $V \subseteq \mathbb{R}^n$ als er een open bal met middelpunt $\vec{a}$ bestaat die geheel in $V$ ligt [37](#page=37).
**Definitie 3.3.2 (Continuïteit in een punt)**
Een functie $f: \mathbb{R}^n \to \mathbb{R}$ is continu in $\vec{a} \in \mathbb{R}^n$ (een inwendig punt van $D_f$) indien $\lim_{\vec{x} \to \vec{a}} f(\vec{x}) = f(\vec{a})$ [37](#page=37).
Dit is equivalent met: $\forall \varepsilon > 0, \exists \delta > 0, \forall \vec{x} \in D_f: \|\vec{x} - \vec{a}\| < \delta \implies |f(\vec{x}) - f(\vec{a})| < \varepsilon$ [37](#page=37).
**Stelling 3.3.3 (Behoud van teken bij continuïteit)**
Als $f: \mathbb{R}^n \to \mathbb{R}$ continu is in $\vec{a} \in \mathbb{R}^n$:
1. Als $f(\vec{a}) > 0$, dan is $f$ strikt positief in een open bal rond $\vec{a}$ [37](#page=37).
2. Als $f(\vec{a}) < 0$, dan is $f$ strikt negatief in een open bal rond $\vec{a}$ [37](#page=37).
**Stelling 3.3.4 (Continuïteit van operaties)**
Als $f, g: \mathbb{R}^n \to \mathbb{R}$ continu zijn in $\vec{a} \in \mathbb{R}^n$, dan zijn $|f|$, $f+g$, $f-g$, $fg$, en $\alpha f$ (voor $\alpha \in \mathbb{R}$) continu in $\vec{a}$. Indien $g(\vec{a}) \ne 0$, is $f/g$ ook continu in $\vec{a}$ [37](#page=37).
**Gevolg 3.3.5 (Continuïteit van polynomen)**
Een polynoom $P(x) = a_0 + a_1x + \dots + a_nx^n$ is continu in elk punt van $\mathbb{R}$ [38](#page=38).
**Definitie 3.3.6 (Continuïteit van vectorwaardige functies in een punt)**
Een functie $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$ is continu in $\vec{a} \in \mathbb{R}^n$ (een inwendig punt van $D_{\vec{F}}$) indien $\lim_{\vec{x} \to \vec{a}} \vec{F}(\vec{x}) = \vec{F}(\vec{a})$ [38](#page=38).
**Stelling 3.3.7 (Continuïteit en componentfuncties)**
Een functie $\vec{F} = (f_1, \dots, f_m): \mathbb{R}^n \to \mathbb{R}^m$ is continu in $\vec{a}$ als en slechts als $f_i$ continu is in $\vec{a}$ voor alle $i \in \{1, \dots, m\}$ [38](#page=38).
**Stelling 3.3.8 (Continuïteit van samengestelde functies)**
Als $\vec{G}: \mathbb{R}^m \to \mathbb{R}^p$ continu is in $\vec{b} \in \mathbb{R}^m$ en $\lim_{\vec{x} \to \vec{a}} \vec{F}(\vec{x}) = \vec{b}$, dan is $\lim_{\vec{x} \to \vec{a}} \vec{G} \circ \vec{F}(\vec{x}) = \vec{G}(\vec{b})$ [38](#page=38).
**Stelling 3.3.9 (Continuïteit van samengestelde functies)**
Als $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$ continu is in $\vec{a} \in \mathbb{R}^n$ en $\vec{G}: \mathbb{R}^m \to \mathbb{R}^p$ continu is in $\vec{F}(\vec{a})$, dan is de samenstelling $\vec{G} \circ \vec{F}: \mathbb{R}^n \to \mathbb{R}^p$ continu in $\vec{a}$ [39](#page=39).
**Definitie 3.3.10 (Rechts- en linkscontinuïteit voor $f: \mathbb{R} \to \mathbb{R}$)**
* $f$ is **rechtscontinu** in $a$ als $\lim_{x \to a^+} f(x) = f(a)$ [39](#page=39).
* $f$ is **linkscontinu** in $a$ als $\lim_{x \to a^-} f(x) = f(a)$ [39](#page=39).
**Stelling 3.3.11 (Continuïteit en links-/rechtscontinuïteit)**
Een functie $f: \mathbb{R} \to \mathbb{R}$ is continu in $a$ als en slechts als $f$ links- en rechtscontinu is in $a$ [40](#page=40).
### 3.4 Continuïteit over een verzameling
**Definitie 3.4.1 (Continuïteit over een verzameling)**
Een functie $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$ is continu over een verzameling $V \subseteq D_{\vec{F}}$ als:
$$ \forall \vec{x} \in V, \forall \varepsilon > 0, \exists \delta > 0, \forall \vec{t} \in V: \|\vec{t} - \vec{x}\| < \delta \implies \|\vec{F}(\vec{t}) - \vec{F}(\vec{x})\| < \varepsilon $$
Hierbij kan $\delta$ afhangen van $\varepsilon$ en $\vec{x}$ [40](#page=40).
**Definitie 3.4.2 (Open verzameling)**
Een verzameling $V \subseteq \mathbb{R}^n$ is open als elk punt in $V$ een inwendig punt van $V$ is [40](#page=40).
**Stelling 3.4.3 (Continuïteit over een open verzameling)**
Zij $V \subseteq \mathbb{R}^n$ een open verzameling en $\vec{F}: \mathbb{R}^n \to \mathbb{R}^m$. $\vec{F}$ is continu over $V$ als en slechts als $\vec{F}$ continu is in elk punt van $V$ [40](#page=40).
**Stelling 3.4.4 (Continuïteit over een gesloten interval)**
Een functie $f: \mathbb{R} \to \mathbb{R}$ is continu over $[a,b]$ als en slechts als:
1. $f$ is continu in elk punt van $(a,b)$ [41](#page=41).
2. $f$ is rechtscontinu in $a$ [41](#page=41).
3. $f$ is linkscontinu in $b$ [41](#page=41).
#### 3.4.1 Rijenkenmerk voor continuïteit
**Stelling 3.4.5 (Rijenkenmerk voor continuïteit)**
Een functie $f: \mathbb{R} \to \mathbb{R}$ is continu in $a$ als en slechts als voor elke rij $(x_n)$ in $D_f$ met $\lim_{n \to \infty} x_n = a$, geldt dat $\lim_{n \to \infty} f(x_n) = f(a)$ [42](#page=42).
**Stelling 3.4.6 (Rijenkenmerk voor links- en rechtscontinuïteit)**
* $f: \mathbb{R} \to \mathbb{R}$ is rechtscontinu in $a$ als en slechts als voor elke rij $(x_n)$ in $\{x \in D_f | x \ge a\}$ met $\lim_{n \to \infty} x_n = a$, geldt $\lim_{n \to \infty} f(x_n) = f(a)$ [42](#page=42).
* $f: \mathbb{R} \to \mathbb{R}$ is linkscontinu in $a$ als en slechts als voor elke rij $(x_n)$ in $\{x \in D_f | x \le a\}$ met $\lim_{n \to \infty} x_n = a$, geldt $\lim_{n \to \infty} f(x_n) = f(a)$ [42](#page=42).
**Gevolg 3.4.7:** Als $f: \mathbb{R} \to \mathbb{R}$ continu is over $[a,b]$ en $(x_n)$ is een rij in $[a,b]$ met $\lim_{n \to \infty} x_n = \ell \in [a,b]$, dan geldt $\lim_{n \to \infty} f(x_n) = f(\ell)$ [43](#page=43).
#### 3.4.2 De extremumstelling van Weierstrass
**Stelling 3.4.8 (Extremumstelling van Weierstrass voor $f: \mathbb{R} \to \mathbb{R}$)**
Als $f: \mathbb{R} \to \mathbb{R}$ continu is over een gesloten interval $[a,b]$, dan:
1. $f$ is begrensd over $[a,b]$ [43](#page=43).
2. $f$ bereikt een minimum en een maximum over $[a,b]$ [43](#page=43).
**Opmerking 3.4.9:** Deze stelling geldt niet voor open intervallen, bijvoorbeeld $f(x) = 1/x$ is continu op $(0,1)$ maar niet begrensd [43](#page=43).
#### 3.4.3 De tussenwaardestelling
**Stelling 3.4.10 (Nulpunten van continue functies)**
Als $f: \mathbb{R} \to \mathbb{R}$ continu is over $[a,b]$ en $f(a)$ en $f(b)$ een verschillend teken hebben, dan bestaat er een $c \in (a,b)$ zodanig dat $f(c) = 0$ [44](#page=44).
**Stelling 3.4.11 (Tussenwaardestelling voor $f: \mathbb{R} \to \mathbb{R}$)**
Als $f: \mathbb{R} \to \mathbb{R}$ continu is over $[a,b]$, dan ligt elk getal tussen twee functiewaarden van $f$ over $[a,b]$ zelf ook als functiewaarde van $f$ over $[a,b]$. Dit betekent dat voor elke $y \in \mathbb{R}$ waarvoor er $x_1, x_2 \in [a,b]$ bestaan met $f(x_1) < y < f(x_2)$, er een $x \in [a,b]$ bestaat zodanig dat $f(x) = y$ [44](#page=44).
**Opmerking 3.4.12:**
* De tussenwaardestelling illustreert het intuïtieve idee dat de grafiek van een continue functie 'zonder de pen van het papier te heffen' getekend kan worden [45](#page=45).
* De stelling kan gebruikt worden om het bestaan van wortels te bewijzen, bv. $\sqrt{2}$ [45](#page=45).
* Er bestaat ook een versie voor open intervallen [45](#page=45).
#### 3.4.4 Strikt stijgende en strikt dalende continue functies
**Definitie 3.4.13 (Stijgende/dalende functies)**
Een functie $f: \mathbb{R} \to \mathbb{R}$ met domein $D$ en $[a,b \subseteq D$ is:
* **Stijgend** over $[a,b]$ als $\forall x_1, x_2 \in [a,b]$ met $x_1 < x_2$, geldt $f(x_1) \le f(x_2)$ [45](#page=45).
* **Strikt stijgend** over $[a,b]$ als $\forall x_1, x_2 \in [a,b]$ met $x_1 < x_2$, geldt $f(x_1) < f(x_2)$ [45](#page=45).
Analoge definities gelden voor dalend en strikt dalend [45](#page=45).
**Stelling 3.4.14 (Injectiviteit en monotone functies)**
Als $f: \mathbb{R} \to \mathbb{R}$ continu is over $[a,b]$ en injectief is over $[a,b]$, dan is $f$ strikt stijgend of strikt dalend over $[a,b]$ [46](#page=46).
**Stelling 3.4.15 (Inverse van monotone continue functies)**
Als $f: \mathbb{R} \to \mathbb{R}$ continu en strikt stijgend (resp. strikt dalend) is over $[a,b]$, met minimum $m$ en maximum $M$ op $[a,b]$, dan is de inverse functie $f^{-1}: [m,M \to [a,b]$ bijectief, continu en strikt stijgend (resp. strikt dalend) over $[m,M]$ [46](#page=46).
#### 3.4.5 Uniforme continuïteit en de stelling van Heine
**Definitie 3.4.16 (Uniforme continuïteit)**
Een functie $f: \mathbb{R}^n \to \mathbb{R}$ met domein $D$ is uniform continu over $V \subseteq D$ als:
$$ \forall \varepsilon > 0, \exists \delta > 0, \forall \vec{x}, \vec{t} \in V: \|\vec{t} - \vec{x}\| < \delta \implies |f(\vec{t}) - f(\vec{x})| < \varepsilon $$
Hierbij hangt $\delta$ alleen af van $\varepsilon$, niet van $\vec{x}$ en $\vec{t}$ [47](#page=47).
Elke uniform continue functie is continu, maar het omgekeerde is niet altijd waar [47](#page=47).
**Stelling 3.4.17 (Stelling van Heine voor $f: \mathbb{R} \to \mathbb{R}$)**
Als $f: \mathbb{R} \to \mathbb{R}$ continu is over een gesloten interval $[a,b]$, dan is $f$ automatisch uniform continu over $[a,b]$ [47](#page=47).
**Opmerking 3.4.18:** De stelling van Heine geldt niet voor open intervallen (bv. $f(x) = 1/x$ op $(0,1)$ is niet uniform continu) [48](#page=48).
### 3.5 Continue functies van meerdere variabelen
In deze sectie worden de extremumstelling van Weierstrass, de tussenwaardestelling en de stelling van Heine veralgemeend naar functies $f: \mathbb{R}^n \to \mathbb{R}$ over gesloten en begrensde verzamelingen.
**Definitie 3.5.1 (Randpunt en rand)**
* Een punt $\vec{a} \in \mathbb{R}^n$ is een **randpunt** van een verzameling $V \subseteq \mathbb{R}^n$ als elke open bal rond $\vec{a}$ zowel punten in $V$ als punten buiten $V$ bevat [49](#page=49).
* De **rand** van $V$, genoteerd als $\partial V$, is de verzameling van alle randpunten [49](#page=49).
**Definitie 3.5.2 (Gesloten verzameling)**
Een verzameling $V \subseteq \mathbb{R}^n$ is **gesloten** als elk randpunt van $V$ tot $V$ behoort ($\partial V \subseteq V$). Een gesloten bal $B(\vec{a}, R) = \{\vec{x} \in \mathbb{R}^n | \|\vec{x} - \vec{a}\| \le R\}$ is een voorbeeld van een gesloten verzameling [49](#page=49).
**Definitie 3.5.3 (Begrensde verzameling)**
Een verzameling $V \subseteq \mathbb{R}^n$ is **begrensd** als er een $M > 0$ bestaat zodanig dat $\|\vec{x}\| \le M$ voor alle $\vec{x} \in V$ [50](#page=50).
**Stelling 3.5.4 (Extremumstelling van Weierstrass voor functies van meerdere variabelen)**
Als $V \subseteq \mathbb{R}^n$ een gesloten en begrensde verzameling is en $f: \mathbb{R}^n \to \mathbb{R}$ is continu over $V$, dan is $f$ begrensd over $V$ en bereikt $f$ een minimum en een maximum over $V$ [50](#page=50).
**Stelling 3.5.5 (Stelling van Heine voor functies van meerdere variabelen)**
Als $V \subseteq \mathbb{R}^n$ een gesloten en begrensde verzameling is en $f: \mathbb{R}^n \to \mathbb{R}$ is continu over $V$, dan is $f$ uniform continu over $V$ [50](#page=50).
**Definitie 3.5.6 (Lijnstuk en gebroken lijn)**
* Het **gesloten lijnstuk** met beginpunt $\vec{a}$ en eindpunt $\vec{b}$ is $[\vec{a}, \vec{b}] = \{(1-t)\vec{a} + t\vec{b} | t \in \}$ [1](#page=1) [50](#page=50).
* Een **gebroken lijn** is een unie van eindig veel gesloten lijnstukken, waarbij opeenvolgende lijnstukken aan elkaar grenzen [50](#page=50).
**Definitie 3.5.7 (Open gebied)**
Een verzameling $V \subseteq \mathbb{R}^n$ is een **open gebied** als $V$ open is en elk tweetal punten in $V$ verbonden kan worden door een gebroken lijn die volledig in $V$ ligt [50](#page=50).
**Stelling 3.5.8 (Nulpunten in open gebieden)**
Als $V \subseteq \mathbb{R}^n$ een open gebied is en $f: \mathbb{R}^n \to \mathbb{R}$ is continu over $V$. Indien er twee punten $\vec{a}, \vec{b} \in V$ bestaan met $f(\vec{a})$ en $f(\vec{b})$ van verschillend teken, dan bestaat er een $\vec{c} \in V$ zodanig dat $f(\vec{c}) = 0$ [50](#page=50).
**Stelling 3.5.9 (Tussenwaardestelling voor functies van meerdere variabelen)**
Als $V \subseteq \mathbb{R}^n$ een open gebied is en $f: \mathbb{R}^n \to \mathbb{R}$ is continu over $V$. Elk getal dat tussen twee functiewaarden van $f$ over $V$ ligt, is zelf een functiewaarde van $f$ over $V$. Dit betekent dat als er $\vec{x}_1, \vec{x}_2 \in V$ bestaan met $f(\vec{x}_1) < y < f(\vec{x}_2)$, dan bestaat er een $\vec{x} \in V$ zodanig dat $f(\vec{x}) = y$ [51](#page=51).
---
# Afgeleidbaarheid in één veranderlijke en de regel van de l'Hôpital
Dit hoofdstuk verkent de concepten van afgeleidbaarheid, de rekenregels voor afgeleiden, de middelwaardestelling, en de regel van l'Hôpital, evenals de formule van Taylor, en hoe het teken van de afgeleide het gedrag van functies beïnvloedt.
### 4.1 Afgeleiden van eerste orde
#### 4.1.1 Definitie en interpretatie
De afgeleide van een functie $f$ in een punt $a$ wordt gedefinieerd als de limiet van het differentiequotiënt:
$$f'(a) = \lim_{h \to 0} \frac{f(a+h) - f(a)}{h}$$
indien deze limiet bestaat. Dit punt $a$ moet een inwendig punt van het domein van $f$ zijn. Alternatieve notaties zijn $D f(a)$ en $\frac{d f}{d x}(a)$ [53](#page=53).
**Meetkundige interpretatie:** De afgeleide $f'(a)$ is de richtingscoëfficiënt van de raaklijn aan de grafiek van $f$ in het punt $(a, f(a))$. De vergelijking van deze raaklijn is $y = f(a) + f'(a)(x-a)$ [53](#page=53).
**Fysische interpretatie:** Indien $f(t)$ de positie van een deeltje op tijdstip $t$ voorstelt, dan is $f'(a)$ de ogenblikkelijke snelheid van het deeltje op tijdstip $a$ [54](#page=54).
Een functie $f$ is affleidbaar in $a$ als en slechts als er een $m \in \mathbb{R}$ en een functie $e: \mathbb{R} \to \mathbb{R}$ bestaan zodanig dat voor alle $h \in \mathbb{R}$ met $a+h$ in het domein van $f$ geldt dat $f(a+h) = f(a) + mh + h e(h)$ en $\lim_{h \to 0} e(h) = 0$. In dat geval is $m = f'(a)$ [54](#page=54).
Een functie $f$ is affleidbaar over een open verzameling $V$ als $f$ affleidbaar is in elk punt van $V$. De afgeleide functie $f'$ definieert een nieuwe functie $f': \mathbb{R} \to \mathbb{R}$ [54](#page=54).
#### 4.1.2 Eigenschappen van affleidbare functies
* **Continuïteit:** Als een functie $f$ affleidbaar is in $a$, dan is $f$ ook continu in $a$ [55](#page=55).
* **Gedrag rond een punt:**
* Als $f'(a) > 0$, dan is $f(x) > f(a)$ voor $x$ net groter dan $a$, en $f(x) < f(a)$ voor $x$ net kleiner dan $a$ [55](#page=55).
* Als $f'(a) < 0$, dan is $f(x) < f(a)$ voor $x$ net groter dan $a$, en $f(x) > f(a)$ voor $x$ net kleiner dan $a$ [55](#page=55).
#### 4.1.3 Rekenregels voor affgeleiden
Als $f$ en $g$ affleidbaar zijn in $a$:
1. **Somregel:** $(f+g)'(a) = f'(a) + g'(a)$ [55](#page=55).
2. **Productregel:** $(fg)'(a) = f'(a)g(a) + f(a)g'(a)$ [56](#page=56).
3. **Constante maal functie:** $(\alpha f)'(a) = \alpha f'(a)$ voor elke $\alpha \in \mathbb{R}$ [56](#page=56).
4. **Quotiëntregel:** Als $g(a) \neq 0$, dan $(\frac{f}{g})'(a) = \frac{f'(a)g(a) - f(a)g'(a)}{g(a)^2}$ [56](#page=56).
Een belangrijk voorbeeld is de afgeleide van een machtsfunctie: $(x^n)' = nx^{n-1}$ voor $n \in \mathbb{N}^+$ [56](#page=56).
#### 4.1.4 Kettingregel
Als $f$ affleidbaar is in $a$ en $g$ affleidbaar is in $f(a)$, dan is de samengestelde functie $g \circ f$ affleidbaar in $a$ en geldt:
$$(g \circ f)'(a) = g'(f(a)) f'(a)$$ [57](#page=57).
#### 4.1.5 Afgeleide van de inverse functie
Als $f: [x_0, x_1 \to [y_0, y_1]$ continu en bijectief is, affleidbaar in $a \in (x_0, x_1)$ is en $f'(a) \neq 0$, dan is $f^{-1}$ affleidbaar in $f(a)$ en geldt:
$$(f^{-1})'(f(a)) = \frac{1}{f'(a)}$$ [57](#page=57).
#### 4.1.6 Afgeleiden van elementaire functies
Een lijst van veelgebruikte afgeleiden omvat:
* $(\sin x)' = \cos x$ [58](#page=58).
* $(\cos x)' = -\sin x$ [58](#page=58).
* $(\arcsin y)' = \frac{1}{\sqrt{1-y^2}}$ voor $y \in (-1,1)$ [58](#page=58).
* $(\arccos y)' = -\frac{1}{\sqrt{1-y^2}}$ voor $y \in (-1,1)$ [58](#page=58).
* $(\arctan y)' = \frac{1}{1+y^2}$ [58](#page=58).
* $(\ln x)' = \frac{1}{x}$ voor $x > 0$ [58](#page=58).
* $(\exp x)' = \exp x$ [58](#page=58).
* $(a^x)' = a^x \ln a$ voor $a \in \mathbb{R}, a>0$ [58](#page=58).
* $(x^a)' = ax^{a-1}$ voor $a \in \mathbb{R}$ [58](#page=58).
### 4.2 Hogere-orde afgeleiden
Indien de afgeleide functie $f'$ zelf affleidbaar is over een open verzameling $V$, dan noemen we de afgeleide van $f'$ de tweede afgeleide van $f$, genoteerd als $f''$ of $\frac{d^2 f}{dx^2}$. Dit proces kan herhaald worden om de $n$-de afgeleide, $f^{(n)}$ of $\frac{d^n f}{dx^n}$, te definiëren. Een functie is $n$-keer affleidbaar over $V$ als $f^{(n)}$ bestaat over $V$. Een functie is $n$-keer continu affleidbaar over $V$ als $f^{(n)}$ bestaat en continu is over $V$. De nulde-orde afgeleide is de functie zelf: $f^{ } = f$ [59](#page=59).
### 4.3 De middelwaardestelling
#### 4.3.1 Extremum voorwaarden
* Een functie $f$ bereikt een lokaal maximum in $a$ als $f(x) \leq f(a)$ voor $x$ in een omgeving van $a$ [59](#page=59).
* Een functie $f$ bereikt een lokaal minimum in $a$ als $f(x) \geq f(a)$ voor $x$ in een omgeving van $a$ [59](#page=59).
**Noodzakelijke voorwaarde voor een extremum:** Als een affleidbare functie $f$ een extremum bereikt in $a$, dan geldt $f'(a) = 0$. Let op: $f'(a)=0$ impliceert niet noodzakelijk een extremum (bv. $f(x)=x^3$ in $a=0$) [60](#page=60).
#### 4.3.2 Stelling van Rolle
Als een functie $f$ continu is op $[a,b]$, affleidbaar is op $(a,b)$, en $f(a) = f(b)$, dan bestaat er een $\xi \in (a,b)$ zodanig dat $f'(\xi) = 0$ [60](#page=60).
#### 4.3.3 Middelwaardestelling
Als een functie $f$ continu is op $[a,b]$ en affleidbaar is op $(a,b)$, dan bestaat er een $\xi \in (a,b)$ zodanig dat:
$$f(b) - f(a) = f'(\xi)(b-a)$$ [60](#page=60).
Meetkundig betekent dit dat er een punt $\xi$ op $(a,b)$ bestaat waar de raaklijn van $f$ evenwijdig is met de rechte door $(a, f(a))$ en $(b, f(b))$ [61](#page=61).
#### 4.3.4 Verband tussen afgeleide en functieverloop
* $f$ is constant over $(a,b)$ $\iff$ $f'(x) = 0$ voor alle $x \in (a,b)$ [61](#page=61).
* $f$ is stijgend over $(a,b)$ $\iff$ $f'(x) \geq 0$ voor alle $x \in (a,b)$ [61](#page=61).
* $f$ is dalend over $(a,b)$ $\iff$ $f'(x) \leq 0$ voor alle $x \in (a,b)$ [61](#page=61).
* Als $f'(x) > 0$ voor alle $x \in (a,b)$, dan is $f$ strikt stijgend over $(a,b)$ [62](#page=62).
* Als $f'(x) < 0$ voor alle $x \in (a,b)$, dan is $f$ strikt dalend over $(a,b)$ [62](#page=62).
#### 4.3.5 Voldoende voorwaarden voor een extremum
* **Eerste afgeleide test:** Als $f$ continu is in $a$ en affleidbaar in de buurt van $a$ (behalve mogelijk in $a$ zelf):
* Als $f'(x)$ van teken wisselt van positief naar negatief bij $a$, heeft $f$ een maximum in $a$ [62](#page=62).
* Als $f'(x)$ van teken wisselt van negatief naar positief bij $a$, heeft $f$ een minimum in $a$ [62](#page=62).
* **Tweede afgeleide test:** Als $f$ affleidbaar is in $a$, $f'(a)=0$, en $f''(a)$ bestaat:
* Als $f''(a) < 0$, heeft $f$ een maximum in $a$ [63](#page=63).
* Als $f''(a) > 0$, heeft $f$ een minimum in $a$ [63](#page=63).
### 4.4 De regel van de l’Hôpital
De regel van l'Hôpital wordt gebruikt om limieten van de onbepaalde vormen $\frac{0}{0}$ en $\frac{\infty}{\infty}$ te berekenen.
#### 4.4.1 Vergeneralizede middelwaardestelling
Als $f$ en $g$ continu zijn op $[a,b]$, affleidbaar op $(a,b)$, en $g'(x) \neq 0$ voor alle $x \in (a,b)$, dan bestaat er een $\xi \in (a,b)$ zodanig dat:
$$\frac{f(b) - f(a)}{g(b) - g(a)} = \frac{f'(\xi)}{g'(\xi)}$$ [63](#page=63).
#### 4.4.2 Regel van l’Hôpital voor $\frac{0}{0}$
Als $\lim_{x \to a} f(x) = \lim_{x \to a} g(x) = 0$, $f$ en $g$ affleidbaar zijn in de buurt van $a$ (behalve mogelijk in $a$), $g'(x) \neq 0$ in die buurt, en $\lim_{x \to a} \frac{f'(x)}{g'(x)}$ bestaat, dan:
$$\lim_{x \to a} \frac{f(x)}{g(x)} = \lim_{x \to a} \frac{f'(x)}{g'(x)}$$ [64](#page=64).
* **Voorbeeld:** $\lim_{x \to 0} \frac{\ln(1+x)}{x} = \lim_{x \to 0} \frac{1/(1+x)}{1} = 1$ [64](#page=64).
#### 4.4.3 Regel van l’Hôpital voor $\frac{\infty}{\infty}$
Als $\lim_{x \to a} f(x) = \pm \infty$ en $\lim_{x \to a} g(x) = \pm \infty$, $f$ en $g$ affleidbaar zijn in de buurt van $a$ (behalve mogelijk in $a$), $g'(x) \neq 0$ in die buurt, en $\lim_{x \to a} \frac{f'(x)}{g'(x)}$ bestaat, dan:
$$\lim_{x \to a} \frac{f(x)}{g(x)} = \lim_{x \to a} \frac{f'(x)}{g'(x)}$$ [65](#page=65).
Analoge regels gelden voor linker-/rechterlimieten en voor limieten naar $\pm \infty$ [65](#page=65).
De regel van l'Hôpital kan ook worden toegepast op andere onbepaalde vormen (zoals $0 \cdot \infty$, $1^\infty$, $0^0$, $\infty - \infty$) door de uitdrukking om te vormen naar een $\frac{0}{0}$ of $\frac{\infty}{\infty}$ vorm [66](#page=66).
* **Voorbeeld:** $\lim_{x \to 0} (\frac{1}{\sin^2 x} - \frac{1}{x^2}) = \lim_{x \to 0} \frac{x^2 - \sin^2 x}{x^2 \sin^2 x}$ [66](#page=66).
* **Voorbeeld van $0 \cdot \infty$:** $\lim_{x \to 0^+} x^x = \exp(\lim_{x \to 0^+} x \ln x) = \exp(\lim_{x \to 0^+} \frac{\ln x}{1/x}) = \exp = 1$ [66](#page=66).
### 4.5 De formule van Taylor
De formule van Taylor benadert een functie $f$ door een veelterm.
#### 4.5.1 Formule van Taylor met restterm van Lagrange
Als $f$ $(n+1)$-keer affleidbaar is over een open interval $I$ dat $a$ bevat, dan bestaat er voor elke $x \in I$ een $\xi_x$ tussen $a$ en $x$ zodanig dat:
$$f(x) = \sum_{i=0}^{n} \frac{f^{(i)}(a)}{i!}(x-a)^i + \frac{f^{(n+1)}(\xi_x)}{(n+1)!}(x-a)^{n+1}$$ [67](#page=67).
De term $\sum_{i=0}^{n} \frac{f^{(i)}(a)}{i!}(x-a)^i$ is de Taylorveelterm van orde $n$ van $f$ in $a$. De laatste term is de restterm van Lagrange [68](#page=68).
#### 4.5.2 Formule van Taylor met restterm van Liouville
Als $f$ $n$-keer continu affleidbaar is over een open interval $I$ dat $a$ bevat, dan bestaat er een functie $\lambda: \mathbb{R} \to \mathbb{R}$ zodanig dat voor alle $x \in I$:
$$f(x) = \sum_{i=0}^{n} \frac{f^{(i)}(a)}{i!}(x-a)^i + \lambda(x)(x-a)^n$$
en $\lim_{x \to a} \lambda(x) = 0$. Hierbij is $\lambda(x)(x-a)^n$ de restterm van Liouville [69](#page=69).
De restterm $r_n(x) = f(x) - P_n(x)$ (waarbij $P_n(x)$ de Taylorveelterm is) geeft aan hoe goed de Taylorveelterm de functie benadert. Stelling 5.5.4 laat zien dat $r_n(x)$ sneller naar nul gaat dan $(x-a)^n$ als $x \to a$, omdat $\lambda(x) \to 0$ [69](#page=69).
---
# Integratie in één veranderlijke en oneigenlijke integralen
Hier is een gedetailleerde studiehandleiding voor het onderwerp "Integratie in één veranderlijke en oneigenlijke integralen", gebaseerd op de verstrekte documentatie.
## 5. Integratie in één veranderlijke en oneigenlijke integralen
Dit hoofdstuk introduceert de Riemannintegraal via ondersommen en bovensommen, bespreekt de eigenschappen van integralen en de hoofdstellingen van de integraalrekening, en sluit af met een analyse van oneigenlijke integralen van de eerste en tweede soort, inclusief hun convergentiecriteria.
### 5.1 De bepaalde integraal
#### 5.1.1 Partities en deelpunten
Een partitie $P$ van een interval $(a,b)$ is een geordende reeks punten:
$P = (a = x_0, x_1, \dots, x_{n-1}, x_n = b)$
waarbij $a = x_0 < x_1 < \dots < x_{n-1} < x_n = b$. De punten $x_i$ worden de deelpunten van de partitie genoemd. De lengte van het subinterval $(x_{i-1}, x_i)$ wordt genoteerd als $\Delta x_i = x_i - x_{i-1}$ [71](#page=71).
#### 5.1.2 Ondersommen en bovensommen
Voor een functie $f: \mathbb{R} \to \mathbb{R}$ die begrensd is op $(a,b)$ en een partitie $P = (a = x_0, x_1, \dots, x_n = b)$ van $[a,b]$, definiëren we:
- $m_i(f) = \inf\{f(x) \mid x \in (x_{i-1}, x_i)\}$ (het infimum van $f$ op het $i$-de subinterval) [71](#page=71).
- $M_i(f) = \sup\{f(x) \mid x \in (x_{i-1}, x_i)\}$ (het supremum van $f$ op het $i$-de subinterval) [71](#page=71).
De ondersom $s_P(f)$ en de bovensom $S_P(f)$ van $f$ met betrekking tot partitie $P$ worden gedefinieerd als:
$$s_P(f) = \sum_{i=1}^{n} m_i(f)\Delta x_i$$ [72](#page=72).
$$S_P(f) = \sum_{i=1}^{n} M_i(f)\Delta x_i$$ [72](#page=72).
Als $f(x) \geq 0$ voor alle $x \in [a,b]$, benaderen $s_P(f)$ en $S_P(f)$ de oppervlakte onder de graiek van $f$. $s_P(f)$ is een onderbenadering, terwijl $S_P(f)$ een bovenbenadering is [72](#page=72).
#### 5.1.3 Eigenschappen van ondersommen en bovensommen
- Voor elke partitie $P$ geldt $s_P(f) \leq S_P(f)$ [72](#page=72).
- Als partitie $Q$ een verfijning is van partitie $P$ (d.w.z. $P \subseteq Q$), dan geldt $s_P(f) \leq s_Q(f)$ en $S_Q(f) \leq S_P(f)$ [73](#page=73).
- Voor willekeurige partities $P$ en $Q$ geldt $s_P(f) \leq S_Q(f)$ [73](#page=73).
#### 5.1.4 Onderintegraal en bovenintegraal
- De onderintegraal van $f$ over $(a,b)$ is $\overline{\int_a^b} f = \sup\{s_P(f) \mid P \text{ is een partitie van } (a,b)\}$ [74](#page=74).
- De bovenintegraal van $f$ over $(a,b)$ is $\underline{\int_a^b} f = \inf\{S_P(f) \mid P \text{ is een partitie van } (a,b)\}$ [74](#page=74).
- Voor elke begrensde functie $f$ geldt $\underline{\int_a^b} f \leq \overline{\int_a^b} f$ [74](#page=74).
#### 5.1.5 Integreerbaarheid (Riemann)
Een functie $f: \mathbb{R} \to \mathbb{R}$ die begrensd is over $(a,b)$ is integreerbaar over $(a,b)$ als de onderintegraal gelijk is aan de bovenintegraal:
$$\overline{\int_a^b} f = \underline{\int_a^b} f$$ [75](#page=75).
Deze gemeenschappelijke waarde wordt de bepaalde integraal van $f$ over $(a,b)$ genoemd en genoteerd als $\int_a^b f$.
Als $f(x) \geq 0$ en integreerbaar is, representeert de integraal de oppervlakte onder de graiek van $f$ [75](#page=75).
Definities gerelateerd aan de integraal:
- $\int_b^a f = -\int_a^b f$ [75](#page=75).
- $\int_a^a f = 0$ [75](#page=75).
- De notatie $\int_a^b f(x)dx$ wordt ook gebruikt, waarbij $x$ een spookveranderlijke is [75](#page=75).
**Voorbeeld 75**: De constante functie $f(x) = h$ is integreerbaar en $\int_a^b h \, dx = h(b-a)$. De Dirichlet-functie (1 voor rationale getallen, 0 voor irrationale getallen) is niet integreerbaar, omdat $s_P(f) = 0$ en $S_P(f) = b-a$ voor elke partitie $P$ [75](#page=75).
#### 5.1.6 Kenmerk van Darboux
Een functie $f$ is integreerbaar over $(a,b)$ als en slechts als voor elke $\varepsilon > 0$ er een partitie $P$ van $(a,b)$ bestaat zodanig dat $S_P(f) - s_P(f) < \varepsilon$ [76](#page=76).
#### 5.1.7 Riemannsommen
Een Riemannsom wordt gedefinieerd als $\sum_{i=1}^{n} f(x_i^*) \Delta x_i$, waarbij $x_i^* \in (x_{i-1}, x_i)$. Als $f$ integreerbaar is, convergeren de Riemannsommen naar de integraal naarmate de partitie fijner wordt, ongeacht de keuze van $x_i^*$ [76](#page=76) [77](#page=77).
### 5.2 Eigenschappen van de integraal
#### 5.2.1 Lineariteit
Als $f$ en $g$ integreerbaar zijn over $(a,b)$:
1. $f+g$ is integreerbaar over $(a,b)$ en $\int_a^b (f+g) = \int_a^b f + \int_a^b g$ [78](#page=78).
2. Voor elke $\alpha \in \mathbb{R}$, is $\alpha f$ integreerbaar over $(a,b)$ en $\int_a^b (\alpha f) = \alpha \int_a^b f$ [78](#page=78).
#### 5.2.2 Monotoniciteit
- Als $f(x) \geq 0$ voor alle $x \in (a,b)$ en $f$ is integreerbaar over $(a,b)$, dan is $\int_a^b f \geq 0$ [79](#page=79).
- Als $f(x) \leq g(x)$ voor alle $x \in (a,b)$ en $f, g$ zijn integreerbaar over $(a,b)$, dan is $\int_a^b f \leq \int_a^b g$ [79](#page=79).
#### 5.2.3 Additiviteit van het interval
- Als $f$ integreerbaar is over $(a,b)$ en $(c,d) \subseteq (a,b)$, dan is $f$ ook integreerbaar over $(c,d)$ [79](#page=79).
- Voor $a < c < b$, is $f$ integreerbaar over $(a,b)$ als en slechts als $f$ integreerbaar is over $(a,c)$ en $(c,b)$. In dit geval geldt $\int_a^b f = \int_a^c f + \int_c^b f$. Deze formule geldt ook voor andere ordeningen van $a, b, c$ [80](#page=80).
#### 5.2.4 Driehoeksongelijkheid voor integralen
Als $f$ integreerbaar is over $(a,b)$, dan is $|f|$ ook integreerbaar over $(a,b)$ en geldt:
$$ \left|\int_a^b f\right| \leq \int_a^b |f| $$ [82](#page=82).
#### 5.2.5 Continuïteit van een integraal met veranderlijke bovengrens
Als $f$ integreerbaar is over $(a,b)$, dan is de functie $F(x) = \int_c^x f$ (met $c \in [a,b]$ vast) continu over $[a,b]$ [82](#page=82).
#### 5.2.6 Integreerbaarheid van continue functies
Elke functie $f: \mathbb{R} \to \mathbb{R}$ die continu is over $[a,b]$ is ook integreerbaar over $(a,b)$ [83](#page=83).
#### 5.2.7 Stuksgewijze continue functies
Een functie $f$ is stuksgewijs continu over $[a,b]$ als $[a,b]$ opgesplitst kan worden in een eindig aantal subintervallen $(x_{i-1}, x_i)$ waarop $f$ continu is en eindige limieten heeft aan de grenzen. Stuksgewijs continue functies zijn integreerbaar, en de integraal kan worden berekend door de integralen over de subintervallen op te tellen. De waarde van de integraal is onafhankelijk van de functiewaarden in de discontinuïteitspunten [83](#page=83) [84](#page=84).
#### 5.2.8 Middelwaardestelling voor integralen
Als $f$ continu is over $[a,b]$, dan bestaat er een $\xi \in [a,b]$ zodanig dat $\int_a^b f = f(\xi)(b-a)$. Dit betekent dat de integraal gelijk is aan de functiewaarde op een bepaald punt vermenigvuldigd met de lengte van het interval [84](#page=84).
De gemiddelde waarde van een continue functie $f$ over $[a,b]$ is $\frac{1}{b-a} \int_a^b f$. De middelwaardestelling stelt dat deze gemiddelde waarde gelijk is aan $f(\xi)$ voor een zekere $\xi \in [a,b]$ [85](#page=85).
### 5.3 De hoofdstellingen van de integraalrekening
#### 5.3.1 Eerste hoofdstelling (afgeleide van een integraal met veranderlijke bovengrens)
Als $f$ continu is over $(a,b)$, dan is de functie $F(x) = \int_c^x f$ differentieerbaar over $(a,b)$ en $F'(x) = f(x)$ [85](#page=85).
Als $f$ continu is over $[a,b]$, dan is $F(x) = \int_c^x f$ continu differentieerbaar over $[a,b]$ en $F'(x) = f(x)$ [86](#page=86).
#### 5.3.2 Tweede hoofdstelling (integraal van een afgeleide)
Als $f$ continu differentieerbaar is over $[a,b]$, dan is:
$$ \int_a^b f'(x) dx = [f(x)]_a^b = f(b) - f(a) $$ [86](#page=86).
#### 5.3.3 Primitieve functie
Een functie $g$ is een primitieve van $f$ over $[a,b]$ als $g$ continu differentieerbaar is over $[a,b]$ en $g'(x) = f(x)$ voor alle $x \in (a,b)$. Alle primitieven van een functie $f$ verschillen slechts door een constante [87](#page=87).
#### 5.3.4 Alternatieve formulering van de tweede hoofdstelling
Als $g$ een primitieve is van $f$ over $[a,b]$, dan geldt:
$$ \int_a^b f(x) dx = [g(x)]_a^b = g(b) - g(a) $$ [87](#page=87).
Dit geeft een methode om bepaalde integralen te berekenen door een primitieve te vinden.
**Voorbeeld 88**: $\int_0^1 x^2 dx = [\frac{x^3}{3}]_0^1 = \frac{1}{3}$ [88](#page=88).
#### 5.3.5 Tabel van primitieve functies
| Functie | Primitieve |
| :---------------- | :-------------------------------------------- |
| $x^a$ ($a \neq -1$) | $\frac{x^{a+1}}{a+1}$ |
| $\frac{1}{x}$ | $\ln|x|$ |
| $e^x$ | $e^x$ |
| $a^x$ | $\frac{a^x}{\ln a}$ |
| $\sin x$ | $-\cos x$ |
| $\cos x$ | $\sin x$ |
| $\frac{1}{1+x^2}$ | $\arctan x$ |
| $\frac{1}{1-x^2}$ | $\operatorname{artanh} x$ ($|x|<1$) |
| $\frac{1}{\sqrt{1+x^2}}$ | $\operatorname{arsinh} x$ |
| $\frac{1}{\sqrt{1-x^2}}$ | $\arcsin x$ ($|x|<1$) |
| $\frac{1}{\sqrt{x^2-1}}$ | $\operatorname{arcosh} x$ ($|x|>1$) |
### 5.4 Partiële integratie en substitutie
#### 5.4.1 Partiële integratie
Als $f$ en $g$ continu differentieerbaar zijn over $[a,b]$:
$$ \int_a^b f(x) g'(x) dx = [f(x)g(x)]_a^b - \int_a^b f'(x)g(x) dx $$ [89](#page=89).
#### 5.4.2 Substitutieregel (grensovergangstransformatie)
Als $\varphi$ continu differentieerbaar is over $[a,b]$ en $f$ continu is over het beeldinterval $\varphi([a,b])$:
$$ \int_a^b f(\varphi(x))\varphi'(x) dx = \int_{\varphi(a)}^{\varphi(b)} f(t) dt $$ [89](#page=89).
Hierbij is $t = \varphi(x)$ de substitutie en $dt = \varphi'(x)dx$.
### 5.5 Oneigenlijke integralen
#### 5.5.1 Oneigenlijke integralen van de eerste soort (onbegrensde integratie-intervallen)
Deze betreffen integralen met limieten van $+\infty$ of $-\infty$.
- **Definitie**:
- $\int_a^{+\infty} f = \lim_{M \to +\infty} \int_a^M f$ [91](#page=91).
- $\int_a^{-\infty} f = \lim_{M \to -\infty} \int_a^M f$ [91](#page=91).
- **Convergentie**: Een oneigenlijke integraal is convergent als de limiet bestaat. Anders divergeert deze [91](#page=91).
- **Integraal over R**: $\int_{-\infty}^{+\infty} f$ is convergent als zowel $\int_{-\infty}^0 f$ als $\int_0^{+\infty} f$ convergent zijn. Dan geldt $\int_{-\infty}^{+\infty} f = \int_{-\infty}^0 f + \int_0^{+\infty} f$ [92](#page=92).
- Opmerking: $\int_{-\infty}^{+\infty} f = \lim_{M \to +\infty} \int_{-M}^M f$ geldt alleen als de integraal over $\mathbb{R}$ convergent is [92](#page=92).
**Belangrijke voorbeelden en criteria**:
- $\int_a^{+\infty} \frac{1}{x^\alpha} dx$ convergeert voor $\alpha > 1$ en divergeert voor $\alpha \leq 1$ (met $a>0$) [93](#page=93).
- **Majorantenregel**: Als $0 \leq f(x) \leq C g(x)$ voor $x \geq b$ en $\int_a^{+\infty} g$ convergeert, dan convergeert $\int_a^{+\infty} f$ [93](#page=93).
- **Quotiëntregel**: Als $f, g > 0$ en $\lim_{x\to\infty} \frac{f(x)}{g(x)} = L \in [0, +\infty)$:
- Als $L > 0$, dan convergeert $\int_a^{+\infty} f \Leftrightarrow \int_a^{+\infty} g$ convergeert [94](#page=94).
- Als $L = 0$, dan $\int_a^{+\infty} g$ convergeert $\Rightarrow \int_a^{+\infty} f$ convergeert [94](#page=94).
- **Stelling 7.1.10**: Voor een positieve functie $f$:
1. Als $\lim_{x\to+\infty} x^\alpha f(x) = L \in [0, +\infty)$ voor $\alpha > 1$, dan convergeert $\int_a^{+\infty} f$ [95](#page=95).
2. Als $\lim_{x\to+\infty} x^\alpha f(x) = L \in (0, +\infty]$ voor $0 < \alpha \leq 1$, dan divergeert $\int_a^{+\infty} f$ naar $+\infty$ [95](#page=95).
#### 5.5.2 Oneigenlijke integralen van de tweede soort (functies met discontinuïteiten)
Deze betreffen integralen over een interval $(a,b)$ waar de integrand $f$ mogelijk onbegrensd is.
- **Definitie**:
- Als $f$ integreerbaar is over $(c,b)$ voor alle $c \in (a,b)$: $\int_a^b f = \lim_{c \to a^+} \int_c^b f$ [95](#page=95).
- Als $f$ integreerbaar is over $(a,c)$ voor alle $c \in (a,b)$: $\int_a^b f = \lim_{c \to b^-} \int_a^c f$ [96](#page=96).
- **Consistentie**: Als $f$ 'gewoon' integreerbaar is over $(a,b)$, dan zijn de limieten gelijk aan de gebruikelijke integraal [96](#page=96).
**Belangrijke voorbeelden en criteria**:
- $\int_a^b \frac{1}{(x-a)^\beta} dx$ en $\int_a^b \frac{1}{(b-x)^\beta} dx$ convergeren voor $\beta < 1$ en divergeren voor $\beta \geq 1$ [97](#page=97).
- **Majorantenregel**: Analoog aan de eerste soort, maar voor integralen naar $a^+$ of $b^-$ [97](#page=97).
- **Quotiëntregel**: Analoog aan de eerste soort, maar voor limieten naar $a^+$ of $b^-$ [97](#page=97).
- **Stelling 7.2.9**: Voor een positieve functie $f$:
1. Als $\lim_{x\to a^+} (x-a)^\beta f(x) = L \in [0, +\infty)$ voor $0 < \beta < 1$, dan convergeert $\int_a^b f$ [98](#page=98).
2. Als $\lim_{x\to a^+} (x-a)^\beta f(x) = L \in (0, +\infty]$ voor $\beta \geq 1$, dan divergeert $\int_a^b f$ naar $+\infty$ [98](#page=98).
- **Stelling 7.2.11**: Analoge criteria gelden voor limieten naar $b^-$.
1. Als $\lim_{x\to b^-} (b-x)^\beta f(x) = L \in [0, +\infty)$ voor $0 < \beta < 1$, dan convergeert $\int_a^b f$ [99](#page=99).
2. Als $\lim_{x\to b^-} (b-x)^\beta f(x) = L \in (0, +\infty]$ voor $\beta \geq 1$, dan divergeert $\int_a^b f$ naar $+\infty$ [99](#page=99).
**Voorbeeld 98**: Voor $p>0$ convergeert $\int_0^1 x^{p-1}e^{-x} dx$.
#### 5.5.3 Combinaties van oneigenlijke integralen
- $\int_a^{+\infty} f$ is convergent als er een $c > a$ bestaat zodat $\int_a^c f$ en $\int_c^{+\infty} f$ beide convergent zijn. Deze definitie is onafhankelijk van de keuze van $c$ [99](#page=99).
- Analoge definities gelden voor $\int_a^{-\infty} f$ en integralen die oneigenlijk zijn aan beide zijden.
### 5.6 De gammafunctie
#### 5.6.1 Definitie
De gammafunctie is gedefinieerd als:
$$ \Gamma(p) = \int_0^{+\infty} x^{p-1}e^{-x} dx, \quad p > 0 $$ [100](#page=100).
Deze integraal is convergent voor alle $p > 0$ [99](#page=99).
#### 5.6.2 Recursierelatie
Voor $p > 1$:
$$ \Gamma(p) = (p-1)\Gamma(p-1) $$ [100](#page=100).
Dit reduceert de berekening van $\Gamma(p)$ tot de berekening van $\Gamma(q)$ voor $0 < q \leq 1$.
#### 5.6.3 Relatie met faculteit
Voor elk positief geheel getal $n \in \mathbb{N}^+$ geldt:
$$ \Gamma(n) = (n-1)! $$ .
Dit volgt uit $\Gamma = 1$ [1](#page=1).
---
# Aflidbaarheid en continuïteit in meerdere veranderlijken
Dit deel introduceert de concepten van partiële afgeleiden, richtingsafgeleiden, gradiënten, en afleidbaarheid voor functies van meerdere variabelen, evenals de Jacobiaanse matrix, de kettingregel, de stelling van Taylor en de classificatie van extreme waarden met de Hessiaanse matrix.
### 6.1 Grafische voorstellingen van functies
Functies $f: \mathbb{R}^n \to \mathbb{R}$ kunnen grafisch worden voorgesteld. De grafiek van een functie $f: \mathbb{R}^n \to \mathbb{R}$ is de verzameling $\{( \vec{x}, f(\vec{x}) ) | \vec{x} \in D \} \subseteq \mathbb{R}^{n+1}$. Voor functies $f: \mathbb{R}^2 \to \mathbb{R}$ is dit een 2-dimensionaal oppervlak in $\mathbb{R}^3$. Voor functies $f: \mathbb{R}^3 \to \mathbb{R}$ is de grafiek een 3-dimensionaal oppervlak in $\mathbb{R}^4$, wat niet direct te tekenen is .
Hoogtelijnen (of niveaukrommen) van $f: \mathbb{R}^2 \to \mathbb{R}$ zijn de verzamelingen $\{(x,y) \in D | f(x,y) = c\}$ voor een constante $c \in \mathbb{R}$. Voor functies $f: \mathbb{R}^3 \to \mathbb{R}$ worden de verzamelingen $\{(x,y,z) \in D | f(x,y,z) = c\}$ niveau-oppervlakken genoemd .
Vectorwaardige functies van één veranderlijke, zoals $\vec{r}: I \to \mathbb{R}^m$, parametriseren krommen in $\mathbb{R}^m$ .
### 6.2 Partiële afgeleiden en richtingsafgeleiden
Een functie $f : \mathbb{R}^n \to \mathbb{R}$ is partieel afleidbaar naar de $i$-de veranderlijke in een punt $\vec{a} \in \mathbb{R}^n$ als de limiet
$$ \lim_{h \to 0} \frac{f(a_1, \dots, a_i + h, \dots, a_n) - f(a_1, \dots, a_i, \dots, a_n)}{h} $$
bestaat. Deze limiet wordt genoteerd als $\frac{\partial f}{\partial x_i}(\vec{a})$ .
De gradiënt van $f$ in $\vec{a}$ is de vector $\vec{\nabla}f(\vec{a}) = \left(\frac{\partial f}{\partial x_1}(\vec{a}), \dots, \frac{\partial f}{\partial x_n}(\vec{a})\right) \in \mathbb{R}^n$ .
De richtingsafgeleide van $f$ volgens een eenheidsvector $\vec{u} \in \mathbb{R}^n$ in het punt $\vec{a}$ is de limiet
$$ D_{\vec{u}}f(\vec{a}) = \lim_{h \to 0} \frac{f(\vec{a} + h\vec{u}) - f(\vec{a})}{h} $$
indien deze bestaat. Deze geeft aan hoe snel de functiewaarden van $f$ veranderen als $\vec{x}$ vanuit $\vec{a}$ in de richting van $\vec{u}$ varieert .
### 6.3 Afleidbaarheid
Een functie $f : \mathbb{R}^n \to \mathbb{R}$ is afleidbaar in $\vec{a} \in \mathbb{R}^n$ als er een vector $\vec{m} \in \mathbb{R}^n$ en een functie $e : \mathbb{R}^n \to \mathbb{R}$ bestaan zodanig dat voor alle $\vec{h} \in \mathbb{R}^n$ met $\vec{a} + \vec{h}$ in het domein geldt:
$$ f(\vec{a} + \vec{h}) = f(\vec{a}) + \vec{m} \cdot \vec{h} + \| \vec{h} \| e(\vec{h}) \quad \text{en} \quad \lim_{\vec{h} \to \vec{0}} e(\vec{h}) = 0 $$
.
Een functie $f : \mathbb{R}^n \to \mathbb{R}$ is afleidbaar in $\vec{a} \in \mathbb{R}^n$ als en slechts als:
1. $f$ is partieel afleidbaar naar de $i$-de veranderlijke in $\vec{a}$ voor alle $i \in \{1, \dots, n\}$.
2. $\lim_{\vec{h} \to \vec{0}} \frac{f(\vec{a} + \vec{h}) - f(\vec{a}) - \vec{\nabla}f(\vec{a}) \cdot \vec{h}}{\| \vec{h} \| } = 0$ .
Indien afleidbaar, is $\vec{m} = \vec{\nabla}f(\vec{a})$ .
De affiene afbeelding $L(\vec{x}) = f(\vec{a}) + \vec{\nabla}f(\vec{a}) \cdot (\vec{x} - \vec{a})$ benadert $f$ in de buurt van $\vec{a}$. De grafiek van $L$ is de raakruimte aan de grafiek van $f$ .
Als $f$ afleidbaar is in $\vec{a}$, dan is de richtingsafgeleide $D_{\vec{u}}f(\vec{a}) = \vec{\nabla}f(\vec{a}) \cdot \vec{u}$ voor elke eenheidsvector $\vec{u}$. De gradiënt $\vec{\nabla}f(\vec{a})$ wijst in de richting waarin de functiewaarden van $f$ het snelst stijgen .
Een afleidbare functie is continu. Echter, een functie kan partieel afleidbaar zijn zonder afleidbaar te zijn .
**Stelling 8.3.7 (Voldoende voorwaarde voor afleidbaarheid):** Als de partiële afgeleiden van $f: \mathbb{R}^n \to \mathbb{R}$ bestaan en continu zijn in $\vec{a}$, dan is $f$ afleidbaar in $\vec{a}$. Een functie die continu afleidbaar is, is dus afleidbaar .
### 6.3.1 Afleidbaarheid van vectorwaardige functies
Voor een functie $\vec{F} : \mathbb{R}^n \to \mathbb{R}^m$, afleidbaar in $\vec{a} \in \mathbb{R}^n$, bestaan er een matrix $M \in M_{m,n}(\mathbb{R})$ en een functie $\vec{e} : \mathbb{R}^n \to \mathbb{R}^m$ zodanig dat:
$$ \vec{F}(\vec{a} + \vec{h}) = \vec{F}(\vec{a}) + M(\vec{h}) + \| \vec{h} \| \vec{e}(\vec{h}) \quad \text{en} \quad \lim_{\vec{h} \to \vec{0}} \vec{e}(\vec{h}) = \vec{0} $$
.
De **Jacobiaanse matrix** (of totale afgeleide) van $\vec{F} = (f_1, \dots, f_m)$ in $\vec{a}$ is:
$$ D\vec{F}(\vec{a}) = \begin{pmatrix}
\frac{\partial f_1}{\partial x_1}(\vec{a}) & \frac{\partial f_1}{\partial x_2}(\vec{a}) & \cdots & \frac{\partial f_1}{\partial x_n}(\vec{a}) \\
\frac{\partial f_2}{\partial x_1}(\vec{a}) & \frac{\partial f_2}{\partial x_2}(\vec{a}) & \cdots & \frac{\partial f_2}{\partial x_n}(\vec{a}) \\
\vdots & \vdots & \ddots & \vdots \\
\frac{\partial f_m}{\partial x_1}(\vec{a}) & \frac{\partial f_m}{\partial x_2}(\vec{a}) & \cdots & \frac{\partial f_m}{\partial x_n}(\vec{a})
\end{pmatrix} \in M_{m,n}(\mathbb{R}) $$
. De $i$-de rij van de Jacobiaanse matrix is de gradiënt van $f_i$. Voor $m=1$ is de Jacobiaanse matrix gelijk aan de gradiënt. De determinant van de Jacobiaanse matrix voor $m=n$ is de Jacobiaanse determinant .
$\vec{F}$ is afleidbaar in $\vec{a}$ als en slechts als alle componentfuncties $f_i$ afleidbaar zijn in $\vec{a}$. Dan is $M = D\vec{F}(\vec{a})$ .
Voor $\vec{r}: R \to \mathbb{R}^m$, is de afgeleide $D\vec{r}(a) = \vec{r}'(a) = \lim_{h \to 0} \frac{\vec{r}(a+h) - \vec{r}(a)}{h}$. De grafiek van $\vec{r}$ wordt in $\vec{r}(a)$ benaderd door een rechte met richtingsvector $\vec{r}'(a)$ (de raaklijn) .
**Stelling 8.3.17 (Kettingregel):** Als $\vec{F} : \mathbb{R}^n \to \mathbb{R}^m$ afleidbaar is in $\vec{a} \in \mathbb{R}^n$ en $\vec{G} : \mathbb{R}^m \to \mathbb{R}^p$ afleidbaar is in $\vec{F}(\vec{a})$, dan is de samenstelling $\vec{G} \circ \vec{F} : \mathbb{R}^n \to \mathbb{R}^p$ afleidbaar in $\vec{a}$ en geldt:
$$ D(\vec{G} \circ \vec{F})(\vec{a}) = D\vec{G}(\vec{F}(\vec{a})) D\vec{F}(\vec{a}) $$
. Dit is het matrixproduct van de Jacobiaanse matrices .
Voor $f: \mathbb{R}^n \to \mathbb{R}$ en $\vec{r}: \mathbb{R} \to \mathbb{R}^n$, geldt $(f \circ \vec{r})'(t) = \vec{\nabla}f(\vec{r}(t)) \cdot \vec{r}'(t)$. Als $\vec{r}(t) = (x_1(t), \dots, x_n(t))$, dan :
$$ \frac{df}{dt} = \sum_{i=1}^n \frac{\partial f}{\partial x_i} \frac{dx_i}{dt} $$
.
**Stelling 8.3.19:** Een afleidbare functie $f: \mathbb{R}^n \to \mathbb{R}$ is constant over een open gebied $V \subseteq \mathbb{R}^n$ als en slechts als $\vec{\nabla}f(\vec{x}) = \vec{0}$ voor alle $\vec{x} \in V$ .
### 6.4 Partiële afgeleiden van hogere orde
Partiële afgeleiden van orde twee worden verkregen door de eerste partiële afgeleiden nogmaals partieel te differentiëren: $\frac{\partial^2 f}{\partial x_j \partial x_i} = \frac{\partial}{\partial x_j}\left(\frac{\partial f}{\partial x_i}\right)$ .
**Stelling 8.4.2 (Schwarz's theorema):** Als $f: \mathbb{R}^n \to \mathbb{R}$ continue partiële afgeleiden van orde twee heeft over een open gebied $V$, dan geldt $\frac{\partial^2 f}{\partial x_j \partial x_i} = \frac{\partial^2 f}{\partial x_i \partial x_j}$ voor alle $i, j$ .
### 6.5 De formule van Taylor
De formule van Taylor voor functies $f : \mathbb{R}^2 \to \mathbb{R}$ rond een punt $\vec{a} = (a_1, a_2)$ met een restterm van Lagrange is:
$$ f(a_1+h_1, a_2+h_2) = \sum_{i=0}^n \frac{1}{i!} \left(h_1 \frac{\partial}{\partial x} + h_2 \frac{\partial}{\partial y}\right)^{(i)} f(a_1, a_2) + \frac{1}{(n+1)!} \left(h_1 \frac{\partial}{\partial x} + h_2 \frac{\partial}{\partial y}\right)^{(n+1)} f(\xi_1, \xi_2) $$
waarbij $\vec{\xi} = (\xi_1, \xi_2)$ op het lijnstuk $[ \vec{a}, \vec{a} + \vec{h} ]$ ligt en $\vec{h} = (h_1, h_2)$. De term $\left(h_1 \frac{\partial}{\partial x} + h_2 \frac{\partial}{\partial y}\right)^{(i)} f$ representeert het $i$-de orde differentiaal van $f$ .
### 6.6 Extreme waarden
Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een lokaal extremum in $\vec{a}$ als $f(\vec{x}) \leq f(\vec{a})$ (maximum) of $f(\vec{x}) \geq f(\vec{a})$ (minimum) voor alle $\vec{x}$ in een omgeving van $\vec{a}$ .
**Stelling 8.6.2 (Nodige voorwaarde voor extremum):** Als $f: \mathbb{R}^n \to \mathbb{R}$ afleidbaar is in $\vec{a}$ en daar een extremum bereikt, dan is $\vec{\nabla}f(\vec{a}) = \vec{0}$. Een punt waarvoor $\vec{\nabla}f(\vec{a}) = \vec{0}$ geldt, wordt een stationair punt genoemd .
Voor functies $f : \mathbb{R}^2 \to \mathbb{R}$, kan de aard van een stationair punt $\vec{a}$ worden bepaald met behulp van de tweede afgeleiden:
Laat $r = \frac{\partial^2 f}{\partial x^2}(\vec{a})$, $s = \frac{\partial^2 f}{\partial x \partial y}(\vec{a})$, en $t = \frac{\partial^2 f}{\partial y^2}(\vec{a})$.
**Stelling 8.6.4 (Tweede-orde test voor extremum):** Als $\vec{a}$ een stationair punt is, dan:
1. Als $s^2 - rt > 0$, bereikt $f$ geen extremum in $\vec{a}$.
2. Als $s^2 - rt < 0$ en $r < 0$, bereikt $f$ een maximum in $\vec{a}$.
3. Als $s^2 - rt < 0$ en $r > 0$, bereikt $f$ een minimum in $\vec{a}$. .
Geval $s^2 - rt = 0$ is onbeslist .
De **Hessiaanse matrix** van $f$ in $\vec{a}$ is:
$$ H_f(\vec{a}) = \begin{pmatrix}
\frac{\partial^2 f}{\partial x_1^2}(\vec{a}) & \frac{\partial^2 f}{\partial x_1 \partial x_2}(\vec{a}) & \cdots & \frac{\partial^2 f}{\partial x_1 \partial x_n}(\vec{a}) \\
\frac{\partial^2 f}{\partial x_2 \partial x_1}(\vec{a}) & \frac{\partial^2 f}{\partial x_2^2}(\vec{a}) & \cdots & \frac{\partial^2 f}{\partial x_2 \partial x_n}(\vec{a}) \\
\vdots & \vdots & \ddots & \vdots \\
\frac{\partial^2 f}{\partial x_n \partial x_1}(\vec{a}) & \frac{\partial^2 f}{\partial x_n \partial x_2}(\vec{a}) & \cdots & \frac{\partial^2 f}{\partial x_n^2}(\vec{a})
\end{pmatrix} $$
. De Hessiaanse matrix is symmetrisch .
**Stelling 8.6.6 (Classificatie met eigenwaarden):** Als $\vec{a}$ een stationair punt is van $f$, en $H_f(\vec{a})$ heeft eigenwaarden $\lambda_1, \dots, \lambda_n$:
1. Als $H_f(\vec{a})$ een strikt positieve en een strikt negatieve eigenwaarde heeft, bereikt $f$ geen extremum in $\vec{a}$.
2. Als $H_f(\vec{a})$ enkel strikt negatieve eigenwaarden heeft, bereikt $f$ een maximum in $\vec{a}$.
3. Als $H_f(\vec{a})$ enkel strikt positieve eigenwaarden heeft, bereikt $f$ een minimum in $\vec{a}$. .
---
# Impliciete functies en Lagrange-multiplicatoren
Dit hoofdstuk introduceert de stelling van de impliciete functies, die het bestaan van impliciet gedefinieerde functies garandeert, en de methode van Lagrange-multiplicatoren voor het vinden van extreme waarden onder nevenvoorwaarden .
### 7.1 De stelling van de impliciete functies
De stelling van de impliciete functies biedt een manier om het bestaan en de eigenschappen van functies te garanderen die impliciet worden gedefinieerd door een vergelijking, zonder dat deze expliciet hoeven te worden uitgedrukt .
#### 7.1.1 Impliciet gedefinieerde functies in het vlak
Beschouw een vergelijking van de vorm $f(x,y) = 0$. De verzameling punten $(x,y)$ die aan deze vergelijking voldoen, vormt een kromme $C$. Soms kan deze vergelijking worden opgelost om $y$ als een functie van $x$ te verkrijgen, $y(x)$, zodanig dat $f(x, y(x)) = 0$. Deze functie $y(x)$ wordt impliciet bepaald door de vergelijking .
> **Tip:** Het is niet altijd mogelijk om $y(x)$ expliciet uit te drukken in termen van elementaire functies, zelfs als $f(x,y)$ een eenvoudig voorschrift heeft, zoals in het geval van $\sin(y) = xy$ .
#### 7.1.2 Impliciet differentiëren
Als we aannemen dat er een impliciet bepaalde functie $y(x)$ bestaat die voldoet aan $f(x, y(x)) = 0$ en dat $f$ en $y$ differentieerbaar zijn, dan kunnen we de kettingregel toepassen op $f(x, y(x)) = 0$:
$$ \frac{\partial f}{\partial x}(x, y(x)) + \frac{\partial f}{\partial y}(x, y(x)) y'(x) = 0 $$ .
Als $\frac{\partial f}{\partial y}(x, y(x)) \neq 0$, kunnen we $y'(x)$ uitdrukken als:
$$ y'(x) = - \frac{\frac{\partial f}{\partial x}(x, y(x))}{\frac{\partial f}{\partial y}(x, y(x))} $$ .
Voor een punt $(a,b)$ waarvoor $f(a,b) = 0$ en $\frac{\partial f}{\partial y}(a,b) \neq 0$, is de afgeleide van de impliciete functie in $a$ gelijk aan:
$$ y'(a) = - \frac{\frac{\partial f}{\partial x}(a,b)}{\frac{\partial f}{\partial y}(a,b)} $$ .
Met deze afgeleide kan de raaklijn aan de kromme $C$ in het punt $(a,b)$ worden bepaald met de vergelijking:
$$ y = b - \frac{\frac{\partial f}{\partial x}(a,b)}{\frac{\partial f}{\partial y}(a,b)} (x - a) $$ .
Dit proces wordt de methode van impliciet differentiëren genoemd .
#### 7.1.3 Stelling van de impliciete functies in het vlak
**Stelling 9.1.4 (Stelling van de impliciete functies in het vlak)** .
Zij $f : \mathbb{R}^2 \to \mathbb{R}$ en $(a,b) \in \mathbb{R}^2$. Als $f$ continu differentieerbaar is over een open bal met middelpunt $(a,b)$, $f(a,b) = 0$, en $\frac{\partial f}{\partial y}(a,b) \neq 0$, dan:
1. Bestaan er $\delta > 0$ en $\varepsilon > 0$ zodanig dat voor elke $x \in (a - \delta, a + \delta)$ er een unieke $y(x) \in (b - \varepsilon, b + \varepsilon)$ bestaat met $f(x, y(x)) = 0$.
2. De functie $y : (a - \delta, a + \delta) \to \mathbb{R}$, $x \mapsto y(x)$, is continu differentieerbaar.
> **Opmerking 9.1.5:**
> * $y(a) = b$ volgt uit de uniciteit .
> * Geometrisch betekent dit dat de grafiek van $y(x)$ samenvalt met de kromme gedefinieerd door $f(x,y)=0$ in een rechthoek rond $(a,b)$ .
> * Door $f(x, y(x)) = 0$ tweemaal te differentiëren, kunnen we $y''(a)$ berekenen, wat een betere benadering van de kromme oplevert dan de raaklijn .
#### 7.1.4 Veralgemening naar $n+m$ variabelen
Beschouw een stelsel van $m$ vergelijkingen in $n+m$ variabelen:
$$
\begin{cases}
f_1(x_1, \dots, x_n, y_1, \dots, y_m) = 0 \\
\vdots \\
f_m(x_1, \dots, x_n, y_1, \dots, y_m) = 0
\end{cases}
$$ .
Dit kan vectorieel worden geschreven als $\vec{F}(\vec{x}, \vec{y}) = \vec{0}$, waarbij $\vec{F} = (f_1, \dots, f_m): \mathbb{R}^{n+m} \to \mathbb{R}^m$, $\vec{x} = (x_1, \dots, x_n)$ en $\vec{y} = (y_1, \dots, y_m)$ .
De Jacobiaanse determinant van de functie $\vec{y} \mapsto \vec{F}(\vec{x}, \vec{y})$ voor een vaste $\vec{x}$ is:
$$ \frac{\partial(f_1, \dots, f_m)}{\partial(y_1, \dots, y_m)}(\vec{x}, \vec{y}) = \det \begin{pmatrix}
\frac{\partial f_1}{\partial y_1} & \cdots & \frac{\partial f_1}{\partial y_m} \\
\vdots & \ddots & \vdots \\
\frac{\partial f_m}{\partial y_1} & \cdots & \frac{\partial f_m}{\partial y_m}
\end{pmatrix} $$ .
**Stelling 9.1.6 (Stelling van de impliciete functies)** .
Zij $\vec{F} : \mathbb{R}^{n+m} \to \mathbb{R}^m$ continu differentieerbaar over een open bal met middelpunt $(\vec{a}, \vec{b}) \in \mathbb{R}^{n+m}$. Als $\vec{F}(\vec{a}, \vec{b}) = \vec{0}$ en $\frac{\partial(f_1, \dots, f_m)}{\partial(y_1, \dots, y_m)}(\vec{a}, \vec{b}) \neq 0$, dan:
1. Bestaan er $\delta > 0$ en $\varepsilon > 0$ zodanig dat voor elke $\vec{x} \in B(\vec{a}, \delta)$ er een unieke $\vec{y}(\vec{x}) \in B(\vec{b}, \varepsilon)$ bestaat met $\vec{F}(\vec{x}, \vec{y}(\vec{x})) = \vec{0}$.
2. De functie $\vec{y} : B(\vec{a}, \delta) \to \mathbb{R}^m$, $\vec{x} \mapsto \vec{y}(\vec{x})$, is continu differentieerbaar.
Om de partiële afgeleiden van $\vec{y}(\vec{x})$ te bepalen, differentiëren we $\vec{F}(\vec{x}, \vec{y}(\vec{x})) = \vec{0}$ partieel naar $x_i$ met behulp van de kettingregel:
$$ \frac{\partial f_k}{\partial x_i}(\vec{x}, \vec{y}(\vec{x})) + \sum_{j=1}^m \frac{\partial f_k}{\partial y_j}(\vec{x}, \vec{y}(\vec{x})) \frac{\partial y_j}{\partial x_i}(\vec{x}) = 0 \quad \text{voor } k=1, \dots, m $$ .
Dit resulteert in een lineair stelsel in $\frac{\partial y_j}{\partial x_i}(\vec{x})$, waarvan de determinant de Jacobiaanse determinant $\frac{\partial(f_1, \dots, f_m)}{\partial(y_1, \dots, y_m)}(\vec{x}, \vec{y}(\vec{x}))$ is .
#### 7.1.5 Meetkundige interpretatie van de gradiënt
**Stelling 9.1.8 (Gradiënt en hoogtelijn in $\mathbb{R}^2$)** .
Zij $f : \mathbb{R}^2 \to \mathbb{R}$ continu differentieerbaar over een open bal met middelpunt $\vec{a} = (a_1, a_2) \in \mathbb{R}^2$. Zij $f(x,y) = c$ de hoogtelijn van $f$ door $\vec{a}$, dus $f(a_1, a_2) = c$. Als $\nabla f(\vec{a}) \neq \vec{0}$, dan staat $\nabla f(\vec{a})$ loodrecht op de hoogtelijn $f(x,y) = c$ in $\vec{a}$.
De vergelijking van de raaklijn aan de hoogtelijn $f(x,y)=c$ in $\vec{a}$ is dus:
$$ \frac{\partial f}{\partial x}(a_1, a_2) (x - a_1) + \frac{\partial f}{\partial y}(a_1, a_2) (y - a_2) = 0 $$ .
**Stelling 9.1.9 (Gradiënt en niveau-oppervlak in $\mathbb{R}^n$)** .
Zij $f : \mathbb{R}^n \to \mathbb{R}$ continu differentieerbaar over een open bal met middelpunt $\vec{a} \in \mathbb{R}^n$. Zij $f(\vec{x}) = c$ het niveau-oppervlak van $f$ door $\vec{a}$, dus $f(\vec{a}) = c$. Als $\nabla f(\vec{a}) \neq \vec{0}$, dan staat $\nabla f(\vec{a})$ loodrecht op het niveau-oppervlak $f(\vec{x}) = c$ in $\vec{a}$.
De vergelijking van de raakruimte in $\vec{a}$ aan het niveau-oppervlak $f(\vec{x})=c$ wordt gegeven door:
$$ \nabla f(\vec{a}) \cdot (\vec{x} - \vec{a}) = 0 $$ .
> **Opmerking 9.1.10:** De gradiënt wijst in de richting van de grootste stijging van de functie $f$. De niveau-oppervlakken zijn loodrecht op deze richting .
### 7.2 Extreme waarden met nevenvoorwaarden: Lagrange-multiplicatoren
Deze methode wordt gebruikt om de maximale en minimale waarden van een functie $f$ te vinden onder de restrictie dat de punten moeten voldoen aan een nevenvoorwaarde, uitgedrukt als een vergelijking $g(x,y) = 0$ .
#### 7.2.1 De methode voor twee variabelen
**Deïnitie 9.2.1** .
Een functie $f(x,y)$ bereikt een lokaal maximum (of minimum) onder de nevenvoorwaarde $g(x,y) = 0$ in een punt $\vec{a} = (a_1, a_2)$ als $g(a_1, a_2) = 0$ en voor punten $(x,y)$ dichtbij $\vec{a}$ die voldoen aan $g(x,y) = 0$, geldt $f(x,y) \leq f(a_1, a_2)$ (of $f(x,y) \geq f(a_1, a_2)$).
**Stelling 9.2.3** .
Als $f$ en $g$ continu differentieerbaar zijn en $\nabla g(\vec{a}) \neq \vec{0}$, en $f$ bereikt een extremum onder $g(x,y)=0$ in $\vec{a}$, dan staat $\nabla f(\vec{a})$ loodrecht op de hoogtelijn $g(x,y)=0$ in $\vec{a}$.
**Stelling 9.2.4 (Noodzakelijke voorwaarde voor een extremum met nevenvoorwaarden)** .
Zij $f$ en $g$ continu differentieerbaar over een open bal met middelpunt $\vec{a} = (a_1, a_2)$. Veronderstel dat $\nabla g(\vec{a}) \neq \vec{0}$. Als $f$ een extremum onder de nevenvoorwaarde $g(x,y)=0$ bereikt in $\vec{a}$, dan bestaat er een getal $\lambda \in \mathbb{R}$ zodanig dat:
$$ \nabla f(\vec{a}) = \lambda \nabla g(\vec{a}) $$ .
Het getal $\lambda$ wordt een Lagrange-multiplicator genoemd. Om extrema te vinden, zoeken we punten $(x,y)$ die voldoen aan :
$$
\begin{cases}
g(x,y) = 0 \\
\exists \lambda \in \mathbb{R} : \nabla f(x,y) = \lambda \nabla g(x,y)
\end{cases}
$$ .
Een handige manier om dit stelsel te formuleren, is door de hulpfunctie $f^*(x,y,\lambda) = f(x,y) - \lambda g(x,y)$ te beschouwen. De punten $(x,y)$ waar $f$ mogelijk een extremum bereikt, zijn de projecties op het $xy$-vlak van de stationaire punten $(\frac{\partial f^*}{\partial x}, \frac{\partial f^*}{\partial y}, \frac{\partial f^*}{\partial \lambda}) = (0,0,0)$. Dit stelsel is :
$$
\begin{cases}
\frac{\partial f^*}{\partial x}(x,y,\lambda) = 0 \\
\frac{\partial f^*}{\partial y}(x,y,\lambda) = 0 \\
\frac{\partial f^*}{\partial \lambda}(x,y,\lambda) = 0
\end{cases}
$$ .
#### 7.2.2 Vergelijking met Lagrange-multiplicatoren in $\mathbb{R}^n$
**Stelling 9.2.8 (Noodzakelijke voorwaarde voor een extremum met nevenvoorwaarden in $\mathbb{R}^n$)** .
Zij $f : \mathbb{R}^n \to \mathbb{R}$ en $g : \mathbb{R}^n \to \mathbb{R}$ continu differentieerbaar over een open bal met middelpunt $\vec{a} \in \mathbb{R}^n$. Veronderstel dat $\nabla g(\vec{a}) \neq \vec{0}$. Als $f$ een extremum onder de nevenvoorwaarde $g(\vec{x})=0$ bereikt in $\vec{a}$, dan bestaat er een getal $\lambda \in \mathbb{R}$ zodanig dat:
$$ \nabla f(\vec{a}) = \lambda \nabla g(\vec{a}) $$ .
Om extrema te vinden, zoeken we punten $\vec{x} \in \mathbb{R}^n$ die voldoen aan:
$$
\begin{cases}
g(\vec{x}) = 0 \\
\exists \lambda \in \mathbb{R} : \nabla f(\vec{x}) = \lambda \nabla g(\vec{x})
\end{cases}
$$ .
Net als in het tweedimensionale geval, kan de hulpfunctie $f^*(\vec{x}, \lambda) = f(\vec{x}) - \lambda g(\vec{x})$ worden gebruikt. De oplossing bestaat uit het vinden van stationaire punten van $f^*$ .
$$
\begin{cases}
\frac{\partial f^*}{\partial x_1}(\vec{x},\lambda) = 0 \\
\vdots \\
\frac{\partial f^*}{\partial x_n}(\vec{x},\lambda) = 0 \\
\frac{\partial f^*}{\partial \lambda}(\vec{x},\lambda) = 0
\end{cases}
$$ .
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Implicatie | Een logische verbinding tussen twee proposities P en Q, genoteerd als P ⇒ Q, die waar is tenzij P waar is en Q onwaar is. |
| Kwantor | Een symbool dat aangeeft over welke elementen van een verzameling een uitspraak gaat, zoals de universele kwantor (∀ voor alle) en de existentiële kwantor (∃ er bestaat). |
| Verzameling | Een collectie van welomschreven objecten, die de elementen van de verzameling worden genoemd. |
| Deelverzameling | Een verzameling A is een deelverzameling van B indien elk element van A ook een element van B is. Genoteerd als A ⊆ B. |
| Unie | De vereniging van twee verzamelingen A en B, genoteerd als A ∪ B, is de verzameling van alle elementen die tot A of tot B behoren. |
| Doorsnede | De doorsnede van twee verzamelingen A en B, genoteerd als A ∩ B, is de verzameling van alle elementen die tot zowel A als B behoren. |
| Supremum | De kleinste bovengrens van een niet-lege, naar boven begrensde verzameling A ⊆ R. Genoteerd als sup A. |
| Infimum | De grootste ondergrens van een niet-lege, naar onder begrensde verzameling A ⊆ R. Genoteerd als inf A. |
| Rij | Een geordende lijst van getallen, genoteerd als (xn)n∈N+ = (x1, x2, x3, ...). |
| Convergente rij | Een rij (xn) die een limiet ℓ ∈ R heeft, zodanig dat voor elke ε > 0 er een N ∈ N+ bestaat zodat |xn - ℓ| < ε voor alle n > N. |
| Limiet van een functie | Voor een functie f : Rn → R en een punt ⃗a ∈ Rn, is b ∈ R de limiet als voor elke ε > 0 er een δ > 0 bestaat zodat |f(⃗x) - b| < ε voor alle ⃗x in het domein met 0 < ∥⃗x - ⃗a∥ < δ. |
| Continuïteit | Een functie f is continu in een punt ⃗a indien de limiet van f in ⃗a gelijk is aan de functiewaarde in ⃗a, d.w.z. lim⃗x→⃗a f(⃗x) = f(⃗a). |
| Afgeleide | De limiet van het differentiequotiënt van een functie f in een punt a, genoteerd als f'(a) = limh→0 (f(a+h) - f(a))/h. |
| Partiële afgeleide | De afgeleide van een functie van meerdere variabelen met betrekking tot één variabele, terwijl de andere variabelen constant worden gehouden. Genoteerd als ∂f/∂xi. |
| Gradiënt | Een vector van de partiële afgeleiden van een functie van meerdere variabelen, genoteerd als ∇f. Geeft de richting van de grootste stijging van de functie aan. |
| Raaklijn | De lijn die de grafiek van een functie in een punt het beste benadert. De richtingscoëfficiënt van de raaklijn is gelijk aan de afgeleide in dat punt. |
| Raakvlak | Het vlak dat de grafiek van een functie van twee veranderlijken in een punt het beste benadert. |
| Integraal | De Riemannintegraal is de limiet van de Riemannsommen en vertegenwoordigt de oppervlakte onder de grafiek van een functie. Genoteerd als ∫ b a f(x) dx. |
| Oneigenlijke integraal | Een integraal waarbij de integratiegrenzen oneindig zijn of waarbij de integrand onbegrensd is in het integratie-interval. |
| Gammafunctie | Een functie gedefinieerd door de integraal Γ(p) = ∫+∞0 xp-1e-x dx voor p > 0. Het is een veralgemening van de faculteit. |
| Hessiaanse matrix | De matrix van de tweede orde partiële afgeleiden van een functie van meerdere veranderlijken. Wordt gebruikt bij het classificeren van extreme waarden. |
| Impliciete functie | Een functie die niet expliciet is gedefinieerd, maar die voldoet aan een vergelijking die meerdere variabelen betrekt. |
| Lagrange-multiplicatoren | Een methode om extreme waarden van een functie te vinden onder nevenvoorwaarden, door gebruik te maken van een extra variabele (de Lagrange-multiplicator) die de gradiënten van de functies aan elkaar koppelt. |
Cover
syllaCALC25.pdf
Summary
# Reëel-analytische functies en hun uitbreiding naar het complexe vlak
### Core idea
* Vrije vectoren zijn equipollente puntenkoppels zonder vaste positie, gekenmerkt door richting, zin en norm [13](#page=13).
* De verzameling van vrije vectoren V vormt een driedimensionale lineaire ruimte over de reële getallen [18](#page=18) [20](#page=20).
* Elk stel van drie lineair onafhankelijke vectoren vormt een basis voor V [20](#page=20).
### Key facts
* Equipollente puntenkoppels (P,Q) en (P',Q') definiëren dezelfde vrije vector als P, Q, Q', P' de hoekpunten van een parallellogram vormen [13](#page=13).
* De nulvector is de enige vector zonder richting of zin en wordt bepaald door identieke punten [14](#page=14).
* De norm van een vector ∥⃗v∥ is de afstand tussen twee punten die een representant van ⃗v bepalen [14](#page=14).
* Een eenheidsvector heeft een norm van 1 [14](#page=14).
* Translatie T⃗u(P) = P' betekent dat ⃗u = ⃗PP' [15](#page=15).
* Vectoroptelling correspondeert met de samenstelling van translaties [15](#page=15).
* V is een commutatieve groep onder vectoroptelling [15](#page=15).
* s⃗v is een vector parallel aan ⃗v, met dezelfde zin als s > 0, tegengestelde zin als s < 0, en norm |s|∥⃗v∥ [16](#page=16).
* De verhouding van twee parallelle vectoren ⃗v en ⃗w, met ⃗w ̸= ⃗0, is het reële getal s zodat ⃗v = s⃗w [16](#page=16).
* Thales' stelling stelt dat de verhouding van parallelle vectoren behouden blijft onder parallelle projectie [17](#page=17).
* Een stel vectoren is lineair afhankelijk als een niet-triviale lineaire combinatie nul oplevert [18](#page=18).
* Een vector is een lineaire combinatie als deze als som van geschaalde vectoren kan worden uitgedrukt [18](#page=18).
* Een deelruimte van V is een lineaire ruimte op zich binnen V [18](#page=18).
* Een basis van een deelruimte W is een lineair onafhankelijk en voortbrengend stel vectoren voor W [18](#page=18).
* De dimensie van een vectorruimte is het aantal elementen in een basis [18](#page=18).
* De ruimte Va van vectoren parallel aan een rechte a is ééndimensionaal [19](#page=19).
* De ruimte Vα van vectoren parallel aan een vlak α is tweedimensionaal [20](#page=20).
* Elk stel van minstens vier vrije vectoren is lineair afhankelijk [21](#page=21).
* Een geordende basis laat toe om elke vector te identificeren met een unieke rij- of kolommatrix van zijn kentallen [21](#page=21).
* Een kentallentransformatie bij basiswissel kan worden geïdentificeerd met een matrix [21](#page=21).
### Key concepts
* **Vrije vectoren**: Gekenmerkt door richting, zin en norm, zonder vaste positie [14](#page=14).
* **Lineaire ruimte**: Een verzameling met optelling en scalaire vermenigvuldiging die bepaalde axioma's voldoet [16](#page=16).
### Implications
---
## Fundamentele eigenschappen van reële getallen
### Algebraïsche eigenschappen
* Reële getallen (R) hebben twee bewerkingen: optelling (+) en vermenigvuldiging (.) [35](#page=35).
* Deze bewerkingen voldoen aan veldaxioma's R1-R9: commutativiteit, associativiteit, bestaan van nul/eenheidselementen, en inverse elementen voor optelling/vermenigvuldiging (m.u.v. 0) [35](#page=35) [36](#page=36).
* Aftrekking: $a - b:= a + (-b)$ [36](#page=36).
* Deling: $a/b:= a \cdot (1/b)$ voor $b \neq 0$ [36](#page=36).
* Machten: $a^1 = a$, $a^{n+1} = a^n \cdot a$, en $a^0 = 1$ (voor $a \neq 0$). Negatieve machten: $a^{-n} = 1/a^n$ [36](#page=36).
### Orde-eigenschappen
* Orde-axioma R10: een unieke positieve deelverzameling P met geslotenheid onder optelling en vermenigvuldiging [36](#page=36).
* Definities: $a > 0$ (positief), $a < 0$ (negatief), $a > b$ (a groter dan b), $a \geq b$ (a groter dan of gelijk aan b) [36](#page=36).
* Stelling 2.2.1: Als $0 \leq a < \epsilon$ voor elke $\epsilon > 0$, dan is $a = 0$ [36](#page=36).
* Absolute waarde: $|a| = a$ (als $a>0$), $0$ (als $a=0$), $-a$ (als $a<0$). Altijd $|a| \geq 0$ [37](#page=37).
* Eigenschappen absolute waarde:
* $|ab| = |a||b|$ [37](#page=37).
* $|a|^2 = a^2$ [37](#page=37).
* $|a| \leq c \Leftrightarrow -c \leq a \leq c$ [37](#page=37).
* $-|a| \leq a \leq |a|$ [37](#page=37).
* Driehoeksongelijkheid: $|a+b| \leq |a| + |b|$ [37](#page=37).
* Gevolg 2.2.4: $||a| - |b|| \leq |a - b|$ en $|a - b| \leq |a| + |b|$ [37](#page=37).
* Gevolg 2.2.5: $|a_1 + \dots + a_n| \leq |a_1| + \dots + |a_n|$ [37](#page=37).
### Het compleet geordend veld
* Reële getallen vormen een compleet geordend veld [39](#page=39).
* Definitie 2.3.1: $\epsilon$-omgeving van $a$: $\{x \in R: |x-a| < \epsilon\} = ]a-\epsilon, a+\epsilon[$ [38](#page=38).
* Begrensdheid: een verzameling $S \subset R$ is naar boven begrensd als er een bovengrens $b$ bestaat ($s \leq b$ voor alle $s \in S$) [38](#page=38).
* Supremum: de kleinste bovengrens van een niet-ledige, naar boven begrensde verzameling [38](#page=38).
* Infimum: de grootste benedengrens van een niet-ledige, naar beneden begrensde verzameling [38](#page=38).
* Volledigheidsaxioma (R11): Elke niet-ledige verzameling reële getallen die naar boven begrensd is, heeft een supremum [39](#page=39).
* Eigenschap 2.3.1: $\sup(a+S) = a + \sup S$ [39](#page=39).
* Eigenschap 2.3.2: Als $a \leq b$ voor alle $a \in A, b \in B$, dan $\sup A \leq \inf B$ [39](#page=39).
### Archimedisch karakter en intervallen
---
## Limieten en continuïteit
### Kernconcepten
* Een reële functie associeert met elke input uit het domein een unieke reële output [43](#page=43).
* Het beeld van een deelverzameling $A$ van het domein is $f(A) = \{f(x): x \in A\}$ [43](#page=43).
* Het inverse beeld van een deelverzameling $B$ van het codomein is $f^{-1}(B) = \{x \in \text{dom } f: f(x) \in B\}$ [44](#page=44).
* Een functie is begrensd op $A$ als er een $r \in \mathbb{R}$ bestaat zodat $|f(x)| \le r$ voor alle $x \in A$ [44](#page=44).
* Een punt $c$ is een ophopingspunt van $A$ als elke $\delta$-omgeving van $c$ een ander punt van $A$ bevat [45](#page=45).
* De limiet $\lim_{x \to c} f(x) = L$ betekent dat voor elke $\varepsilon > 0$ er een $\delta(\varepsilon) > 0$ bestaat zodat $|f(x) - L| < \varepsilon$ voor $x \in A$ met $0 < |x - c| < \delta(\varepsilon)$ [46](#page=46).
### Kernfeiten
* Gebruikte bewerkingen op functies: lineaire combinatie, product, quotiënt, samenstelling [45](#page=45).
* Een ophopingspunt $c$ van $A$ garandeert de existentie van een rij $(a_n) \subset A \setminus \{c\}$ die convergeert naar $c$ [45](#page=45).
* Een functie kan hoogstens één limiet hebben in een punt [46](#page=46).
* $\lim_{x \to c} f(x) = L$ indien voor elke rij $(x_n) \subset A \setminus \{c\}$ met $x_n \to c$, geldt dat $f(x_n) \to L$ [47](#page=47).
* Indien $\lim_{x \to c} f(x) = L$, dan is $f$ begrensd in een omgeving van $c$ [47](#page=47).
* Limietstellingen voor som, product en quotiënt van functies [48](#page=48).
* De sandwichstelling (insluitstelling) voor limieten [48](#page=48).
* Rechter- en linkerlimieten bestaan indien de limiet bestaat, en omgekeerd [50](#page=50).
* Uitbreidingen van het limietbegrip voor limieten naar $\pm \infty$ en functiewaarden naar $\pm \infty$ [51](#page=51).
### Continue functies
* Een functie $f$ is continu in $c \in A$ als voor elke $\varepsilon > 0$ er een $\delta(\varepsilon) > 0$ bestaat zodat $|f(x) - f(c)| < \varepsilon$ voor $x \in A$ met $|x - c| < \delta(\varepsilon)$ [52](#page=52).
* Continuïteit kan worden uitgebreid naar gesloten intervallen, wat leidt tot belangrijke stellingen [54](#page=54).
* Som, product, quotiënt en samenstelling van continue functies zijn eveneens continu (op hun domein) [53](#page=53).
* Veeltermfuncties, rationale functies en goniometrische functies zijn standaardvoorbeelden van continue functies [54](#page=54).
### Continuïteit op gesloten intervallen
* Een continue functie op een gesloten interval $[a,b]$ is begrensd [54](#page=54).
* **Weierstraß stelling:** Een continue functie op $[a,b]$ bereikt zijn maximum en minimum op dat interval [54](#page=54).
* **Bolzano I:** Een continue functie op $[a,b]$ die van teken wisselt op de grenzen, heeft een nulpunt in $]a,b[$ [55](#page=55).
* **Bolzano II:** Een continue functie op $[a,b]$ neemt elke waarde tussen $f(a)$ en $f(b)$ aan [55](#page=55).
* Het beeld van een continuüm op een gesloten interval is een gesloten begrensd interval [55](#page=55).
---
## Afleidbaarheid van functies in een interval en gerelateerde stellingen
* Afleidbaarheid in een interval is de eigenschap dat een functie in elk punt van dat interval afleidbaar is [65](#page=65).
* De afgeleide functie kent de functie toe die aan elke $x$ de waarde $f'(x)$ toekent [65](#page=65).
* De middelwaardestelling is cruciaal voor het verband tussen de afgeleide en het stijgend/dalend karakter van een functie, en voor de formule van Taylor [67](#page=67).
* Als $f$ afleidbaar is in $]a,b[$, dan is $f$ continu in $]a,b[$ [65](#page=65).
* Lineaire combinaties, producten en quotiënten (mits noemer niet nul) van afleidbare functies zijn ook afleidbaar [65](#page=65).
* De kettingregel stelt dat $D(g \circ f) = (Dg \circ f)D f$ als $f$ afleidbaar is in $]a,b[$ en $g$ in $f(]a,b[)$ [66](#page=66).
* Als $f$ continu is op $[a,b]$ en $f'(x)=0$ voor alle $x \in ]a,b[$, dan is $f$ constant op $[a,b]$ [68](#page=68).
* Als $f$ en $g$ continu zijn op $[a,b]$, afleidbaar in $]a,b[$ en $f'(x)=g'(x)$, dan is $f = g + C$ [68](#page=68).
### Belangrijke stellingen
* **Rolle's stelling:** Als $f$ continu op $[a,b]$, afleidbaar in $]a,b[$ en $f(a)=f(b)=0$, dan bestaat er $c \in ]a,b[$ met $f'(c)=0$ [67](#page=67).
* **Middelwaardestelling:** Als $f$ continu op $[a,b]$ en afleidbaar in $]a,b[$, dan bestaat er $c \in ]a,b[$ waarvoor $f(b)-f(a) = f'(c)(b-a)$ [68](#page=68).
* **Criterium voor stijgend/dalend:** $f$ is stijgend $\iff f'(x) \ge 0$; $f$ is dalend $\iff f'(x) \le 0$ [68](#page=68).
* **Extrema-test:** Als $f$ een relatief extremum heeft in inwendig punt $c$ en $f$ is afleidbaar in $c$, dan $f'(c)=0$ [67](#page=67).
### Implicaties
* Als $f'(x) > 0$ op $[a,b]$, dan is $f$ strikt stijgend op $[a,b]$ (omgekeerde is niet altijd waar) [68](#page=68).
* De afgeleide functie $f'$ van een afleidbare functie is niet noodzakelijk continu [66](#page=66).
* L'Hôpital's regels bieden een methode voor het berekenen van limieten van onbepaalde vormen $\frac{0}{0}$ of $\frac{\infty}{\infty}$ [69](#page=69).
- > **Tip:** De afgeleide van een functie in een punt is de richtingscoëfficiënt van de raaklijn aan de grafiek in dat punt [65](#page=65)
- > **Tip:** Een horizontale raaklijn impliceert niet altijd een extremum, denk aan $f(x)=x^3$ in $x=0$ [67](#page=67)
---
## Reële en complexe rijen en convergentie
### Kernconcepten numerieke rijen
* Een numerieke rij is een functie gedefinieerd op N met waarden in R of C, genoteerd als $(a_n)_{n \in \mathbb{N}}$ [99](#page=99).
* Rijen kunnen expliciet gedefinieerd worden door een formule voor de algemene term of recursief [99](#page=99).
* Convergentie van een rij $(a_n)$ naar $\alpha$ betekent dat voor elke $\epsilon > 0$ er een $N(\epsilon) \in \mathbb{N}$ bestaat zodanig dat $|a_n - \alpha| < \epsilon$ voor alle $n \geq N(\epsilon)$ [100](#page=100).
* De limiet van een convergente rij is uniek [100](#page=100).
### Standaard numerieke rijen
* De rij $1/n$ convergeert naar 0 [100](#page=100).
* De rij $z^n$ convergeert naar 0 indien $|z| < 1$ [100](#page=100).
* De rij $x^{1/n}$ convergeert naar 1 voor $x > 0$ .
* De rij $n^{1/n}$ convergeert naar 1 .
### Stellingen over limieten van rijen
* Als $(a_n) \to \alpha$ en $(b_n) \to \beta$, dan convergeert $(\lambda a_n + \mu b_n) \to \lambda \alpha + \mu \beta$ .
* Als $(a_n) \to \alpha$ en $(b_n) \to \beta$, dan convergeert $(a_n b_n) \to \alpha \beta$ .
* Als $(a_n) \to \alpha$ en $(c_n) \to \gamma$ met $c_n \neq 0$ en $\gamma \neq 0$, dan convergeert $(a_n/c_n) \to \alpha/\gamma$ .
* Als $(a_n) \to \alpha$, dan convergeert $(|a_n|) \to |\alpha|$ .
### Rijen van reële getallen
* Een convergente rij van reële getallen is begrensd .
* Een stijgende (of dalende) en naar boven (of beneden) begrensde rij van reële getallen is convergent .
* De rij $a_n = 1 + 1/2 + \dots + 1/n$ divergeert .
* De rij $a_n = (1 + 1/n)^n$ convergeert naar $e$ .
* Voor een begrensde rij $(a_n)$, de limes superior is $\limsup(a_n):= \lim(\sup\{a_k: k \geq n\})$ .
* Voor een begrensde rij $(a_n)$, de limes inferior is $\liminf(a_n):= \lim(\inf\{a_k: k \geq n\})$ .
---
## Functierijen en -reeksen
### Functierijen
* Een functierij $(f_n)$ in een verzameling A associeert met elk natuurlijk getal n een functie $f_n: A \to \mathbb{R}$ of $f_n: A \to \mathbb{C}$ .
* Een functierij $(f_n)$ convergeert puntsgewijs in A als de numerieke rij $(f_n(x))$ voor elk punt $x \in A$ convergeert .
* De limietfunctie $f(x):= \lim_{n \to \infty} f_n(x)$ wordt gedefinieerd door de limiet van de functiewaarden te nemen voor elk $x \in A$ .
* Voorbeeld: $f_n(x) = x^n$ convergeert puntsgewijs in $]-1, 1]$ naar $f(x) = 0$ voor $x \in ]-1, 1[$ en $f = 1$ [1](#page=1).
* Voorbeeld: $g_n(x) = \frac{1}{n} \sin(nx + n)$ convergeert puntsgewijs naar 0 voor alle $x \in \mathbb{R}$ .
### Uniforme convergentie
* Uniforme convergentie betekent dat er voor elke $\epsilon > 0$ een $N(\epsilon)$ bestaat, onafhankelijk van $x$, zodanig dat $|f_n(x) - f(x)| < \epsilon$ voor $n > N(\epsilon)$ .
* Notatie: $(f_n) \xrightarrow{u}_{A} f$ .
* Uniforme convergentie impliceert puntsgewijze convergentie, maar niet omgekeerd .
* Voorwaarde voor uniforme convergentie: voor elke $\epsilon > 0$ bestaat er een $N(\epsilon)$ zodanig dat $\sup_{x \in A} |f_m(x) - f_n(x)| < \epsilon$ voor $m, n > N(\epsilon)$ .
### Continuïteit van de limietfunctie
* Als $(f_n)$ uniform op A convergeert naar f en alle $f_n$ continu zijn op A, dan is f continu op A .
* Puntsgewijze convergentie garandeert continuïteit van de limietfunctie niet .
### Integreerbaarheid van de limietfunctie
* Als $(f_n)$ uniform op $[a,b]$ convergeert naar f en alle $f_n$ integreerbaar zijn op $[a,b]$, dan is f integreerbaar en geldt $\int_a^b f = \lim_{n \to \infty} \int_a^b f_n$ .
* Een zwakkere voorwaarde voor integreerbaarheid van de limietfunctie is puntsgewijze convergentie en uniforme begrensdheid van de functies .
### Afleidbaarheid van de limietfunctie
* Uniforme convergentie van $(f_n)$ is niet voldoende voor afleidbaarheid van de limietfunctie .
* Als $(f_n)$ puntsgewijs convergeert naar f, $f'_n$ continu is op $[a,b]$, en $(f'_n)$ uniform convergeert naar g op $[a,b]$, dan is f afleidbaar met $f' = g$ .
### Functiereeksen
* Een functiereeks $\sum f_n$ convergeert puntsgewijs naar f als de rij van partieelsommen $(s_n)$ puntsgewijs naar f convergeert, waarbij $s_n(x) = \sum_{j=1}^n f_j(x)$ .
* Een functiereeks $\sum f_n$ convergeert uniform naar f als de rij van partieelsommen $(s_n)$ uniform naar f convergeert .
* Uniforme convergentie van een functiereeks impliceert puntsgewijze convergentie .
* Absolute convergentie $\sum |f_n|$ impliceert convergentie, maar niet omgekeerd .
* Stelling 8.6.1 (Continuïteit): Als $\sum f_n$ uniform op A convergeert en $f_n$ continu zijn, dan is de reekssomfunctie continu .
* Stelling 8.6.2 (Integreerbaarheid): Als $\sum f_n$ uniform op $[a,b]$ convergeert en $f_n$ integreerbaar zijn, dan is de reekssomfunctie integreerbaar en $\int_a^b f = \sum \int_a^b f_n$ .
* Stelling 8.6.3 (Afleidbaarheid): Als $\sum f_n$ puntsgewijs convergeert, $f'_n$ continu zijn, en $\sum f'_n$ uniform convergeert naar g, dan is de reekssomfunctie f afleidbaar met $f' = g$ .
* M-test van Weierstraß: Als $\sup_{x \in A} |f_n(x)| \le M_n$ en $\sum M_n$ convergeert, dan convergeert $\sum f_n$ uniform op A .
### Positieve machtenreeksen
* Een positieve machtenreeks (PMR) heeft de vorm $\sum_{n=0}^\infty a_n (z - z_0)^n$ .
* Convergentiestraal R wordt bepaald door $R = 1 / \limsup_{n \to \infty} (|a_n|^{1/n})$ .
---
## Negatieve machtenreeksen
- Negatieve machtenreeksen (NMR) zijn reeksen van de vorm $\sum_{n=1}^{\infty} \frac{b_n}{(z-z_0)^n}$ .
- De straal van convergentie $\rho$ voor een NMR wordt bepaald door $\rho = \limsup_{n\to\infty} |b_n|^{1/n}$ .
- Als $|b_n|^{1/n}$ onbegrensd is, stelt men $\rho = +\infty$ (symbolisch) .
- Een NMR $\sum_{n=1}^{\infty} \frac{b_n}{(z-z_0)^n}$ convergeert absoluut in $\{z \in \mathbb{C}: |z-z_0| > \rho\}$ .
- De NMR convergeert uniform op elk gesloten en begrensd deel van dit gebied .
- De somfunctie van een NMR is holomorf in het convergentiegebied $\{z \in \mathbb{C}: |z-z_0| > \rho\}$ .
### Singulariteiten
- Een functie $f(z)$ heeft een singulariteit in $z_0$ als ze in $0 < |z-z_0| < R$ de som is van een holomorfe functie en een NMR in $(z-z_0)$ .
- Als de NMR afbreekt (eindig aantal termen), is de singulariteit een pool .
- Anders is de singulariteit een essentiële singulariteit .
### Voorbeelden en toepassingen
- $e^{-1/z^2}$ heeft een essentiële singulariteit in $z=0$, met de NMR $\sum_{n=1}^{\infty} \frac{(-1)^n}{n! z^{2n}}$ en $\rho = 0$ .
- $\frac{1}{z-1}$ heeft een pool in $z=1$, als afgebroken NMR met $\rho = 0$ .
- $\frac{1}{z^2+1}$ heeft polen in $z=i$ en $z=-i$ .
- Een rationale functie $P_m(z)/Q_n(z)$ heeft polen in de nulpunten van $Q_n(z)$ .
- De multipliciteit van een pool is de graad van de corresponderende factor in de noemer .
- > **Tip:** Negatieve machtenreeksen beschrijven het gedrag van functies "ver weg" van een punt, analoog aan hoe positieve machtenreeksen het gedrag "dichtbij" beschrijven
- > **Voorbeeld:** De functie $f(z) = \frac{1}{z}$ kan beschouwd worden als een afgebroken NMR in $1/z$ rond $z_0=0$, met $\rho=0$, die een pool in $z=0$ indiceert
---
### De n-dimensionale reële ruimte Rn
#### Kernconcepten Rn als lineaire ruimte
* Rn is de verzameling van geordende n-tallen (x₁, x₂,..., xn), met xk ∈ R .
* Elementen van Rn kunnen worden opgeteld en vermenigvuldigd met een reëel getal, wat Rn tot een lineaire ruimte maakt .
* Rn is een n-dimensionale lineaire ruimte met een standaardbasis bestaande uit n elementen .
* Een lineaire combinatie van vectoren v₁,..., vm is een uitdrukking t₁v₁ +... + tmvm, met ti ∈ R .
#### Kernconcepten Rn als genormeerde ruimte
* Het scalair product van vectoren x en y in Rn is gedefinieerd als x · y = ∑(xk * yk) .
* De norm van een vector x is ||x|| = √(x · x) = √(∑(xk²)) .
* De norm voldoet aan de driehoeksongelijkheid: ||x + y|| ≤ ||x|| + ||y|| .
* Twee vectoren met scalair product nul zijn orthogonaal .
* Een orthonormale basis in Rn is een set van n onderling orthogonale en genormeerde vectoren .
#### Kernconcepten Topologische begrippen in Rn
* De afstand tussen twee punten x en y in Rn is d(x,y) = ||x - y|| .
* Een ε-omgeving van punt a is de verzameling B(a;ε) = {x ∈ Rn | ||x - a|| < ε} .
* Een verzameling S ⊂ Rn is open als elk punt in S een inwendig punt is .
* Een verzameling S ⊂ Rn is gesloten als haar complement in Rn open is .
* Een verzameling S ⊂ Rn is compact als ze gesloten en begrensd is .
### Rijen in Rn
#### Kernconcepten Rijen en convergentie
* Een rij in Rn is een functie N → Rn .
* Een rij (am) convergeert naar α als voor elke ε > 0, er een N(ε) bestaat zodanig dat ||am - α|| < ε voor m ≥ N(ε) .
* Een rij (am) convergeert naar α als en slechts dan als elke component rik convergeert naar de overeenkomstige component van α .
* Een rij in Rn is convergent als en slechts dan als het een Cauchy-rij is .
* Elke begrensde rij in Rn bezit een convergente deelrij (Bolzano-Weierstrass) .
### Limieten en continuïteit
#### Kernconcepten Limieten
* Een punt a is een ophopingspunt van S als elke δ-omgeving van a ten minste één punt van S, verschillend van a, bevat .
- lim(x→a) f(x) = L indien voor elke ε > 0, er een δ(ε) > 0 bestaat zodat 0 < ||x - a|| < δ(ε) ⇒ |f(x) - L| < ε
* De limiet van een functie in een punt is onafhankelijk van de naderingsrichting .
* Limieten van scalaire functies voldoen aan eigenschappen voor optelling, vermenigvuldiging en deling (indien de noemerlimiet niet nul is) .
* De limiet van f(x,y) = x²y² / (x² + y²) als (x,y) → (0,0) is 0 .
* De limiet van g(x,y) = xy / (x² + y²) als (x,y) → (0,0) bestaat niet .
#### Kernconcepten Continuïteit
### Uitbreiding tot vectorfuncties
#### Kernconcepten Vectorfuncties
---
## Differentieerbaarheid van scalaire functies van meerdere variabelen
### Partiële en richtingsafgeleiden
* De richtingsafgeleide van $f: \mathbb{R}^n \to \mathbb{R}$ in $\vec{a}$ volgens eenheidsvector $\vec{u}$ is $\frac{\partial f}{\partial \vec{u}}(\vec{a}) = \lim_{h \to 0} \frac{f(\vec{a} + h\vec{u}) - f(\vec{a})}{h}$ .
* De partiële afgeleide naar de $k$-de variabele in $\vec{a}$ is de richtingsafgeleide langs $\vec{e}_k$: $D_k f(\vec{a}) = \frac{\partial f}{\partial x_k}(\vec{a})$ .
* Dit is equivalent aan het nemen van de gewone afgeleide van $f$ naar $x_k$ met andere variabelen vast: $D_k f(\vec{a}) = \frac{d}{dx_k} f(a_1, \dots, x_k, \dots, a_n) \Big|_{x_k=a_k}$ .
* De gradiënt van $f$ in $\vec{a}$ is de vector van alle partiële afgeleiden: $\nabla f(\vec{a}) = (D_1 f(\vec{a}), \dots, D_n f(\vec{a}))$ .
* Partiële afgeleiden worden berekend door alle variabelen behalve één vast te houden .
* Het bestaan van partiële afgeleiden impliceert niet noodzakelijk continuïteit .
### Differentieerbare functies
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ is differentieerbaar in $\vec{a}$ indien er een $\vec{A} \in \mathbb{R}^n$ en $\lambda: \mathbb{R}^n \to \mathbb{R}$ met $\lim_{\vec{x} \to \vec{a}} \lambda(\vec{x}) = 0$ bestaat zodat $f(\vec{x}) - f(\vec{a}) = (\vec{x} - \vec{a}) \cdot \vec{A} + \lambda(\vec{x}) \|\vec{x} - \vec{a}\|$ .
* Als $f$ differentieerbaar is in $\vec{a}$, dan is $f$ continu in $\vec{a}$ .
* Als $f$ differentieerbaar is in $\vec{a}$, dan is $\vec{A} = \nabla f(\vec{a})$ .
* Als $f$ differentieerbaar is in $\vec{a}$, dan is de richtingsafgeleide $\frac{\partial f}{\partial \vec{u}}(\vec{a}) = \nabla f(\vec{a}) \cdot \vec{u}$ .
* Als alle partiële afgeleiden van $f$ bestaan in een omgeving van $\vec{a}$ en continu zijn in $\vec{a}$, dan is $f$ differentieerbaar in $\vec{a}$ .
* $f \in C^1(\Omega)$ betekent dat $f$ continu differentieerbaar is in de open verzameling $\Omega$ .
### Hogere-orde afgeleiden
* Partiële afgeleiden van de tweede orde zijn $D_j(D_k f) = \frac{\partial^2 f}{\partial x_j \partial x_k}$ .
* $f \in C^p(\Omega)$ betekent dat $f$ $p$ maal continu differentieerbaar is in $\Omega$ .
* Stelling van Schwarz: Als $f \in C^2(\Omega)$, dan $D_{12} f = D_{21} f$ in $\Omega$ .
* Voor functies in $C^p(\Omega)$, is de volgorde van partiële afleidingen onbelangrijk.
### Formule van Taylor
* Met notatie $( \vec{h} \cdot \nabla )^k f$ voor een compacte uitdrukking van hogere-orde afgeleiden .
* Taylor's formule met restterm van de derde orde: $f(\vec{a} + \vec{h}) = f(\vec{a}) + (\vec{h} \cdot \nabla) f(\vec{a}) + \frac{1}{2!}(\vec{h} \cdot \nabla)^2 f(\vec{a}) + \frac{1}{3!}(\vec{h} \cdot \nabla)^3 f(\vec{a} + \theta\vec{h})$ .
* De restterm kan worden afgeschat: $\left| \frac{1}{3!}(\vec{h} \cdot \nabla)^3 f(\vec{a} + \theta\vec{h}) \right| \leq M \|\vec{h}\|^3$ .
---
## Extremumonderzoek
### Definities van extrema
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een **absoluut maximum** in $\vec{a}$ als $f(\vec{x}) \le f(\vec{a})$ voor alle $\vec{x}$ in het domein van $f$ .
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een **absoluut minimum** in $\vec{a}$ als $f(\vec{x}) \ge f(\vec{a})$ voor alle $\vec{x}$ in het domein van $f$ .
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een **lokaal maximum** in $\vec{a}$ als er een $\delta > 0$ bestaat zodanig dat $f(\vec{x}) \le f(\vec{a})$ voor alle $\vec{x}$ in de omgeving $B(\vec{a}; \delta)$ .
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een **lokaal minimum** in $\vec{a}$ als er een $\delta > 0$ bestaat zodanig dat $f(\vec{x}) \ge f(\vec{a})$ voor alle $\vec{x}$ in de omgeving $B(\vec{a}; \delta)$ .
* Een **extremum** verwijst naar zowel maxima als minima, absoluut of lokaal .
### Noodzakelijke voorwaarde voor extrema
* Als een differentieerbare functie $f: \mathbb{R}^n \to \mathbb{R}$ een lokaal extremum bereikt in een inwendig punt $\vec{a}$ van haar domein, dan is de gradiënt van $f$ in $\vec{a}$ de nulvector: $\nabla f(\vec{a}) = \vec{0}$ .
* **Kritische punten** van $f$ zijn inwendige punten van dom($f$) waar $f$ differentieerbaar is en $\nabla f = \vec{0}$ .
* Een **zadelpunt** is een kritisch punt $\vec{a}$ waar elke omgeving punten $\vec{x}$ bevat met $f(\vec{x}) < f(\vec{a})$ en andere punten $\vec{x}$ met $f(\vec{x}) > f(\vec{a})$ .
### Differentiële criteria voor extrema in open verzamelingen
* De **kwadratische vorm** geassocieerd met tweede-orde partiële afgeleiden van $f \in C^2(\Omega)$ is $\Phi(\vec{h}) = (\vec{h} \cdot \nabla)^2 f(\vec{a})$ .
* Als $f \in C^3(\Omega)$ en $\vec{a}$ is een kritisch punt met $\Phi(\vec{h}) < 0$ voor alle $\vec{h} \ne \vec{0}$, dan bereikt $f$ een lokaal maximum in $\vec{a}$ .
* Als $f \in C^3(\Omega)$ en $\vec{a}$ is een kritisch punt met $\Phi(\vec{h}) > 0$ voor alle $\vec{h} \ne \vec{0}$, dan bereikt $f$ een lokaal minimum in $\vec{a}$ .
* Als $f \in C^3(\Omega)$ en $\vec{a}$ is een kritisch punt waar $\Phi(\vec{h})$ zowel positieve als negatieve waarden aanneemt, dan is $\vec{a}$ een zadelpunt .
* De kwadratische vorm kan geassocieerd worden met een matrix $A$ (Hessiaan) .
* Als $A$ positief definiet is, is er een lokaal minimum .
* Als $A$ negatief definiet is, is er een lokaal maximum .
* Als $A$ indefiniet is, is er een zadelpunt .
* Als $A$ semi-definiet is, is er geen besluit mogelijk met deze test .
* Voor $n=2$, met de discriminant $\triangle = [D_{12}f]^2 - D_{11}f D_{22}f$ in een kritisch punt:
* Als $\triangle < 0$ en $D_{11}f > 0$: lokaal minimum .
* Als $\triangle < 0$ en $D_{11}f < 0$: lokaal maximum .
* Als $\triangle > 0$: zadelpunt .
* Als $\triangle = 0$: geen besluit mogelijk uit de stelling .
### Extremumonderzoek in niet-open verzamelingen
* Voor continue functies op compacte verzamelingen garandeert de stelling van Weierstrass het bestaan van absolute extrema .
* De aanpak omvat:
- 1
---
# Vectoren en vectorbewerkingen
### Kernidee
* Vrije vectoren zijn equipollente puntenkoppels, gekenmerkt door richting, zin en norm, niet door een vaste positie [13](#page=13) [14](#page=14).
* De verzameling van vrije vectoren vormt een lineaire ruimte over de reële getallen [16](#page=16) [18](#page=18).
### Belangrijke feiten
* Equipollente puntenkoppels definiëren dezelfde vrije vector [13](#page=13).
* Vrije vectoren hebben een richting, zin en norm, maar geen vaste positie [14](#page=14).
* De nulvector is de enige vector zonder richting en zin [14](#page=14).
* De norm van een vector is de afstand tussen twee punten die een representant bepalen [14](#page=14).
* Een eenheidsvector heeft een norm van 1 [14](#page=14).
* Translatie is een permutatie van de puntenruimte, gedefinieerd door een vector [15](#page=15).
* Vectoren zijn invariant onder translaties [15](#page=15).
* Vectoroptelling correspondeert met de samenstelling van translaties [15](#page=15).
* Scalaire vermenigvuldiging $s\vec{v}$ is parallel aan $\vec{v}$, heeft dezelfde zin bij $s > 0$, tegengestelde zin bij $s < 0$, en norm $|s| \cdot \|\vec{v}\|$ [16](#page=16).
* De verhouding van parallelle vectoren $\frac{\vec{v}}{\vec{w}}$ wordt gedefinieerd door $\vec{v} = s\vec{w}$ [16](#page=16).
* Parallelprojecties behouden equipollentie van puntenkoppels [17](#page=17).
* Drie lineair onafhankelijke vectoren vormen een basis voor de driedimensionale vectorruimte V [20](#page=20).
### Kernconcepten
* **Vector**: Een klasse van equipollente puntenkoppels, bepaald door richting, zin en norm [13](#page=13) [14](#page=14).
* **Norm (∥v∥)**: De lengte van een vector [14](#page=14).
* **Translatie (T⃗u)**: Een beweging van elk punt in de ruimte met vector ⃗u [15](#page=15).
* **Vectoroptelling (⃗v + ⃗w)**: De resulterende vector van twee op elkaar aansluitende representanten (P,Q) en (Q,R) is (P,R) [15](#page=15).
* **Scalaire vermenigvuldiging (s⃗v)**: Vermenigvuldiging van een vector met een reëel getal [16](#page=16).
* **Lineaire combinatie**: Een vector gevormd door de som van geschaalde vectoren: $\vec{v} = s_1\vec{v}_1 + \dots + s_n\vec{v}_n$ [18](#page=18).
* **Lineaire afhankelijkheid**: Een stel vectoren waarbij één vector een lineaire combinatie is van de anderen [18](#page=18).
* **Basis**: Een stel lineair onafhankelijke en voortbrengende vectoren voor een lineaire ruimte [18](#page=18).
* **Dimensie**: Het aantal elementen in een basis van een vectorruimte [18](#page=18).
### Implicaties
* Vectoren maken het mogelijk meetkundige objecten algebraïsch te beschrijven [13](#page=13).
* Vectorbewerkingen (optelling, scalair vermenigvuldigen) hebben eigenschappen die een lineaire ruimte vormen [15](#page=15) [16](#page=16).
---
# De ruimte V als driedimensionale vectorruimte
### Kernidee
* De ruimte V der vrije vectoren is een driedimensionale lineaire ruimte over R [20](#page=20).
* Elk stel van drie lineair onafhankelijke vectoren vormt een basis van V [20](#page=20).
### Sleutelbegrippen
* Een ééndimensionale deelruimte van V bestaat uit de nulvector en alle vectoren parallel met een gegeven rechte a [19](#page=19).
* Een tweedimensionale deelruimte van V bestaat uit de nulvector en alle vectoren parallel met een gegeven vlak α [20](#page=20).
* Twee vectoren in V zijn lineair onafhankelijk indien ze niet parallel zijn en beide verschillend van de nulvector [19](#page=19).
* Drie vectoren in V zijn lineair onafhankelijk indien ze niet parallel zijn met eenzelfde vlak en alle verschillend van de nulvector [20](#page=20).
* Vier of meer vrije vectoren zijn altijd lineair afhankelijk [21](#page=21).
* Een geordende basis (⃗e1, ⃗e2, ⃗e3) in V maakt dat de kentallen (s1, s2, s3) van een vector ⃗v uniek zijn [21](#page=21).
* Een vector ⃗v met kentallen (s1, s2, s3) kan worden geïdentificeerd met een kolommatrix s1s2s3 [21](#page=21).
* Een verandering van basis in V (kentallentransformatie) wordt gerepresenteerd door een (3×3)-matrix A, waarbij de j-de kolom de kentallen van de nieuwe basisvector ⃗e′j bevat t.o.v. de oude basis [21](#page=21).
* De relatie tussen oude en nieuwe kentallen is s = As′, waarbij s′ de nieuwe kentallen zijn [21](#page=21).
* Om de nieuwe kentallen uit te drukken in functie van de oude kentallen geldt s′ = Bs, met B = A⁻¹ [22](#page=22).
### Scalair product
* Twee vectoren ⃗v en ⃗w zijn orthogonaal (⃗v ⊥ ⃗w) als hun ingesloten hoek gelijk is aan π/2 [22](#page=22).
* Een stel van twee aan twee orthogonale vectoren is automatisch lineair onafhankelijk [22](#page=22).
* De loodlijn door P op een vlak α heeft een richtingsvector die orthogonaal is met alle vectoren in het vlak [22](#page=22).
* De orthogonale projectie op een vlak is een bijzondere parallelprojectie [23](#page=23).
* Het scalair product ⃗v ·⃗w is ∥⃗v∥∥⃗w∥cos(d⃗v,⃗w) voor niet-nul vectoren, en 0 als een van de vectoren de nulvector is [23](#page=23).
* ⃗v ·⃗w = 0 betekent dat ⃗v =⃗0, ⃗w =⃗0, of ⃗v ⊥ ⃗w [23](#page=23).
* Een orthonormale basis (⃗e1, ⃗e2, ⃗e3) bestaat uit basisvectoren die twee aan twee orthogonaal zijn en eenheidsvectoren [24](#page=24).
* Voor een orthonormale basis geldt ⃗v ·⃗w = v1w1 + v2w2 + v3w3, met (v1,v2,v3) en (w1,w2,w3) de kentallen van ⃗v en ⃗w [24](#page=24).
* De norm van een vector ⃗v met kentallen (v1,v2,v3) is ∥⃗v∥ = qv21 + v22 + v23 [24](#page=24).
* Richtingscosinussen cosα, cosβ, cosγ voor ⃗v t.o.v. de basis (⃗e1, ⃗e2, ⃗e3) voldoen aan cos²α + cos²β + cos²γ = 1 [25](#page=25).
### Vectorieel product
* Het vectorieel product ⃗v ×⃗w is ⃗0 indien ⃗v =⃗0, ⃗w =⃗0, of ⃗v en ⃗w parallel zijn [26](#page=26).
* Voor niet-parallelle vectoren geldt: ⃗v ×⃗w is orthogonaal op ⃗v en ⃗w, (⃗v,⃗w,⃗v ×⃗w) vormt een rechtshandige basis, en ∥⃗v ×⃗w∥ = ∥⃗v∥∥⃗w∥sin(d⃗v,⃗w) [26](#page=26).
* De norm ∥⃗v×⃗w∥ is gelijk aan de oppervlakte van het parallellogram opgespannen door ⃗v en ⃗w [26](#page=26).
### Gemengd product
---
## Het compleet geordend veld der reële getallen
### Belangrijke eigenschappen van supremum en infimum
* Een reëel getal $\xi$ is het supremum van een niet-ledige verzameling $S \subset \mathbb{R}$ als $s \le \xi$ voor alle $s \in S$, en voor elke $y < \xi$ er een $s \in S$ bestaat zodat $y < s$ [39](#page=39).
* Een bovengrens $\xi$ van een niet-ledige verzameling $S \subset \mathbb{R}$ is het supremum van $S$ als voor elke $\varepsilon > 0$ er een $s_\varepsilon \in S$ bestaat zodat $\xi - \varepsilon < s_\varepsilon$ [39](#page=39).
* Suprema en infima van een verzameling behoren niet noodzakelijk tot die verzameling (bv. $S_2 = \{x \in \mathbb{R}: 0 < x < 1\}$) [39](#page=39).
* Het volledigheidsaxioma (R11) stelt dat elke niet-ledige, naar boven begrensde verzameling reële getallen een supremum heeft [39](#page=39).
* Dit impliceert dat elke niet-ledige, naar beneden begrensde verzameling reële getallen een infimum heeft [39](#page=39).
* R is het compleet geordend veld der reële getallen; Q is geordend maar niet compleet [39](#page=39).
### Eigenschappen van bewerkingen met verzamelingen
* Voor een niet-ledige, naar boven begrensde verzameling $S \subset \mathbb{R}$ en $a \in \mathbb{R}$, geldt $\sup(a + S) = a + \sup S$ [39](#page=39).
* Als $A, B \subset \mathbb{R}$ niet-ledig zijn en $a \le b$ voor alle $a \in A, b \in B$, dan geldt $\sup A \le \inf B$ [39](#page=39).
* Voor $S \subset \mathbb{R}$ begrensd, $a > 0$, $b < 0$, en $aS = \{as : s \in S\}$:
* $\inf(aS) = a \inf S$ en $\sup(aS) = a \sup S$ [39](#page=39).
* $\inf(bS) = b \sup S$ en $\sup(bS) = b \inf S$ [39](#page=39).
* Voor begrensde niet-ledige verzamelingen $A, B \subset \mathbb{R}$ met $A+B = \{a+b: a \in A, b \in B\}$, geldt $\sup(A+B) = \sup A + \sup B$ en $\inf(A+B) = \inf A + \inf B$ [39](#page=39).
## Het archimedisch karakter van de reële getallen
### Stellingen en gevolgen
* R is archimedisch: voor elk $x \in \mathbb{R}$ bestaat er een $n \in \mathbb{N}$ zodat $n > x$ [40](#page=40).
* Het infimum van $\{ \frac{1}{n}: n \in \mathbb{N} \}$ is nul [40](#page=40).
* Voor elk $x > 0$ bestaat er een $n \in \mathbb{N}$ zodat $0 < \frac{1}{n} < x$ [40](#page=40).
* Voor elk $x > 0$ bestaat er een $n \in \mathbb{N}$ zodat $n-1 \le x < n$ [40](#page=40).
* Dichtheid van Q: voor $x < y$ bestaan er steeds een $r \in \mathbb{Q}$ zodat $x < r < y$ [40](#page=40).
* Dichtheid van irrationale getallen: voor $x < y$ bestaan er steeds een $z \in \mathbb{R} \setminus \mathbb{Q}$ zodat $x < z < y$ [40](#page=40).
## Intervallen
### Definitie en karakterisering
* Intervallen zijn deelverzamelingen van $\mathbb{R}$ zoals open $]a,b[$, gesloten $[a,b]$, en half-open $[a,b[$ of $]a,b]$ [40](#page=40).
* Onbegrensde intervallen omvatten $]a, \infty[$, $[a, \infty[$, $]-\infty, b[$, $]-\infty, b]$ en $]-\infty, \infty[$ [40](#page=40).
* Een verzameling $S$ is een interval als het minstens twee punten bevat en voor $x, y \in S$ met $x < y$, geldt $[x,y \subset S$ [41](#page=41).
* $\infty$ en $-\infty$ zijn geen reële getallen [40](#page=40).
### Geneste intervallen
* Een geneste rij intervallen $I_n$ voldoet aan $I_1 \supset I_2 \supset \dots$ [41](#page=41).
* Een geneste rij gesloten en begrensde intervallen heeft ten minste één gemeenschappelijk punt [41](#page=41).
* Een geneste rij gesloten en begrensde intervallen met infimum van lengtes nul heeft een uniek gemeenschappelijk punt [41](#page=41).
## Limieten en continuïteit
### Basisprincipes en bewerkingen met functies
### Limiet van functiewaarden
---
# Vector operations and properties
### Kernidee
* Het vectorieel product van twee vectoren resulteert in een vector die loodrecht staat op beide oorspronkelijke vectoren [27](#page=27).
* Het gemengd product van drie vectoren levert een scalair op en is gerelateerd aan het volume van een parallellepipedum [28](#page=28).
### Sleutelbegrippen
* **Vectorieel product:** ⃗v ×⃗w = ( v2w3 −v3w2)⃗e1 +(v3w1 −w3v1)⃗e2 +(v1w2 −v2w1)⃗e3 [27](#page=27).
* **Formele notatie vectorieel product:**
- $$ \vec{v} \times \vec{w} = \begin{vmatrix} \vec{e}_1 & v_1 & w_1 \\ \vec{e}_2 & v_2 & w_2 \\ \vec{e}_3 & v_3 & w_3 \end{vmatrix} $$ [27](#page=27)
* **Eigenschappen vectorieel product:**
* Anti-commutatief: ⃗u ×⃗v = −(⃗v ×⃗u) [27](#page=27).
* Distributief: ⃗u ×(⃗v +⃗w) = ⃗u ×⃗v + ⃗u ×⃗w [27](#page=27).
* Scalair veelvoud: (t⃗u) ×⃗v = ⃗u ×(t⃗v) = t(⃗u ×⃗v) [27](#page=27).
* **Lagrange-identiteit:** ∥⃗v ×⃗w∥² = ∥⃗v∥²∥⃗w∥² −(⃗v ·⃗w)² [27](#page=27).
* **Gemengd product:** (⃗u⃗v⃗w) = ⃗u ·(⃗v ×⃗w) [28](#page=28).
* **Coördinaatvoorstelling gemengd product:**
- $$ \vec{u} \cdot (\vec{v} \times \vec{w}) = \begin{vmatrix} u_1 & v_1 & w_1 \\ u_2 & v_2 & w_2 \\ u_3 & v_3 & w_3 \end{vmatrix} $$ [29](#page=29)
### Sleutelfeiten
* Het vectorieel product is nul als de vectoren parallel zijn of één van hen de nulvector is [27](#page=27).
* Het gemengd product is nul als de drie vectoren lineair afhankelijk zijn [28](#page=28).
* Het gemengd product is positief voor een rechtshandige basis en negatief voor een linkshandige basis [28](#page=28).
* De absolute waarde van het gemengd product is het volume van het parallellepipedum opgespannen door de drie vectoren [29](#page=29).
* Cyclische permutatie van vectoren in het gemengd product verandert de waarde niet: (⃗u⃗v⃗w) = (⃗v⃗w⃗u) = (⃗w⃗u⃗v) [29](#page=29).
* Verwisseling van twee vectoren in het gemengd product verandert het teken: (⃗u⃗v⃗w) = −(⃗u⃗w⃗v) [29](#page=29).
### Implicaties
* Het vectorieel product is essentieel voor het vinden van een vector loodrecht op een gegeven vlak [27](#page=27).
* Het gemengd product bepaalt de oriëntatie van een basis (rechts- of linkshandig) [28](#page=28).
* Geometrische interpretatie van het gemengd product maakt volume berekeningen mogelijk [29](#page=29).
### Veelvoorkomende valkuilen
* Het verwarren van de volgorde van vectoren in het vectorieel product (niet-commutatief) [27](#page=27).
* Het niet correct toepassen van de coördinaatberekeningen voor vectoriële en gemengde producten [27](#page=27) [29](#page=29).
* Het aannemen dat een nul vectorieel product altijd parallelle vectoren impliceert zonder de nulvector als uitzondering te beschouwen [27](#page=27).
---
# Eigenschappen van reële getallen en intervallen
### Algebraïsche eigenschappen
* Reële getallen (R) hebben twee binaire bewerkingen: optelling (+) en vermenigvuldiging (.) [35](#page=35).
* Deze bewerkingen voldoen aan veldaxioma's (R1-R9) voor R+,. [35](#page=35).
* Aftrekking is gedefinieerd als $a - b:= a + (-b)$ [36](#page=36).
* Deling is gedefinieerd als $a / b:= a \cdot (1/b)$ voor $b \neq 0$ [36](#page=36).
* Natuurlijke machten zijn gedefinieerd via inductie: $a^1:= a$, $a^{n+1} = (a^n) \cdot a$ [36](#page=36).
* Per definitie is $a^0:= 1$ voor $a \neq 0$ [36](#page=36).
* Negatieve machten zijn gedefinieerd als $a^{-n}:= 1 / a^n$ voor $a \neq 0$ en $n \in \mathbb{N}$ [36](#page=36).
### Orde-eigenschappen
* Er bestaat een verzameling positieve getallen (P) die gesloten is onder optelling en vermenigvuldiging [36](#page=36).
* Elk reëel getal is positief, nul, of negatief (R10) [36](#page=36).
* $a > 0$ betekent dat $a$ positief is; $a < 0$ betekent dat $a$ negatief is [36](#page=36).
* $a > b$ betekent dat $a - b$ positief is [36](#page=36).
* $a \ge b$ betekent dat $a - b$ positief of nul is [36](#page=36).
* **Stelling:** Als $0 \le a < \epsilon$ voor elke $\epsilon > 0$, dan is $a = 0$ [36](#page=36).
### Absolute waarde en intervallen
* Absolute waarde $|a|$ is $a$ als $a > 0$, $0$ als $a = 0$, en $-a$ als $a < 0$ [37](#page=37).
* $|a| \ge 0$ voor alle $a \in R$, en $|a|=0 \iff a=0$ [37](#page=37).
* **Stelling:** $|ab| = |a||b|$ [37](#page=37).
* **Stelling:** $|a| \le c \iff -c \le a \le c$ [37](#page=37).
* **Driehoeksongelijkheid:** $|a+b| \le |a|+|b|$ [37](#page=37).
* **Gevolg:** $||a|-|b|| \le |a-b|$ [37](#page=37).
* De $\epsilon$-omgeving van $a$ is $\{x \in R: |x-a| < \epsilon\} = ]a-\epsilon, a+\epsilon[$ [38](#page=38).
### Compleet geordend veld
* Reële getallen vormen een compleet geordend veld [39](#page=39).
* Een verzameling S is naar boven begrensd als er een bovengrens b bestaat met $s \le b$ voor alle $s \in S$ [38](#page=38).
* Het supremum (sup S) is de kleinste bovengrens van S [38](#page=38).
* **Axioma (R11):** Elke niet-ledige, naar boven begrensde verzameling reële getallen heeft een supremum [39](#page=39).
* **Eigenschap:** sup(a + S) = a + sup S [39](#page=39).
### Intervallen
---
# Definities en stellingen over limieten van functies
### Kernidee
* Een limiet beschrijft het gedrag van een functie wanneer de input een bepaald punt nadert.
* Het concept van een limiet is cruciaal voor het begrijpen van continuïteit en afgeleiden.
### Kernfeiten
* Een ophopingspunt $c$ van $A$ betekent dat elke $\delta$-omgeving van $c$ een punt uit $A$ bevat, verschillend van $c$ [45](#page=45).
* Een rij $(a_n)$ uit $A$ convergeert naar $c$ met $a_n \neq c$ voor alle $n$ als en slechts dan als $c$ een ophopingspunt van $A$ is [45](#page=45).
* De definitie van $\lim_{x \to c} f(x) = L$ stelt dat voor elke $\varepsilon > 0$, er een $\delta(\varepsilon) > 0$ bestaat zodat als $x \in A$ en $0 < |x - c| < \delta(\varepsilon)$, dan $|f(x) - L| < \varepsilon$ [46](#page=46).
* Een functie kan hoogstens één limiet in een punt bezitten [46](#page=46).
* Een limiet bestaat als en slechts dan als de linker- en rechterlimiet bestaan en gelijk zijn [50](#page=50).
* Als $\lim_{x \to c} f(x) = L$, dan is $f$ begrensd in een omgeving van $c$ [47](#page=47).
### Kernconcepten
* **Beeld:** $f(A) = \{f(x): x \in A\}$ [43](#page=43).
* **Inverse beeld:** $f^{-1}(B) = \{x \in \text{dom } f: f(x) \in B\}$ [44](#page=44).
* **Ophopingspunt:** Een punt $c$ waar elke $\delta$-omgeving punten uit $A$ bevat, verschillend van $c$ [45](#page=45).
* **Limiet van een functie:** De waarde $L$ waar de functiewaarden naartoe naderen als de input $x$ een punt $c$ nadert [46](#page=46).
* **Rij-parafrazering van limiet:** $\lim_{x \to c} f(x) = L$ als en slechts dan als voor elke rij $(x_n)$ in $A$ met $x_n \neq c$ en $x_n \to c$, geldt dat $f(x_n) \to L$ [47](#page=47).
* **Rechterlimiet:** $\lim_{x \to > c} f(x) = L$ of $f(c^+) = L$ [50](#page=50).
* **Linkerlimiet:** $\lim_{x \to < c} f(x) = L$ of $f(c^-) = L$ [50](#page=50).
* **Oneigenlijke limieten:** Streven naar $+\infty$ of $-\infty$ [51](#page=51).
* **Limieten op oneindig:** $\lim_{x \to +\infty} f(x) = L$ en $\lim_{x \to -\infty} f(x) = L$ [51](#page=51) [52](#page=52).
### Stellingen
* **Uniciteit van de limiet:** Een functie kan in een punt hoogstens één limiet bezitten [46](#page=46).
* **Rij-karakterisering:** Limiet via convergerende rijen in het domein [47](#page=47).
* **Begrensdheid:** Indien $\lim_{x \to c} f(x) = L$, dan is $f$ begrensd in een omgeving van $c$ [47](#page=47).
* **Limietstellingen voor bewerkingen:**
* $\lim (\lambda f + \mu g) = \lambda L + \mu M$ [48](#page=48).
* $\lim (f g) = L M$ [48](#page=48).
* $\lim (f/g) = L/M$ als $M \neq 0$ [48](#page=48).
* **Insluitstelling (Sandwich theorem):** Als $f(x) \le g(x) \le h(x)$ en $\lim f(x) = \lim h(x) = L$, dan $\lim g(x) = L$ [48](#page=48).
### Voorbeelden
---
# continuïteit op een gesloten interval
### Kernidee
* Functies continu op een gesloten interval hebben specifieke, nuttige eigenschappen [54](#page=54).
* Continuïteit op een gesloten interval is een sterkere voorwaarde dan continuïteit op een open interval [54](#page=54).
### Belangrijke feiten
* Een functie $f$ continu op $[a,b]$ betekent:
* $\lim_{x \to c} f(x) = f(c)$ voor elke $c \in ]a,b[$ [54](#page=54).
* $\lim_{x \leftarrow b} f(x) = f(b)$ (linkerlimiet) [54](#page=54).
* $\lim_{x \rightarrow a} f(x) = f(a)$ (rechterlimiet) [54](#page=54).
* Een functie die continu is op een gesloten interval $[a,b]$ is daar ook begrensd [54](#page=54).
* De verzameling waarden $f([a,b])$ van een continue functie op $[a,b]$ is zelf een gesloten begrensd interval [55](#page=55).
### Belangrijke concepten
* **Stelling van Weierstraß:** Een continue functie $f$ op $[a,b]$ bereikt haar maximum en minimum op dat interval [54](#page=54).
* Er bestaan $c, d \in [a,b]$ zodat $f(c) \le f(x) \le f(d)$ voor alle $x \in [a,b]$ [54](#page=54).
* **Stelling van Bolzano I (Nulwaardenstelling):** Als $f$ continu is op $[a,b]$ en $f(a)$ en $f(b)$ hebben tegengestelde tekens, dan is er een $c \in ]a,b[$ waarvoor $f(c) = 0$ [55](#page=55).
* **Stelling van Bolzano II (Tussenwaardestelling):** Als $f$ continu is op $[a,b]$ en $\alpha$ ligt tussen $f(a)$ en $f(b)$, dan bestaat er een $c \in ]a,b[$ waarvoor $f(c) = \alpha$ [55](#page=55).
* Dit volgt direct uit Bolzano I door de functie $g(x) = f(x) - \alpha$ te beschouwen [55](#page=55).
### Implicaties
* Continue functies op gesloten intervallen zijn "goed gedragen": ze zijn begrensd en nemen hun extreme waarden aan [54](#page=54).
* De nulwaardenstelling en tussenwaardestelling zijn krachtige hulpmiddelen voor het vinden van oplossingen en het begrijpen van het bereik van functies [55](#page=55).
* De beeldverzameling van een gesloten interval onder een continue functie is opnieuw een gesloten interval [55](#page=55).
- > **Tip:** De stellingen van Weierstraß en Bolzano zijn fundamenteel voor het bewijzen van veel andere eigenschappen van continue functies op gesloten intervallen [54](#page=54) [55](#page=55)
- > **Voorbeeld:** Als een thermometer continu de temperatuur meet over een tijdsinterval $[t_1, t_2]$, dan is de temperatuur op dat interval begrensd en neemt ze zowel de laagste als de hoogste
- gemeten temperatuur aan [54](#page=54)
---
# Definitie en eigenschappen van primitieveerbaarheid
### Kernidee
* Primitiveerbaarheid is niet een lokale eigenschap, maar wordt gedefinieerd over een interval [a,b [70](#page=70).
* Een functie $f$ is primitiveerbaar in $]a,b[$ als er een afleidbare functie $F$ bestaat met $F' = f$ [71](#page=71).
* $F$ wordt een primitieve functie van $f$ genoemd [71](#page=71).
* Als $f$ continu is op een interval $I$, dan is $f$ primitiveerbaar op $I$ [71](#page=71).
### Belangrijke feiten
* Continuïteit is een voldoende, maar geen noodzakelijke voorwaarde voor primitiveerbaarheid [71](#page=71).
* De functie $f(x) = 2x \sin(1/x) - \cos(1/x)$ voor $x \neq 0$ en $f =0$ is primitiveerbaar maar niet continu in $x=0$ [71](#page=71).
* Als $F$ een primitieve is van $f$, dan zijn $F+a$ (waarbij $a$ een constante is) ook primitieven [71](#page=71).
* De verzameling van alle primitieven van $f$ in $]a,b[$ wordt genoteerd als $\int f$ of $\int f(x) dx$ [71](#page=71).
* Stuksgewijze continuïteit is een voldoende voorwaarde voor Riemann-integreerbaarheid [76](#page=76).
### Kernconcepten
* **Primitiveerbaarheid:** Het bestaan van een functie $F$ waarvan de afgeleide gelijk is aan de gegeven functie $f$.
* **Primitieve functie:** De functie $F$ die de afgeleide heeft van $f$.
* **Intervalafhankelijkheid:** Primitiveerbaarheid is specifiek voor een gegeven interval [70](#page=70).
* **Onafhankelijkheid van de constante:** Alle primitieven van een functie verschillen slechts door een constante [71](#page=71).
* **Notatie:** De integraalsymbolen $\int f$ of $\int f(x) dx$ representeren de verzameling primitieven.
### Implicaties
* Het verband tussen afgeleiden en primitieven is cruciaal voor het oplossen van differentiaalvergelijkingen [70](#page=70).
* Functies met dezelfde afgeleide in een interval verschillen slechts op een additieve constante na [68](#page=68).
* De middelwaardestelling ligt aan de basis van de hoofdstelling van de integraalrekening [67](#page=67).
* De integraal van een continue functie gedefinieerd als $F(x) = \int_a^x f$ is een primitieve van $f$ [78](#page=78).
* De afgeleide van de integraal van $f$ is gelijk aan $f$ [78](#page=78).
---
# Uitbreiding van het integraalbegrip tot onbegrensde functies
### Core idea
* De traditionele Riemannintegraal vereist dat de functie begrensd is op het interval [a,b.
* Sommige toepassingen vragen om een integraalbegrip voor onbegrensde functies, dit wordt de uitgebreide Riemannintegraal genoemd.
### Key facts
* Een functie f is onbegrensd op [a,b als $\lim_{x \to b^-} f(x) = \pm \infty$ of $\lim_{x \to a^+} f(x) = \pm \infty$ [83](#page=83).
* Als f continu is op [a,b[ en $\lim_{x \to b^-} f(x) = \pm \infty$, dan is de uitgebreide integraal $\int_a^b f(x)dx$ gedefinieerd als $\lim_{c \to b^-} \int_a^c f(x)dx$ [83](#page=83).
* De uitgebreide integraal kan convergeren of divergeren.
* De integraal $\int_0^1 x^\beta dx$ convergeert als $\beta > -1$ en divergeert als $\beta \le -1$ [83](#page=83).
* De integraal $\int_0^1 \ln(x) dx$ convergeert naar -1 [84](#page=84).
### Key concepts
* **Uitgebreide Riemannintegraal:** Een integraal die gedefinieerd wordt voor onbegrensde functies door middel van limieten van Riemannintegralen over deelintervallen.
* **Convergentie:** De limiet van de Riemannintegralen over deelintervallen bestaat en is eindig.
* **Divergentie:** De limiet van de Riemannintegralen over deelintervallen bestaat niet of is oneindig.
### Implications
* Toepassingen in de techniek vereisen soms het integreren van functies die op bepaalde punten onbegrensd zijn.
* Convergentietesten zijn belangrijk om te bepalen of een uitgebreide integraal een bruikbare waarde oplevert zonder deze expliciet te berekenen.
* De limiet $\lim_{x \to b^-} (b-x)^\alpha f(x) = K$ wordt gebruikt om convergentie te bepalen [84](#page=84).
* De integraal convergeert als $\alpha < 1$ en $K \ge 0$ [84](#page=84).
* De integraal divergeert als $\alpha \ge 1$ en $K > 0$ of $K = +\infty$ [84](#page=84).
### Example
- > **Example:** Beschouw de functie $f(x) = \frac{1}{x}$ op het interval ]0,1
- De functie is onbegrensd voor $x \to 0^+$
- > $\int_0^1 \frac{1}{x} dx = \lim_{c \to 0^+} \int_c^1 \frac{1}{x} dx = \lim_{c \to 0^+} [-\ln(x)]_c^1 = \lim_{c \to 0^+} (-\ln - (-\ln(c))) = \lim_{c \to 0^+} \ln(c) = -\infty$
- De integraal divergeert [1](#page=1) [83](#page=83)
---
# Numerieke rijen: definitie, convergentie en standaardrijen
### Definitie van numerieke rijen
* Een numerieke rij is een functie gedefinieerd op de natuurlijke getallen (N) met waarden in R of C, genoteerd als $(a_n)_{n \in \mathbb{N}}$ of $(a_n)$ [99](#page=99).
* Rijen kunnen expliciet worden gedefinieerd, bv. $a_n = \frac{1}{2n}$ [99](#page=99).
* Rijen kunnen ook recurrent worden gedefinieerd, bv. Fibonacci: $a_1 = 1, a_2 = 1, a_n = a_{n-2} + a_{n-1}$ [100](#page=100).
### Convergentie van numerieke rijen
* Een rij $(a_n)$ convergeert naar $\alpha$ als voor elke $\epsilon$-omgeving van $\alpha$, er een $N(\epsilon) \in \mathbb{N}$ bestaat zodat $| \alpha - a_n | < \epsilon$ voor alle $n \geq N(\epsilon)$ [100](#page=100).
* Een convergente rij heeft een unieke limiet [100](#page=100).
* De notatie voor convergentie is $(a_n) \to \alpha$ of $\lim(a_n) = \alpha$ [100](#page=100).
### Standaard numerieke rijen
* $\frac{1}{n} \to 0$ [100](#page=100).
* $z^n \to 0$ als $|z| < 1$ .
* $x^{1/n} \to 1$ voor $x > 0$ .
* $n^{1/n} \to 1$ .
### Eigenschappen van limieten van rijen
* Als $(a_n) \to \alpha$ en $(b_n) \to \beta$, dan $( \lambda a_n + \mu b_n ) \to \lambda \alpha + \mu \beta$ en $(a_n b_n) \to \alpha \beta$ .
* Als $(a_n) \to \alpha$ en $(c_n) \to \gamma$ met $\gamma \neq 0$ en $c_n \neq 0$, dan $\frac{a_n}{c_n} \to \frac{\alpha}{\gamma}$ .
* Als $(a_n) \to \alpha$, dan $(|a_n|) \to |\alpha|$ .
### Rijen van reële getallen en monotonie
* Een rij is begrensd als de verzameling van haar termen naar boven en beneden begrensd is .
* Een convergente rij van reële getallen is begrensd .
* Een rij is stijgend (an ≤ an+1) of dalend (an ≥ an+1) .
* Een monotoon en begrensde rij van reële getallen is convergent .
* Het gedrag van een rij hangt af van haar "staart" (eindig aantal termen heeft geen invloed) .
* De rij $a_n = 1 + \frac{1}{2} +... + \frac{1}{n}$ divergeert .
* De rij $a_n = (1 + \frac{1}{n})^n$ convergeert naar $e$ .
### Limes superior en limes inferior
* Voor een begrensde rij $(a_n)$:
* $\limsup(a_n) = \lim(\sup\{a_k: k \geq n\})$ .
* $\liminf(a_n) = \lim(\inf\{a_k: k \geq n\})$ .
* Een rij convergeert als en slechts dan als $\limsup(a_n) = \liminf(a_n)$ .
* Stelling van Bolzano-Weierstraß: Elke begrensde rij van reële getallen heeft een convergente deelrij .
### De symbolen $+\infty$ en $-\infty$
---
### Functierijen: puntsgewijze en uniforme convergentie
* Een functierij $(f_n)$ in een verzameling $A$ bestaat uit functies $f_n: A \to \mathbb{R}$ of $\mathbb{C}$ .
* Een functierij convergeert puntsgewijs in $A$ als voor elke $x \in A$ de numerieke rij $(f_n(x))$ convergeert .
* De limietfunctie $f(x):= \lim_{n\to\infty} f_n(x)$ wordt gedefinieerd door de limieten van de functiewaarden .
* Een functierij $(f_n)$ convergeert uniform op $A$ naar $f$ als $\sup_{x \in A} |f_n(x) - f(x)| < \epsilon$ voor $n > N(\epsilon)$ .
* Uniforme convergentie impliceert puntsgewijze convergentie, maar niet omgekeerd .
* Noodzakelijke en voldoende voorwaarde voor uniforme convergentie: voor elke $\epsilon > 0$, er bestaat een $N(\epsilon)$ zodanig dat voor $m, n > N(\epsilon)$, $\sup_{x \in A} |f_m(x) - f_n(x)| < \epsilon$ .
### Eigenschappen van limietfuncties
* Als $(f_n)$ uniform op $A$ convergeert naar $f$ en alle $f_n$ continu zijn op $A$, dan is $f$ continu op $A$ .
* Als $(f_n)$ uniform op $[a,b]$ convergeert naar $f$ en alle $f_n$ integreerbaar zijn over $[a,b]$, dan is $f$ integreerbaar en $\int_a^b f = \lim_{n\to\infty} \int_a^b f_n$ .
* Als $(f_n)$ puntsgewijs in $[a,b]$ convergeert naar $f$, alle $f_n$ en $f$ integreerbaar zijn, en $|f_n(x)| \le M$ voor alle $n, x$, dan $\int_a^b f = \lim_{n\to\infty} \int_a^b f_n$ .
* Als $(f_n)$ puntsgewijs convergeert naar $f$ op $[a,b]$, alle $f'_n$ continu zijn op $[a,b]$, en $(f'_n)$ uniform op $[a,b]$ convergeert naar $g$, dan is $f$ afleidbaar met $f'(x) = g(x)$ .
- Als alle $f_n$ afleidbaar zijn in $[a,b]$, $(f'_n)$ uniform convergeert naar $g$ op $[a,b]$, en $(f_n(x_0))$ convergeert voor een $x_0 \in [a,b]$, dan convergeert $(f_n)$ uniform naar een afleidbare functie $f$ met
### Functiereeksen
* Een functiereeks $\sum f_n$ convergeert puntsgewijs naar $f$ als de rij van partieelsommen $(s_n)$ puntsgewijs convergeert naar $f$ .
* Een functiereeks $\sum f_n$ convergeert uniform naar $f$ als $(s_n)$ uniform convergeert naar $f$ .
* Uniforme convergentie van een functiereeks impliceert puntsgewijze convergentie .
* Als $\sum |f_n|$ convergeert, dan convergeert $\sum f_n$ absoluut .
* De eigenschappen van de reekssomfunctie volgen uit de eigenschappen van de rij van partieelsommen .
* M-test van Weierstraß: Als $\sup_{x \in A} |f_n(x)| \le M_n$ en $\sum M_n$ convergeert, dan convergeert $\sum f_n$ uniform op $A$ .
### Positieve machtenreeksen (PMR)
* Een PMR heeft de vorm $\sum_{n=0}^\infty a_n(z-z_0)^n$.
* De convergentiestraal $R$ wordt bepaald door $\rho = \limsup_{n\to\infty} |a_n|^{1/n}$, met $R = 1/\rho$ (indien $0 < \rho < \infty$), $R=0$ (indien $\rho=\infty$), en $R=\infty$ (indien $\rho=0$) .
* Een PMR convergeert absoluut in de open schijf $|z-z_0| < R$ en divergeert voor $|z-z_0| > R$ .
* De convergentie op de cirkel $|z-z_0| = R$ is onvoorspelbaar .
* Een PMR convergeert uniform op elk gesloten en begrensd deel $K$ van de schijf $|z-z_0| < R$ .
* De reekssomfunctie van een PMR is continu in de open convergentieschijf .
* Een PMR kan termsgewijs worden afgeleid, met behoud van de convergentiestraal: $f^{(k)}(z) = \sum_{n=k}^\infty n!/(n-k)! a_n (z-z_0)^{n-k}$ .
* $f^{(k)}(z_0) = k! a_k$ .
### Negatieve machtenreeksen (NMR)
---
# Absolute en betrekkelijke convergentie van reeksen
### Core idea
* Een reeks ∑an convergeert absoluut als de reeks van de absolute waarden ∑|an| convergeert .
* Een reeks ∑an convergeert betrekkelijk als de reeks zelf convergeert, maar ∑|an| divergeert .
* Absolute convergentie impliceert convergentie van de oorspronkelijke reeks .
### Key facts
* Het Criterium van Cauchy stelt dat ∑an convergeert als |an+1 +an+2 +...+am| < ε voor m > n > M(ε) .
* Als ∑an absoluut convergeert, dan convergeert ∑an .
* De Worteltest (Gevolg 7.7.4): Als $|a_n|^{1/n} \to r$, dan is ∑an absoluut convergent voor $r < 1$ en divergent voor $r > 1$ .
* De d’Alembert test (Gevolg 7.7.6): Als $|a_{n+1}|/|a_n| \to r$, dan is ∑an absoluut convergent voor $r < 1$ en divergent voor $r > 1$ .
* De Leibniz test: Een alternerende reeks ∑(−1)n+1un convergeert als un een dalende rij van positieve getallen is die naar 0 convergeert .
### Key concepts
* **Absolute convergentie**: Convergentie van de reeks van de moduli .
* **Betrekkelijke convergentie**: Convergentie van de reeks zelf, maar divergentie van de reeks van de moduli .
* **Criterium van Cauchy**: Een noodzakelijke en voldoende voorwaarde voor convergentie van een reeks .
* **Worteltest**: Gebruikt de n-de machtswortel van de absolute waarde van de termen om absolute convergentie te bepalen .
* **d’Alembert test**: Gebruikt de verhouding van opeenvolgende termen om absolute convergentie te bepalen .
* **Leibniz test**: Specifiek voor alternerende reeksen .
### Implications
* Absolute convergentie is een sterkere vorm van convergentie dan gewone convergentie .
* Als een reeks absoluut convergeert, garandeert dit de convergentie van de reeks zelf .
* De wortel- en d’Alembert tests zijn krachtige methoden om de absolute convergentie van reeksen te onderzoeken .
### Examples
* De reeks $\sum_{n=1}^{\infty} \frac{1}{n!}$ convergeert absoluut .
* De reeks $\sum_{n=1}^{\infty} \frac{(-1)^{n+1}}{n}$ convergeert betrekkelijk (convergent, maar niet absoluut convergent) .
- > **Tip:** Als je twijfelt of een reeks convergeert, probeer dan eerst de absolute convergentie te bewijzen
- Als dat lukt, is de reeks zeker convergent
---
# Functierijen en uniforme convergentie
### Kernidee
* Een functierij is een verzameling functies $(f_n)$ gedefinieerd op een verzameling $A$ .
* Punsgewijze convergentie betekent dat voor elke $x \in A$, de rij functiewaarden $(f_n(x))$ convergeert .
* De limietfunctie $f(x) = \lim_{n \to \infty} f_n(x)$ ontstaat door de limieten van de punsgewijze convergente rijen te nemen .
* Uniforme convergentie vereist dat de limiet niet afhangt van het specifieke punt $x$ .
### Kernfeiten
* Punsgewijze convergentie: $\forall x \in A, \forall \epsilon > 0, \exists N(\epsilon, x)$ zodat $n > N(\epsilon, x) \implies |f_n(x) - f(x)| < \epsilon$ .
* Uniforme convergentie: $\forall \epsilon > 0, \exists N(\epsilon)$ zodat $n > N(\epsilon) \implies \sup_{x \in A} |f_n(x) - f(x)| < \epsilon$ .
* Uniforme convergentie impliceert punsgewijze convergentie, maar niet omgekeerd .
* Noodzakelijke en voldoende voorwaarde voor uniforme convergentie: $\forall \epsilon > 0, \exists N(\epsilon)$ zodat $m, n > N(\epsilon) \implies \sup_{x \in A} |f_m(x) - f_n(x)| < \epsilon$ .
### Kernconcepten
* Limietfunctie: De functie $f$ die de punsgewijze limiet is van de functierij $(f_n)$ .
* Punsgewijze convergentie: Convergentie in elk punt afzonderlijk .
* Uniforme convergentie: Convergentie die gelijkmatig is over de gehele verzameling .
### Implicaties
* Als $(f_n)$ uniform convergeert naar $f$ en alle $f_n$ continu zijn in $A$, dan is $f$ continu in $A$ .
* Als $(f_n)$ uniform convergeert op $[a,b]$ naar $f$ en alle $f_n$ integreerbaar zijn, dan is $f$ integreerbaar en $\int_a^b f = \lim \int_a^b f_n$ .
* Als $(f_n)$ punsgewijze convergeert naar $f$, alle $f_n$ en $f$ integreerbaar zijn op $[a,b]$, en er een uniforme bovengrens $M$ bestaat, dan $\int_a^b f = \lim \int_a^b f_n$ .
* Als $(f_n)$ punsgewijze convergeert naar $f$, de afgeleiden $(f'_n)$ continu zijn en $(f'_n)$ uniform convergeert naar $g$, dan is $f$ afleidbaar en $f' = g$ .
### Voorbeelden
* De rij $f_n(x) = x^n$ op $]-1,1]$ convergeert puntsgewijs naar $f(x) = 0$ voor $x \in ]-1,1[$ en $f =1$, maar niet uniform op $]-1,1]$ [1](#page=1).
* De rij $g_n(x) = \frac{1}{n}\sin(nx+n)$ op $\mathbb{R}$ convergeert uniform naar $0$ .
* De rij $f_n(x)$ gedefinieerd voor $n \ge 2$ op $ $ convergeert puntsgewijs naar $0$, maar $\lim \int_0^1 f_n(x) dx \ne \int_0^1 \lim f_n(x) dx$ [1](#page=1).
---
# Positieve machtenreeksen en hun eigenschappen
### Kernidee
* Positieve machtenreeksen (PMR's) zijn specifieke functiereeksen van de vorm $\sum_{n=0}^\infty a_n(z-z_0)^n$ .
* Een PMR kan een analytische functie definiëren binnen zijn convergentiegebied .
### Belangrijke feiten
* De convergentiestraal $R$ van een PMR wordt bepaald door $\rho = \limsup_{n\to\infty} |a_n|^{1/n}$ .
* $R=0$ als $\rho = +\infty$, $R = 1/\rho$ als $0 < \rho < +\infty$, en $R=+\infty$ als $\rho = 0$ .
* De PMR convergeert absoluut in de open schijf $|z-z_0| < R$ en divergeert voor $|z-z_0| > R$ .
* Een PMR convergeert uniform op elk gesloten en begrensd deel $K$ van de open convergentieschijf .
* De reekssomfunctie van een PMR is continu in de open convergentieschijf .
* Een PMR kan termgewijs worden afgeleid, met behoud van dezelfde convergentiestraal .
* Als $f(z) = \sum_{n=0}^\infty a_n(z-z_0)^n$, dan is $f^{(k)}(z_0) = k! a_k$ .
### Belangrijke concepten
* **Positieve machtenreeks (PMR):** $\sum_{n=0}^\infty a_n(z-z_0)^n$ .
* **Convergentiestraal ($R$):** De straal van de schijf waarin een PMR convergeert .
* **Analytische (holomorfe) functie:** Een functie die lokaal kan worden voorgesteld door een PMR met $R>0$ .
* **Reëel-analytische functie:** Een functie die lokaal op de reële as kan worden voorgesteld door een PMR .
* **Stelling van Cauchy-Hadamard:** Definieert de convergentiestraal $R$ .
* **Stelling van Cauchy-Kowalevskaia:** Relateert reëel-analytische functies aan analytische functies in het complexe vlak .
### Implicaties
* Analytische functies hebben afgeleiden van alle orden .
* De som van twee PMR's is een PMR met coëfficiënten $a_n+b_n$ in de doorsnede van hun convergentieschijven .
* Het product van twee PMR's is een PMR met coëfficiënten $c_n = \sum_{k=0}^n a_k b_{n-k}$ in de doorsnede .
* Onbeperkte afleidbaarheid garandeert niet reëel-analyticiteit (voorbeeld: $f(x) = e^{-1/x^2}$ bij $x=0$) .
### Voorbeelden
* $\sum_{n=0}^\infty n! z^n$ heeft $R=0$ .
* $\sum_{n=0}^\infty z^n$ heeft $R=1$ .
* $\sum_{n=0}^\infty \frac{1}{n!} z^n$ (exponentiële functie) heeft $R=+\infty$ .
---
# Negatieve machtenreeksen en singulariteiten
### Kernidee
* Negatieve machtenreeksen (NMR's) gedragen zich analoog aan positieve machtenreeksen, maar in gebieden verkregen na inversie, wat leidt tot singulariteiten bij functies .
* Een functie met een singulariteit in $z_0$ kan worden ontbonden in een deel dat holomorf is nabij $z_0$ en een deel dat een NMR is in $(z-z_0)$ .
### Belangrijke feiten
* Een NMR omheen $z_0$ is van de vorm $\sum_{n=1}^\infty b_n \frac{1}{(z-z_0)^n}$ .
* De straal van convergentie $\rho$ voor een NMR wordt gedefinieerd als $\rho:= \limsup_{n \to \infty} |b_n|^{1/n}$ .
* Als de rij $|b_n|^{1/n}$ niet begrensd is, stelt men $\rho = +\infty$ (symbolisch) .
* Een NMR convergeert absoluut in $\{z \in \mathbb{C}: |z-z_0| > \rho\}$ .
* Een NMR convergeert uniform op elk gesloten en begrensd deel van $\{z \in \mathbb{C}: |z-z_0| > \rho\}$ .
* De somfunctie van een NMR is holomorf in het convergentiegebied $\{z \in \mathbb{C}: |z-z_0| > \rho\}$ .
* Voor de NMR $\sum_{n=1}^\infty \frac{1}{z^n}$ geldt $\rho = 1$ en convergentie in $\{z \in \mathbb{C}: |z| > 1\}$ .
* Voor de NMR $\sum_{n=1}^\infty \frac{1}{n! z^n}$ geldt $\rho = 0$ en convergentie in $\mathbb{C} \setminus \{0\}$ .
* De functie $\exp(-\frac{1}{z^2})$ heeft een essentiële singulariteit in $z=0$ .
* De functie $\exp(\frac{1}{z})$ heeft een essentiële singulariteit in $z=0$ .
### Belangrijke concepten
* **Negatieve machtenreeks (NMR):** Een machtreeks met termen van de vorm $\frac{1}{(z-z_0)^n}$ .
* **Singulariteit:** Een punt $z_0$ waar een functie $f(z)$ niet analytisch is, maar wel analytisch in een omringende ringvormige regio $0 < |z-z_0| < R$ .
* **Pool:** Een singulariteit waar de NMR afbreekt (eindig aantal termen) .
* **Essentiële singulariteit:** Een singulariteit waar de NMR niet afbreekt .
* **Multipliciteit van een pool:** De graad $k$ waarin de factor $(z-z_j)$ in de noemer van een rationale functie voorkomt .
### Implicaties
* Functies die analytisch zijn op $\mathbb{C}$ behalve op geïsoleerde punten, kunnen worden geanalyseerd met behulp van NMR's .
* Rationale functies, $f(z) = \frac{P_m(z)}{Q_n(z)}$, vertonen polen in de nulpunten van de noemer $Q_n(z)$ .
* De graad van de noemer van een rationale functie bepaalt het maximale aantal polen dat de functie kan hebben .
* Een functie kan verschillende soorten singulariteiten hebben (bv. pool van een bepaalde multipliciteit of essentiële singulariteit) .
### Voorbeelden
- > **Voorbeeld:** De functie $f(z) = \frac{1}{z-1}$ heeft een afgebroken NMR en een pool in $z=1$
- > **Voorbeeld:** De functie $f(z) = \frac{1}{z^2+1}$ heeft polen in $z=i$ en $z=-i$
- > **Voorbeeld:** De functie $\frac{z}{(z-1)(z-2)^2(z-3)^3}$ heeft een enkelvoudige pool in $z=1$, een pool van orde 2 in $z=2$, en een pool van orde 3 in $z=3$
---
# Elementaire functies
### Natuurlijke machten en hun inverse
- Functies $x^n$ met $n \in \mathbb{N}$ zijn gedefinieerd, continu en afleidbaar op $]-\infty, +\infty[$ .
- $x^1:= x$, $x^n:= x \cdot x^{n-1}$ .
- Waardengebied is $]-\infty, +\infty[$ voor oneven $n$, en $[0, +\infty[$ voor even $n$ .
- Voor oneven $n$ is $x^n$ strikt stijgend; inverse is $x^{1/n}$, gedefinieerd en continu op $]-\infty, +\infty[$ .
- Voor even $n$, $x^n$ is strikt stijgend op $[0, +\infty[$; inverse is $x^{1/n}$, gedefinieerd en continu op $[0, +\infty[$ .
### Gehele machten en hun inverse
- $x^0:= 1$ .
- Voor negatieve gehele exponent: $x^{-n}:= \frac{1}{x^n}$, $n \in \mathbb{N}$, $x \neq 0$ .
- Functies $x^{-n}$ zijn continu en afleidbaar op $]-\infty, 0[$ en $]0, +\infty[$ .
- Inverse van $x^{-n}$ (oneven $n$) is $x^{-1/n}$, gedefinieerd en continu op $]-\infty, 0[$ en $]0, +\infty[$ .
- Inverse van $x^{-n}$ (even $n$) is $x^{-1/n}$, gedefinieerd en continu op $]0, +\infty[$ .
### Rationale machten en hun inverse
- $x^{p/q}:= (x^p)^{1/q} = (x^{1/q})^p$ voor onderling ondeelbare $p, q \in \mathbb{N}$, $q \neq 1$ .
- Voor oneven $q$, $x^{p/q}$ is gedefinieerd en continu op $]-\infty, +\infty[$ .
- Voor even $q$, $x^{p/q}$ is gedefinieerd en continu op $]0, +\infty[$ .
- $x^{-p/q} = \frac{1}{x^{p/q}}$ .
### Veeltermfuncties
- Veeltermfunctie van graad $n$: $a_0 + a_1x + \dots + a_nx^n$, $a_n \neq 0$ .
- Gedefinieerd, continu en afleidbaar op $]-\infty, +\infty[$ .
### Rationale functies
- Quotiënt van twee veeltermfuncties .
- Gedefinieerd, continu en afleidbaar op open intervallen zonder nulpunten van de noemer .
### Exponentiële en logaritmische functies
- Exponentiële functie: $\exp(z):= \sum_{n=0}^\infty \frac{z^n}{n!}$ voor $z \in \mathbb{C}$ .
- Reële exponentiële functie: $\exp(x) = \sum_{n=0}^\infty \frac{x^n}{n!}$ voor $x \in \mathbb{R}$ .
- $\frac{d}{dx} \exp(x) = \exp(x)$ .
- Belangrijke eigenschappen: $\exp = 1$, $\exp = e$, $\exp(z_1)\exp(z_2) = \exp(z_1 + z_2)$ [1](#page=1).
- $\exp(x) > 0$ voor alle $x \in \mathbb{R}$ .
- Natuurlijke logaritme: $\ln x$ is de inverse van $\exp(x)$ .
- $\ln 1 = 0$, $\ln e = 1$, $\ln(x_1 x_2) = \ln x_1 + \ln x_2$ voor $x_1, x_2 > 0$ .
### Veralgemeende exponentiële functie
### Circulaire functies
---
# De n-dimensionale reële ruimte Rn
### Kernidee
* Rn is de verzameling van geordende n-tallen $(x_1, x_2, \ldots, x_n)$ met $x_k \in \mathbb{R}$ .
* Rn is een n-dimensionale lineaire ruimte over R met standaard optelling en scalarvermenigvuldiging .
* Rn kan worden voorzien van een scalair product en een bijbehorende norm, waardoor het een genormeerde ruimte wordt .
### Belangrijke feiten
* Voor $n=2$ wordt Rn geïdentificeerd met het vlak, voor $n=3$ met de 3-dimensionale affiene ruimte .
* De standaardbasis van Rn bestaat uit de vectoren $\vec{e}_1=(1,0,\ldots,0), \vec{e}_2=(0,1,\ldots,0), \ldots, \vec{e}_n=(0,\ldots,0,1)$ .
* Een element $\vec{x} \in R^n$ met norm gelijk aan 1 wordt een genormeerd element genoemd .
* Twee elementen $\vec{x}, \vec{y} \in R^n$ zijn orthogonaal als hun scalair product nul is .
* Een basis bestaande uit onderling orthogonale en genormeerde vectoren is een orthonormale basis .
* Open verzamelingen in Rn kunnen worden geïdentificeerd met epsilon-omgevingen .
### Kernconcepten
* **Lineaire combinatie**: $\vec{v} = t_1\vec{v}_1 + \ldots + t_m\vec{v}_m$, met $t_i \in \mathbb{R}$ .
* **Lineaire afhankelijkheid**: Bestaan van $t_i$, niet alle nul, zodat $t_1\vec{v}_1 + \ldots + t_m\vec{v}_m = \vec{0}$ .
* **Scalair product**: $\vec{x} \cdot \vec{y} = \sum_{k=1}^{n} x_k y_k$ .
* **Norm**: $\|\vec{x}\| = \sqrt{\vec{x} \cdot \vec{x}} = \sqrt{\sum_{k=1}^{n} x_k^2}$ .
* **Epsilon-omgeving**: $B(\vec{a};\varepsilon) = \{\vec{x} \in R^n \mid \|\vec{x} - \vec{a}\| < \varepsilon\}$ .
* **Open verzameling**: Een deelverzameling waarbij elk punt een inwendig punt is .
* **Gesloten verzameling**: Een deelverzameling waarvan het complement open is .
* **Compacte verzameling**: Een verzameling die zowel gesloten als begrensd is .
### Implicaties
* Rn met de gedefinieerde bewerkingen vormt een lineaire ruimte, een belangrijke structuur in de lineaire algebra .
* De norm in Rn maakt het mogelijk de afstand tussen punten te meten en diverse geometrische concepten te introduceren .
* Topologische begrippen zoals omgevingen, open en gesloten verzamelingen zijn cruciaal voor de analyse van functies van meerdere variabelen .
* Het begrip compactheid is essentieel voor stellingen over continuïteit en extremumwaarden van functies .
### Veelvoorkomende valkuilen
* Voor $n > 3$ is de meetkundige interpretatie van elementen van Rn minder direct dan voor $n=2,3$ .
* Een open verzameling in $R^{n-1}$ verliest haar open karakter indien beschouwd als deelverzameling van $R^n$ .
---
# Rijen in Rn: convergentie, Cauchy-rijen en de stelling van Bolzano-Weierstrass
### Kernconcepten
* Een rij in Rn is een functie $N \to R^n$, waarbij aan elk natuurlijk getal $m$ een punt $\vec{a}_m \in R^n$ wordt toegewezen .
* Convergentie van een rij $(\vec{a}_m)$ naar $\vec{\alpha}$ betekent dat voor elke $\varepsilon > 0$ een $N(\varepsilon)$ bestaat, zodanig dat voor alle $m \geq N(\varepsilon)$ geldt $\|\vec{a}_m - \vec{\alpha}\| < \varepsilon$ .
* Een rij $(\vec{a}_m)$ in $R^n$ convergeert naar $\vec{\alpha} \in R^n$ dan en slechts dan als voor elke component $k=1, \dots, n$, de rij van componenten $(a_{mk})$ convergeert naar $\alpha_k$ .
* Een Cauchy-rij $(\vec{a}_m)$ in $R^n$ voldoet aan de voorwaarde dat voor elke $\varepsilon > 0$ een $N$ bestaat, zodanig dat voor alle $p > N$ en $q > N$ geldt $\|\vec{a}_p - \vec{a}_q\| < \varepsilon$ .
### Kernfeiten
* De limiet van een convergente rij in $R^n$ is uniek .
* Elke deelrij van een convergente rij convergeert naar dezelfde limiet .
* Een convergente rij in $R^n$ is begrensd .
* Als $(\vec{a}_m) \to \vec{\alpha}$ en $(\vec{b}_m) \to \vec{\beta}$, dan convergeren lineaire combinaties: $(\lambda \vec{a}_m + \mu \vec{b}_m) \to \lambda \vec{\alpha} + \mu \vec{\beta}$ .
* Als $(\vec{a}_m) \to \vec{\alpha}$ en $(\vec{b}_m) \to \vec{\beta}$, dan convergeert het inwendig product: $(\vec{a}_m \cdot \vec{b}_m) \to \vec{\alpha} \cdot \vec{\beta}$ .
* Als $(\vec{a}_m)$ convergeert naar $\vec{\alpha}$, dan convergeert de rij van normen $(\|\vec{a}_m\|)$ naar $\|\vec{\alpha}\|$ .
* Een rij in $R^n$ is convergent als en slechts dan als ze een Cauchy-rij is .
### Stelling van Bolzano-Weierstrass
* Elke begrensde rij in $R^n$ bezit een convergente deelrij .
* Het bewijs maakt gebruik van inductie op de dimensies door Cauchy-rijen van componenten te construeren .
### Implicaties
* De convergentie van een rij in $R^n$ kan worden herleid tot de convergentie van de afzonderlijke componentrijen .
* Het Cauchy-criterium biedt een methode om convergentie te testen zonder de limiet expliciet te kennen .
* De stelling van Bolzano-Weierstrass is cruciaal voor het bewijzen van de compactheid van verzamelingen in $R^n$ .
- > **Tip:** Concentreer je op het verbinden van de convergentie van rijen in $R^n$ met de convergentie van rijen in $R$ via de componenten
- Dit vereenvoudigt veel problemen
---
# Differentieerbaarheid van scalaire functies van meerdere variabelen
### Partiële en richtingsafgeleiden
* De richtingsafgeleide van $f$ in $\vec{a}$ volgens de richting $\vec{u}$ is de limiet:
- $$ \lim_{h\to 0} \frac{f(\vec{a} + h\vec{u}) - f(\vec{a})}{h} $$
- indien deze bestaat
* De partiële afgeleide naar de $k$-de variabele in $\vec{a}$ is de richtingsafgeleide volgens $\vec{e}_k$:
- $$ \lim_{h\to 0} \frac{f(\vec{a} + h\vec{e}_k) - f(\vec{a})}{h} $$
- Dit kan ook genoteerd worden als $D_k f(\vec{a})$ of $\frac{\partial f}{\partial x_k}(\vec{a})$
* De partiële afgeleide naar de $k$-de variabele is gelijk aan de afgeleide van de functie verkregen door enkel de $k$-de variabele te laten variëren .
* De gradiënt van $f$ in $\vec{a}$, genoteerd als $\text{grad } f(\vec{a})$ of $\nabla f(\vec{a})$, is de vector van alle partiële afgeleiden in $\vec{a}$:
- $$ \nabla f(\vec{a}) = (D_1 f(\vec{a}), \dots, D_n f(\vec{a})) $$
-
* Voor $f(x,y) = \sin(xy^2)$, zijn de partiële afgeleiden $D_1 f(x,y) = y^2 \cos(xy^2)$ en $D_2 f(x,y) = 2xy \cos(xy^2)$ .
* De functie $f(x,y) = \frac{xy}{x^2+y^2}$ voor $(x,y) \neq (0,0)$ en $f(0,0) = 0$ heeft partiële afgeleiden in $(0,0)$ die beide gelijk zijn aan 0, ondanks niet continu te zijn .
### Differentieerbare functies
* Een functie $f$ is differentieerbaar in $\vec{a}$ als er een vector $\vec{A}$ en een functie $\lambda(\vec{x})$ met $\lim_{\vec{x}\to\vec{a}} \lambda(\vec{x}) = 0$ bestaat, zodanig dat:
- $$ f(\vec{x}) - f(\vec{a}) = (\vec{x} - \vec{a}) \cdot \vec{A} + \lambda(\vec{x}) \|\vec{x} - \vec{a}\| $$
* Als $f$ differentieerbaar is in $\vec{a}$, dan is $f$ continu in $\vec{a}$ .
* Als $f$ differentieerbaar is in $\vec{a}$, dan is $\vec{A} = \nabla f(\vec{a})$ .
* De richtingsafgeleide in $\vec{a}$ volgens $\vec{u}$ is $\frac{\partial f}{\partial \vec{u}}(\vec{a}) = \nabla f(\vec{a}) \cdot \vec{u}$ .
* Als alle partiële afgeleiden van $f$ in een omgeving van $\vec{a}$ bestaan en continu zijn in $\vec{a}$, dan is $f$ differentieerbaar in $\vec{a}$ .
* Een functie $f$ is continu differentieerbaar in een open verzameling $\Omega$ (genoteerd $f \in C^1(\Omega)$) als alle partiële afgeleiden continu zijn in $\Omega$ .
### Hogere-orde afgeleiden
* Partiële afgeleiden van de tweede orde noteren we als $D_{jk}^2 f$ of $\frac{\partial^2 f}{\partial x_j \partial x_k}$ .
* Als alle partiële afgeleiden van $p$-de orde continu zijn in $\Omega$, dan is $f$ $p$ maal continu differentieerbaar in $\Omega$, genoteerd $f \in C^p(\Omega)$ .
* Voor functies met continue partiële afgeleiden van de tweede orde, geldt de stelling van Schwarz: $D_{12} f = D_{21} f$ .
* Voor $f(x,y) = \frac{xy(x^2-y^2)}{x^2+y^2}$ voor $(x,y) \neq (0,0)$ en $f(0,0)=0$, zijn de gemengde afgeleiden in $(0,0)$ verschillend: $D_{12} f(0,0) = -1$ en $D_{21} f(0,0) = 1$ .
### Uitbreiding tot vectorfuncties
* De partiële afgeleide van een vectorfunctie $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ naar de $k$-de variabele is $\vec{D}_k \vec{f}(\vec{a}) = \sum_{i=1}^m D_k f_i(\vec{a})\vec{e}_i$ .
---
## Taylorreeks met restterm van de derde orde
### Kernidee
* De formule van Taylor voor scalaire functies van meerdere variabelen kan uitgebreid worden met een restterm van de derde orde .
* Deze restterm maakt een meer precieze benadering van de functie mogelijk .
### Sleutelbegrippen
- **Taylorformule met derde orde restterm:**Voor een functie $f$ met continue derde partiële afgeleiden, kan de functie lokaal benaderd worden door zijn waarde, de lineaire term, de kwadratische term en de
- **Restterm van de derde orde:** Deze term bevat de derde orde partiële afgeleiden van de functie geëvalueerd op een punt tussen $(0,0)$ en $(x,y)$, vermenigvuldigd met termen die afhangen van
* **Benadering van de functie:** Als de restterm verwaarloosbaar is, wordt $f(x,y)$ benaderd door een tweedegraads veelterm in $(x,y)$ .
### Sleutelformules
* De algemene vorm van de Taylorformule met een restterm van de derde orde, voor een functie $f(x,y)$ rond het punt $(0,0)$, is:
- $f (x,y) =f (0,0)+x\frac{\partial f}{\partial x}(0,0)+ y\frac{\partial f}{\partial y}(0,0) +\frac{1}{2}\left(x^2 \frac{\partial^2 f}{\partial x^2}(0,0)+ 2xy \frac{\partial^2 f}{\partial x\partial y}(0,0)+ y^2 \frac{\partial^2 f}{\partial y^2}(0,0)\right) + R_3$
* Waarbij de restterm $R_3$ kan worden uitgedrukt met een Lagrange-vorm:
- $\exists \theta \in]0,1[: R_3 = \frac{1}{6}\left(x^3 \frac{\partial^3 f}{\partial x^3}(\theta x,\theta y)+ 3x^2y \frac{\partial^3 f}{\partial x^2\partial y}(\theta x,\theta y)+ 3xy^2 \frac{\partial^3 f}{\partial x\partial y^2}(\theta x,\theta y)+ y^3 \frac{\partial^3 f}{\partial y^3}(\theta x,\theta y)\right)$
* Een algemenere notatie voor de restterm met de operator $(\vec{h} \cdot \nabla)$ is:
- $R_3 = \frac{1}{3
- }(\vec{h} \cdot \nabla)^3 f (\vec{a} + \theta\vec{h})$
### Belangrijkste feiten
* De stelling die de afschatting van de restterm behandelt, lijkt op het eendimensionale geval .
* Als $f \in C^3(\Omega)$ en $B(\vec{a};r) \subset \Omega$, dan bestaat er een $M > 0$ zodat de restterm begrensd is .
* De afschatting van de restterm is: $\frac{1}{3!}|(\vec{h} \cdot \nabla)^3 f (\vec{a} + \theta\vec{h})| \le M\|\vec{h}\|^3$, voor alle $\vec{h}$ met $\|\vec{h}\| \le r$ .
* De termen in de restterm zijn van de vorm $h_i h_j h_k D_{ijk} f(\vec{a} + \theta\vec{h})$ .
* De derde orde partiële afgeleiden van $f$ zijn begrensd op de compacte verzameling $B(\vec{a};r)$ door een constante $M'$ .
* Voor elke component $h_i$ geldt $|h_i| \le \|\vec{h}\|$ .
* Elke term in de restterm wordt begrensd door $M'\|\vec{h}\|^3$ .
* Er zijn in totaal $n^3$ termen in de uitdrukking van $(\vec{h} \cdot \nabla)^3 f$ .
* De constante $M$ kan worden gesteld op $M = \frac{1}{3!}n^3M'$ .
### Implicaties
* De formule van Taylor met restterm van de derde orde biedt een nauwkeurigere lokale benadering dan de tweede orde Taylorbenadering .
* De afschatting van de restterm is cruciaal voor het bepalen van de convergentie en foutenmarge van Taylorbenaderingen in hogere dimensies .
* Het begrijpen van deze afschatting is fundamenteel voor geavanceerde numerieke methoden en analyse in meerdere variabelen .
---
# Extremumonderzoek voor functies van meerdere variabelen
### Core idea
* Extremumonderzoek bij functies van meerdere variabelen omvat zowel directe uitbreidingen van ééndimensionale gevallen als extremen met nevenvoorwaarden.
* Dit hoofdstuk behandelt het 'gewoon' extremumonderzoek, waarbij de focus ligt op interne punten van het definitiegebied.
* Voor differentieerbare functies is de gradiënt die nul is een noodzakelijke voorwaarde voor een lokaal extremum.
### Key facts
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een absoluut maximum in $\vec{a}$ als $\forall \vec{x} \in \text{dom}(f): f(\vec{x}) \leq f(\vec{a})$ .
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een absoluut minimum in $\vec{a}$ als $\forall \vec{x} \in \text{dom}(f): f(\vec{x}) \geq f(\vec{a})$ .
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een lokaal maximum in $\vec{a}$ als $\exists \delta > 0: \forall \vec{x} \in \text{dom}(f) \cap B(\vec{a}; \delta) \Rightarrow f(\vec{x}) \leq f(\vec{a})$ .
* Een functie $f: \mathbb{R}^n \to \mathbb{R}$ bereikt een lokaal minimum in $\vec{a}$ als $\exists \delta > 0: \forall \vec{x} \in \text{dom}(f) \cap B(\vec{a}; \delta) \Rightarrow f(\vec{x}) \geq f(\vec{a})$ .
* Als $f$ differentieerbaar is in een inwendig punt $\vec{a}$ en een lokaal extremum bereikt, dan is $\nabla f(\vec{a}) = \vec{0}$ .
* Kritische punten zijn inwendige punten van dom($f$) waar $f$ differentieerbaar is en $\nabla f = \vec{0}$ .
* Een zadelpunt is een kritisch punt waarbij elke omgeving punten bevat waar $f(\vec{x}) < f(\vec{a})$ en punten waar $f(\vec{x}) > f(\vec{a})$ .
### Key concepts
* De kwadratische vorm geassocieerd met de tweede-orde partiële afgeleiden is $\Phi(\vec{h}) = \sum_{i=1}^n \sum_{j=1}^n h_i h_j D_{ij} f(\vec{a})$ .
* De analyse van de kwadratische vorm $\Phi(\vec{h})$ bepaalt het type extremum of zadelpunt:
* $\Phi(\vec{h}) < 0$ voor alle $\vec{h} \implies$ lokaal maximum .
* $\Phi(\vec{h}) > 0$ voor alle $\vec{h} \implies$ lokaal minimum .
* $\Phi(\vec{h})$ neemt zowel positieve als negatieve waarden aan $\implies$ zadelpunt .
* De kwadratische vorm kan worden gerepresenteerd door een matrix $A$ (Hessiaan), waarbij de definitie van $A$ (positief/negatief definiet, indefiniet) de aard van het extremum bepaalt .
* Voor $n=2$, kan de discriminant $\Delta = [D_{12} f]^2 - D_{11} f D_{22} f$ het type extremum helpen bepalen .
### Implications
* De noodzakelijke voorwaarde $\nabla f(\vec{a}) = \vec{0}$ betekent dat het raakvlak evenwijdig met het XY-vlak is bij kritische punten .
* Als de kwadratische vorm $\Phi(\vec{h})$ overal positief of negatief is, kan uit het teken conclusies worden getrokken .
* Als $\Phi(\vec{h})$ nul wordt in een bepaalde richting, is de Taylor-ontwikkeling van hogere orde nodig voor een conclusie .
* Positief/negatief definietheid van de Hessiaanmatrix $A$ is direct gekoppeld aan het optreden van lokale minima/maxima .
### Common pitfalls
* Niet elk kritisch punt is een extremum; het kan ook een zadelpunt zijn .
* De test met de kwadratische vorm of de Hessiaan is niet sluitend als deze semi-definiet is of nul wordt .
* Functies die niet differentieerbaar zijn in een punt kunnen daar wel een extremum hebben (bv. voorbeeld 13.3) .
---
# Integratie in het vlak en in de ruimte
### Kernideeën
* De Riemann-integraal wordt uitgebreid naar functies van meer veranderlijken in R2 (dubbelintegralen) en R3 (drievoudige integralen) .
* Integralen over gesloten intervallen in R2 en R3 worden gedefinieerd via riemannsommen .
* Integreerbaarheid van functies in R2 en R3 wordt vastgesteld door de limiet van riemannsommen .
### Sleutelconcepten
* **Partitie van een interval:** Een opsplitsing van een gesloten interval in R2 of R3 in kleinere deelintervallen .
* In R2: `Ii j = [xi−1,xi × [yj−1,yj]` .
* In R3: `Ii jk = [xi−1,xi × [yj−1,yj × [zk−1,zk]` .
* **Norm van een partitie:** De maximale diameter van de deelintervallen .
* **Gelabelde partitie:** Een partitie met in elk deelinterval een geselecteerd punt .
* **Riemannsom:** De som van functiewaarden op geselecteerde punten, vermenigvuldigd met het volume (oppervlakte in R2) van het corresponderende deelinterval .
* R2: $S(f, P\vec{C}) = \sum_{i=1}^{m} \sum_{j=1}^{n} f(\vec{c}_{ij}) A_{ij}$ .
* R3: $S(f, P\vec{C}) = \sum_{i=1}^{m} \sum_{j=1}^{n} \sum_{k=1}^{p} f(\vec{c}_{ijk}) V_{ijk}$ .
* **Integreerbaarheid:** Het bestaan van een limiet L voor de riemannsommen wanneer de norm van de partitie naar nul nadert .
* **Riemannintegraal:** Het getal L dat de limiet van de riemannsommen voorstelt .
* R2: $\iint_I f(x,y) dxdy$ of $\int_I f(\vec{x}) dA$ .
* R3: $\iiint_I f(x,y,z) dxdydz$ of $\int_I f(\vec{x}) dV$ .
### Belangrijke Stellingen
* **Stelling 14.1.1:** Als f integreerbaar is over I, dan is f begrensd over I .
* **Stelling 14.1.2:** Als f continu is in I, dan is f integreerbaar over I .
* **Stelling 14.1.3:** f is integreerbaar over een interval I in R2 als f begrensd is en continu op I\K, waar K een eindige unie van projecteerbare krommen is .
* **Stelling 14.1.4:** f is integreerbaar over een interval I in R3 als f begrensd is en continu op I\S, waar S een eindige unie van projecteerbare oppervlakken is .
* **Stelling 14.1.5:** Eigenschappen van integreerbare functies: |f|, λf + µg, fg, en f/g (als g ≠ 0) zijn ook integreerbaar .
* **Stelling 14.1.6:** Integralen over deelintervallen kunnen worden opgeteld .
* $\int_I f(\vec{x}) \, dA = \sum_{k=1}^{n} \int_{I_k} f(\vec{x}) \, dA$ .
* **Stelling 14.1.7 (Middelwaardestelling):** Voor een continue functie f in een gesloten interval I bestaat er een punt $\vec{c} \in I$ zodanig dat $\int_I f(\vec{x}) \, dA = f(\vec{c}) A_I$ (voor R2) .
* **Stelling 14.1.8:** Opeenvolgende integraties voor dubbelintegralen (Fubini's stelling) .
* $\iint_I f(x,y) dxdy = \int_{a_1}^{b_1} dx \int_{a_2}^{b_2} f(x,y) dy$ .
### Toepassingen en Voorbeelden
---
## Integratie over algemenere gebieden en coördinatentransformaties
### Kernconcepten
- **Integratie over gebieden G:** De integraal van een functie $f$ over een gebied $G$ wordt gedefinieerd door een hulpfunctie $f^*$ die gelijk is aan $f$ op $G$ en nul elders
* **Oppervlakte en volume:** De oppervlakte $A_G$ van een gebied $G$ is de integraal van 1 over $G$, en het volume $V_G$ is evenzo de integraal van 1 over $G$ .
* **Projecteerbare gebieden:** Gebieden die gedefinieerd kunnen worden door grenzen die afhangen van één variabele, zoals $G = \{(x,y): a \le x \le b, \varphi_1(x) \le y \le \varphi_2(x)\}$ .
* **Jacobiaanse determinant:** De determinant van de partiële afgeleiden van een transformatie, die de lokale schaalfactor van oppervlakte- of volume-elementen aangeeft .
### Belangrijke feiten en formules
* **Stelling over deelgebieden:** De integraal over een gebied is de som van de integralen over de deelgebieden waaruit het gebied is opgebouwd .
* **Middelwaardestelling voor integralen:** Voor een continue functie $f$ over een gebied $G$ bestaat er een punt $\vec{c} \in G$ zodanig dat $\int_G f(\vec{x})dA = f(\vec{c}) A_G$ .
* **X-projecteerbaar gebied (R2):** $G = \{(x,y): a \le x \le b, \varphi_1(x) \le y \le \varphi_2(x)\}$. De integraal is $\int_a^b dx \int_{\varphi_1(x)}^{\varphi_2(x)} f(x,y)dy$ .
* **Y-projecteerbaar gebied (R2):** $G = \{(x,y): c \le y \le d, \psi_1(y) \le x \le \psi_2(y)\}$. De integraal is $\int_c^d dy \int_{\psi_1(y)}^{\psi_2(y)} f(x,y)dx$ .
* **XY-projecteerbaar gebied (R3):** $G = \{(x,y,z): (x,y) \in G_{xy}, \varphi_1(x,y) \le z \le \varphi_2(x,y)\}$. De integraal is $\iint_{G_{xy}} dxdy \int_{\varphi_1(x,y)}^{\varphi_2(x,y)} f(x,y,z)dz$ .
* **Projectie op YZ-vlak (R3):** $G = \{(x,y,z): a \le x \le b, (y,z) \in G_x\}$. De integraal is $\int_a^b dx \iint_{G_x} f(x,y,z)dydz$ .
* **Volume als functie van doorsnede-oppervlakte:** $V_G = \int_a^b A(x)dx$, waarbij $A(x)$ de oppervlakte van de doorsnede op $x$ is .
* **Substitutieformule (R2):** $\iint_G f(x,y)dxdy = \iint_{G'} f(\varphi(u,v),\psi(u,v)) \left|\frac{\partial(\varphi,\psi)}{\partial(u,v)}\right| dudv$ .
* **Substitutieformule (R3):** $\iiint_G f(x,y,z)dxdydz = \iiint_{G'} f(\varphi(u,v,w),\psi(u,v,w),\chi(u,v,w)) \left|\frac{\partial(\varphi,\psi,\chi)}{\partial(u,v,w)}\right| dudvdw$ .
* **Poolcoördinaten (R2):** $x = r \cos\theta, y = r \sin\theta$. Jacobiaanse determinant: $r$ .
* **Cilindercoördinaten (R3):** $x = r \cos\varphi, y = r \sin\varphi, z = z$. Jacobiaanse determinant: $r$ .
* **Sferische coördinaten (R3):** $x = r \sin\theta\cos\varphi, y = r \sin\theta\sin\varphi, z = r \cos\theta$. Jacobiaanse determinant: $r^2 \sin\theta$ .
### Voorbeelden
* **Oppervlakte van een ellips:** Door transformatie naar een eenheidsschijf met Jacobiaan $ab$, wordt de oppervlakte $\pi ab$ .
* **Volume van een ellipsodie:** Door transformatie naar een eenheidsbol, met Jacobiaan $abc$, wordt het volume $\frac{4}{3}\pi abc$ .
* **Traagheidsmoment van een ring:** Berekend met poolcoördinaten, $I_0 = k \iint_G (x^2+y^2)dxdy = k \frac{\pi}{2}(b^4-a^4)$ .
* **Volume van een bol in cilindercoördinaten:** Gegeven een bol met straal $R$, het traagheidsmoment om het XY-vlak $I_{xy} = k \iiint_G z^2 dxdydz = k \frac{4\pi}{15}R^5$ .
* **Volume van een bol in sferische coördinaten:** $V_G = \frac{4}{3}\pi R^3$ .
* **Volume van een gebied boven kegel en binnen bol:** Berekend met sferische coördinaten leidt tot een volume van $\pi a^3$ voor een specifiek gedefinieerd gebied .
### Massamiddelpunt
* **Definitie:** Het gewogen gemiddelde van plaatsvectoren, met massa als gewicht .
* **Continue verdeling:** $\vec{x}_M = \frac{\iiint_G \vec{x}\rho(\vec{x})dV}{\iiint_G \rho(\vec{x})dV}$ .
* **Homogeen gebied:** Als $\rho(\vec{x})$ constant is, reduceert dit tot het zwaartepunt .
---
# extremumonderzoek in open verzamelingen
### Core idea
* Extremumonderzoek in open verzamelingen analyseert lokale extrema van functies in open domeinen.
* Dit is een uitbreiding van het onderzoek in gesloten verzamelingen.
### Key facts
* Tweede-orde afgeleiden worden gebruikt om de aard van kritische punten te bepalen.
* De kwadratische vorm $\Phi(\vec{h})$ beschrijft de tweede-orde benadering van de functie rond een kritisch punt.
* De matrix $A$ van tweede-orde partiële afgeleiden is cruciaal voor het bepalen van het type extremum.
* Eigenwaarden van matrix $A$ bepalen of $A$ positief definiet, negatief definiet, semi-definiet of indefiniet is.
* Voor $n=2$ kan het criterium herleid worden tot de discriminant $\Delta$ van de kwadratische vorm.
* Als $\Delta < 0$, is er een lokaal extremum (minimum indien $D_{11}f > 0$, maximum indien $D_{11}f < 0$).
* Als $\Delta > 0$, is er een zadelpunt.
* Als $\Delta = 0$, is er geen algemeen besluit mogelijk met deze test.
### Key concepts
* **Kritisch punt:** Een punt $\vec{a}$ waarvoor de gradiënt van $f$ nul is: $\nabla f(\vec{a}) = \vec{0}$.
* **Kwadratische vorm $\Phi(\vec{h})$:** Benadering van $\Delta f = f(\vec{a}+\vec{h}) - f(\vec{a})$ met termen van tweede orde: $\Phi(\vec{h}) = \vec{h}^T A \vec{h}$.
* **Matrix $A$ (Hessiaan):** Matrix van tweede-orde partiële afgeleiden: $A_{ij} = D_{ij}f(\vec{a})$.
* **Positief definiet:** Alle eigenwaarden zijn positief. $\Phi(\vec{h}) > 0$ voor $\vec{h} \neq \vec{0}$. Lokaal minimum.
* **Negatief definiet:** Alle eigenwaarden zijn negatief. $\Phi(\vec{h}) < 0$ voor $\vec{h} \neq \vec{0}$. Lokaal maximum.
* **Indefiniet:** Eigenwaarden hebben zowel positieve als negatieve tekens. Zadelpunt.
* **Semi-definiet:** Eigenwaarden zijn positief of nul (positief semi-definiet), of negatief of nul (negatief semi-definiet). Geen conclusie mogelijk.
* **Discriminant $\Delta$ (voor $n=2$):** $\Delta = (D_{12}f)^2 - D_{11}f D_{22}f$.
### Implications
* De aard van de kritische punten (lokaal minimum, maximum, zadelpunt) kan worden bepaald door het gedrag van de kwadratische vorm.
* Als de tweede-orde test geen uitsluitsel geeft ($\Delta = 0$), kunnen hogere-orde afgeleiden of andere methoden nodig zijn.
* De analyse van de definitie van de matrix $A$ door middel van eigenwaarden is een algemene methode.
* Voor $n=2$ biedt de discriminant een snelle manier om de aard van een kritisch punt te classificeren.
### Examples
* Voor $f(x,y) = x^3 + y^3 - 3xy$:
* $(0,0)$ is een zadelpunt ($\Delta > 0$).
* $(1,1)$ is een lokaal minimum ($\Delta < 0$, $D_{11}f > 0$).
---
# extremumonderzoek in niet-open verzamelingen
### Core idea
- Extremumonderzoek in niet-open verzamelingen richt zich meestal op het vinden van absolute extrema.
- Het onderzoek wordt opgesplitst in het inwendige, de randpunten, en de vergelijking van alle gevonden punten.
### Key facts
- Voor continue functies op compacte verzamelingen garandeert de stelling van Weierstrass het bestaan van absolute extrema.
- Randpunten moeten worden onderzocht voor zover ze tot de verzameling behoren.
- Niet-open is niet altijd synoniem met gesloten; niet alle randpunten hoeven beschouwd te worden.
- De analyse van de rand kan opgedeeld worden in segmenten en hoekpunten.
### Key concepts
- **Inwendige punten:** Lokale extrema worden eerst bepaald in het inwendige van de verzameling.
- **Randpunten:** De functie wordt geanalyseerd op de grenzen van de verzameling.
- **Hoekpunten:** Specifieke aandacht gaat uit naar de hoekpunten van de verzameling.
- **Absolute extrema:** Na vergelijking van alle in aanmerking komende punten, worden het absolute minimum en/of maximum geïdentificeerd.
### Implications
- De methode garandeert het vinden van absolute extrema op compacte verzamelingen door een systematische aanpak.
- Het correct identificeren van de rand en de relevante punten is cruciaal voor de juistheid van het resultaat.
- Functies die langs parabolen nul worden, kunnen een zadelpunt hebben in het inwendige, ondanks lokale minima van een afgeleide functie.
### Examples
- > **Example:** For $f(x,y) = x^2 + y^2 - xy + x + y$ in $S = \{ (x,y) \mid x \le 0, y \le 0, x+y \ge -3 \}$, the interior critical point is $(-1,-1)$ with $f(-1,-1) = -1$
- On the boundary $y=0, -3 < x < 0$, $\phi(x) = x^2+x$ has a minimum at $x = -1/2$, yielding $f(-1/2, 0) = -1/4$
- Similar analysis on other boundary segments and at the vertices $(0,0), (-3,0), (0,-3)$ completes the search for absolute extrema
- > **Example:** For $f(x,y) = xy - \sqrt{1-x^2-y^2}$ in the disk $x^2+y^2 \le 1$, the interior point $(0,0)$ gives $f(0,0)=-1$, but the Hessian determinant is zero
- On the boundary $r=1$, analysis in polar coordinates shows local minima at $\theta = 3\pi/4, 7\pi/4$ (value $-1/2$) and local maxima at $\theta = \pi/4, 5\pi/4$ (value $1/2$)
- The absolute maximum is $1/2$ and the absolute minimum is $-1$ at $(0,0)$
---
# Definitie en eigenschappen van Riemann-integralen in R2 en R3
### Kernconcepten
* Riemann-integralen breiden het concept van integratie uit naar functies van meer variabelen, met name in R2 (dubbele integralen) en R3 (drievoudige integralen) .
* Deze integralen hebben diverse meetkundige en fysische toepassingen, zoals het bepalen van oppervlaktes en volumes .
### Definities
* Een **partitie** P van een interval $I \subset R^2$ (een rechthoek $[a_1, b_1 \times [a_2, b_2]$) is een verzameling van deelintervallen $I_{ij} = [x_{i-1}, x_i \times [y_{j-1}, y_j]$ .
* Een **partitie** P van een interval $I \subset R^3$ (een doos $[a_1, b_1 \times [a_2, b_2 \times [a_3, b_3]$) is een verzameling van deelintervallen $I_{ijk} = [x_{i-1}, x_i \times [y_{j-1}, y_j \times [z_{k-1}, z_k]$ .
* De **norm** van een partitie P, $\|P\|$, is de maximale diameter van de deelintervallen .
* Een **gelabelde partitie** $P_{\vec{C}}$ selecteert een punt $\vec{c}_{ij}$ (in R2) of $\vec{c}_{ijk}$ (in R3) in elk deelinterval (#page=208,page=209) .
* Een **riemannsom** S(f, $P_{\vec{C}}$) is de som van functiewaarden in de geselecteerde punten vermenigvuldigd met het volume/oppervlakte van het corresponderende deelinterval .
### Definitie van Riemann-integrabiliteit
- Een functie f op R2 of R3 is **riemannintegreerbaar** over een interval I als er een getal L bestaat, zodanig dat de absolute waarde van het verschil tussen een riemannsom
* Dit getal L wordt de **riemannintegraal** van f over I genoemd .
* Notaties:
* R2: $\int_I f(\vec{x}) dA$ of $\iint_I f(x,y) dxdy$ .
* R3: $\int_I f(\vec{x}) dV$ of $\iiint_I f(x,y,z) dxdydz$ .
### Eigenschappen en Stellingen
* Als f integreerbaar is over I, dan is f **begrensd** over I .
* Als f **continu** is op I, dan is f integreerbaar over I .
* Voor integralen in R2 en R3, kan continuïteit over een gebied met een eindig aantal projecteerbare krommen (R2) of oppervlakken (R3) ook leiden tot integrabiliteit .
* Integralen veranderen niet als functiewaarden langs projecteerbare krommen/oppervlakken worden gewijzigd .
* Eigenschappen:
* Als f en g integreerbaar zijn, dan zijn $|f|$, $\lambda f + \mu g$, en $fg$ ook integreerbaar .
* Als g(x) $\neq$ 0, dan is f/g ook integreerbaar .
* Restricties van f tot deelintervallen zijn ook integreerbaar .
* **Lineariteit** en **integratie van ongelijkheden** gelden .
* Een integraal kan worden opgesplitst over disjuncte deelintervallen: $\int_I f dA = \sum \int_{I_k} f dA$ .
* **Middelwaardestelling**: Als f continu is op een gesloten interval I, bestaat er een punt $\vec{c} \in I$ zodanig dat $\int_I f dA = f(\vec{c}) \cdot A_I$ (R2) of $\int_I f dV = f(\vec{c}) \cdot V_I$ (R3) .
### Voorbeeld van een integraal over een interval
* Voor een constante functie $f(\vec{x}) = \lambda$ op interval I, geldt: $\int_I f dV = \lambda \cdot V_I$. Hier is $V_I$ het volume van I .
---
# Berekening van dubbele en drievoudige integralen middels opeenvolgende integraties
### Kernidee
* Dubbele en drievoudige integralen kunnen worden berekend als opeenvolgende enkelvoudige integralen .
* De volgorde van integratie kan worden omgedraaid onder bepaalde voorwaarden .
### Belangrijke feiten
* Voor een functie $f(x,y)$ integreerbaar over $I = [a_1,b_1 \times [a_2,b_2]$, geldt: $\iint_I f(x,y) \, dxdy = \int_{a_1}^{b_1} \left( \int_{a_2}^{b_2} f(x,y) \, dy \right) \, dx$ .
* De binnenste integraal wordt beschouwd met de buitenste variabele als parameter .
* De omgekeerde integratievolgorde is ook geldig: $\iint_I f(x,y) \, dxdy = \int_{a_2}^{b_2} \left( \int_{a_1}^{b_1} f(x,y) \, dx \right) \, dy$ .
* Voor drievoudige integralen geldt een analoge stelling met meerdere volgordes van integratie .
* Er zijn twaalf mogelijke schikkingen voor de integratievariabelen $x, y, z$ in $R^3$ .
* Voor gebieden $G$ die $X$-projecteerbaar zijn ($a \le x \le b, \phi_1(x) \le y \le \phi_2(x)$), geldt: $\iint_G f(x,y) \, dxdy = \int_a^b \left( \int_{\phi_1(x)}^{\phi_2(x)} f(x,y) \, dy \right) \, dx$ .
### Belangrijke concepten
* **Heuristische afleiding:** De berekening is gebaseerd op de limiet van Riemannsommen .
* **Stelling 14.1.8:** Garandeert de gelijkheid van dubbele integralen en opeenvolgende enkelvoudige integralen onder de juiste voorwaarden .
* **Stelling 14.1.9:** Vergelijkbaar met Stelling 14.1.8, maar dan voor drievoudige integralen .
* **Stelling 14.2.3:** Generaliseert de opeenvolgende integratie voor $X$-projecteerbare gebieden in $R^2$ .
* **XY-projecteerbaar gebied:** Een gebied $G$ in $R^3$ waarvoor $G = \{(x,y,z) | (x,y) \in G_{xy}, \phi_1(x,y) \le z \le \phi_2(x,y)\}$ .
* **Stelling 14.2.4:** Stelt de berekening van een integraal over een $XY$-projecteerbaar gebied mogelijk middels opeenvolgende integraties .
* **Stelling 14.2.5:** Beschrijft de berekening van een integraal over een gebied dat projecteerbaar is op het $YZ$-vlak .
### Implicaties
* De keuze van de integratievolgorde kan de berekening aanzienlijk vereenvoudigen .
* Eenvoudige gebieden en functies maken de berekening middels opeenvolgende integraties direct toepasbaar .
* Gebieden die niet eenvoudig te beschrijven zijn, kunnen soms opgesplitst moeten worden om de methode toe te passen .
* De methode is essentieel voor het bepalen van volumes en oppervlaktes van complexe gebieden .
- > **Tip:** Controleer altijd of de functie en het integratiegebied voldoen aan de voorwaarden van de stellingen alvorens de methode toe te passen
- > **Voorbeeld:** Voor $f(x,y) = x \exp(xy)$ over $I = [0,a \times [0,b]$, is integratie eerst naar $y$ eenvoudiger
---
# Omkeren van integratievolgorde
### Core idea
* Het omkeren van de integratievolgorde kan een ingewikkelde meervoudige integraal vereenvoudigen .
* Dit is nuttig wanneer de integratiegrenzen bij de oorspronkelijke volgorde moeilijk te hanteren zijn .
### Key facts
* Oefening 14.5(a) vraagt het omkeren van de volgorde van $\int_0^1 \int_x^{2-x} f(x,y) dy dx$ .
* Oefening 14.5(b) vraagt het omkeren van de volgorde van $\int_0^2 \int_y^{y^2/2} f(x,y) dx dy$ .
* Oefening 14.14(a) vraagt het omkeren van de volgorde van $\int_0^1 \int_{3y}^3 e^{x^2} dx dy$ .
* Oefening 14.14(b) vraagt het omkeren van de volgorde van $\int_0^1 \int_{x^2}^x \frac{x}{y\sqrt{y-x^2}} dy dx$ .
* Oefening 14.15(a) vraagt het omkeren van de volgorde van $\int_{a/2}^a \int_0^{\sqrt{2ax-x^2}} f(x,y) dy dx$ .
* Oefening 14.15(b) vraagt het omkeren van de volgorde van $\int_0^1 \int_{-\sqrt{1-y^2}}^{\sqrt{1-y^2}} f(x,y) dx dy$ .
### Key concepts
* Het omkeren van de integratievolgorde vereist een correcte visualisatie van het integratiegebied .
* De grenzen van de integraal moeten worden aangepast aan de nieuwe volgorde, gebaseerd op de schets van het gebied .
* Bij het omkeren van de volgorde van $dy dx$ naar $dx dy$, worden de grenzen voor $x$ de buitenste grenzen en die voor $y$ de binnenste .
### Implications
* Correct omkeren kan leiden tot integraaluitdrukkingen die veel eenvoudiger te evalueren zijn, vooral met specifieke functies zoals $e^{x^2}$ .
* Het begrijpen van de geometrie van het integratiegebied is cruciaal voor het succesvol toepassen van deze techniek .
### Common pitfalls
* Fouten maken bij het schetsen van het integratiegebied, wat leidt tot incorrecte nieuwe integratiegrenzen .
* Onjuist toepassen van de transformatie van de variabelen en hun grenzen .
---
# Berekening van volumes van lichamen met behulp van coördinaten
### Kernidee
* Volumes van lichamen kunnen berekend worden met behulp van meervoudige integralen .
* De keuze van coördinatensysteem (Cartesiaans, cilindrisch, sferisch) is cruciaal voor de efficiëntie van de berekening .
### Belangrijke concepten
* **Cartesiaanse coördinaten:** Geschikt voor rechthoekige gebieden en lichamen. Volumes worden berekend met integralen van de vorm $\iiint_V dV$, waar $dV = dx dy dz$ .
* **Cilindercoördinaten:** Nuttig voor lichamen met rotatiesymmetrie rond de z-as. Transformatie: $x = r \cos \theta$, $y = r \sin \theta$, $z = z$. Volume-element: $dV = r dr d\theta dz$ .
* **Sferische coördinaten:** Ideaal voor lichamen met sferische symmetrie. Transformatie: $x = \rho \sin \phi \cos \theta$, $y = \rho \sin \phi \sin \theta$, $z = \rho \cos \phi$. Volume-element: $dV = \rho^2 \sin \phi d\rho d\phi d\theta$. [Niet expliciet in de tekst, maar een standaard concept bij dit onderwerp.
* Projectie op vlakken: Het lichaam kan geprojecteerd worden op het XY-, YZ- of XZ-vlak om de integratiegrenzen te bepalen .
### Sleutelfeiten
* Integralen kunnen worden omgekeerd door de integratievolgorde te wijzigen om berekeningen te vereenvoudigen .
* De grenzen van de integratie worden bepaald door de vergelijkingen van de omringende oppervlakken .
* Bij het omzetten naar cilindrische of sferische coördinaten, moeten de vergelijkingen van de oppervlakken en het volume-element correct worden getransformeerd .
* De oorsprong kan al dan niet worden bevat in het te integreren lichaam .
* Volume kan verdeeld worden in gelijke delen .
### Voorbeelden
* Bereken het volume van een lichaam begrensd door een cilinder, een vlak en een paraboloïde in cartesiaanse en cilindrische coördinaten .
* Bepaal het volume van het lichaam ingesloten door een sfeer en een kegel met behulp van cartesiaanse en cilindrische coördinaten .
* Bereken het volume van een lichaam boven het XY-vlak, onder een kegel en binnen een cilinder .
* Bepaal het volume van een lichaam ingesloten tussen twee cilinders, of tussen een bol en een vlak .
### Tips
* **Tip:** Visualiseer het lichaam in de ruimte om de integratiegrenzen correct op te stellen.
* **Tip:** Kies het coördinatensysteem dat de symmetrie van het lichaam het beste benut.
* **Tip:** Oefen met het omzetten van vergelijkingen van de ene coördinatenstelsel naar de andere.
---
# Oefeningen betreffende differentieerbaarheid en limieten
### Natuurlijke machten en hun inverse
* Functies $x^n$ voor $n \in \mathbb{N}$ zijn gedefinieerd, continu en afleidbaar op $]-\infty, +\infty[$ .
* $x^1 = x$, $x^n = x \cdot x^{n-1}$ voor $n \in \mathbb{N}$ .
* Het waardengebied is $]-\infty, +\infty[$ voor oneven $n$, en $[0, +\infty[$ voor even $n$ .
* Voor oneven $n$ is $x^n$ strikt stijgend; de inverse $x^{1/n}$ is gedefinieerd op $]-\infty, +\infty[$ .
* Voor even $n$ is $x^n$ strikt stijgend op $[0, +\infty[$; de inverse $x^{1/n}$ is gedefinieerd op $[0, +\infty[$ .
### Gehele machten en hun inverse
* $x^0 = 1$ .
* Voor negatieve gehele exponenten: $x^{-n} = \frac{1}{x^n}$ voor $n \in \mathbb{N}$, $x \neq 0$ .
* Functies $x^{-n}$ zijn continu en afleidbaar op $]-\infty, 0[$ en $]0, +\infty[$ .
* Voor oneven $n$ is $x^{-n}$ strikt dalend; de inverse $x^{-1/n}$ is gedefinieerd op $]-\infty, 0[$ en $]0, +\infty[$ .
* Voor even $n$ is $x^{-n}$ strikt dalend op $]0, +\infty[$; de inverse $x^{-1/n}$ is gedefinieerd op $]0, +\infty[$ .
### Rationale machten en hun inverse
* Voor onderling ondeelbare natuurlijke getallen $p, q$ ($q \neq 1$): $x^{p/q} = (x^p)^{1/q} = (x^{1/q})^p$ .
* Als $q$ oneven is, is $x^{p/q}$ gedefinieerd en continu op $]-\infty, +\infty[$ .
* Als $q$ even is, is $x^{p/q}$ gedefinieerd en continu op $]0, +\infty[$ .
* Voor negatieve rationale exponenten $x^{-p/q} = \frac{1}{x^{p/q}}$ .
### Veeltermfuncties
* Een veeltermfunctie van de $n$-de graad is gedefinieerd, continu en afleidbaar op $]-\infty, +\infty[$ .
### Rationale functies
* Een rationale functie is een quotiënt van twee veeltermfuncties .
* Ze is continu en afleidbaar op elk open interval dat geen nulpunt van de noemer bevat .
### Exponentiële functie en logaritmische functie
* De exponentiële functie $exp(z) = \sum_{n=0}^{\infty} \frac{z^n}{n!}$ convergeert absoluut in $\mathbb{C}$ .
* Voor reële getallen: $exp(x) = \sum_{n=0}^{\infty} \frac{x^n}{n!}$ .
* $exp(x)$ is continu en afleidbaar op $]-\infty, +\infty[$ met afgeleide $exp'(x) = exp(x)$ .
* Belangrijke eigenschappen: $exp =1$, $exp =e$, $exp(z_1)exp(z_2) = exp(z_1+z_2)$ [1](#page=1).
* $exp(-x) = \frac{1}{exp(x)}$, $exp(x) > 0$ voor alle $x \in \mathbb{R}$ .
* $exp(x)$ is strikt stijgend op $]-\infty, +\infty[$ .
* De natuurlijke logaritme $ln(x)$ is de inverse van $exp(x)$ .
* $ln(x)$ is continu, afleidbaar en strikt stijgend op $]0, +\infty[$ .
### Veralgemeende exponentiële functie
### Algemene machtsfunctie
### Hyperbolische functies
---
## Oefeningen betreffende differentieerbaarheid en limieten
### Definitie van differentieerbaarheid
* Een functie $f: R^n \to R$ is differentieerbaar in $\vec{a}$ als er een vector $\vec{A} \in R^n$ en een functie $\lambda: R^n \to R$ bestaat, met $\lim_{\vec{x} \to \vec{a}} \lambda(\vec{x}) = 0$, zodanig dat:
- $$f(\vec{x}) - f(\vec{a}) = (\vec{x} - \vec{a}) \cdot \vec{A} + \lambda(\vec{x})\|\vec{x} - \vec{a}\|, \quad \forall \vec{x} \neq \vec{a}$$
### Implicaties van differentieerbaarheid
* Als $f$ differentieerbaar is in $\vec{a}$, dan is $f$ continu in $\vec{a}$ .
* Indien $f$ differentieerbaar is in $\vec{a}$, dan is $\vec{A} = \nabla f(\vec{a})$ .
* De componenten van $\vec{A}$ zijn de partiële afgeleiden van $f$ in $\vec{a}$: $A_k = D_k f(\vec{a})$ .
* Als $f$ differentieerbaar is in $\vec{a}$, bestaan alle partiële afgeleiden van $f$ in $\vec{a}$ .
* Als $f$ differentieerbaar is in $\vec{a}$, dan is de richtingsafgeleide in $\vec{a}$ volgens eenheidsvector $\vec{u}$ gegeven door $\frac{\partial f}{\partial \vec{u}}(\vec{a}) = \nabla f(\vec{a}) \cdot \vec{u}$ .
* Indien $\nabla f(\vec{a}) \neq \vec{0}$, dan wordt de richting van snelste stijging vanuit $\vec{a}$ gegeven door $\nabla f(\vec{a})$ .
### Criterium voor differentieerbaarheid
* Als alle partiële afgeleiden van $f$ bestaan in een omgeving van $\vec{a}$ en continu zijn in $\vec{a}$ zelf, dan is $f$ differentieerbaar in $\vec{a}$ .
### Continu differentieerbaarheid
* Een functie $f: R^n \to R$ is continu differentieerbaar in een open verzameling $\Omega$ als alle partiële afgeleiden van $f$ continu zijn in $\Omega$ .
* Continu differentieerbaarheid ($C^1(\Omega)$) is een sterkere eigenschap dan differentieerbaarheid .
### Hogere-orde afgeleiden
* Partiële afgeleiden van de tweede orde worden genoteerd als $D_{jk} f$, $\frac{\partial^2 f}{\partial x_j \partial x_k}$, of $f_{x_j x_k}$ .
* Functies kunnen $p$ maal continu differentieerbaar zijn ($f \in C^p(\Omega)$) als alle partiële afgeleiden van $p$-de orde continu zijn in $\Omega$ .
- > **Tip:** Het bestaan van alle partiële afgeleiden in een punt impliceert niet noodzakelijk continuïteit of differentieerbaarheid in dat punt
- > **Voorbeeld:** De functie $f(x,y) = \frac{xy}{x^2+y^2}$ voor $(x,y) \neq (0,0)$ en $f(0,0)=0$ heeft partiële afgeleiden in $(0,0)$ ($D_1f(0,0)=0$, $D_2f(0,0)=0$) maar is niet continu en niet differentieerbaar in $(0,0)$ omdat de limiet van $f$
- in $(0,0)$ niet bestaat
- > **Voorbeeld:** Voor $f(x,y) = \sin(xy^2)$ zijn de gemengde partiële afgeleiden $D_{12}f$ en $D_{21}f$ gelijk, wat geen algemene regel is
---
### Stelling van Schwarz en multivariabele polynomiale uitbreiding
* Stelling 12.3.2 (Schwarz): Voor functies $f: \mathbb{R}^2 \to \mathbb{R}$ met $f \in C^2(\Omega)$, geldt $D_{12}f(x,y) = D_{21}f(x,y)$ voor alle $(x,y) \in \Omega$ .
* Voor functies van $n$ variabelen in de klasse $C^p(\Omega)$, is de volgorde van partiële afgeleiden van in totaal $p$ afgeleidingen onbelangrijk .
* De formule voor $(x_1 + \dots + x_n)^p$ wordt gegeven door:
- $$(x_1 + \dots + x_n)^p = \sum_{\substack{i_1 + \dots + i_n = p \\ i_j \ge 0}} \frac{p
- }{i_1
- \dots i_n
- } x_1^{i_1} \dots x_n^{i_n}$$
* Voor $n=2$, herkent men de binomiaalcoëfficiënt $\binom{p}{i_1}$ .
### Uitbreiding tot vectorfuncties
* **Definitie 12.4.1:** Partiële afgeleide naar de $k$-de variabele van $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ in $\vec{a}$ is de limiet $\lim_{h \to 0} \frac{\vec{f}(\vec{a} + h\vec{e}_k) - \vec{f}(\vec{a})}{h}$ .
* **Propositie 12.4.1:** De partiële afgeleide van $\vec{f}$ in $\vec{a}$ bestaat als en slechts als die van alle componenten $f_i$ bestaat. $D_k\vec{f}(\vec{a}) = \sum_{i=1}^m D_k f_i(\vec{a})\vec{e}_i$ .
* **Definitie 12.4.2:** Een vectorfunctie $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ is differentieerbaar in $\vec{a}$ als elke component $f_i$ differentieerbaar is in $\vec{a}$ .
* **Gevolg 12.4.2:** $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ is differentieerbaar in $\vec{a}$ als er een matrix $A$ bestaat zodat $\vec{f}(\vec{x}) - \vec{f}(\vec{a}) = A(\vec{x} - \vec{a}) + \vec{\lambda}(\vec{x})\|\vec{x} - \vec{a}\|$, met $\lim_{\vec{x} \to \vec{a}} \vec{\lambda}(\vec{x}) = \vec{0}$ .
* **Definitie 12.4.3:** De Jacobiaanse matrix $D\vec{f}$ van $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ met $\vec{f} \in C^1(\Omega)$ is:
- $$D\vec{f} = \begin{pmatrix} D_1 f_1 & \dots & D_n f_1 \\ \vdots & \ddots & \vdots \\ D_1 f_m & \dots & D_n f_m \end{pmatrix}$$
### De kettingregel
* **Stelling 12.5.1:** Als $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ differentieerbaar is in $\vec{a}$ en $g: \mathbb{R}^m \to \mathbb{R}$ differentieerbaar is in $\vec{b} = \vec{f}(\vec{a})$, dan is $h = g \circ \vec{f}: \mathbb{R}^n \to \mathbb{R}$ differentieerbaar in $\vec{a}$ met $D_k h(\vec{a}) = \nabla g(\vec{b}) D_k \vec{f}(\vec{a})$ .
* **Gevolg 12.5.4:** Als $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ differentieerbaar is in $\vec{a}$ en $\vec{g}: \mathbb{R}^m \to \mathbb{R}^p$ differentieerbaar is in $\vec{b} = \vec{f}(\vec{a})$, dan is $\vec{h} = \vec{g} \circ \vec{f}: \mathbb{R}^n \to \mathbb{R}^p$ differentieerbaar in $\vec{a}$ met $D\vec{h}(\vec{a}) = D\vec{g}(\vec{b})D\vec{f}(\vec{a})$ .
* De kettingregel kan worden toegepast op functies met verschillende dimensies, wat leidt tot specifieke formules voor partiële afgeleiden .
### De middelwaardestelling
* **Stelling 12.6.1:** Als $f: \mathbb{R}^n \to \mathbb{R}$ differentieerbaar is in een open deelverzameling $\Omega$, en het segment $[\vec{a}\vec{b}] \subset \Omega$, dan bestaat er $\vec{c} \in [\vec{a}\vec{b}]$ zodat $f(\vec{b}) - f(\vec{a}) = (\vec{b} - \vec{a}) \cdot \nabla f(\vec{c})$ .
* **Gevolg 12.6.2:** Als $\nabla f(\vec{x}) = \vec{0}$ voor alle $\vec{x} \in \Omega$ (open en samenhangend), dan is $f(\vec{x})$ constant in $\Omega$ .
* **Gevolg 12.6.3:** Als $\nabla f(\vec{x}) = \nabla g(\vec{x})$ voor functies $f, g$ differentieerbaar in $\Omega$, dan bestaat een constante $C$ zodanig dat $f(\vec{x}) = g(\vec{x}) + C$ .
### Differentiaal
* **Definitie 12.7.1:** De lineaire benadering van $f: \mathbb{R}^n \to \mathbb{R}$ in $\vec{a}$ is $l(\vec{x}) = f(\vec{a}) + \nabla f(\vec{a}) \cdot (\vec{x} - \vec{a})$ .
* **Definitie 12.7.2:** De differentiaal van $f$ in $\vec{a}$ is $df_{\vec{a}}: \vec{x} \mapsto (\vec{x} - \vec{a}) \cdot \nabla f(\vec{a})$, vaak genoteerd als $df$ .
* Notatie $d\vec{x} = (dx_1, \dots, dx_n)$ waar $dx_k = x_k - a_k$. Voor een differentieerbare functie $f$, geldt $df = \nabla f \cdot d\vec{x} = \sum_{k=1}^n \frac{\partial f}{\partial x_k} dx_k$ .
* **Definitie 12.7.4:** De differentiaal van een vectorfunctie $\vec{f}: \mathbb{R}^n \to \mathbb{R}^m$ is $d\vec{f}: \vec{x} \mapsto D\vec{f} d\vec{x}$ .
### Homogene functies
* **Definitie 12.8.1:** Een open verzameling $\Omega \subset \mathbb{R}^n$ is een kegel met top $\vec{0}$ als voor elke $\vec{x} \in \Omega$ en $t > 0$, geldt dat $t\vec{x} \in \Omega$ .
### Formule van Taylor
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Absoluut Convergente Reeks | Een numerieke reeks ∑an wordt absoluut convergent genoemd als de reeks van de absolute waarden van de termen, ∑|an|, convergeert. |
| Betrekkelijk Convergente Reeks | Een numerieke reeks ∑an wordt betrekkelijk convergent genoemd als de reeks zelf convergeert, maar de reeks van de absolute waarden van de termen, ∑|an|, divergeert. |
| Criterium van Cauchy (voor Reeksen) | Een numerieke reeks ∑an convergeert als en slechts dan als er voor elke ε > 0 een natuurlijk getal M(ε) bestaat zodanig dat de absolute waarde van de som van termen van an+1 tot en met am kleiner is dan ε, voor alle m > n > M(ε). |
| d’Alembert Test | Een test voor de convergentie van een reeks ∑an. Als de absolute waarde van de verhouding van opeenvolgende termen, $|a_{n+1}/a_n|$, vanaf een zekere rang kleiner of gelijk is aan r < 1, dan convergeert de reeks absoluut. Als deze verhouding groter of gelijk is aan 1, dan divergeert de reeks. |
| Divergente Reeks | Een numerieke reeks waarbij de bijbehorende rij van partieelsommen divergeert. |
| Harmonische Reeks | De reeks ∑∞ n=1 1/n, die gedefinieerd wordt als 1 + 1/2 + 1/3 + ... + 1/n + ... en die divergeert. |
| Hyperharmonische Reeks | De reeks ∑∞ n=1 1/n^p, waarbij p > 0. Deze reeks convergeert als p > 1 en divergeert als 0 < p ≤ 1. |
| Limes Inferior (liminf) | De limiet van de rij vn, waarbij vn gedefinieerd is als de infimum van de termen ak van de oorspronkelijke rij (an) voor k ≥ n. Dit is de laagste mogelijke limiet die een deelrij kan benaderen. |
| Limes Superior (limsup) | De limiet van de rij un, waarbij un gedefinieerd is als de supremum van de termen ak van de oorspronkelijke rij (an) voor k ≥ n. Dit is de hoogste mogelijke limiet die een deelrij kan benaderen. |
| Leibniz Test | Een test voor de convergentie van wisselreeksen. Als (un) een dalende rij van positieve getallen is die naar 0 convergeert, dan convergeert de wisselreeks ∑(−1)^(n+1)un. |
| Meetkundige Reeks | Een reeks van de vorm ∑∞ n=0 c^n = 1 + c + c^2 + ... + c^n + ..., waarbij c een complex getal is. Deze reeks convergeert naar 1/(1-c) als |c| < 1 en divergeert als |c| > 1. |
| Numerieke Reeks | Een reeks van getallen, gevormd door de som van de termen van een numerieke rij (an), genoteerd als ∑∞ n=1 an. |
| Term | Definitie |
| Functierij | Een verzameling functies $(f_n)$ gedefinieerd op een verzameling $A$, waarbij voor elk natuurlijk getal $n$ een functie $f_n$ is gegeven. |
| Puntsgewijze convergentie | Een functierij $(f_n)$ convergeert puntsgewijs in een verzameling $A$ naar een functie $f$ als voor elk punt $x \in A$ de numerieke rij van functiewaarden $(f_n(x))$ convergeert naar $f(x)$. |
| Limietfunctie | De functie $f: A \to \mathbb{R}$ of $f: A \to \mathbb{C}$ die aan elke $x \in A$ de limiet van de convergente numerieke rij $(f_n(x))$ associeert. |
| Uniforme convergentie | Een functierij $(f_n)$ convergeert uniform op een verzameling $A$ naar een functie $f$ als voor elke $\epsilon > 0$ een $N(\epsilon)$ bestaat zodanig dat voor alle $n > N(\epsilon)$ geldt dat $\sup_{x \in A} |f_n(x) - f(x)| < \epsilon$. |
| Continuïteit van de limietfunctie | De eigenschap dat als een functierij $(f_n)$ uniform convergeert naar $f$ en alle functies $f_n$ continu zijn, de limietfunctie $f$ ook continu is. |
| Integreerbaarheid van de limietfunctie | De eigenschap dat als een functierij $(f_n)$ uniform convergeert naar $f$ en alle functies $f_n$ integreerbaar zijn op een interval $[a,b]$, de limietfunctie $f$ ook integreerbaar is op $[a,b]$ en de integraal van $f$ gelijk is aan de limiet van de integralen van $f_n$. |
| Afleidbaarheid van de limietfunctie | De eigenschap dat als een functierij $(f_n)$ puntsgewijs convergeert naar $f$, de rij van afgeleiden $(f'_n)$ uniform convergeert naar een functie $g$, en de afgeleiden $f'_n$ continu zijn, dan is $f$ afleidbaar en $f' = g$. |
| Negatieve machtenreeks (NMR) | Een reeks van de vorm $\sum_{n=1}^{\infty} b_n \frac{1}{(z-z_0)^n}$, waarbij de coëfficiënten $b_n$ niet noodzakelijk nul zijn voor alle $n$. Deze reeksen gedragen zich analoog aan positieve machtenreeksen, maar in gebieden die ontstaan na een inversie. |
| eρ (radius van convergentie voor NMR) | De limiet van de $n$-de wortel van de absolute waarde van de coëfficiënten van een negatieve machtenreeks, $\rho := \limsup_{n \to \infty} |b_n|^{1/n}$. Deze waarde bepaalt het gebied van convergentie van de reeks. Als de rij $|b_n|^{1/n}$ onbegrensd is, stelt men $\rho = +\infty$. |
| Singulariteit | Een punt $z_0$ waar een functie $f(z)$ niet analytisch is, maar wel analytisch is in een omgeving van $z_0$ met uitzondering van $z_0$ zelf. Een functie kan worden ontleed in een analytisch deel en een negatieve machtenreeksdeel rond de singulariteit. |
| Pool | Een type singulariteit dat optreedt wanneer de negatieve machtenreeksontwikkeling van een functie rond een punt $z_0$ slechts een eindig aantal termen bevat. Dit betekent dat de functie zich gedraagt als $\frac{c}{(z-z_0)^k}$ voor een bepaald geheel getal $k \ge 1$ nabij $z_0$. |
| Essentiële singulariteit | Een type singulariteit dat optreedt wanneer de negatieve machtenreeksontwikkeling van een functie rond een punt $z_0$ een oneindig aantal termen bevat. Het gedrag van de functie nabij een essentiële singulariteit is zeer complex. |
| Rationale functie | Een functie die kan worden uitgedrukt als het quotiënt van twee veeltermen, $f(z) = \frac{P_m(z)}{Q_n(z)}$, waarbij $P_m(z)$ en $Q_n(z)$ veeltermen zijn en geen gemeenschappelijke factoren hebben. Rationale functies hebben polen op de nulpunten van de noemer. |
| Multipliciteit van een pool | Het aantal keren dat een lineaire factor $(z-z_j)$ voorkomt in de ontbinding van de noemer van een rationale functie. Een pool met multipliciteit $k$ betekent dat de functie zich gedraagt als $\frac{c}{(z-z_j)^k}$ nabij $z_j$. |
| Elementaire functie | Een wiskundig begrip dat wordt gedefinieerd door een opsomming van specifieke functies, in tegenstelling tot "speciale functies" die in meer geavanceerde literatuur worden behandeld. |
| Natuurlijke machten | Functies van de vorm $x^n$, waarbij $n$ een natuurlijk getal is ($n \in \mathbb{N}$). Deze functies zijn gedefinieerd, continu en afleidbaar in het interval $]-\infty, +\infty[$. |
| Gehele machten | Functies van de vorm $x^n$, waarbij $n$ een geheel getal is ($n \in \mathbb{Z}$). Dit omvat zowel natuurlijke machten als machten met negatieve exponenten, gedefinieerd als $x^{-n} := \frac{1}{x^n}$ voor $n \in \mathbb{N}$ en $x \neq 0$. |
| Rationale machten | Functies van de vorm $x^{\frac{p}{q}}$, waarbij $p$ en $q$ natuurlijke getallen zijn die onderling ondeelbaar zijn en $q \neq 1$. Deze worden gedefinieerd als $(x^p)^{\frac{1}{q}}$ of $(x^{\frac{1}{q}})^p$. |
| Veeltermfunctie | Een functie van de vorm $a_0 + a_1x + a_2x^2 + \dots + a_nx^n$, waarbij $n$ een natuurlijk getal is en $a_0, a_1, \dots, a_n$ reële of complexe coëfficiënten zijn met $a_n \neq 0$. Deze functies zijn gedefinieerd, continu en afleidbaar in $]-\infty, +\infty[$. |
| Rationele functie | Het quotiënt van twee veeltermfuncties. Een rationale functie is gedefinieerd, continu en afleidbaar in elk open interval dat geen nulpunt van de noemer bevat. |
| Exponentiële functie | De functie, genoteerd als $\exp(z)$, gedefinieerd door de positieve machtenreeks $\sum_{n=0}^{\infty} \frac{1}{n!}z^n$. De restrictie tot de reële as, $\exp(x)$, is continu en afleidbaar in $]-\infty, +\infty[$ en voldoet aan de eigenschap $\exp(x_1)\exp(x_2) = \exp(x_1 + x_2)$. |
| Logaritmische functie | De inverse functie van de exponentiële functie $\exp(x)$, genoteerd als $\ln x$. Deze functie is gedefinieerd, continu, afleidbaar en strikt stijgend in $]0, +\infty[$ en neemt waarden aan in $]-\infty, +\infty[$. |
| Veralgemeende exponentiële functie | Een functie van de vorm $a^x$, waarbij $a$ een positief getal is ($a \neq 1$). Deze functie wordt gedefinieerd als $a^x := \exp(x \ln a)$ en is continu en afleidbaar in $]-\infty, +\infty[$. |
| Circulaire functies | Een klasse van functies die gerelateerd zijn aan de eenheidscirkel, waaronder sinus ($\sin x$), cosinus ($\cos x$), tangens ($\tan x$) en cotangens ($\cot x$). Deze functies worden gedefinieerd met behulp van de exponentiële functie en complexe getallen. |
| Cosinus | De functie $\cos x$, gedefinieerd als $\cos x := \frac{1}{2}(\exp(ix) + \exp(-ix))$. Het is een even functie, continu en afleidbaar in $]-\infty, +\infty[$ met afgeleide $D\cos x = -\sin x$. |
| Sinus | De functie $\sin x$, gedefinieerd als $\sin x := \frac{1}{2i}(\exp(ix) - \exp(-ix))$. Het is een oneven functie, continu en afleidbaar in $]-\infty, +\infty[$ met afgeleide $D\sin x = \cos x$. |
| Absoluut maximum | De hoogste functiewaarde die een functie aanneemt binnen een gegeven verzameling. Dit punt is gegarandeerd aanwezig voor continue functies op compacte verzamelingen volgens de stelling van Weierstrass. |
| Absoluut minimum | De laagste functiewaarde die een functie aanneemt binnen een gegeven verzameling. Net als het absolute maximum wordt dit gegarandeerd voor continue functies op compacte verzamelingen. |
| Compacte verzameling | Een gesloten en begrensde verzameling in een topologische ruimte. Voor continue functies op compacte verzamelingen garandeert de stelling van Weierstrass het bestaan van absolute extrema. |
| Extremumonderzoek | Het proces van het vinden van de maximale en minimale waarden van een functie, zowel lokaal als globaal, binnen een bepaald domein of op een specifieke verzameling. |
| Inwendige van een verzameling | De verzameling van alle punten in de verzameling die een open omgeving hebben die volledig binnen de verzameling ligt. Dit zijn de punten die niet op de rand van de verzameling liggen. |
| Lokaal maximum | Een punt waar de functiewaarde hoger is dan in alle omliggende punten binnen een bepaalde omgeving. Dit betekent niet noodzakelijk dat het de hoogste waarde over het gehele domein is. |
| Lokaal minimum | Een punt waar de functiewaarde lager is dan in alle omliggende punten binnen een bepaalde omgeving. Dit betekent niet noodzakelijk dat het de laagste waarde over het gehele domein is. |
| Niet-open verzameling | Een verzameling die niet voldoet aan de definitie van een open verzameling. Dit kan betekenen dat de verzameling geen randpunten bevat, of dat deze wel randpunten bevat maar deze niet tot de verzameling rekent. |
| Randpunten | De punten die de grens van een verzameling vormen. Deze punten liggen op de "rand" van de verzameling en kunnen wel of niet tot de verzameling zelf behoren, afhankelijk van of de verzameling gesloten is. |
| Stelling van Bolzano | Een stelling die stelt dat als een continue functie op een interval zowel positieve als negatieve waarden aanneemt, deze functie minstens één keer de waarde nul moet aannemen binnen dat interval. |
| Stelling van Weierstrass | Een fundamentele stelling in de analyse die stelt dat een continue functie op een compacte verzameling zowel een absoluut maximum als een absoluut minimum bereikt. |
| Zadelpunt | Een punt in het domein van een functie van meerdere variabelen waar de functie een lokaal maximum heeft in één richting en een lokaal minimum in een andere richting. Het is geen lokaal extremum. |
| Omkeren van integratievolgorde | Dit is een techniek die wordt toegepast bij het berekenen van meervoudige integralen, waarbij de volgorde van de differentiële elementen ($dx$ en $dy$) wordt verwisseld om de berekening te vereenvoudigen of mogelijk te maken. Het vereist een zorgvuldige analyse van het integratiegebied. |
| Integratiegebied | Het gebied in het coördinatenstelsel waarop een meervoudige integraal wordt berekend. Bij het omkeren van de integratievolgorde moet de beschrijving van dit gebied worden aangepast aan de nieuwe volgorde van integratie. |
| Cartesiaanse coördinaten | Een coördinatensysteem dat wordt gedefinieerd door twee of drie loodrechte assen (x, y, en z). Bij het omkeren van de integratievolgorde in cartesiaanse coördinaten, worden de grenzen van de integralen aangepast om de nieuwe volgorde te weerspiegelen. |
| Poolcoördinaten | Een tweeledig coördinatensysteem waarbij een punt wordt gespecificeerd door een afstand tot de oorsprong (r) en een hoek ten opzichte van een referentierichting ($\theta$). Het omkeren van de integratievolgorde kan soms eenvoudiger zijn door over te schakelen naar poolcoördinaten, vooral voor gebieden met cirkelvormige symmetrie. |
| Cilindercoördinaten | Een driedimensionaal coördinatensysteem dat een punt specificeert met een radiale afstand (r), een hoek ($\theta$) en een hoogte (z). Net als bij poolcoördinaten kan het omkeren van de integratievolgorde in cilindercoördinaten voordelig zijn voor bepaalde integratiegebieden. |
| Grensverandering | Het proces van het aanpassen van de integratiegrenzen wanneer de volgorde van integratie wordt omgekeerd. Dit is cruciaal om ervoor te zorgen dat de integraal over hetzelfde gebied wordt berekend. |
| Dubbele integraal | Een integraal van een functie van twee variabelen over een tweeledig gebied. Het omkeren van de integratievolgorde is een veelvoorkomende techniek bij het berekenen van dubbele integralen. |
| Driedubbele integraal | Een integraal van een functie van drie variabelen over een driedimensionaal gebied. Het principe van het omkeren van de integratievolgorde kan ook worden toegepast op driedubbele integralen, waarbij de volgorde van $dx$, $dy$, en $dz$ wordt gewijzigd. |
| Vectorieel product | Het vectorieel product van twee vectoren $\vec{v}$ en $\vec{w}$ is een vector die loodrecht staat op zowel $\vec{v}$ als $\vec{w}$. De richting wordt bepaald door de rechterhandregel en de grootte is gelijk aan het oppervlak van het parallellogram opgespannen door $\vec{v}$ en $\vec{w}$. |
| Scalair product | Het scalair product van twee vectoren is een getal dat wordt verkregen door de componenten van de vectoren met elkaar te vermenigvuldigen en de resultaten op te tellen. Het is ook gelijk aan het product van de groottes van de vectoren en de cosinus van de hoek ertussen. |
| Gemengd product | Het gemengd product van drie vectoren $\vec{u}$, $\vec{v}$ en $\vec{w}$, genoteerd als $(\vec{u}\vec{v}\vec{w})$, is gelijk aan $\vec{u} \cdot (\vec{v} \times \vec{w})$. Dit product is nul als en slechts dan als de drie vectoren lineair afhankelijk zijn. |
| Lineair afhankelijk | Een stel vectoren is lineair afhankelijk als ten minste één van de vectoren kan worden uitgedrukt als een lineaire combinatie van de andere vectoren in het stel. |
| Lineair onafhankelijk | Een stel vectoren is lineair onafhankelijk als geen enkele vector in het stel kan worden uitgedrukt als een lineaire combinatie van de andere vectoren in het stel. |
| Rechtshandige basis | Een stel van drie lineair onafhankelijke vectoren $(\vec{u}, \vec{v}, \vec{w})$ vormt een rechtshandige basis als het gemengd product $(\vec{u}\vec{v}\vec{w})$ positief is. |
| Linkshandige basis | Een stel van drie lineair onafhankelijke vectoren $(\vec{u}, \vec{v}, \vec{w})$ vormt een linkshandige basis als het gemengd product $(\vec{u}\vec{v}\vec{w})$ negatief is. |
| Identiteit van Lagrange | De identiteit van Lagrange voor twee vectoren $\vec{v}$ en $\vec{w}$ stelt dat de gekwadrateerde norm van hun vectorieel product gelijk is aan het verschil tussen het product van hun gekwadrateerde normen en het kwadraat van hun scalair product: $\| \vec{v} \times \vec{w} \|^2 = \| \vec{v} \|^2 \| \vec{w} \|^2 - (\vec{v} \cdot \vec{w})^2$. |
| Coördinaatvoorstelling | Een coördinaatvoorstelling van een vectoroperatie geeft de uitkomst van de operatie uitgedrukt in de componenten van de betrokken vectoren ten opzichte van een gegeven basis. |
| Parallellepipedum | Een parallellepipedum is een driedimensionaal lichaam waarvan alle zijden parallellogrammen zijn. Het kan worden opgespannen door drie vectoren die uit één punt vertrekken. |
| Veld | Een verzameling met twee binaire bewerkingen (optelling en vermenigvuldiging) die voldoen aan specifieke axioma's, zoals commutativiteit, associativiteit, het bestaan van een nul- en eenheidselement, en het bestaan van tegengestelde en omgekeerde elementen (behalve voor nul). |
| Commutatieve optelling | De eigenschap van optelling waarbij de volgorde van de operanden de uitkomst niet beïnvloedt, formeel uitgedrukt als $a + b = b + a$ voor alle $a, b$ in de verzameling. |
| Associatieve optelling | De eigenschap van optelling waarbij de groepering van operanden de uitkomst niet beïnvloedt, formeel uitgedrukt als $(a + b) + c = a + (b + c)$ voor alle $a, b, c$ in de verzameling. |
| Nul-element | Een speciaal element in een verzameling met optelling, genoteerd als 0, zodanig dat voor elk element $a$ geldt dat $0 + a = a$ en $a + 0 = a$. |
| Tegengestelde | Voor elk element $a$ in een verzameling met optelling bestaat er een uniek element, genoteerd als $-a$, zodanig dat $a + (-a) = 0$ en $(-a) + a = 0$. |
| Commutatieve vermenigvuldiging | De eigenschap van vermenigvuldiging waarbij de volgorde van de operanden de uitkomst niet beïnvloedt, formeel uitgedrukt als $a \cdot b = b \cdot a$ voor alle $a, b$ in de verzameling. |
| Associatieve vermenigvuldiging | De eigenschap van vermenigvuldiging waarbij de groepering van operanden de uitkomst niet beïnvloedt, formeel uitgedrukt als $(a \cdot b) \cdot c = a \cdot (b \cdot c)$ voor alle $a, b, c$ in de verzameling. |
| Eenheidselement | Een speciaal element in een verzameling met vermenigvuldiging, genoteerd als 1 (en verschillend van 0), zodanig dat voor elk element $a$ geldt dat $1 \cdot a = a$ en $a \cdot 1 = a$. |
| Omgekeerde | Voor elk element $a$ in een verzameling met vermenigvuldiging, dat niet nul is, bestaat er een uniek element, genoteerd als $1/a$, zodanig dat $a \cdot (1/a) = 1$ en $(1/a) \cdot a = 1$. |
| Distributieve eigenschap | De eigenschap die de relatie tussen optelling en vermenigvuldiging beschrijft, namelijk dat vermenigvuldiging "verdeeld" kan worden over optelling: $a \cdot (b + c) = (a \cdot b) + (a \cdot c)$ en $(b + c) \cdot a = (b \cdot a) + (c \cdot a)$. |
| Orde-axioma | Een axioma dat de structuur van "groter dan" of "kleiner dan" definieert op een verzameling, door middel van een verzameling van positieve getallen die gesloten is onder optelling en vermenigvuldiging, en waarbij elk getal ofwel positief is, ofwel nul, ofwel het tegengestelde van een positief getal. |
| Positief getal | Een reëel getal dat behoort tot de specifieke niet-ledige deelverzameling P van R, die de basis vormt voor de ordening. |
| Ophopingspunt | Een punt $c$ is een ophopingspunt van een verzameling $A \subset \mathbb{R}$ als elke $\delta$-omgeving van $c$ een punt van $A$, verschillend van $c$, bevat. Dit betekent dat voor elke $\delta > 0$ er een punt $a \in A$ bestaat, met $a \neq c$, waarvoor geldt dat $|a - c| < \delta$. |
| Limiet van een functie | De limiet van een functie $f(x)$ als $x$ nadert tot $c$, genoteerd als $\lim_{x\to c} f(x) = L$, betekent dat voor elke $\varepsilon > 0$ er een $\delta(\varepsilon) > 0$ bestaat zodanig dat als $x \in A$ en $0 < |x - c| < \delta(\varepsilon)$, dan geldt $|f(x) - L| < \varepsilon$. |
| Begrensdheid in een omgeving | Een functie $f$ is begrensd in een omgeving van een punt $c$ als er een $\delta$-omgeving $V_\delta(c)$ van $c$ bestaat waarvoor $f$ begrensd is op het snijpunt van het domein van $f$ en deze omgeving, $dom f \cap V_\delta(c)$. |
| Rechterlimiet | Als $c$ een ophopingspunt is van $A \cap ]c, +\infty[$, dan heeft $f$ een rechterlimiet $L$ in $c$, genoteerd als $\lim_{x\to > c} f(x) = f(c^+) = L$, als voor elke $\varepsilon > 0$ er een $\delta(\varepsilon) > 0$ bestaat zodanig dat als $x \in A$ en $0 < x - c < \delta(\varepsilon)$, dan geldt $|f(x) - L| < \varepsilon$. |
| Linkerlimiet | Als $c$ een ophopingspunt is van $A \cap ]-\infty, c[$, dan heeft $f$ een linkerlimiet $L$ in $c$, genoteerd als $\lim_{x\to < c} f(x) = f(c^-) = L$, als voor elke $\varepsilon > 0$ er een $\delta(\varepsilon) > 0$ bestaat zodanig dat als $x \in A$ en $0 < c - x < \delta(\varepsilon)$, dan geldt $|f(x) - L| < \varepsilon$. |
| Limiet naar oneindig | Een functie $f(x)$ streeft naar $+\infty$ als $x$ nadert tot $c$, genoteerd als $\lim_{x\to c} f(x) = +\infty$, als voor elk reëel getal $\alpha$ er een $\delta(\alpha) > 0$ bestaat zodanig dat $f(x) > \alpha$ zodra $0 < |x - c| < \delta$. |
| Limiet op oneindig | De limiet van $f(x)$ als $x$ nadert tot $+\infty$, genoteerd als $\lim_{x\to +\infty} f(x) = L$, betekent dat voor elke $\varepsilon > 0$ er een $\alpha(\varepsilon) \in \mathbb{R}$ bestaat zodanig dat $|f(x) - L| < \varepsilon$ zodra $x > \alpha(\varepsilon)$. |
| Continuïteit in een punt | Een functie $f$ is continu in een punt $c \in A$ als voor elke $\varepsilon > 0$ er een $\delta(\varepsilon) > 0$ bestaat zodanig dat $|f(x) - f(c)| < \varepsilon$ zodra $|x - c| < \delta$ en $x \in A$. |
| Continue extensie | Een functie $f_{ext}: A \cup \{c\} \to \mathbb{R}$ of $\mathbb{C}$ is de continue extensie van een functie $f$ in het punt $c$ als $f$ continu is op $A$, $c$ een ophopingspunt is van $A$, $f$ niet gedefinieerd is in $c$, en $\lim_{x\to c} f(x) = L$, waarbij $f_{ext}(x) = f(x)$ voor $x \in A$ en $f_{ext}(c) = L$. |
| Riemannintegraal | Een integraalconcept dat globaal over een gegeven eindig interval $[a,b]$ wordt ingevoerd, waarbij het interval wordt opgesplitst in deelintervallen en de som van de producten van de functiewaarde op een gekozen punt in elk deelinterval en de lengte van dat deelinterval wordt beschouwd. |
| Partitie | Een opsplitsing van een interval $[a,b]$ in een eindig aantal niet-overlappende deelintervallen, gedefinieerd als $P := \{a = x_0 < x_1 < \dots < x_{n-1} < x_n = b\}$. |
| Norm van de partitie | De lengte van het grootste deelinterval in een partitie $P$, gedefinieerd als $\| P \| := \max\{x_1 - x_0, x_2 - x_1, \dots, x_n - x_{n-1}\}$. |
| Gelabelde partitie | Een partitie $P$ samen met een verzameling van geselecteerde punten $\{t_j : j = 1, \dots, n\}$, één punt uit elk deelinterval $[x_{j-1}, x_j]$, genoteerd als $\dot{P} := \{([x_{j-1}, x_j], t_j) : j = 1, \dots, n\}$. |
| Riemannsom | Een som van de vorm $S(f; \dot{P}) := \sum_{j=1}^{n} f(t_j)(x_j - x_{j-1})$, die afhangt van de functie $f$, de gelabelde partitie $\dot{P}$ en het interval $[a,b]$. |
| Riemannintegreerbaar | Een functie $f$ wordt riemannintegreerbaar genoemd over $[a,b]$ als er een getal $L$ bestaat zodanig dat voor elke $\varepsilon > 0$, er een $\delta(\varepsilon) > 0$ bestaat waarvoor $|S(f; \dot{P}) - L| < \varepsilon$ voor elke gelabelde partitie $\dot{P}$ met $\| \dot{P} \| < \delta(\varepsilon)$. |
| Uitgebreide Riemannintegraal | Een concept dat het integraalbegrip uitbreidt tot onbegrensde functies, gedefinieerd als een limiet van Riemannintegralen over deelintervallen wanneer deze deelintervallen naar de punten van onbegrensdheid naderen. |
| Convergentie van een integraal | Een uitgebreide Riemannintegraal convergeert als de bijbehorende limiet van Riemannintegralen bestaat en een eindige waarde aanneemt. |
| Divergentie van een integraal | Een uitgebreide Riemannintegraal divergeert als de bijbehorende limiet van Riemannintegralen niet bestaat of oneindig is. |
| Maat nul | Een verzameling reële getallen heeft maat nul als deze kan worden overdekt door een aftelbare verzameling open intervallen waarvan de totale lengte willekeurig klein kan worden gemaakt. |
| Criterium van Lebesgue | Een functie $f$ is riemannintegreerbaar over $[a,b]$ als en slechts dan als $f$ begrensd is op $[a,b]$ en de verzameling van discontinuïteitspunten van $f$ in $[a,b]$ maat nul heeft. |
| Riemann-integraal | Een getal L dat bestaat zodanig dat voor elke ε > 0 een δ(ε) > 0 kan worden gevonden, waarvoor de absolute waarde van het verschil tussen een Riemannsom S(f, P⃗C) en L kleiner is dan ε, voor elke gelabelde partitie P⃗C met een norm kleiner dan δ(ε). Dit getal L is de waarde van de Riemannintegraal van f over het interval I. |
| Norm van een partitie | De grootste diameter van de deelintervallen in een partitie P. In R2 is dit de grootste waarde van $\sqrt{(x_i - x_{i-1})^2 + (y_j - y_{j-1})^2}$, en in R3 is dit de grootste waarde van $\sqrt{(x_i - x_{i-1})^2 + (y_j - y_{j-1})^2 + (z_k - z_{k-1})^2}$. |
| X-projecteerbare kromme | Een kromme in R2 van de vorm {(x,y) | y = $\phi$(x), x ∈ [a,b], $\phi$ continu}. |
| Y-projecteerbare kromme | Een kromme in R2 van de vorm {(x,y) | x = $\psi$(y), y ∈ [c,d], $\psi$ continu}. |
| Projecteerbaar oppervlak | Een oppervlak in R3 dat voldoet aan één van de definities van XY-, YZ- of ZX-projecteerbare oppervlakken. |
| Middelwaardestelling van de integraalrekening | Voor een continue functie f in een gesloten interval I, bestaat er een punt ⃗c ∈ I zodanig dat de integraal van f over I gelijk is aan de functiewaarde in ⃗c vermenigvuldigd met de oppervlakte (in R2) of het volume (in R3) van I. |
| Volume | De hoeveelheid driedimensionale ruimte die een object inneemt. In de context van deze oefeningen wordt het volume vaak berekend met behulp van meervoudige integralen over een bepaald gebied. |
| Integraal | Een wiskundige bewerking die het "optellen" van oneindig veel kleine delen vertegenwoordigt om een totaal te verkrijgen, zoals het berekenen van oppervlaktes of volumes. |
| Integratievolgorde | De volgorde waarin de variabelen in een meervoudige integraal worden geïntegreerd. Het omkeren van de integratievolgorde kan soms de berekening vereenvoudigen. |
| Massamiddelpunt | Het gemiddelde punt van alle punten in een object, gewogen naar hun massa. Het is het punt waar het object in evenwicht zou zijn als het daar werd ondersteund. |
| Kegel | Een driedimensionaal geometrisch lichaam dat wordt gevormd door een platte basis (meestal een cirkel) en een punt (de top), waarbij alle punten op de omtrek van de basis zijn verbonden met de top door rechte lijnen. |
| Cilinder | Een driedimensionaal geometrisch lichaam dat wordt gevormd door twee parallelle, congruente vlakke bases (meestal cirkels) en een gebogen oppervlak dat de bases verbindt. |
| Paraboloïde | Een driedimensionaal oppervlak dat wordt gevormd door het roteren van een parabool rond zijn symmetrieas. |
| Sfeer | Een driedimensionaal geometrisch object dat bestaat uit alle punten die zich op een constante afstand (de straal) bevinden van een centraal punt (het middelpunt). |
| Domein van integratie | Het gebied in de ruimte waarover een integraal wordt berekend. Dit kan een gebied in het $xy$-vlak zijn voor een dubbele integraal, of een volume in de driedimensionale ruimte voor een driedubbele integraal. |
| Integratievolgorde omkeren | Het aanpassen van de volgorde van de differentiëlen in een meervoudige integraal, bijvoorbeeld van $dy dx$ naar $dx dy$, om de berekening te vereenvoudigen of mogelijk te maken. Dit vereist vaak een herdefiniëring van de integratiegrenzen. |
| Transformatie | Een functie die punten van de ene ruimte naar de andere afbeeldt. Bij het berekenen van integralen kan een transformatie worden gebruikt om een complex integratiegebied te vereenvoudigen door het naar een eenvoudiger gebied af te beelden. |
| Begrensd | Een functie is begrensd op een interval als er een bovengrens en een ondergrens bestaat voor de functiewaarden op dat interval. |
| Continuïteit op een gesloten interval | Een functie $f$ is continu op een gesloten interval $[a,b]$ als de limiet van $f(x)$ gelijk is aan $f(c)$ voor elke $c$ in het open interval $]a,b[$, de linkerlimiet van $f(x)$ gelijk is aan $f(b)$ als $x$ naar $b$ gaat, en de rechterlimiet van $f(x)$ gelijk is aan $f(a)$ als $x$ naar $a$ gaat. |
| Gesloten begrensd interval | Een interval van de vorm $[\eta, \xi]$, waarbij $\eta$ de infimum en $\xi$ de supremum van de functiewaarden op een bepaald interval is. |
| Infimum | Het grootste onder de ondergrenzen van een verzameling getallen. |
| Supremum | Het kleinste boven de bovengrenzen van een verzameling getallen. |
| Stelling van Bolzano I | Als een functie $f$ continu is op een gesloten interval $[a,b]$ en $f(a)$ en $f(b)$ tegengestelde tekens hebben, dan bestaat er een punt $c$ in het open interval $]a,b[$ waarvoor $f(c) = 0$. |
| Stelling van Bolzano II | Als een functie $f$ continu is op een gesloten interval $[a,b]$ en $\alpha$ een reëel getal is tussen $f(a)$ en $f(b)$, dan bestaat er een punt $c$ in het open interval $]a,b[$ waarvoor $f(c) = \alpha$. |
| Stelling van Weierstraß | Als een functie $f$ continu is op een gesloten interval $[a,b]$, dan bereikt de functie zowel een minimum als een maximum op dat interval. |
| Positieve machtenreeks (PMR) | Een functiereeks van de vorm $\sum_{n=0}^{\infty} a_n(z - z_0)^n$, waarbij $a_n$ reële of complexe coëfficiënten zijn en $z_0$ een vast punt in het complexe vlak is. Deze reeks wordt ook wel een PMR in machten van $(z - z_0)$ genoemd. |
| Convergentiestraal (R) | Een eigenschap van een positieve machtenreeks die de grootte van de open schijf bepaalt waarbinnen de reeks convergeert. De convergentiestraal $R$ wordt gedefinieerd op basis van de limiet van de $n$-de wortel van de absolute waarde van de coëfficiënten, $\rho = \limsup_{n\to\infty} |a_n|^{1/n}$. Specifiek geldt: $R = 0$ als $\rho = +\infty$, $R = 1/\rho$ als $0 < \rho < +\infty$, en $R = +\infty$ als $\rho = 0$. |
| Analytische functie | Een functie $f(z)$ die in de omgeving van een punt $z_0$ kan worden voorgesteld door een positieve machtenreeks met een convergentiestraal $R > 0$. Een functie is analytisch in een open gebied $\Omega$ als deze analytisch is in de omgeving van elk punt in $\Omega$. |
| Reëel-analytische functie | Een functie $f(x)$ die op een open interval $]a,b[$ kan worden voorgesteld door een positieve machtenreeks rond elk punt $x_0 \in ]a,b[$ met een positieve convergentiestraal $R$. Dit betekent dat $f(x) = \sum_{n=0}^{\infty} a_n(x-x_0)^n$ voor $x \in ]x_0-R, x_0+R[$. |
| Partiele som | De som van de eerste $N$ termen van een functiereeks. Voor een reeks $\sum_{n=1}^{\infty} f_n(x)$ is de $N$-de partiele som $s_N(x) = \sum_{n=1}^{N} f_n(x)$. De convergentie van de functiereeks wordt bepaald door de convergentie van de rij van partieelsommen. |
| M-test van Weierstraß | Een criterium om de uniforme convergentie van een functiereeks aan te tonen. Als er voor elke term $f_n(x)$ van de reeks $\sum f_n(x)$ een getal $M_n$ bestaat zodanig dat $\sup_{x \in A} |f_n(x)| \leq M_n$ en de numerieke reeks $\sum M_n$ convergeert, dan convergeert $\sum f_n(x)$ uniform op $A$. |
| Inwendig punt | Een punt $\vec{a}$ van een verzameling $S \subset R^n$ is een inwendig punt als er een $\epsilon$-omgeving $B(\vec{a};\epsilon)$ van $\vec{a}$ bestaat die volledig tot $S$ behoort. |
| Uitwendig punt | Een punt $\vec{a} \in R^n$ is een uitwendig punt van een verzameling $S \subset R^n$ als er een $\epsilon$-omgeving $B(\vec{a};\epsilon)$ van $\vec{a}$ bestaat die volledig tot het complement van $S$ behoort. |
| Randpunt | Een punt $\vec{a} \in R^n$ dat noch een inwendig, noch een uitwendig punt is van een verzameling $S \subset R^n$, wordt een randpunt van $S$ genoemd. |
| Open verzameling | Een deelverzameling $\Omega \subset R^n$ heet open indien elk punt van $\Omega$ een inwendig punt is. |
| Gesloten verzameling | Een verzameling $S \subset R^n$ heet gesloten indien haar complement in $R^n$ open is. |
| Begrensde verzameling | Een deelverzameling $S \subset R^n$ heet begrensd indien er een $M > 0$ bestaat zodanig dat $\| \vec{x} \| \leq M$ voor alle $\vec{x} \in S$. |
| Rij in Rn | Een rij in $R^n$ is een functie gedefinieerd op de natuurlijke getallen $\mathbb{N}$, met waarden in $R^n$. |
| Convergente rij | Een rij $(\vec{a}_m)$ in $R^n$ convergeert naar $\vec{\alpha} \in R^n$ als er voor elke $\epsilon > 0$ een natuurlijk getal $N(\epsilon)$ bestaat, zodanig dat $\| \vec{a}_m - \vec{\alpha} \| < \epsilon$ zodra $m \geq N(\epsilon)$. |
| Cauchy-rij | Een rij $(\vec{a}_m)$ in $R^n$ wordt een Cauchy-rij genoemd als voor elke $\epsilon > 0$ er een $N \in \mathbb{N}$ bestaat zodanig dat $\| \vec{a}_p - \vec{a}_q \| < \epsilon$ zodra $p > N$ en $q > N$. |
| Stelling van Bolzano-Weierstrass (voor rijen) | Elke begrensde rij in $R^n$ bezit een convergente deelrij. |
| Kritisch punt | Een inwendig punt van het domein van een functie $f: \mathbb{R}^n \to \mathbb{R}$, waar $f$ differentieerbaar is en de gradiënt $\nabla f$ gelijk is aan de nulvector ($\nabla f(\vec{a}) = \vec{0}$). |
| Kwadratische vorm | Geassocieerd met de tweede-orde partiële afgeleiden van een functie $f$, gedefinieerd als $\Phi(\vec{h}) = (\vec{h} \cdot \nabla)^2 f(\vec{a}) = \sum_{i=1}^n \sum_{j=1}^n h_i h_j D_{ij} f(\vec{a})$ voor $\vec{h} \in \mathbb{R}^n \setminus \{\vec{0}\}$. |
| Nodige voorwaarde voor extremum | Als een differentieerbare functie $f$ een lokaal extremum bereikt in een inwendig punt $\vec{a}$ van haar domein, dan moet de gradiënt van $f$ in dat punt nul zijn: $\nabla f(\vec{a}) = \vec{0}$. |
| Partiële afgeleide van de tweede orde | Dit zijn de partiële afgeleiden van de eerste-orde partiële afgeleiden van een functie. Voor een functie $f: R^n \to R$ verkrijgt men $n^2$ functies van de vorm $D_j(D_k f)$, wat ook genoteerd kan worden als $D_{k j} f$, $\frac{\partial^2 f}{\partial x_j \partial x_k}$, of $f_{x_j x_k}$. |
| Continu differentieerbaar | Een functie $f: R^n \to R$ wordt continu differentieerbaar genoemd in een open verzameling $\Omega$ als al haar partiële afgeleiden continu zijn in $\Omega$. Deze verzameling functies wordt genoteerd als $C^1(\Omega)$. |
| Hogere-orde partiële afgeleiden | Dit zijn partiële afgeleiden die verkregen worden door herhaaldelijk partiële afgeleiden te nemen van een functie. De $p$-de orde partiële afgeleiden worden ingevoerd door opvolgende afleidingen te nemen. |
| $p$ maal continu differentieerbaar | Een functie $f: R^n \to R$ wordt $p$ maal continu differentieerbaar genoemd in een open verzameling $\Omega$ als al haar partiële afgeleiden van de $p$-de orde continu zijn in $\Omega$. Dit wordt genoteerd als $f \in C^p(\Omega)$. |
| Gemengde afgeleiden | Dit zijn partiële afgeleiden waarbij de volgorde van afleiding tussen verschillende variabelen verschilt, bijvoorbeeld $D_{12} f$ en $D_{21} f$. De stelling van Schwarz stelt dat onder bepaalde voorwaarden deze gemengde afgeleiden gelijk zijn. |
| Stelling van Schwarz | Deze stelling stelt dat als een functie $f: R^2 \to R$ tweemaal continu differentieerbaar is in een open verzameling $\Omega$ (dus $f \in C^2(\Omega)$), dan zijn de gemengde partiële afgeleiden gelijk: $D_{12} f(x,y) = D_{21} f(x,y)$ voor alle $(x,y) \in \Omega$. |
| Jacobiaanse matrix | Voor een continu differentieerbare vectorfunctie $\vec{f}: R^n \to R^m$, genoteerd als $\vec{f} \in C^1(\Omega)$, is de Jacobiaanse matrix een $m \times n$ matrix waarvan de elementen de partiële afgeleiden van de componentfuncties van $\vec{f}$ zijn. De matrix wordt genoteerd als $D\vec{f}$ en heeft de vorm: $$D\vec{f} = \begin{pmatrix} D_1 f_1 & \cdots & D_n f_1 \\ \vdots & \ddots & \vdots \\ D_1 f_m & \cdots & D_n f_m \end{pmatrix}$$ |
| Kettingregel | Dit is een fundamentele regel in de differentiaalrekening die beschrijft hoe de afgeleide van een samengestelde functie wordt berekend. Voor vectorfuncties stelt de regel dat de Jacobiaanse matrix van de samengestelde functie het product is van de Jacobiaanse matrices van de individuele functies: $D\vec{h}(\vec{a}) = D\vec{g}(\vec{b})D\vec{f}(\vec{a})$, waarbij $\vec{h} = \vec{g} \circ \vec{f}$. |
| Totale afgeleide | In de context van functies die impliciet afhangen van een parameter, zoals $w = g(x(t), y(t), z(t), t)$, verwijst de totale afgeleide van $w$ naar $t$ naar de som van alle bijdragen aan de verandering van $w$ door de veranderingen in de tussenliggende variabelen en de directe afhankelijkheid van $t$. Dit wordt berekend met behulp van de kettingregel. |
| Middelwaardestelling voor functies van meerdere variabelen | Voor een differentieerbare functie $f: R^n \to R$ en een segment $[\vec{a}, \vec{b}]$ binnen haar domein $\Omega$, bestaat er een punt $\vec{c}$ op dit segment waarvoor geldt dat $f(\vec{b}) - f(\vec{a}) = (\vec{b} - \vec{a}) \cdot \nabla f(\vec{c})$. Dit is een uitbreiding van de middelwaardestelling voor functies van één variabele. |
| Positief definiet | Een eigenschap van een matrix waarbij de bijbehorende kwadratische vorm strikt positief is voor alle niet-nul vectoren. |
| Negatief definiet | Een eigenschap van een matrix waarbij de bijbehorende kwadratische vorm strikt negatief is voor alle niet-nul vectoren. |
| Indefiniet | Een eigenschap van een matrix waarbij de bijbehorende kwadratische vorm zowel positieve als negatieve waarden aanneemt voor verschillende niet-nul vectoren. |
| Eigenwaarden | Scalaire waarden die geassocieerd zijn met een lineaire transformatie, die de mate van rek of krimp langs bepaalde richtingen aangeven. |
| Discriminant | Een waarde die wordt berekend uit de coëfficiënten van een kwadratische vorm en die informatie geeft over de aard van de extrema (minimum, maximum of zadelpunt). |
| Taylorreeks | Een representatie van een functie als een oneindige som van termen die worden berekend uit de waarden van de afgeleiden van de functie op één punt. |
| Hoofdminorentest | Een methode om de definitie van een symmetrische matrix te bepalen aan de hand van de determinanten van zijn hoofdminoren. |
| Drievoudige integraal | Een integraal over een driedimensionaal gebied, wat de som is van de functiewaarden vermenigvuldigd met de volume-elementen van dat gebied. |
| Opeenvolgende integratie | Een methode om meerdimensionale integralen te berekenen door ze te herschrijven als een reeks enkelvoudige integralen, waarbij telkens één variabele wordt geïntegreerd terwijl de andere als constant worden beschouwd. |
| Integreerbaar | Een functie wordt integreerbaar genoemd over een bepaald gebied als de limiet van de Riemannsommen bestaat en onafhankelijk is van de keuze van de partitie en de representatieve punten. |
| X-projecteerbaar gebied | Een gebied in het 2D-vlak dat kan worden beschreven als $\{(x,y) : a \le x \le b, \phi_1(x) \le y \le \phi_2(x)\}$, waarbij $\phi_1$ en $\phi_2$ continue functies zijn. |
| Y-projecteerbaar gebied | Een gebied in het 2D-vlak dat kan worden beschreven als $\{(x,y) : c \le y \le d, \psi_1(y) \le x \le \psi_2(y)\}$, waarbij $\psi_1$ en $\psi_2$ continue functies zijn. |
| XY-projecteerbaar gebied | Een gebied in het 3D-ruimte dat kan worden beschreven als $\{(x,y,z) : (x,y) \in G_{xy}, \phi_1(x,y) \le z \le \phi_2(x,y)\}$, waarbij $G_{xy}$ een begrensd gebied in het xy-vlak is en $\phi_1, \phi_2$ continue functies zijn. |
| Oppervlakte-element | Een infinitesimaal klein oppervlakte-element, vaak aangeduid als $dA$ of $dxdy$ in de context van dubbele integralen. |
| Volume-element | Een infinitesimaal klein volume-element, vaak aangeduid als $dV$ of $dxdydz$ in de context van drievoudige integralen. |
| Integraal over een gebied G | De integraal van een functie over een willekeurig gebied G, die gedefinieerd wordt door de integraal van een uitgebreide functie $f^*$ over een interval I die G bevat, waarbij $f^*$ gelijk is aan de oorspronkelijke functie binnen G en nul daarbuiten. |
| Vrije vector | Een klasse van equipollente puntenkoppels, gekenmerkt door een richting, een zin en een lengte (norm), maar zonder vaste positie in de ruimte. |
| Equipollent | Puntenkoppels (P,Q) en (P′,Q′) die equipollent zijn als ze voldoen aan specifieke meetkundige voorwaarden, zoals het vormen van een parallellogram of een gelijkwaardige relatie, wat impliceert dat ze dezelfde vrije vector representeren. |
| Norm van een vector | De lengte van een vector, genoteerd als ∥⃗v∥, die gelijk is aan de afstand tussen twee willekeurige punten P en Q die een representant van de vector bepalen. |
| Nulvector | De vector die wordt bepaald door elk koppel identieke punten (P,P). Het is de enige vector met norm 0 en bezit geen richting noch zin. |
| Eenheidsvector (genormeerde vector) | Een vector waarvan de norm gelijk is aan 1. |
| Translatie | Een permutatie van de puntenruimte die een punt P afbeeldt op een punt P′ zodanig dat ⃗PP′ de translatievector is. |
| Som van vectoren | De vector ⃗v + ⃗w, verkregen door twee vectoren ⃗v en ⃗w te representeren met op elkaar aansluitende puntenkoppels (P,Q) en (Q,R); de som is dan de vector met representant (P,R). |
| Scalair | Een reëel getal dat gebruikt wordt om een vector te vermenigvuldigen, resulterend in een nieuwe vector die parallel is aan de oorspronkelijke vector en waarvan de lengte wordt aangepast met de absolute waarde van de scalair. |
| Lineaire ruimte | Een verzameling vectoren met gedefinieerde optelling en vermenigvuldiging met scalairen die voldoen aan specifieke axioma's, zoals associativiteit, commutativiteit en distributiviteit. |
| Lineaire combinatie | Een vector ⃗v die kan worden uitgedrukt als de som van scalairen vermenigvuldigd met andere vectoren, d.w.z. ⃗v = s1⃗v1 +... +sn⃗vn. |
| Lineair afhankelijk stel vectoren | Een stel vectoren (⃗v1,...,⃗vn) waarvoor er een stel scalairen (s1,..., sn) ̸= (0,..., 0) bestaat zodanig dat s1⃗v1 +... +sn⃗vn =⃗0. |
| Lineair onafhankelijk stel vectoren | Een stel vectoren waarvoor de enige oplossing van s1⃗v1 +... +sn⃗vn =⃗0 is dat alle scalairen s1,..., sn gelijk zijn aan nul. |
| Primitieveerbaarheid | Een functie $f:]a,b[ \to \mathbb{R}$ of $\mathbb{C}$ is primitieveerbaar in $]a,b[$ als er een functie $F:]a,b[ \to \mathbb{R}$ of $\mathbb{C}$ bestaat die afleidbaar is in $]a,b[$ en waarvoor geldt dat $F' = f$ in $]a,b[$. De functie $F$ wordt een primitieve van $f$ genoemd. |
| Primitieve (functie) | Een functie $F$ die afleidbaar is in een interval $]a,b[$ en waarvan de afgeleide $F'$ gelijk is aan de functie $f$ in datzelfde interval. |
| Verzamelingsnotatie voor primitieven | De verzameling van alle primitieven van een primitieveerbare functie $f$ in $]a,b[$ wordt genoteerd als $\int f$ of $\int f(x)dx$. |
| Continuïteit als voldoende voorwaarde | Als een functie $f$ continu is in een interval $I$, dan is $f$ gegarandeerd primitieveerbaar in $I$. Dit is echter geen noodzakelijke voorwaarde. |
| Primitieveerbaarheid en intervallen | Primitieveerbaarheid is geen lokale eigenschap, maar wordt gedefinieerd over een specifiek interval. Een functie kan primitieveerbaar zijn in het ene interval maar niet in het andere. |
| Stelling 4.6.1 | Als een functie $f$ continu is in een interval $I$, dan is $f$ primitieveerbaar in $I$. |
| Gevolg 5.1.9 | Als een functie $f$ continu is op een gesloten interval $[a,b]$, dan is de functie $F(x) := \int_a^x f(t)dt$ een primitieve van $f$ in $[a,b]$. |
| Stelling 5.1.8 | Als een functie $f$ continu is op $[a,b]$, dan is de functie $F(x) := \int_a^x f(t)dt$ afleidbaar in $[a,b]$ en geldt $F'(x) = f(x)$ voor alle $x \in [a,b]$. |
| Additieve constante bij primitieven | Als $F$ een primitieve is van $f$ in $]a,b[$, dan zijn alle functies van de vorm $F+C$, waarbij $C$ een willekeurige constante is, ook primitieven van $f$ in $]a,b[$. |
| n-dimensionale reële ruimte Rn | De verzameling van alle geordende n-tallen $(x_1, x_2, ..., x_n)$, waarbij elke $x_k$ een reëel getal is. Deze ruimte wordt vaak genoteerd als $R^n$ en vormt de basis voor het bestuderen van functies van meerdere variabelen. |
| Component van een vector | Elk van de individuele reële getallen $x_k$ in een geordend n-tal $(x_1, x_2, ..., x_n)$ dat een element van $R^n$ voorstelt. De $k$-de component is $x_k$. |
| Optelling in Rn | Een bewerking gedefinieerd voor twee vectoren $\vec{x} = (x_1, ..., x_n)$ en $\vec{y} = (y_1, ..., y_n)$ in $R^n$, resulterend in $\vec{x} + \vec{y} = (x_1 + y_1, ..., x_n + y_n)$. Deze bewerking voldoet aan commutativiteit en associativiteit. |
| Vermenigvuldiging met een reëel getal in Rn | Een bewerking gedefinieerd voor een reëel getal $t$ en een vector $\vec{x} = (x_1, ..., x_n)$ in $R^n$, resulterend in $t\vec{x} = (tx_1, ..., tx_n)$. Deze bewerking voldoet aan distributieve en associatieve eigenschappen. |
| Lineaire ruimte (vectorruimte) | Een verzameling met twee bewerkingen, optelling en vermenigvuldiging met een scalair, die voldoen aan een reeks axioma's (zoals commutativiteit, associativiteit, distributiviteit). $R^n$ is een voorbeeld van een lineaire ruimte over de reële getallen. |
| Basis van een lineaire ruimte | Een stel vectoren dat lineair onafhankelijk is en de gehele ruimte voortbrengt, zodat elk element van de ruimte als een lineaire combinatie van deze vectoren kan worden geschreven. |
| Dimensie van een lineaire ruimte | Het aantal elementen in een basis van de ruimte. $R^n$ heeft dimensie $n$. |
| Scalair product (inproduct) in Rn | Een bewerking die twee vectoren $\vec{x} = (x_1, ..., x_n)$ en $\vec{y} = (y_1, ..., y_n)$ in $R^n$ koppelt aan een reëel getal, gedefinieerd als $\vec{x} \cdot \vec{y} = \sum_{k=1}^{n} x_k y_k$. |
| Norm van een vector in Rn | De lengte van een vector $\vec{x}$ in $R^n$, gedefinieerd als $\|\vec{x}\| = \sqrt{\vec{x} \cdot \vec{x}} = \sqrt{\sum_{k=1}^{n} x_k^2}$. De norm is altijd niet-negatief. |
| Omwentelingslichaam | Een driedimensionaal lichaam dat ontstaat door een tweedimensionaal gebied om een as te wentelen. Het volume kan berekend worden met de formule $V_G = \pi \int_a^b r^2(x) dx$, waarbij $r(x)$ de straal van de cirkel op positie $x$ is. |
| Substitutieformule (ééndimensionaal) | Een formule die de berekening van een integraal met betrekking tot een veranderlijke $x$ omzet naar een integraal met betrekking tot een nieuwe veranderlijke $t$, via een transformatie $x = \phi(t)$. De formule luidt $\int_a^b f(x)dx = \int_\alpha^\beta f(\phi(t))|\phi'(t)|dt$. |
| Differentiequotiënt | De verhouding van de verandering in de functiewaarde tot de verandering in het argument. In de context van substitutie benadert dit de afgeleide, $\frac{\phi(t+h)-\phi(t)}{h} \to \phi'(t)$ als $h \to 0$. |
| Lokale vergrotingsfactor | De afgeleide $\phi'(t)$ van de transformatiefunctie, die aangeeft hoe lokale lengtes worden vergroot of verkleind onder de transformatie. |
| Transformatie (in hogere dimensies) | Een afbeelding van punten in een coördinatenstelsel naar punten in een ander coördinatenstelsel. In het vlak wordt dit beschreven door $x = \phi(u,v)$ en $y = \psi(u,v)$, en in de ruimte door $x = \phi(u,v,w)$, $y = \psi(u,v,w)$, $z = \chi(u,v,w)$. |
| Jacobiaanse determinant | Een determinant van partiële afgeleiden die de lokale schaalverandering van een transformatie aangeeft. Voor een transformatie in twee dimensies is dit $\frac{\partial(\phi,\psi)}{\partial(u,v)}$, en in drie dimensies $\frac{\partial(\phi,\psi,\chi)}{\partial(u,v,w)}$. Deze determinant is cruciaal voor de substitutieformule in hogere dimensies. |
| Substitutieformule (tweedimensionaal) | Een formule voor het omzetten van een dubbele integraal in cartesiaanse coördinaten naar een dubbele integraal in nieuwe coördinaten. De formule is $\iint_G f(x,y)dxdy = \iint_{G'} f(\phi(u,v),\psi(u,v)) \left|\frac{\partial(\phi,\psi)}{\partial(u,v)}\right| dudv$. |
| Substitutieformule (driedimensionaal) | Een formule voor het omzetten van een driedubbele integraal in cartesiaanse coördinaten naar een driedubbele integraal in nieuwe coördinaten. De formule is $\iiint_G f(x,y,z)dxdydz = \iiint_{G'} f(\phi(u,v,w),\psi(u,v,w),\chi(u,v,w)) \left|\frac{\partial(\phi,\psi,\chi)}{\partial(u,v,w)}\right| dudvdw$. |
| Sferische coördinaten | Een driedimensionaal coördinatensysteem waarbij een punt wordt bepaald door zijn afstand tot de oorsprong ($r$), de hoek met de positieve z-as ($\theta$), en de poolhoek in het xy-vlak ($\phi$). De transformatie is $x = r \sin\theta \cos\phi$, $y = r \sin\theta \sin\phi$, $z = r \cos\theta$, en de Jacobiaanse determinant is $r^2 \sin\theta$. |
| Richtingsafgeleide | De limiet $\lim_{h\to 0} \frac{f(\vec{a} + h\vec{u}) - f(\vec{a})}{h}$, indien deze bestaat, die de verandering van een scalaire functie $f$ in punt $\vec{a}$ in de richting van een eenheidsvector $\vec{u}$ beschrijft. |
| Partiële afgeleide | De limiet $\lim_{h\to 0} \frac{f(\vec{a} + h\vec{e}_k) - f(\vec{a})}{h}$, indien deze bestaat, die de verandering van een scalaire functie $f$ in punt $\vec{a}$ beschrijft langs de richting van de $k$-de standaardbasisvector $\vec{e}_k$. |
| Gradiënt | Een vector die de partiële afgeleiden van een scalaire functie $f$ in een bepaald punt $\vec{a}$ als componenten heeft, genoteerd als $\text{grad } f(\vec{a})$ of $\nabla f(\vec{a})$. |
| Differentieerbaarheid | Een eigenschap van een scalaire functie $f$ in een punt $\vec{a}$ waarbij de functiewaarde kan worden benaderd door een lineaire functie plus een term die sneller naar nul gaat dan de afstand tot $\vec{a}$. |
| Hogere-orde afgeleiden | Partiële afgeleiden van de partiële afgeleiden van een functie. Bijvoorbeeld, de tweede-orde afgeleiden zijn de afgeleiden van de eerste-orde afgeleiden. |
| Middelwaardestelling | Een stelling die stelt dat voor een differentieerbare functie $f$ op een segment, er een punt op dat segment bestaat waar de verandering van de functie gelijk is aan het product van de gradiënt in dat punt en het verschil tussen de eindpunten van het segment. |
| Differentiaal | Een lineaire functie die de lineaire benadering van een scalaire functie in een punt beschrijft, gedefinieerd als $df_{\vec{a}}(\vec{x}) = (\vec{x} - \vec{a}) \cdot \nabla f(\vec{a})$. |
| Homogene functie | Een functie $f$ gedefinieerd op een kegel met top $\vec{0}$ die voldoet aan $f(t\vec{x}) = t^p f(\vec{x})$ voor een graad $p$ en alle $t > 0$. |
| Formule van Taylor | Een benaderingsformule voor een functie rond een punt, uitgedrukt als een reeks van termen die bestaan uit de afgeleiden van de functie in dat punt, vermenigvuldigd met machten van de afstandsvector. |
| Vectorruimte | Een verzameling vectoren waarop optelling en scalaire vermenigvuldiging gedefinieerd zijn, en die voldoen aan bepaalde axioma's. |
| Driedimensionale vectorruimte | Een vectorruimte waarin elke vector kan worden uitgedrukt als een lineaire combinatie van drie lineair onafhankelijke vectoren. |
| Parallelle vectoren | Vectoren die in dezelfde of tegengestelde richting wijzen. |
| Basis | Een minimale set van lineair onafhankelijke vectoren die de gehele vectorruimte opspant. |
| Kental (of Abscis) | De scalaire coëfficiënt van een vector ten opzichte van een basisvector. |
| Ééndimensionale deelruimte | Een vectorruimte die opgespannen wordt door één enkele vector (verschillend van de nulvector). |
| Tweedimensionale deelruimte | Een vectorruimte die opgespannen wordt door twee lineair onafhankelijke vectoren. |
| Numerieke rij | Een functie gedefinieerd op de verzameling N van de natuurlijke getallen met waarden in R of C, genoteerd als (an)n∈N of (an). |
| Limiet van een rij | Het getal waarnaar een convergente numerieke rij nadert. |
| Divergente rij | Een numerieke rij die niet convergeert. |
| Standaard numerieke rijen | Enkele veelvoorkomende numerieke rijen waarvan de limieten bekend zijn, zoals (1/n), (z^n) met |z|<1, (x^(1/n)) met x>0, en (n^(1/n)). |
| Stijgende rij | Een rij (an) waarbij voor alle n geldt dat an ≤ an+1. |
| Dalende rij | Een rij (an) waarbij voor alle n geldt dat an ≥ an+1. |
| Monotone rij | Een rij die hetzij stijgend, hetzij dalend is. |
| Begrensde rij | Een rij waarvan de verzameling van termen naar boven en naar beneden begrensd is. |
| Stelling van Bolzano-Weierstraß | Een begrensde rij van reële getallen heeft steeds een convergente deelrij. |
| Eigenwaarde | Een scalair getal dat geassocieerd is met een lineaire transformatie en een eigenvector, en dat de factor aangeeft waarmee de eigenvector wordt geschaald. |
| Algemene machtsfunctie | Een functie van de vorm $x^\alpha$, gedefinieerd als $exp(\alpha \ln x)$ voor $\alpha \in \mathbb{C}$ en $x \in ]0, +\infty[$. Deze functie is continu en afleidbaar in $]0, +\infty[$. |
| Hyperbolische functies | Functies die gedefinieerd worden met behulp van de exponentiële functie, zoals cosh(z), sinh(z), tanh(z) en coth(z). Ze hebben analoge eigenschappen als de circulaire functies. |
| Scalair product van vectoren | Een bewerking die twee vectoren koppelt aan een reëel getal, gedefinieerd als het product van hun normen en de cosinus van de ingesloten hoek, of nul als een van de vectoren de nulvector is. |
| Orthogonale vectoren | Twee vectoren die loodrecht op elkaar staan, wat betekent dat hun ingesloten hoek gelijk is aan $\frac{\pi}{2}$. |
| Orthonormale basis | Een basis van een vectorruimte waarvan de basisvectoren twee aan twee orthogonaal zijn en elk een norm van 1 hebben. |
| Gemengd product van drie vectoren | Een scalair product van een vector met het vectorieel product van twee andere vectoren, wat geometrisch overeenkomt met het georiënteerde volume van het parallellepipedum opgespannen door de drie vectoren. |
Cover
TD1.pdf
Summary
# Calcul différentiel et algèbre linéaire
Ce chapitre introduit les concepts fondamentaux du calcul différentiel et de l'algèbre linéaire, en se concentrant sur les fonctions linéaires, les matrices et le rang des applications linéaires [1](#page=1).
### 1.1 Rappels d'algèbre linéaire
#### 1.1.1 Fonctions linéaires, matrices et rang
Une fonction $f : E \to F$, où $E$ et $F$ sont des espaces vectoriels (par exemple, $E = \mathbb{R}^N$ et $F = \mathbb{R}^M$), est dite linéaire si elle satisfait deux propriétés :
1. Pour tout $x, y \in E$, $f(x + y) = f(x) + f(y)$ (additivité) [1](#page=1).
2. Pour tout $x \in E$ et $\alpha \in \mathbb{R}$, $f(\alpha x) = \alpha f(x)$ (homogénéité) [1](#page=1).
Considérons l'application $f: \mathbb{R}^3 \to \mathbb{R}^4$ définie par $f(x, y, z) = (x - 2z, 2x + 5y + z, x + 3y + z, 0)$ [1](#page=1).
**1) Montrer que $f$ est linéaire.**
Pour montrer que $f$ est linéaire, nous devons vérifier les propriétés d'additivité et d'homogénéité.
Soient $x = (x_1, y_1, z_1)$ et $y = (x_2, y_2, z_2)$ deux vecteurs dans $\mathbb{R}^3$, et $\alpha \in \mathbb{R}$.
* **Additivité :**
$x+y = (x_1+x_2, y_1+y_2, z_1+z_2)$.
$f(x+y) = f(x_1+x_2, y_1+y_2, z_1+z_2) = ((x_1+x_2) - 2(z_1+z_2), 2(x_1+x_2) + 5(y_1+y_2) + (z_1+z_2), (x_1+x_2) + 3(y_1+y_2) + (z_1+z_2), 0)$
$= (x_1-2z_1 + x_2-2z_2, 2x_1+5y_1+z_1 + 2x_2+5y_2+z_2, x_1+3y_1+z_1 + x_2+3y_2+z_2, 0)$
$= (x_1-2z_1, 2x_1+5y_1+z_1, x_1+3y_1+z_1, 0) + (x_2-2z_2, 2x_2+5y_2+z_2, x_2+3y_2+z_2, 0)$
$= f(x) + f(y)$ [1](#page=1).
* **Homogénéité :**
$\alpha x = (\alpha x_1, \alpha y_1, \alpha z_1)$.
$f(\alpha x) = f(\alpha x_1, \alpha y_1, \alpha z_1) = (\alpha x_1 - 2\alpha z_1, 2\alpha x_1 + 5\alpha y_1 + \alpha z_1, \alpha x_1 + 3\alpha y_1 + \alpha z_1, 0)$
$= \alpha (x_1 - 2z_1, 2x_1 + 5y_1 + z_1, x_1 + 3y_1 + z_1, 0)$
$= \alpha f(x)$ [1](#page=1).
Puisque les deux propriétés sont vérifiées, $f$ est une fonction linéaire [1](#page=1).
**2) Donner la matrice de $f$ dans les bases canoniques de $\mathbb{R}^3$ et $\mathbb{R}^4$.**
La matrice d'une application linéaire $f: \mathbb{R}^n \to \mathbb{R}^m$ dans les bases canoniques est obtenue en appliquant $f$ aux vecteurs de la base canonique de $\mathbb{R}^n$ et en utilisant les résultats comme colonnes de la matrice. Les vecteurs de la base canonique de $\mathbb{R}^3$ sont $e_1 = (1, 0, 0)$, $e_2 = (0, 1, 0)$ et $e_3 = (0, 0, 1)$ [1](#page=1).
Calculons $f(e_1)$, $f(e_2)$, $f(e_3)$ :
$f(1, 0, 0) = (1 - 2 2 + 5 + 0, 1 + 3 + 0, 0) = (1, 2, 1, 0)$ [1](#page=1).
$f(0, 1, 0) = (0 - 2 2 + 5 + 0, 0 + 3 + 0, 0) = (0, 5, 3, 0)$ [1](#page=1).
$f(0, 0, 1) = (0 - 2 2 + 5 + 1, 0 + 3 + 1, 0) = (-2, 1, 1, 0)$ [1](#page=1).
La matrice $A$ de $f$ est donc :
$$ A = \begin{pmatrix} 1 & 0 & -2 \\ 2 & 5 & 1 \\ 1 & 3 & 1 \\ 0 & 0 & 0 \end{pmatrix} $$ [1](#page=1).
**3) Déterminer l’image de $f$ et en déduire son rang.**
L'image de $f$, notée $\text{Im}(f)$, est l'espace vectoriel engendré par les vecteurs $f(e_1)$, $f(e_2)$, $f(e_3)$. Les colonnes de la matrice $A$ engendrent l'image [1](#page=1).
$\text{Im}(f) = \text{Vect}\{(1, 2, 1, 0), (0, 5, 3, 0), (-2, 1, 1, 0)\}$ [1](#page=1).
Pour trouver une base de $\text{Im}(f)$ et son rang, on peut effectuer des opérations sur les colonnes de la matrice $A$ (ou sur les vecteurs engendrant $\text{Im}(f)$).
On remarque que la dernière ligne de $A$ est nulle, ce qui signifie que tous les vecteurs de l'image auront leur quatrième composante nulle. L'image est donc contenue dans le sous-espace $\{ (a, b, c, 0) \mid a, b, c \in \mathbb{R} \}$.
Regardons les trois premières composantes des vecteurs :
$v_1 = (1, 2, 1)$
$v_2 = (0, 5, 3)$
$v_3 = (-2, 1, 1)$
On peut vérifier si ces vecteurs sont linéairement indépendants. Effectuons une combinaison linéaire : $\alpha v_1 + \beta v_2 + \gamma v_3 = 0$.
$\alpha(1, 2, 1) + \beta(0, 5, 3) + \gamma(-2, 1, 1) = (0, 0, 0)$
$(\alpha - 2\gamma, 2\alpha + 5\beta + \gamma, \alpha + 3\beta + \gamma) = (0, 0, 0)$
De la première composante : $\alpha = 2\gamma$.
Substituons dans la deuxième : $2(2\gamma) + 5\beta + \gamma = 0 \implies 5\gamma + 5\beta = 0 \implies \beta = -\gamma$.
Substituons dans la troisième : $2\gamma + 3(-\gamma) + \gamma = 0 \implies 2\gamma - 3\gamma + \gamma = 0 \implies 0 = 0$.
Ceci montre que les vecteurs sont linéairement dépendants. Par exemple, pour $\gamma = 1$, on a $\alpha = 2$ et $\beta = -1$. Donc $2v_1 - v_2 + v_3 = 0$.
Exprimons $v_3$ en fonction de $v_1$ et $v_2$: $v_3 = v_2 - 2v_1$.
$(-2, 1, 1) = (0, 5, 3) - 2(1, 2, 1) = (0, 5, 3) - (2, 4, 2) = (-2, 1, 1)$.
Donc, l'espace engendré par $v_1, v_2, v_3$ est le même que celui engendré par $v_1, v_2$. Les vecteurs $(1, 2, 1, 0)$ et $(0, 5, 3, 0)$ forment une base de $\text{Im}(f)$ [1](#page=1).
Une base de $\text{Im}(f)$ est donc $\{(1, 2, 1, 0), (0, 5, 3, 0)\}$ [1](#page=1).
Le rang de $f$ est la dimension de son image.
$\text{rang}(f) = \dim(\text{Im}(f)) = 2$ [1](#page=1).
**4) Calculer, de deux manières différentes, la dimension du noyau de $f$.**
Le noyau de $f$, noté $\text{Ker}(f)$, est l'ensemble des vecteurs $x \in \mathbb{R}^3$ tels que $f(x) = 0$ [1](#page=1).
* **Première manière : Utiliser le théorème du rang.**
Le théorème du rang stipule que pour une application linéaire $f : E \to F$, on a :
$\dim(E) = \dim(\text{Ker}(f)) + \dim(\text{Im}(f))$ [1](#page=1).
Dans notre cas, $E = \mathbb{R}^3$, donc $\dim(E) = 3$.
Nous avons trouvé $\dim(\text{Im}(f)) = \text{rang}(f) = 2$ [1](#page=1).
Donc, $3 = \dim(\text{Ker}(f)) + 2$.
Cela implique $\dim(\text{Ker}(f)) = 3 - 2 = 1$ [1](#page=1).
* **Deuxième manière : Résoudre le système homogène.**
Pour trouver le noyau, nous devons résoudre le système $f(x, y, z) = (0, 0, 0, 0)$. Cela revient à résoudre le système homogène dont la matrice des coefficients est la matrice $A$ de $f$ (ou plutôt ses lignes non nulles, car la dernière ligne est entièrement nulle) :
$$ \begin{cases} x - 2z = 0 \\ 2x + 5y + z = 0 \\ x + 3y + z = 0 \end{cases} $$ [1](#page=1).
Ou, en utilisant la matrice $A$ :
$$ \begin{pmatrix} 1 & 0 & -2 \\ 2 & 5 & 1 \\ 1 & 3 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} $$ [1](#page=1).
Utilisons la méthode de Gauss sur les équations :
$x = 2z$ [1](#page=1).
Substituons dans: $2(2z) + 5y + z = 0 \implies 4z + 5y + z = 0 \implies 5y + 5z = 0 \implies y = -z$ [1](#page=1) .
Vérifions avec: $x + 3y + z = (2z) + 3(-z) + z = 2z - 3z + z = 0$. L'équation est satisfaite [1](#page=1) .
Donc, les solutions sont de la forme $(x, y, z) = (2z, -z, z) = z(2, -1, 1)$ pour tout $z \in \mathbb{R}$ [1](#page=1).
Le noyau de $f$ est l'espace vectoriel engendré par le vecteur $(2, -1, 1)$ [1](#page=1).
$\text{Ker}(f) = \text{Vect}\{(2, -1, 1)\}$ [1](#page=1).
La dimension du noyau est donc 1, car il est engendré par un seul vecteur non nul [1](#page=1).
> **Tip:** Le théorème du rang est un outil très puissant pour relier la dimension du noyau, la dimension de l'image et la dimension de l'espace de départ d'une application linéaire. Il est souvent plus rapide de l'utiliser lorsque la dimension de l'image est déjà connue.
> **Example:** Pour $f(x, y, z) = (x - 2z, 2x + 5y + z, x + 3y + z, 0)$, nous avons calculé que $\text{rang}(f) = 2$. L'espace de départ est $\mathbb{R}^3$ de dimension 3. Par le théorème du rang, $\dim(\text{Ker}(f)) = \dim(\mathbb{R}^3) - \text{rang}(f) = 3 - 2 = 1$. Pour trouver explicitement le noyau, nous avons résolu le système homogène associé à $f$ et trouvé qu'il était engendré par le vecteur $(2, -1, 1)$, confirmant ainsi sa dimension 1 [1](#page=1).
---
# Espaces vectoriels normés et topologies associées
Cette section explore la notion de norme sur divers espaces vectoriels, ainsi que les propriétés topologiques fondamentales qui en découlent, telles que les boules, l'intérieur, l'adhérence et la frontière.
### 2.1 Rappels sur les normes sur R et R^2
Un espace vectoriel $E$ est dit normé s'il est muni d'une application $\|\cdot\|: E \to \mathbb{R}$ satisfaisant les propriétés suivantes pour tout $x, y \in E$ et tout $\alpha \in \mathbb{R}$:
1. $\|\alpha x\| = |\alpha| \|x\|$ (positivité homogène) [1](#page=1).
2. $\|x\| \ge 0$ (positivité) [1](#page=1).
3. $\|x\| = 0 \iff x = 0$ (définitude) [1](#page=1).
4. $\|x + y\| \le \|x\| + \|y\|$ (inégalité triangulaire) [1](#page=1).
La valeur absolue $|\cdot|$ est une norme sur $\mathbb{R}$ [1](#page=1).
#### 2.1.1 Boules dans R
Dans l'espace normé $(\mathbb{R}, |\cdot|)$, les boules ouvertes et fermées sont définies comme suit :
* **Boule ouverte centrée en $x$ de rayon $r > 0$**: $B(x, r) = \{y \in \mathbb{R} \mid |x - y| < r\} = (x-r, x+r)$ [1](#page=1).
* Pour $x=0$, $B(0, r) = (-r, r)$ [1](#page=1).
* Pour $x=1$, $B(1, r) = (1-r, 1+r)$ [1](#page=1).
* **Boule fermée centrée en $x$ de rayon $r > 0$**: $Bf(x, r) = \{y \in \mathbb{R} \mid |x - y| \le r\} = [x-r, x+r]$ [1](#page=1).
#### 2.1.2 Normes dans R^2
Pour tout $x = (x_1, x_2) \in \mathbb{R}^2$, trois normes couramment utilisées sont définies [1](#page=1):
* **Norme $L_1$ (ou norme du taxi)**: $\|x\|_1:= |x_1| + |x_2|$ [1](#page=1).
* **Norme $L_2$ (ou norme euclidienne)**: $\|x\|_2:= \sqrt{x_1^2 + x_2^2}$ [1](#page=1).
* **Norme $L_\infty$ (ou norme du maximum)**: $\|x\|_\infty:= \max\{|x_1|, |x_2|\}$ [1](#page=1).
Ces trois applications sont bien des normes sur $\mathbb{R}^2$ [1](#page=1).
> **Tip:** Le dessin des boules fermées centrées à l'origine de rayon 1 pour ces différentes normes permet de visualiser la géométrie induite par chaque norme. Pour $\| \cdot \|_1$, la boule est un carré dont les sommets sont sur les axes. Pour $\| \cdot \|_\infty$, c'est un carré dont les côtés sont parallèles aux axes. Pour $\| \cdot \|_2$, c'est le disque unité usuel.
#### 2.1.3 Équivalence des normes sur R^2
Deux normes $\|\cdot\|_a$ et $\|\cdot\|_b$ sur un espace vectoriel $E$ sont dites équivalentes s'il existe deux constantes réelles positives $c_1$ et $c_2$ telles que pour tout $x \in E$, $c_1 \|x\|_a \le \|x\|_b \le c_2 \|x\|_a$. Cela équivaut à dire que pour tout $x \in E \setminus \{0\}$, $\frac{1}{c_2} \|x\|_b \le \|x\|_a \le c_1 \|x\|_b$ [2](#page=2).
Pour les normes $\| \cdot \|_1$, $\| \cdot \|_2$, $\| \cdot \|_\infty$ sur $\mathbb{R}^2$, les inégalités suivantes sont vérifiées pour tout $x \in \mathbb{R}^2$ [2](#page=2):
* $\|x\|_\infty \le \|x\|_1 \le 2\|x\|_\infty$ [2](#page=2).
* $\|x\|_\infty \le \|x\|_2 \le \sqrt{2}\|x\|_\infty$ [2](#page=2).
* $\|x\|_2 \le \|x\|_1 \le \sqrt{2}\|x\|_2$ [2](#page=2).
Ces inégalités montrent que les trois normes sont équivalentes sur $\mathbb{R}^2$. De plus, les constantes intervenant dans ces inégalités ne peuvent pas être améliorées, car pour chacune d'elles, il existe un vecteur non nul $x \in \mathbb{R}^2$ pour lequel l'égalité est atteinte [2](#page=2).
> **Tip:** L'équivalence des normes est une propriété fondamentale. Dans un espace de dimension finie, toutes les normes sont équivalentes. Cela signifie que des concepts topologiques comme la convergence ou la continuité sont indépendants de la norme choisie.
#### 2.1.4 Une autre norme sur R^2
L'application $N(x, y) = |2x - y| + |3x + 2y|$ est également une norme sur $\mathbb{R}^2$ [1](#page=1).
Il est possible de montrer que cette norme $N$ est équivalente à la norme $\| \cdot \|_1$ sur $\mathbb{R}^2$, en établissant les inégalités suivantes pour tout $u \in \mathbb{R}^2$ [2](#page=2):
* $N(u) \le 5 \|u\|_1$ [2](#page=2).
* $\|u\|_1 \le \frac{7}{5} N(u)$ (cette inégalité est reformulée dans le document comme $\Vert u \Vert_1 \leq 5 \frac{7}{5} N(u)$ qui est incorrect, la borne exacte pour $\Vert u \Vert_1$ est donnée par la constante $\frac{7}{5}$) [2](#page=2).
### 2.2 Normes sur d'autres espaces vectoriels
#### 2.2.1 Normes sur l'espace des matrices
Soit $E = M_2(\mathbb{R})$ l'espace des matrices carrées d'ordre 2 à coefficients réels. Deux normes sont considérées [2](#page=2):
* **Norme $N_\infty$**: Pour $A = \begin{pmatrix} x & y \\ z & t \end{pmatrix}$, $N_\infty(A) = \max\{|x|, |y|, |z|, |t|\}$ [2](#page=2).
* **Norme $N_1$**: Pour $A = \begin{pmatrix} x & y \\ z & t \end{pmatrix}$, $N_1(A) = |x| + |y| + |z| + |t|$ [2](#page=2).
Ces deux applications sont bien des normes sur $M_2(\mathbb{R})$. Elles sont également équivalentes, vérifiant pour toute matrice $A \in E$: $N_\infty(A) \le N_1(A) \le 4N_\infty(A)$ [2](#page=2).
#### 2.2.2 Normes sur l'espace des fonctions continues
Soit $E = C( \mathbb{R})$ l'espace vectoriel des fonctions continues sur $ $ à valeurs réelles. Deux normes importantes sont définies sur $E$ [1](#page=1) [2](#page=2):
* **Norme sup (ou norme infinie)**: Pour $u \in E$, $\|u\|_\infty = \sup_{t \in } |u(t)|$. Cette norme représente la plus grande valeur absolue atteinte par la fonction sur l'intervalle [1](#page=1) [2](#page=2).
* **Norme $L_1$ (ou norme intégrale)**: Pour $u \in E$, $\|u\|_1 = \int_0^1 |u(t)| dt$. Cette norme représente l'aire sous la courbe de la valeur absolue de la fonction [2](#page=2).
Ces deux applications sont des normes sur $E$ [2](#page=2).
Il existe une inégalité entre ces deux normes: pour tout $u \in E$, $\|u\|_1 \le \|u\|_\infty$. Cependant, ces deux normes ne sont pas équivalentes sur $E$. Pour le démontrer, on peut considérer la suite de fonctions $u_n(t) = t^n$. On a $\|u_n\|_\infty = 1$ pour tout $n$, mais $\|u_n\|_1 = \int_0^1 t^n dt = \frac{1}{n+1}$, qui tend vers 0 lorsque $n \to \infty$ [2](#page=2).
Pour l'ensemble $F$ des fonctions polynomiales de degré au plus 2, il existe une constante $C > 0$ telle que pour tout $u \in F$, $\|u\|_\infty \le C\|u\|_1$. Ceci est lié au fait que $F$ est un sous-espace de dimension finie de $E$ [3](#page=3).
L'espace $(E, \|\cdot\|_\infty)$ est complet [2](#page=2).
### 2.3 Topologie des espaces vectoriels normés
Un espace vectoriel normé $(E, \|\cdot\|)$ induit une topologie sur $E$. Les éléments de base de cette topologie sont les boules ouvertes.
#### 2.3.1 Boules et intérieur
Pour tout $x \in E$ et $r > 0$, la boule ouverte $B(x, r)$ est définie comme $B(x, r) = \{y \in E \mid \|x - y\| < r\}$ [2](#page=2).
La boule fermée $Bf(x, r)$ est définie comme $Bf(x, r) = \{y \in E \mid \|x - y\| \le r\}$ [2](#page=2).
Une propriété fondamentale relie les boules ouvertes et fermées: la boule ouverte $B(x, r)$ est l'intérieur de la boule fermée $Bf(x, r)$ de même centre et rayon. Autrement dit, $B(x, r) = \text{int}(Bf(x, r))$ [2](#page=2).
#### 2.3.2 Propriétés topologiques dans R
Dans l'espace normé $(\mathbb{R}, |\cdot|)$, on peut déterminer l'intérieur, l'adhérence et la frontière de divers sous-ensembles. Un sous-ensemble $D \subseteq E$ est dit dense si son adhérence est $E$ tout entier ($\bar{D} = E$) [2](#page=2).
* **A = {2, 4, 5}**: $\text{int}(A) = \emptyset$, $\bar{A} = \{2, 4, 5\}$, $\partial A = \{2, 4, 5\}$. A n'est pas dense [2](#page=2).
* **B = ∪ {π}**: $\text{int}(B) = (1, 3)$, $\bar{B} = \cup \{\pi\}$, $\partial B = \{1, 3, \pi\}$. B n'est pas dense [1](#page=1) [2](#page=2) [3](#page=3).
* **C = [−1, 1[ ∪ {3}**: $\text{int}(C) = (-1, 1)$, $\bar{C} = [-1, 1 \cup \{3\}$, $\partial C = \{-1, 1, 3\}$. C n'est pas dense [2](#page=2).
* **D = Z (entiers relatifs)**: $\text{int}(D) = \emptyset$, $\bar{D} = \mathbb{Z}$, $\partial D = \mathbb{Z}$. D n'est pas dense [2](#page=2).
* **E = ⋃$_{n \in \mathbb{N}^*}$ {1/n}**: $\text{int}(E) = \emptyset$, $\bar{E} = E \cup \{0\}$, $\partial E = E \cup \{0\}$. E n'est pas dense [2](#page=2).
* **F = Q (rationnels)**: $\text{int}(F) = \emptyset$, $\bar{F} = \mathbb{R}$, $\partial F = \mathbb{R}$. Q est dense dans R [2](#page=2).
#### 2.3.3 Propriétés topologiques dans R^N
Dans $(\mathbb{R}^n, \|\cdot\|_2)$, on analyse les propriétés topologiques de sous-ensembles [3](#page=3).
* **A = {(x, y) ∈ R^2 | x^2 + y^2 ≤ 1} (disque unité fermé)**: $\text{int}(A) = \{(x, y) \in \mathbb{R}^2 \mid x^2 + y^2 < 1\}$, $\bar{A} = A$, $\partial A = \{(x, y) \in \mathbb{R}^2 \mid x^2 + y^2 = 1\}$ (le cercle unité) [3](#page=3).
* **B = {(x, y, z) ∈ R^3 | z − x^2 ≥ 0, y > x}**: $\text{int}(B) = B$, $\bar{B} = \{(x, y, z) \in \mathbb{R}^3 \mid z - x^2 \ge 0, y \ge x\}$, $\partial B$ est la réunion des surfaces $z=x^2, y=x$ et $z=x^2, y>x$. B n'est pas dense [3](#page=3).
* **C = {(x, y, z) ∈ R^3 | x + y + z = 0} (plan passant par l'origine)**: $\text{int}(C) = \emptyset$, $\bar{C} = C$, $\partial C = C$. C n'est pas dense [3](#page=3).
* **D = Q × Z**: $\text{int}(D) = \emptyset$, $\bar{D} = \mathbb{R} \times \mathbb{R}$, $\partial D = \mathbb{R} \times \mathbb{R}$. D est dense dans $\mathbb{R}^2$ [3](#page=3).
#### 2.3.4 Topologie en dimension infinie
Dans $E = \ell^\infty$, l'espace des suites réelles bornées, muni de la norme $\|u\|_\infty = \sup_{k \in \mathbb{N}} |u(k)|$, on considère deux sous-espaces vectoriels [3](#page=3):
* $A:= \{u = (u(k))_k \in E \mid u(k) \xrightarrow{k\to+\infty} 0\}$ (suites qui convergent vers 0) [3](#page=3).
* $B:= \{u = (u(k))_k \in E \mid \exists K \in \mathbb{N}, \forall k \ge K, u(k) =0\}$ (suites nulles à partir d'un certain rang) [3](#page=3).
La norme $\| \cdot \|_\infty$ est bien une norme sur $E$ [3](#page=3).
$A$ est fermé dans $(E, \|\cdot\|_\infty)$ [3](#page=3).
$B$ n'est pas fermé dans $(E, \|\cdot\|_\infty)$. L'indication suggère d'utiliser la suite $u_n(k) = \begin{cases} 1 & \text{si } k \le n \\ 0 & \text{sinon} \end{cases}$, qui appartient à $B$ mais converge dans $E$ vers la suite $(1, 1, 1, \dots)$ qui n'est pas dans $B$ [3](#page=3).
$A$ est l'adhérence de $B$ dans $(E, \|\cdot\|_\infty)$, c'est-à-dire $\bar{B} = A$ [3](#page=3).
Les espaces $(E, \|\cdot\|_\infty)$ et $(A, \|\cdot\|_\infty)$ sont complets, mais $(B, \|\cdot\|_\infty)$ ne l'est pas [3](#page=3).
#### 2.3.5 Ensembles convexes
Un ensemble $S$ dans un espace vectoriel est dit convexe si pour tout $x, y \in S$, le segment $[x, y = \{\lambda x + (1-\lambda) y \mid \lambda \in \}$ est entièrement contenu dans $S$ [1](#page=1).
Parmi les ensembles considérés [3](#page=3):
1. La boule $B(x_0, r)$ est convexe. Pour tout $u, v \in B(x_0, r)$, $\|x_0 - u\| < r$ et $\|x_0 - v\| < r$. Alors pour $\lambda \in $, $\|x_0 - (\lambda u + (1-\lambda) v)\| = \| \lambda(x_0 - u) + (1-\lambda)(x_0 - v) \| \le \lambda \|x_0 - u\| + (1-\lambda) \|x_0 - v\| < \lambda r + (1-\lambda) r = r$. Donc $\lambda u + (1-\lambda) v \in B(x_0, r)$. [1](#page=1) [3](#page=3).
2. Le cube $C = [0, a \times [0, b \times [0, c]$ dans $\mathbb{R}^3$ est convexe. C'est le produit cartésien d'intervalles fermés, qui sont convexes dans $\mathbb{R}$.
3. Le graphe $\Gamma = \{(x, x^2) \mid x \in \mathbb{R}\}$ dans $\mathbb{R}^2$ n'est pas convexe. Par exemple, prenons $x_1 = -1$ et $x_2 = 1$. Les points correspondants sont $(-1, 1)$ et $(1, 1)$. Le milieu du segment reliant ces deux points est $\frac{1}{2}(-1, 1) + \frac{1}{2}(1, 1) = (0, 1)$. Ce point $(0, 1)$ n'est pas sur le graphe car $0^2 = 0 \ne 1$. [3](#page=3).
---
# Normes équivalentes et complétude des espaces
Ce chapitre aborde l'équivalence entre différentes normes sur des espaces vectoriels et l'étude de la complétude de ces espaces, en particulier dans le contexte de la dimension infinie [2](#page=2) [3](#page=3).
### 3.1 Équivalence des normes
Deux normes $\Vert \cdot \Vert_A$ et $\Vert \cdot \Vert_B$ sur un même espace vectoriel $E$ sont dites équivalentes s'il existe deux constantes $c > 0$ et $C > 0$ telles que pour tout $u \in E$, on ait :
$$c \Vert u \Vert_B \le \Vert u \Vert_A \le C \Vert u \Vert_B$$
Cette condition implique que les topologies induites par ces normes sont identiques [2](#page=2) [3](#page=3).
#### 3.1.1 Exemples d'équivalence de normes
**Exemple sur $\mathbb{R}^2$ :**
Soit $N(u) = \Vert u \Vert_{\infty}$ la norme infinie pour $u = (x, y) \in \mathbb{R}^2$, c'est-à-dire $N(u) = \max(|x|, |y|)$, et $\Vert \cdot \Vert_1$ la norme $L^1$ définie par $\Vert u \Vert_1 = |x| + |y|$. Pour tout $u = (x, y) \in \mathbb{R}^2$, on a :
$\Vert u \Vert_1 = |x| + |y| \le \max(|x|, |y|) + \max(|x|, |y|) = 2 N(u)$ [2](#page=2).
De plus, $N(u) = \max(|x|, |y|) \le |x| + |y| = \Vert u \Vert_1$ [2](#page=2).
Ainsi, pour tout $u \in \mathbb{R}^2$, on a $\Vert u \Vert_1 \le 2 N(u)$ et $N(u) \le \Vert u \Vert_1$. Les normes $N$ et $\Vert \cdot \Vert_1$ sont donc équivalentes [2](#page=2).
**Exemple sur l'espace des matrices $M_2(\mathbb{R})$ :**
Pour une matrice $A = \begin{pmatrix} x & y \\ z & t \end{pmatrix} \in M_2(\mathbb{R})$, les normes $N_1$ et $N_\infty$ sont définies par :
$N_\infty(A) = \max(|x|, |y|, |z|, |t|)$
$N_1(A) = |x| + |y| + |z| + |t|$
On peut montrer que $N_\infty(A) \le N_1(A)$. De plus, $N_1(A) = |x| + |y| + |z| + |t| \le 4 \max(|x|, |y|, |z|, |t|) = 4 N_\infty(A)$. Par conséquent, $N_\infty$ et $N_1$ sont des normes équivalentes sur $M_2(\mathbb{R})$ [2](#page=2).
**Exemple sur l'espace des fonctions continues $C( \mathbb{R})$:** [1](#page=1).
Sur $E = C( \mathbb{R})$, les normes $\Vert \cdot \Vert_\infty$ (norme de la borne supérieure) et $\Vert \cdot \Vert_1$ (norme $L^1$) sont définies par [1](#page=1):
$\Vert u \Vert_\infty = \sup_{t \in } |u(t)|$ [1](#page=1).
$\Vert u \Vert_1 = \int_0^1 |u(t)| dt$
Pour toute fonction $u \in E$, on a $\Vert u \Vert_1 = \int_0^1 |u(t)| dt \le \int_0^1 \sup_{s \in } |u(s)| dt = \Vert u \Vert_\infty \int_0^1 1 dt = \Vert u \Vert_\infty$ [1](#page=1) [2](#page=2).
Cependant, ces deux normes ne sont pas équivalentes sur $E$. Pour le montrer, on peut considérer la suite de fonctions $u_n(t) = t^n$ pour $t \in $ [1](#page=1) [2](#page=2).
Pour cette suite :
$\Vert u_n \Vert_\infty = \sup_{t \in } |t^n| = 1$ [1](#page=1) [2](#page=2).
$\Vert u_n \Vert_1 = \int_0^1 |t^n| dt = \int_0^1 t^n dt = \frac{1}{n+1}$ [2](#page=2).
On observe que $\Vert u_n \Vert_1 \to 0$ lorsque $n \to +\infty$, tandis que $\Vert u_n \Vert_\infty = 1$. Cela montre qu'il n'existe pas de constante $c > 0$ telle que $c \Vert u \Vert_\infty \le \Vert u \Vert_1$ pour tout $u \in E$, car si c'était le cas, on aurait $c \cdot 1 \le \frac{1}{n+1}$ pour tout $n$, ce qui est impossible.
Pour l'ensemble $F = \{u \in E \mid \exists (a, b, c) \in \mathbb{R}^3, \forall t \in u(t) = a + bt + ct^2\}$, qui est l'espace des polynômes de degré au plus 2, il existe une constante $C > 0$ telle que $\Vert u \Vert_\infty \le C \Vert u \Vert_1$ pour tout $u \in F$. Cela est dû au fait que $F$ est un sous-espace de dimension finie, et toutes les normes sur un espace de dimension finie sont équivalentes [1](#page=1) [2](#page=2).
### 3.2 Complétude des espaces vectoriels normés
Un espace vectoriel normé $(E, \Vert \cdot \Vert)$ est dit complet si toute suite de Cauchy dans $E$ est convergente dans $E$. Un espace complet est appelé un espace de Banach [3](#page=3).
#### 3.2.1 Complétude de $C( \mathbb{R})$ [1](#page=1).
L'espace $(E, \Vert \cdot \Vert_\infty)$ où $E = C( \mathbb{R})$ est complet. Ceci signifie que toute suite de fonctions continues sur $ $ qui est de Cauchy pour la norme de la borne supérieure converge uniformément vers une fonction continue sur $ $ [1](#page=1) [2](#page=2).
#### 3.2.2 Complétude dans la topologie de dimension infinie
Considérons l'espace $E = \ell^\infty$, qui est l'espace des suites réelles bornées, muni de la norme $\Vert u \Vert_\infty = \sup_{k \in \mathbb{N}} |u(k)|$ [3](#page=3).
* **Sous-espace $A$:** Soit $A:= \{u = (u(k))_k \in E \mid u(k) \xrightarrow{k \to +\infty} 0\}$. Cet ensemble $A$ est fermé dans $(E, \Vert \cdot \Vert_\infty)$. L'espace $(A, \Vert \cdot \Vert_\infty)$ est complet, car $A$ est un sous-espace fermé d'un espace complet ($E$) [3](#page=3).
* **Sous-espace $B$:** Soit $B:= \{u = (u(k))_k \in E \mid \exists K \in \mathbb{N}, \forall k \ge K, u(k) = 0\}$. Cet ensemble $B$ n'est pas fermé dans $(E, \Vert \cdot \Vert_\infty)$. Pour le démontrer, on peut considérer la suite de fonctions $(u_n)_n$ définie par $u_n(k) = 1$ si $k \le n$ et $0$ sinon. Cette suite appartient à $B$ pour chaque $n$, mais elle converge dans $(E, \Vert \cdot \Vert_\infty)$ vers la suite $u=(1, 1, 1, \dots)$, qui n'appartient pas à $B$ car elle n'est pas à support fini (elle est nulle à partir d'un certain rang $K$) [3](#page=3).
* **Adhérence de $B$:** L'adhérence de $B$ dans $(E, \Vert \cdot \Vert_\infty)$ est l'ensemble $A$. Cela signifie que toute suite d'éléments de $B$ qui converge dans $E$ pour la norme $\Vert \cdot \Vert_\infty$ converge vers un élément de $A$ [3](#page=3).
* **Complétude de $(B, \Vert \cdot \Vert_\infty)$ :** L'espace $(B, \Vert \cdot \Vert_\infty)$ n'est pas complet. Comme $B$ n'est pas fermé dans $E$, il ne peut pas être complet s'il n'est pas égal à $E$.
En résumé, parmi les espaces $(E, \Vert \cdot \Vert_\infty)$, $(A, \Vert \cdot \Vert_\infty)$ et $(B, \Vert \cdot \Vert_\infty)$, seuls $(E, \Vert \cdot \Vert_\infty)$ et $(A, \Vert \cdot \Vert_\infty)$ sont complets [3](#page=3).
---
# Ensembles convexes
Ce chapitre explore l'identification et la justification des propriétés de convexité pour divers ensembles géométriques dans des espaces vectoriels normés. [ ](#page=3) [3](#page=3).
### 12.1 Définition d'un ensemble convexe
Un sous-ensemble $K$ d'un espace vectoriel normé $(E, \Vert \cdot \Vert)$ est dit convexe si, pour tout couple de points $x$ et $y$ appartenant à $K$, le segment $[x, y]$ reliant ces deux points est entièrement contenu dans $K$ [ ](#page=3). Mathématiquement, cela se traduit par [3](#page=3):
$$ \forall x, y \in K, \forall \lambda \in (1-\lambda)x + \lambda y \in K $$ [ ](#page=3) [1](#page=1) [3](#page=3).
> **Tip:** La condition $\lambda \in $ est cruciale. Elle assure que l'on reste bien entre les deux points $x$ et $y$, et non en dehors du segment [1](#page=1).
### 12.2 Exemples d'ensembles convexes et justifications
L'exercice 12 propose d'analyser la convexité de plusieurs ensembles classiques.
#### 12.2.1 La boule ouverte dans un espace vectoriel normé
La boule $B(x_0, r)$ de centre $x_0$ et de rayon $r > 0$ dans un espace vectoriel normé $(E, \Vert \cdot \Vert)$ est un ensemble convexe [ ](#page=3) [3](#page=3).
Pour le justifier, considérons deux points arbitraires $u$ et $v$ dans $B(x_0, r)$. Cela signifie que $\Vert u - x_0 \Vert < r$ et $\Vert v - x_0 \Vert < r$ [ ](#page=3). Prenons un réel $\lambda \in $. Nous devons montrer que le point $w = (1-\lambda)u + \lambda v$ appartient également à la boule, c'est-à-dire que $\Vert w - x_0 \Vert < r$ [1](#page=1) [3](#page=3).
On a :
$$ w - x_0 = (1-\lambda)u + \lambda v - x_0 $$
$$ w - x_0 = (1-\lambda)(u - x_0) + \lambda(v - x_0) $$
En utilisant l'inégalité triangulaire et les propriétés de la norme :
$$ \Vert w - x_0 \Vert = \Vert (1-\lambda)(u - x_0) + \lambda(v - x_0) \Vert $$
$$ \Vert w - x_0 \Vert \leq (1-\lambda)\Vert u - x_0 \Vert + \lambda\Vert v - x_0 \Vert $$ [ ](#page=3) [3](#page=3).
Puisque $\Vert u - x_0 \Vert < r$ et $\Vert v - x_0 \Vert < r$, et que $1-\lambda \geq 0$ et $\lambda \geq 0$ :
$$ \Vert w - x_0 \Vert < (1-\lambda)r + \lambda r $$
$$ \Vert w - x_0 \Vert < r $$
Ainsi, $w$ appartient bien à la boule $B(x_0, r)$, ce qui confirme sa convexité [ ](#page=3) [3](#page=3).
> **Tip:** L'inégalité triangulaire est un outil fondamental pour prouver la convexité de la plupart des ensembles basés sur des normes.
#### 12.2.2 Le cube dans $\mathbb{R}^3$
Le cube $C = [0, a \times [0, b \times [0, c]$ dans $\mathbb{R}^3$, avec $a, b, c \in \mathbb{R}^+$, est un ensemble convexe [ ](#page=3) [3](#page=3).
Pour le prouver, soient deux points $P_1 = (x_1, y_1, z_1)$ et $P_2 = (x_2, y_2, z_2)$ dans $C$. Cela implique que $0 \leq x_1, x_2 \leq a$, $0 \leq y_1, y_2 \leq b$, et $0 \leq z_1, z_2 \leq c$ [ ](#page=3). Soit $\lambda \in $. Le point $P = (1-\lambda)P_1 + \lambda P_2 = ((1-\lambda)x_1 + \lambda x_2, (1-\lambda)y_1 + \lambda y_2, (1-\lambda)z_1 + \lambda z_2)$ doit appartenir à $C$ [1](#page=1) [3](#page=3).
Considérons la première coordonnée :
Puisque $0 \leq x_1 \leq a$ et $0 \leq x_2 \leq a$, et que $1-\lambda \geq 0, \lambda \geq 0$, on a :
$0 \leq (1-\lambda)x_1 \leq (1-\lambda)a$
$0 \leq \lambda x_2 \leq \lambda a$
Donc, $0 \leq (1-\lambda)x_1 + \lambda x_2 \leq (1-\lambda)a + \lambda a = a$ [ ](#page=3) [3](#page=3).
Les mêmes arguments s'appliquent aux deuxième et troisième coordonnées pour $b$ et $c$ respectivement. Par conséquent, $P$ appartient au cube $C$, démontrant sa convexité [ ](#page=3) [3](#page=3).
> **Example:** Un rectangle dans $\mathbb{R}^2$ ou un intervalle dans $\mathbb{R}$ sont des cas particuliers de ce principe. Ils sont tous convexes.
#### 12.2.3 Le graphe d'une fonction dans $\mathbb{R}^2$
Le graphe $\Gamma = \{ (x, x^2) \mid x \in \mathbb{R} \}$ dans $\mathbb{R}^2$ n'est pas un ensemble convexe [ ](#page=3) [3](#page=3).
Pour le justifier, prenons deux points sur le graphe. Par exemple, considérons le point $P_1 = (-1, (-1)^2) = (-1, 1)$ et le point $P_2 = (1, 1^2) = (1, 1)$. Ces deux points appartiennent à $\Gamma$ [ ](#page=3) [3](#page=3).
Soit $\lambda = \frac{1}{2}$. Le point milieu du segment reliant $P_1$ et $P_2$ est :
$$ P_m = (1-\frac{1}{2})P_1 + \frac{1}{2}P_2 = \frac{1}{2}(-1, 1) + \frac{1}{2}(1, 1) = (-\frac{1}{2}, \frac{1}{2}) + (\frac{1}{2}, \frac{1}{2}) = (0, 1) $$
Ce point $(0, 1)$ est-il sur le graphe $\Gamma$? Pour qu'il y soit, il faudrait que sa deuxième coordonnée soit le carré de sa première coordonnée. Or, $1 \neq 0^2$. Donc, $(0, 1) \notin \Gamma$ [ ](#page=3) [3](#page=3).
Comme nous avons trouvé un segment reliant deux points du graphe qui sort du graphe, $\Gamma$ n'est pas convexe [ ](#page=3) [3](#page=3).
> **Tip:** Les graphes de fonctions qui "pen**d**ent" (comme $y=x^2$ ou $y=\sqrt{x}$) ne sont généralement pas convexes. Les fonctions "concaves" elles, ont un graphe qui forme une sorte de "bol inversé" et leur graphe est convexe.
---
## Erreurs courantes à éviter
- Révisez tous les sujets en profondeur avant les examens
- Portez attention aux formules et définitions clés
- Pratiquez avec les exemples fournis dans chaque section
- Ne mémorisez pas sans comprendre les concepts sous-jacents
Glossary
| Term | Definition |
|------|------------|
| Espace vectoriel | Un ensemble muni de deux opérations (addition vectorielle et multiplication par un scalaire) satisfaisant certains axiomes, permettant de combiner des vecteurs et de les multiplier par des nombres. |
| Norme | Une fonction d'un espace vectoriel vers les nombres réels positifs qui assigne une 'longueur' ou 'taille' à chaque vecteur, satisfaisant la positivité, la définition (non-nullité pour les vecteurs non nuls), l'homogénéité et l'inégalité triangulaire. |
| Fonction linéaire | Une fonction entre deux espaces vectoriels qui préserve les opérations d'addition vectorielle et de multiplication par un scalaire. |
| Matrice | Une représentation rectangulaire de nombres, de symboles ou d'expressions, arrangés en lignes et colonnes, souvent utilisée pour représenter des transformations linéaires. |
| Rang | La dimension de l'espace image d'une application linéaire, indiquant le nombre maximal de vecteurs linéairement indépendants qui peuvent être obtenus par l'application. |
| Noyau (de f) | L'ensemble de tous les vecteurs d'un espace vectoriel qui sont appliqués sur le vecteur nul par une fonction linéaire $f$. Il s'agit d'un sous-espace vectoriel. |
| Boule ouverte | L'ensemble des points dans un espace métrique ou normé dont la distance à un centre donné est strictement inférieure à un rayon donné. Dans un espace normé $(E, \Vert \cdot \Vert)$, $B(x, r) = \{y \in E \mid \Vert x - y \Vert < r\}$. |
| Boule fermée | L'ensemble des points dans un espace métrique ou normé dont la distance à un centre donné est inférieure ou égale à un rayon donné. Dans un espace normé $(E, \Vert \cdot \Vert)$, $B_f(x, r) = \{y \in E \mid \Vert x - y \Vert \le r\}$. |
| Normes équivalentes | Deux normes $\Vert \cdot \Vert_1$ et $\Vert \cdot \Vert_2$ sur un même espace vectoriel $E$ sont dites équivalentes s'il existe des constantes positives $c$ et $C$ telles que $c \Vert x \Vert_1 \le \Vert x \Vert_2 \le C \Vert x \Vert_1$ pour tout $x \in E$. |
| Intérieur (d'un ensemble) | Le plus grand ensemble ouvert contenu dans un ensemble donné. Un point est dans l'intérieur d'un ensemble s'il existe une petite boule centrée en ce point entièrement contenue dans l'ensemble. |
| Adhérence (d'un ensemble) | Le plus petit ensemble fermé contenant un ensemble donné. Un point est dans l'adhérence d'un ensemble si toute boule centrée en ce point contient au moins un point de l'ensemble. |
| Frontière (d'un ensemble) | L'ensemble des points qui sont à la fois dans l'adhérence de l'ensemble et dans l'adhérence de son complémentaire. |
| Ensemble convexe | Un ensemble dans un espace vectoriel tel que pour deux points quelconques de l'ensemble, le segment de droite les reliant est entièrement contenu dans l'ensemble. |
| Espace complet | Un espace métrique ou normé où toute suite de Cauchy converge vers un point de cet espace. |
Cover
WisIIA-HC01.pdf
Summary
# The definite integral: definition and interpretation
This section details the definition of the definite integral, its graphical meaning as area, and its fundamental properties.
Add some stuff
### 1.1 Definition of the definite integral
The definite integral of a continuous function $f$ on an interval $\[a, b\]$ is defined as: $$ \\int\_{a}^{b} f(x) , dx = \[F(x)\]\_{a}^{b} = F(b) - F(a) $$ where $F$ is an antiderivative of $f$ on $\[a,b\]$. When finding $F(x)$, the constant of integration can be omitted [3](#page=3) [4](#page=4).
**Example:**$$ \\int\_{0}^{1} (2x + 1) , dx = \[x^2 + x\]\_{0}^{1} = (1^2 + 1) - (0^2 + 0) = 2 $$
### 1.2 Graphical interpretation as area
When the function $f$ is positive on the interval $\[a, b\]$, the definite integral represents the area $S$ under the curve of $f(x)$ from $a$ to $b$: $$ S = \\int\_{a}^{b} f(x) , dx $$
**Exercise:** Calculate the area of the region bounded by the graph of $y = 2x + 1$, the x-axis, the y-axis, and the line $x = 1$ [6](#page=6).
However, if the function $f$ is negative on $\[a, b\]$, the definite integral will yield a negative value. In such cases, the area $S$ is the negative of the definite integral: $$ S = -\\int\_{a}^{b} f(x) , dx $$
It is crucial to understand that the definite integral does not always represent the geometric area when the function takes on both positive and negative values. For instance, $\\int\_{-2}^{2} x^3 , dx$ is not equal to the geometric area between the curve and the x-axis, which is 8. The reason is that the integral accounts for the signed area, where areas above the x-axis are positive and areas below are negative [7](#page=7).
### 1.3 Properties of the definite integral
The definite integral possesses several key properties:
1. **Reversing the limits of integration:**$$ \\int\_{a}^{b} f(x) , dx = -\\int\_{b}^{a} f(x) , dx $$
2. **Integral over a point:**$$ \\int\_{a}^{a} f(x) , dx = 0 $$
3. **Additivity of integration intervals:** For any $c$ between $a$ and $b$: $$ \\int\_{a}^{b} f(x) , dx = \\int\_{a}^{c} f(x) , dx + \\int\_{c}^{b} f(x) , dx $$
4. **Constant multiple rule:**$$ \\int\_{a}^{b} \\alpha f(x) , dx = \\alpha \\int\_{a}^{b} f(x) , dx \\quad (\\alpha \\in \\mathbb{R}) $$
5. **Sum/Difference rule:**$$ \\int\_{a}^{b} (f(x) + g(x)) , dx = \\int\_{a}^{b} f(x) , dx + \\int\_{a}^{b} g(x) , dx $$
**Exercise:** Calculate: $$ \\int\_{0}^{\\ln 1} e^{-x^2} , dx $$
### 1.4 Area between two curves
The area between two curves, $f(x)$ and $g(x)$, can be calculated by integrating the difference between the upper and lower curves over the relevant intervals.
If the curves intersect at one point $c$ within the interval $\[a, b\]$, the area is calculated as: $$ \\text{OPP} = \\int\_{a}^{c} (g(x) - f(x)) , dx + \\int\_{c}^{b} (f(x) - g(x)) , dx $$ assuming $g(x) \\geq f(x)$ on $\[a, c\]$ and $f(x) \\geq g(x)$ on $\[c, b\]$ [11](#page=11).
If there are multiple intersection points (e.g., $a < c < d < b$), the area calculation involves summing the areas between the curves in each sub-interval, ensuring the integrand is always the difference between the upper and lower curve: $$ \\text{OPP} = \\int\_{a}^{c} (f(x) - g(x)) , dx + \\int\_{c}^{d} (g(x) - f(x)) , dx + \\int\_{d}^{b} (f(x) - g(x)) , dx $$
**Example:** Calculate the area between two curves: $$ \\text{Opp.} = \\int\_{0}^{1} (x - x^3) , dx + \\int\_{1}^{2} (x^3 - x) , dx = \\frac{1}{4} + \\frac{9}{4} = \\frac{5}{2} $$
### 1.5 Approximation of the definite integral
The definite integral can be approximated by summing the areas of a series of rectangles. If $\\Delta x$ is the width of each rectangle (where $\\Delta x = \\frac{b-a}{n}$) and $f(x\_i)$ is the height of the $i$\-th rectangle (with $x\_i$ being a value within the $i$\-th sub-interval), then the area $S$ can be expressed as the limit of the sum of these rectangular areas as the number of rectangles approaches infinity: $$ S = \\lim\_{n \\to \\infty} \\sum\_{i=1}^{n} f(x\_i) \\Delta x = \\int\_{a}^{b} f(x) , dx $$ This process illustrates the fundamental connection between summation and integration.
* * *
# Economic applications of the definite integral
The definite integral finds practical applications in economics by quantifying areas under curves, particularly for concepts like consumer and producer surplus, and the Gini coefficient [15](#page=15) [20](#page=20).
### 2.1 Consumer and producer surplus
Consumer surplus (CS) and producer surplus (PS) are economic measures that utilize definite integrals to represent the benefits consumers and producers receive from market transactions [15](#page=15).
#### 2.1.1 Consumer surplus (CS)
Consumer surplus represents the difference between what consumers are willing to pay for a good or service and what they actually pay. It is calculated as the area between the demand curve ($D(q)$) and the market price ($p^{\\ast}$) up to the equilibrium quantity ($q^{\\ast}$) [15](#page=15).
The formula for consumer surplus is: $$CS = \\int\_{0}^{q^{\\ast}} (D(q) - p^{\\ast}) , dq$$ This can be further expressed as: $$CS = \\int\_{0}^{q^{\\ast}} D(q) , dq - p^{\\ast}q^{\\ast}$$
> **Tip:** Visually, consumer surplus is the area below the demand curve and above the horizontal line representing the market price, from the origin to the equilibrium quantity.
#### 2.1.2 Producer surplus (PS)
Producer surplus represents the difference between the price producers receive for a good or service and the minimum price they are willing to accept (their cost of production). It is calculated as the area between the market price ($p^{\\ast}$) and the supply curve ($S(q)$) up to the equilibrium quantity ($q^{\\ast}$) [15](#page=15).
The formula for producer surplus is: $$PS = \\int\_{0}^{q^{\\ast}} (p^{\\ast} - S(q)) , dq$$ This can be further expressed as: $$PS = p^{\\ast}q^{\\ast} - \\int\_{0}^{q^{\\ast}} S(q) , dq$$
> **Tip:** Visually, producer surplus is the area above the supply curve and below the horizontal line representing the market price, from the origin to the equilibrium quantity.
#### 2.1.3 Example: Calculating CS and PS
To illustrate, consider a scenario with given demand and supply functions where the equilibrium quantity ($q^{\\ast}$) and market price ($p^{\\ast}$) are known. The calculation involves setting up and evaluating the definite integrals for CS and PS. For instance, if the demand function is $D(q) = 60 - q$ and the supply function is $S(q) = q$, and the equilibrium occurs at $q^{\\ast} = 20$ and $p^{\\ast} = 20$, then [16](#page=16) [17](#page=17) [18](#page=18) [19](#page=19):
Consumer Surplus: $CS = \\int\_{0}^{20} ((60 - q) - 20) , dq = \\int\_{0}^{20} (40 - q) , dq$$CS = \[40q - \\frac{q^2}{2}\]\_{0}^{20} = (40 \\times 20 - \\frac{20^2}{2}) - (0 - 0) = 800 - 200 = 600$ dollars [16](#page=16) [17](#page=17) [18](#page=18).
Producer Surplus: $PS = \\int\_{0}^{20} (20 - q) , dq$$PS = \[20q - \\frac{q^2}{2}\]\_{0}^{20} = (20 \\times 20 - \\frac{20^2}{2}) - (0 - 0) = 400 - 200 = 200$ dollars [16](#page=16) [19](#page=19).
### 2.2 Gini coefficient
The Gini coefficient is a measure of income or wealth inequality within a population, ranging from 0 (perfect equality) to 1 (perfect inequality). It is derived from the Lorenz curve, which plots the cumulative proportion of total income or wealth against the cumulative proportion of the population [20](#page=20).
The Gini coefficient can be calculated using the definite integral of the Lorenz curve, denoted as $L(x)$, where $x$ represents the cumulative proportion of the population [20](#page=20).
The formula for the Gini coefficient is: $$Gini = 2 \\left( \\frac{1}{2} - \\int\_{0}^{1} L(x) , dx \\right)$$ This can be simplified to: $$Gini = 1 - 2 \\int\_{0}^{1} L(x) , dx$$
> **Tip:** The term $\\int\_{0}^{1} L(x) , dx$ represents the area under the Lorenz curve. The area between the line of perfect equality (a 45-degree line) and the Lorenz curve is related to this integral. The Gini coefficient quantifies this area relative to the total area under the line of perfect equality.
* * *
# Improper integrals: definition, types, and convergence
This section introduces improper integrals, which extend the concept of definite integration to cases involving infinite limits of integration or discontinuities within the integration interval.
### 3.1 Introduction to improper integrals
Improper integrals are used in various applications, including statistics, to calculate probabilities involving continuous random variables with probability density functions. For example, the probability that a continuous random variable X lies between 'a' and 'b' is given by the integral of its probability density function p(x) from a to b: $P(a < X < b) = \\int\_{a}^{b} p(x) dx$. Similarly, probabilities involving infinite ranges are expressed as improper integrals, such as $P(X > 0) = \\int\_{0}^{+\\infty} p(x) dx$ and the total probability is $P(-\\infty < X < +\\infty) = 1 = \\int\_{-\\infty}^{+\\infty} p(x) dx$ [22](#page=22).
### 3.2 Type I improper integrals: infinite limits
Type I improper integrals involve integration over an infinite interval. There are three definitions based on the position of the infinite limit(s) [23](#page=23):
* **Integral from a to positive infinity:**$$ \\int\_{a}^{+\\infty} f(x) dx = \\lim\_{t \\to +\\infty} \\int\_{a}^{t} f(x) dx $$ where $a \\in \\mathbb{R}$ [23](#page=23).
* **Integral from negative infinity to b:**$$ \\int\_{-\\infty}^{b} f(x) dx = \\lim\_{t \\to -\\infty} \\int\_{b}^{t} f(x) dx $$ where $b \\in \\mathbb{R}$ [23](#page=23).
* **Integral from negative infinity to positive infinity:**$$ \\int\_{-\\infty}^{+\\infty} f(x) dx = \\lim\_{t \\to -\\infty} \\int\_{c}^{t} f(x) dx + \\lim\_{s \\to +\\infty} \\int\_{c}^{s} f(x) dx $$ where $c \\in \\mathbb{R}$. This integral converges if and only if both of the separate integrals converge [23](#page=23).
#### 3.2.1 Convergence of Type I integrals
An improper integral of Type I is considered **convergent** if the limit exists and is a finite real number. If the limit is infinite or does not exist, the integral is **divergent** [23](#page=23).
> **Tip:** When evaluating improper integrals of Type I, the key is to replace the infinite limit with a variable and then evaluate the definite integral. The convergence or divergence is determined by the limit of this expression as the variable approaches infinity.
#### 3.2.2 Example of Type I convergence
Consider the integral $\\int\_{a}^{+\\infty} \\frac{1}{x^2} dx$ [24](#page=24). We evaluate this as: $$ \\int\_{a}^{+\\infty} \\frac{1}{x^2} dx = \\lim\_{t \\to +\\infty} \\int\_{a}^{t} \\frac{1}{x^2} dx $$$$ = \\lim\_{t \\to +\\infty} \\left\[ -\\frac{1}{x} \\right\]\_{a}^{t} $$$$ = \\lim{t \\to +\\infty} \\left( -\\frac{1}{t} + \\frac{1}{a} \\right) $$$$ = 0 + \\frac{1}{a} = \\frac{1}{a} $$ Since $a \\in \\mathbb{R}$ and the limit results in a finite value $\\frac{1}{a}$, the integral is **convergent** [24](#page=24).
### 3.3 Type II improper integrals: discontinuities
Type II improper integrals involve integration over an interval where the integrand has an infinite discontinuity. These discontinuities can occur at one or both endpoints of the interval, or at an interior point [25](#page=25).
#### 3.3.1 Definitions for Type II integrals
The definitions for Type II improper integrals depend on the location of the discontinuity:
* **f is discontinuous at the lower limit 'a' and continuous on (a, b:**$$ \\int\_{a}^{b} f(x) dx = \\lim\_{t \\downarrow a} \\int\_{t}^{b} f(x) dx $$ The notation $t \\downarrow a$ signifies that $t$ approaches $a$ from the right (values greater than $a$).
* **f is discontinuous at the upper limit 'b' and continuous on \[a, b\[:**$$ \\int\_{a}^{b} f(x) dx = \\lim\_{t \\uparrow b} \\int\_{a}^{t} f(x) dx $$ The notation $t \\uparrow b$ signifies that $t$ approaches $b$ from the left (values less than $b$).
* **f is discontinuous at an interior point 'c' within (a, b):**$$ \\int\_{a}^{b} f(x) dx = \\lim\_{t \\uparrow c} \\int\_{a}^{t} f(x) dx + \\lim\_{t \\downarrow c} \\int\_{t}^{b} f(x) dx $$ This integral converges if and only if both of the separate integrals converge.
> **Remark:** If the integrand $f(x)$ is discontinuous at multiple points within the interval $\[a, b\]$, the interval should be split into sub-intervals, each containing a single point of discontinuity, and the definitions above should be applied to each sub-interval separately [25](#page=25).
#### 3.3.2 Example of Type II divergence
Consider the integral $\\int\_{2}^{4} \\frac{1}{(x-2)^{3/2}} dx$. Here, the integrand has a discontinuity at $x=2$. We apply the definition for a discontinuity at the lower limit [26](#page=26): $$ \\int\_{2}^{4} \\frac{1}{(x-2)^{3/2}} dx = \\lim\_{t \\downarrow 2} \\int\_{t}^{4} \\frac{1}{(x-2)^{3/2}} dx $$$$ = \\lim\_{t \\downarrow 2} \\left\[ -2(x-2)^{-1/2} \\right\]\_{t}^{4} $$$$ = \\lim{t \\downarrow 2} \\left( -2(4-2)^{-1/2} - (-2(t-2)^{-1/2}) \\right) $$$$ = \\lim\_{t \\downarrow 2} \\left( -2 ^{-1/2} + \\frac{2}{(t-2)^{1/2}} \\right) $$ [2](#page=2). $$ = -2 \\cdot \\frac{1}{\\sqrt{2}} + \\lim\_{t \\downarrow 2} \\frac{2}{\\sqrt{t-2}} $$$$ = -\\sqrt{2} + (+\\infty) = +\\infty $$ Since the limit is infinite, the integral is **divergent** [26](#page=26).
### 3.4 Exercise: $\\int\_{0}^{1} \\ln x , dx$
**1\. Why is $I = \\int\_{0}^{1} \\ln x , dx$ an improper integral?** The integrand $\\ln x$ has a discontinuity at $x=0$, which is the lower limit of integration. Therefore, it is a Type II improper integral [27](#page=27).
**2\. Is $I$ convergent or divergent?** To determine convergence, we evaluate the integral using the definition for a discontinuity at the lower limit: $$ I = \\int\_{0}^{1} \\ln x , dx = \\lim\_{t \\downarrow 0} \\int\_{t}^{1} \\ln x , dx $$ We use integration by parts to evaluate $\\int \\ln x , dx$: let $u = \\ln x$ and $dv = dx$. Then $du = \\frac{1}{x} dx$ and $v = x$. $$ \\int \\ln x , dx = x \\ln x - \\int x \\cdot \\frac{1}{x} dx = x \\ln x - \\int 1 , dx = x \\ln x - x $$ Now, we apply the limits: $$ \\lim\_{t \\downarrow 0} \[x \\ln x - x\]\_{t}^{1} = \\lim{t \\downarrow 0} \\left( (1 \\ln 1 - 1) - (t \\ln t - t) \\right) $$$$ = \\lim\_{t \\downarrow 0} \\left( (0 - 1) - (t \\ln t - t) \\right) $$$$ = -1 - \\lim\_{t \\downarrow 0} (t \\ln t) + \\lim\_{t \\downarrow 0} t $$ We need to evaluate $\\lim\_{t \\downarrow 0} t \\ln t$. This is an indeterminate form of type $0 \\cdot (-\\infty)$. We can rewrite it as $\\lim\_{t \\downarrow 0} \\frac{\\ln t}{1/t}$, which is of type $\\frac{-\\infty}{\\infty}$. Using L'Hôpital's Rule: $$ \\lim\_{t \\downarrow 0} \\frac{\\ln t}{1/t} = \\lim\_{t \\downarrow 0} \\frac{1/t}{-1/t^2} = \\lim\_{t \\downarrow 0} -t = 0 $$ So, $\\lim\_{t \\downarrow 0} t \\ln t = 0$. Substituting this back into our expression for $I$: $$ I = -1 - 0 + 0 = -1 $$ Since the limit results in a finite number (-1), the integral $I = \\int\_{0}^{1} \\ln x , dx$ is **convergent** [28](#page=28).
* * *
## Common mistakes to avoid
* Review all topics thoroughly before exams
* Pay attention to formulas and key definitions
* Practice with examples provided in each section
* Don't memorize without understanding the underlying concepts
Glossary
| Term | Definition |
|------|------------|
| Definite integral | The definite integral of a continuous function $f$ on the interval $[a,b]$, denoted as $\int_a^b f(x) dx$, represents the net signed area between the function's graph and the x-axis from $a$ to $b$. It is calculated using the antiderivative $F$ of $f$ as $F(b) - F(a)$. |
| Primitive function | A primitive function $F(x)$ of a function $f(x)$ is any function whose derivative is $f(x)$, i.e., $F'(x) = f(x)$. When calculating definite integrals, any primitive function can be used, and the constant of integration can be omitted. |
| Area under a curve | When a function $f(x)$ is positive on an interval $[a,b]$, the definite integral $\int_a^b f(x) dx$ geometrically represents the area of the region bounded by the graph of $f(x)$, the x-axis, and the vertical lines $x=a$ and $x=b$. |
| Negative function area | If a function $f(x)$ is negative on an interval $[a,b]$, the definite integral $\int_a^b f(x) dx$ will be negative. The geometric area of the region between the graph and the x-axis is then given by $-\int_a^b f(x) dx$. |
| Consumer surplus | Consumer surplus (CS) is an economic measure representing the benefit consumers receive when they pay less for a product than they are willing to pay. It is calculated as the integral of the demand function minus the market price, from zero to the quantity purchased. |
| Producer surplus | Producer surplus (PS) is an economic measure representing the benefit producers receive when they sell a product for more than they are willing to sell it for. It is calculated as the integral of the market price minus the supply function, from zero to the quantity sold. |
| Gini coefficient | The Gini coefficient is a measure of statistical dispersion intended to represent the income or wealth distribution of a nation's residents, and is the most commonly used measure of inequality. It is calculated using the Lorenz curve and can be expressed using an integral. |
| Improper integral | An improper integral is a definite integral where the interval of integration is infinite or the integrand has a discontinuity within the interval. These integrals are evaluated using limits. |
| Type I improper integral | A Type I improper integral involves integration over an infinite interval, either from a finite number to positive infinity ($\int_a^\infty f(x) dx$), from negative infinity to a finite number ($\int_{-\infty}^b f(x) dx$), or over the entire real line ($\int_{-\infty}^\infty f(x) dx$). |
| Type II improper integral | A Type II improper integral involves an integrand that is discontinuous at one or more points within the interval of integration. The integral is then defined as a limit of definite integrals over subintervals. |
| Convergence of an integral | An improper integral is said to converge if its limiting value exists and is a finite real number. If the limit does not exist or is infinite, the integral is said to diverge. |
| Divergence of an integral | An improper integral diverges if its limiting value does not exist or is infinite. This means that the area represented by the integral is either unbounded or does not approach a specific finite value. |
Cover
WisIIA-HC01.pdf
Summary
# Bepaalde integraal: definitie en eigenschappen
Hier is een samenvatting van het onderwerp "Bepaalde integraal: definitie en eigenschappen" voor uw studiehandleiding.
## 1. Bepaalde integraal: definitie en eigenschappen
Dit onderwerp introduceert de definitie van de bepaalde integraal, hoe deze grafisch geïnterpreteerd kan worden als oppervlakte onder een curve, en de fundamentele eigenschappen die ten grondslag liggen aan het werken met integralen, evenals methoden voor het berekenen van oppervlaktes.
### 1.1 Definitie van de bepaalde integraal
De bepaalde integraal van een functie $f$ over een interval $[a, b]$ is gedefinieerd als het verschil tussen de waarden van een primitieve functie $F$ van $f$ geëvalueerd op de bovengrens en de ondergrens van het interval. Cruciaal hierbij is dat men de integratieconstante kan weglaten bij het vinden van de primitieve functie $F$ [3](#page=3) [4](#page=4).
De notatie is als volgt:
$$ \int_a^b f(x) \, dx = [F(x)]_a^b = F(b) - F(a) $$
waarbij $F$ een primitieve functie is van $f$ op het interval $[a, b]$ [3](#page=3).
**Voorbeeld:**
Bereken de bepaalde integraal van $f(x) = 2x + 1$ van 0 tot 1.
Een primitieve functie is $F(x) = x^2 + x$.
$$ \int_0^1 (2x + 1) \, dx = [x^2 + x]_0^1 = (1^2 + 1) - (0^2 + 0) = 2 $$
### 1.2 Grafische interpretatie als oppervlakte
De bepaalde integraal heeft een belangrijke grafische interpretatie: het vertegenwoordigt de netto oppervlakte ingesloten door de grafiek van de functie $f(x)$, de x-as, en de verticale lijnen $x=a$ en $x=b$ [5](#page=5) [8](#page=8).
* **Als $f(x) \ge 0$ op $[a, b]$**: De oppervlakte $S$ is direct gelijk aan de bepaalde integraal:
$$ S = \int_a^b f(x) \, dx $$
* **Als $f(x) \le 0$ op $[a, b]$**: De oppervlakte $S$ is de negatieve waarde van de bepaalde integraal, omdat de integraal zelf een negatieve waarde zal hebben:
$$ S = -\int_a^b f(x) \, dx $$
**Opmerking over netto oppervlakte:**
De integraal berekent de netto oppervlakte. Gebieden onder de x-as worden als negatief geteld, terwijl gebieden boven de x-as als positief worden geteld [7](#page=7).
**Voorbeeld van netto oppervlakte:**
De integraal $\int_{-2}^{2} x^3 \, dx$ is gelijk aan 0, omdat de positieve en negatieve oppervlaktes elkaar opheffen, ook al is de totale oppervlakte groter dan 0 [7](#page=7).
### 1.3 Belangrijkste eigenschappen van de bepaalde integraal
De bepaalde integraal bezit verschillende fundamentele eigenschappen die het rekenen ermee vereenvoudigen:
1. **Omkeren van grenzen:**
$$ \int_b^a f(x) \, dx = -\int_a^b f(x) \, dx $$
Het omwisselen van de integratiegrenzen resulteert in een tegengestelde waarde van de integraal [9](#page=9).
2. **Integraal over een punt:**
$$ \int_a^a f(x) \, dx = 0 $$
De integraal over een interval met dezelfde begin- en eindpunt is altijd nul [9](#page=9).
3. **Additiviteit over intervallen (Chasles' regel):**
$$ \int_a^b f(x) \, dx = \int_a^c f(x) \, dx + \int_c^b f(x) \, dx $$
Een integraal over een groter interval kan worden opgesplitst in de som van integralen over subintervallen, waarbij $c$ een punt is dat tussen $a$ en $b$ ligt [9](#page=9).
4. **Lineariteit - Homogeniteit:**
$$ \int_a^b \alpha f(x) \, dx = \alpha \int_a^b f(x) \, dx $$
Een constante factor $\alpha$ mag buiten de integraal worden gehaald, waar $\alpha \in \mathbb{R}$ [9](#page=9).
5. **Lineariteit - Additiviteit:**
$$ \int_a^b (f(x) + g(x)) \, dx = \int_a^b f(x) \, dx + \int_a^b g(x) \, dx $$
De integraal van een som van functies is gelijk aan de som van de integralen van die functies [9](#page=9).
### 1.4 Berekenen van oppervlaktes begrensd door functies en de x-as
Het berekenen van de oppervlakte van een vlakdeel begrensd door de grafiek van een functie en de x-as vereist aandacht voor de tekens van de functie.
**Oefening:** Bereken de oppervlakte van het vlakdeel begrensd door de grafiek van $y = 2x + 1$, de x-as, de y-as en de rechte $x = 1$.
Dit betekent het berekenen van $\int_0^1 (2x + 1) \, dx$. De functie is positief op dit interval [5](#page=5) [6](#page=6).
$$ \int_0^1 (2x + 1) \, dx = [x^2 + x]_0^1 = (1^2 + 1) - (0^2 + 0) = 2 $$
De oppervlakte is 2 [5](#page=5) [6](#page=6).
### 1.5 Berekenen van oppervlaktes tussen twee grafieken
De oppervlakte tussen twee grafieken, $f(x)$ en $g(x)$, over een interval $[a, b]$ kan worden berekend door de integraal te nemen van het verschil tussen de bovenste en de onderste functie. Dit vereist het bepalen van de snijpunten om de juiste intervallen te identificeren.
* **Met één snijpunt (of als grenzen gegeven zijn):**
Als $g(x) \ge f(x)$ op het interval $[a, c]$ en $f(x) \ge g(x)$ op $[c, b]$:
$$ \text{OPP} = \int_a^c (g(x) - f(x)) \, dx + \int_c^b (f(x) - g(x)) \, dx $$
* **Met meerdere snijpunten:**
Als er meerdere snijpunten zijn, zoals $c$, $d$, etc., wordt de oppervlakte berekend door de integralen van de absolute verschillen over de intervallen tussen de snijpunten op te tellen:
$$ \text{OPP} = \int_a^c (f(x) - g(x)) \, dx + \int_c^d (g(x) - f(x)) \, dx + \dots $$
**Voorbeeld:**
Bereken de oppervlakte tussen de grafieken van $f(x)=x$ en $g(x)=x^3$ van $x=0$ tot $x=2$.
De snijpunten zijn $x=0$, $x=1$ en $x=-1$. Over het interval $ $ zijn de relevante snijpunten $x=0$ en $x=1$ [2](#page=2).
Op $ $ is $x \ge x^3$, dus $f(x)-g(x) = x-x^3$ [1](#page=1).
Op $ $ is $x^3 \ge x$, dus $g(x)-f(x) = x^3-x$ [1](#page=1) [2](#page=2).
$$ \text{Opp.} = \int_0^1 (x - x^3) \, dx + \int_1^2 (x^3 - x) \, dx $$
$$ \text{Opp.} = \left[\frac{1}{2}x^2 - \frac{1}{4}x^4\right]_0^1 + \left[\frac{1}{4}x^4 - \frac{1}{2}x^2\right]_1^2 $$
$$ \text{Opp.} = \left(\frac{1}{2} - \frac{1}{4}\right) - + \left(\frac{1}{4} - \frac{1}{2} \right) - \left(\frac{1}{4} - \frac{1}{2}\right) $$ [4](#page=4).
$$ \text{Opp.} = \frac{1}{4} + (4 - 2) - \left(-\frac{1}{4}\right) = \frac{1}{4} + 2 + \frac{1}{4} = 2\frac{1}{2} = \frac{5}{2} $$
### 1.6 Definitie via som van Riemann
De bepaalde integraal kan ook formeel worden gedefinieerd als de limiet van een som van de oppervlaktes van rechthoeken, bekend als de Riemann-som. Dit is de basis van hoe integralen worden benaderd en hoe ze wiskundig worden gedefinieerd [14](#page=14).
Als een interval $[a, b]$ wordt opgedeeld in $n$ gelijke subintervallen met breedte $\Delta x = \frac{b-a}{n}$, en $f(x_i)$ is de hoogte van de $i$-de rechthoek (waarbij $x_i$ een punt in het $i$-de subinterval is), dan is de oppervlakte $S$ de limiet van de som van deze rechthoekoppervlaktes als het aantal rechthoeken naar oneindig gaat:
$$ S = \lim_{n \to \infty} \sum_{i=1}^n f(x_i) \Delta x = \int_a^b f(x) \, dx $$
> **Tip:** Onthoud dat de definitie van de bepaalde integraal een krachtig wiskundig concept is dat zowel het concept van oppervlakte onder een curve formaliseert als de basis vormt voor het oplossen van veel problemen in de wiskunde, natuurkunde en economie.
> **Tip:** Bij het berekenen van oppervlaktes is het cruciaal om te bepalen welk deel van de grafiek boven en welk deel onder de x-as ligt, of welk van de twee functies de bovengrens vormt. Dit bepaalt de volgorde van aftrekking in de integraal.
---
# Economische toepassingen van integralen
Integralen worden in de economie gebruikt om belangrijke concepten zoals consumenten- en producentensurplus, en de Gini-coëfficiënt te berekenen, die respectievelijk de voordelen voor consumenten en producenten en de mate van economische ongelijkheid meten [14](#page=14) [15](#page=15) [16](#page=16) [17](#page=17) [18](#page=18) [19](#page=19) [20](#page=20).
### 2.1 Consumenten- en producentensurplus
Consumenten- en producentensurplus zijn grafische weergaven van het economische voordeel dat consumenten en producenten behalen door deel te nemen aan een markt. Deze surpluswaarden kunnen berekend worden met behulp van bepaalde integralen [15](#page=15).
#### 2.1.1 Consumentensurplus (CS)
Het consumentensurplus (CS) meet het verschil tussen de totale hoeveelheid die consumenten bereid zijn te betalen voor een goed of dienst en de totale hoeveelheid die ze daadwerkelijk betalen. Wiskundig wordt dit uitgedrukt als de integraal van de vraagfunctie $D(q)$ minus de evenwichtsprijs $p^{\ast}$ over het interval van 0 tot de evenwichtshoeveelheid $q^{\ast}$ [15](#page=15).
De formule voor consumentensurplus is:
$$CS = \int_{q^{\ast}}^{0} (D(q) - p^{\ast}) dq$$
Dit kan verder worden uitgewerkt tot:
$$CS = \int_{q^{\ast}}^{0} D(q) dq - p^{\ast}q^{\ast}$$
> **Tip:** Het consumentensurplus wordt voorgesteld door de oppervlakte onder de vraagcurve en boven de horizontale lijn van de evenwichtsprijs, tot aan de evenwichtshoeveelheid [16](#page=16).
#### 2.1.2 Producentensurplus (PS)
Het producentensurplus (PS) meet het verschil tussen de totale hoeveelheid die producenten ontvangen voor een goed of dienst en de totale hoeveelheid die ze bereid zouden zijn te accepteren (hun minimale aanvaardbare prijs). Dit wordt berekend als de integraal van de evenwichtsprijs $p^{\ast}$ minus de aanbodfunctie $S(q)$ over het interval van 0 tot de evenwichtshoeveelheid $q^{\ast}$ [15](#page=15).
De formule voor producentensurplus is:
$$PS = \int_{q^{\ast}}^{0} (p^{\ast} - S(q)) dq$$
Dit kan verder worden uitgewerkt tot:
$$PS = p^{\ast}q^{\ast} - \int_{q^{\ast}}^{0} S(q) dq$$
> **Tip:** Het producentensurplus wordt voorgesteld door de oppervlakte boven de aanbodcurve en onder de horizontale lijn van de evenwichtsprijs, tot aan de evenwichtshoeveelheid [16](#page=16).
#### 2.1.3 Oefening consumenten- en producentensurplus
Om de berekening van consumenten- en producentensurplus te illustreren, wordt een oefening voorgesteld met specifieke vraag- en aanbodsfuncties. Bij deze functies moet worden aangetoond dat het consumentensurplus gelijk is aan 18 en het producentensurplus gelijk is aan 27. De uitwerking omvat het bepalen van het snijpunt van de vraag- en aanbodcurves (evenwichtsprijs en -hoeveelheid) en vervolgens het toepassen van de integralen voor CS en PS [16](#page=16) [17](#page=17) [18](#page=18) [19](#page=19).
> **Voorbeeld:** Stel de vraagfunctie is $D(q) = 30 - 2q$ en de aanbodfunctie is $S(q) = 10 + q$. Het snijpunt wordt gevonden door $D(q) = S(q)$, wat leidt tot $30 - 2q = 10 + q$, dus $20 = 3q$ en $q^{\ast} = 20/3$. De evenwichtsprijs is $p^{\ast} = 10 + 20/3 = 50/3$. Vervolgens worden deze waarden ingevuld in de formules voor CS en PS om de numerieke waarden te berekenen [17](#page=17) [18](#page=18) [19](#page=19).
### 2.2 Gini-coëfficiënt
De Gini-coëfficiënt is een veelgebruikte maatstaf voor economische ongelijkheid binnen een populatie. Het meet de mate waarin de inkomens of vermogens in een land onevenredig verdeeld zijn. De Gini-coëfficiënt is gerelateerd aan de Lorenzcurve, die de cumulatieve verdeling van inkomen toont [20](#page=20).
De Gini-coëfficiënt wordt berekend met behulp van een integraal van de Lorenzcurve $L(x)$ over het interval van 0 tot 1. De formule luidt [20](#page=20):
$$Gini = 2 \left( \frac{1}{2} - \int_{1}^{0} L(x) dx \right)$$
Een vereenvoudigde vorm van deze formule is:
$$Gini = 1 - 2 \int_{1}^{0} L(x) dx$$
> **Tip:** De Gini-coëfficiënt varieert van 0 tot 1. Een waarde van 0 vertegenwoordigt perfecte gelijkheid (iedereen heeft hetzelfde inkomen), terwijl een waarde van 1 perfecte ongelijkheid vertegenwoordigt (één persoon heeft al het inkomen). Een hogere Gini-coëfficiënt duidt dus op meer inkomensongelijkheid [20](#page=20).
---
# Oneigenlijke integralen
Dit onderwerp behandelt integralen waarbij de grenzen oneindig zijn of de integrand discontinuïteiten vertoont.
### 3.1 Concept van oneigenlijke integralen
Oneigenlijke integralen zijn een uitbreiding van de bepaalde integraal die omgaat met situaties waarin de standaarddefinities van integratiegrenzen of continuïteit niet van toepassing zijn. Dit concept is essentieel in verschillende wiskundige en statistische toepassingen [21](#page=21).
### 3.2 Toepassing in de statistiek
In de statistiek worden oneigenlijke integralen gebruikt om kansen te berekenen voor continue stochasten met een kansdichtheidsfunctie $p(x)$ [22](#page=22).
- De kans dat een stochast $X$ zich bevindt tussen $a$ en $b$ wordt gegeven door:
$P(a < X < b) = \int_b^a p(x) dx$ [22](#page=22).
- De kans dat $X$ groter is dan 0 wordt berekend als:
$P(X > 0) = \int_0^{+\infty} p(x) dx$ [22](#page=22).
- De totale kans over het gehele domein, van min oneindig tot plus oneindig, moet gelijk zijn aan 1:
$P(-\infty < X < +\infty) = 1 = \int_{-\infty}^{+\infty} p(x) dx$ [22](#page=22).
### 3.3 Oneigenlijke integralen van Type I
Dit type betreft integralen met oneindige integratiegrenzen [23](#page=23).
#### 3.3.1 Definities
- **Integratie tot plus oneindig:**
$\int_{a}^{+\infty} f(x) dx = \lim_{t\to+\infty} \int_{a}^{t} f(x) dx$, waarbij $a \in \mathbb{R}$ [23](#page=23).
- **Integratie vanaf min oneindig:**
$\int_{b}^{-\infty} f(x) dx = \lim_{t\to-\infty} \int_{b}^{t} f(x) dx$, waarbij $b \in \mathbb{R}$ [23](#page=23).
- **Integratie over een interval van min tot plus oneindig:**
$\int_{-\infty}^{+\infty} f(x) dx = \lim_{t\to-\infty} \int_{c}^{t} f(x) dx + \lim_{s\to+\infty} \int_{c}^{s} f(x) dx$, waarbij $c \in \mathbb{R}$. Het punt $c$ is een willekeurig reëel getal dat dient als tussenpunt [23](#page=23).
#### 3.3.2 Convergentie en divergentie
Een oneigenlijke integraal van Type I wordt **convergent** genoemd als de limiet bestaat en een eindige waarde heeft. Als de limiet oneindig is of niet bestaat, wordt de integraal **divergent** genoemd.
> **Tip:** Voor de definitie van $\int_{-\infty}^{+\infty} f(x) dx$ is het cruciaal dat beide limieten afzonderlijk convergeren. Als één van de twee limieten divergeert, divergeert de gehele integraal.
#### 3.3.3 Voorbeeld
Beschouw de integraal $\int_{a}^{+\infty} \frac{1}{x^2} dx$, met $a \in \mathbb{R}$ [24](#page=24).
1. Pas de definitie toe:
$\int_{a}^{+\infty} \frac{1}{x^2} dx = \lim_{t\to+\infty} \int_{a}^{t} \frac{1}{x^2} dx$ [24](#page=24).
2. Bereken de bepaalde integraal:
$\int_{a}^{t} \frac{1}{x^2} dx = \left[-\frac{1}{x}\right]_a^t = -\frac{1}{t} - \left(-\frac{1}{a}\right) = \frac{1}{a} - \frac{1}{t}$ [24](#page=24).
3. Bereken de limiet:
$\lim_{t\to+\infty} \left(\frac{1}{a} - \frac{1}{t}\right) = \frac{1}{a} - 0 = \frac{1}{a}$ [24](#page=24).
Aangezien $\frac{1}{a}$ een eindige waarde is voor elke $a \in \mathbb{R}$ is de integraal **convergent** [24](#page=24).
### 3.4 Oneigenlijke integralen van Type II
Dit type betreft integralen waarbij de integrand discontinuïteiten vertoont binnen het integratieinterval [25](#page=25).
#### 3.4.1 Definities
- **Discontinuïteit aan de ondergrens ($a$):**
Als $f$ discontinu is in $a$ en continu op $]a, b]$, dan:
$\int_{a}^{b} f(x) dx = \lim_{t\searrow a} \int_{t}^{b} f(x) dx$ [25](#page=25).
- **Discontinuïteit aan de bovengrens ($b$):**
Als $f$ discontinu is in $b$ en continu op $[a, b[$, dan:
$\int_{a}^{b} f(x) dx = \lim_{t\nearrow b} \int_{a}^{t} f(x) dx$ [25](#page=25).
- **Discontinuïteit in het inwendige van het interval ($c \in ]a, b[$):**
Als $f$ discontinu is in $c$ en continu op $[a, b \setminus \{c\}$, dan:
$\int_{a}^{b} f(x) dx = \lim_{t\nearrow c} \int_{a}^{t} f(x) dx + \lim_{t\searrow c} \int_{t}^{b} f(x) dx$ [25](#page=25).
> **Opmerking:** Als de integrand discontinu is op meerdere punten binnen $[a, b]$, wordt het interval opgesplitst in deelintervallen die elk één discontinuïteit bevatten, waarna de bovenstaande definities per deelinterval worden toegepast [25](#page=25).
#### 3.4.2 Convergentie en divergentie
Net als bij Type I, wordt een oneigenlijke integraal van Type II **convergent** genoemd als de resulterende limieten bestaan en eindig zijn. Indien een limiet oneindig is of niet bestaat, is de integraal **divergent**.
#### 3.4.3 Voorbeeld
Beschouw de integraal $\int_{2}^{4} \frac{1}{(x-2)^{3/2}} dx$. Hier is de integrand discontinu in $x=2$, de ondergrens [26](#page=26).
1. Pas de definitie toe voor discontinuïteit aan de ondergrens:
$\int_{2}^{4} \frac{1}{(x-2)^{3/2}} dx = \lim_{t\searrow 2} \int_{t}^{4} \frac{1}{(x-2)^{3/2}} dx$ [26](#page=26).
2. Bereken de bepaalde integraal:
$\int_{t}^{4} (x-2)^{-3/2} dx = \left[ \frac{(x-2)^{-1/2}}{-1/2} \right]_t^4 = \left[ -2(x-2)^{-1/2} \right]_t^4$ [26](#page=26).
Dit is gelijk aan: $-2(4-2)^{-1/2} - (-2(t-2)^{-1/2}) = -2 ^{-1/2} + 2(t-2)^{-1/2} = -\frac{2}{\sqrt{2}} + \frac{2}{\sqrt{t-2}}$ [26](#page=26) [2](#page=2).
3. Bereken de limiet:
$\lim_{t\searrow 2} \left( -\frac{2}{\sqrt{2}} + \frac{2}{\sqrt{t-2}} \right) = -\frac{2}{\sqrt{2}} + \lim_{t\searrow 2} \frac{2}{\sqrt{t-2}}$ [26](#page=26).
De limiet $\lim_{t\searrow 2} \frac{2}{\sqrt{t-2}}$ gaat naar $+\infty$ [26](#page=26).
Aangezien het resultaat $+\infty$ is, is de integraal **divergent** [26](#page=26).
### 3.5 Oefening
Gegeven de integraal $I = \int_0^1 \ln x dx$ [27](#page=27).
1. **Waarom is $I$ een oneigenlijke integraal?**
De functie $\ln x$ is discontinu in $x=0$, wat de ondergrens van de integratie is. Hierdoor is het een oneigenlijke integraal van Type II [27](#page=27).
2. **Is $I$ convergent of divergent?**
Om dit te bepalen, passen we de definitie voor discontinuïteit aan de ondergrens toe:
$I = \lim_{t\searrow 0} \int_t^1 \ln x dx$ [27](#page=27).
We berekenen eerst de bepaalde integraal $\int \ln x dx$. Dit kan via partiële integratie met $u = \ln x$ en $dv = dx$. Dan is $du = \frac{1}{x} dx$ en $v = x$.
$\int \ln x dx = x \ln x - \int x \cdot \frac{1}{x} dx = x \ln x - \int 1 dx = x \ln x - x$ [28](#page=28).
Nu berekenen we de bepaalde integraal:
$\int_t^1 \ln x dx = [x \ln x - x]_t^1 = (1 \ln 1 - 1) - (t \ln t - t) = (0 - 1) - (t \ln t - t) = -1 - t \ln t + t$ [28](#page=28).
Vervolgens nemen we de limiet:
$I = \lim_{t\searrow 0} (-1 - t \ln t + t)$ [28](#page=28).
We moeten de limiet $\lim_{t\searrow 0} t \ln t$ evalueren. Dit is een onbepaalde vorm $0 \cdot (-\infty)$. We kunnen dit herschrijven als $\lim_{t\searrow 0} \frac{\ln t}{1/t}$ en L'Hôpital's regel toepassen:
$\lim_{t\searrow 0} \frac{1/t}{-1/t^2} = \lim_{t\searrow 0} (-t) = 0$ [28](#page=28).
Dus, de limiet voor de integraal wordt:
$I = -1 - 0 + 0 = -1$ [28](#page=28).
Aangezien de limiet een eindige waarde heeft (-1), is de integraal $I$ **convergent** [28](#page=28).
---
## Veelgemaakte fouten om te vermijden
- Bestudeer alle onderwerpen grondig voor examens
- Let op formules en belangrijke definities
- Oefen met de voorbeelden in elke sectie
- Memoriseer niet zonder de onderliggende concepten te begrijpen
Glossary
| Term | Definition |
|------|------------|
| Bepaalde integraal | De bepaalde integraal van een functie $f(x)$ van $a$ tot $b$, genoteerd als $\int_a^b f(x) dx$, vertegenwoordigt de netto oppervlakte tussen de grafiek van de functie en de x-as over het interval $[a, b]$. Deze wordt berekend als het verschil tussen de primitieve functie geëvalueerd op de bovengrens en de ondergrens. |
| Primitieve functie | Een primitieve functie $F(x)$ van een functie $f(x)$ is een functie waarvan de afgeleide gelijk is aan $f(x)$. Dit betekent $F'(x) = f(x)$. Bij het berekenen van bepaalde integralen wordt een primitieve functie gebruikt. |
| Oppervlakte | De oppervlakte van een vlakdeel begrensd door de grafiek van een positieve functie $f(x)$ en de x-as over een interval $[a, b]$ kan worden berekend met de bepaalde integraal $\int_a^b f(x) dx$. Als de functie negatief is, wordt de oppervlakte berekend met $-\int_a^b f(x) dx$. |
| Integratieconstante | De integratieconstante, meestal aangeduid met $C$, is een term die wordt toegevoegd aan een primitieve functie. Bij het berekenen van bepaalde integralen valt deze constante weg, omdat deze op beide grenzen van de evaluatie wordt afgetrokken. |
| Consumentensurplus (CS) | Consumentensurplus is de economische maatstaf voor het voordeel dat consumenten behalen door een goed of dienst te kopen tegen een prijs die lager is dan wat ze bereid waren te betalen. Het wordt berekend als de integraal van de vraagfunctie min de evenwichtsprijs over het relevante prijsbereik. |
| Producentensurplus (PS) | Producentensurplus is de economische maatstaf voor het voordeel dat producenten behalen door een goed of dienst te verkopen tegen een prijs die hoger is dan de minimumprijs waarvoor ze bereid waren te verkopen. Het wordt berekend als de integraal van de evenwichtsprijs min de aanbodfunctie over het relevante prijsbereik. |
| Gini-coëfficiënt | De Gini-coëfficiënt is een statistische maat voor inkomens- of vermogensongelijkheid binnen een populatie. Een waarde van 0 vertegenwoordigt perfecte gelijkheid, terwijl een waarde van 1 perfecte ongelijkheid vertegenwoordigt. Het is gerelateerd aan de Lorenzcurve. |
| Oneigenlijke integraal | Een oneigenlijke integraal is een integraal waarbij ten minste één van de grenzen van de integratie oneindig is, of waarbij de integrand een discontinuïteit heeft binnen het integratieinterval. Deze worden berekend met behulp van limieten. |
| Convergentie | Een oneigenlijke integraal convergeert als de bijbehorende limiet van de integraal een eindige waarde heeft. Dit betekent dat de oppervlakte onder de curve welgedefinieerd en berekenbaar is. |
| Divergentie | Een oneigenlijke integraal divergeert als de bijbehorende limiet van de integraal oneindig is of niet bestaat. Dit betekent dat de oppervlakte onder de curve oneindig groot is of niet kan worden bepaald. |
| Kansdichtheidsfunctie (PDF) | Een kansdichtheidsfunctie $p(x)$ beschrijft de relatieve waarschijnlijkheid van een continue willekeurige variabele die een bepaalde waarde aanneemt. De integraal van de PDF over een bepaald interval geeft de kans dat de variabele binnen dat interval valt. |