martes, 27 de mayo de 2008

Objetivo 3.1

MATRICES

Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester
El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853
En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.

Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometría, estadística, economía, informática, física, etc...

La utilización de matrices (arrays) constituye actualmente una parte esencial dn los lenguajes de programación, ya que la mayoría de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas : hojas de cálculo, bases de datos,...

  • CONCEPTO DE MATRIZ

Una matriz es un conjunto de elementos de cualquier naturaleza aunque, en general, suelen ser números ordenados en filas y columnas.

Se llama matriz de orden "m × n" a un conjunto rectangular de elementos aij dispuestos en m filas y en n columnas. El orden de una matriz también se denomina dimensión o tamaño, siendo m y n números naturales.

Las matrices se denotan con letras mayúsculas: A, B, C, ... y los elementos de las mismas con letras minúsculas y subíndices que indican el lugar ocupado: a, b, c, ... Un elemento genérico que ocupe la fila i y la columna j se escribe aij . Si el elemento genérico aparece entre paréntesis también representa a toda la matriz : A = (aij)


Cuando nos referimos indistíntamente a filas o columnas hablamos de lineas.
El número total de elementos de una matriz Am×n es m·n
En matemáticas, tanto las Listas como las Tablas reciben el nombre genérico de matrices.

Una lista numérica es un conjunto de números dispuestos uno a continuación del otro.

  • MATRICES IGUALES

Dos matrices A = (aij)m×n y B = (bij)p×q son iguales, sí y solo si, tienen en los mismo lugares elementos iguales, es decir :


Operaciones con matrices ejercicios resuelto y ejemplos

  • OPERACIONES CON MATRICES

SUMA DE MATRICES

La suma de dos matrices A = (aij)m×n y B = (bij)p×q de la misma dimensión (equidimensionales) : m = p y n = q es otra matriz C = A+B = (cij)m×n = (aij+bij)


Es una ley de composición interna con las siguientes
PROPIEDADES :

· Asociativa : A+(B+C) = (A+B)+C
· Conmutativa : A+B = B+A
· Elem. neutro : ( matriz cero 0m×n ) , 0+A = A+0 = A
· Elem. simétrico : ( matriz opuesta -A ) , A + (-A) = (-A) + A = 0

Al conjunto de las matrices de dimensión m×n cuyos elementos son números reales lo vamos a representar por Mm×n y como hemos visto, por cumplir las propiedades anteriores, ( M, + ) es un grupo abeliano.

¡¡ La suma y diferencia de dos matrices NO está definida si sus dimensiones son distintas. !!

PRODUCTO DE UN NÚMERO REAL POR UNA MATRIZ

Para multiplicar un escalar por una matriz se multiplica el escalar por todos los elementos de la matriz, obteniéndose otra matriz del mismo orden.


Es una ley de composición externa con las siguientes
PROPIEDADES :

PRODUCTO DE MATRICES

Dadas dos matrices A = (aij)m×n y B = (bij)p×q donde n = p, es decir, el número de columnas de la primera matriz A es igual al número de filas de la matriz B , se define el producto A·B de la siguiente forma :

El elemento aque ocupa el lugar (i, j) en la matriz producto se obtiene sumando los productos de cada elemento de la fila i de la matriz A por el correspondiente de la columna j de la matriz B.

MATRIZ INVERSA

Se llama matriz inversa de una matriz cuadrada An y la representamos por A-1 , a la matriz que verifica la siguiente propiedad : A-1·A = A·A-1 = I

Decimos que una matriz cuadrada es "regular" si su determinante es distinto de cero, y es "singular" si su determinante es igual a cero.

PROPIEDADES :

  • Sólo existe matriz inversa de una matriz cuadrada si ésta es regular.
  • La matriz inversa de una matriz cuadrada, si existe, es única.
  • Entre matrices NO existe la operación de división, la matriz inversa realiza funciones análogas.

MÉTODOS PARA HALLAR LA MATRIZ INVERSA :

  • Aplicando la definición
  • Por el método de Gauss
  • Por determinantes

Objetivo 2.1

Funcion Lineal

Una función lineal de una variable real es una función matemática de la forma:

 f(x) = m x + b \,

donde m y b son constantes.

Una función lineal de una única variable independiente x suele escribirse en la forma siguiente

y = m x + b \,

que se conoce como ecuación de la recta en el plano xy.

  • m es denominada la pendiente de la recta.
  • b es la ordenada en el origen, el valor de y en el punto x= 0.

Ejemplo en el plano xy [editar]

En la figura se ven tres rectas, que corresponden a las ecuaciones lineales siguientes:

 y= 0,5 {x} + 1 \,

en esta recta el parámetro m= 1/2, esto es el crecimiento de la recta es 1/2, cuando aumentamos x en una unidad, y aumenta en 1/2 unidad, el valor de b es 1, luego la recta corta el eje y en el punto y= 1

La ecuación:

 y= 0,5 {x} - 1 \,

tiene el valor de la pendiente m= 1/2, igual que en el caso anterior, por eso estas dos rectas son paralelas, como el valor de b= -1, esta recta corta el eje de las y en el punto y= -1.

La tercera ecuación, es:

 y= 2{x} + 1 \,

la pendiente de la recta, el parámetro m= 2, indica que cuando el valor de x aumenta en una unidad, el valor de y la hace en dos unidades, el corte con el eje y, lo tiene en y= 1, dado que el valor de b= 1.

En el caso de una recta el valor de m se corresponde al ángulo de inclinación de la recta con el eje de las x a través de la expresión:

 m = \tan \theta \,

Geometría analítica de la recta en el plano

La Geometría analítica consiste en emplear operaciones de calculo para resolver problemas de geometría, en un plano xy, podemos representar una recta y= mx + b, y determinar las valores de m y de b que cumplan determinadas condiciones, por ejemplo las de un problema de geometría, veamos algunos casos del empleo del calculo analítico, aplicado a la geometría:

Rectas que pasan por un punto

Determinar las rectas del plano que pasan por el punto (x0,y0).

La ecuación de la recta ha de ser, como ya se sabe:

y = m x + b \,

Y ha de pasar por el punto (x0,y0), luego tendrá que cumplirse:

y_0 = m x_0 + b \,

Despejando b, tenemos esta ecuación:

 b= y_0 - m x_0 \,

Sustituyendo b en la ecuación general de la recta:

y = m x + (y_0 - m x_0) \,

Ordenando términos:

y = m (x- x_0) + y_0 \,

Esta ecuación define un haz de rectas en el plano que pasa por el punto (x0,y0), el valor de m es la pendiente de cada una de las rectas que forman parte del haz, m puede tomar un valor real cualesquiera.

Recta que pasa por dos puntos

Determinar la recta del plano que pasan por los puntos (x1,y1) y (x2,y2).

Como en el caso anterior, la ecuación de la recta es:

y = m x + b \,

Y ha de pasar por los puntos (x1,y1) y (x2,y2) luego tendrá que cumplirse:

 y_{1} = m x_{1} + b \,
 y_{2} = m x_{2} + b \,

que forman un sistema de dos ecuaciones con dos incógnitas, las incógnitas son m y b, para resolver este sistema, cambiamos de signo a la segunda ecuación y sumando las dos ecuaciones:

y_1 - y_2 = m x_1 - m x_2 \,

agrupando términos:

y_1 - y_2 = m (x_1 - x_2) \,

despejando m:

m= \cfrac{y_1 - y_2}{x_1 - x_2} \,

este valor, m, es el de la pendiente de la recta que pasa por los dos puntos: (x1,y1) y (x2,y2).

Despejando ahora el valor de b de una de las ecuaciones del sistema, por ejemplo de la primera, tenemos:

b = y_1 - m x_1 \,

y sustituyendo m, por su valor ya calculado;

b = y_1 - \cfrac{y_1 - y_2}{x_1 - x_2} \; x_1 \,

Tenemos las dos incógnitas m y b despejadas, en función de las coordenadas de los dos puntos por los que tienen que pasar, la ecuación general de la recta, con los parámetros ya calculados es:

y = \cfrac{y_1 - y_2}{x_1 - x_2} \; x + y_1 - \cfrac{y_1 - y_2}{x_1 - x_2} \; x_1 \,

ordenando términos:

y = \cfrac{y_1 - y_2}{x_1 - x_2} \; (x-x_1) + y_1 \,

Que es una recta en el plano que pasa por los puntos (x1,y1) y (x2,y2), como ya se ha dicho.

Una relación curiosa de la ecuación anterior es:

\cfrac{y - y_1}{x-x_1} = \cfrac{y_1 - y_2}{x_1 - x_2} \; \,

y que dice que la pendiente entre un punto cualesquiera (x,y), de la recta que pasa por dos puntos, y el punto (x1,y1), es la misma que la que hay entre los puntos (x1,y1) y (x2,y2) que definen la recta.

Rectas perpendiculares

Dada una recta:

y = m_1 x + b_1 \,

Se trata de determinar que rectas:

y = m x + b \,

son perpendiculares a la primera.

Sabiendo que:

 m_1 = \tan( \alpha ) \,

Siendo α el ángulo que forma la recta con la horizontal, cualquier recta perpendicular a ella ha de formar un ángulo (α + 90) con la horizontal, por trigonometría sabemos que:

 \tan ( \alpha + 90) = \frac{-1}{\tan(\alpha)}

y si la pendiente de la primera recta es:

 m_1 = \tan ( \alpha ) \,

la de la segunde debe de ser:

 m = \tan ( \alpha+ 90 ) = \frac{-1}{ m_1 } \,

Esto es, dada una recta cualesquiera:

y = m_1 x + b_1 \,

cualquier recta de la forma:

y = \frac{-1}{ m_1 } x + b \,

Es perpendicular a la primera, para cualquier valor del parámetro b.

Es fácil percatarse que las ordenadas en el origen de las rectas, no intervienen para determinar las rectas perpendiculares, esto es porque la perpendicularidad es un problema de dirección, y los puntos por los que pasa la recta no influyen, si la primera recta la sustituimos por una paralela a ella, el problema no se altera en absoluto, y el resultado es un conjunto de rectas paralelas, definidas por la pendiente y no por el punto concreto por el que pasa.

Objetivo 1.3

Dependencia e Indepencia Lineal

En álgebra lineal, un conjunto de vectores es linealmente independiente si ninguno de ellos puede ser escrito con una combinación lineal de los restantes. Por ejemplo, en R3, los vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) son linealmente independientes, mientras que (2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo son, ya que el tercero es la suma de los dos primeros. Los vectores que no son linealmente independientes son linealmente dependientes.

Definición

Sea {v1, v2,..., vn} un conjunto de vectores. Decimos que son linealmente dependientes si existen números 'a1, a2,..., an, no todos iguales a cero, tal que:

 a_1 \mathbf{v}_1 + a_2 \mathbf{v}_2 + \cdots + a_n \mathbf{v}_n = \mathbf{0}.

Nótese que el cero en el lado derecho es el vector nulo, no el número cero. y el conjunto de vectores nulos forma la matriz nula.

Si tales números no existen, entonces los vectores son linealmente independientes.

Utilizando conceptos de espacios vectoriales podemos redefinir la independencia lineal así:

Un conjunto de vectores U de un espacio vectorial es linealmente independiente si ∀ u\in U, u\not\in \left \langle U-u \right \rangle

Esta idea es importante porque los conjuntos de vectores que son linealmente indepedientes y generan a un espacio vectorial, forman una base para dicho espacio.

Entre las propiedades de los vectores linealmente dependientes e independientes encontramos:

  1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los vectores es combinación lineal de los demás.
  2. Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es.

Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo solamente unos cuantos, no podrán ser combinación de los otros.

  1. Si un conjunto de vectores es linealmente dependiente también lo es todo conjunto que lo contenga.

Ya que un conjunto de vectores es linealmente dependiente si y solo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande sigue siendo linealmente dependiente.


Significación geométrica

Geometricamente, dos vectores son independientes si no tienen la misma dirección (con sentidos idénticos u opuestos). Esta definición supone que el vector nulo tiene todas las direcciones.

Tres vectores son independientes si y solo si no están contenidos en el mismo plano vectorial, o sea si ninguno de ellos es una combinación lineal de los otros dos(en cuyo caso estaría en el plano generado por estos vectores).

El espacio generado por un sistema de vectores es el conjunto de todas las combinaciones lineales de estos vectores. Es un espacio vectorial. El espacio generado por un vector no nulo es la recta vectorial dirigido por este vector. El espacio generado por dos vectores independientes es el plano que los contiene. Resulta fácil comprobar que el espacio generado por un sistema de vectores es el menor (por la inclusión) espacio vectorial que los contiene a todos. Se le denomina vect A, donde A es el sistema de vectores. Si n vectores son independientes, el espacio generado es de dimensión n (dimensión en el sentido usual: 0 para un punto, 1 para una recta, 2 para un plano...).


Ejemplo

En el espacio tridimensional usual:

  • u y j son dependientes por tener la misma dirección (y sentidos opuestos).
  • u y v son independientes y definen el plano P.
  • u, v y w son dependientes por estar los tres contenidos en el mismo plano.
  • u v y k son independientes por serlo u y v entre sí y no ser k una combinación lineal de ellos o, lo que es lo mismo, por no pertenecer al plano P. Los tres vectores definen el espacio tridimensional.
  • Los vectores o (vector nulo, cuyas componentes son iguales a cero) y k son dependientes ya que o = 0 ·k

Ejemplo del uso de la fórmula f:

¿Son los tres vectores siguientes independientes?

\vec{u} = \begin{pmatrix} 2 \\ 0 \\ 0 \end{pmatrix} \, , \quad \vec{v} = \begin{pmatrix} 1 \\ 3 \\ 0 \end{pmatrix} \, , \quad \vec{w} = \begin{pmatrix} 1 \\ 2 \\ 4 \end{pmatrix}

Buscamos tres valores x, y y z que satisfagan la ecuación:

x \vec{u} + y \vec{v} + z \vec{w}  = x \begin{pmatrix} 2 \\ 0 \\ 0 \end{pmatrix}  + y \begin{pmatrix} 1 \\ 3 \\ 0 \end{pmatrix} + z \begin{pmatrix} 1 \\ 2 \\ 4 \end{pmatrix} =  \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}

Lo que equivale al sistema de ecuaciones siguiente:

\left . \begin{matrix} 2x & + &  y & + &  z & = & 0 \\    &   & 3y & + & 2z & = & 0 \\    &   &    &   & 4z & = & 0  \end{matrix} \right \} \Longleftrightarrow \left \{ \begin{matrix} x=0 \\ y=0 \\ z=0 \end{matrix} \right .

Dado que la única solución es la trivial (x = y = z = 0), los tres vectores son independientes.


Método alternativo usando determinantes

Un método alternativo usa el hecho que n vectores en Rn son linealmente dependientes si y solo si el determinante de la matriz formada por estos vectores como columnas es cero.

Dados los vectores:

\vec{u} = \begin{pmatrix} 1 \\ 1 \end{pmatrix} \, , \quad \vec{v} = \begin{pmatrix} -3 \\ 2 \end{pmatrix} \, , \quad

La matriz formada por éstos es:

A = \begin{bmatrix}1&-3\\1&2\end{bmatrix}. \,

El determinante de esta matríz es:

\det(A) = 1\cdot2 - 1\cdot(-3) = 5 \ne 0.

Ya que el determinante es no nulo, los vectores (1, 1) y (−3, 2) son linealmente independientes.



Ejemplo II

Sea V = Rn y consideremos los siguientes elementos en V:

\begin{matrix} \mathbf{e}_1 & = & (1,0,0,\ldots,0) \\ \mathbf{e}_2 & = & (0,1,0,\ldots,0) \\ & \vdots \\ \mathbf{e}_n & = & (0,0,0,\ldots,1).\end{matrix}

Entonces e1, e2,..., en son linealmente independientes. Estos vectores constituyen la base canónica en R.

Demostración

Supongamos que a1, a2,..., an son elementos de R tales que:

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = 0 \,

Pero

 a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = (a_1 ,a_2 ,\ldots, a_n) \,

entonces ai = 0 para todo i en {1,..., n}.

Ejemplo III

Sea V el espacio vectorial de todas las funciones a variable real. Entonces las funciones et y e2t en V son linealmente independientes.

Demostración

Supongamos que a y b son dos números reales tales que:

aet + be2t = 0

Para todos los valores de t. Necesitamos demostrar que a = 0 y b = 0. Para hacer esto dividimos por et (lo cual nunca es cero) y restando obtenemos:

bet = −a

En otras palabras, la función bet debe ser independiente de t, lo cual ocurre cuando b = 0. Por lo tanto, a es cero.