Ecuaciones Lineales
Ecuaciones Lineales
Ecuaciones Lineales
Ecuaciones Lineales
Introducción
Objetivos Generales
Objetivos Específicos
Ecuaciones lineales
Una ecuación lineal es una ecuación donde el exponente más alto en las variables
exponente uno, por ejemplo, ax+b=c, 𝑎𝑥+𝑏=𝑐, donde a𝑎 se llama el coeficiente de x𝑥,
dadas es uno. Una ecuación lineal en una variable es una ecuación con una variable con
Conceptos Importantes
Una ecuación lineal describe una relación entre dos variables que puede ser graficada
como una línea derecha en el sistema de coordenadas Cartesianas (sistema de eje x y eje y).
Las ecuaciones lineales tienen aplicaciones numerosas en la ciencia,
incluyendo conversión de unidades (tales como Centígrados a Fahrenheit) y para
calcular tasas (como la rapidez en que una placa tectónica se mueve).
La mayoría de las ecuaciones lineales puede ponerse en forma pendiente-
intersección: y = mx + b, en donde m es el pendiente de la línea y b es el punto en
donde la línea cruza el eje y. Esta forma es útil para graficar ecuaciones lineales.
Cuando ecuaciones lineales representan el punto de inicio de un experimento o una
serie de observaciones
Constante: en matemáticas, una cantidad que tiene un valor fijo; algo que no varía
lineal: en matemáticas, una ecuación que forma una línea recta cuando se traza en un
gráfico
5
ratio: la relación entre dos o más cantidades; cantidades relativas de dos o más
valores expresados como una proporción
variable: en matemáticas, un valor desconocido comúnmente representado por x o y
El procedimiento para resolver ecuaciones lineales simultáneas que ahora se
denomina eliminación gaussiana aparece en el antiguo texto matemático chino Cálculo de
barras#Sistema de ecuaciones lineales. Los Sistemas de ecuaciones lineales surgieron en
Europa con la introducción en 1637 por René Descartes de las coordenadas en la geometría.
De hecho, en esta nueva geometría, ahora llamada geometría cartesiana, las líneas y los
planos están representados por ecuaciones lineales, y calcular sus intersecciones equivale a
resolver sistemas de ecuaciones lineales.
Los primeros métodos sistemáticos para resolver sistemas lineales
utilizaban determinantes, considerados por primera vez por Leibniz en 1693. En
1750, Gabriel Cramer los utilizó para dar soluciones explícitas de sistemas lineales, lo que
ahora se llama regla de Cramer. Más tarde, Gauss describió aún más el método de
eliminación, que inicialmente fue catalogado como un avance en geodesia.7
En 1844 Hermann Grassmann publicó su "Teoría de la Extensión" que incluía nuevos
temas fundacionales de lo que hoy se llama álgebra lineal. En 1848, James Joseph
Sylvester introdujo el término matriz, que en latín significa vientre.
El álgebra lineal creció con las ideas anotadas en el plano complejo. Por ejemplo, dos
números w y z en ℂ tienen una diferencia w - z, y los segmentos de línea y tienen la misma
longitud y dirección. Los segmentos son equipolentes. El sistema cuatridimensional ℍ
de cuaterniones se inició en 1843. El término vector fue introducido como v = x i + y j + z k
representando un punto en el espacio. La diferencia de cuaterniones p - q también produce
un segmento equipolente a la de otros sistemas de números hipercomplejos también
utilizaron la idea de un espacio lineal con una base.
Arthur Cayley introdujo la multiplicación matricial y la matriz inversa en 1856,
haciendo posible el grupo lineal general. El mecanismo de representación de grupo se hizo
disponible para describir los números complejos e hipercomplejos. Fundamentalmente,
Cayley utilizó una sola letra para denotar una matriz, tratando así una matriz como un objeto
agregado. También se dio cuenta de la conexión entre las matrices y los determinantes, y
escribió "Habría muchas cosas que decir sobre esta teoría de las matrices que deberían, me
parece, preceder a la teoría de los determinantes".7
Benjamin Peirce publicó su Álgebra lineal asociativa (1872), y su hijo Charles
Sanders Peirce amplió el trabajo posteriormente.8
El telégrafo requería un sistema explicativo, y la publicación en 1873 de A Treatise
on Electricity and Magnetism instituyó una teoría de campos de fuerzas y requirió
la geometría diferencial para su expresión. El álgebra lineal es geometría diferencial plana y
sirve en los espacios tangentes a los colectores. Las simetrías electromagnéticas del
espaciotiempo se expresan mediante las transformaciones de Lorentzs, y gran parte de la
historia del álgebra lineal es la historia de las transformaciones de Lorentz.
La primera definición moderna y más precisa de un espacio vectorial fue introducida
por Peano en 1888;7 en 1900 había surgido una teoría de las transformaciones lineales de los
espacios vectoriales de dimensión finita. El álgebra lineal tomó su forma moderna en la
primera mitad del siglo XX, cuando muchas ideas y métodos de siglos anteriores se
generalizaron como álgebra abstracta. El desarrollo de los ordenadores hizo que aumentara la
investigación de algoritmos eficientes para la eliminación gaussiana y las descomposiciones
6
Antecedentes
Hasta el siglo XIX, el álgebra lineal se presentaba a través de sistemas de ecuaciones
lineales y matrices. En la matemática moderna, se prefiere generalmente la presentación a
través de espacios vectoriales, ya que es más sintética, más general (no se limita al caso de
dimensión finita) y conceptualmente más sencilla, aunque más abstracta.
Algunas operaciones básicas.
Un espacio vectorial sobre un campo F, con frecuencia el campo de los números
reales, es un Conjunto V dotado de dos operaciones binarias que satisfacen los
siguientes axiomas. Los elementos de V se llaman vectores, y los elementos de F se
llaman escalares.
La primera operación, la suma de vectores, se expresa de la siguiente manera: tómese
dos vectores cualesquiera v y w; la suma tiene como resultado un tercer vector v + w.
La segunda operación, multiplicación escalar, se expresa de la siguiente manera:
tómese cualquier escalar a y cualquier vector v y produce un nuevo vector av. Los axiomas
que deben satisfacer la suma y la multiplicación escalar son los siguientes, siendo en la lista
siguiente, u, v y w elementos arbitrarios de V; y a y b son escalares arbitrarios en el
campo F.9
Aplicación lineal
Las aplicaciones lineales son mapeos entre espacios vectoriales que preservan la
estructura del espacio vectorial. Dados dos espacios vectoriales V y W sobre un campo F, un
mapa lineal, también llamado en algunos contextos, transformación lineal o mapeo lineal, es
un mapa o aplicación que es compatible con la suma y la multiplicación escalar, es decir
para los vectores u, v in V y escalares a en f. esto implica que para cualquier
vector u, v en V y escalares a, b en F.
7
Un mapa lineal biyectivo entre dos espacios vectoriales, es decir, cada vector del
segundo espacio se asocia exactamente con uno en el primero, es un isomorfismo. Dado que
un isomorfismo preserva la estructura lineal, dos espacios vectoriales isomorfos son
"esencialmente iguales" desde el punto de vista del álgebra lineal, en el sentido de que no
pueden distinguirse utilizando las propiedades del espacio vectorial. Una cuestión esencial
en el álgebra lineal es probar si un mapa lineal es un isomorfismo o no, y, si no es un
isomorfismo, encontrar su rango (o imagen) y el conjunto de elementos que son mapeados al
vector cero, llamado el núcleo del mapa. Todas estas cuestiones pueden resolverse mediante
el uso de la eliminación gaussiana o alguna variante de este algoritmo.
Subespacio vectorial, Sistema generador y Base (álgebra).
El estudio de aquellos subconjuntos de espacios vectoriales que son en sí mismos
espacios vectoriales bajo las operaciones inducidas es fundamental, al igual que para muchas
estructuras matemáticas. Estos subconjuntos se denominan subespacios lineales. Más
precisamente, un subespacio lineal de un espacio vectorial V sobre un campo F es un
subconjunto de W of V tal que u + v y au están en W, para todo u, v en W, y todo a in F.
Estas condiciones son suficientes para implicar que W es un espacio vectorial.
Por ejemplo, dado un campo lineal , la imagen T(V) de V, y la imagen
inversa T−1(0) de 0, llamada núcleo o kernel, son subespacios lineales de W y V,
respectivamente.
Otra forma importante de formar un subespacio es considerar las combinaciones
lineales de un conjunto S de vectores: el conjunto de todas las sumas
donde v1, v2, …, vk están en S, y a1, a2, ..., ak están en F forman un subespacio lineal
llamado Sistema generador de S. El sistema generador de S es también la intersección de
todos los subespacios lineales que contienen a S. En otras palabras, es el subespacio lineal,
más pequeño para la relación de inclusión, que contiene a S.
Un conjunto de vectores es linealmente independiente si ninguno está en el intervalo
de los demás. De manera equivalente, un conjunto S de vectores es linealmente
independiente si la única forma de expresar el vector cero como una combinación lineal de
elementos de S es tomar cero para cada coeficiente
Un conjunto de vectores que abarca un espacio vectorial se denomina conjunto de
expansión o sistema generador. Si un conjunto generador S es linealmente dependiente (que
no es linealmente independiente), entonces algún elemento w de S es en el lapso de los otros
elementos de S, y el lapso seguiría siendo el mismo si uno remove w de S. Se puede
continuar eliminando elementos de S hasta obtener un conjunto de expansión linealmente
independiente. Un conjunto linealmente independiente que abarca un espacio vectorial V se
llama base de V. La importancia de las bases radica en el hecho de que hay juntos grupos
electrógenos mínimos y grupos independientes máximos. Más precisamente, si S es un
conjunto linealmente independiente y T es un conjunto de expansión tal que, entonces hay
una base B tal que.
Si dos bases cualesquiera de un espacio vectorial V tienen la misma cardinalidad que
se llama dimensión; este es el Teorema de la dimensión de espacios vectoriales. Además, dos
espacios vectoriales sobre el mismo campo F son isomorfos si y solo si tienen la misma
dimensión.11
Si alguna base de V (y por lo tanto cada base) tiene un número finito de
elementos, V es un espacio vectorial de dimensión finita. Si U es un subespacio de V,
8
Bibliografía
https://es.wikipedia.org/wiki/%C3%81lgebra_lineal
9
CONCLUSIONES
En conclusión, las ecuaciones lineales tienen antecedente desde hace miles de años y que
están formadas por tipos de sistemas lineales y los primeros métodos sistemáticos para
resolver sistemas lineales utilizaban determinantes, considerados por primera vez
por Leibniz en 1693.