Ecuaciones Lineales

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 9

1

Ecuaciones Lineales

Nombre: Dilcia Xiomara Sánchez Javier


Catedrático: Lic. Angel Valladares
Campus: Jesús Sacramentado
Sección: 1003
2

Introducción

Las ecuaciones lineales tienen un gran número de aplicaciones en la ciencia en la vida


cotidiana, ya que para poder resolver una ecuación lineal requiere una habilidad importante
y fundamental en álgebra, también debemos de tomar en cuenta que se pueden clasificar
según el número de soluciones que pueden presentar..
3

Objetivos Generales

Fundamentar el conocimiento sobre las ecuaciones lineales, su importancia en las


matemáticas y como nos puede ayudar en nuestra vida cotidiana, y aprender a resolverlas.

Objetivos Específicos

● Explicar el concepto y características de las ecuaciones lineales.


● Especificar la importancia que tienen las ecuaciones lineales en nuestra vida cotidiana.
● Enumerar el origen de las ecuaciones lineales.
4

Ecuaciones lineales

Una ecuación lineal es una ecuación donde el exponente más alto en las variables

exponente uno, por ejemplo, ax+b=c, 𝑎𝑥+𝑏=𝑐, donde a𝑎 se llama el coeficiente de x𝑥,
dadas es uno. Una ecuación lineal en una variable es una ecuación con una variable con

b𝑏 y c𝑐 son coeficientes constantes. Resolver ecuaciones lineales es una habilidad


importante y fundamental en álgebra. En álgebra, a menudo se nos presenta un problema
donde se desconoce la respuesta. Esto suele estar representado por una variable. Habrá
momentos en los que hay múltiples incógnitas y utilizamos técnicas de álgebra para resolver
para la variable.

Tipos de sistemas lineales

Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que


pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:

Sistema compatible si tiene solución, en este caso además puede


distinguirse entre:

Sistema compatible determinado cuando tiene una única solución.

Sistema compatible indeterminado cuando admite un conjunto


infinito de soluciones.

Sistema incompatible si no tiene solución.

Conceptos Importantes

Una ecuación lineal describe una relación entre dos variables que puede ser graficada
como una línea derecha en el sistema de coordenadas Cartesianas (sistema de eje x y eje y).
Las ecuaciones lineales tienen aplicaciones numerosas en la ciencia,
incluyendo conversión de unidades (tales como Centígrados a Fahrenheit) y para
calcular tasas (como la rapidez en que una placa tectónica se mueve).
La mayoría de las ecuaciones lineales puede ponerse en forma pendiente-
intersección: y = mx + b, en donde m es el pendiente de la línea y b es el punto en
donde la línea cruza el eje y. Esta forma es útil para graficar ecuaciones lineales.
Cuando ecuaciones lineales representan el punto de inicio de un experimento o una
serie de observaciones

Constante: en matemáticas, una cantidad que tiene un valor fijo; algo que no varía
lineal: en matemáticas, una ecuación que forma una línea recta cuando se traza en un
gráfico
5

ratio: la relación entre dos o más cantidades; cantidades relativas de dos o más
valores expresados como una proporción
variable: en matemáticas, un valor desconocido comúnmente representado por x o y
El procedimiento para resolver ecuaciones lineales simultáneas que ahora se
denomina eliminación gaussiana aparece en el antiguo texto matemático chino Cálculo de
barras#Sistema de ecuaciones lineales. Los Sistemas de ecuaciones lineales surgieron en
Europa con la introducción en 1637 por René Descartes de las coordenadas en la geometría.
De hecho, en esta nueva geometría, ahora llamada geometría cartesiana, las líneas y los
planos están representados por ecuaciones lineales, y calcular sus intersecciones equivale a
resolver sistemas de ecuaciones lineales.
Los primeros métodos sistemáticos para resolver sistemas lineales
utilizaban determinantes, considerados por primera vez por Leibniz en 1693. En
1750, Gabriel Cramer los utilizó para dar soluciones explícitas de sistemas lineales, lo que
ahora se llama regla de Cramer. Más tarde, Gauss describió aún más el método de
eliminación, que inicialmente fue catalogado como un avance en geodesia.7
En 1844 Hermann Grassmann publicó su "Teoría de la Extensión" que incluía nuevos
temas fundacionales de lo que hoy se llama álgebra lineal. En 1848, James Joseph
Sylvester introdujo el término matriz, que en latín significa vientre.
El álgebra lineal creció con las ideas anotadas en el plano complejo. Por ejemplo, dos
números w y z en ℂ tienen una diferencia w - z, y los segmentos de línea y tienen la misma
longitud y dirección. Los segmentos son equipolentes. El sistema cuatridimensional ℍ
de cuaterniones se inició en 1843. El término vector fue introducido como v = x i + y j + z k
representando un punto en el espacio. La diferencia de cuaterniones p - q también produce
un segmento equipolente a la de otros sistemas de números hipercomplejos también
utilizaron la idea de un espacio lineal con una base.
Arthur Cayley introdujo la multiplicación matricial y la matriz inversa en 1856,
haciendo posible el grupo lineal general. El mecanismo de representación de grupo se hizo
disponible para describir los números complejos e hipercomplejos. Fundamentalmente,
Cayley utilizó una sola letra para denotar una matriz, tratando así una matriz como un objeto
agregado. También se dio cuenta de la conexión entre las matrices y los determinantes, y
escribió "Habría muchas cosas que decir sobre esta teoría de las matrices que deberían, me
parece, preceder a la teoría de los determinantes".7
Benjamin Peirce publicó su Álgebra lineal asociativa (1872), y su hijo Charles
Sanders Peirce amplió el trabajo posteriormente.8
El telégrafo requería un sistema explicativo, y la publicación en 1873 de A Treatise
on Electricity and Magnetism instituyó una teoría de campos de fuerzas y requirió
la geometría diferencial para su expresión. El álgebra lineal es geometría diferencial plana y
sirve en los espacios tangentes a los colectores. Las simetrías electromagnéticas del
espaciotiempo se expresan mediante las transformaciones de Lorentzs, y gran parte de la
historia del álgebra lineal es la historia de las transformaciones de Lorentz.
La primera definición moderna y más precisa de un espacio vectorial fue introducida
por Peano en 1888;7 en 1900 había surgido una teoría de las transformaciones lineales de los
espacios vectoriales de dimensión finita. El álgebra lineal tomó su forma moderna en la
primera mitad del siglo XX, cuando muchas ideas y métodos de siglos anteriores se
generalizaron como álgebra abstracta. El desarrollo de los ordenadores hizo que aumentara la
investigación de algoritmos eficientes para la eliminación gaussiana y las descomposiciones
6

matriciales, y el álgebra lineal se convirtió en una herramienta esencial para la modelización


y las simulaciones.7
Contexto general
De manera más formal, el álgebra lineal estudia conjuntos denominados espacios
vectoriales, los cuales constan de un conjunto de vectores y un conjunto de escalares que
tiene estructura de campo, con una operación de suma de vectores y otra de producto entre
escalares y vectores que satisfacen ciertas propiedades (por ejemplo, que la suma es
conmutativa).
Estudia también transformaciones lineales, que son funciones entre espacios
vectoriales que satisfacen las condiciones de linealidad:
A diferencia del ejemplo desarrollado en la sección anterior, los vectores no
necesariamente son n-adas de escalares, sino que pueden ser elementos de un conjunto
cualquiera (de hecho, a partir de todo conjunto puede construirse un espacio vectorial sobre
un campo fijo).
Finalmente, el álgebra lineal estudia también las propiedades que aparecen cuando se
impone estructura adicional sobre los espacios vectoriales, siendo una de las más frecuentes
la existencia de un producto interno (una especie de producto entre dos vectores) que permite
introducir nociones como longitud de vectores y ángulo entre un par de los mismos.

Antecedentes
Hasta el siglo XIX, el álgebra lineal se presentaba a través de sistemas de ecuaciones
lineales y matrices. En la matemática moderna, se prefiere generalmente la presentación a
través de espacios vectoriales, ya que es más sintética, más general (no se limita al caso de
dimensión finita) y conceptualmente más sencilla, aunque más abstracta.
Algunas operaciones básicas.
Un espacio vectorial sobre un campo F, con frecuencia el campo de los números
reales, es un Conjunto V dotado de dos operaciones binarias que satisfacen los
siguientes axiomas. Los elementos de V se llaman vectores, y los elementos de F se
llaman escalares.
La primera operación, la suma de vectores, se expresa de la siguiente manera: tómese
dos vectores cualesquiera v y w; la suma tiene como resultado un tercer vector v + w.
La segunda operación, multiplicación escalar, se expresa de la siguiente manera:
tómese cualquier escalar a y cualquier vector v y produce un nuevo vector av. Los axiomas
que deben satisfacer la suma y la multiplicación escalar son los siguientes, siendo en la lista
siguiente, u, v y w elementos arbitrarios de V; y a y b son escalares arbitrarios en el
campo F.9

Aplicación lineal
Las aplicaciones lineales son mapeos entre espacios vectoriales que preservan la
estructura del espacio vectorial. Dados dos espacios vectoriales V y W sobre un campo F, un
mapa lineal, también llamado en algunos contextos, transformación lineal o mapeo lineal, es
un mapa o aplicación que es compatible con la suma y la multiplicación escalar, es decir
para los vectores u, v in V y escalares a en f. esto implica que para cualquier
vector u, v en V y escalares a, b en F.
7

Un mapa lineal biyectivo entre dos espacios vectoriales, es decir, cada vector del
segundo espacio se asocia exactamente con uno en el primero, es un isomorfismo. Dado que
un isomorfismo preserva la estructura lineal, dos espacios vectoriales isomorfos son
"esencialmente iguales" desde el punto de vista del álgebra lineal, en el sentido de que no
pueden distinguirse utilizando las propiedades del espacio vectorial. Una cuestión esencial
en el álgebra lineal es probar si un mapa lineal es un isomorfismo o no, y, si no es un
isomorfismo, encontrar su rango (o imagen) y el conjunto de elementos que son mapeados al
vector cero, llamado el núcleo del mapa. Todas estas cuestiones pueden resolverse mediante
el uso de la eliminación gaussiana o alguna variante de este algoritmo.
Subespacio vectorial, Sistema generador y Base (álgebra).
El estudio de aquellos subconjuntos de espacios vectoriales que son en sí mismos
espacios vectoriales bajo las operaciones inducidas es fundamental, al igual que para muchas
estructuras matemáticas. Estos subconjuntos se denominan subespacios lineales. Más
precisamente, un subespacio lineal de un espacio vectorial V sobre un campo F es un
subconjunto de W of V tal que u + v y au están en W, para todo u, v en W, y todo a in F.
Estas condiciones son suficientes para implicar que W es un espacio vectorial.
Por ejemplo, dado un campo lineal , la imagen T(V) de V, y la imagen
inversa T−1(0) de 0, llamada núcleo o kernel, son subespacios lineales de W y V,
respectivamente.
Otra forma importante de formar un subespacio es considerar las combinaciones
lineales de un conjunto S de vectores: el conjunto de todas las sumas
donde v1, v2, …, vk están en S, y a1, a2, ..., ak están en F forman un subespacio lineal
llamado Sistema generador de S. El sistema generador de S es también la intersección de
todos los subespacios lineales que contienen a S. En otras palabras, es el subespacio lineal,
más pequeño para la relación de inclusión, que contiene a S.
Un conjunto de vectores es linealmente independiente si ninguno está en el intervalo
de los demás. De manera equivalente, un conjunto S de vectores es linealmente
independiente si la única forma de expresar el vector cero como una combinación lineal de
elementos de S es tomar cero para cada coeficiente
Un conjunto de vectores que abarca un espacio vectorial se denomina conjunto de
expansión o sistema generador. Si un conjunto generador S es linealmente dependiente (que
no es linealmente independiente), entonces algún elemento w de S es en el lapso de los otros
elementos de S, y el lapso seguiría siendo el mismo si uno remove w de S. Se puede
continuar eliminando elementos de S hasta obtener un conjunto de expansión linealmente
independiente. Un conjunto linealmente independiente que abarca un espacio vectorial V se
llama base de V. La importancia de las bases radica en el hecho de que hay juntos grupos
electrógenos mínimos y grupos independientes máximos. Más precisamente, si S es un
conjunto linealmente independiente y T es un conjunto de expansión tal que, entonces hay
una base B tal que.
Si dos bases cualesquiera de un espacio vectorial V tienen la misma cardinalidad que
se llama dimensión; este es el Teorema de la dimensión de espacios vectoriales. Además, dos
espacios vectoriales sobre el mismo campo F son isomorfos si y solo si tienen la misma
dimensión.11
Si alguna base de V (y por lo tanto cada base) tiene un número finito de
elementos, V es un espacio vectorial de dimensión finita. Si U es un subespacio de V,
8

entonces dim U ≤ dim V. En el caso en el que V es de dimensión finita, la igualdad de las


dimensiones implica que U = V.

Bibliografía
https://es.wikipedia.org/wiki/%C3%81lgebra_lineal
9

CONCLUSIONES

En conclusión, las ecuaciones lineales tienen antecedente desde hace miles de años y que
están formadas por tipos de sistemas lineales y los primeros métodos sistemáticos para
resolver sistemas lineales utilizaban determinantes, considerados por primera vez
por Leibniz en 1693.

También podría gustarte