Lógica Matemática
Lógica Matemática
Lógica Matemática
Áreas[editar]
Filosófica y crítica
Lógica general (que incluye campos como la lógica modal y la lógica borrosa)
Teoría de modelos
Teoría de la computabilidad
Teoría de conjuntos
Teoría de la demostración y matemática constructiva algebraica
Modelos no estándar
En algunos casos hay conjunción de intereses con la informática teórica, pues muchos
pioneros de la informática, como Alan Turing, fueron matemáticos y lógicos. Así, el estudio
de la semántica de los lenguajes de programación procede de la teoría de modelos, así
como también la verificación de programas y el caso particular de la técnica del model
checking. También el isomorfismo de Churry-Howard entre pruebas y programas se
corresponde con la teoría de pruebas, donde la lógica intuicionista y la lógica lineal son
especialmente significativas.
Algunos sistemas formales como el cálculo lambda y la lógica combinatoria entre otras han
devenido en auténticos lenguajes de programación, creando nuevos paradigmas como son
la programación funcional y la programación lógica.
Sistemas formales
Un sistema formal o sistema lógico es un sistema abstracto compuesto por un lenguaje
formal, axiomas, reglas de inferencia y a veces una semántica formal, que se utiliza para
deducir o demostrar teoremas y dar una definición rigurosa del concepto de demostración.
Un sistema formal es una formalización rigurosa y completa del concepto de sistema
axiomático, los cuales se pueden expresar en lenguaje formal o en lenguaje natural
formalizado. Al crear un sistema formal se pretende capturar y abstraer la esencia de
determinadas características del mundo real, en un modelo conceptual expresado en un
determinado lenguaje formal. Algunos de los sistemas formales más conocidos son
la lógica proposicional, la lógica de primer orden y la lógica modal.
En la teoría de la demostración, las demostraciones formales se pueden expresar en el
lenguaje de los sistemas formales, consistentes en axiomas y reglas de inferencia. Los
teoremas pueden ser obtenidos por medio de demostraciones formales. Este punto de
vista de las matemáticas ha sido denominado formalista; aunque en muchas ocasiones
este término conlleva una acepción peyorativa. En ese sentido, David Hilbert creó
la metamatemática para estudiar los sistemas formales, entendiendo que el lenguaje
utilizado para ello, denominado metalenguaje era distinto del lenguaje del sistema formal
que se pretendía estudiar, al que se llama lenguaje objeto.
Un sistema así es la reducción de un lenguaje formalizado a meros símbolos, lenguaje
formalizado y simbolizado sin contenido material alguno; un lenguaje reducido a mera
forma que se expresa mediante fórmulas que reflejan las relaciones sintácticas entre los
símbolos y las reglas de formación y transformación que permiten construir las fórmulas
del sistema y pasar de una fórmula a otra.2
Una teoría axiomática es un conjunto de fórmulas en un determinado lenguaje formal y
todas las fórmulas deducibles de dichas expresiones mediante las reglas de inferencia
posibles en dicho sistema formal. El objetivo de las teorías axiomáticas es construir
sistemas formales que representen las características esenciales de ramas enteras de las
matemáticas. Si se selecciona un conjunto más amplio o menos amplio de axiomas el
conjunto de teoremas deducibles cambian. El interés de la teoría de modelos es que en un
modelo en que satisfagan los axiomas de determinada teoría también se satisfacen los
teoremas deducibles de dicha teoría. Es decir, si un teorema es deducible en una cierta
teoría, entonces ese teorema es universalmente válido en todos los modelos que
satisfacen los axiomas. Esto es interesante porque en principio la clase de modelos que
satisface una cierta teoría es difícil de conocer, ya que las teorías matemáticas
interesantes en general admiten toda clase infinita de modelos no isomorfos, por lo que su
clasificación en general resulta difícilmente abordable si no existe un sistema formal y un
conjunto de axiomas que caracterice los diferentes tipos de modelos.
En el siglo XX, Hilbert y otros sostuvieron que la matemática es un sistema formal. Pero en
1931, Kurt Gödel demostró que ningún sistema formal con suficiente poder expresivo para
capturar la aritmética de Peano puede ser a la vez consistente y completo. El teorema de
la incompletitud de Gödel, junto con la demostración de Alonzo Church de que la
matemática tampoco es decidible, terminó con el programa de Hilbert. Sin embargo, a
pesar de sus limitaciones, el enfoque sigue siendo ampliamente usado, básicamente
porque no se ha encontrado ninguna alternativa mejor al enfoque formalista de Hilbert y la
pretensión de trabajar en el seno de teorías matemáticas explícitamente axiomatizadas,
aun con sus limitaciones.
Los sistemas formales también han encontrado aplicación dentro de la informática,
la teoría de la información y la estadística.
Metalógica[editar]
Esta sección es un extracto de Metalógica[editar]
Teoría de modelos[editar]
Teoría de la computabilidad[editar]
La teoría de la computabilidad es la parte de la computación que estudia los problemas de
decisión que se pueden resolver con un algoritmo o equivalentemente con una máquina de
Turing. Las preguntas fundamentales de la teoría de la computabilidad son:
Teoría de conjuntos[editar]
Un diagrama de Venn que ilustra la intersección de dos conjuntos.
La teoría de conjuntos es una rama de la lógica matemática que estudia las propiedades y
relaciones de los conjuntos: colecciones abstractas de objetos, consideradas como objetos
en sí mismas. Los conjuntos y sus operaciones más elementales son una herramienta
básica en la formulación de cualquier teoría matemática.5
La teoría de los conjuntos es lo suficientemente rica como para construir el resto de
objetos y estructuras de interés en matemáticas: números, funciones, figuras geométricas,
etc; gracias a las herramientas de la lógica, permite estudiar los fundamentos. En la
actualidad se acepta que el conjunto de axiomas de la teoría de Zermelo-Fraenkel es
suficiente para desarrollar toda la matemática.
Además, la propia teoría de conjuntos es objeto de estudio per se, no solo como
herramienta auxiliar, en particular las propiedades y relaciones de los conjuntos infinitos.
En esta disciplina es habitual que se presenten casos de
propiedades indemostrables o contradictorias, como la hipótesis del continuo o la
existencia de un cardinal inaccesible. Por esta razón, sus razonamientos y técnicas se
apoyan en gran medida en la lógica.
El desarrollo histórico de la teoría de conjuntos se atribuye a Georg Cantor, que comenzó
a investigar cuestiones conjuntistas (puras) del infinito en la segunda mitad del siglo XIX,
precedido por algunas ideas de Bernhard Bolzano e influido por Richard Dedekind. El
descubrimiento de las paradojas de la teoría cantoriana de conjuntos, formalizada
por Gottlob Frege, propició los trabajos de Bertrand Russell, Ernst Zermelo y Abraham
Fraenkel.
La teoría de conjuntos se emplea habitualmente como sistema fundacional de toda la
matemática, en particular en la forma de la teoría de conjuntos de Zermelo-Fraenkel con el
axioma de elección.6 Además de su papel fundacional, la teoría de conjuntos también
proporciona el marco para desarrollar una teoría matemática del infinito, y tiene varias
aplicaciones en informática, filosofía y semántica formal. Su atractivo fundacional, junto
con sus paradojas, sus implicaciones para el concepto de infinito y sus múltiples
aplicaciones han hecho de la teoría de conjuntos un área de gran interés
para Logoss y Filósofos de la matemática. La investigación contemporánea sobre la teoría
de conjuntos abarca una amplia gama de temas, que van desde la estructura de la línea
de números reales hasta el estudio de la consistencia del cardinal grande.
Teoría de la demostración[editar]
Esta sección es un extracto de Teoría de la demostración[editar]
Historia[editar]
El uso más temprano de matemáticas y de geometría en relación con la lógica y la filosofía
se remonta a los griegos antiguos tales como Euclides, Platón, y Aristóteles. Muchos otros
filósofos antiguos y medievales aplicaron ideas y métodos matemáticos a sus afirmaciones
filosóficas.
En el siglo XVIII se hicieron algunos intentos de tratar las operaciones lógicas formales de
una manera simbólica por parte de algunos filósofos matemáticos como Lambert, pero su
labor permaneció desconocida y aislada. También por parte de Leibniz ) que desarrolló la
idea de un calculus ratiocinator, un sistema de reglas para simplificar oraciones
compuestas.
Siglo XIX[editar]
A partir de la segunda mitad del siglo XIX, la lógica sería revolucionada profundamente. En
1847, George Boole publicó un breve tratado titulado El análisis matemático de la lógica, y
en 1854 otro más importante titulado Las leyes del pensamiento. La idea de Boole fue
construir a la lógica como un cálculo en el que los valores de verdad se representan
mediante el F (falsedad) y la V (verdad), y a los que se les aplican operaciones
matemáticas como la suma y la multiplicación.
En el último tercio del siglo XIX la lógica va a encontrar su transformación más profunda de
la mano de las investigaciones matemáticas y lógicas, junto con el desarrollo de la
investigación de las estructuras profundas del lenguaje, la lingüística, convirtiéndose
definitivamente en una ciencia formal. Es una ciencia formal, ya que estudia las ideas y
constituye una herramienta conceptual para todas las otras ciencias y áreas del
conocimiento. y forma parte de un conjunto sistemático de conocimientos racionales y
coherentes, que se ocupan del estudio de los procesos lógicos y matemáticos,
Al mismo tiempo, Augustus De Morgan publica en 1847 su obra Lógica formal, donde
introduce las leyes de De Morgan e intenta generalizar la noción de silogismo. Otro
importante contribuyente inglés fue John Venn, quien en 1881 publicó su libro Lógica
Simbólica, donde introdujo los famosos diagramas de Venn.
Charles Sanders Peirce y Ernst Schröder también hicieron importantes contribuciones.
Sin embargo, la verdadera revolución de la lógica vino de la mano de Gottlob Frege, quien
frecuentemente es considerado como el lógico más importante de la historia, junto con
Aristóteles. En su trabajo de 1879, la Conceptografía, Frege ofrece por primera vez un
sistema completo de lógica de predicados y cálculo proposicional. También desarrolla la
idea de un lenguaje formal y define la noción de prueba. Estas ideas constituyeron una
base teórica fundamental para el desarrollo de las computadoras y las ciencias de la
computación, entre otras cosas. Pese a esto, los contemporáneos de Frege pasaron por
alto sus contribuciones, probablemente a causa de la complicada notación que desarrolló
el autor. En 1893 y 1903, Frege publica en dos volúmenes Las leyes de la aritmética,
donde intenta deducir toda la matemática a partir de la lógica, en lo que se conoce como
el proyecto logicista. Su sistema y su aplicación a la teoría de conjuntos, sin embargo,
contenía una contradicción (la paradoja de Russell).
Lógica matemática fue el nombre dado por Giuseppe Peano para esta disciplina. En
esencia, es la lógica de Aristóteles, pero desde el punto de vista de una nueva notación,
más abstracta, tomada del álgebra.
Siglo XX[editar]
En el siglo XX hubo uno de los enormes desarrollos en lógica. A partir del siglo XX, la
lógica pasó a estudiarse por su interés intrínseco, y no solo por sus virtudes
como propedéutica, por lo que se estudió a niveles mucho más abstractos.
En 1910, Bertrand Russell y Alfred North Whitehead publican Principia mathematica, un
trabajo monumental en el que logran gran parte de la matemática a partir de la lógica,
evitando caer en las paradojas en las que cayó Frege. Se suponía que las teorías
matemáticas eran tautologías lógicas, y el programa debía mostrar esto por medio de una
reducción de la matemática a la lógica. Los autores reconocen el mérito de Frege en el
prefacio. En contraste con el trabajo de Frege, Principia mathematica tuvo un éxito
rotundo, y llegó a considerarse uno de los trabajos de no ficción más importantes e
influyentes de todo el siglo XX. Principia mathematica utiliza una notación inspirada en la
de Giuseppe Peano, parte de la cual todavía es muy utilizada hoy en día.
En 1912 C. I. Lewis publica Conditionals and the Algebra of Logic, justo después de
los Principia Mathematica de Russell y Whitehead. En 1918 publica A Survey of Symbolic
Logic en donde propone un nuevo condicional más adecuado para recoger el significado
de la expresión «si... entonces» del lenguaje natural. Lewis lo llama implicación estricta. El
nuevo condicional requiere, para ser verdadero, una relación más fuerte entre el
antecedente y el consecuente que el condicional clásico.
En 1920 David Hilbert propuso de forma explícita un proyecto de investigación
(en metamatemática, como se llamó entonces) que acabó siendo conocido
como programa de Hilbert. Quería que la matemática fuese formulada sobre unas bases
sólidas y completamente lógicas. El proyecto fue refutado por los teoremas de
incompletitud de Gödel. Tanto la declaración del programa de Hilbert como su refutación
por Gödel dependían de su trabajo estableciendo el segundo ámbito de la lógica
matemática, la aplicación de las matemáticas a la lógica en la forma de la teoría de la
demostración. A pesar de la naturaleza negativa de los teoremas de la incompletitud, el
teorema de la complejidad de Gödel, un resultado en la teoría de modelos y otra aplicación
de las matemáticas a la lógica, puede ser entendido como una demostración del logismo
cercano: toda teoría matemática rigurosamente definida puede ser capturada exactamente
por una teoría de primer orden. El cálculo de la prueba de Frege es suficiente para
describir toda la matemática, aunque no sea equivalente a ella.
El origen de los modelos abstractos de computación se encuadra en los años 1930 (antes
de que existieran los ordenadores modernos), en el trabajo de los lógicos Alonzo
Church, Kurt Gödel, Stephen Kleene, Emil Leon Post, Haskell Curry y Alan Turing. Estos
trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo teórico como en
abundantes aspectos de la práctica de la computación; previendo incluso la existencia de
ordenadores de propósito general, la posibilidad de interpretar programas, la dualidad
entre software y hardware, y la representación de lenguajes por estructuras formales
basados en reglas de producción.
La deducción natural fue introducida por Gerhard Gentzen en su trabajo Investigaciones
sobre la inferencia lógica (Untersuchungen über das logische Schliessen), publicado en
1934-1935.
En los años 1940 Alfred Tarski comenzó a desarrollar junto a sus discípulos el álgebra
relacional, en la que pueden expresarse tanto la teoría axiomática de conjuntos como
la aritmética de Peano. También desarrolló junto a sus discípulos las álgebras cilíndricas,
que son a la lógica de primer orden lo que el álgebra booleana a la lógica proposicional. En
1941 publicó en inglés uno de los manuales de lógica más acreditados, Introduction to
Logic and to the Methodology of Deductive Sciences.
Noam Chomsky en 1956 propone una clasificación jerárquica de distintos tipos
de gramáticas formales que generan lenguajes formales llamada jerarquía de Chomsky.
Si bien a la luz de los sistemas contemporáneos la lógica aristotélica puede parecer
equivocada e incompleta, Jan Łukasiewicz mostró que, a pesar de sus grandes
dificultades, la lógica aristotélica era consistente, si bien había que interpretarse
como lógica de clases, lo cual no es pequeña modificación. Por ello la silogística
prácticamente no tiene uso actualmente.
Además de la lógica proposicional y la lógica de predicados, el siglo XX vio el desarrollo de
muchos otros sistemas formales; entre los que destacan las muchas lógicas modales.
Véase también[editar]
Noción primitiva
Función indicatriz
Retroalimentacion
Cibernética
Teoría de sistemas
Emergencia (filosofía)
Pensamiento sistémico
Dinámica de sistemas
Mereología
Sistema complejo
Sistema dinámico
Lógica
La lógica es una rama de la filosofía1 de carácter interdisciplinario, entendida como
la ciencia formal que estudia los principios de la demostración y la inferencia válida,2
las falacias, las paradojas y la noción de verdad.3
La lógica se divide en varias categorías según su campo de estudio. La lógica
filosófica estudia el concepto y la definición, la enunciación o proposición y
la argumentación utilizando los métodos y resultados de la lógica moderna para el estudio
de problemas filosóficos. La lógica matemática estudia la inferencia mediante sistemas
formales como la lógica proposicional, la lógica de primer orden y la lógica modal.
La lógica informal se enfoca en el desarrollo lingüístico de los razonamientos y
sus falacias. La lógica computacional es la aplicación de la lógica matemática a
las ciencias de la computación.
Los orígenes de la lógica se remontan a la Edad Antigua, con brotes independientes
en China, India y Grecia. Desde entonces, la lógica tradicionalmente se considera una
rama de la filosofía, pero en el siglo XX la lógica ha pasado a ser principalmente la lógica
matemática, y por lo tanto ahora también se considera parte de las matemáticas, e incluso
una ciencia formal independiente.
No existe un acuerdo universal sobre la definición exacta o los límites de la lógica.456 Sin
embargo, el ámbito de la lógica (interpretada en sentido amplio) incluye:
La clasificación de los argumentos.
El análisis sistemático de las formas lógicas.
El estudio sistemático de la validez de los inferencias deductivas.
La fuerza del inferencias inductivas.
El estudio de los argumentos defectuosos, como las falacias.
El estudio de las paradojas lógicas.
El estudio de la sintaxis y la semántica de los lenguajes formales.
El estudio de los conceptos de sentido, denotación y verdad.
Históricamente, la lógica se ha estudiado principalmente en filosofía desde la antigüedad,
en matemáticas desde mediados del siglo XIX y en informática desde mediados del siglo
XX. Más recientemente, la lógica también se ha estudiado en lingüística y en ciencias
cognitivas. En general, la lógica sigue siendo un área de estudio fuertemente
interdisciplinaria.
Etimología y acepciones[editar]
La palabra «lógica» deriva del griego antiguo λογική logikḗ, que significa «dotada de razón,
intelectual, dialéctica, argumentativa» y que a su vez viene de λόγος (lógos),
«palabra, pensamiento, idea, argumento, razón o principio».78i
En el lenguaje cotidiano, expresiones como «lógica» o «pensamiento lógico» aportan
también un sentido alrededor de un «pensamiento lateral» comparado, haciendo los
contenidos de la afirmación coherentes con un contexto, bien sea del discurso o de
una teoría de la ciencia, o simplemente con las creencias o evidencias transmitidas por
la tradición cultural.
Del mismo modo existe el concepto sociológico y cultural de lógica como por ejemplo
«lógica deportiva», que en general, podríamos considerar como «lógica cotidiana» -
también conocida como «lógica del sentido común».
En estas áreas la «lógica» suele tener una referencia lingüística en la pragmática.
Un argumento en este sentido tiene su «lógica» cuando resulta convincente, razonable y
claro; en definitiva cuando cumple una función de eficacia. La habilidad de pensar y
expresar un argumento así corresponde a la retórica, cuya relación con la verdad es una
relación probable.
Temas
La inferencia es el proceso por el cual se derivan conclusiones a partir de premisas.9
Cuando una conclusión se sigue de sus premisas por medio de inferencias válidas, se dice
que éstas implican aquella.
La inferencia es el objeto de estudio tradicional de la lógica, así como la vida es el objeto
de estudio de la biología. La lógica investiga los fundamentos por los cuales algunas
inferencias son aceptables, y otras no. Cuando una inferencia es aceptable, lo es por
su estructura lógica y no por el contenido específico del argumento o el lenguaje utilizado
(retórica). Por esto se construyen sistemas lógicos que capturan los factores relevantes de
las deducciones que aparecen en el lenguaje natural.10
Tradicionalmente, se distinguen tres clases de inferencias: las deducciones,
las inducciones y las abducciones, aunque a veces se cuenta a la abducción como un
caso especial de inducción.11 Las inducciones se estudian desde la lógica inductiva y
el problema de la inducción. Las deducciones, en cambio, son estudiadas por la mayor
parte de la lógica contemporánea.12
En las investigaciones sobre la inteligencia artificial, la inferencia es la operación
lógica utilizada en los motores de inferencia de los sistemas expertos.[cita requerida]
Validez[editar]
Esta sección es un extracto de Validez (lógica)[editar]
Falacias[editar]
Esta sección es un extracto de Falacia[editar]
Paradojas[editar]
Esta sección es un extracto de Paradoja[editar]
Verdad[editar]
Esta sección es un extracto de Verdad[editar]
Ramas[editar]
Sobre esta primera, y en cierto sentido única, regla de la razón, de que para aprender hay que desear
aprender, y al desearlo no conformarse con lo que ya se inclina a pensar de forma capaz, se desprende un
corolario que merece por sí mismo ser inscrito en cada muro de la ciudad de la filosofía: No bloquees el
camino de la investigación.
Lógica matemática
La lógica matemática, también llamada lógica simbólica, lógica teorética, lógica formal o
logística,33 es el estudio formal y simbólico de la lógica, y su aplicación a algunas áreas de
la matemática y la ciencia. Comprende la aplicación de las técnicas de la lógica formal a la
construcción y el desarrollo de las matemáticas y el razonamiento matemático, y
conversamente la aplicación de técnicas matemáticas a la representación y el análisis de
la lógica formal. La investigación en lógica matemática ha jugado un papel crucial en el
estudio de los fundamentos de las matemáticas.
La lógica matemática estudia la inferencia mediante la construcción de sistemas
formales como la lógica proposicional, la lógica de primer orden o la lógica modal. Estos
sistemas capturan las características esenciales de las inferencias válidas en los lenguajes
naturales, pero al ser estructuras formales susceptibles de análisis matemático, permiten
realizar demostraciones rigurosas sobre ellas.
La lógica matemática se suele dividir en cuatro áreas: teoría de modelos, teoría de la
demostración, teoría de conjuntos y teoría de la computabilidad. La teoría de la
demostración y la teoría de modelos fueron el fundamento de la lógica matemática. La
teoría de conjuntos se originó en el estudio del infinito por Georg Cantor y ha sido la fuente
de muchos de los temas más desafiantes e importantes de la lógica matemática, desde
el teorema de Cantor, el axioma de elección y la cuestión de la independencia de
la hipótesis del continuo, al debate moderno sobre grandes axiomas cardinales. La lógica
matemática tiene estrechas conexiones con las ciencias de la computación. La teoría de la
computabilidad captura la idea de la computación en términos lógicos y aritméticos. Sus
logros más clásicos son la indecidibilidad del Entscheidungsproblem de Alan Turing y su
presentación de la tesis de Church-Turing. Hoy en día, la teoría de la computabilidad se
ocupa principalmente del problema más refinado de las clases de complejidad (¿cuándo
es un problema eficientemente solucionable?) y de la clasificación de los grados de
insolubilidad.
La lógica matemática también estudia las definiciones de nociones y objetos matemáticos
básicos como conjuntos, números, demostraciones y algoritmos. La lógica matemática
estudia las reglas de deducción formales, las capacidades expresivas de los diferentes
lenguajes formales y las propiedades metalógicas de los mismos.
En un nivel elemental, la lógica proporciona reglas y técnicas para determinar si es o no
válido un argumento dado dentro de un determinado sistema formal. En un nivel avanzado,
la lógica matemática se ocupa de la posibilidad de axiomatizar las teorías matemáticas, de
clasificar su capacidad expresiva, y desarrollar métodos computacionales útiles en
sistemas formales. La teoría de la demostración y la matemática inversa son dos de los
razonamientos más recientes de la lógica matemática abstracta. Debe señalarse que la
lógica matemática se ocupa de sistemas formales que pueden no ser equivalentes en
todos sus aspectos, por lo que la lógica matemática no es un método para descubrir
verdades del mundo físico real, sino solo una fuente posible de modelos lógicos aplicables
a teorías científicas, muy especialmente a la matemática convencional.
Por otra parte, la lógica matemática no estudia el concepto de razonamiento humano
general o el proceso creativo de construcción de demostraciones matemáticas mediante
argumentos rigurosos pero con lenguaje informal con algunos signos o diagramas, sino
solo de demostraciones y razonamientos que se pueden formalizar por completo.
Lógica computacional
La lógica computacional es la misma lógica matemática aplicada al contexto de
las ciencias de la computación. Su uso es fundamental en varios niveles: en los circuitos
computacionales, en la programación lógica y en el análisis y optimización (de recursos
temporales y espaciales) de algoritmos.
La lógica se extiende al corazón de la informática a medida que surge como una disciplina:
El trabajo de Alan Turing sobre el Entscheidungsproblem seguido del trabajo de Kurt
Gödel sobre teoremas incompletos. La noción de la computadora de uso general que
surgió de este trabajo fue de gran importancia para los diseñadores de la maquinaria
informática en la década de 1940.
En los años 50 y 60, investigaciones predijeron que, cuando el conocimiento humano se
pudiera expresar usando la lógica con notaciones matemáticas, sería posible crear una
máquina capaz de razonar o una inteligencia artificial. Esto fue más difícil de lo esperado a
causa de la complejidad del razonamiento humano. En la lógica de programación, un
programa consiste en una colección de axiomas y reglas. Los sistemas de programación
lógicos (como Prolog) calculan las consecuencias de los axiomas y las reglas organizadas
para responder a una consulta.
Hoy en día, la lógica es extensamente aplicada en los campos de inteligencia artificial y de
ciencias de computación, y estos campos proporcionan una rica fuente de problemas en la
lógica formal e informal. La teoría de la argumentación es un buen ejemplo de cómo la
lógica está siendo aplicada a la inteligencia artificial. El sistema de clasificación
computacional ACM, en particular, considera:
Sección F.3 en Lógicas y significados de programas y F.4 en Lógica matemática y
lenguajes formales como parte de la teoría de la ciencia de computación: este trabajo
cubre la semántica formal de los lenguajes de programación tan bien como el trabajo
de métodos formales como la lógica de Hoare.
Lógica booleana como fundamento en el hardware de la computadora, particularmente
la sección del sistema B.2 en la estructura aritmética y lógica, relacionado con
operadores AND, NOT y OR.
Muchos formalismos lógicos fundamentales son esenciales para la sección I.2 sobre
inteligencia artificial, por ejemplo la lógica modal y la lógica por defecto en los
formalismos y métodos de representación del conocimiento, las cláusulas de Horn en
la programación lógica y la lógica de descripción.
Además, las computadoras se pueden usar como herramientas para los lógicos. Por
ejemplo, en lógica simbólica y lógica matemática, las pruebas de los seres humanos
pueden ser asistidas por computadoras. Usando la prueba automatizada del teorema, las
máquinas pueden encontrar y comprobar pruebas, así como trabajar con las pruebas
demasiado largas para escribir a mano.
Lógica filosófica[editar]
La lógica filosófica se refiere a aquellas áreas de la filosofía en la que reconocidos
métodos de la lógica tradicionalmente, han sido utilizadas para resolver o avanzar en la
discusión de los problemas filosóficos.34 Entre estos, Sybil Wolfram destaca el estudio
del argumento, el significado y verdad,35 mientras Colin McGinn presenta las nociones
de identidad, existencia, predicado, estado de necesidad y verdad como ideas principales
en su libro sobre este tema.36 La lógica se usa únicamente para pensamientos sobre
existencias relacionadas con nosotros, en el caso de la filosofía esto es en relación a todo
lo posiblemente imaginativo.[cita requerida]
La lógica filosófica también dirige extensiones y alternativas a la lógica tradicional, la más
conocida es la lógica no clásica. Estas reciben más atención en textos tales como Lógica
Filosófica, la guía de Blackwell a la lógica filosófica de John P. Burgess o el Manual de
lógica filosófica editado por Dov M. Gabbay y Franz Guenthner el cual dispone de múltiples
volúmenes.373839
La lógica filosófica trata de las descripciones formales de lo ordinario, lenguaje natural no
especificado, que es estrictamente único sobre los argumentos dentro de las ramas de
otras filosofías. La mayoría de los filósofos suponen que la mayor parte del razonamiento
cotidiano se podría capturar en la lógica si se pudiera encontrar un método o métodos para
traducir el lenguaje ordinario a esa lógica. La lógica filosófica es esencialmente una
continuación de la disciplina tradicional llamada "lógica" antes de la invención de la lógica
matemática. La lógica filosófica tiene un mayor interés con la conexión entre el lenguaje
natural y la lógica. Como resultado, los lógicos filosóficos han contribuido al desarrollo de
lógica no convencional (por ejemplo lógicas libres, lógica temporal, etc) al igual que varias
extensiones de la lógica clásica (por ejemplo, la lógica modal) y la semántica no
convencional para tales lógicas (por ejemplo, el supervaluacionismo de Kripke en la
semántica de la lógica).
La lógica y la filosofía del lenguaje están estrechamente relacionadas. La filosofía del
lenguaje tiene que ver con el estudio de cómo nuestra lengua se involucra e interactúa con
nuestro pensamiento. La lógica tiene un impacto inmediato en otras áreas de estudio.
Estudiar la lógica y la relación entre la lógica y la forma de expresión ordinaria puede
ayudar a una persona a estructurar mejor sus propios argumentos y criticar (o analizar) los
argumentos de otra persona. Muchos argumentos populares están llenos de errores
porque muchas personas son inexpertas en la lógica e ignoran cómo formular un
argumento correctamente.
Lógica informal[editar]
La lógica informal, o lógica no formal, es el estudio de los argumentos a posteriori en
oposición al estudio técnico y teórico de la lógica matemática. Esta parte de la lógica se
dedica principalmente a diferenciar entre formas correctas e incorrectas en que se
desarrolla el lenguaje y el pensamiento cotidiano, en especial al estudio de los procesos
para obtener conclusiones a partir de información dada, sin importar su forma lógica. Parte
de que el pensamiento y el lenguaje humano es a menudo incorrecto, o tendencioso.
Surgió en la década de los 70's como un sub-campo de la filosofía. La primera obra en
hablar acerca de esta disciplina fue La lógica y la retórica contemporánea (1971)
de Howard Kahane.
Lógica silogística[editar]
Una representación del siglo XV del Cuadro de oposición de los juicios , que expresa las dualidades
fundamentales de la silogística.
Lógica proposicional[editar]
Un cálculo o lógica proposicional (también un cálculo sentencial) es un sistema formal en
el que las fórmulas que representan proposiciones pueden formarse
combinando proposiciones atómicas (normalmente representadas con p, q, etc.)
Lógica modal[editar]
En el lenguaje, la modalidad se ocupa del fenómeno de que las subpartes de una oración
pueden tener su semántica modificada por verbos especiales o partículas modales. Por
ejemplo, "Vamos a los juegos puede modificarse para dar "Debemos ir a los juegos', y
"Podemos ir a los juegos y quizás "Iremos a los juegos. De forma más abstracta,
podríamos decir que la modalidad afecta a las circunstancias en las que damos por
satisfecha una afirmación. La confusión de la modalidad se conoce como falacia modal.
La lógica de Aristóteles se ocupa en gran parte de la teoría de la lógica no modalizada.
Aunque, hay pasajes en su obra, como el famoso argumento de la batalla naval en Sobre
la interpretación § 9, que ahora se ven como anticipaciones de la lógica modal y su
conexión con la potencialidad y el tiempo, el primer sistema formal de lógica modal fue
desarrollado por Avicena, que finalmente desarrolló una teoría de la "temporal modalizada"
silogística.43
Aunque el estudio de la necesidad y la posibilidad siguió siendo importante para los
filósofos, apenas se produjeron innovaciones lógicas hasta las históricas investigaciones
de C. I. Lewis en 1918, quien formuló una familia de axiomatizaciones rivales de
la modalidades aleatorias. Su trabajo desató un torrente de nuevos trabajos sobre el tema,
ampliando los tipos de modalidad tratados para incluir la lógica deóntica y la lógica
epistémica. El trabajo seminal de Arthur Prior aplicó el mismo lenguaje formal para tratar
la lógica temporal y preparó el camino para la unión de los dos temas. Saul
Kripke descubrió (contemporáneamente con Prior) su teoría de la semántica de Kripke,
que revolucionó la tecnología formal disponible para los lógicos modales y dio una
nueva teoría de grafos forma de ver la modalidad que ha impulsado muchas aplicaciones
en lingüística computacional y informática, como la lógica dinámica.
Lógica de predicados[editar]
La lógica de predicados es el término genérico para los sistemas formales simbólicos
como la lógica de primer orden, la lógica de segundo orden, la lógica de muchos órdenes y
la lógica infinitaria. Proporciona una cuenta de cuantificadores lo suficientemente general
para expresar un amplio conjunto de argumentos que ocurren en el lenguaje natural. Por
ejemplo, la famosa paradoja del barbero de Bertrand Russell, "hay un hombre que afeita a
todos y sólo a los hombres que no se afeitan a sí mismos", puede formalizarse mediante la
hombre, y la relación no lógica para indicar que x afeita a y; todos los demás
símbolos de las fórmulas son lógicos, y expresan el cuantificadores universal y existencial,
la conjunción, el implicación, la negación y el bicondicional.
Mientras que la lógica silogística aristotélica especifica un pequeño número de formas que
puede adoptar la parte relevante de los juicios implicados, la lógica de predicados permite
analizar las oraciones en sujeto y argumento de varias formas adicionales, permitiendo a la
lógica de predicados resolver el problema de la generalidad múltiple que había dejado
perplejos a los lógicos medievales.
El desarrollo de la lógica de predicados suele atribuirse a Gottlob Frege, a quien también
se le atribuye el mérito de ser uno de los fundadores de la filosofía analítica, pero la
formulación de la lógica de predicados más utilizada hoy en día es la lógica de primer
orden presentada en Principios de lógica matemática por David Hilbert y Wilhelm
Ackermann en 1928. La generalidad analítica de la lógica de predicados permitió la
formalización de las matemáticas, impulsó la investigación de la teoría de conjuntos y
permitió el desarrollo del enfoque de Alfred Tarski sobre la teoría de modelos. Proporciona
la base de la lógica matemática moderna.
El sistema original de lógica de predicados de Frege era de segundo orden, en lugar de
primer orden. La Lógica de segundo orden es defendida de manera más prominente
(contra las críticas de Willard Van Orman Quine y otros) por George Boolos y Stewart
Shapiro.
Lógica no clásica[editar]
Las lógicas discutidas anteriormente son todas "bivalentes" o "de dos valores"; es decir, se
entienden de forma más natural como la división de las proposiciones en verdaderas y
falsas. Los sistemas de lógica no clásica son aquellos que rechazan varias reglas de
la lógica clásica.
Hegel desarrolló su propia lógica dialéctica que amplió la lógica trascendental de Kant pero
también la devolvió a la tierra asegurando que ni en el cielo ni en la tierra, ni en el mundo
de la mente ni en el de la naturaleza, existe en ninguna parte un "o" abstracto como el que
sostiene el entendimiento. Todo lo que existe es concreto, con diferencia y oposición en sí
mismo.44
En 1910, Nicolai A. Vasiliev amplió la ley del medio excluido y la ley de la contradicción y
propuso la ley del cuarto excluido y la lógica tolerante a la contradicción.45 A principios del
siglo XX, Jan Łukasiewicz investigó la ampliación de los valores tradicionales de
verdadero/falso para incluir un tercer valor, "posible" (o indeterminado, una hipótesis)
inventando así la lógica ternaria, la primera lógica plurivalente de la tradición occidental. 46
Una modificación menor de la lógica ternaria fue introducida posteriormente en un modelo
de lógica ternaria de hermanos propuesto por Stephen Cole Kleene. El sistema de Kleene
difiere de la lógica de Łukasiewicz con respecto a un resultado de la implicación. El
primero supone que el operador de implicación entre dos hipótesis produce una hipótesis.
Desde entonces se han ideado lógicas como la lógica difusa con un número infinito de
"grados de verdad", representados por un número real entre 0 y 1. 47
La Lógica intuicionista fue propuesta por L.E.J. Brouwer como la lógica correcta para
razonar sobre las matemáticas, basándose en su rechazo del principio del tercero
excluido como parte de su intuicionismo. Brouwer rechazó la formalización en
matemáticas, pero su alumno Arend Heyting estudió la lógica intuicionista formalmente, al
igual que Gerhard Gentzen. La lógica intuicionista es de gran interés para los informáticos,
ya que es una lógica intuicionista y ve muchas aplicaciones, como la extracción de
programas verificados a partir de pruebas y la influencia en el diseño de lenguajes de
programación a través de la correspondencia fórmula-como-tipos.
La lógica modal no es condicional de verdad, por lo que a menudo se ha propuesto como
una lógica no clásica. Sin embargo, la lógica modal se formaliza normalmente con el
principio del medio excluido, y su semántica relacional es bivalente, por lo que esta
inclusión es discutible.
Historia[editar]
La historia de la lógica documenta el desarrollo de la lógica en varias culturas y tradiciones
a lo largo de la historia. Aunque muchas culturas han empleado intrincados sistemas de
razonamiento, e, incluso, el pensamiento lógico estaba ya implícito en Babilonia en algún
sentido, la lógica como análisis explícito de los métodos de razonamiento ha recibido un
tratamiento sustancial solo originalmente en tres tradiciones: la Antigua China, la Antigua
India y la Antigua Grecia.
Aunque las dataciones exactas son inciertas, particularmente en el caso de la India, es
probable que la lógica emergiese en las tres sociedades hacia el siglo IV a. C. El
tratamiento formalmente sofisticado de la lógica proviene de la tradición griega,
especialmente del Organon aristotélico, cuyos logros serían desarrollados por los lógicos
islámicos y, luego, por los lógicos de la Edad Media europea. El descubrimiento de la
lógica india entre los especialistas británicos en el siglo XVIII influyó también en la lógica
moderna.
La historia de la lógica es producto de la confluencia de cuatro líneas de pensamiento, que
aparecen en momentos históricos diferentes:48 La lógica aristotélica, seguida de los
aportes de los megáricos y los estoicos. Siglos después, Ramon Llull y Leibniz estudiaron
la posibilidad de un lenguaje único, completo y exacto para razonar. Al comienzo del siglo
XIX las investigaciones en los fundamentos del álgebra y la geometría, seguidos por el
desarrollo del primer cálculo completo por Frege. Ya en el siglo XX, Bertrand
Russell y Whitehead culminaron el proceso de creación de la lógica matemática. A partir
de este momento no cesarán de producirse nuevos desarrollos y de nacer escuelas y
tendencias. Otra perspectiva interesante sobre cómo abordar el estudio de la historia
lógica la ofrece Alberto Moretti49 y que es sintetizada por Diego Letzen.50
Controversias[editar]
¿Es empírica la lógica?[editar]
¿Cuál es el estatus epistemológico de la leyes de la lógica? ¿Qué tipo de argumento es
apropiado para criticar los supuestos principios de la lógica? En un influyente artículo
titulado "¿Es empírica la lógica?"51 Hilary Putnam, basándose en una sugerencia de W. V.
Quine, argumentó que en general los hechos de la lógica proposicional tienen un estatus
epistemológico similar al de los hechos sobre el universo físico, por ejemplo como las
leyes de la mecánica o de la relatividad general, y en particular que lo que los físicos han
aprendido sobre la mecánica cuántica proporciona un caso convincente para abandonar
ciertos principios familiares de la lógica clásica: si queremos ser realistas sobre los
fenómenos físicos descritos por la teoría cuántica, entonces debemos abandonar
el principio de distributividad, sustituyendo la lógica clásica por la lógica cuántica propuesta
por Garrett Birkhoff y John von Neumann. 52
Otro trabajo del mismo nombre de Michael Dummett sostiene que el deseo de realismo de
Putnam exige la ley de la distributividad.53 La distributividad de la lógica es esencial para
que el realista entienda cómo las proposiciones son verdaderas del mundo de la misma
manera que ha argumentado que lo es el principio de bivalencia. De este modo, la
pregunta "¿Es la lógica empírica?" puede verse como una respuesta natural a la
controversia fundamental en metafísica sobre realismo versus antirrealismo.
Cuando tenía 6 años vi una vez una lámina magnífica en un libro sobre El
Bosque Virgen, que se llamaba “Historias vividas”.
Representaba una serpiente boa que se tragaba a una fiera. El libro decía:
“Las serpientes boas tragan sus presas enteras, sin masticarlas. Luego no
pueden moverse y duermen durante los seis meses de la digestión”.
Reflexioné mucho entonces sobre las aventuras de la selva y, a mi vez,
logré trazar con un lápiz de color mi primer dibujo. Mostré mi obra maestra
a las personas grandes y les pregunté si mi dibujo les asustaba. Me
contestaron: ¿Por qué habría de asustar un sombrero?”. Mi dibujo no
representaba un sombrero. Representaba una serpiente boa que digería un
elefante. Dibujé entonces el interior de la serpiente boa, a fin de que las
personas grandes pudiesen comprender. Siempre necesitan explicaciones.
Las personas grandes me aconsejaron que dejara a un lado los dibujos de
serpientes boas abiertas o cerradas, y que me interesara un poco más en la
geografía, la historia, el cálculo, y la gramática. Así fue cómo, a la edad de
6 años, abandoné una magnífica carrera de pintor. Estaba desalentado por
el fracaso de mis dibujos. Las personas grandes nunca comprenden nada
por sí solas y es cansado para los niños tener que darles siempre y siempre
explicaciones.
“EL PRINCIPITO” “Saint-Exupery”
Si bien, desde la psicología ha sido la teoría piagetiana una de las que más
respuestas ha dado al proceso de simbolización y a los interrogantes
creados por su estudio, nos parece que ha sido el psicoanálisis el que más
ha estudiado y más se ha interrogado sobre esta cuestión.
Fue M. KLEIN, a través de su trabajo clínico con niños, la que elaboró una
teoría sobre los procesos de formación de símbolos.
BION nos aportó su concepto de función alfa, señalando con este nombre
una función transformadora y esencial para el desarrollo del pensar. La
madre ordena, de algún modo, el caos de pensamientos y sentimientos que
le está proyectando el bebé y se lo devuelve reordenado, más tolerable para
él. De este modo, la relación continente-contenido así formada, es
introyectada como vínculo de desarrollo emocional.
Dicha capacidad pensante (sea cual fuere su origen), tiene una evolución en
el tiempo, y todo lo que se refiere a los procesos de simbolización se halla
reflejado en mayor o menor medida en el juego.
1. Del primer nivel, el sintáctico, diremos que para que haya un juego
simbólico debe haber una referencia constante a un tiempo y un
espacio diferente al momento en que ocurre el juego. Se juega
escenificando con los elementos presentes una situación ausente.
2. Para que el aspecto semántico se dé, es necesario que la categoría
simbólica “presencia-ausencia” haya sido adquirida por el niño.
Más adelante volveremos a este punto, puesto que es precisamente la
posibilidad de elaboración de la ausencia de la madre, la piedra
angular sobre la que se asiente la capacidad simbolizadora del niño,
(y éste es un punto de acuerdo en todos los autores revisados).
Para que el niño acceda a este nivel, debe poder distinguir entre
“mamá no está aquí” y “mamá no existe más”.
¿Qué es lo que les pasa a estos padres con su narcisismo infantil, sus
deseos, sus identificaciones…?, ¿qué les pasa con sus ideales?, y ¿qué
salida le queda a este niño, que no sea la de alucinar a un Guillermo-Ideal
del yo de los padres, superdotado, genial, precoz… a costa de su propio
yo?
Alrededor de los cinco años, los padres se dan cuenta que tienen un hijo
con problemas y empiezan a dedicarle mucha más atención, a la que
Miguel responde muy positivamente. De todas formas, las dificultades
persisten y hay un evidente fracaso escolar, lo que los decide a iniciar un
tratamiento, interrumpido cuatro meses más tarde.
Hacia el final del primer año, se enriquece la función del jugar y toda la
actividad parece encaminada al afianzamiento de la categoría simbólica
básica y estructurante: la de presenciaausencia, que otorga al individuo la
primera noción de existencia independiente de la madre y otorga a los
demás objetos, la categoría de lo real.
Todas estas categorías son condiciones “sine qua non” para que el niño
esté en disposición para aprender a situarse en el espacio y pueda aprender
a leer en su momento.
Para que esta etapa se cumpla con éxito, es absolutamente necesario que el
niño pueda simbolizar la diferencia entre separar y destruir y que, tanto el
niño como su madre, puedan metabolizar los ambivalentes sentimientos
que toda separación provoca.
La curiosidad debe poder ser tolerada por los padres para que el niño la
sienta como legítima (nuevas categorías simbólicas: permitido-prohibido,
público-privado se empiezan a establecer en esta época).
Pero esta mayor capacidad para aprender está siendo bombardeada por
numerosos frentes. De todo el complejo proceso adolescente, descrito por
Teresa Olmos de Paz en su trabajo “De la confusión a la simbolización”,
entresacaremos, lo directamente relacionado con el tema. Puesto que en la
adolescencia tiene lugar la resignificación de toda la problemática infantil
“prefiero llamar primera adolescencia al tipo de funcionamiento mental que
se caracteriza, fundamentalmente, por el estado de omnipotencia narcisista
y confusional, consecuencia del impacto en el self de la metamorfosis de la
pubertad; y segunda adolescencia, al modo de funcionamiento mental en el
cual se procesan una serie de operaciones simbólicas, básicamente el
trabajo de elaboración de los duelos por las pérdidas del cuerpo infantil, de
las fantasías de bisexualidad, de la identidad infantil y de los padres de la
infancia”. Esto supone un turbulento proceso de desidealización, tanto del
propio self, como de las figuras parentales, proceso que se da en el marco
de la elaboración de la conflictiva edípica.
Inició una psicoterapia a la edad de seis años y que prosiguió durante siete
años. La psicoterapia, inicialmente, la proveyó de un espacio externo e
interno adonde dirigir sus proyecciones, iniciándose un lento y costoso
camino para contener su ansiedad –y la de los padres y educadores–, con
vías a posibilitar el establecimiento de un espacio simbólico que le
permitiera reconocerse a sí misma como capaz de pensar y aprender,
capaz, por tanto, de individualizarse y de elaborar el duelo patológico que
la dejó paralizada y fijada simbióticamente a la madre.
Es por esto que el niño –o el adulto– que no aprende, o aquel que pseudo-
aprende, o el que se apropia del aprendizaje del otro, cada uno de ellos
presentan fallas en la propia representación de sí mismos –a nivel de sus
procesos de identificación–, que alteran y dificultan su captación de la
realidad, interna y externa, afectando sus procesos simbólicos frente a los
cambios socio-culturales y personales.
Regla de inferencia
En lógica, una regla de inferencia, o regla de transformación es una forma lógica que
consiste en una función que toma premisas, analiza su sintaxis, y devuelve una conclusión
(o conclusiones).
Por ejemplo, la regla de inferencia modus ponendo ponens toma dos premisas, uno en la
forma "Si p, entonces q" y otra en la forma "p", y devuelve la conclusión "q". La regla es
válida con respecto a la semántica de la lógica clásica (así como la semántica de muchas
otras lógicas no clásicas), en el sentido de que si las premisas son verdaderas (bajo una
interpretación), entonces también lo será la conclusión.
Por lo general, una regla de inferencia conserva la verdad, una propiedad semántica.
En muchos valores lógicos, esta conserva una designación general. Pero la acción de la
regla de inferencia es puramente sintáctica, y no es necesario preservar ninguna
propiedad semántica: cualquier función de conjuntos de fórmulas cuenta como una regla
de inferencia.
Entonces, aunque la aplicación de una regla de inferencia es un procedimiento puramente
sintáctico, debe preservar la validez. Para que el requisito de preservación de la validez
tenga sentido, es necesaria una cierta forma semántica para las aserciones de las reglas
de inferencia y las reglas de inferencia en sí mismas.
Las reglas significativas de inferencia en la lógica proposicional incluyen modus
ponens, modus tollens y contraposición. La lógica de predicados de primer orden usa
reglas de inferencia para liderar con cuantificadores lógicos.
(CA1) ⊢ A → (B → A)
(MP) A, A → B ⊢ B
(CA1) ⊢ A → (B → A)
(MP) A, A → B ⊢ B
Admisibilidad y derivabilidad[editar]
En un conjunto de reglas, una regla de inferencia podría ser redundante en el sentido de
que es admisible o derivable. Un regla derivable es aquella cuya conclusión se puede
derivar de sus premisas utilizando las demás reglas. Una regla admisible es aquella cuya
conclusión mantiene siempre las premisas poseídas. Todas regla derivable son admisible.
Para apreciar la diferencia, considerar el siguiente conjunto de reglas para definir
Este es un hecho cierto de los números naturales, tal como puede ser probado
por inducción. (Para probar que esta regla es admisible, asumir una derivación de la
premisa e inducir en ella para producir una derivación de .) Sin embargo, no es
derivable, porque depende de la estructura de la derivación de la premisa. Debido a esto,
la derivabilidad es estable bajo las adiciones al sistema de prueba, mientras que la
admisibilidad no lo es. Para ver la diferencia, supongamos que se añadiera la regla
siguiente tonta al sistema de la prueba:
En este nuevo sistema, la regla de doble sucesor sigue siendo derivable. Sin embargo, la
regla para encontrar el predecesor ya no es admisible, porque no hay manera de derivar
Reglas recursivas[editar]
Por lo general, solo son importantes las reglas que sean recursivas; es decir, reglas para
que no haya un procedimiento efectivo para determinar si cualquier fórmula dada es la
conclusión de un determinado conjunto de fórmulas de acuerdo a la regla. Un ejemplo de
una regla que no es efectiva en este sentido es la infinitista regla ω.5
Tabla de verdad
Una tabla de verdad, o tabla de valores de verdades, es una tabla que muestra el valor
de verdad de una proposición compuesta, para cada combinación de verdad que se pueda
asignar.1
Fue desarrollada por Charles Sanders Peirce por los años 1880, pero el formato más
popular es el que introdujo Ludwig Wittgenstein en su Tractatus logico-philosophicus,
publicado en 1921.