Papers by Paola Cattabriga
ArXiv http://arxiv.org/abs/2409.05903, 2024
We present Russell's antinomy using three distinct deductive systems, which are then compared to ... more We present Russell's antinomy using three distinct deductive systems, which are then compared to deepen the logical deductions that lead to the contradiction. Some inferential paths are then presented, alternative to the commonly accepted one, that allow for the formal assertion of the antinomy without deriving the contradiction, thus preserving the coherence of the system. In light of this, the purpose of this article is to propose a review of the consequences of asserting Russell's antinomy and, by extension, the widespread belief that any attempt to resolve a paradox is doomed to failure.
At the heart of the cognitive science we have a very ancient plan to mechanize the whole human kn... more At the heart of the cognitive science we have a very ancient plan to mechanize the whole human knowledge together with the needs of the scientific discovery to expand the logical reasoning. The emerging of antinomies and arguments like incompleteness and undecidability led these two cognitive aspirations to diverge. This contribution claims the existence of a unique model of self-reference reasoning posed at the origin of such forking path by Cantor's diagonalization, and the subsequent Gödel's incompleteness and Turing's undecidability, since all these socalled theorems trace expressive restrictions for the predicate calculus applying some form of diagonalization. Author's investigation in self-reference procedures provides proofs leading to the overcome of such model, proofs based on the definition of the complement of the set or predicate which is, on a case by case, subjected to diagonalization. As already showed, this offers an explicative guide about that the so-called Cantor's theorem is not actually acceptable in a first order set theory, and similarly for Gödel's incompleteness in Peano Arithmetics and Turing's undecidability for the first order calculus. This article highlights their connections, and offers an explanation on the basis of the criterions of the Theory of Definition. The overcome of this self-reference model aims to reintegrate the expressive power of the predicate calculus, and thus to some rejoin or mutual exchange of the two different cognitive pathways.
Gödel numbering is an arithmetization of sintax which defines provability by coding a primitive r... more Gödel numbering is an arithmetization of sintax which defines provability by coding a primitive recursive predicate, Pf(x, v) [18, 190-198]. A multiplicity of researches and results all around this well-known recursive predicate are today widespread in many areas of logic and AI. Not equally investigated is the refutability predicate defined by Gödel numbering within the same primitive recursive status. Rf(x, v) can be defined as a recursive predicate meaning that x is the Gödel number of a refutation in PA of the formula with Gödel number v. This article proposes a logical investigation of the interactive links between provability and refutability predicates when defined within the same recursive status. The resulting Lemmas are clarifying and open new perspectives for the incompleteness argument and the codings of its underlying notions.
http://arxiv.org/abs/2403.19665, 2024
In this article we discuss the proof in the short unpublished paper appeared in the 3rd volume of... more In this article we discuss the proof in the short unpublished paper appeared in the 3rd volume of Gödel's Collected Works entitled "On undecidable sentences" (*1931?), which provides an introduction to Gödel's 1931 ideas regarding the incompleteness of arithmetic. We analyze the meaning of the negation of the provability predicate, and how it is meant not to lead to vicious circle. We show how in fact in Gödel's entire argument there is an omission regarding the cases of non-provability, which, once taken into consideration again, allow a completely different view of Gödel's entire argument of incompleteness. Previous results of the author are applied to show that the definition of a contradiction is included in the argument of *1931?. Furthermore, an examination is also briefly presented in order to the application of the substitution in the well-known Gödel formula as a violation of the uniqueness, calling into question its very derivation.
arXiv:1308.0497v3, 2023
Turing historical article of 1936 is the result of a special endeavor focused around the factuali... more Turing historical article of 1936 is the result of a special endeavor focused around the factuality of a general process for algorithmic computation. The Turing machine as a universal feasibility test for computing procedures is applied up to closely examining what are considered to be the limits of computation itself. In this regard he claims to have defined a number which is not computable, arguing that there can be no machine computing the diagonal on the enumeration of the computable sequences. This article closely examines the original 1936 argument, displaying how it cannot be considered a demontration, and that there is indeed no evidence of such a defined number that is not computable.
Logic & Artificial Intelligence, 2023
This article presents a development of the authors investigation in self-reference procedures, co... more This article presents a development of the authors investigation in self-reference procedures, considered from the point of view of the logical inquiry regarding the mathematical definitions and the rules for applying substitutions. As already showed this offers an explicative guide about how to show that Russell's antinomy does not really affect Frege's system, and, similarly, that the so-called Cantor theorem, affirming the nondenumerability of the set of all the subsets of the set of natural numbers, is not actually acceptable in a axiomatic framework of first order set theory. We briefly resume both the demonstrations, displaying that they point out to the same sort of uniqueness violation, namely the neglect of a restriction that derives from the Criterion of Non-creativity. This article applies then the same explicative analysis to the so-called "Diagonalization Lemma", core of the whole Gödel's 1931 incompleteness argument, drawing accordingly for the first time clear evidence and explanation why it results to be a uniqueness violation in Peano Arithmetic.
WiL2021 , 2021
The conditions for proper definitions in
mathematics are given, in terms of the theory of defin... more The conditions for proper definitions in
mathematics are given, in terms of the theory of definition, on the basis
of the criterions of eliminability and
non-creativity. As a definition, Russell's antinomy is a violation of the criterion
of eliminability.
Following the path of the criterion of
non-creativity, this paper develops a new analysis of Comprehension schema
and, as a consequence, proof that Russell's
antinomy argumentation, despite the words of Frege himself, does not hold
in Grundgesetze der Arithmetik. According to Basic Law III, the class of
classes not belonging to themselves is a class
defined by a function which can not take as argument its own course of
value, in other words, the class of classes not belonging to themselves is a class
whose classes are not identical to the class itself.
Proceedings of The International Conference on Artificial Intelligence, IC-AI’2000, H. R. Arabnia (ed.), Las Vegas, Nevada, USA, June 26-29, 2000, Volume III, CSREA Press, pp. 1475-1481., 2000
The predicate complementary to the well-known Godel's provability predicate is defined. From its ... more The predicate complementary to the well-known Godel's provability predicate is defined. From its recursiveness new consequences concerning the incompleteness argumentation are drawn and extended to new results of consistency, completeness and decidability with regard to Peano Arithmetic and the first order predicate calculus.
Abstract presented as a contributed talk to the 2006 ASL Summer Meeting, se also arXiv:0705.0901 , 2007
The conditions for proper definitions in mathematics are given, in terms of the theory of definit... more The conditions for proper definitions in mathematics are given, in terms of the theory of definition, on the basis of the criterions of eliminability and non-creativity. As a definition, Russell's antinomy is a violation of the criterion of eliminability (Behmann, 1931; Bochvar, 1943). Following the path of the criterion of non-creativity, this paper develops a new analysis of Comprehension schema and, as a consequence, proof that Russell's antinomy argumentation, despite the words of Frege himself, does not hold in Grundgesetze der Arithmetik. According to Basic Law (III), the class of classes not belonging to themselves is a class defined by a function which can not take as argument its own course of value. In other words, the class of classes not belonging to themselves is a class whose classes are not identical to the class itself.
From Practical Reason to Legal Computer Science, Proceedings of the 17th IVR World Congress – Challenges to law at the End of the 20th Century, 259-276, 1997, Clueb, Bologna., 2007
This paper describes a starting research on applications of Knowledge Representation tecniques to... more This paper describes a starting research on applications of Knowledge Representation tecniques to model reasoning about a case brought before a court of law. Modeling reasoning with laws and cases seems to us of interest for knowledge representation(KR) as legal arguments often appeal to commonsense: regulations of various sorts are present in practically every aspect of social life. Representing laws and legal reasoning is a subfield of KR as such, to which our research wish to contribute. However, the process by which an authority rules on a case is ---even after a great deal of abstraction--- a challenging issue for logic. Starting from a conceptual framework borrowed from Kelsen ---and from his rejection of logic for representing laws--- we discuss how logic programs with a Situation Calculus ontology can effectively model these forms of reasoning. Some of Kelsen's topics of interest for us are:
Abstract presented by title as a contributed talk to the 2006-7 ASL Winter Meeting. See also arXiv:math/0306038 , Jun 2, 2003
This article demonstrates the invalidity of Theorem VI of Gödel's monograph of 1931, showing that... more This article demonstrates the invalidity of Theorem VI of Gödel's monograph of 1931, showing that propositions (15) and (16), derived from definition (8.1), in its proof, are false in PA. This is achieved in two steps. First, the predicate complementary to the well-known Gödel's predicate Bew(x) is ndefined by adding a new relation Wid(x), and new logical connections are accordingly established, Lemma (6). Second, the negations of (15) and (16) are derived by definition (8.1) and Lemma (6). It amounts to saying that (15) and (16) are false and unacceptable for the system. On the account of that, the two well-known cases 1. 17 Gen r is not k-PROVABLE, 2. Neg(17 Gen r) is not k-PROVABLE, can not be drawn, and Theorem VI is therefore invalid.
InterSymp 2019 - Proceedings BB-IIAS19, 2019
All theorems setting expressive bounds to the first-order predicate calculus involve some sort of... more All theorems setting expressive bounds to the first-order predicate calculus involve some sort of diagonalization, a form of self- reference argumentation dating back to Cantor which leads to assert the non-denumerability of the set of all the subsets of the set of natural numbers. Gödels incompleteness, Türings undecidability and the same Russells antinomy share an intimate connection with the Cantorian argumentation and draw inspiration from it. Wherever diagonalization appears, within Cantor, Gödel or Türing, it is always possible to show that it is a form of partial reasoning neglecting the definition of the complement of the set, or predicate, to which it is applied. This article briefly summa- rizes author’s investigations all around these pertaining, highlights their connections and shows how, given a set or a predicate upon which di- agonalization is applied, the definition of its complement immediately leads to the invalidity of the same whole diagonalization argument. It offers also an analysis and explanation on the basis of the criteria of the Theory of Definition, in consideration that any way to postulate or sup- pose the existence of a function or a set is from the logical point of view always some sort of definition. It outlines new perspectives arising accordingly within the deductive context of the classic laws of identity and extensionality.
Questa tesi propone una analisi di come il calcolo del primo ordine, in sé completo ma indeci... more Questa tesi propone una analisi di come il calcolo del primo ordine, in sé completo ma indecidibile, possa esprimere teorie del primo ordine le quali a loro volta possono essere complete o incomplete, decidibili o indecidibili. Il calcolo dei predicati è una forma di notazione convenzionale estremamente generale che non ha limiti teorici nell'espressione di teorie. Per alcune di queste teorie esiste una dimostrazione di completezza e decidibilità. Ciò è possibile anche se il calcolo dei predicati è completo ma indecidibile. Per spiegare questo fatto è necessario chiarire che il "potere espressivo" del calcolo dei predicati del primo ordine è limitato, e ciò in base a tutta una serie di teoremi fondamentali, che vengono qui esaminati ed esposti.
Da tale esame si deduce che la non categoricità e l'indecidibilità del calcolo dei predicati del primo ordine, fanno sì che esso possa esprimere completamente soltanto l'aspetto deduttivo, dimostrativo delle teorie matematiche elementari. L'assiomatizzazione e la costituzione del calcolo in un sistema deduttivo completo, estremamente generale, non fornisce però alcun algoritmo applicativo universale, per determinare, a priori, se un qualunque teorema matematico è vero oppure no.
Nella prima parte di questa tesi si espongono i risultati più importanti degli studi classici intorno al problema dell'indecidibilità. I primi due capitoli riguardano i metodi e le dimostrazioni che permettono di determinare la decidibilità e l'indecidibilità delle teorie. Nel terzo capitolo si illustra la teoria della computabilità. Gli studi e le ricerche sulla computabilità si svilupparono in seguito alle dimostrazioni di indecidibilità del calcolo e dell'incompletezza dell'aritmetica, come un tentativo di precisare il concetto di algoritmo. Si costituì così una teoria che è un importante strumento di analisi di concetti fondamentali, anche sotto il profilo dell'odierna scienza di elaborazione e computazione delle informazioni. Nel quarto capitolo si espone una dimostrazione che delimita e riduce esattamente l'indecidibilità del calcolo a un ristretto numero di quantificatori. Tale dimostrazione è conclusiva rispetto a tutta un'area di ricerca e classificazione di formule decidibili del calcolo.
Nella seconda parte della tesi si parla della risoluzione delle formule, e della deduzione automatica con l'ausilio degli elaboratori mettendo in luce l'importanza della completezza dimostrativa del calcolo. L'indecidibilità del calcolo dei predicati può anche essere definita come segue: non è possibile creare un programma che ci dica se una formula qualunque del calcolo dei predicati è vera oppure no. Un programma è infatti sinonimo di algoritmo, e dalla sua definizione si ottiene un equivalente di funzione computabile. E' però possibile creare un programma che dica se una formula qualunque del calcolo è vera, anche se non cesserà mai di calcolare nel caso in cui la formula sia falsa. Oppure si possono creare programmi che terminano, sicuramente, e ci dicono per alcune formule se esse sono valide oppure no, ma che non possono però decidere la validità di altre formule.
Nella creazione di questi programmi si utilizzano le procedure di risoluzione delle formule. Lo sviluppo di tali metodi parte dalle dimostrazioni di Herbrand e di Skolem. In base ad esse è possibile ridurre le formule del calcolo dei predicati a formule proposizionali, anche se al prezzo della generazione di successioni infinite di enunciati. Non abbiamo una procedura effettiva per determinare se una formula predicativa è valida oppure no, abbiamo però una procedura effettiva per elencare le formule predicative valide. Nel quinto capitolo si espongono una dimostrazione del teorema di Herbrand e la una struttura interpretativa detta "universo di Herbrand". Su questa struttura si fondano i metodi di risoluzione , che vengono esposti nel sesto capitolo, e della
programmazione logica, di cui si parla invece nell'ultimo
capitolo. Lo sviluppo di questa seconda parte della tesi illustra risultati che appartengono all'area della cosiddetta Deduzione Automatica. L'ultima parte di questa tesi fornisce oltre ad una introduzione al linguaggio PROLOG anche una breve illustrazione del dimostratore automatico PTTP, che si configura come una sua estensione completa per il calcolo dei predicati.
Le ricerche nel campo dell'Intelligenza Artificiale applicata al Diritto hanno avuto fin dall'ini... more Le ricerche nel campo dell'Intelligenza Artificiale applicata al Diritto hanno avuto fin dall'inizio due motivazioni distinte, una di ordine pratico e una di ordine teorico. Le motivazioni pratiche si riconducono all'intento di costruire sistemi che offrano prestazioni giuridiche di alto livello e che possano essere d'ausilio alle diverse professioni giuridiche. Le motivazioni teoriche si riconducono, invece, all'intento di ottenere una comprensione analiticamente più rigorosa dell'attività giuridica a partire dalle tecniche e metodologie di AI (Artificial Intelligence) per la formalizzazione del linguaggio giuridico.
I sistemi esperti, intesi come modelli di comportamento intelligente, sono caratteristicamente sistemi "basati sulla conoscenza" (Knowledge Based Systems). In questi sistemi, la conoscenza viene esplicitamente rappresentata come un insieme di asserti dichiarativi che ne descrivono il dominio. Tale insieme costituisce la cosiddetta knowledge base e viene espresso in un linguaggio formale di alto livello. Nei sistemi basati sulla conoscenza l'attività "intelligente" della soluzione di problemi in un dato dominio di conoscenza viene svolta dal motore inferenziale (inferential engine), un Theorem Prover (dimostratore automatico di teoremi) in grado di compiere inferenze a partire dalla knowledge base. Tali sistemi sono sempre in grado di indicare le premesse e i passi inferenziali che conducono a una determinata conclusione, e ciò avviene tramite il sistema di interfacciamento (consultation interface) che permette l'utilizzo e la comunicazione con l'utente. Oltre a quella dell'utente, esiste un'altra figura che interagisce con il sistema, quella dell'ingegnere della conoscenza (knowledge engineer). Quest'ultimo, a differenza dell'utente che interagisce solo con l'interfaccia, agisce anche sulla knowledge base in vista della costruzione iniziale e del mantenimento della stessa. Osserviamo che le modifiche al sistema avvengono sempre e solo intervenendo sulla knowledge base e mai sull'inferential engine direttamente. Ciò, naturalmente, simula il comportamento intelligente, ovvero la capacità di assumere sempre nuove informazioni.
Esistono evidenti analogie tra i sistemi basati sulla conoscenza e i sistemi assiomatici. L'insieme degli assiomi è un analogo della knowledge base, le regole d'inferenza sono un analogo dell'inferential engine e le conseguenze logiche corrispondono alle risposte del sistema.
In questa tesi vengono progettati e implementati, all'interno dell'area dei Labelled Deductive Sistems, alcuni dimostratori automatici fornendo un contributo originale all'AI. I dimostratori qui presentati sono in grado di trattare/processare logiche mai precedentemente implementate, e quindi permettono se applicati a definiti domini di conoscenza di trarre conclusioni con modalità del tutto nuove. Ne mostreremo infatti alcune applicazioni al linguaggio giuridico.
In 1891 Cantor presented two proofs with the purpose to establish a general theorem that any set... more In 1891 Cantor presented two proofs with the purpose to establish a general theorem that any set can be replaced by a set of greater power. Cantor's power set theorem can be considered to be an extension of Cantor's 1891 second proof and its argument makes use of a well-known self-referring statement. In this article it is shown that, defining the relative complement of the self-referring statement, Cantor's power set theorem cannot be derived. Moreover, it is given a refutation of the first proof, the so-called Cantor's diagonal argument.
GULP-PRODE, 1995
In this paper, we describe a Prolog implementation of a new theorem prover for (normal propositio... more In this paper, we describe a Prolog implementation of a new theorem prover for (normal propositional) modal and multi--modal logics. The theorem prover, which is called $KEM$, arises from the combination of a classical refutation system which incorporates a restricted ("analytica") version of the cut rule with a label formalism which allows for a specialised logic--dependent unification algorithm. An essential feature of $KEM$ is that it yields a rather simple and efficient proof search procedure which offers many computational advantages over the usual tableau-based proof search methods. This is due partly to the use of linear 2--premise $\beta$ rules in place of the branching $\beta$ rules of the standard tableau method, and partly to the crucial role played by the analytic cut (the only branching rule) in eliminating redundancy from the search space. It turns out that $KEM$ method of proof search is not only computationally more efficient but also intuitivelly more natural than other (e.g. resolution-based) methods leading to simple and easy implementable procedures (two $KEM$ Theorem Prover-like systems have been implemented: an LPA interpreter on Macintosh, and a Quintus compiler on Sun-Sparcstation) which make it well suited for efficient automated proof search in modal logic.
ECAI Workshop on Artificial Normative Reasoning, 1994
Deontic logic (DL) is increasingly recognized as an indispensable tool in such application areas ... more Deontic logic (DL) is increasingly recognized as an indispensable tool in such application areas as formal representation of legal knowledge and reasoning, formal specification of computer systems and formal analysis of database integrity constraints. Despite this acknowledgement, there have been few attempts to provide computationally tractable inference mechanisms for DL. In this paper we shall be concerned with providing a computationally oriented proof method for standard DL (SDL), i.e., normal systems of modal logic with the usual possible-worlds semantics. Because of the natural and easily implementable style of proof construction it uses, this method seems particularly well-suited for applications in the AI and Law field, and though in the present version it works for SDL only, it forms an appropriate basis for developing efficient proof methods for more expressive and sophisticated extensions of SDL.
ICLP Workshop: Legal Application of Logic Programming, 1994
Deontic logic (DL) is increasingly recognized as an indispensable tool in such application areas ... more Deontic logic (DL) is increasingly recognized as an indispensable tool in such application areas as formal representation of legal knowledge and reasoning, formal specification of computer systems and formal analysis of database integrity constraints. Despite this acknowledgement, there have been few attempts to provide computationally tractable inference mechanisms for DL. In this paper we shall be concerned with providing a computationally oriented proof method for standard DL (SDL), i.e., normal systems of modal logic with the usual possible-worlds semantics. Because of the natural and easily implementable style of proof construction it uses, this method seems particularly well-suited for applications in the AI and Law field, and though in the present version it works for SDL only, it forms an appropriate basis for developing efficient proof methods for more expressive and sophisticated extensions of SDL.
KI-97: Advances in Artificial Intelligence - LNCS, 1997
Usually a default rule A : B/C is intended to mean that if A holds in a state of affairs a B is c... more Usually a default rule A : B/C is intended to mean that if A holds in a state of affairs a B is consistent, then C follows by default. However, C is not a necessary conclusion: different states of affairs are possible (conceivable). According to this view, Meyer and van der Hoek developed a multimodal logic, called S5P(n), for treating non-monotonic reasoning in a monotonic setting. In this paper we shall describe a proof search algorithm for S5P(n) which has been implemented as a Prolog Interpreter.
Conference Presentations by Paola Cattabriga
XXVII incontro di logica (AILA 2022) Caserta Italy, 2022
There are arguments, like the so-called Church’s and Tu ̈ring’s theorems, which limit the express... more There are arguments, like the so-called Church’s and Tu ̈ring’s theorems, which limit the expressive power of the first order calculus by asserting its undecidability. Taking any first order formula we cannot always decide whether it is true or false. An upstream idea underlies these arguments seeing like an impasse in the existence of formulas that are neither true nor false. See for example the well-known words “ ... there are propositions which are neither true nor false but indeterminate ”. As well-known indeterminacy led Lukasiewicz not only to reject the principle of bivalence and to introduce a third truth value, but also to the necessity of formalizing rejection. G ̈odel numbering is an arithmetization of syntax which codes provability as a primitive recursive predicate, Pf(x,v). All around this well-known recursive predicate are today widespread a multiplicity of researches and results in many areas of logic and AI. Not equally investigated is the refutability predicate defined by G ̈odel numbering within the same primitive recursive status. Rf(x,v) can be defined as a recursive predicate meaning that x is the G ̈odel number of a refutation in PA of the formula with G ̈odel number v. The logical investigation of the links between provability and refutability predicates when defined within the same recursive status seems to display another way out from the indeterminacy.
Uploads
Papers by Paola Cattabriga
mathematics are given, in terms of the theory of definition, on the basis
of the criterions of eliminability and
non-creativity. As a definition, Russell's antinomy is a violation of the criterion
of eliminability.
Following the path of the criterion of
non-creativity, this paper develops a new analysis of Comprehension schema
and, as a consequence, proof that Russell's
antinomy argumentation, despite the words of Frege himself, does not hold
in Grundgesetze der Arithmetik. According to Basic Law III, the class of
classes not belonging to themselves is a class
defined by a function which can not take as argument its own course of
value, in other words, the class of classes not belonging to themselves is a class
whose classes are not identical to the class itself.
Da tale esame si deduce che la non categoricità e l'indecidibilità del calcolo dei predicati del primo ordine, fanno sì che esso possa esprimere completamente soltanto l'aspetto deduttivo, dimostrativo delle teorie matematiche elementari. L'assiomatizzazione e la costituzione del calcolo in un sistema deduttivo completo, estremamente generale, non fornisce però alcun algoritmo applicativo universale, per determinare, a priori, se un qualunque teorema matematico è vero oppure no.
Nella prima parte di questa tesi si espongono i risultati più importanti degli studi classici intorno al problema dell'indecidibilità. I primi due capitoli riguardano i metodi e le dimostrazioni che permettono di determinare la decidibilità e l'indecidibilità delle teorie. Nel terzo capitolo si illustra la teoria della computabilità. Gli studi e le ricerche sulla computabilità si svilupparono in seguito alle dimostrazioni di indecidibilità del calcolo e dell'incompletezza dell'aritmetica, come un tentativo di precisare il concetto di algoritmo. Si costituì così una teoria che è un importante strumento di analisi di concetti fondamentali, anche sotto il profilo dell'odierna scienza di elaborazione e computazione delle informazioni. Nel quarto capitolo si espone una dimostrazione che delimita e riduce esattamente l'indecidibilità del calcolo a un ristretto numero di quantificatori. Tale dimostrazione è conclusiva rispetto a tutta un'area di ricerca e classificazione di formule decidibili del calcolo.
Nella seconda parte della tesi si parla della risoluzione delle formule, e della deduzione automatica con l'ausilio degli elaboratori mettendo in luce l'importanza della completezza dimostrativa del calcolo. L'indecidibilità del calcolo dei predicati può anche essere definita come segue: non è possibile creare un programma che ci dica se una formula qualunque del calcolo dei predicati è vera oppure no. Un programma è infatti sinonimo di algoritmo, e dalla sua definizione si ottiene un equivalente di funzione computabile. E' però possibile creare un programma che dica se una formula qualunque del calcolo è vera, anche se non cesserà mai di calcolare nel caso in cui la formula sia falsa. Oppure si possono creare programmi che terminano, sicuramente, e ci dicono per alcune formule se esse sono valide oppure no, ma che non possono però decidere la validità di altre formule.
Nella creazione di questi programmi si utilizzano le procedure di risoluzione delle formule. Lo sviluppo di tali metodi parte dalle dimostrazioni di Herbrand e di Skolem. In base ad esse è possibile ridurre le formule del calcolo dei predicati a formule proposizionali, anche se al prezzo della generazione di successioni infinite di enunciati. Non abbiamo una procedura effettiva per determinare se una formula predicativa è valida oppure no, abbiamo però una procedura effettiva per elencare le formule predicative valide. Nel quinto capitolo si espongono una dimostrazione del teorema di Herbrand e la una struttura interpretativa detta "universo di Herbrand". Su questa struttura si fondano i metodi di risoluzione , che vengono esposti nel sesto capitolo, e della
programmazione logica, di cui si parla invece nell'ultimo
capitolo. Lo sviluppo di questa seconda parte della tesi illustra risultati che appartengono all'area della cosiddetta Deduzione Automatica. L'ultima parte di questa tesi fornisce oltre ad una introduzione al linguaggio PROLOG anche una breve illustrazione del dimostratore automatico PTTP, che si configura come una sua estensione completa per il calcolo dei predicati.
I sistemi esperti, intesi come modelli di comportamento intelligente, sono caratteristicamente sistemi "basati sulla conoscenza" (Knowledge Based Systems). In questi sistemi, la conoscenza viene esplicitamente rappresentata come un insieme di asserti dichiarativi che ne descrivono il dominio. Tale insieme costituisce la cosiddetta knowledge base e viene espresso in un linguaggio formale di alto livello. Nei sistemi basati sulla conoscenza l'attività "intelligente" della soluzione di problemi in un dato dominio di conoscenza viene svolta dal motore inferenziale (inferential engine), un Theorem Prover (dimostratore automatico di teoremi) in grado di compiere inferenze a partire dalla knowledge base. Tali sistemi sono sempre in grado di indicare le premesse e i passi inferenziali che conducono a una determinata conclusione, e ciò avviene tramite il sistema di interfacciamento (consultation interface) che permette l'utilizzo e la comunicazione con l'utente. Oltre a quella dell'utente, esiste un'altra figura che interagisce con il sistema, quella dell'ingegnere della conoscenza (knowledge engineer). Quest'ultimo, a differenza dell'utente che interagisce solo con l'interfaccia, agisce anche sulla knowledge base in vista della costruzione iniziale e del mantenimento della stessa. Osserviamo che le modifiche al sistema avvengono sempre e solo intervenendo sulla knowledge base e mai sull'inferential engine direttamente. Ciò, naturalmente, simula il comportamento intelligente, ovvero la capacità di assumere sempre nuove informazioni.
Esistono evidenti analogie tra i sistemi basati sulla conoscenza e i sistemi assiomatici. L'insieme degli assiomi è un analogo della knowledge base, le regole d'inferenza sono un analogo dell'inferential engine e le conseguenze logiche corrispondono alle risposte del sistema.
In questa tesi vengono progettati e implementati, all'interno dell'area dei Labelled Deductive Sistems, alcuni dimostratori automatici fornendo un contributo originale all'AI. I dimostratori qui presentati sono in grado di trattare/processare logiche mai precedentemente implementate, e quindi permettono se applicati a definiti domini di conoscenza di trarre conclusioni con modalità del tutto nuove. Ne mostreremo infatti alcune applicazioni al linguaggio giuridico.
Conference Presentations by Paola Cattabriga
mathematics are given, in terms of the theory of definition, on the basis
of the criterions of eliminability and
non-creativity. As a definition, Russell's antinomy is a violation of the criterion
of eliminability.
Following the path of the criterion of
non-creativity, this paper develops a new analysis of Comprehension schema
and, as a consequence, proof that Russell's
antinomy argumentation, despite the words of Frege himself, does not hold
in Grundgesetze der Arithmetik. According to Basic Law III, the class of
classes not belonging to themselves is a class
defined by a function which can not take as argument its own course of
value, in other words, the class of classes not belonging to themselves is a class
whose classes are not identical to the class itself.
Da tale esame si deduce che la non categoricità e l'indecidibilità del calcolo dei predicati del primo ordine, fanno sì che esso possa esprimere completamente soltanto l'aspetto deduttivo, dimostrativo delle teorie matematiche elementari. L'assiomatizzazione e la costituzione del calcolo in un sistema deduttivo completo, estremamente generale, non fornisce però alcun algoritmo applicativo universale, per determinare, a priori, se un qualunque teorema matematico è vero oppure no.
Nella prima parte di questa tesi si espongono i risultati più importanti degli studi classici intorno al problema dell'indecidibilità. I primi due capitoli riguardano i metodi e le dimostrazioni che permettono di determinare la decidibilità e l'indecidibilità delle teorie. Nel terzo capitolo si illustra la teoria della computabilità. Gli studi e le ricerche sulla computabilità si svilupparono in seguito alle dimostrazioni di indecidibilità del calcolo e dell'incompletezza dell'aritmetica, come un tentativo di precisare il concetto di algoritmo. Si costituì così una teoria che è un importante strumento di analisi di concetti fondamentali, anche sotto il profilo dell'odierna scienza di elaborazione e computazione delle informazioni. Nel quarto capitolo si espone una dimostrazione che delimita e riduce esattamente l'indecidibilità del calcolo a un ristretto numero di quantificatori. Tale dimostrazione è conclusiva rispetto a tutta un'area di ricerca e classificazione di formule decidibili del calcolo.
Nella seconda parte della tesi si parla della risoluzione delle formule, e della deduzione automatica con l'ausilio degli elaboratori mettendo in luce l'importanza della completezza dimostrativa del calcolo. L'indecidibilità del calcolo dei predicati può anche essere definita come segue: non è possibile creare un programma che ci dica se una formula qualunque del calcolo dei predicati è vera oppure no. Un programma è infatti sinonimo di algoritmo, e dalla sua definizione si ottiene un equivalente di funzione computabile. E' però possibile creare un programma che dica se una formula qualunque del calcolo è vera, anche se non cesserà mai di calcolare nel caso in cui la formula sia falsa. Oppure si possono creare programmi che terminano, sicuramente, e ci dicono per alcune formule se esse sono valide oppure no, ma che non possono però decidere la validità di altre formule.
Nella creazione di questi programmi si utilizzano le procedure di risoluzione delle formule. Lo sviluppo di tali metodi parte dalle dimostrazioni di Herbrand e di Skolem. In base ad esse è possibile ridurre le formule del calcolo dei predicati a formule proposizionali, anche se al prezzo della generazione di successioni infinite di enunciati. Non abbiamo una procedura effettiva per determinare se una formula predicativa è valida oppure no, abbiamo però una procedura effettiva per elencare le formule predicative valide. Nel quinto capitolo si espongono una dimostrazione del teorema di Herbrand e la una struttura interpretativa detta "universo di Herbrand". Su questa struttura si fondano i metodi di risoluzione , che vengono esposti nel sesto capitolo, e della
programmazione logica, di cui si parla invece nell'ultimo
capitolo. Lo sviluppo di questa seconda parte della tesi illustra risultati che appartengono all'area della cosiddetta Deduzione Automatica. L'ultima parte di questa tesi fornisce oltre ad una introduzione al linguaggio PROLOG anche una breve illustrazione del dimostratore automatico PTTP, che si configura come una sua estensione completa per il calcolo dei predicati.
I sistemi esperti, intesi come modelli di comportamento intelligente, sono caratteristicamente sistemi "basati sulla conoscenza" (Knowledge Based Systems). In questi sistemi, la conoscenza viene esplicitamente rappresentata come un insieme di asserti dichiarativi che ne descrivono il dominio. Tale insieme costituisce la cosiddetta knowledge base e viene espresso in un linguaggio formale di alto livello. Nei sistemi basati sulla conoscenza l'attività "intelligente" della soluzione di problemi in un dato dominio di conoscenza viene svolta dal motore inferenziale (inferential engine), un Theorem Prover (dimostratore automatico di teoremi) in grado di compiere inferenze a partire dalla knowledge base. Tali sistemi sono sempre in grado di indicare le premesse e i passi inferenziali che conducono a una determinata conclusione, e ciò avviene tramite il sistema di interfacciamento (consultation interface) che permette l'utilizzo e la comunicazione con l'utente. Oltre a quella dell'utente, esiste un'altra figura che interagisce con il sistema, quella dell'ingegnere della conoscenza (knowledge engineer). Quest'ultimo, a differenza dell'utente che interagisce solo con l'interfaccia, agisce anche sulla knowledge base in vista della costruzione iniziale e del mantenimento della stessa. Osserviamo che le modifiche al sistema avvengono sempre e solo intervenendo sulla knowledge base e mai sull'inferential engine direttamente. Ciò, naturalmente, simula il comportamento intelligente, ovvero la capacità di assumere sempre nuove informazioni.
Esistono evidenti analogie tra i sistemi basati sulla conoscenza e i sistemi assiomatici. L'insieme degli assiomi è un analogo della knowledge base, le regole d'inferenza sono un analogo dell'inferential engine e le conseguenze logiche corrispondono alle risposte del sistema.
In questa tesi vengono progettati e implementati, all'interno dell'area dei Labelled Deductive Sistems, alcuni dimostratori automatici fornendo un contributo originale all'AI. I dimostratori qui presentati sono in grado di trattare/processare logiche mai precedentemente implementate, e quindi permettono se applicati a definiti domini di conoscenza di trarre conclusioni con modalità del tutto nuove. Ne mostreremo infatti alcune applicazioni al linguaggio giuridico.