SLIDES SPECIALISTICA 2012-2013
Cos'è la statistica? L'ontologia? La scienza computazionale?
La costituzione di una ontologia formalizzata costituisce l'ultimo e attuale episodio della tradizione di rigorizzazione del linguaggio ordinario tipica della filosofia analitica del Novecento. Essa si occupa di formalizzare tipi di oggetti e relazioni fra tipi che posseggono i requisiti logico-formali per essere manipolati (o computati) da programmi per computer e per essere, quindi, messi a confronto con dati statistici raccolti per mezzo di ricerche empiriche. Tutto ciò si svolge all'interno di modelli computazionali o simulazioni.
Filosofia analitica
| Statistica matematica
Logica formale (FOPC) |
Logica Matematica |
| Tecniche multivariate
Lambda Calcolo e linguaggi formali Tecniche di assegnazione
\ /
Modelli computazionali (Simulazioni)
Ontologie computazionali
Una ontologia formale o computazionale viene costruita per mezzo di quattro teorie fondamentali (Barry Smith) che appartengono al campo della filosofia e della logica di primo ordine:
Teoria della sostanza e degli accidenti (attributi o proprietà)
Teoria delle relazioni parte-tutto o mereologia (relazioni di parthood, sovrapposizione o disgiunzione mereologica)
Teoria della dipendenza ontologica (dipendenza rigida, generica, tipica, specifica, reciproca, monodirezionale)
Teoria dell'unità di un oggetto o topologia (operazione di chiusura di un oggetto considerato come intero; definizione di interno, bordo, connessioni topologiche).
Inoltre l'ontologia deve anche comprendere una metaontologia (Guarino), ossia un'analisi delle proprietà di certi tipi di proprietà.
Rinormalizzazione
Immaginiamo che il nostro sistema consista in un gruppo di punti-massa (la massa non è determinata) che si muovono nello spazio sviluppando una certa energia. Nella fisica classica un sistema come questo può essere descritto, in termini estremamente generali, da due equazioni fondamentali dette, dal nome dei loro creatori, "Lagrangiana" e "Hamiltoniana". In forma elementare, ciascuna delle due è il risultato di una diversa relazione fra due grandezze, l'energia cinetica (T) e l'energia potenziale (V).
Lagrangiana: L = T - V
Hamiltoniana: E = H = T + V
La QED è la teoria quantistica del campo elettromagnetico, ossia descrive le particelle che interagiscono fra loro attraverso la forza elettromagnetica [una delle quattro forze fondamentali della natura: elettromagnetismo, interazione nucleare debole, forte, interazione gravitazionale], quindi attraverso lo scambio di fotoni senza massa né carica.
All'inizio i suoi calcoli risultavano affidabili solo nel primo ordine, senza permettere delle variazioni di scala o perturbazioni. Ma inserendo particelle dotate di massa o carica elettrica, comparivano nelle equazioni lagrangiane e hamiltoniane della teoria quantità infinite che rendevano i calcoli impossibili. Sembrava esserci incompatibilità fra QED e relatività ristretta.
In seguito, venne messa in opera la procedura di rinormalizzazione.
La massa e la carica elettrica sono assunte come costanti fissate sperimentalmente e, in quanto tali, riassorbono in sé le grandezze infinite (che risultavano non integrabili ma adesso lo diventano) e consentono di sviluppare calcoli finiti. La rinormalizzazione gode di eccellenti confermesperimentali per la QED, che è adesso considerata un gioiello della fisica.
A wave function or wavefunction in quantum mechanics describes the quantum state of a particle and how it behaves. Typically, its values are complex numbers and, for a single particle, it is a function of space and time. The Schrödinger equation describes how the wave function evolves over time. The Schrödinger equation is mathematically a type of wave equation. This explains the name "wave function"The most common symbols for a wave function are ψ or Ψ (lower-case and capital psi).
Although ψ is a complex number, |ψ|2 is real corresponding by Max Born's proposal to the probability density of finding a particle in a given place at a given time, if the particle's position is to be measured. The SI units for ψ depend on the system. For one particle in three dimensions, its units are m–3/2. These unusual units are required so that an integral of |ψ|2 over a region of three-dimensional space is a unitless probability (i.e., the probability that the particle is in that region). The wave function is central to quantum mechanics, because it is a fundamental postulate of quantum mechanics. It is the source of the mysterious consequences and philosophical difficulties in the interpretations of quantum mechanics—topics that continue to be debated even today.
In quantum mechanics, the Schrödinger equation is a partial differential equation that describes how the quantum state of some physical system changes with time. [a partial differential equation (PDE) is a differential equation that contains unknown multivariable functions and their partial derivatives. (This is in contrast to ordinary differential equations, which deal with functions of a single variable and its derivatives.) PDEs are used to formulate problems involving functions of several variables, and are either solved by hand, or used to create a relevant computer model. PDEs find their generalisation in stochastic partial differential equations.]
In classical mechanics, the equation of motion is Newton's second law, and equivalent formulations are the Euler Lagrange equations and Hamilton's equations. All of these formulations are used to solve for the motion of a mechanical system and mathematically predict what the system will do at any time beyond the initial settings and configuration of the system. In quantum mechanics, the analogue of Newton's law is Schrödinger's equation for a quantum system. It is not a simple algebraic equation, but (in general) a linear partial differential equation. The differential equation describes the wave function of the system, also called the quantum state or state vector.
--------
In classical mechanics, a particle has, at every moment, an exact position and an exact momentum. These values change deterministically as the particle moves according to Newton's laws. In quantum mechanics, particles do not have exactly determined properties, and when they are measured, the result is randomly drawn from a probability distribution. The Schrödinger equation predicts what the probability distributions are, but fundamentally cannot predict the exact result of each measurement.
The Heisenberg uncertainty principle is the statement of the inherent measurement uncertainty in quantum mechanics. It states that the more precisely a particle's position is known, the less precisely its momentum is known, and vice versa.
The Schrödinger equation describes the (deterministic) evolution of the wave function of a particle. However, even if the wave function is known exactly, the result of a specific measurement on the wave function is uncertain.
------------------
STATISTICA
La Statistica ha due funzioni:
1) riassumere o sintetizzare (?) il contenuto di una certa quantità di informazioni relative a un certo dominio (?) [o oggetto (?)] per renderle utilizzabili; il dominio è chiamato "universo" o "popolazione" (!?)
2) poiché le informazioni relative disponibili riguardo a un dato universo sono limitate (si chiamano "campione"), la seconda funzione consiste nella ricerca di procedure affidabili per estendere attraverso induzione a tutto un universo le informazioni relative a un campione.
La statistica che adempie alla funzione 1) si chiama descrittiva, quella che adempie alla funzione 2) si chiama inferenziale.
Anche gli errori che vengono commessi nelle procedure di generalizzazione possono essere sottoposti ad analisi statistica.
L'induzione statistica è simile a quella esistente in filosofia e in matematica. Il progresso nei mezzi di conservazione e trasmissione dell'informazione giustifica la differenza fra, da una parte, induzione filosofica o matematica basata sull'astrazione o l'idealizzazione e, dall'altra, induzione statistica basata su elaborazoni matematiche di un campione di dati.
-----------------
Il problema della statistica riguarda la consistenza o lo statuto ontologico delle variabili tipizzate che essa sottopone a indagine. In parallelo al problema della statistica vediamo che il problema fondamentale dell'ontologia consiste nell definizione di "categorie", o "tipi" che costituiscano il "reticolo degli oggetti che popolano il nostro universo" (Valore pp- 8-9). Ma è un percorso difficile. Nei nostri ragionamenti di senso comune usiamo "insiemi" di oggetti (anche i domìni statistici sono insiemi) ed essi sono ordinamenti parziali, ossia non assicurano che tutte le relazioni riscontrabili fra i membri di un insieme esistano fra tutti i membri dell'insieme stesso (es.: tutti gli uomini sono animali razionali ma non tutti sono buoni). Lo stesso avviene fra i membri di domìni statistici.
Ad una prima approssimazione il problema potrebbe risolversi attraverso una "tassonomia gerarchica" che organizzi gli oggetti in gruppi e sottogruppi "ordinati in livelli di subordinazione progressiva" in modo tale che ogni gruppo fosse caratterizzato da un numero stabile di caratteristiche che ne identificassero i membri. Tali caratteristiche stabili diventerebbero "qualità essenziali" dei membri di un gruppo e, di conseguenza, il gruppo potrebbe configurarsi nell "tipo" reale di una categoria di oggetti. Da qui si determinerebbero in correlazioni intensionali e connessioni causali tipizzabili fra entità fisiche percepibili. Sarebbe il percorso ideale della scienza, così come avrebbe potuto concepirlo Aristotele, sulla base del suo isomorfismo metafisico fra soggetti di un'argomentazione logica e "sostanze" o entità del mondo naturale/fisico. Avremmo così "oggetti" ontologicamente consistenti. Ma tutto questo è un'idealizzazione, non corrisponde al faticoso procedere della scienza nel mondo reale.
[E' proprio la coscienza di queste difficoltà che, all'inizio del Novecento, ha condotto la statistica "multivariata" (Ricolfi, p. 4) a disinteressarsi della natura degli oggetti e limitarsi alle correlazioni quantitative (garantite dalla scienza matematica) fra variabili.]
La distanza fra percorso ideale e percorso reale della scienza comincia ad esser percepita con chiarezza all'inizio del Novecento, con il sorgere del neopositivismo logico. Ed è appunto attraverso l'approccio logico e linguistico all'analisi della conoscenza scientifica che si inizia a mettere in questione gli oggetti della scienza. Di che entità si tratta? Sono entità esistenti nella logica del senso comune e, quindi, trattabili nel linguaggio per mezzo della teoria del riferimento diretto—TRD ? Non è detto che sia così. La TRD si trova in difficoltà se le connessioni che si vogliono stabilire riguardano entità teoriche immaginarie (Pegaso), contraddittorie (il quadrato rotondo) o puramente plausibili appartenenti ai una certa teoria scientifica o a un modello. In questo ultimo caso, vi sono entità dall'esistenza fisica NON empiricamente constatabile o computabile (il bosone di Higgs, la radice quadrata di due) – quindi non trattabili attraverso una teoria del riferimento diretto. Le relazioni intensionali sono assai più difficili da stabilire, oppure non sono conosciute. Pertanto bisogna valutare il significato-riferimento di un termine nel contesto di un enunciato linguistico (Russell). E quali regole si applicano per decifrare i rapporti fra entità che hanno riferimento-significato dentro enunciati linguistici ??? Le regole della logica! Ecco che diventa essenziale l'uso della quantificazione che si chiarisce efficacemente attraverso l'uso del quadrato di opposizione.
Ma se non conosciamo esattamente il significato dei termini, il quadrato SQNAT non funziona. E' il caso del Bosone di Higgs.
Se guardiamo alla scienza attuale, se questo percorso non viene completato o almeno programmato abbiamo una più o meno ampia discrasia fra i "tipi" che costituiscono la struttura di un "modello computazionale" e i dati statistici che tale modello dovrà elaborare e che sono costituiti e codificati sulla base di ontologie – informali o variamente formalizzate, spesso soltanto "folk ontologies" – estrinseche rispetto al modello.
Una elaborazione ontologica appropriata permette l'upgrading di un modello in una ontologia. In pratica, un'ontologia ordina entità in maniera più complessa e articolata di quanto non riesca a fare la logica di primo ordine che abbiamo usato finora (cioè in maniera più penetrante di quanto non si possa fare per mezzo del quadrato di opposizione !!). Quindi la caratteristica fondamentale di un'ontologia computazionale è la costruzione esplicita (perché in una procedura algoritmica non c'è spazio per le assunzioni implicite che si insinuano nei ragionamenti eseguiti dal nostro cervello) di relazioni fra Knowledge-based data (dati costituenti un certo corpo di conoscenze) più numerose e precise di quanto non possano fare sia la logica classica che i modelli computazionali.
In ogni caso, la logica del primo ordine, benché poco potente e limitata NON è "fuori moda". Per due ottime ragioni pratiche:
1) è l'unico sistema formale completo che abbiamo (come dimostrato da Gödel, 1931);
2) è tuttora usata nella "high order logic", parte fondamentale delle architetture computazionali.
Il nostro problema è che occorre indagare su un rapporto a tre: statistica, logica, ontologia. Possono le questioni ontologiche essere risolte passando per una soluzione logica? La logica è solo la scienza dell'argomentazione non dell'essere o della verità. Quindi non può dimostrare l'esistenza di nulla, neppure nella sua attuale versione computazionale. E anche la statistica, che si basa su correlazioni logico-matematiche soffre dello stesso limite.
In sintesi la ricerca scientifica di frontiera non procede sotto un sistema unitario di regole, ma piuttosto con l'applicazione ciclica di regole settoriali: grosso modo, si parte da qualche folk ontology, la si rielabora per via di logica e statistica, si ottiene un'ontologia più articolata e si riparte di nuovo. In questo contesto, diversamente da come credevano Russell, Frege e i neo-empiristi, la logica NON ha valore fondativo. Ma essa serve a chiarire 1) che significa considerare un oggetto singolo come esistente e attribuiendogli un quantificatore esistenziale e 2) a che condizioni si possono usare i concetti astratti (universali) e quindi far precedere una variabile da un quantificatore universale.
Cominciamo quindi con l'analisi del quadrato di opposizione.
Nella logica proposizionale si trattano i rapporti fra enunciati riuniti in una argomentazione e si considerano i cararatteri dell'intera argomentazione sulla base dei suoi enunciati costituenti. Se A e B sono vere C è vera. Se mangi troppo cibo avrai maldi stomaco. Nella logica quantificata e nel quadrato di opposizione si esaminano i rapporti fra insiemi o classi. Le lettere usate rappresentano classi. Se è vero che tutti i c sono b, ciò significa: 1) che tutti i c formano la classe C e tutti i b formano la classe B; 2) che le due classi coincidono. Se poi aggiungiamo che x appartiene a C, visto che C e B coincidono, possiamo dire che x appartiene a B. La deduzione che abbiamo potuto eseguire non dipende dalla verità o falsità deglie enunciati esaminati ma dall'uso dei quantificatori e delle nozioni di "classe" o "insieme".
Quindi Il quadrato di opposizione costituisce un pacchetto di relazioni logiche fra tipi di enunciati, universali e particolari, positivi e negativi. Attorno a questo pacchetto si è sviluppato quel frammento di scienza logica che può esser chiamato "deduzione naturale", logica classica o, meglio ancora, "First Order Logic" (FOL), logica del primo ordine. Un utilissimo elenco sintetico dei simboli della logica del primo ordine può si trova a p. 49, nota 4, del testo di P. Valore. Le relazioni della logica della logica del primo ordine sono poche ma essenziali e permettono di comprendere realisticamente il potere della logica.
Il quadrato di opposizione dà un'immagine efficace della FOL.
Esso permette di comprendere:
quali sono le conseguenze dell'uso di entità che non possiedono piena 'solidità' logica. Vi sono diversi tipi di entità che sono oggetto possibile di relazioni logiche:
entità ben certe e stabili nella percezione del senso comune, dotate di un "riferimento diretto" (vedi TRD) come il tavolo;
entità dotate di proprietà certamente vere in virtù del significato del loro nome, come gli "scapoli" che certamente non sono sposati.
Ma vi sono anche molte entità problematiche dal punto di vista della logica:
entità (auto)contraddittorie come il "quadrato rotondo" che hanno un grado zero di solidità
entità non contraddittorie ma inesistenti come l' "unicorno" o l' "attuale re di Francia";
entità problematiche come il Bosone di Higgs, la radice quadrata di 2, il gas ideale, etc. In questo settore si collocano solitamente gli oggetti delle ricerche scientifiche;
quali sono le conseguenze dell'uso dei quantificatori universali e singolari
che cosa vuol dire falsificare o negare una proposizione.
In sintesi
================
Quel che la logica moderna ci permette di fare è analizzare accuratamente enunciati di senso comune espressi in un linguaggio naturale (LNAT) evitando incongruenze come
L'attuale re di Francia è calvo
L'unicorno è rosa
Essa fa ciò attraverso una scrittura simbolica diversa da LNAT, attraverso un linguaggio logico (LLOG) capace di dispiegare maggiore capacità analitica di LNAT.
Insomma, se vogliamo raggiungere il nostro scopo e capire lo slogan di Quine "essere è il valore di una variabile", dobbiamo capire la differenza fra LNAT e LLOG, tradurre enunciati da LNAT a LLOG e vedere che LLOG contiene informazioni del tutto assenti in LNAT (e tuttavia non ancora sufficienti a comporre una ontologia, ossia a operare attribuzioni di esistenza, assumendo un impegno ontologico).
Lo facciamo attraverso SQUARE, il quadrato d'opposizione.
Vediamo prima SQUARE espresso in LNAT, come viene fuori dalla tradizione aristotelica e poi in una moderna formulazione che fa apparire il ruolo delle variabili e dunque comincia appunto a trattare le entità come variabili, secondo il suggerimento di Quine.
Valore pp. 46-48; 48-54
Quindi, SQUARE permette ad Aristotele di tenere in ordine i rapposti fra proposizioni universali, singolari, affermative e negative ed eseguire inferenze sillogistiche fra esse, grazie all'isomorfismo metafisico secondo il quale le "sostanze" della logica esistono solo perché ad esse corrispondono sempre sostanze fisiche. Questo isomorfismo giustificherebbe la teoria del riferimento diretto, TRD. Ma esso non ci permette di trattare entità che danno luogo a un insieme vuoto come l'unicorno o, quel che è peggio, con entità instabili come potrebbe essere una entità teorica oggetto di un'investigazione scientifica/statistica (bosone di Higgs).
Per esempio, nelle importantissime subcontrarie, se il soggetto S è l'unicorno - o qualsiasi entità non fisicamente certa - non si verifica la regola che esse non possono essere entrambe false. E quindi viene disattivato il principio del terzo escluso, principio fondamentale della logica aristotelica e della logica del primo ordine, che si regge sul fatto che le due subcontrarie non possono essere entrambe false e una delle due deve esser vera (comunque possono essere entrambe vere, ma adesso questo non è rilevante).
Da ciò concludiamo che LNAT non possiede una simbologia adeguata. Tale simbologia è stata elaborata nella logica moderna ed è la QUANTIFICAZIONE, quella che ci permette di avere LLOG.
Vediamo quindi come funziona SQUARE in LLOG (lo chiamiamo SQLOG).
In SQLOG la copula "è" viene scritta o espressa in due modi diversi, a seconda che si tratti di un enunciato universale o singolare. Differenza importante! Nel primo caso è espressa come implicazione nel secondo come congiunzione. Bisogna anche notare l'apparizione della x. Essa è una variabile, cioè "qualcosa" che deve poter veramente essere qualsiasi cosa e quindi non una cosa precisa, né un cane, né un unicorno, né altro. Se quindi scrivessimo la proposizione A come una congiunzione,∀x (Px&Qx), non diremmo che una certa cosa x se è P è sempre anche Q, ma piuttosto che tutte le cose se sono P sono anche Q. Ciò non è quel che volevamo dire e neppure è vero!
In SQUARENAT non c'è questo problema perché Aristotele - grazie al suo isomorfismo - usava de facto la teoria del riferimento diretto, ovvero non usava variabili ma esemplificava, per mezzo di entità che apparivano comunque nel loro pieno valore semantico, un "uomo", un "mortale" o altro. La variabile, invece, allorché compare nella scrittura simbolica di LLOG, non ha ancora nessun valore semantico. Quindi non ha neppure una esistenza reale ma solo ipotetica. E' una variabile logica, un simbolo formale, un "placeholder" (vedi Ricolfi, p. 49) che deve poter rappresentare qualsiasi oggetto in una sequenza argomentativa. Quindi la formula con quantificatore universale viene espressa in forma ipotetica: ∀ x (Px → Qx). Essa dice che per tutte le x, se x è P allora è anche Q. Ma ciò è vero solo nell'ipotesi che x esista e che sia P. Altrimenti non è vero. Insomma, allorché si usa una variabile invece che un esempio reale, emerge il fatto che la variabile esiste ipoteticamente. Quindi il simbolo da usare è il condizionale, →, che per sua natura è una connessione ipotetica, "se ... allora", non una congiunzione esistenziale.
E tuttavia vediamo [Valore, cap. 7°] che lo status ipotetico delle proposizioni universali in SQLOG porta chiarezza e coerenza ma ci costa la possibilità di amministrare logicamente contrarietà, subcontrarietà e subalternità. Ci resta solo la contraddittorietà perché le contraddittorie non possono essere né entrambe vere né entrambe false e quindi denunciano - come si vede immaginando un esempio qualsiasi - una incoerenza puramente logica, che vale anche per proposizioni e relazioni ipotetiche, e quindi sia per entità reali che irreali. Infine, la logica non può dirci se le cose esistono veramente ma solo se certi enunciati sono contraddittori. Pertanto, possiamo usare gli universali solo in forma ipotetica ed essi danno luogo a inferenze logicamente affidabili solo se li supportiamo con una presupposizione esistenziale o un impegno ontologico che la logica da sola non ci può dare. (Pensiamo a Kant -- Valore pp. 69, 224).
Ciò richiederà una ulteriore operazione, quella nella quale si esegue l'interpretazione semantica della formula argomentativa, cioè si dà un valore oggettivo, esistenziale, alla variabile x e se ne controllano le implicazioni. Insomma, la logica non può decretare la realtà ontologica (effettiva) degli oggetti semantici che vengono associati a una formula valida (fase della "interpretazione" della formula). Può solo guidarci, fornendo delle regole argomentative generali, necessarie ma non sufficienti per eseguire tale processo di interpretazione semantica che, poiché consiste nella scelta degli "elementi non logici" della formula, oggetti reali, è un processo informale. Può aiutarci nel processo di "circoscrizione" o definizione delle classi (o dei tipi) che usiamo nei procedimenti di calcolo, anche statistico e nei modelli computazionali; nell'eseguire il passaggio da un predicato a una proprietà, a una variabile statistica e infine a quantificare i valori possibili di tale variabile.
Questo processo di interpretazione semantica coincide con quello che Quine chiamava impegno ontologico: "essere è il valore di una variabile", diceva Quine:
"Penso che accettare un'ontologia sia simile, in linea di principio, ad accettare una teoria scientifica, per esempio un sistema fisico. [...] Nella misura, quale che sia, in cui si può dire che accettare un qualunque sistema di teoria scientifica è una questione di linguaggio, lo stesso - ma non di più - si può dire dell'accettazione di un'ontologia." (Da un punto di vista logico, 2004, p. 30)
"In generale, entità di un dato tipo sono assunte da una teoria se e solo se alcune di queste devono essere incluse tra i valori delle variabili affinchè le asserzioni della teoria siano vere. [...] Ogni asserzione contenente una variabile può essere tradotta in base a regole note, in un'asserzione in cui la variabile è usata solamente nei contesti della quantificazione." (ibidem, pp. 130-131)
Quindi, l'impegno ontologico consiste nell'usare la logica, la statistica e infine le scienze naturali per dare contenuto reale a entità astratte, classi, variabili predicati. Consiste nel trasformare una variabile x nell' oggetto di una scienza particolare.
Quindi, per fare ciò dovremo sviluppare interazioni ripetute fra ontologia, conoscenza sperimentale e computazione statistica. In effetti, le tecniche statistiche definiscono l'esistenza di variabili attraverso "tecniche di assegnazione" (vedi Ricolfi pp. 6, 46-49) che assegnano dei valori di probabilità a una serie di stati di una entità e quindi trasformano l'entità stessa (un essere particolare o un concetto???) nel "valore di una variabile".
Ma dobbiamo comunque tener ferma l'utilità della logica e della quantificazione.
I quantificatori furono introdotti fra la fine dell'Ottocento e l'inizio del Novecento con Peirce, Frege, Russell, principalmente. La loro introduzione è legata alla formalizzazione della teoria degli insiemi, operata da Cantor nella seconda metà dell'Ottocento. La quantificazione comporta grandi vantaggi quando è usata insieme alle variabili, come normalmente avviene nella logica matematica. In poche parole, i quantificatori ci permettono di usare e tenere sotto controllo la struttura ontologica del mondo, così come l'abbiamo costruita, e quindi ci aiutano a esplicitare il nostro "impegno ontologico".
Tale struttura consiste in una gerarchia di entità (Valore, 81 e ss.). Sul piano base di tale gerarchia stanno entità (o "sostanze") individuali. Sul primo piano stanno "concetti", costruiti per astrazione a partire dalle caratteristiche delle entità individuali. Questi sono concetti di primo ordine. Sui piani successivi stanno concetti di secondo, terzo, etc., ordine, costruiti per astrazione a partire dalle caratteristiche dei concetti di primo ordine. Esempio: da Socrate, Platone Aristotele (entità individuali) si passa all'uomo (concetto di 1° ord.) poi ai mammiferi (conc. 2° ordine) poi ai vertebrati (conc. di 3° ord.) e via di seguito. Ogni concetto può essere predicato delle entità individuali o concettuali che stanno sotto di esso; queste ultime assumono rispetto ad esso il ruolo di "oggetti". I concetti di ordine più alto sono chiamati "categorie", come ai tempi di Aristotele. Ogni concetto costituisce un insieme. Ogni oggetto fa parte dell'insieme costituito dal concetto di ordine a lui superiore.
A questo punto sorge un problema. Ogni oggetto, di qualsiasi livello, è sovrastato da diversi concetti di livello più alto. E' come se avesse sopra di sè una struttura ramificata, ad albero, e quindi sono molti i "nodi" concettuali che lo sovrastano. Possiamo dire che ad esso possono essere attribuiti, come predicati o proprietà, tutti i concetti che lo sovrastano? Evidentemente no. Se prendiamo tre individui, un gatto un uomo e una scimmia, sappiamo che tutti e tre godono delle proprietà "mammifero" e "vertebrato" ma il gatto non gode della proprietà di essere "bipede" di cui godono gli altri due. Come accertare se un oggetto gode di una determinata proprietà, rappresentata da un concetto di ordine a lui non immediatamente superiore ? Questo è compito della ricerca scientifica. Le ontologie computazionali servono a risolvere questo problema creando relazioni domain-theoretic. VVV
La logica della quantificazione aiuta a orientarsi nel problema di attribuire un predicato o una proprietà [attenzione: adesso non facciamo differenza fra predicato e proprietà, ma nella statistica questa differenza è importante ! ] ad un oggetto. Come fa? Lo fa descrivendo questo processo in astratto, attraverso regole logiche che sono, nel nostro caso, quelle della predicazione intracategoriale (vedi Valore pp. 89-91) e della quantificazione. E' su tali regole che si basa il sillogismo "categorico" del tipo più noto (tutti gli uomini sono mortali, Socrate è un uomo, Socrate è mortale) che permette di attribuire ad un entità individuale le proprietà dei concetti di livello superiore, se essi fanno parte di una stessa categoria (Valore, 97, punto 5) ). Altrimenti la translazione delle proprietà non può applicarsi (come nel caso seguente: il libro è bianco, bianco è un colore, il libro è un colore.
ATTENZIONE:
tutte le regole di cui abbiamo parlato, logica proposizionale e quantificazione valgono all'interno di una certa categoria cioè di una certa classe di entità. Le entità e gli eventi sono distinti e raggruppati appunto in "generi", chiamati "categorie", "tipi" o "taxa" inclusi in "tassonomie".
Non si tratta esattamente delle categorie di Aristotele. Le categorie che si usano adesso nelle ontologie computazionali hanno un valore ontologico che dipende dalla efficienza computazionale della loro organizzazione sistematica. Non hanno un valore ontologico pieno, né possiamo credere in un realismo ontologico (Valore cap. XII; in particolare pp. 110 e 112). Solo le categorie di livello più elevato possono essere considerate realistiche. Solo poche fra esse sono considerate "generi naturali", ossia categorie che possono essere usate senza alcuna restrizione di spazio o di tempo (vedi Valore p. 82 e poi cap. XIV).
Ma una descrizione scientifica del mondo deve anche poter considerare il problema della predicazione intercategoriale e per questo tipicamente ricorrerà alle relazioni di causazione, per problematiche che esse siano.
Ma ciò è ancora prematuro.
Bisogna prima comprendere anche che la classificazione prelude all'operazione di ulteriore analisi che è la MISURAZIONE. Si può anche dire che la classificazione è il punto minimo o il punto zero di una misurazione, e che classificazione e misurazione stanno fra loro in un rapporto di continuità, all'interno di un contesto. Esse sono entrambe delle scale per manipolare e distinguere variabili. A questo punto le variabili diventano, da pure variabili logiche, variabili statistiche. E occorre affrontare il problema delle tecniche di misurazione statistica ovvero, come si dice, scegliere un "tipo di scala" (vedi più sotto e Ricolfi, cap. II)
Resta, sullo sfondo, da definire il problema dei concetti astratti e delle entità su cui si opera la quantificazione (Valore 211, 215 e ss.)
Il quantificatore ha per oggetto sempre individui, (Valore 211), dice sempre "esiste un individuo" oppure"tutti gli individui". Ma possono essere anche concetti usati in forma di individui (vedi tuttavia Frege, più sotto). Anche quando dicesse "tutte le classi di 15 individui sono divisibili in 3 classi di 5 individui", l'oggetto della quantificazione sarebbe l'individuo "classe di 15 individui".
Dobbiamo, inoltre, tener presente che non sempre si può dare per scontato di conoscere esattamente il livello di generalità di una variabile. Negli esempi si scelgono livelli di generalità ben conosciuti ma nella ricerca scientifica ciò non solo non è scontato ma anzi di solito non avviene.
Analysis of data è definita da Wikipedia "the process of inspecting, cleaning, transforming, and modeling data with the goal of highlighting useful information, suggesting conclusions, and supporting decision making."
Il modo in cui si costituisce una classe può essere rappresentato dalla
IDENTITA' DEGLI INDISCERNIBILI
vedi: - Valore 53-54; 210-234; in particolare p. 233
- Quine, La logica e la reificazione degli universali
Vediamo che Quine definisce così il suo criterio di impegno ontologico (Log. Reificaz. 130):
"In generale, entità di un dato tipo sono assunte da una teoria se e solo se alcune di queste devono essere incluse tra i valori delle variabili affinché le asserzioni della teoria siano vere"
Un quantificatore è un operatore anch'esso ma, invece che relazioni fra enunciati (come ¬, ∧, ∨, →, ↔), indica relazioni fra insiemi designati da termini di classe (uomini, mortali etc.), cioè da concetti, "sostanze seconde" che possono fungere sia da soggetti sia da predicati in una argomentazione (Valore pp. 88-91, § 11.1) Se ricordiamo che Frege non era convinto dell'esistenza di tali concetti (perché credeva a una rigida distinzioni fra oggetti e concetti -- vedi Valore, p. 91) ci rendiamo conto che proprio questo è il passaggio difficile.
Dovremo risolverlo usando due strumenti logici:
il quantificatore, appunto, e la
"identità degli indiscernibili".
Del quantificatore abbiamo già visto il modus operandi.
Per quanto riguarda l'identità degli indiscernibili, esso è uno strumento operativo della logica che risale a Leibniz e si ricollega al principio opposto della indiscernibilità degli identitci. Da sempre, l'identità è il requisito per essere un'entità: "Nessuna entità senza identità", dice Quine.
Quindi, il principio dell'identità degli indiscernibili serve a definire l'identità, ovvero le caratteristiche specifiche che entità singole devono tutte possedere per far parte di una classe. Definire tale identità in termini di "filosofia prima" (come identità completa e su un infinito numero di predicati) risulta praticamente impossibile (vedi le difficoltà in Valore, pp. 229-231). E' questa la ragione [insuperabile!] per cui gli insiemi sono ordinamenti parziali. Bisogna quindi definire l'identità su una selezione di predicati rilevanti (Valore p. 232 -- si pensi alla "rilevanza statistica" di cui parleremo subito) mediante l'identificazione di un contesto di discorso e di un linguaggio adatti all'obiettivo scientifico che ci interessa o, più concretamente, al contesto scientifico nel quale ci muoviamo.
Esempi:
1) definizione del concetto di e di una data "classe di reddito" in economia o sociologia:
identifico i membri potenziali della classe sulla base di un unico predicato "avere lo stesso reddito".
Attenzione: per farlo devo usare le tecniche statistiche! E anche il background conoscitivo della/e scienza/e in questione (economia, sociologia, etc.) che ci consente di definire una rete (traducibile in un "grafo") di dipendenze causali rilevanti. Queste saranno poi utili a stabilire appunto dei rapporti di rilevanza statistica. Ciò significa che le dipendenza causali espresse genericamente saranno definite più precisamente attribuendo loro dei tassi di probabilità. Saranno cioè trasformate da variabili statiche in variabili aleatorie (random variables; random walks) -- vedi Ricolfi, p. 49.
Tutto questo processo viene eseguito manipolando i predicati attraverso sofisticate tecniche matematico-statistiche che li trasformano in proprietà, come si diceva all'inizio del nostro percorso. Tali tecniche devono servirsi della quantificazione logica delineata sopra. Attraverso la manipolazione matematico-statistica le dipendenze causali tratte dal background conoscitivo di una scienza mostrano caratteristiche e correlazioni prima non (chiaramente) visibili. In tal modo diventano variabili statistiche.
vedi Ricolfi cap. I, in part. pp. 38-51 e, in parallelo, Valore pp. 225 e 233
2) Tornando alla logica degli indiscernibili, vediamo il processo di base attraverso il quale si costruisce una classe di entità identiche e la scrittura simbolica attraverso cui esso può essere realizzato.
Si prende un gruppo di oggetti ("referenti", in linguaggio statistico -- nel nostro caso persone con lo stesso reddito) e li si considera non nella loro totale complessità ma piuttosto soltanto come possessori di una selezione di caratteristiche rilevanti nella prospettiva scientifica (economica e sociologica) che vogliamo adottare. A questo punto, tali referenti, dato che possiedono tutti la stessa/e caratteristica/che, risultano di fatto non distinguibili, indiscernibili, uguali. Costituiscono una classe omogenea.
Quindi, se dobbiamo analizzarli ulteriormente, o manipolarli possiano prenderli non uno a uno ma come membri della classe che costituiscono. Possiamo usare la loro classe come una (un simbolo di) variabile nelle notazioni simboliche.
Vediamo un secondo esempio. Selezioniamo oggetti (x,y,z) solo sotto la proprietà della lunghezza (L). Assumiamo che Lxy significa che x è più lungo di y. Se verifichiamo che è falso che x sia più lungo di y e congiuntamente che è falso che y sia più lungo di x, possiamo scrivere: ¬ Lxy v ¬ Lxy. A questo punto x e y sono di fatto indiscernibili, uguali.
Possiamo qundi riscriverli come simboli di classi interponendo un segno nuovo rispetto alla normale logica proposizionale, introdotto grazie a questa procedura: "=". Abbiamo quindi x=y!
Lxy
¬ Lxy v ¬ Lxy
∀x∀y: x= y
L'ultima stringa che abbiamo scritto sancisce il fatto che, rendendo uguali una serie di oggetti, abbiamo costituito delle classi.
Attenzione: questa azione ci riporta subito alla statistica. Infatti in statistica esiste una operazione detta clustering, che consiste nel riunire oggetti simili e metterli assieme in un ammasso (cluster). Quando gli oggetti sono uguali il cluster costituisce una classe. Quindi, il clustering statistico costituisce, di fatto, una classificazione, cioè la creazione di una variabile categoriale. Ricolfi (pag. 7) afferma che "costruire variabili categoriali significa generare qualche tipo di classificazione degli oggetti di partenza".
Insomma, la creazione di classi di oggetti indiscernibili ci ha messo dinnanzi proprio il concetto di variabile categoriale della statistica. La logica, attraverso due suoi fondamentali procedimenti (quantificazione e identità degli indiscernibili) ci ha permesso di ricostruire il concetto più semplice di variabile statistica, la variabile categoriale!
Per le variabili scalari (ordinali e cardinali) invece, la logica non basta. Occorre la matematica.
================
In logica:
Essere è essere il valore di una variabile (Quine)
Per avere una esatta comprensione filosofica di questa posizione occorre considerare una delle più gravi difficoltà incontrate dalla filosofia del linguaggio e dalla filosofia della scienza neo-empiriste.
Tale difficoltà riguardava la teoria del riferimento diretto, TRD (vedi Valore, pp. 65 ss.) per cui ogni entità che compare in un enunciato descrittivo deve poter essere riferita a un'entità ontologicamente esistente. Tale teoria incontra problemi insuperabili (Valore, 215 ss.) nei casi di descrizioni improprie [le descrizioni di "entità teoriche", oggetti tipici di una teoria scientifica, appaiono spesso improprie rispetto al senso comune] come la proposizione
1) L'attuale re di Francia è calvo
Se consideriamo la 1) all'interno della teoria del riferimento diretto, dobbiamo assumere che il suo contrario è vero alla luce del principio di non contraddizione ¬ (A ∧ ¬A) e del terzo escluso (A ∨ ¬A). Noi invece sappiamo che anche il contrario di 1)
2) L'attuale re di Francia NON è calvo
è falsa.
Il problema nasce dalla teoria del riferimento diretto, per cui abbiamo bisogno che esista realmente un "Attuale re di Francia" per costruire una proposizione sensata che lo abbia come soggetto.
SOLUZIONE:
eliminiamo la TRD e la sostituiamo con la teoria per cui i singoli termini non hanno un significato o riferimento diretto. Piuttosto hanno significato solo le proposizioni in cui i termini figurano come variabili.
Se facciamo ciò, la 1) si presenta come una proposizione logicamente composta da tre proposizioni
"a) un uomo è attualmente re di Francia b) ed è calvo e c) nessun'altro è attualmente re di Francia". In simboli, se
x è un uomo
y è un uomo
p è la proprietà "re di FR"
q è la proprietà "essere calvo"
la 1) diventa
∃x (px ∧ ∀y (py → x=y) ∧ qx)
e la negazione di 1) non è 2) ossia x ¬q, ma piuttosto "non esiste un uomo che sia attualmente re di Francia o ne esiste più di uno o l'attuale re di Francia non è calvo". Infine quindi, a stretto rigor di logica, la negazione di 1) non è 2) ma, in simboli
∀x (¬ px ∨ ∃y (py ∧ x≠y) ∨ ¬ qx)
Quindi, abbiamo visto che x, ossia "l'attuale re di Francia" prende esattamente il suo senso solo all'interno di una accurata codificazione logica delle proposizioni in cui compare, non in base all'idea pregiudiziale che abbia un preciso riferimento diretto e logicamente definito. X non è un'entità ontologicamente definità ma un termine all'interno di formule logiche.
Quindi confermiamo che: Essere è essere il valore di una variabile
(libera o vincolata)
In teoria della computabilità e dell'informazione:
Un dato è un oggetto o evento codificato.
Un dato "è riducibile a una mancanza di uniformità ... a una differenza ... all'interno di un contesto linguistico. ... Un dato è un'entità relazionale" (Floridi, Stanford Encyclopaedia. voce "Semantic Information")
I dati sono "rappresentazioni stilizzate" ossia "codificate" all'interno di una famiglia di simboli o stilizzazioni detta "codice". (Ricolfi, p. 73-74)
I dati possono essere codificati sia con simboli linguistici (nella definizione logica delle proprietà) che con simboli numerici (nella definizione quantitativa delle variabili).
La scienza trasforma oggetti del senso comune in oggetti scientifici, ovvero in dati. [Problema ontologico e filosofico: NOMINALISMO???]
In statistica:
Una variabile è una proprietà (un predicato) messa in matrice (Ricolfi, 26, 4), in una matrice di dati. [cos'è un dato???]
Una matrice è uno spazio vettoriale di dimensione n*m, righe x colonne.
Una matrice è il prodotto di due insiemi.
Il concetto di VETTORE e le dimensioni dell'analisi
Un vettore è un elemento di uno spazio vettoriale costituito da una ennupla (x1 ...xn) di numeri. Se lo spazio vettoriale ha dimensione finita, ogni vettore può essere descritto in questo modo, dopo aver fissato una base dello spazio.
Uno spazio vettoriale è una struttura algebrica ossia una struttura sistematica di relazioni e regole che non si identificano necessariamente con le relazioni e le regole dello spazio fisico per mezzo del quale intuitivamente lo definiamo. E', dunque, più esattamente un sistema concettuale che contiene regole di composizione e trasformazione di dati o variabili (intese come proprietà ed eventi).
Gli oggetti logici (mattoni) dell'analisi dei dati
1) referente entità singola; oppure multipla, ovvero composta da una molteplicità di elementi o insieme di predicati (k-pla di elementi)
2) predicato espressione che 1) può applicarsi a un insieme di referenti possibili o universo di discorso (Ricolfi 27) e 2) in concreto si applica o no a un sottoinsieme di referenti o dominio del predicato. Ossia, il predicato è vero o falso per ogni referente che ricade nel suo universo. Quindi, per mezzo dell'universo e del dominio, si definisce il valore di verità del predicato (28).
Ricolfi definisce il predicato un "mattone dell'analisi dei dati".
Cominciamo quindi a capire che l'applicazione di un predicato a un referente avviene secondo regole. Il numero di tali regole cresce storicamente. Si parte dalla logica aristotelica basata su un privilegio della percezione sensibile e un conseguente isomorfismo metafisico fra la logica e la realtà, entrambe fatte di sostanze e attributi. Poi occorre passare per Frege e le sue controverse e incomplete conquiste in tema di logica su senso, denotazione, oggetto, concetto, funzione. Infatti, un predicato non si usa come un attributo ("bello", "saggio") o un "concetto insaturo" fregeano. Riprendendo la logica binaria di Boole, si richiede, quantomeno, che sia considerato insieme al suo opposto per applicarlo a un dominio pertinente.
La logica del primo ordine e la teoria degli insiemi (logica matematica), disciplinando accuratamente la quantificazione, hanno incrementato il numero delle regole e permettono di determinare estensionalmente tale dominio pertinente e/o il valore di verità di un enunciato che assegna il predicato a un referente. Tutto ciò serve a garantire sempre meglio la coerenza di un sistema linguistico - che comunque non può essere garantita in maniera integrale.
Fin qui la logica classica.
La statistica ha esigenze diverse e ulteriori. Si pone l'ulteriore obiettivo di determinare probabilisticamente - non solo alla luce di principi di coerenza logico-linguistici e matematici ma anche alla luce di fattori causali - il valore di verità di un enunciato che applica un predicato a un referente.
3) proprietà è un predicato collocato all'interno di una lista sistematica di altri predicati, la quale possiede i requisiti formali di
1) mutua esclusività o disgiunzione (nessun elemento del dominio può soddisfare contemporaneamente due proprietà)
2) esaustività (qualsiasi elemento del dominio soddisfa almeno una proprietà)
3) sistematicità.
La sistematicità comporta che la lista possiede una articolazione interna, costituisce un sistema che permette di rilevare equivalenze e differenze fra i predicati presenti in essa, in modo tale che essi appaiano come stati (o situazioni) possibili di un soggetto/i o referente/i. A questo punto, il predicato costituisce ciò che in data analysis si chiama proprietà (vedi Ricolfi, pp. 32-33). Quindi, la data analysis comincia con un insieme effettivo di assegnazioni di proprietà a un referente su un dominio di stati (Ricolfi, p. 38)
4) variabile quando un sistema di proprietà può essere codificato quantitativamente, per mezzo di una scala, in una serie di stati collocati su uno spazio metrico abbiamo la trasformazione di una proprietà in variabile. Questo è il processo chiamato definizione operativa di una variabile (essa mette in matrice le proprietà, come si diceva in Ricolfi, p. 26). Quindi, la def. operativa è costituita dal complesso di regole, tecniche e convenzioni che stabiliscono come una variabile venga rilevata e costruita (Ricolfi: 38-51). In base a quanto appena detto, occorre specificare:
1) lista o sistema degli stati (detti "modalità") su cui una proprietà può essere rilevata e costruita
2) una stringa di caratteri per la codificazione di ogni modalità
3) insieme di procedure per assegnare una e una sola modalità a ogni referente.
*******
Passiamo adesso all'ontologia formale, per capire quale possa essere la natura e la consistenza filosofica di referenti, predicati e proprietà e per dare un significato allo slogan di Quine.
*******
Attributo ➞ Predicato ➞ Proprietà
RUOLO DELLA LOGICA
Una volta che abbiamo assunto che i termini di un sistema linguistico hanno significato all'interno di un enunciato, dobbiamo considerare accuratamente i rapporti fra logica, ontologia e statistica. Mettiamo adesso a fuoco principalmente il ruolo della logica.
Essa serve da sempre e in generale a risolvere il problema della confusione nel discorso
vedere p. 27 (citaz. di Sokal) e p. 46, Valore
Ma per quanto attiene al nostro problema specifico, ossia ontologia e statistica, dobbiamo vederlo in una doppia prospettiva: essa ci è utile per definire l'origine del percorso che vogliamo compiere dall'ontologia alla statistica, verso la definizione delle entità come valori di una variabile; ma non è sufficiente a raggiungere la conclusione.
Infatti, la logica moderna non è una scienza globale, come fu per Aristotele. Non condivide oggetti ("sostanze" e attributi) con la fisica, metafisica e l'ontologia.
La logica moderna è la "scienza dell'argomentazione", si occupa del discorso, e quindi non è decisiva in questioni ontologiche perché, come vedremo, NON ci permette di eseguire attribuzioni di esistenza, ovvero di concludere che qualcosa esiste legittimamente nell'ambito di tassonomie ontologiche e/o di teorie scientifiche.
Ciò richiederà un "impegno ontologico", come vedremo fra poco.
Insomma, la crescita della analisi statistica e computazionale fa traballare l'empirismo logico della tradizionale filosofia della scienza. La logica perde capacità di decisione, resta capace solo di definire la coerenza interna di una argomentazione o di un sistema formale.
Infatti, nel quadrato di opposizione sopravvive solo il rapporto di contraddittorietà. Subalternità, contrarietà e subcontrarietà dipendono dall'impegno ontologico, non dalla logica stessa, e quindi ritornano in campo radicali interrogativi di tipo kantiano (pp. 69 e 223), assenti in Russell, per esempio. In altre parole, ritornano i dubbi su cosa si possa dire che "esiste" e si introduce un nuovo concetto di esistenza, ossia esistenza* (203, 224), intesa come esistenza attuale ed empiricamente constatabile.
Come definire l'impegno ontologico e l'esistenza* ?
La logica non può farlo. Resta in campo soltanto un mix di ontologia e statistica. Ma non è una risposta chiara, piuttosto soltanto l'affermazione di una via ancora da percorrere prima che si arrivi in fondo.
Tecniche di Assegnazione
Se la logica è lo studio dell'argomentazione - o della struttura del ragionamento razionale (?) - essa ci offre mezzi indiretti, non direttamente operativi, per comprendere determinati processi scientifici. Per es., ci aiuta a comprendere il ridimensionamento della statistica classica multivariata e quantitativa ad opera del nuovo e più ampio tipo di statistica chiamato "analisi dei dati" (Ricolfi 132-33; 137-38; 142-44). La nuova statistica, attenta al "linguaggio degli oggetti" e alle "tecniche di assegnazione" che l'analisi multivariata/quantitativa non aveva praticato. Essa si basano sul fatto che un'analisi statistica non consiste solo nel raffigurare certe correlazioni fra variabili attraverso tecniche matematico-quantitative, ma soprattutto nel costrure varibili non manifeste e correlazioni fra esse. E' ciò che si chiama "experiment design".
Il passo più problematico – ma filosoficamente interessante – del disegno di un esperimento statistico consiste nel passaggio dalle tecniche multivariate a quelle di assegnazione. Ricolfi lo delinea in tre fasi:
apparizione di tecniche multivariate ibride si definiscono tali perché oltre all’analisi multivariata contengono un “passo di assegnazione” ossia di costruzione effettiva di una variabile.
apparizione di tecniche multivariate costitutivamente ibride contengono il passo di assegnazione come componente non accessoria ma costitutiva della soluzione, ossia della definizione di un bersaglio finale.
nascita delle tecniche di assegnazione il cui scopo consiste nell’assegnare agli oggetti – in una in una matrice OxO – determinati stati su una proprietà osservabile.
Quindi, l'ontologia e la logica, come discipline che studiano i rapporti qualitativi fra entità e proprietà (si pensi al quadrato di opposizione) offrono modelli di ordinamento (logica) e di costruzione (ontologia) fondamentali alle analisi statistiche che, appunto, raffigurano le proprietà come variabili.
****
SIGNIFICATI DEL TERMINE "VARIABILE"
In statistica, ci si occupa di definire relazioni fra proposizioni teoriche, ipotesi empiriche, misurazioni e modelli matematici. Come facciamo a rendere operativa la proposizione teorica "Lo status sociale influenza i pregiudizi razziali" ? Evidentemente, le proposizioni teoriche devono essere tradotte in ipotesi empiriche affinché siano passibili di misurazioni statistiche (deve, cioè, essere elaborata una "definizione operativa"). Se poi i principi logico-matematici di misurazione danno luogo a oggetti e metodi generalizzabili ad altri casi e contesti, possiamo dire che le misurazioni statistiche hanno generato un modello matematico (esempio: un modello econometrico per analisi del PIL di uno stato). Quest'ultima tappa non è facile da raggiungere. Ciò perché tali rapporti sono problematici e non esistono regole di tipo logico-deduttivo per articolarli. Occorre quindi compiere delle scelte, la cui efficacia è valutabile soltanto a-posteriori, cioè dopo 1) aver eseguito una certa analisi, 2) averla corretta e migliorata con l'impiego di nuovi dati e 3) forse nuove tecniche e, infine, 4) aver ottenuto i risultati dei test.
La costruzione di una definizione operativa passa quindi per varie tappe che prevedono la costruzione di diversi tipi di variabili che corrispondono a diversi tipi di scale.
Quindi, una scala o una tecnica di scaling consiste nelle operazioni logico-matematiche che identificano un certo tipo di variabile. In altre parole, una variabile può essere identificata per mezzo di:
classificazione → riunita in classi composte da variabili che condividono una certa caretteristica
ordinamento → distinta dalle altre variabili che condividono la caratteristica in misura maggiore o minore ma senza precisa quantificazione
misurazione di intervalli → distinta da altre variabili che condividono la caratteristica, con una quantificazione delle differenze nel possesso della caratteristica per mezzo id intervalli metrici convenzionali
misurazione di rapporti → distinta da altre variabili che condividono la caratteristica, con una quantificazione delle differenze nel possesso della caratteristica per mezzo di intervalli metrici calcolati a partire da un punto zero assoluto
TIPI DI VARIABILI
(Ricolfi, 48-51)
variabile logica → simbolo che appare in una espressione logica o matematica per designare una famiglia o insieme di entità caratterizzate solo dalla appartenenza al suddetto insieme
variabile classica (statistica descrittiva) → categoriale / ordinale / cardinale
variabile aleatoria (probabilità)
variabile latente effettiva (statistica inferenziale) → " " "
variabile latente virtuale (postulata, non analizzata)
variabile fuzzy
TIPI DI VARIABILI STATISTICHE
La differenza dipende dalle operazioni matematiche/logiche applicabili ai valori di ogni tipo di variabile, cioè dalla scala sulla quale la variabile può essere misurata [vedi: Ricolfi, cap. II, Tipi di scala]. L'applicazione di operazioni o scale più complesse produce ovviamente trasformazioni dei dati e, in caso di successo, risultati scientificamente più interessanti.
Variabili nominali o categoriali → la proprietà presenta valori (stringhe di caratteri numerici identificativi) discreti NON ordinabili e non computabili (es. nazionalità: italiano=21, francese = 43, inglese =17 ....). L'unica operazione applicabile è "=". Tali variabili sono oggetti di semplice classificazione o clustering (vedi sotto) e tale operazione deve essere eseguita rispettando i criteri di esclusività, esaustività e univocità (di cui abbiamo detto più sopra).
Ma anche in relazione alle varibili nominali si possono fare misurazioni: contare gruppi e sottogruppi e definire proporzioni o percentuali fra essi.
Fra le var. categoriali abbiamo le dummy variables, o variabili dicotomiche (scapoli/sposati).
Variabili ordinali → la proprietà presenta valori discreti ordinabili e il valore assegnato riflette una relazione d'ordine. Le operazioni consentite sono "=", ">", "<". (es.: titoli di studio classificati con punteggi ordinati: elementare 1, medio 2, superiore 3, laurea 4 ....). La relazione d'ordine è simmetrica (se a=b, allora b=a) e transitiva (se a=b e b=c, allora a=c).
Variabili cardinali → la proprietà presenta valori discreti numerabili o continui e comunque pienamente computabili. Operazioni consentite "=", ">", "<", "+", "−", "x", ":". Es. reddito monetario di persone.
Le variabili cardinali costituiscono "scale a intervalli", dotate di un criterio di misura degli intervalli e anche "scale di rapporti", se dotate di un punto zero non arbitrario.
Ovviamente, spesso non è possibile descrivere eventi attraverso variabili cardinali che offrono spazio a computazioni ed elaborazioni statistiche. Possono esserci proprietà continue per le quali non abbiamo un'unità di misura (esempio: (livello) povertà). Oppure proprietà non immediatamente suscettibili di definizione operativa. In tal caso, per la loro operativizzazione si ricorre a INDICATORI, ovvero a variabili poste a un livello di generalità minore ma suscettibili di definizione operativa.
La tendenza della statistica classica è proprio quella di riportare le variabili categoriali a variabili cardinali sottostanti che sono misurabili e fungono da indicatori. Tra le proprietà più generali e gli indicatori (più specifici) esiste un RAPPORTO D’INDICAZIONE o di RAPPRESENTANZA SEMANTICA (rappresentazione del significato). Es.: delinquenza giovanile definita attraverso indicatori come reati commessi, livelli di istruzione etc.
Dall'analisi combinata di diversi indicatori posti su diverse matrici può essere elaborato un indice della proprietà, ossia un valore su una scala di misurazione. Per ogni fenomeno o variabile categoriale devono essere definite delle dimensioni rilevanti e ricercati degli indicatori atti a rappresentarle. Bisogna poi dare una definizione operativa degli indicatori.
La mereologia è una dei metodi ontologici che possono servire a identificare indicatori rappresentativi, interpretandoli anzitutto come parti di un tutto. La relazione parte/tutto è certamente conciliabile con le tecniche di regressione della statistica inferenziale. Dopo ciò nascono i problemi. Come interpretare la relazione parte tutto?? Come quella membro/insieme? Come quella accidente/sostanza? Varzi esamina queste e altre ipotesi. Il modo in cui essa viene interpretata la rende utilizzabile a fianco di certe o di certe altre tecniche statistiche.
Che tipi di variabili esistono?
L'analisi fattoriale e la statistica trattano di correlazioni fra variabili manifeste intese come "covariazioni senza causazione". Ciò significa che non includono fra i loro oggetti le cause di queste correlazioni. Queste, pertanto, mantengono uno statuto ipotetico e sono considerate variabili latenti. Tali variabili possono essere:
effettive costruite attraverso tecniche di assegnazione e poste in matrice, comunque come ipotetiche
virtuali semplicemente postulate (pp. 5 e 9).
L'idea pura e semplice di variabile latente virtuale ci fa comprendere che la statistica inevitabilmente tratta entità non pienamente definite (delinquenza giovanile; livello di povertà; reddito nazionale e reddito pro-capite; processo di espressione di un gene). E quindi suscita problemi ontologici ma. soprattutto un problema scientifico: tentare di trasformare variabili "categoriali" in variabili "cardinali" [vedi sotto].
Il problema filosofico e ontologico può essere posto richiamandosi alle opposte posizioni di due filosofi della prima stagione neo-empirista, Russell e Meinong. Russell credeva che il nostro linguaggio si riferisse in maniera imprecisa e indeterminata a un mondo che invece esiste in maniera precisa e determinata; Meinong invece pensava che le strutture interne degli oggetti (mereologia --> rapporto parti-tutto, vedi Valore pp. 131 e ss.) e i confini fra essi fossero indeterminati e tali da impedire alle nostre asserzioni di avere valore univoco e oggettivo.
La posizione di Meinong è stata negli studi recenti di ontologia riattualizzata da una distinzione fra essere ed esistere* (vedi Valore: 202-203). Gli oggetti che esistono* posseggono l'esistenza materiale e percepibile nel nostro mondo empirico. Oggetti come l'Unicorno o il quadrato rotondo "non esistono*" ma "sono" in qualche modo, non sono attuali ma possono esistere in uno o più mondi possibili.
Questo ci permette di usare in logica e ontologia oggetti come l' "unicorno" o l' "attuale re di Francia" e di trattare in statistica variabili virtuali (o computazionali).
La statistica resta comunque, prima di tutto, un insieme di procedure di decisione per affrontare l'incertezza nella ricerca scientifica.
"[C]he cosa fa di un giornale una singola entità piuttosto che un certo numero di fogli di carta separati, che cosa distingue il mal di testa di stamattina da quello di ieri, che cosa significa che il Microsoft Word per il PC è lo stesso di quello per il Mac ?" (p, VII)
"L'essenza del formalismo. l'idea che le cose possano essere tagliate col coltello, con nettezza, senza regioni intermedie. [...] La formalità non è essa stessa una proprietà formale. E' piuttosto una posizione preliminare o un atteggiamento" (p. 324)
da: Brian Cantwell Smith [professore di Computer Science e Filosofia, Indiana University] On the Origin of Objects, MIT Press, 1998
Modi di rappresentazione delle variabili (Ricolfi, 43-44, 74, 79)
può farsi 1) in forma disgiuntiva completa o 2) in forma compressa.
1) La variabile può essere rappresentata in forma disgiuntiva completa in una matrice referenti per modalità: la matrice ha in entrata un insieme di referenti e in uscita il valore di verità di una modalità.
Esempio: la matrice riguarda l'uso di stupefacenti (uscita); sulle righe sono elencati i membri di un dominio (es.: giovani residenti al quartiere suburbano "La scogliera"); sulle colonne i valori di verità (fanno o non fanno uso di ...). Poi, si rifà lo stesso lavoro con altre caratteristiche dei membri del dominio (es.: provenire da famiglie con genitori separati). Ci si può fermare qui. Oppure, ed è il caso più significativo,
2) alla fine del processo di costruzione della matrice, si computano tutti i valori di verità ottenuti e si sintetizzano, codificano, comprimono in un'unica variabile i cui valori di stato (modalità) vengono collegati a una scala numerica e si ottiene uno score, ossia un valore di stato quantificato su una proprietà, che è il risultato della matrice. Se la variabile-risultato (variabile compressa) è, nel nostro esempio, "attuare comportamenti illegali" si quantifica tale attività con un numero che diventa l'indice di delinquenza associato a un soggetto.
Quindi, la compressione consiste nel rappresentare una variabile x in una matrice di valori di stato (modalità) di un'altra variabile, y, costruita (codificata, stilizzata) per quello specifico scopo analitico. In tale stilizzazione estrema la variabile x è rappresentata nelle colonne della matrice con un codice numerico.
La statistica non rispecchia la realtà?
In effetti, le elaborazioni statistiche sono il risultato di una serie di stipulazioni (stilizzazioni) lontane dalla realtà percepita dal senso comune. Ma il senso comune serve a conservare conoscenze "mature" non a reperire conoscenze scientifiche nuove e progressive. Quindi, elaborazioni statistiche che servono a raggiungere un progresso scientifico potranno meglio essere controintuitive piuttosto che conformi alle percezioni del senso comune.
TIPI DI SCALA
Ricolfi, cap II
I tipi di scala ("tecniche di scaling") definiscono la struttura logico-matematica di una variabile. Essi 1) costituiscono quella che avevamo chiamato la lista sistematica degli "stati" di una proprietà 2) in funzione delle operazioni di calcolo ammissibili che - come sappiamo - trasformano la proprietà stessa in variabile (vedi pp. 33 e 39). In altre parole, un tipo di scala identifica le variabili accettabili in una statistica e i gruppi di trasformazioni possibili sulle variabili stesse.
Perché si parla di trasformazioni "ammissibili"? Da una parte si tratta di rigorizzare le elaborazioni statistiche, di prevedere calcoli che siano diretti a uno scopo epistemico condiviso e non nascano da un arbitrio del ricercatore, insinuatosi in qualche fase della procedura di costituzione delle variabili. Le diffidenze di Fisher nei confronti delle tecniche non standard e la sua insistenza su tecniche matematiche che garantissero affidabilità (trasparenza e ricostruibilità) alle procedure sistematiche di analisi nascevano proprio da questo pericolo.
Ma, d'altra parte, non si tratta solo di fissare ciò che è o non è consentito ma anche di vedere ciò che è più o meno utile a conseguire risultati accettabili. La statistica ha bisogno anche di tecniche non-standard e procedure di elaboraborazione di dati che permettano di affrontare i casi più complessi o i campi di analisi più irregolari e meno ordinati (casi fuori-scala e/o insiemi non ergodici). E' in questo contesto che, sotto la spinta di nuove esigenze della ricerca scientifica, si fa strada la "rivoluzione empirista" (Ricolfi, pp. 150-158) e si costituisce un quadro in cui tecniche di elaborazione più incisive "massaggiano" i dati.
In questo contesto abbiamo avvicinato l'ontologia alla statistica.
Dobbiamo - quindi - vedere come le tecniche statistico-matematiche
a) rispondano a canoni di rigore scientifico;
b) siano abbastanza potenti rispetto all'obiettivo scientifico/statistico che si vuole conseguire.
La teoria dei tipi di scala si occupa di questi due problemi.
Vediamo dapprima la questione del rigore e dell'ammissibilità. Poi ci occuperemo dei diversi tipi di scala adatti a specifici obiettivi (Ricolfi 58).
a) Quindi, bisogna prima definire quali siano le trasformazioni ammissibili su un insieme di dati. Gli studiosi hanno definito delle caratteristiche qualificanti: tali trasformazioni devono:
formare un gruppo (Stevens)
conservare il dominio di una variabile (Stevens, Luce)
conservare i punti speciali (ancore) del dominio (Luce)
(vedi Ricolfi cap. II, in part. pp. 53-62)
Gli strumenti teorici utili a definire l'insieme delle trasformazioni ammissibili sono la logica matematica e soprattutto la geometria analitica, quando le variabili sono raffigurate per mezzo di curve su un piano cartesiano. Quest'ultimo è un caso assai frequente, pertanto assumiamolo come esempio.
CURVE, PARAMETRI, SCALE
Una VARIABILE riferita a un DOMINIO di referenti è rappresentata per mezzo di una CURVA (geometria analitica), definita da due PARAMETRI: m media; s, deviazione standard.
Parametro. In statistica, il parametro (θ) è un valore che definisce una caratteristica relativamente costante di una funzione o di un insieme di dati. Relativamente significa che il parametro ha uno status intermedio tra quello di una variabile e di una costante. È una grandezza che esprime quindi una caratteristica strutturale dell'insieme di dati ed attraverso la quale è dunque possibile descriverne i processi o avviarne la modellizzazione. La variazione del parametro permette di esplorare varie possibilità descrittive, adeguandole ai processi reali dell'insieme indagato (da Wikipedia)
Le curve normali sono definite tali perché la varianza (la deviazione standard dei dati) s è minore della media m; le CURVE NON NORMALI sono definite tali perché la varianza (s) è maggiore della media m. Il problema riguarda proprio le curve non normali: un'alta deviazione o dispersione dei dati li rende poco significativi e difficilmente interpretabili, oltreché passibili di errore. L'analisi statistica tende perciò ad avvicinarli alla media, a normalizzarli, a renderli più omogenei. Ricordiamo che l'omogeneità di un insieme di dati statistici (ergodicità) ne aumenta la trasmissibilità e l'informatività.
NORMALIZZAZIONE STATISTICA
TRASFORMAZIONI: servono a stabilizzare la varianza o a sintetizzare diversi elementi di varianza (diverse curve).
GRUPPO DI TRASFORMAZIONI AMMISSIBILI
Una forma o una figura - una curva, nel nostro caso - può essere spostata nello spazio o, meglio, in un diagramma cartesiano. Le trasformazioni algebricamente interessanti e statisticamente ammissibili sono quelle in cui la forma della figura - ovvero le relazioni fra le sue parti - viene mantenuta, ossia le trasformazioni dette simmetriche. Le famiglie di trasformazioni che possono applicarsi a un dominio lasciandolo inalterato sono dette
gruppi di simmetria. Da un punto di vista algebrico e analitico, occorre dire che le trasformazioni simmetriche, affinché sia mantenuta la forma, devono essere:
biunivoche (reversibili, in cui è possibile tornare allo stato di partenza senza perdere informazione)
chiuse sotto l'operazione del prodotto, ovvero il prodotto di due moltiplicazioni produce un risultato anch'esso simmetrico. In altre parole, occorre che, date due trasformazioni simmetriche, sia possibile trovarne una terza che produce un risultato simmetrico, ossia equivalente alla successione (prodotto) delle prime due. L'esponentazione NON è simmetrica come mostra la figura 1.1. Infatti, se 1) usiamo le variabili x e y per contrassegnare i punti che delimitano un quadrato, ditinguendo i punti stessi con indici numerati sulle due assi del grafico e poi 2) eleviamo al quadrato gli indici riportando i numeri ottenuti sul grafico stesso, vediamo che posizionando i punti sulla base delle nuove coordinate il quadrato è stato deformato, ossia la sua forma (e l'informazione in essa contenuta) non è stata conservata. Appunto, l'elevazione a potenza ha introdotto una asimmetria nella riproduzione del quadrato.
Per un altro esempio, vedi Ricolfi 57
Invece la funzione g nella figura 1.2, più sotto, si limita a trasportare il segmento tracciato sotto l'asse intermedia del grafico, nel territorio dei numeri negativi. Ma non altera la forma del segmento stesso e quindi costituisce una trasformazione simmetrica.
b) Le tecniche di scaling stanno in un rapporto gerarchico l'una rispetto all'altra. Quelle più potenti, o di livello più elevato, permettono un maggior numero di operazioni di calcolo e includono oltre alle operazioni specifiche del livello stesso anche quelle possibili nelle tecniche di livello inferiori. Correlativamente, le variabili misurate tramite tecniche di livello più elevato sono anch'esse di livello elevato, nel senso che sono il risultato di più accurate misurazioni e offrono maggiore informazione sui loro referenti.
Ricolfi riporta (p. 58) i tipi di scala più diffusi nelle analisi standard:
scale nominali,
scale ordinali,
scale di intervalli,
scale di rapporti.
Vediamo meglio. Le scale nominali e ordinali corrispondono alle variabili categoriali e ordinali e dunque sappiamo già quali sono i loro limiti.
Consideriamo allora la differenza fra scale "di intervalli" e scale "di rapporti". Entrambe definiscono variabili cardinali e permettono di misurare la distanza fra le modalità (o i valori) di una variabile. Ma c'è una differenza: le scale di intervalli non hanno un punto-zero assoluto e quindi i loro valori possono essere sommati e sottratti ma non moltiplicati o divisi. Pensiamo alla scala delle temperature. Trenta gradi centigradi sono più di 10. Ma non possiamo dire che 30° risultino tre volte più caldi di 10°, visto che 0 gradi centigradi non sono lo zero assoluto. Invece, nelle scale di rapporti esiste un punto-zero assoluto. In una scala di lunghezze possiamo dire che 30 cm. sono tre volte 10 cm. E possiamo eseguire somma, sottrazione, moltiplicazione e divisione.
Ovviamente tutti questi esempi sono assai semplici e non danno un'idea adeguata della molteplicità e complessità delle operazioni avanzate di calcolo statistico, soprattutto di quelle non-standard. Di esse possiamo avere qualche nozione se pensiamo alla complessità delle misurazioni probabilistiche eseguite nell'analisi genomica del secondo esempio riportato sotto.
Formula fondamentale per l'analisi dei dati
(Ricolfi, 14-19)
Esistono varie tecniche di analisi statistica:
multivariate: descrizione, spiegazione, interpretazione;
di assegnazione: classificazione, ordinamento, misurazione
ibride
Lo scopo di tutte queste tecniche è quello di ottenere una rappresentazione più efficiente dei dati grazie alla scoperta (o costruzione) di regolarità interne che possano essere usate come premesse per decidere di accettare o rigettare un'ipotesi. Le procedure di decisione o di verifica sperimentale di una ipotesi o teoria sono tutte delle "regression analysis" e consistono nell'uso di equazioni matematiche che definiscono i rapporti fra una variabile indipendente X (regressor, input, predictor, explanatory variable, effetto) e una variabile dipendente Y (regressand, output, explanandum, causa) per stimare o prevedere il valore di ciascuna delle due variabili attraverso le informazioni fornite dalla misurazione dell'altra. In teoria dell'informazione, queste informazioni si chiamano "mutual information", "informazione reciproca". In pratica, si tratta di stimare i valori di Y a partire da valori conosciuti di X e, in una seconda fase, di rappresentare più efficacemente X attraverso la nuova struttura matematica ottenuta tramite Y. Questo processo di adattamento si chiama regressione di Y su X. Esempio tipico: la trasformazione di un pulviscolo di punti sparsi su un diagramma cartesiano in una curva, la cui posizione e pendenza è ricavata da quei punti attraverso il calcolo di una media, con il metodo dei minimi quadrati. (vedi grafico, qui sotto)
Ma questo è un caso assai semplice. Le analisi statistiche più avanzate richiedono la costruzione di molte matrici coordinate e l'uso di diverse tecniche, applicate agli stessi oggetti in fasi diverse e ripetute dell'indagine. Un esempio di ciò è costituito dalle analisi di stringhe genetiche, mostrata estesamente più sotto. La "stilizzazione" dei dati (Ricolfi, 73) diventa una stratificazione di tecniche (impiegate in differenti fasi dell'analisi, come è tipico della statistica) ed è chiamata "architettura".
Possiamo anche considerare quanto detto sopra da un altro punto di vista:
lo scopo delle generalizzazioni statistiche è l'analisi di un certo universo di discorso/popolazione/dominio sulla base di fatti conosciuti in merito a un campione tratto dal dominio. L'universo è definito tramite parametri che - si ipotizza - determinano i valori delle variabili. Le ipotesi che sono alla base del nesso fra parametri e variabili sono quindi oggetto della verifica statistica.
Le analisi statistiche sono esperimenti diretti alla verifica di ipotesi. Quindi vanno organizzati e valutati in parte secondo le regole generali degli esperimenti eseguiti per la verifica di ipotesi, che prevedono la definizione anticipata
delle procedure per raccogliere i dati
dei possibili risultati dell'esperimento statistico
dei risultati che determineranno il rigetto o l'accettazione dell'ipotesi.
Ma — data la natura particolare dell'esperimento statistico, che NON consiste nel provocare e constatare eventi fattuali (come negli esperimenti di laboratorio) e consiste, invece, nell'eseguire calcoli matematici su eventi già precedentemente stilizzati in forma di dati — bisogna specificare ulteriormente le regole suddette:
a) i dati devono essere posti rigorosamente in forma operativa con definizione dei procedimenti di campionamento e di elaborazione matematica;
b) devono esser decisi prima dell'esperimento i tassi di probabilità dei falsificatori potenziali [rivedere la nozione di falsificatore potenziale in Popper] dell'ipotesi che ci condurrebbero a respingerla.
Le diverse tecniche matematiche di elaborazione statistica dei dati (vedi più sotto la distinzione fra tecniche a bersaglio fisso e tecniche a bersaglio mobile) possono essere sintetizzare in una formula fondamentale per l'analisi dei dati, che non è una formula matematica ma, piuttosto, una meta-formula logica, uno schema che sintetizza i rapporti fra le fasi componenti una complessa procedura di analisi statistica:
m(X) = Y ≅ Ŷ = r(N;S)
Prima di spiegare la struttura logica della formula, ricordiamo che essa va letta come una sequenza di operazioni successive: abbiamo due linee di flusso, entrambe convergenti su Y
m(X) → Y
↓ ↑
r(N;S) → Ŷ
Le due operazioni convergenti mirano a definire la natura del bersaglio (output) "Y" attraverso due fasi successive di elaborazione statistica dei dati, come normalmente avviene in questa disciplina. Quindi, sia m(X) sia r(N,S) porteranno per vie diverse ma interdipendenti alla definizione ottimale del risultato o bersaglio "Y" (regressand, output, explanandum, causa).
Prima fase: m è una elaborazione, formalizzazione operativa (vedi più sopra, regola a) ) o trasformazione tecnica minimale dei dati grezzi, costituiti dall'input (X). Essa determinerà una prima rappresentazione del bersaglio Y [m(X)=Y] attraverso una matrice di dati OxV. Nella seconda fase, l'input X viene nuovamente rielaborato attraverso una più complessa formula di ricostituzione r (quella che appare sul lato destro dell'equazione). Questa consiste in manipolazioni applicate al nucleo N, costituito dagli oggetti O della matrice di input minimo, ma ridefiniti alla luce, per es., di eventuali elementi fuori-scala (vedi più sotto; e Ricolfi, 151), da trattare separatamente e re-immettere all'interno di Ŷ per mezzo di una specifica trasformazione tecnica. Questa tecnica è il supporto, s, e ovviamente finisce per modificare la codificazione dei dati appartenenti al nucleo N. Ciò produce nuove variabili V, che costituiscono la trasformazione intermedia di X chiamata Ŷ. In pratica, Ŷ è chiamato "bersaglio riprodotto", è approssimativamente uguale (≅) al bersaglio Y e verrà trasformato in esso con ulteriori operazioni di elaborazione statistica (post-statistical processing), o adattamento (fit). Le due diverse fasi di elaborazione costituiscono un confronto comparativo, un procedimento di rigorizzazione crescente tipico della statistica che ci permette di avere una immagine affidabile del bersaglio Y attraverso un procedimento di correzione.
Insomma la formula riportata qui sopra va vista come una doppia convergenza verso il centro: la tecnica m e la formula r, servono a elaborare due volte (o più di due) i dati X e ottenere il bersaglio finale Y attraverso il bersaglio riprodotto Ŷ.
Quanto sono incisive tali trasformazioni? Usano tecniche derivate dal senso comune e da una analisi matematica standard, oppure usano tecniche appositamente costruite (taylored) per l'indagine in corso? Questa seconda ipotesi riguarda ovviamente i casi complessi, ossia quelli in cui i dati si presentano tanto poco omogenei da richiedere di essere trattati con tecniche differenti a seconda della loro scala.
Vediamo le due ipotesi possibili:
a) Tecniche a bersaglio fisso (Schemi) X = Y ≅ Ŷ = r(N)
Nelle tecniche a bersaglio fisso m(X) = X. Ovvero X non viene modificato e quindi X=Y.
Questo è appunto il caso più semplice, quello in cui il bersaglio Y può essere scomposto/scisso nella matrice intermedia Ŷ più le deviazioni e gli errori standard D che possono essere trattati con tecniche di calcolo già esistenti in precedenza, non specificamente elaborate all'interno della tecnica che stiamo considerando. Abbiamo allora semplicemente uno "schema" (p. 19):
Y = Ŷ+D
Ma vi sono anche le
b) Tecniche a bersaglio mobile (o "Modelli") m(X) = Y ≅ Ŷ = r(N;S)
Y = Ỹ + D N= N|L
Abbiamo già parlato più sopra di queste tecniche, la cui caratteristica principale consiste nell'aggiungere alla tecnica minima m alcune tecniche di supporto S, che comportano una ulteriore elaborazione dei dati. Tale elaborazione NON è eseguita con tecniche matematiche standard ma con tecniche appositamente elaborate, tagliate su misura per il caso specifico. E' questo il campo delle tecniche "a bersaglio mobile". Consideriamo due schemi analitici a bersaglio mobile, quello della dipendenza causale e quello del "rumore" rappresentati rispettivamente da due parametri - L variabili latenti; D fattori di disturbo o "rumore" - che danno luogo a due matrici.
1) Variabili latenti:
Un passo tipico consiste nell'eseguire delle analisi causali di dipendenza statistica, ossia ipotizzare che lo stato presente e visibile del bersaglio Y, abbia come causa uno stato antecedente, ovvero un insieme "originario" di dati grezzi parametrizzati attraverso una matrice L. Sono essi che formano il nucleo N dell'input minimo di cui abbiamo già parlato: Ỹ= r(L;S) oppure Ỹ= r(N|L;S). In altre parole, in questo secondo caso, aggiungiamo alla formula base un elemento Ỹ che rappresenta appunto la causa ipotetica di Y.
2) Il rapporto fra Ỹ e il bersaglio finale Y può anche essere riscritto usando la formula
Y = Ỹ + D
in cui si assume che a Ỹ venga aggiunta una matrice di "rumore", ossia deviazioni ed errori reperiti e calcolati attraverso trasformazioni non-standard elaborate specificamente nella costruzione della tecnica impiegata. Sia Ŷ che Y sono ottenuti grazie a queste trasformazioni non-standard applicate a Ỹ.
Esse comprendono anche limitate modifiche dei dati ("massaggiare i dati"; Ricolfi, 156), che erano ritenute improponibili dalla statistica classica (vedere il paragrafo "La rivoluzione empirista", p. 150-157).
Insomma, il bersaglio si modifica in corso d'opera e pertanto queste tecniche si chiamano "a bersaglio mobile" (pp. 15-19) e hanno lo statuto di "modelli" semantici, dovuti ad una interpretazione dei dati (vedi p. 5).
Per concludere ... :
"Gli statistici sono spesso accusati di 'truccare' o 'massaggiare' i dati. [...] La trasformazione dei dati per mezzo dei metodi che abbiamo delineato [normalizzazione, parametrizzazione, meta-trasformazioni, gruppi di trasformazione] è veramente una dubbia forma di manipolazione statistica? La risposta è un fortissimo 'No'! Innanzitutto la trasformazione dei dati è una pratica matematicamente ben fondata: le unità di acidità (Ph), di rumore (decibel) di attività sismica (gradi Richter) sono tre esempi ben conosciuti di scale di trasformazione. Inoltre, in statistica le trasformazioni dei dati sono intraprese a priori, ossia sono pianificate in anticipo come parte della tecnica statistica. Non sono usate a posteriori, come espediente per modificare dati sfavorevoli. Le trasformazioni semplicemente assicurano che un certo metodo statistico possa essere validamente applicato."
(Fowler, Cohen, Jarvis, Practical Statistics for Field Biology, p. 89)
*********************
La statistica, dal punto di vista di un filosofo della scienza è una disciplina logico-matematica che gestisce la trasformazione in concetti tipici degli oggetti grezzi raccolti per induzione cumulativa.
L'analisi dei dati si sovrappone in parte a tutti questi domìni.
Computer science
Data mining → processo algoritmico di estrazione di schemi, motivi, modelli da insiemi di dati computerizzati (riuniti in databases, ossia in collezioni integrate di dati logicamente correlati)
Ontologie (computazionali) → insiemi di rappresentazioni linguistiche (vocabolari) di oggetti e funzioni primari/ie inteso a definire un dato campo di conoscenze e a renderlo computazionalmente trattabile. I termini del vocabolario non hanno la semantica di un linguaggio naturale ma una apposita semantica computazionale.
-------------------------
Filosofia/Ontologia
Ontologia formale → dottrina intesa a definire le strutture e i principi ultimi (Aristotele), secondo i quali è organizzato qualsiasi universo possibile
Ontologia materiale → analisi di settori o aspetti specifici di un dato universo, rappresentabili attraverso una speciale teoria (scientifica)
[da: Varzi, pp. 7-8]
Ontologia → o, tradizionalmente, studio dell'essere in quanto tale; oppure:
→ "dovrebbe esaurire le classi di entità necessarie per rendere vere le asserzioni del nostro sapere" (Valore, p. 10). A tale scopo, "deve farsi carico delle tassonomie gerarchiche e delle relazioni fra individui e classi" (Valore, 55), "deve caratterizzare tipologicamente le entità" (8), "deve redigere un inventario completo della realtà." (9)
Tuttavia "l'idea di uno schema universale neutrale di entità ammissibili ... rappresenta un miraggio filosofico. Infatti tale schema si regge sempre sulla scelta di quadri concettuali e tale scelta può non essere condivisa. Inoltre è sempre possibile dubitare della completezza di uno spettro di classi di entità possibili..." (15)
ESEMPI
1) Matrice di dati
Esempio
In un gruppo di 20 studenti universitari vengono rilevati il sesso, il tipo di maturità, il voto di maturità (in centesimi), il voto riportato all’esame di statistica e quello riportato all’esame di matematica (in trentesimi).
Effettuata la rilevazione, è innanzitutto necessario organizzare i dati per le successive elaborazioni. I dati sono quindi disposti sotto forma di una matrice, detta matrice di dati.
Ogni riga della matrice contiene le informazioni ricavate da ogni studente, etichettato con un numero. Ciascuna colonna della matrice è l’insieme delle modalità assunte dal carattere riportato in quella colonna. el suo complesso, la matrice costituisce una distribuzione statistica disaggregata secondo cinque caratteri: sesso, tipo di maturità, voto di maturità, voto di statistica, voto di matematica. In generale una matrice di dati permette di enucleare diverse distribuzioni disaggregate:
le distribuzioni semplici, relative ai singoli caratteri osservati;
le distribuzioni doppie, relative a combinazioni di due caratteri fra tutti quelli rilevati;
le distribuzioni triple, relative a combinazioni di tre fra tutti i caratteri rilevati e così via.
La costruzione di una tabella di frequenza (semplice, doppia, tripla,…) a partire da una distribuzione disaggregata richiede lo spoglio dei dati, ossia il conteggio delle unità in cui i caratteri di interesse si presentano con le stesse combinazioni di modalità.
Studente
Sesso
Maturità
Voto di maturità
Voto di statistica
Voto di matematica
1
Femmina
Tecnica
62
23
28
2
Maschio
Tecnica
90
28
30
3
Femmina
Classico
93
20
21
4
Femmina
Tecnica
70
25
19
5
Maschio
Scientifica
60
24
30
6
Maschio
Altro
73
22
26
7
Femmina
Scientifica
80
18
25
8
Maschio
Scientifica
75
25
28
9
Maschio
Tecnica
73
25
24
10
Femmina
Tecnica
90
23
27
11
Maschio
Altro
100
24
30
12
Maschio
Tecnica
72
29
23
13
Femmina
Tecnica
60
27
25
14
Femmina
Tecnica
83
26
23
15
Maschio
Tecnica
78
25
25
16
Femmina
Scientifica
90
24
26
17
Femmina
Tecnica
87
25
24
18
Maschio
Scientifica
80
23
26
19
Femmina
Tecnica
67
25
30
20
Femmina
Scientifica
77
26
24
2) ALLINEAMENTO A COPPIE
(da Durbin et al., 1998, cap. II)
Figura 5. Tre allineamenti di sequenze a coppia. (Da Durbin et al. 1998: 12) Gli allineamenti riguardano tre sequenze comparate ad una sequenza di alfa-globina (HBA) umana. Le tre molecole sono: a) beta-globina (HBB) umana che, data la notevole similarità produce un allineamento ad alto punteggio; b) lego-emoglobina (LGB2) del lupino giallo che produce un allineamento plausibile; omologo della gluta-S-trasferase di un nematode (F11G11.2) che produce un allineamento apparentemente ad alto punteggio. Gli allineamenti sono tratti da un database chiamato SWISS-PROT, che raccoglie sequenze di proteine. Nella riga centrale si possono vedere i risultati di ogni allineamento. Un'eguaglianza fra due residui che si trovano nella stessa posizione sulla sequenza è indicata dalla ripetizione della lettera che li definisce, mentre il segno + caratterizza due residui che sono in posizione "simile". La similarità della posizione è valutata (come spiegheremo, vedi figura seguente) sulla base dei punteggi assegnati mediante una matrice di sostituzione o matrice di valutazione (scoring matrix) elaborata sulla base di dati accumulati in diversi database esistenti in tutto il mondo.
I problemi teorici che dobbiamo porci sono:
l'allineamento è dovuto a una relazione di causalità o dovuto al caso?
Quale sistema di valutazione dobbiamo usare?
Quali sono gli algoritmi (o il software) da usare per scoprire l'allineamento migliore ?
Quali metodi statistici dobbiamo usare per valutare la significanza del punteggio?
Questa matrice di sostituzione serve a calcolare il punteggio da attribuire all’allineamento di una qualsiasi coppia di residui, in generale. Non c’è la valutazione di una singola sequenza (illustrata nella matrice seguente). I sistemi di valutazione come questo sono costruiti sulla base di dati e modelli probabilistici, mediante l’uso di classici strumenti di calcolo, come quelli usati nei test statistici di un’ipotesi. Nel nostro caso, data una coppia di sequenze allineate, occore assegnare all’allineamento un punteggio che misuri la probabilità che le sequenze siano filogeneticamente correlate. Il punteggio dell’allineamento complessivo è ovviamente ottenuto additivamente, sommando punteggi assegnati a singoli allineamenti mediante una tecnica computazionale chiamata log-odds ratio.
Spiegazione della matrice
Allineamento ottimale tra due sequenze di prova, con ammissione di gaps.
Il metodo per realizzarlo consiste nella comparazione dei punteggi di allineamento di una micro-cella, composta da due coppie. I punteggi sono ricavati da elaborazioni della matrice BLOSUM.
Sono ammessi gaps (rappresentati nelle due sequenze accoppiate sotto la matrice dal segno "-"; ogni gap è valutato con il punteggio "– 8") e quindi le due sequenze sono fatte “scivolare” l’una rispetto all’altra, fino a quando si realizza un punteggio ottimale. Per far ciò si usano algoritmi e programmi computerizzati. I gaps ci fanno capire che si tratta di una tecnica statistica avanzata, ossia "a bersaglio mobile".
Guardando la matrice occorre notare che:
a) le due colonne esterne sono due colonne di riferimento, necessarie per conteggiare i gaps. Esse rappresentano l'allineamento ipotetico di un residuo con un gap che comporta un "– 8". Quindi i valori della sequenza crescono ad ogni passo di "– 8" punti e abbiamo "– 8", "– 16", "– 24" e così via. L'incrocio delle due colonne di riferimento in alto a sinistra ha il valore "0" ed è chiamata la "fonte" dell'allineamento;
b) la matrice si costruisce collocando la micro-cella (composta da due coppie di residui) che ottiene il punteggio migliore nell'angolo in baso a destra della matrice. Poi si procede riempiendo tutta l'etensione della matrice fino alla "fonte" con i punteggi degle altre coppie di residui. Compiuta questa operazione si traccia l'allineamento ottimale risalendo "a ritroso" (la procedura si chiama "traceback") dall'angolo in basso a destra verso la fonte in alto a sinistra, indicando con freccette i punteggi migliori. La diagonale dei punteggi in grassetto indica appunto l'allineamento ottimale;
particolare attenzione va posta al trattamento dei gap. In corrispondenza di essi non si hanno freccette in diagonale ma, piuttosto una freccetta verticale in corrispondenza di un gap sulla stringa superiore (riportata sull'asse orizzontale della matrice) e una freccetta orizzontale in corrispondenza di un gap sulla stringa inferiore, riportata sull'asse verticale. Inoltre, poiché si risale all'indietro, il gap viene - per così dire - recuperato, e il punteggio cresce di +8 punti. Quindi l'allineamento
HEAGAWGHE–E
– –P –AW –HEAE
risulta essere quello con il punteggio più alto e quindi quello ottimale.
*******************
Per capire come è possibile ottimizzare un allineamento, consideriamo un esempio. Abbiamo le stringhe
ACTGC
ACGTC
che, allineate in questo modo, ossia senza gap, presentano tre identità, prima, seconda e quinta lettera, e due discordanze.
Adesso inseriamo dei gap in questo modo
ACTG–C
A–CGTC
su questo secondo allineamento abbiamo tre identità, una sola discordanza e due inserzioni. Abbiamo migliorato l'allineamento abbattendo una discordanza. Ma possiamo anche far di più. Nella stringa
ACTG–C
AC–GTC
abbiamo quattro identità (!) e due inserzioni. Quest'ultimo è evidentemente l'allienamento migliore.
PAGE 38