Epistemologia
Con il termine di epistemologia (da episteme o scienza e logos o discorso) si è soliti indicare quella branca della teoria generale della conoscenza che si occupa di problemi quali i fondamenti, la natura, i limiti e le condizioni di validità del sapere scientifico, tanto delle scienze cosiddette esatte (logica e matematica), quanto delle scienze cosiddette empiriche (fisica, chimica, biologia; psicologia, sociologia, storiografia ecc..). Pur connessa con la teoria generale della conoscenza o gnoseologia, l'epistemologia trova il suo significato predominante come quello di studio o discorso critico sulla scienza. In particolare essa analizza tutto ciò che avviene nelle scienze, dalle loro genesi e sviluppi storici, ai loro metodi, procedure, strutture, ipotesi, teorie, leggi, interpretazioni, validità e criteri di demarcazione. E' sinonimo di Filosofia della scienza e di metodologia e a differenza della scienza che è essenzialmente descrittiva, l'epistemologia è essenzialmente prescrittiva. Uno dei principali scopi di tutte le epistemologie è stato quello di individuare le regole, i principi ed i fondamenti che gli scienziati consapevolmente o inconsapevolmente applicano veramente e con successo nelle loro procedure e nell'esporre i risultati delle loro ricerche. Dal momento che l'epistemologia è inscindibile dalla scienza, nel senso che ``la scienza senza epistemologia, se pur si può concepirla, è primitiva ed informe``, ``Non si può sostenere di non possedere un'epistemologia. Chi lo sostiene ha semplicemente una cattiva epistemologia``. Tutti noi, quindi, applichiamo una qualche forma di epistemologia più o meno consapevolmente alle nostre ``pratiche`` di psicologi e/o di medici , al nostro utilizzare una strumentazione concettuale fabbricata da modelli, ipotesi, teorie e leggi.
Riflessioni epistemologiche
“…scienza ed epistemologia nella prassi sono inscindibili: non si può fare scienza senza epistemologia e non si può fare epistemologia senza scienza”
– G. Gava – (Professore di Filosofia della scienza, Università di Padova)
Generalmente la riflessione epistemologica sulla psicologia e la medicina non è accolta con particolare entusiasmo da parte degli psicologi e dei medici: anzi. L’atteggiamento che solitamente viene manifestato sia da chi fa ricerca, sia da chi al contrario applica operativamente i risultati ottenuti dalla ricerca stessa, è spesso quello della diffidenza, se non del fastidio o, peggio, del disinteresse. Un tale disagio può in linea di massima avere una sua giustificazione quando ad occuparsi dei problemi epistemologici della psicologia e della medicina sono dei non-psicologi o dei non-medici (ed in genere dei non scienziati “specializzati” ad insegnare agli scienziati il loro mestiere). Così come è comprensibile il timore che la concretezza, il rigore e la forza dimostrativa della ricerca empirica vengano compromessi da una teorizzazione epistemologica dietro alla quale si vede rispuntare il volto dell’astratta speculazione filosofica. Tali paure, tali resistenze, sono però meno giustificate e meno facili a capirsi se i problemi metodologici, in gran parte sconosciuti al pensiero scientifico classico, vengono affrontati dall’interno, cioè dagli psicologi e dai medici stessi. E questo come esigenza e necessità del bisogno di fare chiarezza sulla natura e sul significato dei propri strumenti concettuali, dei propri fini e dei propri procedimenti. Tanto da far diventare la riflessione sull’epistemologia della psicologia e della medicina, non un’esercitazione meramente speculativa, estranea alla ricerca e alla prassi applicativa, bensì una forma di riflessione concreta che parte dalla ricerca e dall’ambito applicativo, restando ad essi legata e funzionale. Ciò la renderebbe, inoltre, parte costituente e necessaria alla costruzione della specificità della propria identità professionale. Necessità che oltre tutto si impone proprio in ragione della particolare classe di fenomeni di cui la psicologia e la medicina si interessano, che non ci permette nessun tipo di separazione tra momento teorico e momento applicativo.
“Nella storia naturale dell’essere umano”, scrive Gregory Bateson, “l’ontologia e l’epistemologia non possono essere separate; le sue convinzioni (di solito inconsapevoli) sul mondo che lo circonda determineranno il suo modo di vederlo e di agirvi, e questo suo modo di sentire e di agire determinerà le sue convinzioni sulla natura del mondo. L’uomo vivente è quindi imprigionato in una trama di premesse epistemologiche ed ontologiche che, a prescindere dalla loro verità e falsità ultima, assumono per lui carattere di parziale autoconvalida”.
Lessico epistemologico
- la scienza può essere insegnata (maggiore certa)
- la giustizia è una scienza (minore incerta)
- dunque la giustizia può essere insegnata (conclusione probabile)
Per Pierce l’abduzione (abduction) o la retroduzione (retroduction) come la deduzione e l’induzione con cui essa è connessa, è un modo di ragionare nella scienza attraverso il quale si giunge alla conclusione che esiste un fatto completamente diverso da qualsiasi altro oddervato. Esempio:
- si osserva C, un fatto sorprendente;
- ma se A (l’ipotesi o la congettura) fosse vera, allora C sarebbe naturale;
- c’è, dunque, ragione di sospettare che A sia vero.
E’ il momento della creatività e del progresso scientifico, della formulazione di nuove ipotesi esplicative, che devono però essere sempre sottoposte a conferma.
La scienza adopera tutti questi tipi di analogia.essi si sono rivelati strumenti molto validi, alle volte indispensabili, per il progresso: la percezione di somiglianze anche vaghe tra il nuovo e il vecchio è spesso il punto di partenza per importanti progressi della conoscenza. Essi hanno valore euristico mai disgiunto dalla probabilità, valore euristico che può essere più o meno alto a seconda della quantità di somiglianze individuate e/o suggerite.
L’argomento per analogia è il ragionamento secondo cui dalla constatazione di alcune somiglianze tra due cose si inferisce che esse possiedono altre somiglianze.
In medicina e in psicologia clinica si riferisce alla raccolta dei precedenti clinici di un soggetto – informazioni di carattere eredo-familiare, fisiologico e patologico – utili per la sua diagnosi.
Il principio del terzo escluso – secondo cui una cosa è o non è, non esiste una terza possibilità – è stato introdotto da Baumgarten A. (cfr. Met., 1739, S 10) come autonomo rispetto al principio di contraddizione. Negli anni venti Lukasiewicz J. e Tarski A. in alternativa hanno proposto una logica a tre valori: vero, falso e possibile, dando il via a numerose logiche contemporanee (cfr. DA, pp. 170-172 e 873-874; e DF, pp. 92- 93 e 451).
Osservando ciò che effettivamente avviene nei vari campi della ricerca scientifica, oggi si possono scorgere per lo meno i criteri che seguono:
- il principio di verificazione: dapprima forte e poi debole, del neopositivismo e quello di falsificazione di Popper si possono ricondurre al solo criterio di controllabilită;
- il rasoio di Ockham: denominato anche il principio di economia, di parsimonia o di semplicità, stabilisce che non si devono proliferare gli enti al di là del necessario (entia non Sunt multiplicanda praeter necessitatem);
- il criterio di convenzione: derivato da Poincaré J.H.e DuhemP., comprende la consistenza e coerenza logica e la corrispondenza e adeguatezza nonché la chiarezza, il rigore, l’efficienza teorica e l’economia metodologica. Ad esso si può aggiungere il criterio della provabilità allargata di Bunge M;
- il criterio della strumentalità: avanzato dagli strumentalisti e da Mach E., prende es- senzialmente in considerazione l’aspetto della previsione e della rego- larità delle ipotesi e delle teorie. Esempio, la caduta dei gravi di Galileo;
- l’operazionalità: in particolare di Bridgman P.W. , identifica i concetti scientifici con le effettive operazioni di misura di una persona. Esempio, il termine “lunghezza” cambia significato a seconda che si misuri una molecola, un tavolo o una stella;
- la pragmaticità: proveniente dai pragmatisti e da Laudan L. e Bartley W.w. II, propugna che ogni concetto è dato dalle sue conseguenze e utilità pratiche, dai suoi effetti concreti. Per Laudan, ad esempio, una teoriaè valida se risolve problemi all’epoca importanti; e per Bartley III essa è razionale se risolve un problema in un contesto storico;
- il criterio di applicabilità o di universalità: si ha quando una legge scientifica si applica a tutti i casi. Esempi, la legge di Boyle R. del 1660 sulla pressione dei gas e la legge di Ohm G.S. del 1820 dei circuiti eletrici;
- il criterio della ripetibilità: prevede che un determinato fenomeno si possa ripetere. Storicamente noto è il caso dell’irrepetibilità dell’esperimento di Kammerer P. con gli Alytes, che per l’accoppiamento avrebbero svilup- pato dei “guanti nuziali”;
- il criterio di comparabilità, di analogia o di associazione comporta il confronto fra due o più cose, fra due o più casi clinici, ad esempio;
- la correttività della storia della scienza, che include anche l’autorità, ritiene che la scienza sia autocorrettiva e viene difesa da autori come Pierce C.S., Duhem P. ed Enriques F .
Secondo Popper, esiste un “asimmetria logica” tra il metodo verificazionista e quello falsificazionista. II ragionamento confermante non è logicamente conclusivo, può essere sempre falso: nessun numero di casi confermanti giustifica la verità di una teoria, Il procedimento fallibilista invece è logicamente conclusivo, è sempre vero: è sufficiente un solo caso contrario per falsificare una teoria. Basta un solo cigno nero dell’ Australia per confutare l’asserto “Tutti i cigni sono bianchi“. Popper distingue opportunamente la falsificazione logica, che è sempre conclusiva, dalla falsificazione metodologica, che non è mai definitiva perché nel produrre i protocolli si possono commettere vari errori. Se l’asimmetria ha un senso sul piano logico, a livello della prassi scientifica i due metodi si possono congiungere nell’ unico “metodo della controllabilità“. Infatti qui la distinzione si riduce per lo più ad un diverso ed interscambiabile atteggiamento psicologico del ricercatore, il quale di solito di fronte a teorie nuove cerca conferme, mentre per teorie ben convalidate adotta una critica serrata per abbatterle. Inoltre, nel controllo di una teoria l’uso di entrambi i metodi porta agli stessi risultati dei controlli. Se un neuroscienziato deve controllare l’asserto “Gli ippocampi sono deputati al consolidamento della memoria”, qualsiasi atteggiamento egli assuma, le sue procedure, i suoi controlli sperimentali -l’impiego della PET, lo studio della letteratura sulle lesioni e sulle asportazioni degli ippocampi, e così via- ed i suoi risultati saranno gli stessi. Tra i critici del principio di falsificazione, Kuhn T.S. sostiene che una teoria anche se inficiata non viene eliminata se prima non abbiamo a disposi zione un’altra: “una volta raggiunto lo status di paradigma, una teoria scientificaè dichiarata invalida soltanto se esiste un’alternativa disponibile per prenderne il posto'” (La struttura delle rivoluzioni scientifiche, 1962 1969,p. 103). Lakatos I. contrappone il suo falsificazionismo “sofisticato” a quello “ingenuo” di Popper: “E una successione di teorie e non un ‘unica teoria che è valutata come scientifica o pseudoscientifica” (“La falsificazione e la metodologia dei programmi di ricerca scientifici”, 1969, 1976, p. 208). Feyerabend P.K. è per la proliferazione di teorie alternative a quelle ben convalidate per scoprire fatti nuovi (cfr. Come essere un buon empirista, 1963, 1982, pp. 41-42). Laudan L. asserisce che la validità di una teoria è data dal suo successo e non dalla sua conferma o smentita: “La scienza è essenzialmente un’ attività che consiste nel risolvere problemi” (ll progresso scientifico, 1977, 1979, p. 30).
Il teoreticismo, invece, ammette i concetti di derivazione non empirica (costrutti teorici). I contenuti di questi non sono rilevabili mediante operazioni osservazionali e trascendono le relazioni funzionali empiriche che coordinano in qualità di enunciati logicamente coerenti (procedimento ipotetico-deduttivo).
L’antiteoreticismo, sostenuto dall’epistemologia positivista, consiste in un’opzione antimetafisica che prescrive gli assunti fondamentali quali il fenomenalismo o empirismo, secondo cui non ci sono idee trascendentali, esistenti autonomamente, e le teorie sono solo parole riferite all’esperienza, cui non aggiungono nulla.
La metodologia sperimentale e clinica in psicologia, evolve comunque verso il teoreticismo, in cui i fatti devono essere inseriti in un discorso complessivo composto anche di costrutti ipotetici, i cui contenuti sono concetti di derivazione non empirica.
Se l’antiteoreticismo non può che basarsi su un’assunzione induttivista e su un’epistemologia operazionista, che garantisce il primato e l’oggettività dei dati osservativi empirici, una posizione teoreticista resta comunque aperta ad entrambe le possibilità. La teoria, pertanto, può essere considerata sia come un’elaborazione successiva alla raccolta di dati, o come un tessuto concettuale che, oltre a sistematizzare i dati, precede l’osservazione stessa e la guida.
Detto più semplicemente, secondo gli autori teoreticistici la psicologia ha bisogno, per progredire, di teorie e di modelli che presentino un alto livello di coerenza interna e di formalizzazione matematica. E che, secondariamente, servano a costruire schemi applicativi, interpretativi e soprattutto predittivi di eventi psichici quali, ad esempio, i processi dell’apprendimento o i processi mnestici. Viceversa, secondo gli psicologi antiteoreticisti la psicologia deve rifuggire dalle costruzioni teoriche che rischiano di condurla su un piano d’astrattezza e di inverificabilità. Essa deve attenersi rigorosamente alle regole dell’esperimento codificato dalla tradizione baconiana e galileiana.
Nel passato l’idea che le sensazioni, le esperienze dirette o i protocoli sono il fondamento della conoscenza, era stata condivisa da molti. Tra questi, Locke J. riteneva che le sensazioni erano alla base delle idee e della riflessione; per Berkeley la combinazione delle idee complesse generava le idee astratte; Hume asseriva che le impressioni davano origine alle idee o impressioni illanguidite; James parlava di flusso di coscienza’”; per Mach le teorie scientifiche si fondavano sugli elementi, sulle sensazioni, e a lui si sono associati, tra gli altri, Schlick M., Wittgenstein L. e Carnap R. Comunque, il principio di verificazione forte o il criterio di significanza empirica scende direttamente da Peirce (1839- 1914) e daWittgenstein (1889-1951). Infatti Peirce scrive: “Se e soltanto se l’affermazione e la negazione di una proposizione implicano una differenza suscettibile di controllo empirico, tale proposizione ha significato fattuale”; e in un articolo del 1878 non vi è distinzione di significato per fine che sia, che possa consistere in altro che in una possibile differenza pratica” (Caso, amore e logica, 1923, 1956, p. 32). E Wittgenstein: “Comprendere una proposizione vuol dire saper che accade se essa è vera” (Tractatus, 1921, 1964, 4.024); e “La proposizione rappresenta il sussistere e non sussistere degli stati di cose” (ibid., 4.1). Per entrambi, una differenza inverificabile non costituisce affatto alcuna differenza; ci deve essere una differenza che comporti una differenza. Ma la prima formulazione formale del principio viene attribuita a Waismann F: “Chiunque proferisca un enunciato deve sapere in quali condizioni egli chiama l’asserzione vera o falsa, se non è in grado di asserire questo, allora egli non sa ciò che ha detto. Un’asserzione che non può essere verificata in maniera conclusiva, non è affatto verificabile; è semplicemente priva di qualsiasi significato” (“Logische Analyse der Wahrscheinlichkeitsbegriffs”, 1930-1931).
La versione più felice però è rimasta quella di Schlick: “Il significato di una proposizione è il metodo della sua verifica” (Meaning and Verification”, 1936, p. 45). In breve, un enunciato è fattuale o significante se completamente verificabile attraverso le esperienze dirette e private di una persona, altrimenti esso risulta insignificante o un nonsenso. Un simile principio eliminava gli asserti metafisici, ma altresì gli asserti universali, le leggi scientifiche, gli asserti su un oggetto fisico equelli sugli eventi passati, futuri e sugli stati mentali altrui. E ciò perché, come aveva sostenuto Mach, non era possibile controllare in modo conclusivo tutti questi asserti attraverso le esperienze dirette del soggetto. L’ambito del vero veniva ad essere più ampio di quello del controllabile. Per questi ed altri motivi molti neopositivisti, tra cui Reichenbach H. e Feigl H., alla fine degli anni venti ed agli inizi degli anni trenta Si trovano d’accordo con Popper K.R. nel criticare tale rigida impostazione del principio e nel ricercare un criterio meno restrittivo, più debole. E’ dietro tutte queste spinte che Carnap R, divenuto nel frattempo il rappresente più significativo dell’ indirizzo neopositivistico, passa, dopo aver aucipato in Philosophy and Logical Syntax del 1935 la distinzione tra verificazione diretta e indiretta, alla confermabilità (confirmatbility) completa e incompleta (cfr. “Testability and Meaning”, 1936-1937). II criterio di significanza empirica risulta così liberalizzato: un asserto per essere empiricamente o scientificamente significante basta che sia con confermabile in linea di principio. Col principio di verificazione debole la metafisica rimane sempre esclusa e sul piano della ricerca scientifica si assiste ad un sorprendente avvicinamento al principio di falsificazione.
Ariticoli di epistemologia della psicologia e della medicina
Che cos'è la Scienza? I principali orientamenti epistemologici
Richiedi un colloquio
Per richiedere un appuntamento puoi chiamare direttamente il 349 863 20 76
oppure compilare il form e verrai presto ricontattato.