Omogenitorialità e dintorni: critica alla peer review

coppia-gay-con-figlio

Vi è un solo mezzo per far progredire la scienza:

dar torto alla scienza già costituita.

Gaston Bachelard, La filosofia del non, 1940

Tra le varie forme di analfabetismo che contraddistinguono la nostra epoca, quello etico e quello epistemologico sembrano occupare un ruolo di primo piano.

Nell’era del “è tutto lecito ciò che è tecnicamente possibile”, a chi afferma che il bambino ha sempre e comunque diritto alla madre e al padre e che non può essere brutalmente mercificato al solo scopo di accontentare una coppia dello stesso sesso, a chi difende la dignità assoluta ed inviolabile di ogni essere umano, a partire dal concepimento, viene spesso rinfacciato che “in America” ci sarebbero ben “trent’anni di studi” che “dimostrerebbero” come ai bambini così crudelmente feriti la vita sorriderebbe sempre e comunque, in una specie di spot globale dove la narrazione prende il posto della realtà.

Niente, nessun problema. Questi bambini crescono sani e forti, ben istruiti, felici come gli altri. Eleganti, festosi, in queste case finemente arredate e sature di luci artificiali, dove la scomparsa della madre (o del padre) è abilmente nascosta sotto il fumo della recitazione e degli effetti speciali.

Le testimonianze disperate (e censurate) di chi è cresciuto con una storia e in condizioni simili, non contano. Il non aver mai conosciuto la madre o il padre, perché così hanno “amorevolmente” deciso quelli che oggi si chiamano “omogenitori” sembrerebbe non influire minimamente sulla loro vita.

Avere un padre e una madre non è più un bene per il bambino, dicono.

Avere o non avere una madre, è la stessa cosa: perfino l’attaccamento intrauterino non conta, ci insegnano. In barba alla contraddizione logica e antropologica per cui se è vero che da una parte non servono i padri e dall’altra non servono le madri, se ne deduce logicamente che non servono più i genitori (ma a maggior ragione non dovrebbero servire quei “genitori” che hanno una consistenza solo nel regno delle parole, come per esempio gli “omogenitori” e così via).

Insomma: sapere di essere stati acquistati, con tanto di contratto legale di fronte ad un notaio, da una madre scelta su un catalogo, un utero in affitto, magari un frullato di sperma, tanto per rendere difficile l’identificazione dell’unico padre che è possibile avere, non provocherebbe effetti. Men che meno danni.

Affermano con sicumera: “quello che conta è solo l’amore”. E via con gli slogan, i sorrisi, le canzonette, in un clima surreale dove violenza e psicosi sono mascherate dalla “lotta per la libertà”, per “i diritti”: “Love is love”, e bum, ogni istanza etica è svanita nel buco nero della cecità.

Ci informano che “studi americani lo dimostrano”, che l’APA qui e là, che bisgona smetterla con l’omofobia e che, per finire, chi obiettta l’assurdità e la crudeltà assoluta di questo scempio non può fregiarsi di uno studio peer review.

Ed è questo, l’appello “alla scienza”, che dovrebbe costituire la pietra tombale su ogni discussione e su ogni critica.

Ora, a parte che non è ben chiaro dove sia qui il gesto d’amore, cosa ci sia di amorevole nell’infliggere volontariamente, ad un bambino, la perdita della madre (o del padre), ci sono anche altri argomenti, sia di ordine logico che epistemologico, per cui il dibattito – sia etico che scientifico – non solo è possibile, non solo è doveroso, ma non è nemmeno cominciato. Proprio perché questi argomenti omosessualisti, sono tutti, ma proprio tutti, fuori tema, epistemologicamente infondati, eticamente inaccettabili.

Vediamo di mettere in ordine le obiezioni:

1) prima di tutto si deve ricordare che il problema delle adozioni in coppie dello stesso sesso non è scientifico, ma etico (non è, non potrà mai essere “la scienza” a dirci quello che è bene o quello che è male, quello che si può o non si può fare con l’uomo, come chiunque può facilmente comprendere anche solo per via intuitiva: se scientificamente non posso provare che una “pedofilia soft” – per usare l’espressione di Richard Dawkins – faccia danni al bambino, per questo motivo diventa eo ipso eticamente accettabile?)

2) ma anche dal punto di vista più strettamente “scientifico” l’affermazione secondo la quale “la scienza dimostra che i bambini cresciuti in coppie same sex stanno bene” non ha fondamento, in quanto parte dal presupposto (epistemologicamente sbagliato) che sia possibile considerare tutte le scienze allo stesso modo, senza nessuna differenza tra “scienze dure” e “scienze molli“, come se gli statuti epistemologici, gli orizzonti teoretici, le pratiche metodologiche che ne so, della fisica o della chimica, fossero immediatamente sovrapponibili a quelle della psicologia o della sociologia. L’intento è quello di fare un bel meltinpot in un unico indistinto calderone, per poi poterci cavare fuori tutto e il contrario di tutto.

Peccato che mentre la matematica e la logica “dimostrano”, in senso forte (ovvero arrivano a conclusioni la cui negazione implica una o più contraddizioni logiche), la psicologia e la sociologia al massimo congetturano, ipotizzano, teorizzano, ma non prossono né potranno mai “dimostrare” alcunchè. E questo a causa del loro metodo e del loro oggetto di ricerca: l’uomo.

Ma non è finita qui.

Oltre a queste radicali (e definitve, a ben vedere) obiezioni, ci sono poi anche precise contro-analisi, critiche epistemologicamente fondate di quelli che vengono spacciati per “studi” a favore della deprivazione e delle cosiddette “famiglie omogenitoriali”: indagini che mettono in evidenza come si tratti in realtà di un’accozzaglia eterogenea di ricerche, con pochissimi o inadatti campioni, quindi di nullo impatto statistico, di interviste senza osservazioni, o comunque non imparziali, a volte addirittura telefoniche, in cui, non senza una certa dose di comicità, gli “omogenitori” auto-valutano le loro capacità genitoriali o si tratta comunque di mere “ricerche” svolte con metodologie spesso farraginose, di raccolte di dati inadatti per redigere la benché minima conclusione teoretica. (1)

Figuriamoci se questi dati sono sufficienti per pretendere un salto antropologico di portata devastante come quello che oggi viene già concretamente prefigurato con il passaggio dalla generazione alla fabbricazione di individui. Bambini che vengono mercificati per essere poi deprivati di uno dei due genitori e infine artificiosamente impiantati in una coppia di adulti dello stesso sesso, ovvero in una coppia che evidentemente non può averli generati in alcun modo, se non ricorrendo ai trucchi e al denaro. In un passaggio dalla generazione alla mercificazione che comporta anche la riduzione dell’uomo da soggetto di diritto ad oggetto di diritto altrui.

E’ evidente che sotto ci sta ben altro, come l’evidenza suggerisce.

Ebbene, a chi obbietta tutto questo, viene rinfacciato che l’argomento pubblicato su un sito indipendente, l’articolo o le contro-analisi che smontano pezzo per pezzo i famosi “trent’anni di studi” non sarebbero accreditati presso la comunità scientifica. Non sarebbero di qualità, mancherebbero di peer review, oppure sarebbero lavori con un h-index scarso o un impact factor debole.

Passiamo dunque a smontare anche questa obiezione.

1) Prima di tutto si deve osservare che si tratta di una critica fallace dal punto di vista logico. Affermare che un argomento non è valido “perché altri non l’hanno preso in considerazione” oppure “perché altri non l’hanno considerato valido” non ci dice nulla sull’oggetto della discussione, ovvero sulla validità dell’argomento in sé. Non si entra nel merito, ma ci si appoggia al parere di altri, ritenuti più esperti o maggiormente autorevoli.

Si chiama, per l’appunto, fallacia di appello all’autorità, o “argumentum ab auctoritate“. Questa la sua forma logica:

“X” sostiene che “A” è vero

“X” è un legittimo esperto della materia

Il consenso degli esperti in materia concorda con “X”

Pertanto “A” è vero.

E’ evidente che in questo modo non si prende in esame l’argomento, non si entra nel merito, né si dimostra nulla, ma ci si limita invece a prendere in considerazione il consenso degli “esperti”, come se questo potesse risolvere la questione che è stata posta.

2) In secondo luogo, tutti e tre i sistemi di valutazione indicati (peer review, h-index ed impact factor) sono più che discutibili.

Passiamoli brevemente in rasssegna.

Il caso “peer review”.

Con quest’espressione (letteralmente: “revisione dei pari“) s’intende una procedura di valutazione e di selezione degli articoli o dei progetti di ricerca effettuata da specialisti del settore per verificarne l’idoneità alla pubblicazione o al finanziamento. Il fatto è che il criterio è autoreferenziale: gli “specialisti” sono ritenuti tali da altri “specialisti”, ciascuno nel suo settore e così via. È evidente che non esiste alcuna “patente di specialista” data a priori che metta un ricercatore sul piano dell’infallibilità, al riparo da errori, sviste, o peggio (quando sono in gioco i finanziamenti, tutti sanno come spesso va a finire). Fatto sta che il “peer reviewing” è oggi acriticamente considerato come punto discriminante che segna la differena tra sapere scientifico e semplice opinione. Mentre invece è noto che – sia in linea teorica che come è effettivamente accaduto – ci sono teorie inizialmente sponsorizzate con entusiasmo dall’intera comunità scientifica che si sono poi mostrate inaffidabili o addirittura del tutto erronee e d’altra parte ipotesi, idee, argomentazioni, o vere e proprie teorie di soggetti non direttamente riconducibili all’ambito degli esperti universitari, per intenderci quelli che oggi lavorano come “indipendenti”, che nel tempo si sono rivelati piuttosto solide e veritiere.

In sostanza, questo sistema di valutazione funziona così: un accademico sottopone un testo al giudizio di altri accademici (i cosiddetti “pari”) che ne stabiliscono la validità. Una volta accreditato viene pubblicato su una “rivista scientifica” (daccapo: quelle riviste che la stessa comunità scientifica ritiene tali, in un evidente circolo autoreferenziale), oppure prende la via delle conferenze o meglio ancora l’oscura strada dell’assegnazione di fondi da parte di agenzie di finanziamento. Ed è qui, come chiunque può immaginare, che si presentano le criticità più evidenti ed i dubbi più radicali.

Una citazione, sintomatica, per riassumere il concetto: “L’attuale processo di peer review è in crisi e riceve sempre più critiche per la sua parzialità, attirandosi il sarcasmo di una parte del mondo scientifico, ad esempio ha vinto, nell’agosto 2015, il terzo premio al “Dumbest & Most Frustrating Modern Invention Contest” con la seguente scherzosa motivazione: “Peer Review Process: eufemismo che indica il modo di sopprimere il dissenso nella scienza. La Scienza è adesso al sicuro nelle mani di esperti che sono diventati esperti non dissentendo dai precedenti esperti. Un cerchio perfetto per produrre una scienza perfettamente circolare.”

E c’è addirittura chi ha parlato di “fabbrica di bufale a pagamento“, in “una clamorosa inchiesta [che] porta alla luce i fumosi meccanismi che si nascondono dietro alla selva delle riviste accademico-scientifiche open access: uno studio privo di fondamento, realizzato ad hoc e riempito di errori elementari, è stato accettato nel 60% dei casi”.

Il problema è dunque chiaramente noto all’interno della stessa “comunità scientifica”: si pensi solo al caso dell’editore Biomed Central, che pubblica quasi 300 riviste scientifiche: ha ritirato 43 paper a causa di manifeste irregolarità nel sistema di revisione dei pari. Ma ciononostante  si continua a suggerire all’opinione pubblica che “ciò che dice la scienza” sia indiscutibilmente vero, a priori, soprattutto se altri scienziati si mostrano d’accordo.

Proprio come ci dicono: “… è dimostrato”.
Come no?

Il famigerato “H-index”

L’indice-H (o “indice di Hirsch”) è invece un metodo utilizzato per quantificare l’impatto del lavoro degli scienziati basandosi sul numero delle loro pubblicazioni e sul numero di citazioni ricevute. Si tratta di un indice ideato per ovviare ad alcune carenze e problematiche dell’Impact Factor, ma che presenta a sua volta diverse e gravi lacune. Spesso infatti l’indice-H non si è mostrato in grado di valutare l’importanza di uno scienziato: per com’è stato pensato, è chiaro che gli scienziati che hanno avuto una carriera breve o che non hanno trovato le opportune modalità di pubblicazione, non trovano qui riscontro, in quanto l’indice non tiene conto della loro influenza poiché essi hanno prodotto magari un numero limitato di contributi, non importa quanto decisivi. Giusto per fare un esempio, il più grande logico di tutti i tempi, Kurt Gödel ha pubblicato solo cinque articoli in tutta la sua carriera ma ha rivoluzionato una disciplina. Senza contare il fatto, come abbiamo accennato sopra, che le discipline hanno statuti epistemologici diversi ed è quanto meno scorretto metterle tutte indistintamente sullo stesso piano per sottoporle allo stesso criterio di valutazione.

D’altra parte si arriva però al paradosso in cui, per l’opinione comune, famose enciclopedie on-line sono assolutamente affidabili e pertanto continuamente citate. Perfino in ambienti universitari (solo per il fatto di essere molto conosciute e poter vantare un consistente numero di lettori). Un esempio?

Non avete notato come la famosa “Enciclopedia libera”, Wikipedia, viene spesso considerata alla pari che ne so di una Treccani? Eppure nessun articolo è firmato, nessuna voce garantita da alcun sistema di controllo esplicito. L’unica cosa che compare è una (spesso discutibile) citazione biblilografica.

Chi ci garantisce la bontà, l’onestà, la credibilità di quello che leggiamo? In base alla notorietà della fonte, in cui però nessuno firma ciò che scrive? Oppure in base ad una classifica di scienziati in cui, per restare confinati ad un solo ambito, a fronte di fisici con valori di h superiori o vicini a 100, Richard Feynman ha h = 23 ed Albert Einstein non è nemmeno presente?

Siamo nell’epoca dei paradossi, non c’è che dire. Ma c’è di più. Pensate che l’Indice-h non considera il contesto delle citazioni. Ad esempio, alcuni lavori possono essere citati solo allo scopo di introdurre al tema, oppure vengono citati per essere contestati.

E non è ancora finita: la cosa più incredibile è che l’Indice-h non tiene conto delle auto-citazioni. In sostanza, per esempio, se un ricercatore scrive molti articoli sullo stesso tema è naturale che citerà i suoi articoli precedenti, e questo accresce la sua posizione in classifica. Inoltre, l’indice non guarda al peso che ha avuto il singolo ricercatore nella stesura di un articolo. Se è un articolo a più firme, anche un autore che ha dato un contributo minimo alla pubblicazione in oggetto, otterrà la stessa valutazione dei suoi colleghi , e così via. Comodo, vero?

(Consiglio, a questo proposito, l’articolo del compianto professor Giorgio Israel dal titolo: “Ancora sul demenziale h-index”)

L’Impact Factor

L’Impact Factor è un parametro di riferimento che valuta l’importanza di una rivista o una pubblicazione scientifica, ottenuto calcolando il numero di citazioni di cui è fatta oggetto in altre riviste o pubblicazioni dello stesso ambito. E’ così che vengono poi stilate delle vere e proprie graduatorie delle riviste per ciascuna delle categorie disciplinari. Sta di fatto che, come ciascuno può facilmente intuire, l’assunzione che ad un’elevata frequenza di citazione corrisponda un’elevata qualità della rivista, sul piano concettuale, non ha alcun fondamento. D’altra parte questa pratica, grazie alla quale l’impact factor viene usato come parametro di riferimento per stilare graduatorie delle riviste più prestigiose, è stata oggetto di una serie di critiche avanzate in particolare da alcuni matematici, in primis Alessandro Figà Talamanca nel suo storico discorso dal titolo L’Impact Factor nella valutazione della ricerca e nello sviluppo dell’editoria scientifica al convegno SINM del 2000.

Ecco una sintesi dei principali punti critici:

– “L’IF: è: scarsamente indicativo del vero valore scientifico. Si può dire che sostituisca una valutazione qualitativa “a tutto tondo”, fatta da “umani” con un secco indice quantitativo elaborato in modo semi-automatico. Di certo quest’ultimo non potrà tener conto delle particolarità (positive e negative) dell’attività scientifica, per non dire letteraria, di uno studioso;

– L’IF è: buono per alcune discipline e non per altre. C’è una innegabile influenza dell’ambito disciplinare e delle sue caratteristiche intrinseche, sulla affidabilità della valutazione fatta con indici scientometrici. Non dimentichiamo che l’IF nasce e prospera nel mondo biomedico. Invece nell’ambito umanistico dove, per dirne una, le monografie sono ancora più rappresentative dei singoli articoli, questo approccio si dimostra applicabile solo con determinati aggiustamenti (cosa che induce alcuni autorevoli studiosi, a proporre di non applicarlo affatto);

– L’IF è: un “depressivo” editoriale. I ricercatori che possono collocare i propri articoli su riviste con eccellente IF, in genere, rifuggono i Journal con basso (o nullo) impatto, trovandoli poco attrattivi (normalmente si tratta di riviste non scritte in lingua inglese, non localizzate negli USA e non prioritariamente collegate al Web).

Dovendo pur scriverci qualcosa, è lì che si “sparano le cartucce di minor valore”, perché essendo la rivista poco citata, non porterà loro grande prestigio e vantaggi (leggi grande IF). Così, nel tempo, questa situazione ha contribuito a diminuire la biodiversità editoriale, penalizzando Journal scientifici, anche validi, ma non recensite da JCR (Thomson) o da Scopus (Elsevier).

È probabilmente per questo (oltre naturalmente che per l’alta qualità della ricerca), che gli Stati Uniti detengono il massimo numero di riviste con alto IF (2806 riviste. Il più alto IF è di 153.459). Tra parentesi, osserviamo che l’Italia (il numero di riviste è 127. Il maggior IF è di 8.974, come riportato da Thomson Reuters©; 2012, JCR Science Edition), rappresenta un “mondo di mezzo”, non però così disonorevole se paragonato ad altri Paesi europei.

– L’IF è: potenzialmente truffaldino e limitato. Il calcolo di detti indici non sarebbe proprio trasparente e, pertanto, il metodo si presterebbe (almeno teoricamente) a piccoli ma significativi aggiustamenti da parte degli stessi autori, definiti da Figà Talamanca: “allegra brigata di entusiasti reciproci-citanti” (Talamanca, 2000). Ma non basta. Oltre a ciò, dovremmo anche considerare che esiste una vasta “letteratura” scientifica, di grande valore, che però non genera alcun impatto, non rientrando in questi meccanismi di calcolo. Pensiamo ai dataset, al software, all’attività didattica, per non citare quella legata ai brevetti. Sarebbe però riduttivo considerare tutto ciò come una faccenda in fondo interna all’esoterico mondo della scientometria”.

Conclusioni

Come abbiamo visto, l’obiezione fondata sulla fallacia logica dell’argumentum ab auctoritate è irricevibile e va rispedita al mittente. Bisogna sempre avere il coraggio e la competenza per entrare nel merito: solo questo, conta. Ed è questa la forza della della ricerca e della stampa indipendente. Al di là delle etichette, si studiano i problemi e si danno argomenti entrando nel merito: tutti possono farlo, ma affermare che un argomento è inconsistente in ragione del fatto che non è stato pubblicato su Science significa ammettere di non avere altri argomenti per contestarlo. Il che, diciamolo, è un po’ pochino.

Con questo non significa che Science non sia una rivista prestigiosa, che il peer review sia sempre e automaticamente una tecnica fraudolenta, che l’h-index non serva a nulla o che l’impact factor sia pura illusione. Significa semmai partire, ancora una volta, dall’evidenza: nessuna tecnica di valutazione in ambito scientifico riesce a dirci qualcosa di definitivo sulla verità di ciò che alcuni ricercatori ritengono – oggi – di poter affermare. E d’altra parte la ricerca e la stampa indipendente, proprio in ragione di quanto si è visto, non possono essere zittite o silenziate a priori con questi argomenti sofistici, per il solo fatto di non rientrare nello “star system”, piuttosto autoreferenziale, degli accademici più blasonati.

Per ogni cosa c’è un’unica verità, per cui chiunque la trovi,

ne sa quanto è possibile saperne.

René Descartes, Discorso sul metodo, 1637

Alessandro Benigni

Fonte: http://www.enzopennetta.it/2016/10/omogenitorialita-il-giusto-peso-delle-peer-review/

_________________________

Note

1) Rimando, per una più precisa valutazione del livello di credibilità di questi “studi” a sostegno delle adozioni in coppie dello stesso sesso, ai seguenti articoli:

Figli di coppie omogenitoriali e outcomes evolutivi (citato in Commissione scientifica per la famiglia)

Studi sull’omogenitorialità: guida per i (giustamente) perplessi

Omogenitorialità: sostegno fondato su beceri riferimenti e studi immaginari

Adozioni omosessuali: il consenso scientifico poggia su un castello di carte

Print Friendly, PDF & Email
Se questo articolo ti è piaciuto, condividilo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

dodici + diciotto =