\section{Il sistema delle pubblicazioni} \subsection{Peer Review: è “corretta” questa scienza?} Il meccanismo di peer reviewing è alla base dell’odierna scienza e ne è effettivamente il criterio di demarcazione. Le riviste scientifiche si avvalgono proprio di questo meccanismo per giudicare la veridicità degli articoli. Letteralmente si traduce come “revisione dei pari” e in tale consiste. Per semplicità proviamo a seguire il percorso dell’articolo dal laboratorio-studio fino alla sua pubblicazione sul giornale scientifico. \paragraph{Dall’autore all’editore.} Il ricercatore (o meglio, il leader del gruppo) che scrive l’articolo sceglie la testata giornalistica a cui chiedere la pubblicazione in funzione di alcuni parametri: l’importanza della scoperta, la linea editoriale del giornale, ecc.. ma anche di altre variabili che si rivelano discriminanti quali il costo delle immagini a colori o magari un credito di favori verso quella o quell’altra redazione. Quindi una volta compiuta la scelta ( e si ritiene “scorretto | unfair” inviare lo stesso articolo a più testate contemporaneamente ) si procede inviando telematicamente l’articolo alla redazione.  Il costo varia molto a seconda della testata e della modalità di pubblicazione, come vedremo è oggi possibile pubblicare su riviste aperte al pubblico, ma author-pay, ad esempio il costo per pubblicare in OpenAccess SU Scientific Report di Nature si aggira sui 1500 \euro, previa accettazione dell’articolo. \paragraph{Dall’editore al peer review: il doppio cieco} L’editore prende quindi in considerazione l’articolo e valuta se, in base alla sua linea editoriale e a prescindere dalla correttezza scientifica del medesimo, il giornale può o meno avere interesse nel pubblicare il lavoro. Se l’articolo è “opportuno” viene inviato ai peer-reviewers, i revisori sono di solito una coppia di esperti della materia trattata nella pubblicazione, ma ciò varia molto in funzione del tema e del giornale. L’idea alla base della peer review è il doppio cieco, ovvero, per evitare possibili influenze tra l’autore e il revisore, sia positive che negative, i revisori non devono sapere chi ha prodotto l’articolo. Allo stesso tempo, gli autori non conoscono l’identità dei reviwer. C’è da dire tuttavia che questa simmetria di ignoranze viene spesso rotta. Molte volte, infatti, il revisore è a conoscenza del gruppo che sta valutando. Ciò avviene o per esplicita comunicazione della rivista, o per semplici deduzioni rispetto al tipo di lavoro pubblicato (spesso tra esperti di una stessa materia si è in pochi e ci si riconosce a vicenda per il taglio che si da’ all’articolo). Il lavoro di revisione si aggira intorno alle 15-50 ore, a discrezione del revisore. Questo può poi inviare delle domande o fare richieste di correzioni che verranno recapitate all’autore tramite la redazione. Dopo questo scambio di mail, il revisore deciderà o meno se l’articolo è scientificamente corretto.I margini del “corretto” sono una scelta editoriale a cui il revisore si deve attenere, quasi riempiendo una griglia di valutazione. Poi sarà di nuovo la casa editrice a scegliere Il ruolo della redazione nel decidere se un articolo è valido o meno scientificamente si manifesta a volte nella scelta del peer-reviewer, infatti, l’editore conosce le attitudini dei vari revisori e sceglie a chi di loro inviare l’articolo. In alcuni ambiti è possibile, per l’autore, indicare personalità al cui giudizio non si vorrebbe essere sottoposti per ragioni di conflitto di interessi. \paragraph{Il lavoro del revisore:} La peer review non è pagata, è un lavoro che ogni partecipante alla comunità scientifica compie per l’esistenza della stessa. Non considerare questo lavoro come una possibile fonte di reddito per il reviewer è una scelta adottata ai fini di marginalizzare fattori esterni che possano compromettere la professionalità nella correzione. Il guadagno che invece un revisore può ottenere passa per il suggerimento di citazioni; come vedremo infatti le citazioni hanno una grande rilevanza nel mercato della scienza. Esse influenzano scelte economiche e salariali e sono caratterizzanti nella carriera di uno scienziato. H index e indici bibliometrici(valutazioni del lavoratore) L’attuale modalità di procedere della scienza (attraverso la pubblicazione di articoli su riviste specializzate) ha fatto emergere l’esigenza di un criterio ,per quanto possibile oggettivo, atto a valutare la produttività di uno scienziato. Tale produttività deve tener conto, da una parte, dell’effettiva quantità di articoli pubblicati, e dall’altra, dell’impatto che i “passi in avanti” contenuti in tali articoli hanno avuto sullo stato attuale della ricerca internazionale.Un modo in cui è possibile misurare l’influenza di un articolo sulla comunità scientifica è quello di contare il numero di volte che tale articolo risulta citato in altre pubblicazioni. A questo punto vediamo emergere due numeri in grado di quantificare la produttività di uno scienziato: \begin{itemize} \item il numero di articoli pubblicati \item il numero totale di citazioni ottenute dall’autore \end{itemize} Nel 2005 il fisico americano Jorge E. Hirsch propose il seguente indice, che in seguito ha preso il nome di h-index, come parametro in grado tenere conto dei due fattori appena menzionati: “Uno scienziato ha un h-index pari a n se almeno n dei suoi Na articoli hanno n o più citazioni.” Ad esempio se ho almeno 3 articoli con un numero di citazioni maggiore o uguale a 3 il mio h-index sarà proprio 3. Questo indice è andato affermandosi negli anni come parametro di riferimento nella valutazione degli scienziati ed è dunque divenuto un fattore assai caratterizzante nella carriera scientifica. In molti paesi esso influenza pesantemente decisioni importanti come il fornire o meno dei finanziamenti o nel concedere o meno un posto di lavoro.L’h-index è diventato determinante nel modellare il modo stesso in cui viene portata avanti la ricerca. Soprattutto nel momento in cui, data la limitatezza dei fondi, la continua concorrenza tra i vari gruppi può portare a confondere i mezzi con i fini… Difatti un ricercatore, per continuare a ricevere dei finanziamenti, è incentivato a svolgere il proprio lavoro puntando a mantenere un h-index elevato. Una tale spinta dovrebbe in teoria essere equivalente ad uno stimolo nel cercare dei risultati di maggiore impatto e in generale a condurre una ricerca di alta qualità. Tuttavia, l’ottimizzazione dell’h-index si può ottenere anche elaborando in modo strategico le modalità di pubblicazione. In questa sezione faremo una rassegna delle principali criticità dell’h-index come indice bibliometrico e dei comportamenti “distorti” che la valutazione basata su tale indice induce nei gruppi di ricerca. Innanzi tutto bisogna dire che, per il calcolo dell’h-index, è necessario avere un database che raccolga tutti gli articoli scientifici giudicati abbastanza rilevanti da poter contribuire alla valutazione degli autori citati su di essi. Non è affatto facile tracciare la dinamica delle citazioni nel denso network delle pubblicazioni scientifiche a livello internazionale. Le maggiori piattaforme di ricerca di questo tipo sono: Web of Science (Gruppo Thomson Reuters), Scopus (Elsevier) e Google Scholar tutte appartenenti a colossi multinazionali dell’informazione e della gestione dati. Pubblicare su una rivista scientifica non presente in nessuna di queste tre banche dati equivale, da un punto di vista bibliometrico, a non aver pubblicato nulla, in quanto le eventuali citazioni dell’articolo non verrebbero considerate nel calcolo dei vari indici. Questo è il caso dei paesi in via di sviluppo, come il Brasile dove spesso le riviste giudicate di massima rilevanza a livello locale possono non essere inserite nei suddetti database. Sempre per i paesi in via di sviluppo, sussiste un’evidente disparità sull’autorevolezza dei periodici scientifici. Per dare un’idea quantitativa, solamente 27 riviste brasiliane fanno parte dell’ISI (Web of Science). Di queste, una delle più importanti è “l’Anais da Academia Brasileira de Cencias” (AABC) che possiede un impact factor di 0.895 e pubblica in media 4 volumi all’anno. Il corrispettivo americano di tale periodico è il PNAS con un impact factor di 9.64 e 52 volumi pubblicati ogni anno (entrambi i dati sono del 2007). Quindi un giovane ricercatore americano avrà maggior facilità , che sia essa geografica, linguistica o per ragioni di lobbing nell’accedere a case editoriali di maggior impatto e visibilità rispetto a un giovane brasiliano. Riassumendo quanto sopra vogliamo sottolineare come alcuni indici biblimetrici sono ciechi rispetto ad alcuni gruppi di ricerca o di lavoratori della scienza per ragioni esterne alla validità della produzione scientifica in sé. Un’altra questione da evidenziare consiste nell’impossibilità di comparare, tramite l’h-index o altri indici numerici, la produzione scientifica di ricercatori appartenenti ad aree di competenza differenti. Difatti le modalità stesse di pubblicazione e di citazione possono cambiare a seconda dell’ambito scientifico, d’altra parte, un tale confronto è di poca utilità. Il problema sussiste nel momento in cui, all’interno della stessa area di ricerca, esistono delle sotto aree che presentano tempi caratteristici di pubblicazione differenti. Ad esempio, negli studi geologici, sono presenti sia ricerche di laboratorio (studio delle rocce attraverso il loro contenuto di isotopi) che ricerche sul campo (scavi archeologici). Dunque è chiaro che un bravissimo paleontologo avrà uno svantaggio “intrinseco” rispetto allo studioso di isotopi ed è altrettanto chiaro che è impossibile catturare questo tipo di informazione solamente attraverso l’h-index. L’h-index è senz’altro un ottimo stimatore della produttività di uno scienziato in quanto pesa adeguatamente quantità e qualità complessiva all’interno della sua carriera. Tuttavia è evidente come lo svantaggio produttivo intrinseco che si accennava precedentemente sussista ancor di più nel momento in cui ad essere confrontati sono ricercatori le cui condizioni lavorative differiscono molto in termini di fondi e attrezzature. E’ evidente come un laboratorio che, per condurre la sua attività di ricerca, condivide uno strumento di misura con molti altri, potrà risultare meno produttivo rispetto ad un laboratorio che, grazie a dei finanziamenti più sostanziosi, possiede tutti gli strumenti di cui ha bisogno. Una situazione del genere esiste anche qui alla Sapienza in cui è presente un solo microscopio a scanning elettronico condiviso tra il vasto numero di laboratori che ne ha bisogno per ottenere immagini ad alta risoluzione di superfici nanometriche (spesso essenziali in pubblicazioni di fisica e chimica). Tale microscopio è accessibile a spese del gruppo, con costi orari, in questo caso, dove il tempo di utilizzo è assai richiesto e dispendioso, i ricercatori sono costretti a fare misure frettolose e ad accontentarsi di risultati che con più ore a disposizione si sarebbero potuti rendere migliori. L’aspetto più interessante riguardo l’introduzione dell’h-index come parametro di produttività della scienza, risiede nei comportamenti che questo tipo di valutazione induce nel condurre il lavoro stesso della ricerca scientifica. In termini di h-index, viene premiato quel gruppo di ricerca che riesce a mantenere un’alta frequenza di pubblicazioni di impatto. Questa spinta ad avere sempre della ricerca fresca e appena sfornata prende il nome di “Backery effect” ed è direttamente connessa all’attitudine sempre più frequente di spezzettare i risultati di una singola ricerca in piccoli articoli, in ognuno dei quali vengono reintrodotti dall’inizio gli argomenti studiati. In questo modo si predilige una continua rielaborazione degli stessi articoli, dove si possono trovare intere parti di testo semplicemente ripetute con qualche modifica di forma; inoltre, nel momento in cui ci si riferisce a tali studi, si tendono a citare tutti gli articoli in questione. Dunque quello che poteva essere un solo articolo citato si trasforma in una miriade di piccoli articoli citati ognuno altrettante volte. Il vantaggio di questa strategia in termini di h-index è evidente, come lo è anche il vantaggio economico delle riviste stesse, visto l’alto costo delle submission; sia nelle pubblicazioni reader-pay con ingenti costi per le immagini o la pubblicazione cartacea, o nell’open-acces come prima accennato. Altra caratteristica del “Backery effect” è la tendenza a continuare ad indagare in campi di ricerca giudicati più “in voga”, nei quali ci si aspettano risultati con maggior sicurezza, invece che cercare di esplorare nuove aree nelle quali si potrebbe rischiare di non ottenere nulla di pubblicabile. In particolare quest’ultimo atteggiamento mette in discussione la stessa ricerca scientifica come strumento finalizzato all’ampliamento della conoscenza del mondo. \paragraph{Quanto costa questo meccanismo?} Le istituzioni universitarie, così come i singoli gruppi di ricerca o gli istituti privati si confrontano tutti col problema di sostenere economicamente la diffusione dei propri risultati scientifici. Nell’era degli indici bibliometrici e della caccia alle citazioni questo tipo di investimenti sono divenuti di estrema importanza. Essi avvengono i tre principali modalità: \begin{itemize} \item Il pagamento della rivista sulla quale un gruppo di ricerca intende pubblicare in Open Access. \item L’abbonamento alle riviste stesse da parte delle istituzioni (pubbliche o private), per far sì che il proprio personale o i propri studenti possano avere accesso a contenuti indispensabili, sia per il lavoro di ricerca che per la didattica. \item Le spese per partecipare a congressi e “missioni” in cui portare all’attenzione della comunità scientifica e dei finanziatori i propri risultati scientifici. \end{itemize} Per quanto riguarda il primo punto, il costo di una submission per pubblicare in Open Access va dai 500 ai 2000 euro a seconda della rivista. La pubblicazione di articoli non Open Access è invece gratuita, tuttavia, la visualizzazione dei contenuti sarà a pagamento per l’utente. Inoltre, per qualunque tipologia di pubblicazione, la rivista può richiedere un costo aggiuntivo per le immagini a colori o altri “optional” tipografici. Riguardo gli abbonamenti, questi vengono gestiti a vari livelli dalle istituzioni scientifiche. La Sapienza, ad esempio, spende circa tre milioni di euro all’anno per abbonare tutti i suoi dipendenti e studenti alle riviste dei tre grandi editori Springer, Elsevier e Wiley. Il dipartimento di fisica, dal canto suo, ne spende altri 80000 all’anno per garantire l’accesso a riviste più settoriali ma indispensabili per condurre una buona attività di ricerca. Sebbene questa spesa stia diminuendo di anno in anno, per un fisico della sapienza dotato di account istituzionale non vi sono grandi problemi di accesso alle riviste scientifiche main stream. Ma non tutte le università italiane possono permettersi una tale spessa annua e questo incide molto sulla disparità in termini di accessibilità e produzione scientifica. L’editore chiede all’istituzione richiedente una stima degli accessi ai contenuti che ci si aspetta in un dato intervallo di tempo ed in base a ciò decide il prezzo per abbonarsi. Le ristrettezze economiche della nostra università hanno portato negli anni ad una selezione continua delle riviste richieste e la configurazione monopolistica del mercato editoriale ha portato a prediligere pubblicazioni anche costose rispetto a produzioni più settoriali, spostando l’onere economico dell’accessibilità prima sui dipartimenti poi sugli stessi gruppi di ricerca. Sul tema della sponsorizzazione dei propri risultati ci sarebbe molto da dire, e le modalità variano molto rispetto all’ambito accademico. In generale la possibilità di partecipare ad una conferenza è una grande occasione per essere attivi nella propria comunità, sia offrendo spunti di ricerca agli altri gruppi che per avere un feedback immediato sull’impatto del proprio lavoro. Le conferenze sono eventi organizzati a volte dalle case editrici a volte dalle facoltà o dai network di ricerca,l in ogni caso c’è un forte costo da sostenere sia per la partecipazione che per la mobilità del lavoratore o della lavoratrice che vi parteciperà. Le spese sono generalmente sostenute dai gruppi di ricerca. Questo implica che gruppi con più fondi avranno una maggiore possibilità e facilità di partecipare con frequenza a conferenze sul proprio ambito di ricerca, o addirittura di organizzarne. Infine, nell’ottica che segna questo percorso, ovvero l’indagine sui flussi economici che intercorrono tra l’attività scientifica e il resto della società c’è da fare la seguente osservazione:  La produzione di scienza è sostenuta dai contribuenti attraverso il pagamento delle tasse e quindi dei salari dei docenti o dei ricercatori, è lecito chiedersi perché il lavoro che questi producono debba essere poi riacquistato, attraverso soldi pubblici e a costi molto maggiorati, per il tramite di aziende private, quali le case editrici, che ne traggono profitto.  Gli stessi contribuenti sono quindi costretti a pagare sia per garantire la produzione scientifica, sia, a causa dell’intermediario privato, per garantire l’accessibilità e la circolazione dei risultati!