100news Scienza (15 gennaio 2014) - Associazione Italiana del Libro

raccolta del
15 gennaio 2014
dal sito di divulgazione scientifica
dell’Associazione Italiana del Libro
scienza
scienza
15 gennaio 2014
Sommario
Le sfide della complessità e il contributo dell'intelligenza artificiale chimica
Pier Luigi Gentili
pag. 3
Oltre la paura della "valutazione". Si
può?
Maria Grazia Riva e Viviana Vinci
pag. 11
Nuove immagini e scoperte sensazionali da Curiosity su Marte
Andrea Billi
pag. 5
Terapia chirurgica mini-invasiva dell’emicrania: tecnica personale
Edoardo Raposio, Giorgia Caruana,
Elena Boschi, Nicolò Bertozzi,
Eugenio Grignaffini
pag. 13
Una tazza di caffè? Gli effetti benefici della bevanda in numerose patologie umane
Salvatore Sutti
pag. 6
Vita su Marte e dintorni
Domenico Ridente
pag. 8
“Buchi-verme” ed “entanglement”
sulla strada dell’unificazione delle
forze
Paolo Di Sia
pag. 9
Quando a Napoli ci fu il boom della
Chimica
Vincenzo Villani
pag. 18
Luci che accompagnano o precedono
i terremoti
Andrea Billi
pag. 20
Dieta mediterranea 2.0
Nadia di Carluccio
pag. 31
Dalla complessità interdisciplinare
alla complicazione valutativa
Graziella Tonfoni
pag. 32
L'Agenda digitale del Web 3.0
Valerio Eletti
pag. 35
La chirurgia dell’occhio vede lontano
Daniela De Vecchis
pag. 36
Il mobile learning di fronte e di profilo
Michelle Pieri
pag. 38
All’interno:
Speciale 1° Premio Nazionale di
Divulgazione Scientifica
I libri premiati dalla giuria pag. 21
Per collaborare con 100news Scienza
Per collaborare con il sito di divulgazione scientifica
dell’Associazione Italiana del Libro
o per scrivere sui fascicoli di 100news Scienza
inviare i propri articoli, saggi, ricerche o segnalazioni a: info@100news.it
Si prega di allegare un breve profilo bio-bibliografico e di indicare la propria area scientifica di riferimento secondo
la classificazione del MIUR:
1 – Scienze matematiche e informatiche
2 – Scienze fisiche
3 – Scienze chimiche
4 – Scienze della terra
5 – Scienze biologiche
6 – Scienze mediche
7 – Scienze agrarie e veterinarie
8 – Ingegneria civile e architettura
9 – Ingegneria industriale e dell’informazione
10 – Scienze dell’antichità, filologico-letterarie e storico-artistiche
11 – Scienze storiche, filosofiche, pedagogiche e psicologiche
12 – Scienze giuridiche
13 – Scienze economiche e statistiche
14 – Scienze politiche e sociali
2
scienza
15 gennaio 2014
Le sfide della complessità e il contributo
dell'intelligenza artificiale chimica
di Pier Luigi Gentili
La scienza contemporanea è chiamata a vincere le sfide della
Complessità.
Esistono due tipi di sfide della
Complessità.
Il primo tipo riguarda la comprensione e predizione del comportamento di sistemi Complessi Naturali.
Esempi di sistemi Complessi Naturali
sono gli ecosistemi, il clima, gli esseri viventi sia uni- che pluri-cellulari, e
qualunque organizzazione sociale ed
economica umana.
Il secondo tipo concerne la
Complessità Computazionale e consiste (i) nella soluzione accurata ed in
tempi ragionevoli dei problemi NP
(Polinomiali Non-deterministici) e (ii)
nella formulazione generale di regole
per il riconoscimento di forme variabili come i volti o le voci umane, la
scrittura a mano, etc…
Per cercare di vincere le sfide della
Complessità, la scienza contemporanea sta adottando tre strategie differenti.
La prima strategia consiste nel progettare e realizzare supercomputer
sempre più potenti e veloci perché
affrontare la Complessità significa in
genere trattare un numero enorme di
dati. A novembre di questo anno
(2013), il progetto internazionale
TOP500 [1] ha confermato che il
supercomputer più veloce al mondo
è il cinese Tianhe-2, che raggiunge la
ragguardevole velocità di 33.86 petaflop/s (un petaflop per secondo corrisponde a 10^15 operazioni in virgola
mobile al secondo) e ha una memoria
di un milione di GB. Secondo il progetto TOP500, una velocità computazionale di un exaflop/s dovrebbe
esser raggiungibile entro il 2018. Tali
supercomputer permetteranno di
trattare in maniera sempre più accurata la predizione del comportamento di Sistemi Complessi Naturali.
La seconda strategia si basa sul
programma di ricerca denominato
“Natural Computing” [2]. Tale programma è interdisciplinare e coinvolge informatici, matematici, biologi,
chimici, fisici, ingegneri. Il suo scopo
è di proporre (i) nuovi algoritmi e
nuovi materiali (alternativi ai semiconduttori inorganici che utilizziamo
negli attuali computer) per affrontare
le
sfide
della
Complessità
Computazionale e (ii) nuovi modelli
per descrivere i Sistemi Complessi
Naturali. Il tutto è eseguito traendo
ispirazione dalla Natura.
La terza strategia consiste nello
sviluppare l’Intelligenza Artificiale. I
ricercatori
che
lavorano
nell’Intelligenza Artificiale sono guidati dal progetto ambizioso di comprendere le fondamenta ed i meccanismi di funzionamento della mente
umana per cercare di riprodurli artificialmente. Questo progetto ha rice-
vuto un rinnovato impulso con l’iniziativa denominata “Decennio della
mente”. Tale iniziativa è stata avviata
con una conferenza di scienziati
americani presso la George Mason
University nel maggio 2007 ed ha
portato alla stesura di un manifesto
pubblicato come lettera all’editore
nella rivista Science [3].
Qualunque successo significativo
nel campo dell’Intelligenza Artificiale
avrebbe un impatto positivo nelle
sfide alla Complessità. Infatti esso
svelerebbe alcuni segreti della
Complessità Naturale perché il sistema nervoso umano è un prototipo di
sistema complesso. Inoltre fornirebbe nuovi strumenti per affrontare
quelle sfide della Complessità
Computazionale note come riconoscimento di forme variabili. Infatti il
cervello umano è particolarmente
3
scienza
15 gennaio 2014
efficiente nel richiamare alla memoria forme anche mutevoli.
In un recente libro [4], gli scienziati
cognitivi Gallistel e King, in accordo
con il neuro-scienziato Marr, sostengono che per comprendere un sistema biologico complesso come il
nostro cervello, è necessario realizzarne un’analisi a tre livelli distinti. Il
primo livello è quello computazionale e consiste nel descrivere gli input,
gli output e i compiti che il sistema
compie. Il secondo livello è quello
algoritmico e consiste nel formulare
algoritmi che possano realizzare quei
compiti. Infine c’è il terzo livello che
è quello di implementazione e consiste nel cercare meccanismi che possano permettere di far lavorare gli
algoritmi formulati nel livello precedente.
Nella mia ricerca finalizzata allo
sviluppo dell’Intelligenza Artificiale
Chimica [5] sto seguendo la metodo4
logia proposta da Gallistel, King e
Marr. Analizzo il sistema nervoso
umano ai tre livelli. A livello computazionale ed algoritmico integro la
logica Fuzzy con la teoria probabilistica di Bayes per modellizzare il
ragionamento umano. A livello di
implementazione propongo l’uso di
composti cromogenici come surrogati degli elementi sensoriali naturali e
le reazioni chimiche oscillanti, come
quella di Belousov-Zhabotinsky,
come modelli della dinamica neuronale.
L’intelligenza
Artificiale
Chimica si avvicinerà sempre più alla
capacità umana di prendere decisioni in situazioni complesse ed a riconoscere forme variabili, quanto più
sarà in grado di elaborare logica
Fuzzy. Infatti la logica Fuzzy è un
buon modello dell’abilità dell’uomo
di “calcolare” utilizzando le parole.
Riferimenti:
[1] www. Top500.org
[2] L. N. de Castro, Fundamentals of
natural computing: an overview.
Phys. of Life Rev. 2007; 4: 1–36.
[3] J. S. Albus, G. A. Bekey, J. H. Holland,
N. G. Kanwisher, J. L. Krichmar, M.
Mishkin, D. S. Modha, M. E. Raichle, G.
M. Shepherd and G. Tononi, Science,
2007, 317, 1321.
[4] C. R. Gallistel, A. King, Memory and
the computational brain: Why cognitive science will transform neuroscience. New York, Blackwell/Wiley;
2009.
[5] P. L. Gentili, Small Steps towards
the Development of Chemical
Artificial Intelligent Systems. RSC
Adv. 2013; 3: 25523-25549.
Pier Luigi Gentili. Docente di “Indagini di Sistemi Complessi” presso il
Dipartimento di Chimica, Biologia e Biotecnologie dell’Università di
Perugia, possiede la Laurea in Chimica ed il Dottorato in Scienze
Chimiche, conseguiti entrambi presso l’Università di Perugia. Nella sua
ricerca si occupa di Complessità, Caos, Intelligenza Artificiale Chimica,
logica Fuzzy, Fotochimica ed Energia solare. Attualmente lavora presso
il Gruppo di Fotofisica e Fotochimica dell’Università di Perugia. Ha
lavorato anche presso il “Gruppo di Biologia Digitale” dell’University
College of London (UK), il “Gruppo di Dinamica Non-lineare” della
Brandeis University (MA, USA), il “Laboratorio Europeo di Ottica Nonlineare” (LENS) di Firenze, il “Centro per le Scienze Fotochimiche” della
Bowling Green State University (OH, USA) ed il “Laboratorio di Chimica
e Fotochimica Computazionale” dell’Università di Siena.
scienza
15 gennaio 2014
Nuove immagini e scoperte sensazionali da
Curiosity su Marte
di Andrea Billi
Yellowknife Bay, Gale Crater, Marte. Fotomosaico delle immagini provenienti dal rover Curiosity.
Immagine tratta da Grotzinger et alii, 2013, Sciencexpress, doi: 10.1126/science.1242777.
Le nuove immagini ed i nuovi dati
inviati da Marte dal rover Curiosity
sono sensazionali. Le evidenze
scientifiche indicano che l’area
investigata, denominata Yelloknife
Bay nel Gale Crater, potrebbe aver
ospitato in un passato remoto un
lago nel quale la vita di specie quali
i microbi chemolitoautotrofi era
teoricamente possibile. Gli organismi chemolitoautotrofi sono in
grado di sfruttare le reazioni inorganiche redox come fonte di energia e
la CO2 come fonte di carbonio
necessaria per la sintesi della materia organica.
Fin dall’inizio, circa 16 mesi fa,
l’obiettivo principale del rover
Curiosity all’interno del Gale Crater
è stato quello di cercare le evidenze
di una vita marziana vecchia di
circa 4 miliardi di anni. Si tratta di
scoprire le evidenze fossili di forme
di vita minuscole, molecolari. Per
fare questo, gli scienziati, attraverso
Curiosity, hanno individuato degli
strati rocciosi di possibile origine
lacustre. Si tratterebbe di rocce formatesi dalla compattazione e
cementazione di minuscoli granelli
di roccia, di pulviscolo e di materia
organica depositatisi sul fondo di un
antichissimo lago. Tali strati potrebbero contenere le evidenze fossili di
un’antica vita microbica all’interno
del lago. Per cercare tali evidenze,
Curiosity è stato attrezzato con
strumenti analitici ad hoc.
Il rover ha raccolto della polvere
marziana e l’ha confrontata con la
polvere proveniente da piccoli carotaggi effettuati all’interno degli strati rocciosi di possibile origine lacustre. I campioni sono stati trattati e
scaldati ad alta temperatura per
registrarne le emissioni di CO2. Le
emissioni provenienti dagli strati
lacustri hanno prodotto una quantità di CO2 maggiore di quella raccolta dal riscaldamento della polvere
marziana. “Potrebbe trattarsi di
combustione di materia organica”
ha affermato uno degli scienziati
del team che conduce le analisi. Le
evidenze non sono ancora conclusive, ma la strada è quella giusta per
cercare antiche forme di vita su
Marte.
I risultati sensazionali sono stati
appena pubblicati in sette articoli
scientifici sulla prestigiosa rivista
Science.
Andrea Billi, geologo, dal 2008 è ricercatore a Roma presso il
Consiglio Nazionale delle Ricerche (CNR). Si è laureato in Scienze
Geologiche presso la Sapienza Università di Roma (1994) ed ha poi
conseguito un dottorato in Geodinamica presso l’Università Roma
Tre (2001). È autore di più di cinquanta articoli scientifici
(www.andreabilli.com) a carattere sia nazionale sia internazionale
ed ha collaborato con numerose istituzioni di ricerca italiane e straniere. Prima di lavorare presso il CNR, ha lavorato a lungo presso
l’Università Roma Tre. È un ricercatore versatile che si occupa di
numerose tematiche di ricerca tra cui terremoti, vulcani, tsunami,
frane e fluidi idrotermali. Il suo maestro è stato Renato Funiciello,
indimenticato professore di geologia a Roma.
5
scienza
15 gennaio 2014
Una tazza di caffè? Gli effetti benefici della
bevanda in numerose patologie umane
di Salvatore Sutti
Il caffè è una preparazione, dall’aroma e dal sapore inconfondibile,
entrata a far parte della dieta
umana già a partire dal XV secolo e
viene prodotta a partire dai semi
tostati della pianta del caffè. Nelle
sue varie forme è una della bevande
più consumate nel mondo, grazie
alle sue proprietà moderatamente
stimolanti, all’aroma ed al gusto.
Evidenze sperimentali suggeriscono che il consumo di caffè abbia
effetti benefici in numerose patologie umane, infatti è stato descritto
come bevitori cronici di caffè possano avere un rischio ridotto di sviluppare diabete di tipo 2, calcolosi
biliare sintomatica, malattia di
Parkinson, patologie cardiache ed
ictus.
Le patologie epatiche croniche
rappresentano uno dei maggiori
problemi di salute negli Stati Uniti,
dove costituiscono la dodicesima
causa di morte, tanto è vero che,
solo nel 2009 si sono registrati 30
000 decessi ad esse imputabili. La
fibrosi epatica così come la cirrosi
sono la conseguenza di processi
rigenerativi continui in risposta a
stimoli nocivi, quali l’infezione da
parte del virus dell’epatite B, C e
l’abuso cronico di alcol. La cirrosi
costituisce la fase terminale ed irreversibile della reazione fibrotica e si
caratterizza per la compromissione
della architettura e della funzionalità
epatica.
Il
processo
fibrotico/cirrotico porta alla formazione di noduli a livello del fegato
ed all’accumulo di proteine della
matrice extracellulare tra cui collagene I-III, proteoglicani e glicoproteine. Nelle epatopatie croniche la
perdita della funzionalità epatica
inizia con una cascata di eventi che
portano, dapprima al reclutamento
di cellule infiammatorie, poi alla
attivazione delle cellule epatiche
stellate capaci, a loro volta, di pro6
durre collagene. Poiché la cronicizzazione della fibrosi/cirrosi può
evolvere verso lo sviluppo di carcinoma epato-cellulare (HCC), i ricercatori hanno concentrato tutti i loro
sforzi per la messa a punto di strategie volte ad inibire la deposizione
di matrice extracellulare e lo sviluppo di neoplasie.
Negli ultimi 20 anni numerosi
scienziati hanno focalizzato la loro
attenzione sui potenziali effetti
benefici del caffè nei confronti di
varie malattie epatiche. Nel 1992,
Klatsky e Amstrong hanno descritto
l’esistenza di una relazione inversa
tra consumo di caffè e l’insorgenza
di cirrosi alcolica, in particolare
hanno evidenziato come i soggetti
che consumavano 4 o più tazze di
caffè al giorno mostravano 1/5 del
rischio di cirrosi rispetto ai non
bevitori di caffè. Queste osservazioni suggerirebbero un potenziale
effetto epato-protettivo del caffè
nei soggetti che abusano cronicamente di alcol. Inoltre, Modi e collaboratori hanno descritto come
un’assunzione di caffè superiore
alle due tazze al giorno era associata ad un tasso di fibrosi epatica più
basso in pazienti affetti da epatopatie croniche. Nel mondo più di 180
milioni di persone hanno una infe-
scienza
zione cronica da virus dell’epatite C
(HCV) e circa 350.000 persone muoiono ogni anno di complicanze ad
essa correlate, tra cui cirrosi scompensata e/o HCC. Studi caso controllo hanno dimostrato come il
consumo di caffè possa determinare un rischio ridotto di epatocarcinoma nei pazienti affetti da HCV.
Non solo, Catalano e colleghi hanno
evidenziato una associazione inversa tra l’assunzione di caffè e l’incidenza di steatosi epatica (NAFLD),
obesità ed insulino-resistenza.
Analisi sperimentali volte ad individuare i meccanismi molecolari
alla base degli effetti benefici del
caffè hanno principalmente rivolto
l’attenzione verso le sue proprietà
antiossidanti. Tuttavia, nella comunità scientifica è ancora in atto un
ampio dibattito al fine di identificare quali siano i mediatori molecolari responsabili degli effetti protettivi di questa bevanda: il caffè di per
sé, la caffeina, l’acido clorogenico, i
diterpeni cafestol e kahweol? Il
caffè è composto da più di 100
molecole che potrebbero mediare
l’azione epato-protettiva, altresì
non è possibile escludere un’azione
sinergica tra più principi attivi.
Altri punti oscuri rimangono
ancora da decifrare: miscele diverse, gradi di tostatura, metodi di preparazioni (filtrato, non filtrato,
espresso) possono influenzare le
proprietà “terapeutiche” del caffè?
Sebbene sia chiaro che il caffè abbia
un effetto salutare sul fegato, la
mancanza di una standardizzazione della dimensione della tazza
(contenuto, volume) tra i diversi
studi descritti sinora rende difficile
identificare quale sia la quantità
giornaliera di caffè necessaria
15 gennaio 2014
affinché si manifestino, diciamo
così, i suoi “prodigi”.
Fonti bibliografiche:
Coffee and Non-Alcoholic Fatty Liver
Disease: Brewing evidence for hepatoprotection? Chen S, Teoh NC,
Chitturi S, Farrell GC.J Gastroenterol
Hepatol.2013
Nov
7.
doi:
10.1111/jgh.12422.
Impact of coffee on liver diseases: a
systematic review. Saab S, Mallam D,
Cox Ii GA, Tong MJ. Liver Int. 2013
Salvatore Sutti. Laurea Magistrale in Scienze Biologiche Applicate,
Dottorato di Ricerca in Medicina Molecolare.
Aug 12. doi: 10.1111/liv.12304.
Prevention of rat liver fibrosis and
carcinogenesis by coffee and caffeine. Furtado KS, Polletini J, Dias MC,
Rodrigues MA, Barbisan LF. Food
Chem Toxicol.2013 Nov 22. doi:pii:
S0278-6915(13)00756-4.
10.1016/j.fct.2013.11.011.
Association of coffee and caffeine
consumption with fatty liver disease, nonalcoholic steatohepatitis, and
degree of hepatic fibrosis. Molloy JW,
Calcagno CJ, Williams CD, Jones FJ,
Torres DM, Harrison SA. Hepatology.
2012 Feb; 55 (2):429-36.
7
scienza
15 gennaio 2014
Vita su Marte e dintorni
di Domenico Ridente
E’ di qualche giorno fa la notizia che
Curiosity, il “robottino” in missione su
marte, si sia imbattuto in depositi
argillosi che, secondo gli esperti, si
sarebbero originati in un antico lago
dalle caratteristiche fisico-chimiche
adatte allo sviluppo di organismi
microbici. Il posto giusto dove cercare
tracce di vita, dunque…che sia la volta
buona? Può darsi, ma mi verrebbe da
dire agli astrobiologi, e ai tanti ottimisti col fiato sospeso: “signori, vi presento Charles Robert Darwin”. Mi sorprende, infatti, la scarsa considerazione che l’astrobiologia riserva a una
delle poche teorie scientifiche che sia
riuscita ad attraversare indenne 150
anni di critiche e verifiche: la teoria
evolutiva di Darwin.
L’idea di evoluzione è avversa al
nostro senso comune, più di quanto lo
sia, ad esempio, quella di un campo di
forza invisibile che induca una mela a
cadere dall’albero. Ma l’evoluzione
non è un fenomeno meno reale della
forza di gravità. E il paradigma che ne
spiega il meccanismo, la selezione
naturale, quand’anche non fosse
l’unico principio agente, è l’unico finora plausibile. Come hanno spiegato,
tra gli altri, Monod, Jacob e Gould, il
caso e la contingenza sono i termini
principali dell’equazione che lega la
selezione naturale all’evoluzione. Ma
quanto può essere fondata un’equazione che si regge su caso e contingenza? A giudicare da una lapidaria
affermazione di Dobzhansky, uno
degli artefici della versione moderna
della teoria di Darwin, è fondata e
come. Secondo Dobzhansky “nulla ha
senso in biologia se non alla luce dell’evoluzione”.
E’ difficile capire il senso di questa
esternazione, al contempo un po’
banale e un po’ pretenziosa, se non si
comprende appieno il significato della
teoria darwiniana. O, peggio ancora, se
la si accetta per fede, senza quel travaglio logico necessario a cogliere le
8
implicazioni in merito alla “vita possibile”. Ma se Dobzhansky non ha preso
un abbaglio, gli ambiziosi e costosi
programmi per la ricerca della vita su
altri pianeti dovrebbero basarsi su un
presupposto coerente con il paradigma
evolutivo
attualmente
accreditato.
Un
tale presupposto
non è stato però
formulato.
Del
“lungo ragionamento” di Darwin,
l’astrobiologia ha
fatto suo soltanto
(e in modo improprio) il concetto di
“convergenza evolutiva”, ritenendo
ciò sufficiente a presumere che un
batterio possa originare, per evoluzione darwiniana, più volte e distintamente sulla Terra e su Marte.
Darwin una volta si definì “cappellano del diavolo”, alludendo alla contrapposizione tra la visione del mondo
che scaturiva dalla sua idea di evoluzione e quella improntata sul dio creatore. Penso che accetterebbe di essere
accostato a un umile “oste”, permettendomi così di affermare che gli
astrobiologi, forse, stanno facendo “i
conti senza l’oste”.
Se la convergenza evolutiva è il principio vitale universale per cui l’astro-
biologia “ha senso alla luce dell’evoluzione”, allora credo sia ancora più lecito cercare la vita oltre la Terra in base
al principio che ha ispirato il primo
astrobiologo della storia, Giordano
Bruno. Egli credeva che dio fosse creatore e al tempo
stesso parte integrante della materia, e che in un
universo così pervaso di essenza
creatrice
non
sarebbe stato logico pensare che la
Terra
soltanto
potesse
aver
beneficiato della
creazione
della
vita. Una meravigliosa visione questa, di certo più confortante di quella di un’evoluzione in
balia delle onde del caso lungo le rotte
della contingenza, imprevedibile
timoniere che, seguendo snodi improbabili, traccia percorsi evolutivi più
unici che rari, persino a fronte dello
sterminato numero di pianeti, stelle e
universi possibili.
“Infinite forme bellissime” chiosò
Darwin riferendosi ai prodotti dell’evoluzione. Quale delusione per gli
astrobiologi, e quale grande responsabilità per tutti noi se, davvero, di una
tale infinita bellezza, la Terra soltanto
avesse beneficiato.
Domenico Ridente è Ricercatore all’Istituto di Geologia Ambientale e
Geoingegneria (IGAG) del CNR di Roma. Collabora con Università
Sapienza, presso cui è titolare dell’insegnamento “Geologia dei Mari
Italiani” (Laurea Magistrale in Scienze del Mare e del Paesaggio
Naturale). Svolge attività di ricerca in geologia marina, con particolare
interesse per i temi di stratigrafia, paleoclima, geomorfologia e rischio
geologico. Ha svolto campagne oceanografiche in Mediterraneo e in
Antartide nell’ambito di progetti di ricerca italiani e internazionali.
Attualmente è Responsabile Scientifico dell’Azione “Pericolosità
Geologiche dei Mari Italiani”, nell’ambito del Progetto RITMARE
(Ricerca Italiana per il Mare – CNR e MIUR).
scienza
15 gennaio 2014
“Buchi-verme” ed “entanglement” sulla
strada dell’unificazione delle forze
di Paolo Di Sia
La fisica teorico-speculativa ha scoperto un collegamento tra due realtà
matematiche molto particolari studiate nella fisica teorica delle alte
energie: gli “wormholes” (buchiverme) e un fenomeno quantistico
chiamato “entanglement” (intreccio).
Ciò potrebbe aiutare i fisici nello storico tentativo di conciliare i due pilastri della fisica moderna, ossia la
meccanica quantistica e la teoria
generale della relatività di Einstein.
L’entanglement collega particelle
quantistiche in modo tale che le azioni effettuate su una di esse influenza
immediatamente l’altra, oltrepassando principi attualmente fondamentali, come quello della velocità finita
della luce. Due particelle intrecciate
in tal modo risultano completamente
correlate, anche se sono ad anni-luce
di distanza [1].
Gli wormholes sono una delle
spettacolari previsioni della teoria
generale della relatività di Einstein,
la quale descrive come gli oggetti
massivi deformano lo spazio e il
tempo, o più in generale lo spaziotempo, creando gli effetti che chiamiamo gravità. Se un oggetto è dotato di una grande massa, può creare
una sorta di imbuto nello spaziotempo, detto buco nero, da cui nemmeno la luce può sfuggire. In linea di
principio, due buchi neri separati
potrebbero connettersi come due
trombe disposte una opposta all’altra, creando in tal modo una scorciatoia attraverso lo spazio-tempo chiamata “wormhole” [2].
A prima vista entanglement e wormholes sembrerebbero offrire un
modo per aggirare la massima di
Einstein secondo cui nulla può viaggiare a velocità superiori rispetto a
quella della luce. Di fatto però l’entanglement non può essere utilizzato per inviare segnali più veloci della
luce per l’impossibilità di controllo
della misurazione in uscita della
prima particella, problema che si
riflette sull’impossibilità di controllo
dello stato di quella lontana. Allo
stesso modo il passaggio attraverso
un wormhole non rende possibile
sfuggire al buco nero all’altra estremità. Nonostante quanto detto,
sembra tuttavia esserci un’interessante connessione tra questi due
concetti. Juan Maldacena, teorico
presso l’Institute for Advanced
Study di Princeton (New Jersey) e
Leonard Susskind, teorico presso la
Stanford University di Palo Alto
(California) hanno immaginato di
“entanglare” gli stati quantistici di
due buchi neri, pensando poi di
allontanarli. Quando questo accade,
si forma tra i due buchi neri un wormhole; tale connessione con un
wormhole dovrebbe anche essere
possibile tra due particelle quantistiche ordinarie, come i quark, che
formano protoni e neutroni.
Kristan Jensen dell’Università di
Victoria (Canada) e Andreas Karch
dell’Università
di
Washington
(Seattle) hanno immaginato una coppia “entanglata” quark-antiquark
nell’ordinario spazio tridimensionale
[3]. I due quark si allontanano reciprocamente a velocità prossime a
quella della luce, in modo che diventi irrealizzabile il passaggio di segna9
scienza
15 gennaio 2014
li da uno all’altro. In base al “principio olografico”, essi suppongono che
lo spazio tridimensionale in cui i
quark risiedono sia un confine ipotetico di un mondo a 4 dimensioni. In
questo spazio tridimensionale la coppia entangled di quark è collegata da
una sorta di stringa concettuale, ma
nello spazio a 4 dimensioni la stringa
diventa un wormhole.
Julian Sonner del Massachusetts
Institute of Technology di Cambridge,
basandosi sul lavoro di Karch e
Jensen, ha immaginato una coppia
quark-antiquark che viene posta in
un forte campo elettrico, che accelera
le particelle in direzioni opposte [4],
determinando che le particelle
entangled nel mondo tridimensionale sono collegate da un wormhole nel
mondo a 4 dimensioni. Il wormhole e
la coppia entangled non vivono nello
stesso spazio, ma sono matematicamente equivalenti.
Il “principio olografico”, prima
10
menzionato, è
stato creato da
Maldacena, fisico
teorico
argentino; esso
attesta che una
teoria quantistica con gravità in
un dato spazio è
equivalente ad
una
teoria
quantistica
senza gravità in
uno spazio con
una dimensione
in meno, il quale
costituisce
il
bordo dello spazio
originario
[5]. Detto in altri
termini, i buchi
neri all’interno
dello spazio a 4
dimensioni e il
wormhole che li
collega sono matematicamente equivalenti alle loro “proiezioni olografiche” esistenti sul confine tridimensionale. Tali proiezioni olografiche
risultano particelle che seguono le
leggi della meccanica quantistica, ma
in assenza di gravità, più una corda
(stringa) che le collega.
L’intuizione di collegare entanglement con wormholes sembra davvero un grande passo in avanti, anche
se Susskind e Maldacena notano che
in entrambi i lavori dei colleghi ([3,4])
le particelle quantistiche originali
risiedono in uno spazio senza gravità. In un modello tridimensionale
semplificato, privo di gravità, non
possono esserci buchi neri e/o wormholes; la connessione ad un wormhole in uno spazio di dimensione
superiore potrebbe così essere solo
una semplice analogia matematica.
Karch e colleghi ritengono tuttavia
che i loro calcoli possono essere un
primo importante passo verso la
verifica della teoria di Maldacena e
Susskind. Il loro modello senza gravità dà una concreta realizzazione dell’idea che la geometria di wormhole e
l’entanglement possono fornire differenti manifestazioni di una stessa
realtà fisica.
Riferimenti bibliografici:
1.http://en.wikipedia.org/wiki/Quant
um_entanglement
2.http://en.wikipedia.org/wiki/Worm
hole
3. K. Jensen and A. Karch, Holographic
Dual of an Einstein-Podolsky-Rosen
Pair has a Wormhole, Phys. Rev. Lett.
111, 211602, 5 pp., 2013
4. J. Sonner, Holographic Schwinger
Effect and the Geometry of
Entanglement, Phys. Rev. Lett. 111,
211603, 4 pp., 2013
5.http://en.wikipedia.org/wiki/Hologr
aphic_principle
Paolo Di Sia: Bachelor in metafisica, laurea in fisica teorica, dottorato
di ricerca in modellistica matematica applicata alle nanobiotecnologie.
Principali interessi scientifici: nanofisica classica e quantorelativistica,
fisica teorica, fisica alla scala di Planck, filosofia della mente, econofisica, filosofia della scienza. Autore di 81 articoli su riviste nazionali e
internazionali (pubblicati e "under revision" al 20 Ottobre 2013), di 2
capitoli di libri scientifici internazionali, di 3 libri di matematica (quarto in preparazione), revisore di 2 libri di matematica per l'universita';
in preparazione un capitolo per un'enciclopedia scientifica internazionale.
scienza
15 gennaio 2014
Oltre la paura della "valutazione". Si può?
di Maria Grazia Riva e Viviana Vinci
Come avviene la valutazione formale e informale nei servizi educativi per adolescenti? Quali sono i
modelli e gli strumenti di valutazione in atto? È possibile ri-pensarli
criticamente per valutare “pedagogicamente” il lavoro educativo?
A partire da tali interrogativi, sono
stati presentati e condivisi, in occasione di un Seminario presso
l’Università degli Studi di MilanoBicocca, i risultati della ricerca
"Politiche e culture della valutazione: tra le pratiche quotidiane informali e le procedure codificate.
Studio di caso di servizi educativi
per l'adolescenza".
La ricerca, avviata nel 2011 e proseguita per la durata di 2 anni, è
stata coordinata da Maria Grazia
Riva dell’Università di Milano
Bicocca e si colloca all’interno di
una rete di ricerca nazionale.
Questa rete è costituita da 5
Università italiane, impegnate,
come unità locali, nello svolgimento
di ricerche affini sulle pratiche valutative in diversi contesti educativi e
formativi;
si
tratta,
oltre
all’Università di Milano-Bicocca,
dell’Università Cattolica di Milano,
Pavia, Trento e Verona .
L’ipotesi che sottende la ricerca è
che la valutazione avvenga sempre
in ogni gesto del quotidiano: esistono delle pratiche sommerse e invisibili a chi le adopera, indipendenti
dai protocolli e dalle procedure di
valutazione codificate che, pur
essendo agite, restano implicite,
inaccessibili alla consapevolezza e
alla riflessione di chi opera nei servizi, non documentate e codificate.
Diversi gli scopi della ricerca, fra
cui: analizzare, in primis, i modelli
di valutazione presenti nelle normative ufficiali, nazionali e regionali, dedicati alla valutazione dei servizi educativi per adolescenti, individuandone gli elementi espliciti ed
impliciti; mettere a confronto, in
secondo luogo, i dati emergenti dall’analisi della documentazione codificata con i dati raccolti sul campo,
relativi alle concrete pratiche di
valutazione messe in atto in due
servizi per adolescenti nella realtà
lombarda. La ricerca è strutturata
come "collective case study", ossia
come studio in profondità di più
realtà, in questo caso rappresentative di due tipologie d'intervento presenti nel territorio lombardo: 1) servizi “tradizionali”, consolidati, come
le Comunità residenziali per minori;
2) servizi definiti “innovativi”, come
i Servizi sperimentali, volti a prevenire e recuperare situazioni di
dispersione scolastica e ad orientare ad una scelta lavorativa ragazzi e
ragazze “inattivi”, fuori dal circuito
scolastico e privi di occupazione.
Il protocollo di indagine ha previsto sessioni osservative, interviste,
focus group, un percorso clinicopedagogico di riflessione sui significati e sulle pratiche di valutazione,
incontri di approfondimento della
documentazione della valutazione
formale del servizio, incontri
di restituzione
dei
risultati
della
ricerca.
Sono
stati
approfonditi, in
particolare, rappresentazioni e
significati della
valutazione da
parte degli operatori nei servizi, relative ad
alcuni
livelli
specifici individuati nel corso
dell’indagine: la
valutazione
d e i / l l e
ragazzi/e, del
lavoro educativo, del servizio e dell’équipe (attraverso brainstorming,
strumenti narrativi, ludici e proiettivi, scritture collettive, momenti di
rielaborazione e riflessione guidata).
Sono stati utilizzati approcci ispirati al metodo della ricerca partecipata, con un taglio clinico-pedagogico, attraverso metodologie di ricerca
‘attive', in grado di far emergere ciò
che è più significativo per gli operatori coinvolti nella ricerca, lavorando sulle pratiche quotidianamente
agite.
Attraverso la costituzione di una
rete di ricerca partecipata fra ricercatori e operatori dei servizi educativi, il progetto di ricerca ha inteso
co-costruire un percorso per individuare modelli, pratiche e strumenti
di valutazione adeguati alla complessità dei servizi educativi; decostruire il significato del concetto
“valutazione”, associato nell'immaginario collettivo alla paura del giudizio, per esplorare altre connotazioni positive che essa può assumere, come risorsa; avviare processi
11
scienza
15 gennaio 2014
culturali, trasformativi e riflessivi in
grado di proporre una cultura pedagogica della valutazione del lavoro
educativo, più efficace anche per
una sua documentazione, rappresentazione e comunicazione all’esterno.
Ciò significa, in sintesi,
invertire la direzione della
cultura
valutativa
in
ambito educativo, da strumento di controllo, accreditamento e rendicontazione burocratica, a strumento soprattutto utile ai
servizi stessi, agli enti del
territorio, agli interlocutori
istituzionali.
All'inaridimento
delle
pratiche valutative solo
misurative o ridotte ad
adempimento amministrativo, lontano da una
prospettiva capace di
entrare in dialogo con il
senso dell'agire, si è contrapposta la definizione di
una specifica cultura e
politica della valutazione,
basata su una teoria locale, cioè costruita insieme
agli specifici attori di un
determinato
contesto
sociale e territoriale (gli
operatori e i dirigenti dei diversi
servizi del territorio): una valutazione pensata come un insieme di attività, volte non a una mera certificazione, ma a una produzione di conoscenza, capace di indurre miglioramenti nella pratica lavorativa e di
sviluppare processi autovalutativi
nei contesti professionali.
La ricerca ha contribuito a produrre conoscenza sullo stato attuale
delle culture e dei modelli della
valutazione, ha permesso di esami-
nare criticamente le pratiche concrete di valutazione e ha prodotto
nuovi orientamenti per la valutazione nei servizi educativi per minori. È
stato possibile, ad esempio, sviluppare la consapevolezza degli operatori sulla necessità di costruire
nuovi strumenti di valutazione che,
Maria Grazia Riva. Professoressa Ordinaria. Pedagogia Generale,
Dipartimento di Scienze Umane per la Formazione ‘Riccardo Massa’,
Università di Milano-Bicocca
Viviana Vinci. PHD e Assegnista di ricerca, Università di Bari
12
per un verso, esprimano la qualità
del lavoro educativo nelle sue
dimensioni implicite, quotidiane,
emozionali (routine, valori, processi,
stili, dinamiche, trasformazioni) e,
allo stesso tempo, siano
comprensibili anche da
stakeholders esterni.
I
risultati
hanno
mostrato la complessità
dei processi valutativi, in
cui coesistono trasversalmente diversi soggetti,
oggetti, contesti, livelli,
culture, modelli, strumenti e procedure. È emersa la
percezione da parte degli
operatori di un valutarsi
reciprocamente e quotidianamente nel lavoro
educativo, di sentirsi
parte di un Servizio che
valuta gli altri e, allo stesso tempo, è “oggetto di
valutazione” altrui, all’interno di un gioco complesso di intrecci, di rapporti e di attori coinvolti
nel processo valutativo.
Si è evinta la difficoltà
di "dire", documentare e
valutare le pratiche educative, poichè il lavoro
educativo – presentato
come complesso e contestualizzato,
costituito da elementi eterogenei,
sfuggenti e difficili da riconoscere,
nominare e documentare – è poco
visibile sia all’interno che all’esterno dei servizi socio-educativi. È
emersa la difficoltà degli operatori
dei servizi ad autovalutarsi e a riconoscere e nominare alcune dimensioni della valutazione, faticose a
vedersi nelle prassi quotidiane e
che, pur essendo inosservate, implicite e inconsapevoli, producono
effetti sullo svolgimento delle attività del servizio.
scienza
15 gennaio 2014
Terapia chirurgica mini-invasiva
dell’emicrania: tecnica personale
di Edoardo Raposio, Giorgia Caruana, Elena Boschi,
Nicolò Bertozzi, Eugenio Grignaffini
Riassunto
Recenti teorie relative alla patogenesi dell’emicrania hanno confermato che essa è correlata ad un
meccanismo di ipereccitabilità e
infiammazione neuronale dovuto
alla compressione di alcuni nervi
periferici cranio-facciali da parte di
strutture vascolari o muscolari circostanti, oppure in seguito all’infiammazione dei turbinati e/o dei
seni nasali e paranasali, e che questi
trigger points possono essere eliminati mediante un intervento chirurgico. In questo studio riportiamo
l’eliminazione di questi trigger
points mediante la decompressione
chirurgica dei nervi Sovratrocleare e
Sovraorbitario (branche periferiche
del nervo trigemino) effettuata
attraverso miotomie selettive effettuate per via endoscopica videoassistita dei muscoli iperattivi del
gruppo glabellare: Corrugatore,
Depressore del Sopracciglio e
muscolo Procero.
La decompressione chirurgica di
questi nervi è effettuata mediante
una tecnica innovativa minimamente invasiva, utilizzando un unico
strumento chirurgico, ovvero un
endoscopio specificamente modificato, con l’ausilio dell’anestesia
locale ed un’unica incisione per l’accesso chirurgico, al fine di ridurre
l’invasività della tecnica endoscopica oggi correntemente utilizzata.
Ventidue pazienti che soffrivano di
emicrania cronica senz’aura sono
stati sottoposti alla procedura endoscopica video-assistita di miotomie
selettive dei muscoli precedentemente citati. Di questi 22 pazienti
inclusi nello studio (in un range di
età dai 18 ai 72 anni), 18 (81.8%)
hanno riportato un response positivo all’intervento: 8 (36.4%) hanno
riferito la completa eliminazione
degli attacchi di emicrania, 10
(45.4%) hanno riferito un significativo miglioramento (almeno il 50% di
riduzione nell’intensità, nella frequenza e/o nella durata dei loro
attacchi) e 4 (18,2%) non hanno ottenuto alcun beneficio. Dal momento
che l’intervento non ha causato
alcuna seria complicanza o effetto
collaterale, esso può essere raccomandato ai pazienti che soffrono di
emicrania cronica
non
responsiva al
trattamento
farmacologico.
Inoltre, la procedura minimamente invasiva descritta,
basandosi sull’utilizzo di un
singolo strumento chirurgico, è semplice, veloce ed
economica,
riducendo per
di più il numero delle cicatrici postoperatorie da 3 a 1.
Introduzione
Recenti teorie relative alla patogenesi dell’emicrania hanno confermato che essa è correlata ad un
meccanismo di ipereccitabilità e
infiammazione neuronale dovuto
alla compressione di alcuni nervi
periferici cranio-facciali da parte di
strutture vascolari o muscolari circostanti, oppure in seguito all’infiammazione dei turbinati e/o dei
seni nasali e paranasali, e che questi
trigger points possono essere eliminati mediante un intervento chirur-
gico. Il meccanismo periferico della
patogenesi dell’emicrania senz’aura
fu proposto per la prima volta da
Guyuron et al.1, mostrando che i
pazienti che soffrivano di questa
patologia, quando appropriatamente selezionati, potevano beneficiare
dell’eliminazione o del miglioramento dei loro attacchi dopo l’intervento. Sulla base dei riscontri dei
pazienti la cui emicrania era scomparsa dopo l’intervento di ringiovanimento della
regione frontale, Guyuron2
per
primo
riportò l’associazione tra la
resezione del
m u s c o l o
Corrugatore
d
e
l
Sopracciglio e
l’eliminazione
o il significativo
miglioramento
negli
attacchi
di
emicrania, con
un tasso di
successo del
79.5%. Anche Dirnberger and
Becker3 confermarono questi risultati, riportando l’eliminazione o il
significativo miglioramento in 41
dei loro 60 pazienti sottoposti all’intervento.
Nel 2008 Poggi et al.4 confermarono i risultati precedentemente pubblicati utilizzando il protocollo di
Guyuron, confermando l’ipotesi
secondo cui l’ipereccitabilità neuronale dovuta alla compressione dei
nervi periferici cranio-faciali inneschi la cascata emicranica. La procedura chirurgica decritta dai precedenti Autori5,6, solitamente effet13
scienza
15 gennaio 2014
tuata sotto anestesia generale,
attualmente si basa sull’utilizzo di
un numero di incisioni per l’accesso
chirurgico che va dalle 3 alle 5, di
dimensioni pari a 1 cm, posizionate
1 cm posteriormente alla linea anteriore del cuoio capelluto. Di queste
incisioni, una è effettuata lungo la
linea dell’emi-scalpo e le altre temporalmente, mediante l’utilizzo di
due distinti strumenti chirurgici: un
endoscopio e un dissettore. A partire da Giugno del 2011, presso l’Unità
Operativa “Chirurgia della Cute e
degli
Annessi,
Mininvasiva,
Rigenerativa e Plastica” dell’Azienda
Ospedaliero-Universitaria di Parma,
abbiamo utilizzato un’innovativa
tecnica endoscopica minimamente
invasiva di miotomie selettive,
effettuate grazie ad un endoscopio
specificamente modificato e senza
l’ausilio dell’anestesia generale, al
fine di ridurre l’invasività della correntemente utilizzata tecnica chirurgica.
siti trigger degli
attacchi. E’ stato
poi chiesto ai
pazienti di compilare un questionario della
cefalea prima e
sei mesi dopo
l’intervento, per
valutare l’efficacia di questa
procedura chirurgica e al fine
di ottenere un
valido confronto
di risultati del
trattamento chirurgico con i protocolli precedentemente utilizzati. Il consenso
informato
è
stato firmato da
tutti i pazienti
prima dell’intervento.
Pazienti e Metodi
Selezione dei Pazienti
I pazienti in buono stato di salute, tra
i 18 e i 75 anni, che soffrivano di
un’emicrania cronica senz’aura, una
cefalea di tipo tensivo cronico o una
cefalea cronica quotidiana, con un
numero di attacchi al mese superiore a
15, sono stati considerati idonei all’intervento. Sono stati esclusi dal trattamento invece pazienti con cefalea a
grappolo, cefalea tensiva episodica,
cefalee secondarie e i pazienti che presentavano un disturbo psichiatrico
maggiore. Tutti i pazienti erano stati
precedentemente diagnosticati da
neurologi certificati, come evidenziato
nei criteri descritti dalla Classificazione
Internazionale delle Cefalee (ICHD-II)7.
Essi sono poi stati sottoposti ad una
attenta valutazione per confermare la
frequenza, la durata, l’intensità degli
attacchi e per identificare i principali
Procedura
Chirurgica
Tutte le procedure sono state
eseguite dallo
stesso chirurgo
(E.R.) sotto anestesia
locale
come interventi
in one-day surgery. Una volta
posizionato
il
paziente in posiFig. 2: Unica incisione (2 cm) cutanea di accesso chirurgizione supina e il
co endoscopico lungo la linea dell’emi-scalpo.
capo in posizione
neutrale,
sono stati identificati i punti di repere dei nervi perife- regione glabellare, lungo la linea emirici da trattare. Il disegno preoperato- pupillare (repere del n. Sovraorbitario)
rio, caratterizzato da due linee verticali e 1 cm mediamente ad essa (repere del
per ciascun lato lungo la proiezione del n. Sovratrocleare) bilateralmente (Fig.
1).
decorso dei nervi Sovratrocleare e
Fig. 1. Disegno preoperatorio: identiSovraorbitario, è stato effettuato nella
14
Fig. 1. Disegno preoperatorio: identificazione dei punti di
repere dei nervi sovraorbitario e sovratrocleare.
scienza
e sodio bicarbonato
all’8.4%.
Sebbene in passato la procedura
effettuata presso
la nostra UO prevedesse l’utilizzo
di due incisioni
nello scalpo di 2
cm, posizionate
1 cm posteriormente alla linea
anteriore
del
cuoio capelluto,
lungo la linea
emi-pupillare, il
nostro approccio
oggi
correnteFig. 3: Nervo sovraorbitario destro liberato dalla compres- mente utilizzato
prevede l’utilizzo
sione muscolare.
di una singola
incisione di 1 cm
lungo la linea
dell’emi-scalpo,
sempre 1 cm
posteriormente
alla linea anteriore del cuoio
capelluto (Fig.2).
Fig. 2: Unica
incisione (2 cm)
cutanea
di
accesso chirurgico endoscopico
lungo la linea
dell’emi-scalpo.
Dopo la sezione della galea
aponeurotica
sono stati posiFig. 4: Endoscopio utilizzato per eseguire la procedura
zionati tre fili da
minimamente invasiva di miotomie selettive.
sutura (nylon 30) per lato nella
regione sopraccificazione dei punti di repere dei nervi liare, medialmente e lateralmente ai
sovraorbitario e sovratrocleare.
nervi interessati, al fine di mantenere
Dopo il blocco anestetico selettivo sollevata la cute frontale durante la
bilaterale dei nervi Sovratrocleare e procedura endoscopica per visualizzaSovraorbitario, l’intera regione frontale re ed esporre in modo ottimale i nervi
è stata infiltrata con carbocaina all’1% e i muscoli glabellari.
15 gennaio 2014
Sono state quindi effettuate le miotomie
selettive
dei
muscoli
Corrugatore
del
Sopracciglio,
Depressore del Sopracciglio e Procero
per via endoscopica video-assistita,
utilizzando un endoscopio modificato
per
decomprimere
i
nervi
Sovraorbitario e Sovratroclea-re, che
non sono stati mai danneggiati durante la procedura (Fig.3).
Fig. 3: Nervo sovraorbitario destro
liberato dalla compressione muscolare.
L’endoscopio modificato (Fig.4) (Karl
Storz, Tuttlingen, Germania) utilizzato
nella procedura è costituito da un trocar di 9 mm con una tripla valvola
(aria/insufflazione/aspirazione), un
telescopio rigido (Hopkins) a fibre ottiche, una camicia operativa (Wittmöser)
connessa con un sistema diatermico
ad alta frequenza e un’ansa metallica
specificatamente progettata a punta
ellittica per l’elettrocauterizzazione.
Fig. 4: Endoscopio utilizzato per eseguire la procedura minimamente invasiva di miotomie selettive.
Completata la procedura di miotomie, sono state posizionate suture
cutanee a livello delle due incisioni
dello scalpo (Nylon 4-0) ed una medicazione compressiva nella regione
frontale.
Risultati
Dei 22 pazienti inclusi nello studio
(selezionati in un range di età tra i 18 e
i 72 anni), 17 erano di sesso femminile
e cinque di sesso maschile. Otto dei 22
pazienti (36,4%) hanno riportato una
completa eliminazione della loro cefalea, 10 (45,4%) hanno riferito una riduzione di almeno il 50% in intensità e/o
frequenza e/o durata degli attacchi, e
quattro (18,2%) non hanno notato
alcun cambiamento. L’approccio chirurgico proposto ha ottenuto risultati
positivi in 18 su 22 pazienti (81,8%),
confermando la validità della procedura. Questi risultati sono stati rilevati
effettuando un questionario ai pazien15
scienza
15 gennaio 2014
ti a distanza di sei mesi dall’intervento.
Tutti i pazienti sono stati inoltre sottoposti ad un follow-up di sei mesi, con
controlli (orali o telefonici) al primo, al
terzo e al sesto mese dall’intervento
per verificare l’andamento degli attacchi e le variazioni nell’intensità e nella
frequenza degli stessi.
Eventi avversi. Tutti i pazienti hanno
riferito qualche grado di parestesia
frontale o occipitale, a seconda del tipo
di intervento eseguito, limitato a circa
due o tre mesi dopo l’intervento. Tre
pazienti hanno riportato piccole (1
cm) cicatrici cutanee frontali, come
risultato del danno termico nella regione dei muscoli glabellari.
16
Discussione
Questo studio dimostra che le tecniche descritte hanno permesso un
significativo miglioramento o l’eliminazione dei sintomi dell’emicrania/
cefalea in 18 su 22 dei pazienti (81,8%):
un motivo per cui la totale guarigione
non è stata ottenuta in tutti i pazienti
potrebbe essere che l’operazione è
stata effettuata su un singolo sito trigger dominante, che poteva non essere
l’unico. La tecnica endoscopica mininvasiva utilizzata inoltre, risulta essere
semplice, rapida ed economicamente
efficace, basandosi sull’utilizzo di un
singolo strumento, e dovrebbe teoricamente ridurre le possibilità di danno ai
fasci neuro-vascolari. Questi risultati
sono stati rilevati effettuando un questionario ai pazienti a distanza di tresei mesi dall’intervento: considerando
che alcuni pazienti hanno mostrato un
miglioramento graduale della sintomatologia, è lecito pensare che questi
risultati possano ulteriormente migliorare col passare del tempo. Sarà pertanto necessario effettuare un followup a distanza di tempo maggiore dall’intervento per rielaborare i dati ottenuti e confrontarli con quelli presenti
in letteratura. Nel 2011 Guyuron et al.8
avevano ottenuto una percentuale di
miglioramento a distanza di cinque
anni pari all’ 88% dei casi mediante gli
approcci trans-palpebrale per i trigger
points frontali e trans-occipitale per i
trigger points occipitali (utilizzando
inoltre turbinectomia/settoplastica per
i trigger points intra-nasali e la resezione di una piccola parte di nervo zigomatico-temporale per i trigger points
temporali) . Di questi il 29% era guarito
completamente, il 59% era migliorato e
il 12% non aveva mostrato alcun
miglioramento8. A fronte di questi
risultati vi erano però altri fattori di cui
tenere conto: il 4,5% dei pazienti operati poteva incorrere in eccessivi sanguinamenti intraoperatori9, inoltre l’intervento non endoscopico è gravato da
una maggior invasività; c’è infine
minor compliance da parte dei pazienti quando si propone un intervento in
chirurgia “open” rispetto ad un approccio di tipo endoscopico10. Lo stesso
Guyuron, nel Febbraio 201311, confrontando la tecnica chirurgica trans-palpebrale e quella endoscopica, ha
dichiarato che entrambe le tecniche
possono garantire la rimozione di una
sufficiente quantità di muscolo, in base
anche all’esperienza del singolo chirurgo, ma l’ingrandimento offerto dalla
tecnica endoscopica offre una miglior
opportunità di preservare i nervi, di
sezionare i muscoli e di visualizzare le
terminazioni secondarie dei nervi, e
scienza
dal momento che è stato ottenuto un
maggior successo nel migliorare o eliminare gli attacchi di emicrania
mediante la tecnica endoscopica, essa
dovrebbe pertanto essere considerata,
quando anatomicamente possibile, di
prima scelta12.
Considerando che questi interventi
non hanno portato a serie complicazioni o effetti collaterali, bensì hanno
permesso l’ottenimento di un’ottima
percentuale di successo, questo studio
conferma che le tecniche descritte rappresentano una valida risorsa nella
terapia chirurgica dell’emicrania e
della cefalea tensiva croniche, minimizzando l’invasività dell’ approccio
chirurgico rispetto al protocollo precedentemente utilizzato. Assieme ai dati
della letteratura precedente, questi
risultati mostrano la riproducibilità
dell’intervento, e dal momento che
non sono stati rilevati gravi effetti collaterali o eventi avversi, il valore di
questo tipo di trattamento chirurgico
delle cefalee è estremamente rilevante,
uno strumento estremamente promettente per quanto concerne il trattamento delle patologie in oggetto in
caso di farmaco-resistenza.
Bibliografia
1. Guyuron B, Varghai A, Michelow BJ,
Thomas T, Davis J. Corrugator supercilii
muscle resection and migraine headaches. Plast Reconstr Surg. 2000;
106(2):429-34; discussion 435-7
2. Guyuron B, Kriegler JS, Davis J, Amin
SB. Comprehensive surgical treatment
of migraine headaches. Plast Reconstr
Surg. 2005; 115(1):1-9
3. Dirnberger F, Becker K. Surgical treatment of migraine headaches by corrugator muscle resection. Plast Reconstr
Surg. 2004; 114(3):652-7; discussion 658-9
4. Poggi JT, Grizzel BE, Helmer SD.
Confirmation of surgical decompression to relieve migraine headaches.
Plast Reconstr Surg. 2008; 122(1):115-22;
discussion 123-4
15 gennaio 2014
5. Guyuron B, Tucker T, Davis J. Surgical
treatment of migraine headaches. Plast
Reconstr Surg. 2002; 109(7):2183-9
6. Guyuron B, Reed D, Friegler JS, Davis J,
Pashmini N, Amini S. A placebo controlled surgical trial for the treatment of
migraine headaches. Plast Reconstr
Surg. 2009; 124(2):461-8
7. Headache Classification Committee
of the International Headache Society.
Classification and diagnostic criteria for
headache disorders, cranial neuralgias
and facial pain. Cephalgia 1988; 8 Suppl
7:1-96.
8. Guyuron B, Kriegler J, Davis J, Amini
SB. Five-year outcome of surgical treatment of migraine headaches. Plast
Reconst Surg. 2011; 127:603.
9. Guyuron B, Kriegler JS, Davis J, Amini
SB, Comprehensive surgical treatment
of migraine headaches. Plast Reconstr
Surg. 2005; 115(1):1-9.
10. Niamtu J 3rd. Endoscopic brow and
forehead lift: a case for new technology.
J Oral Maxillofac Surg. 2006; 64(9):1464.
11. Guyuron B. Reply: outcome comparison of endoscopic and transpalpebral
decompression for treatment of frontal
migraine headaches. Plast Reconstr
Surg. 2013; 131(2):277e-278e.
12. Liu MT, Chim H, Guyuron B.
Outcome comparison of endoscopic
and transpalpebral decompression for
treatment of frontale migraine headaches. Plast Reconstr Surg. 2012;
129(5):1113-1119.
Edoardo Raposio, MD, PhD, FICS, Giorgia Caruana, MD, Elena Boschi,
MD, Nicolò Bertozzi, Eugenio Grignaffini, MD. Dipartimento di Scienze
Chirurgiche, Sezione di Chirurgia Plastica, Università degli Studi di
Parma.
Edoardo Raposio. Responsabile della struttura semplice dipartimentale
“Chirurgia della Cute e Annessi, Mininvasiva, Rigenerativa e Plastica
(Dipartimento Chirurgico) dell’Azienda Ospedaliero-Universitaria di
Parma. Nato a Genova nel 1965, si laurea con lode in Medicina e chirurgia nel 1991, e si specializza, sempre con lode, in Chirurgia Plastica
e Ricostruttiva presso l’Università degli Studi di Genova e in Chirurgia
della Mano presso l’Università degli Studi di Firenze. Dopo stage di formazione in USA e Brasile, si trasferisce all’Università di Tromso,
Norvegia, dove presta attività clinico-assistenziale presso la Cattedra
di Chirurgia plastica e ottiene (con lode) il titolo di Dottore di Ricerca.
Presta quindi attività assistenziale a Genova, prima come dirigente
medico della struttura complessa di Chirurgia Plastica dell’Istituto
Nazionale per la Ricerca sul Cancro, poi come ricercatore universitario
confermato presso la Cattedra di Chirurgia plastica dell’Università.
Vincitore di concorso di idoneità a Professore Associato di Chirurgia
Plastica presso l’Università degli Studi di Padova, si trasferisce nel febbraio 2010 presso l’Università degli Studi di Parma, dove ricopre il
ruolo di Direttore della Clinica di Chirurgia Plastica (Dipartimento di
Scienze Chirurgiche) e della Scuola di Specializzazione in Chirurgia
Plastica, Ricostruttiva ed Estetica. Autore di oltre 320 pubblicazioni e
abstract nazionali e internazionali, partecipa, in qualità di relatore o
docente, a numerosi corsi e congressi, in Italia e all’estero; responsabile di molti progetti di ricerca, è vincitore di diversi riconoscimenti
internazionali.
17
scienza
15 gennaio 2014
Quando a Napoli ci fu il boom della
Chimica
di Vincenzo Villani
Accadde negli anni ’60 con l’arrivo
alla Federico II del chimico Alfonso
Maria Liquori. A raccontare quegli
anni straordinari, ricchi di trasformazioni e di conquiste scientifiche,
sono stati i proff. Vincenzo
Vitagliano, Lelio Mazzarella e Guido
Barone (giovani allievi a quei tempi)
ed il noto giornalista scientifico
(nonché chimico) Pietro Greco, nella
splendida
cornice
dell’Istituto
Italiano per gli Studi Filosofici.
Il napoletano Liquori, ritornò a
Napoli nel 1960 con un curriculum
unico e ricco di suggestioni internazionali. Appena laureato in Chimica
a La Sapienza di Roma si catapultò al
Polytechnic Institute di New York e
18
quindi al Cavendish Laboratory di
Cambrige, operando in un clima di
grande libertà intellettuale a stretto
contatto con i chimici più brillanti
del tempo, spesso Nobel laureate. In
questi contesti culturalmente così
effervescenti, sviluppò non solo
competenze specialistiche di primo
ordine in campo cristallografico,
macromolecolare e di chimica teorica ma una mentalità nuova, quella
interdisciplinare con incursioni
(come soleva chiamarle) tra diverse
discipline, con la consapevolezza
della necessità del superamento
delle tradizionali barriere culturali,
steccati più di potere che di sapere.
Non fu solo grande studioso ma,
anche grande organizzatore e animatore.
Arrivato a Napoli nel 1960
dall’Università di Bari, per scelta lungimirante di sua eccellenza il Prof.
Francesco Giordani, illustre chimico
napoletano prestato ai più grandi
impegni nazionali di riorganizzazione dell’industria italiana, trovò un
ambiente accademico provinciale e
demotivato e avviò in qualità di direttore la rifondazione dell’Istituto
Chimico. Nel 1963 fu assegnato a
Giulio Natta il premio Nobel per la
Chimica con la scoperta dei polimeri
stereoregolari, a tutt’oggi unico premio italiano per la chimica.
Erano anni di grande fermento, e
grazie a menti brillanti ed intraprendenti la chimica italiana si trasformò.
Napoli fu protagonista di questo rinnovamento. In questo fervore, all’interno delle università venivano istituiti centri di ricerca del CNR che
lavoravano in sinergia con l’accademia. All’Istituto Chimico di via
Mezzocannone 4 ve ne erano due,
diretti rispettivamente da Liquori e
da Paolo Corradini (nel cui gruppo ho
avuto il piacere di formarmi) della
scuola di Natta. Le tecniche spettroscopiche, microscopiche, diffrattometriche, calorimetriche,… che
diventeranno classiche metodiche di
ricerca, furono praticamente avviate
da zero in quegli anni.
La sua visione quanto mai moderna,
di integrazione delle diverse culture,
portò a pionieristiche simulazioni
molecolari al computer: per la prima
volta, alcuni matematici furono
assunti all’Istituto Chimico per sviluppare programmi di calcolo e la complessità dell’ordine molecolare e cristallino furono affrontati con successo. Fu allora che numerosi studenti
dagli States vennero a conseguire il
PhD a Napoli, evento mai più ripetutosi.
La città divenne meta abituale di
scienza
premi Nobel per seminari e convegni
in cui largo spazio veniva lasciato alle
discussioni franche e informali fuori
dai convenevoli. Napoli così diventò
capitale di una piccola rivoluzione
scientifica ad opera di Liquori in chimica, Edoardo Caianiello in fisica ed
Adriano Buzzati Traverso in biologia.
La visione di questi illustri scienziati
fu quella di integrare le loro aree di
ricerca per la nascita di una scienza
nuova, la Biologia Molecolare.
Possiamo dire che Liquori prima che
chimico fu filosofo della Natura,
come amava dire. Il suo approccio
non voleva essere quello dello specialista che conosce quasi tutto di
quasi niente (come soleva dire) ma
dello scienziato alle prese con problemi complessi, che non esita a mettere in campo tutte le competenze
necessarie per avviarne la soluzione,
coinvolgendo specialisti di aree
diverse, sviluppando metodi innovativi e utilizzando strumenti concettuali i più ampi possibili.
La sua domanda fondamentale era
quella che ogni vero uomo di Scienza
dovrebbe sempre porsi con immutato
stupore: in che modo accade ciò che
accade? Come mai osserviamo proprio questa struttura, questa trasformazione e non un’altra? E’ il desiderio
e il piacere di capire il carattere necessario (proprio ciò e non altro) della
realtà sperimentale che osserviamo.
Con questa visione unificata della
scienza in mente, Liquori affrontò e
15 gennaio 2014
piantò molte milestone, dal problema
della stabilità delle molecole, all’analisi conformazionale delle macromolecole biologiche e sintetiche, alla struttura
molecolare
dei
cristalli.
Utilizzando strumenti sperimentali e
di calcolo che oggi apparirebbero
Il Prof. Vincenzo Villani, laureato in Chimica all’Università Federico II
di Napoli, è ricercatore e docente di Scienze dei Materiali Polimerici al
Dipartimento di Scienze dell’Università della Basilicata. E’ autore di
circa settanta pubblicazioni scientifiche e altrettante comunicazioni a
convegni. Nell’ambito delle Scienze Chimiche si occupa di modellistica
molecolare delle reazioni di catalisi e polimerizzazione, proprietà fisiche dei polimeri, sintesi di emulsioni polimeriche nanostrutturate. E’
impegnato in filosofia e comunicazione della Scienza (Storie di
Chimica e oltre, Aracne Editrice).
insufficienti, seppe intravedere la via
multi-culturale nella ricerca della
soluzione dei problemi complessi. In
questo coraggioso originale approccio
risiede la sua attualità.
Questo fu Alfonso Maria Liquori,
uno scienziato avanti, forse ancora
avanti sui tempi, uno scienziato
romantico, come l’ha definito Pietro
Greco. Una visione così innovativa
suscitò grandi entusiasmi ma, non
mancarono resistenze e opposizioni
da parte dell’accademia e della politica più conservatrici. Furono anche
queste avversioni che segnarono la
fine del sogno napoletano con la partenza nel 1967 di Liquori alla volta di
Roma ma…questa è un’altra storia.
19
scienza
15 gennaio 2014
Luci che accompagnano o precedono
i terremoti
di Andrea Billi
La predizione e piena comprensione dei fenomeni sismici rappresenta
sicuramente un sacro Graal per la
scienza. È noto da secoli che i terremoti, soprattutto quelli più forti,
possano essere accompagnati se non
anticipati da fenomeni particolari
quali variazioni delle portate delle
sorgenti acquifere, emissione di gas
o addirittura strani comportamenti
di comunità animali. Purtroppo, il
nesso causale, ove tale sia, tra i terremoti e questi fenomeni non è ancora
ben compreso. Esiste inoltre una
lunga letteratura e numerose testimonianze che riguardano fenomeni
luminosi comparsi prima, durante o
subito dopo forti terremoti. R. Mallet,
uno dei padri della moderna sismologia, catalogò e studiò a lungo i
fenomeni luminosi avvenuti tra il
XVII e XIV Secolo d.C. in concomitanza con forti terremoti. I. Galli, un
prete italiano vissuto nel XX Secolo,
ampliò tali studi riferendo di 148 terremoti associati a fenomeni luminosi tra l’89 a.C. ed il 1910 d.C. È chiaro
che la piena comprensione di tali
fenomeni potrebbe aprire la strada
alla predizione dei terremoti anche
se solo per pochi attimi. Fenomeni
luminosi sono stati osservati anche
in concomitanza con il terremoto de
L’Aquila del 6 aprile 2009 e nei mesi
precedenti sempre nel territorio
aquilano.
L’area sismica di Tagish Lake, Yukon, Canada, dove sono stati fotografati
fenomeni luminosi associati a terremoti.
Un team di geologi e geofisici
canadesi ed americani ha recentemente condotto uno studio sistematico su 65 terremoti accompagnati da
fenomeni luminosi in America ed
Europa. I ricercatori hanno compreso
che tali fenomeni sono più comuni li
dove le faglie e fratture generatrici
del terremoto hanno una geometria
vicina alla verticale. La frizione tra le
rocce nei pressi dell’ipocentro genererebbe cariche elettriche in grado di
risalire lungo la crosta terrestre proprio lungo le fratture subverticali. Le
correnti elettriche fluite fino alla
superficie si ionizzerebbero al con-
Andrea Billi, geologo, dal 2008 è ricercatore a Roma presso il Consiglio
Nazionale delle Ricerche (CNR). Si è laureato in Scienze Geologiche presso la Sapienza Università di Roma (1994) ed ha poi conseguito un dottorato in Geodinamica presso l’Università Roma Tre (2001). È autore di più
di cinquanta articoli scientifici (www.andreabilli.com) a carattere sia
nazionale sia internazionale ed ha collaborato con numerose istituzioni
di ricerca italiane e straniere. Prima di lavorare presso il CNR, ha lavorato
a lungo presso l’Università Roma Tre. È un ricercatore versatile che si
occupa di numerose tematiche di ricerca tra cui terremoti, vulcani, tsunami, frane e fluidi idrotermali. Il suo maestro è stato Renato Funiciello,
indimenticato professore di geologia a Roma.
20
tatto con le molecole d’aria dando
luogo alle improvvise luci osservate.
Il fenomeno è ancora misterioso e
molto
rimane
da
capire.
L’associazione con i fenomeni sismici ed in molti casi l’osservata evenienza prima dei terremoti stessi
costituiscono elementi forse promettenti nel campo della previsione dei
terremoti. Con il loro studio,
Thériault et alii gettano nuove basi
su cui avanzare in questa incerta
disciplina.
Articoli di riferimento:
Freund, F.T., 2007. Pre-earthquake
signals-Part II: Flow of battery currents in the crust. Natural Hazards
and Earth System Sciences, 7,
doi:10.5194/nhess-7-543-2007.
Fidani, C., 2010. Natural Hazards and
Earth
System
Sciences,
10,
doi:10.5194/nhess-10-967-2010.
Thériault, R., et alii, 2014, Prevalence
of earthquake lights associate with
rift environments, Seismological
Research
Letters,
85,
doi:
10.1785/0220130059 1.
scienza
Speciale 1° Premio Nazionale di
Divulgazione Scientifica
I 9 libri premiati dalla giuria
Con il libro “Il cervello gioca in difesa. Storie di cellule che
pensano”, edito da Mondadori Education, il neurologo GIANVITO MARTINO, direttore della Divisione di Neuroscienze del
San Raffaele di Milano, ha vinto il 1° Premio Nazionale di
Divulgazione Scientifica bandito dall'Associazione Italiana
del Libro con il patrocinio del CNR (Consiglio Nazionale delle
Ricerche) e delle Biblioteche di Roma.
Al secondo e terzo posto si sono classificati rispettivamente
UGO AMALDI, figura di spicco della fisica italiana, con il
libro Sempre più veloci. Perché i fisici accelerano le particelle:
la vera storia del bosone di Higgs, pubblicato da Zanichelli, e
GIOVANNI CAPRARA, responsabile delle pagine scientifiche
del Corriere della Sera, con Storia italiana dello spazio.
Visionari, scienziati e conquiste dal XIV secolo alla stazione
spaziale, edito da Bompiani.
Il Premio Speciale riservato ai Giovani Autori è stato assegnato a Fabrizio Mastromartino per il libro Il diritto di asilo.
Teoria e storia di un istituto giuridico controverso (G.
Giappichelli Editore)
La giuria del premio ha anche assegnato 5 premi nelle diverse
aree scientifiche:
Premio per le Scienze matematiche, fisiche e naturali a
Stefano Mancuso e Alessandra Viola, Verde Brillante.
Sensibilità e intelligenza del mondo vegetale (Giunti Editore)
Premio per le Scienze del territorio e dell'ambiente a Giovanni
Vittorio Pallottino, La fisica della sobrietà. Ne basta la metà o
ancora meno (Edizioni Dedalo)
Premio per le Scienze della salute a Giovanni Maga, Occhio ai
virus. Se li conosci sai come difenderti (Zanichelli editore)
Premio per le Scienze giuridiche ed economiche a Giorgio
Resta e Vincenzo Zeno-Zencovich, curatori del libro Riparare
Risarcire Ricordare. Un dialogo tra storici e giuristi (Editoriale
Scientifica)
Premio per le Scienze umanistiche, sociali e della formazione
a Elio Cadelo e Luciano Pellicani, Contro la modernità. Le
radici della cultura antiscientifica in Italia (Rubbettino)
15 gennaio 2014
1° classificato
Gianvito Martino
Il cervello gioca in difesa. Storie di cellule che pensano
Mondadori Education, 2013
«L'attacco è la miglior
difesa». Il nostro organismo è un'imponente
macchina biologica
predisposta ad attaccare per difendersi dai
numerosi aggressori
che ci circondano. In
questa lotta, il cervello
gioca un ruolo strategico per la nostra salute
e per la nostra sopravvivenza come specie.
Siamo dove viviamo e
ciò che incontriamo
giorno dopo giorno;
siamo la conseguenza
di un incontro (galante?) tra l'uomo di Neanderthal e i Denisoviani, ma
anche dello stress che quotidianamente affrontiamo.
Noi «siamo», solo perché siamo capaci di interagire con
l'ambiente che ci circonda e che orchestra la nostra
evoluzione di esseri viventi. L'ambiente è però mutevole e inquinato da pericoli, inaspettati e imprevedibili,
che mettono a repentaglio il nostro «io biologico».
Perciò, in miliardi di anni, abbiamo sviluppato un imponente congegno di difesa, il sistema immunitario, che
discrimina tra ciò che si deve combattere e ciò di cui
non possiamo fare a meno. Un gioco rischioso e molto
più raffinato di quanto ci si potesse aspettare solo
pochi anni fa: un gioco sofisticato di tatticismi e strategie, che deriva dall'azione sinergica e concertata di tutti
gli organi e tessuti, cervello in primis. Proprio sulle inedite interazioni tra cervello (fisico e psichico) e sistema
immunitario intende soffermarsi questo libro: anticorpi
e cellule staminali, ghiandole e ormoni, certo, ma anche
sorprendenti meccanismi di contrattacco, esperienze
accumulate nel tempo e nei tessuti come cicatrici indelebili, che vengono ricordate per poter essere ripercorse
o accuratamente evitate, tra automatismi biologici e
riflessività
Gianvito Martino, medico, neurologo, dirige la Divisione
di Neuroscienze dell'Istituto Scientifico Universitario
San Raffaele di Milano. È Honorary Professor alla Queen
Mary University of London, presidente della
International Society of Neuroimmunology, fondatore e
coordinatore scientifico della European School of
Neuroimmunology. È tra i fondatori di BergamoScienza.
Tra le sue pubblicazioni: Il cervello. La scatola delle
meraviglie (2008), La medicina che rigenera. Non siamo
nati per invecchiare (2009), Identità e mutamento. La
biologia in bilico (2010), libro vincitore del Premio Fermi
Città di Cecina 2011 per la divulgazione scientifica.
21
scienza
15 gennaio 2014
Mondadori Education è la casa editrice del gruppo
Mondadori dedicata al mondo dell'educational e della
formazione.
2° classificato
Ugo Amaldi, con la collaborazione di Adele La Rana
Sempre più veloci. Perché i fisici accelerano le particelle: la
vera storia del bosone di Higgs
Zanichelli editore, 2012,
Al Cern di Ginevra in
molti si sono chiesti
quale sia la reale utilità
degli acceleratori di particelle e che ricaduta
possono avere sulla
nostra vita quotidiana.
A che servono quelle
due enormi macchine,
nate solo per far scontrare a velocità della
luce un fascio di protoni? Prova a rispondere
Ugo Amaldi nel suo
libro "Sempre più veloci", rivolto soprattutto ai
non addetti ai lavori,
incuriositi dall' argomento. Amaldi ripercorre in sette capitoli gli ultimi
cento anni di traguardi nella fisica moderna. Perché
dunque si accelerano le particelle? La risposta ha del
fantascientifico. «Per creare una specie di macchina del
tempo. Aumentando l' energia riusciamo a ricreare le
condizioni iniziali dell'universo, per capire cosa sia successo già un milionesimo di milionesimo di secondo
dopo il Big Bang». E nei vari impatti di protoni negli
ultimi 50 anni, si è arrivati nel 2012, con la scoperta di
piccole tracce del cosiddetto "Bosone di Higgs", la micro
particella detta "di Dio", che determina la massa della
materia. Una rivelazione che ha risvolti molto più pratici di quanto si possa credere. Pagina dopo pagina,
Amaldi spiega infatti come la "fisica bella", quella di
teorie e formule abbia sempre una ricaduta pratica, per
tutti. Basti pensare al campo medico. Una conoscenza
sempre più stratificata delle particelle subatomiche, ha
ad esempio agevolato l' evoluzione di macchinari più
precisi e compatti, come nel caso degli apparecchi per
le risonanze magnetiche. E ha aperto nuovi capitoli per
la cosiddetta "Adroterapia", una sperimentazione clinica in cui gli adroni (protoni) vengono utilizzati al posto
dei raggi x, poiché riescono a focalizzarsi con più precisione su determinate masse tumorali, senza danneggiare organi vitali.
Ugo Amaldi, nipote del matematico Ugo, figlio del fisico
Edoardo e della scrittrice Ginestra Giovene,si è laureato
nel 1957 in fisica presso l'Università di Roma, specializzandosi nel campo degli acceleratori di particelle. Ha
22
lavorato per quindici anni presso il Laboratorio di Fisica
dell'Istituto Superiore di Sanità. Successivamente ha
lavorato per venticinque anni al CERN di Ginevra. Già
direttore dell'Istituto Nazionale di Fisica Nucleare e
membro delle maggiori accademie scientifiche, è tra i
maggiori studiosi delle particelle elementari. Dal 1982
lavora presso l'Università di Milano.
Adele La Rana, dottoressa di ricerca in Fisica, ha dato la
caccia alle onde gravitazionali nell'ambito dell'esperimento spaziale LISA. Ha collaborato con l'Agenzia
Spaziale Italiana e il Planetario di Caserta.
La casa editrice Zanichelli, fondata nel 1859 dal libraio
modenese Nicola Zanichelli, ha in catalogo oltre 2000
opere, tra cui alcuni dei più diffusi vocabolari di lingua
italiana e dizionari di lingue straniere, in versione cartacea e digitale.
3° classificato
Giovanni Caprara
Storia italiana dello spazio. Visionari, scienziati e conquiste
dal XIV secolo alla stazione spaziale
Bompiani, 2012
La storia dello spazio
italiano inizia alla fine
del Trecento, prosegue
con i fuochi pirotecnici,
ma sarà l'Ottocento a
segnare l'avvio delle
ricerche sui razzi in
chiave più scientifica,
seguendo gli inglesi che
per primi li costruivano
e li impiegavano a scopo
bellico. Dopo la Seconda
guerra mondiale la
Marina e l'Aeronautica
“arruolano” due scienziati tedeschi per affrontare la tecnologia dei
razzi. E negli anni Sessanta sarà Luigi Broglio a diventare il vero “padre” dello spazio italiano realizzando il
primo satellite “San Marco” per indagare l'atmosfera.
Un'avventura straordinaria per un'Italia coraggiosa che
amava le sfide: in quel periodo il Paese conquisterà il
suo ultimo Nobel scientifico con Giulio Natta. La nascita nel 1988 dell'Agenzia Spaziale Italiana darà il via a
un vero programma di esplorazione su vari fronti di
ricerca cosmica e all'importante collaborazione per la
stazione spaziale internazionale. Un libro documentato
e appassionante che è una lunga storia di uomini:
visionari, scienziati, tecnologi e politici che hanno
sostenuto l'idea dell'esplorazione dello spazio. Una storia che, sempre confrontata con le imprese di altre
nazioni, ha generato nuova scienza, nuove tecnologie e
favorito lo sviluppo del Paese a livello internazionale in
un campo d'avanguardia.
scienza
Giovanni Caprara è responsabile della redazione scientifica del “Corriere della Sera”. È autore di vari libri sulla
storia della scienza, della tecnologia e dell'esplorazione
spaziale. Dal 2011 è presidente dell'UGIS, Unione
Giornalisti Italiani Scientifici. Un'asteroide tra Marte e
Giove porta il suo nome.
La casa editrice Bompiani fa riferimento al gruppo Rcs
Libri.
Premio Giovani Autori (under 35
anni di età)
Fabrizio Mastromartino
Il diritto di asilo. Teoria e storia di un istituto giuridico controverso
G. Giappichelli Editore, 2012
La tesi proposta nel
volume è che l'asilo è un
diritto rivendicabile sul
piano internazionale a
garanzia della vita e
della libertà degli individui. Nel volume vengono
ricostruiti i momenti
fondamentali in cui si
svolge la storia del diritto di asilo sulla base di
due linee di analisi. Da
un lato, la direttrice
volta a delineare il contesto politico entro cui il
diritto di asilo si afferma
nelle sue prime fasi di
sviluppo: come garanzia internazionale della libertà di
coscienza, nel quadro delle persecuzioni religiose e
delle guerre di religione; come garanzia internazionale
della libertà di espressione, nel quadro della battaglia
contro l'ancien regime e il dispotismo. Dall'altro, la
direttrice intesa a illustrare le fasi di sviluppo dell'ordine giuridico entro il quale si svolge l'intera parabola
storica del diritto di asilo, il diritto internazionale: dalla
sua fondazione teorica secentesca e settecentesca, alla
costruzione dottrinale del diritto internazionale classico, dove soggetti di diritto sono esclusivamente gli
Stati, fino all'odierno ordine internazionale, in cui i singoli individui acquisiscono finalmente un inedito protagonismo.
Fabrizio Mastromartino (Roma, 1979 è dottore di ricerca
in Filosofia analitica e Teoria generale del diritto presso
l'Università degli Studi di Milano. Attualmente è docente a contratto di Filosofia del diritto presso la Facoltà di
Giurisprudenza dell'Università degli Studi Roma Tre.
Giappichelli Editore, casa editrice torinese fondata nel
1921, è specializzata in pubblicazioni giuridiche, economiche e legislative, per uso professionale e di studio
universitario.
15 gennaio 2014
Premio nel campo delle Scienze
matematiche, fisiche e naturali
Stefano Mancuso, Alessandra Viola
Verde Brillante. Sensibilità e intelligenza del mondo vegetale
Giunti Editore, 2013
Le piante sono esseri
intelligenti? Sono in
grado di risolvere problemi? Comunicano
con l'ambiente che le
circonda, con le altre
piante, con gli insetti e
gli animali superiori? O
sono invece organismi
passivi, privi di sensibilità e di qualsiasi barlume di comportamento
individuale e sociale?
Per rispondere a queste
domande bisogna risalire addirittura all'antica Grecia. Già allora,
infatti, simili interrogativi occupavano le più accese dispute tra i filosofi, divisi
in opposte scuole di pensiero, a favore e contro la possibilità che le piante avessero un'«anima». Cosa muoveva
le loro argomentazioni, e soprattutto perché secoli di
scoperte scientifiche non sono bastati a dirimere la
questione? Sorprendentemente, molti degli argomenti
oggi in campo sono gli stessi già sollevati diversi secoli
fa, e più che sulla scienza fanno leva sul sentire comune e su numerosi preconcetti che appartegono alla
nostra cultura ormai da millenni.
Nonostante che un'osservazione superficiale sembri
suggerire per il mondo vegetale un livello di complessità decisamente basso, l'idea che le piante siano organismi senzienti in grado di comunicare, avere una vita
sociale, risolvere problemi difficili utilizzando raffinate
strategie, che siano in una sola parola «intelligenti», ha
fatto capolino nel corso dei secoli a diverse riprese. In
epoche differenti e in contesti culturali eterogenei, filosofi e scienziati hanno fatto propria la convinzione che
le piante siano dotate di abilità molto più raffinate di
quelle comunemente osservabili.
Stefano Mancuso è una tra le massime autorità mondiali nel campo della neurobiologia vegetale. Professore
associato presso la Facoltà di Agraria dell'Università di
Firenze e accademico ordinario dell'Accademia dei
Georgofili, dirige il Laboratorio Internazionale di
Neurobiologia Vegetale ed è membro fondatore della
International Society for Plant Signaling & Behavior.
Alessandra Viola, giornalista scientifica freelance, collabora con numerosi quotidiani, settimanali e con la Rai.
E' dottore di ricerca in Scienze della Comunicazione
all'Università di Roma La Sapienza.
La casa editrice Giunti, fondata nel pieno delle battaglie
23
scienza
15 gennaio 2014
risorgimentali, è nata dal progetto di formare la nuova
società dell'Italia unita. Da allora la vocazione di Giunti
Editore è divulgare il sapere e la cultura attraverso libri
scientificamente rigorosi e con un linguaggio che li
renda facilmente accessibili e interessanti per i lettori
di ogni livello culturale e sociale.
Premio nel campo delle Scienze
del territorio e dell'ambiente
come affiliata della Dedalo Litostampa che ne è tuttora
la società controllante._Il progetto editoriale aveva
quale obiettivo il "superamento delle due culture": la
sua attenzione era rivolta soprattutto verso le scienze
umane e le scienze "dure", l'architettura e l'urbanistica,
le tecnologie dell'edilizia._La casa editrice ha mantenuto, nel corso degli anni, il suo programma iniziale evitando sperimentazioni ed avventure in campi quali la
letteratura e la narrativa, pubblicando sempre volumi di
saggistica.
Giovanni Vittorio Pallottino
La fisica della sobrietà. Ne basta la metà o ancora meno
Edizioni Dedalo, 2012
Premio nel campo delle Scienze
della Salute
Possiamo continuare nella
crescita dei consumi di
beni materiali e di energia
che ha caratterizzato gli
ultimi decenni? La risposta è no. Per una lunga
serie di valide ragioni, che
vanno dal rispetto per
l'ambiente e per le generazioni future alla futilità
inappagante di questa
insostenibile corsa verso
lo spreco. La verità è che
si può vivere benissimo
consumando meno, anche
molto meno. E infatti
l'idea che «ne basta la
metà» (di che cosa? di quasi tutto) è il filo rosso che
attraversa tutta l'opera. Le modalità e i mezzi di cui
disponiamo per ridurre gli sprechi di energia e non solo
ci vengono insegnati dalla fisica, nei suoi termini più
semplici ed elementari, quando la applichiamo alle
situazioni quotidiane della vita comune, per cercare di
capire come funzionano gli oggetti e i dispositivi che ci
circondano: si va dal riscaldamento delle case all'illuminazione degli ambienti, dai modi di cucinare i cibi
all'impiego dell'automobile e alla gestione dei rifiuti. È
possibile innescare un sistema virtuoso di nuove abitudini, avvalendosi delle innovazioni che ci offre una
sana applicazione dei ritrovati della scienza, ma anche
con qualche balzo nel passato, nel recupero di comportamenti di sobrietà quasi perduti ma non del tutto
dimenticati.
Giovanni Vittorio Pallottino, già ordinario di Elettronica
al Dipartimento di Fisica dell'università Sapienza di
Roma, nella sua attività professionale ha lavorato al
CNEN (oggi ENEA), al CNR, al MIT, al CERN, occupandosi
di elettronica nucleare, elettronica spaziale e strumentazione per la rivelazione delle onde gravitazionali. E'
autore di oltre 170 lavori pubblicati su riviste scientifiche internazionali e di numerosi lavori riguardanti la
didattica della fisica e delle scienze.
La Edizioni Dedalo ha iniziato la sua attività nel 1965
Giovanni Maga
Occhio ai virus. Se li conosci sai come difenderti
Zanichelli editore, 2012
24
I virus sono dappertutto:
ogni giorno ne assorbiamo milioni, respirando e
mangiando, e portiamo
perfino antiche tracce
virali nel nostro stesso
genoma. Sperimentiamo
da migliaia di anni i
danni che i virus provocano alla salute, ma
ancora non sappiamo
rispondere del tutto a
domande fondamentali
come: i virus sono organismi viventi? Da dove
vengono? Come ne
nascono di nuovi? In un
mondo sempre più affollato, mobile e veloce, i virus
hanno tante opportunità per infettarci. Epidemie come
l'AIDS, l'influenza, ebola o la SARS preoccupano gli
esperti di salute pubblica e di bioterrorismo: è una
minaccia reale o un'esagerazione dei media? Anche se i
virus ci fanno paura, in molti casi abbiamo imparato a
difenderci grazie a farmaci e vaccini che interferiscono
con il loro ciclo vitale. Ma se vogliamo che per i virus
sia più difficile infettare animali ed esseri umani, dobbiamo limitare l'impatto delle nostre attività sull'ambiente.
Giovanni Maga è nato a Pavia nel1965. E' ricercatore
presso l'Istituto di Genetica Molecolare del CNR di
Pavia, dove dirige la sezione di Enzimologia del DNA e
Virologia Molecolare, studiando i meccanismi di replicazione del genoma nei virus e nelle cellule animali,
per sviluppare nuovi farmaci antivirali e antitumorali.
È' anche professore a contratto di Biologia Molecolare
presso l'Università degli Studi di Pavia, dove insegna la
virologia molecolare agli studenti di Scienze Biologiche.
È' autore di numerose pubblicazioni su riviste a diffusione nazionale. Tiene spesso lezioni sui virus nelle
scienza
scuole per sensibilizzare gli adolescenti sul problema
dell'AIDS.
La casa editrice Zanichelli, fondata nel 1859 dal libraio
modenese Nicola Zanichelli, ha in catalogo oltre 2000
opere, tra cui alcuni dei più diffusi vocabolari di lingua
italiana e dizionari di lingue straniere, in versione cartacea e digitale.
Premio nel campo delle Scienze
giuridiche ed economiche
Giorgio Resta e Vincenzo Zeno-Zencovich (a cura)
Riparare Risarcire Ricordare. Un dialogo tra storici e giuristi
Editoriale Scientifica, 2012
Il volume raccoglie alcuni
dei risultati di un
Progetto di Ricerca di
Interesse Nazionale
finanziato dal Ministero
per l'Università, promosso e svolto dalle
Università di Roma Tre, di
Bari “Aldo Moro”, di
Napoli “Federico II” e del
Salento, con la collaborazione della Fondazione
Centro di Iniziativa
Giuridica Piero
Calamandrei, sul tema
“Le ferite della storia e il
diritto riparatore: un'indagine storico-comparatistica”.
Vincenzo Zeno-Zencovich è ordinario di diritto comparato nell'Università di Roma Tre e Rettore
dell'Università degli Studi Internazionali di Roma
(UNINT)
15 gennaio 2014
Giorgio Resta, insegna presso il Dipartimento di
Giurisprudenza dell'Università di Bari Aldo Moro
L'Editoriale Scientifica è una casa editrice di Napoli.
Premio nel campo delle Scienze
umanistiche, sociali e della formazione
Elio Cadelo, Luciano Pellicani
Contro la modernità. Le radici della cultura antiscientifica in
Italia
Rubbettino, 2013
Nel libro gli autori documentano che la società italiana,
pur essendo entrata nella
famiglia delle società industriali avanzate, continua ad
essere caratterizzata da un
diffuso e radicato analfabetismo scientifico quotidianamente alimentato dalla esiziale presenza attiva di ideologie radicalmente ostili alla
scienza, alla tecnica e al
mercato. Il che costituisce
uno sconcertante paradosso
storico, dal momento che
sono proprio la scienza, la
tecnica e il mercato i potenti
motori di quella epocale rivoluzione in permanenza che
siamo soliti chiamare modernizzazione. Il risultato è un
libro indispensabile per prendere coscienza di ciò che il
nostro Paese ha bisogno per evitare la deriva della
regressione storica e per garantire un futuro alle nuove
generazioni.
25
15 gennaio 2014
scienza
Elio Cadelo, giornalista, divulgatore scientifico, inviato
speciale del Giornale Radio Rai per la Scienza e
l'Ambiente. Ha lavorato al Corriere della Sera, al Il
Mattino, è stato collaboratore di Panorama, Scienza
Duemila, Epoca. Autore e coautore di numerose pubblicazioni. E' stato membro del Gruppo di lavoro sulla
Informazione e Comunicazione in Biotecnologia del
Comitato Nazionale per la Biosicurezza e le
Biotecnologie della Presidenza del Consiglio dei
Ministri.
Luciano Pellicani, già direttore di «Mondoperaio», è fra i
sociologi italiani più conosciuti a livello internazionale
grazie alla pubblicazione dei suoi saggi nelle principali
lingue europee.
La Casa Editrice Rubbettino nasce nel 1972 a Soveria
Mannelli, in Calabria, grazie all'impegno e la caparbietà
di Rosario Rubbettino. Il primo nucleo aziendale era
costituito inizialmente da una tipografia e da una piccola casa editrice. Negli anni immediatamente successivi allo start-up la stamperia si è trasformata in una
moderna azienda tipografica che offre oggi servizi di
stampa a molte altre case editrici italiane mentre la
produzione editoriale è diventata sempre più intensa e
qualificata fino a riuscire a imporsi come punto di riferimento imprescindibile per quanti a vario titolo si
occupano di economia, politica e scienze sociali.
Il Premio Nazionale di Divulgazione
Scientifica
Nato con l'obiettivo di contribuire a divulgare la ricerca
oltre i confini della cultura accademica e scientifica, il
Premio Nazionale di Divulgazione Scientifica che
l'Associazione Italiana del Libro ha bandito con il patrocinio del CNR sta superando il suo primo esame con
numeri di tutto rispetto: 378 opere in gara, tra libri e
pubblicazioni, per un totale di 739 autori coinvolti. Le
donne rappresentano il 35%. Per quanto riguarda l'età,
115 partecipanti, il 16% del totale, hanno invece meno di
35 anni: segno che le preoccupazioni da tempo sollevate
sul futuro e lo spazio riservato ai giovani ricercatori in
Italia sono più che concrete.
I libri presentati nell'ambito di questa prima edizione del
Premio sono ben 314, la maggior parte dei quali afferiscono alle Scienze umanistiche, sociali e della formazione (38%), alle Scienze del territorio e dell'ambiente (22%)
e alle Scienze matematiche, fisiche e naturali (18%). Gli
altri volumi appartengono all'ambito delle Scienze della
Salute e delle Scienze giuridiche ed economiche. L'ampio
spettro di opere presentate segna un punto a vantaggio
di una concezione della scienza che travalica i confini
tradizionali delle discipline scientifiche per caratterizzare anche altri ambiti della conoscenza, non meno importanti, affrontati e descritti molto spesso con ugual rigore
metodologico.
Non solo numeri comunque. Notevole è anche la qualità
dei contributi proposti, la maggior parte dei quali ben
26
strutturati e affrontati con competenza, taluni di evidente impatto e interesse scientifico, coinvolgenti, efficaci,
originali, attuali, qualcun altro forse meno organico ed
equilibrato, altri ancora, pur meritevoli, un po' troppo
specialistici, meno divulgativi, se ci è consentito il termine. Un insieme di opere, in ogni caso, variegato e composito che lascia intravedere buone potenzialità di mercato
per un settore - quello della divulgazione scientifica che non ha ancora pienamente trovato nel nostro Paese
la sua giusta dimensione e buone opportunità di valorizzazione. Speriamo che il Premio possa costituire in questa direzione uno stimolo per tutti, anche per quegli
autori e per quegli editori che non si sono ancora misurati su questo terreno.
Le case editrici che partecipano a questa edizione del
Premio sono oltre 170. Vi sono rappresentati un po' tutti:
dai nomi storici dell'editoria italiana ai marchi più recenti, compresi quelli a maggiore vocazione universitaria e
scientifica, qualcuno con un solo testo, altri con un'adesione particolarmente massiccia. Significative anche le
esperienze di self publishing, nei diversi modi in cui questo fenomeno si manifesta, il più delle volte convincenti,
che la dicono lunga sulle difficoltà di udienza che i lavori
e le ricerche di divulgazione scientifica sono costrette a
subire talvolta in campo editoriale. Partecipano al Premio
anche alcuni libri rivolti ai ragazzi e molti articoli giornalistici, di grande efficacia, su quotidiani o riviste.
scienza
Tutti i libri in finale
(in ordine di presentazione al
Premio)
Scienze matematiche, fisiche e
naturali
Marco Ciardi, Terra. Storia di un’idea, Editori Laterza,
2013
Tommaso Castellani, Equilibrio. Storia curiosa di un
concetto fisico, Edizioni Dedalo, 2013
Marco Fabbrichesi, Delle cose semplici. Pianeti, piselli,
batteri e particelle elementari, pubblicato in proprio,
2012
Domenico Signorelli, Fisica, delitti e digressioni. 7 casi
da risolvere, 7 insolite lezioni di fisica, un numero
imprecisato di peregrinazioni della mente,
Matematicamente.it, 2012
Mauro Dorato, Che cos’è il tempo? Einstein, Gödel e
l’esperienza comune, Carocci editore, 2013
Roberto Lucchetti, Scacchi e scimpanzé. Matematica per
giocatori razionali, Bruno Mondadori, 2012
Andrea Baldassarri, Temperatura, energia, entropia,
Ediesse, 2012
Massimo Inguscio, Fisica atomica allo zero assoluto, Di
Renzo Editore, 2012
Ugo Amaldi, Sempre più veloci. Perché i fisici accelerano le particelle: la vera storia del bosone di Higgs,
Zanichelli editore, 2012
Sandro Pandolfi, Il paradosso coerente. Il futuro teorico
della nuova fisica, Armando Editore, 2013
Cosimo Marrone, Federico Mari, Davide Passaro, Le
parole della fisica. Dieci letture per (ri)scoprire la
fisica, Edizioni CompoMat, 2012
Corrado Lamberti, Il bosone di Higgs. Il trionfo del
Modello Standard o l’alba di una nuova fisica?,
Aliberti editore, 2012
Stefano Ossicini, L’universo è fatto di storie non solo di
atomi. Breve storia delle truffe scientifiche, Neri
Pozza Editore, 2012
Daniele Gasparri, Vita nell’Universo. Eccezione o regola?, CreateSpace, 2013
Luciano Maiani con la collaborazione di Romeo Bassoli,
A caccia del bosone di Higgs. Magneti, governi,
scienziati e particelle nell’impresa scientifica del
secolo, Mondadori Education, 2013
Roberto Lucchetti, Giuseppe Rosolini, Matematica al
bar. Conversazioni su giochi, logica e altro, Franco
Angeli, 2012
Giovanni F. Bignami, Il mistero delle sette sfere. Cosa
resta da esplorare, dalla depressione di Afar alle
stelle più vicine, Mondadori, 2013
Marco Bastoni, Eclissi! Quando Sole e Luna danno spettacolo in cielo, Springer - Verlag Italia, 2012
15 gennaio 2014
Roberto Fieschi, Sul limitare della fisica. Una scienza
pervasiva, MUP Editore, 2013
Claudio Bartocci, Una piramide di problemi. Storie di
geometria da Gauss a Hilbert, Raffaello Cortina
Editore, 2012
Giovanni Caprara, Storia italiana dello spazio. Visionari,
scienziati e conquiste dal XIV secolo alla stazione
spaziale, Bompiani, 2012
Alessandra Celletti, Ettore Perozzi, Pianeti per caso,
UTET, 2012
Emiliano Ricci, La fisica fuori casa. Un fantastico viaggio
alla scoperta delle leggi della natura, Giunti Editore,
2013
Paola Monari (a cura), Giochi d’azzardo e probabilità,
Editori Riuniti university press, 2012
Vincenzo Balzani, Margherita Venturi, Chimica! Leggere
e scrivere il libro della natura, Scienza Express edizioni, 2012
Federico Peiretti, Il grande gioco dei numeri, Longanesi,
2013
Alessandro De Angelis, L’enigma dei raggi cosmici. Le
più grandi energie dell’universo, Springer, 2012
Davide Coero Borga, La scienza del giocattolaio, Codice
edizioni, 2012
Massimo Capaccioli, Silvia Galano, Arminio Nobile e la
misura del cielo ovvero Le disavventure di un astronomo napoletano, Springer, 2012
Vincenzo Barone, L’ordine del mondo. Le simmetrie in
fisica da Aristotele a Higgs, Bollati Boringhieri, 2013
Stefano Mancuso, Alessandra Viola, Verde Brillante.
Sensibilità e intelligenza del mondo vegetale, Giunti
Editore, 2013
Scienze del territorio e dell’ambiente
Enrico Giovannini, Nel nome, la storia: toponomastica
di Roma antica. Archeologia, storia e tradizione tra
le strade dell’Urbe, Editrice Apes, 2012
Marco Armiero, Le montagne della patria. Natura e
nazione nella storia d’Italia. Secoli XIX e XX, Einaudi,
2013
Guido Chelazzi, L’impronta originale. Storia naturale
della colpa ecologica, Einaudi, 2013
Leonella De Santis, I segreti di Roma sotterranea. Alla
scoperta di un mondo misterioso e sommerso dove
passato e presente si fondono fino a diventare
un’unica realtà, Newton Compton editori, nuova edizione aggiornata, 2012
Pierluigi Altea (a cura), Controllo sui geni o geni fuori
controllo? Genetica, filosofia e diritto a confronto sul
caso OGM, Mimesis Edizioni, 2013
Alessandro Coppola, Apocalypse Town. Cronache dalla
fine della civiltà urbana, Editori Laterza, 2012
Giovanni Vittorio Pallottino, La fisica della sobrietà. Ne
basta la metà o ancora meno, Edizioni Dedalo, 2012
Simona Epasto, Geografia e sviluppo globale. Itinerari e
prospettive verso un approccio olistico e multidisci27
scienza
15 gennaio 2014
plinare, Aracne editrice, 2013
Duilio Contin, Piergiorgio Odifreddi, Antonio Pieretti,
Antologia della Divina Proporzione di Luca Pacioli,
Piero della Francesca e Leonardo da Vinci, Aboca
Edizioni, 2012
Società Italiana di Scienze Sensoriali, Atlante sensoriale
dei prodotti alimentari, Tecniche Nuove, 2012
Antonio Lopez, Tracce di animali, Giunti Editore, 2012
Roberto Danovaro, Biologia marina. Biodiversità e funzionamento degli ecosistemi marini, Città Studi
Edizioni, 2013
Fausto Cavallaro, Energia dal sole. Aspetti tecnologici e
di mercato, Aracne editrice, 2012
Paolo Aldo Rossi, Ida Li Vigni, Non di solo pane... piuttosto di gola. Scienze dell’alimentazione e arte culinaria dall’età tardo-classica a quella medievale, Aracne
editrice, 2013
Eleonora Maria Viganò, Dilemma OGM. A tavola con
ricerca, mercato e società, Informant, 2012
Raffaello Cecchetti (a cura), La Via Francigena. Società e
territorio nel cuore della Toscana medievale, Pisa
University Press, 2012
Marica Di Pierri, Laura Greco, Lucie Greyl, Miguel Angel
de Porras Acuña, Isotta Carraro, Giulia Dakli, Maria
Marano, Lucilla Salvia, Donne in difesa dell’ambiente. Emergenza ambientale, crisi climatica e ruolo
delle donne nei processi di articolazione sociale e di
difesa dei territori, CDCA. Centro di Documentazione
sui Conflitti Ambientali, 2012
Paolo Rovati (a cura), L’acqua: diritto per tutti o profitto
per pochi?, eum - edizioni università di macerata,
2013
Stefano Caserini, Aria pulita, Bruno Mondadori, 2013
Luca Valera, Ecologia Umana. Le sfide etiche del rapporto uomo/ambiente, Aracne editrice, 2013
Franco Gambale, Marilena Spertino, Quando la terra
trema. Sopravvivenza, emozioni e scienza tra
Fukushima e l’Emilia, Scienza Express edizioni, 2012
Antonella Pellettieri, Marcello Corrado, Le Città dei
28
Cavalieri. Grassano e i suoi Cinti, Edizioni Centro
Grafico Foggia, 2013
Federica Ottoni, Delle cupole e del loro tranello. La
lunga vicenda delle fabbriche cupolate tra dibattito e
sperimentazione, Aracne editrice, 2012
Mihaela Gavrila (a cura), L’Onda anomala dei media. Il
rischio ambientale tra realtà e rappresentazione,
Franco Angeli, 2012
Luca Lombroso. Apocalypse Now? Clima, ambiente,
cataclismi. Possiamo salvare il mondo. Ora, Edizioni
Artestampa, 2012
Scienze della salute
Italo Sannicandro, Le attività motorie per i senior.
Caratteristiche del senior. Evidenze scientifiche.
Aspetti metodologici, Edizioni Correre, 2013
Fabrizio Benedetti, L’effetto placebo. Breve viaggio tra
mente e corpo, Carocci editore, 2012
Giovanni Maga, Occhio ai virus. Se li conosci sai come
difenderti, Zanichelli editore, 2012
Marta Baiocchi, Cento micron, minimum fax, 2012
Eugenio Fiorentino, Il reflusso acido. Conoscerlo per
controllarlo. Una guida pratica per tutti, Aracne editrice, 2012
Gianvito Martino, Il cervello gioca in difesa. Storie di
cellule che pensano, Mondadori Education, 2013
Margherita Enrico, La scienza della giovinezza. Come
ridurre età biologica, peso e stress, Sperling &
Kupfer, 2013
Silvio Garattini, Fa bene o fa male? Salute, ricerca e farmaci: tutto quello che bisogna sapere, Sperling &
Kupfer, 2013
Fabio Lugoboni, Aiutare a smettere di fumare? E’ più
facile di quanto pensi, SEEd, 2012
Antonello Taurino, Miles gloriosus. Morire di uranio
impoverito, Scienza Express edizioni, 2013
scienza
Scienze giuridiche ed economiche
Marco Ruotolo, Sicurezza, dignità e lotta alla povertà,
Editoriale Scientifica, 2012
Massimo Pollifroni, Lineamenti di etica aziendale, G.
Giappichelli Editore, 2012
Maria Romana Allegri, Informazione e comunicazione
nell’ordinamento giuridico italiano, G. Giappichelli
Editore, 2012
Saverio Gentile, La legalità del male. L’offensiva mussoliniana contro gli ebrei nella prospettiva storico-giuridica (1938-1945), G. Giappichelli Editore, 2013
Ettore Battelli, Il valore legale dei documenti informatici, Edizioni Scientifiche Italiane, 2012
Francesco Menoncin, Negli ingranaggi della finanza,
Academia Universa Press, ristampa aggiornata 2013
Riccardo Omodei Salè, La detenzione e le detenzioni.
Unità e pluralismo nelle situazioni di fatto contrapposte al possesso, CEDAM, 2012
Fabrizio Mastromartino, Il diritto di asilo. Teoria e storia
di un istituto giuridico controverso, G. Giappichelli
Editore, 2012
Elena Cedrola, Loretta Battaglia, Storia, economia, cultura, modelli di business e di marketing per operare
con successo in Cina. La via verso la Terra di Mezzo,
CEDAM, 2012
M. Eugenia Bartoloni, Politica estera e azione esterna
dell’Unione Europea, Editoriale Scientifica, 2012
Ennio Grassini, Rodolfo Pacifico, Il consenso informato.
Le basi, la pratica e la difesa del medico, Terza edizione, SEEd, 2012
Giorgio Resta e Vincenzo Zeno-Zencovich (a cura),
Riparare Risarcire Ricordare. Un dialogo tra storici e
giuristi, Editoriale Scientifica, 2012
Gabriele Pepe, Principi generali dell’ordinamento comunitario e attività amministrativa, Eurilink Edizioni,
15 gennaio 2014
2012
Leandro Limoccia, Diritto penitenziario e dignità
umana, Edizioni Scientifiche Italiane, 2012
Ilaria Amelia Caggiano, Circolazione del denaro e strumenti di tutela, Editoriale Scientifica, 2012
Loredana Mura, Il diritto internazionale privato italiano
nei rapporti con il diritto internazionale, europeo e
straniero, G. Giappichelli Editore, 2012
Stefano Agosta, Bioetica e Costituzione, I vol. (Le scelte
esistenziali di inizio-vita) - II vol. (Le scelte esistenziali di fine-vita), Giuffrè Ed., 2012
Scienze umanistiche, sociali e
della formazione
Giuseppe Solaro, Il mistero Democrito, Aracne editrice,
2012
Lucia Ciampi, Media e produzione culturale. Focus sull’opinione pubblica, Aracne editrice, 2013
Silvano Fuso, La falsa scienza. Invenzioni folli, frodi e
medicine miracolose dalla metà del Settecento a
oggi, Carocci editore, 2013
Assunta Viteritti, Scienza in formazione. Corpi, materialità e scrittura in laboratorio, Guerini & Associati,
2012
Antonio Scornajenghi, L’Italia di Giovanni Paolo II,
Edizioni San Paolo, 2012
Anna Curir, I processi psicologici della scoperta scientifica. L’armoniosa complessità del mondo, Kim
Williams Books, 2012
Alberto Guasco, Cattolici e fascisti. La Santa sede e la
politica italiana all’alba del regime (1919-1925),
Società Editrice il Mulino, 2013
Adriano Zecchina, Alchimie nell’arte. La chimica e
l’evoluzione della pittura, Zanichelli editore, 2012
Giancarlo Infante, L’altra faccia del sole, Armando
Editore, 2013
29
15 gennaio 2014
Luciano Celi, Cervelli che fuggono e cervelli che restano. Appunti di viaggio nell’Italia del brain drain,
Lu::Ce edizioni, 2013
Paolo Di Lazzaro, Daniele Murra, L’anamorfosi tra arte,
percezione visiva e “prospettive bizzarre”, ENEA,
2013
Andrea Frova, Lo scienziato di cartapesta, Edizioni
Dedalo, 2013
Valerio Eletti, Complessità, cambiamento, comunicazioni. Dai social network al Web 3.0., Guaraldi, 2012
Giovanni Farese, Luigi Einaudi, Rubbettino, 2012
Laura Di Nicola, Intellettuali italiane del Novecento.
Una storia discontinua, Pacini Editore, 2012
Bruna Donatelli, Paradigmi della modernità. Letteratura,
arte e scienza della Francia del XIX secolo, Artemide,
2012
Giulio Palermo, Baroni e portaborse. I rapporti di potere
nell’università, Editori Internazionali Riuniti, 2012
Stefano Perfetti, Animali pensati nella filosofia tra
medioevo e prima età moderna, Edizioni ETS, 2102
Stefano Roncoroni, Ettore Majorana, lo scomparso e la
decisione irrevocabile, Editori Internazionali Riuniti,
2013
Roberto Inchingolo, Perché ci piace il pericolo.
Adrenalina, paura, piacere, Sironi Editore, 2013
Carmelo Occhipinti, L’arte in Italia e in Europa nel
secondo Cinquecento, Einaudi, 2012
Maria Cinque, In merito al talento. La valorizzazione
dell’eccellenza personale tra ricerca e didattica,
Franco Angeli, 2013
Aurelia Camparini (a cura), Emilio Sereni, Cultura
nazionale e cultura popolare. Scritti e discorsi,
Aracne editrice, 2013
Claudio Bartocci, Il numero che non si calcola. Storie di
scienze e di scienziati, Doppiozero, 2012
Barbara Barcaccia, Francesco Mancini (a cura), Teoria e
clinica del perdono, Raffaello Cortina Editore, 2013
Rossella Palomba, Guida pratica per ragazze in gamba.
Come fare ricerca e vivere felici, Scienza Express
edizioni, 2013
Elio Cadelo, Luciano Pellicani, Contro la modernità. Le
radici della cultura antiscientifica in Italia,
Rubbettino, 2013
Giulio Fanti, Saverio Gaeta, Il mistero della Sindone. Le
sorprendenti scoperte scientifiche sull’enigma del telo di
Gesù, Rizzoli, 2013
Le pubblicazioni di divulgazione
scientifica rivolte ai ragazzi
Cristiana Pulcinelli, Pannocchie da Nobel. Storia e storie
di Barbara McClintock, Editoriale Scienza, 2012
Umberto Guidoni, Andrea Valente, Così extra, così terrestre. A che cosa servono le missioni spaziali?,
Editoriale Scienza, 2013
Federico Taddia intervista Bruno D'Amore, Perché diamo
i numeri? E tante altre domande sulla matematica,
30
scienza
Editoriale Scienza, 2012
Margherita Hack, Massimo Ramella, Stelle, pianeti e
galassie. Viaggio nella storia dell'astronomia dall'antichità ad oggi, Editoriale Scienza, 2013
Luca Novelli, Pitagora e il numero maledetto, Editoriale
Scienza, 2012
Bruno d'Amore, Martha Isabel Fandiño Pinilla, La nonna
di Pitagora. L'invenzione matematica spiegata agli
increduli, Edizioni Dedalo, 2013
Elena Ioli, Nero come un buco nero, Edizioni Dedalo,
2013
Eva Pisano, Il pesciolino argentato. Viaggio alla scoperta
del mare nell'Antartide, Sagep Editori, 2013
Lara Albanese, Tutti i numeri del mondo, Sinnos editrice,
2013
Alessio Palmero Aprosio, Pinocchio nel paese del paradossi. Viaggio tra le contraddizioni della logica, Sironi
Editore, 2012
Margherita Hack, Gianluca Ranzini, Stelle da paura. A
caccia dei misteri spaventosi del cielo, Sperling &
Kupfer, 2012
I giovani autori di libri (under 35
anni di età) entrati in finale
Marco Bastoni, Eclissi! Quando Sole e Luna danno spettacolo in cielo, Springer - Verlag Italia, 2012
Ettore Battelli, Il valore legale dei documenti informatici,
Edizioni Scientifiche Italiane, 2012
Tommaso Castellani, Equilibrio. Storia curiosa di un concetto fisico, Edizioni Dedalo, 2013
Davide Coero Borga, La scienza dal giocattolaio, Codice
edizioni, 2012
Alessandro Coppola, Apocalypse Town. Cronache dalla
fine della civiltà urbana, Editori Laterza, 2012
Giovanni Farese, Luigi Einaudi, Rubbettino, 2012
Daniele Gasparri, Vita nell'Universo. Eccezione o regola?,
CreateSpace, 2013
Saverio Gentile, La legalità del male. L'offensiva mussoliniana contro gli ebrei nella prospettiva storico-giuridica (1938-1945), G. Giappichelli Editore, 2013
Enrico Giovannini, Nel nome, la storia: toponomastica di
Roma antica. Archeologia, storia e tradizione tra le
strade dell'Urbe, Editrice Apes, 2012
Roberto Inchingolo, Perché ci piace il pericolo.
Adrenalina, paura, piacere, Sironi Editore, 2013
Cosimo Marrone, Federico Mari, Davide Passaro, Le parole della fisica. Dieci letture per (ri)scoprire la fisica,
Edizioni CompoMat, 2012
Fabrizio Mastromartino, Il diritto di asilo. Teoria e storia
di un istituto giuridico controverso, G. Giappichelli
Editore, 2012
Federica Ottoni, Delle cupole e del loro tranello. La lunga
vicenda delle fabbriche cupolate tra dibattito e sperimentazione, Aracne editrice, 2012
Antonello Taurino, Miles gloriosus. Morire di uranio
impoverito, Scienza Express edizioni, 2013
scienza
15 gennaio 2014
Dieta mediterranea 2.0
di Nadia di Carluccio
La Facoltà di Farmacia Federico II di
Napoli chiudeva mercoledì 11 dicembre in Aula Sorrentino il Ciclo di
Seminari del Prof. Giorgio Calabrese
nel migliore dei modi organizzando
un Convegno dal titolo: “Dieta
Mediterranea 2.0”.
A coordinare relatori di notevole
importanza
era
Gigi
Marzullo
Capostruttura per la Cultura Rai 1. Si
sono confrontati Vito Amendolara,
Presidente
dell’Osservatorio
Regionale per la Dieta Mediterranea
che sottolineava l’importanza dello
stile di vita e dell’ambiente ecosostenibile ricordando che la Regione
Campania ha grandi potenzialità
essendo la più giovane d’Italia e la più
ricca di parchi verdi del ben 34%
rispetto al 22% del territorio nazionale
e al 17% di quello europeo come afferma il Ministro dell’Ambiente.
Il Prof. Giorgio Calabrese ha evidenziato che la dieta mediterranea è una
“ghost diet “ cioè non avente solo proteine, lipidi e glicidi ma anche una
componente fantasma fatta di micronutrienti salutistici. Inoltre è convinto
che bisogna recuperare l’antica dieta
mediterranea rendendola moderna.
Il modo giusto? Arricchire i prodotti di
componenti così come si pone l’obiettivo la nuova scienza Nutraceutica che
nasce da questo Ateneo con il direttore Ettore Novellino.
Il primo a mettere in luce la relazione tra dieta mediterranea e calo di
incidenza di malattie cardiovascolari
è stato Ancel Keys ha ricordato il Prof.
Gabriele Riccardi del Dipartimento di
Medicina e Chirurgia e non a caso è
prevenzione di diabete e di malattie
dismetaboliche mentre la Prof.ssa
Silvia Savastano si è soffermata su
un’altra nostra ricchezza: il pomodoro.
Non poteva mancare
Pierluigi
Pecoraro
Presidente
dell’Ordine
Nazionale dei Biologi Consigliere e
Delegato Settore Nutrizione che ha
evidenziato dati sconvolgenti riguardo
l’aumento di obesità. Basti pensare
che nel 2008 la percentuale totale era
intorno al 21% mentre oggi tale 21% è
il dato dei soli bambini obesi nella
Regione Campania. L’obiettivo del
Prof. Pecoraro è quello di creare una
ristorazione collettiva nelle scuole
promuovendo la dieta mediterranea
in modo da indottrinare al meglio le
nuove generazioni.
A chiudere il simposio è stato Ettore
Novellino Direttore della Facoltà di
Farmacia Federico II di Napoli rispondendo alla domanda che qualsiasi
studente potrebbe porre nel proprio
ego: “Perché parlare di dieta mediterranea nella Facoltà di Farmacia?”.
“Ebbene, risponde il Prof. Ettore
Novellino, per il tipo di professione
che facciamo dovremmo augurarci
che le persone si curino sempre ma
considerando che il 40% sono affette
da patologie sintomatiche e il 60% da
quelle asintomatiche quest’ultime
essendo convinte di stare bene in
salute arrivano ad avere un danno
d’organo senza preavvisi gravando in
questo modo con più significatività
sulla spesa pubblica sanitaria quindi
sarebbe meglio allargare il nostro spazio professionale anche sulle sindromi dismetaboliche. Proprio ricordandomi un antico proverbio che reputo
essere il consolidamento dell’osservazione nel tempo di un determinato
fenomeno che si stanzia nella tradizione popolare per poi tramandarsi
alle nuove generazioni ho trovato
riscontro nei miei ultimi studi. Mi riferisco a quello che recita “Una mela al
giorno toglie il medico di torno”.
Partendo da qui abbiamo constatato
che esistono micronutrienti elaborati
dalla pianta che hanno una funzione
biologica per la stessa ma che potrebbero avere effetti benefici anche sull’uomo. Ma i micronutrienti di oggi
risultano essere ridotti rispetto al passato dato che abbiamo perso la stagionalità dei prodotti a favore delle coltivazioni intensive e delle serre. Se
vogliamo utilizzare tali alimenti per il
loro effetto salutistico dobbiamo
riportare le giuste concentrazioni di
micronutrienti supplementando l’ alimento. Da questa idea nasce la
Nutraceutica e a conferma di ciò sono
gli studi recenti sulla melannurca che
abbassa notevolmente il famigerato
LDL innalzando l’HDL superando
l’atorvastatina farmaco di sintesi”.
In realtà il Prof Ettore Novellino
intende sottolineare l’importanza di
incapsulare tali sostanze benefiche in
quanto per raggiungere una dose efficace di melannurca ne servirebbero
cinque al giorno creando meno aderenza alla terapia e avendo soprattutto un innalzamento di glicemia. Il
suo pensiero è racchiuso nella frase
“beyond diet befor drug” che vuole
essere un monito per intervenire
prima del danno d’organo in quei casi
dove lo stile di vita non riesce a mantenere gli esatti parametri fisiologici.
Quindi il significato del numero 2.0 è
nel recupero della dieta mediterranea
modernizzandola ed è giusto che tale
messaggio provenga dalla Facoltà di
Farmacia aprendo un nuovo spazio
terapeutico fatto non più da una
“medicina di attesa” ma da una
“medicina di iniziativa”.
Nadia Di Carluccio laureata in Farmacia presso la Facoltà Federico II di
Napoli, interessata a tutto ciò che esiste intorno al mondo farmaceutico e alimentare in quanto prossima nel conseguire una seconda laurea
presso la Facoltà di Scienze della Nutrizione Umana Tor Vergata di
Roma.
31
scienza
15 gennaio 2014
Dalla complessità interdisciplinare alla
complicazione valutativa
di Graziella Tonfoni
Sono una scienziata 'all'antica': ho
imparato a fare ricerca avanzata, ed
a praticarla incessantemente, quotidianamente, nei primi anni ottanta,
del secolo scorso, andando, come si
dice in pittura, 'a bottega' lavorando
quindi presso i più grandi maestri
del sapere umanistico e tecnologico.
Si trattava di una era particolarissima, talmente lontana dall'oggi accelerato e frantumato, da richiedere un
trattamento storico per farne intendere le coordinate. Erano, in fondo, i
buoni tempi andati, durante i quali si
riteneva che un direttore di rivista
unico, se davvero competente, come
di fatto sempre risultava alla prova,
fosse più che sufficiente a cogliere l'
importanza di un certo articolo proposto, da pubblicare urgentemente,
perfino dando la precedenza rispetto
ad altri contributi temporaneamente
in sosta, che erano correttamente
giudicabili come meno rilevanti, che
non significa meno importanti, e
che per contenuti esposti, potevano
comunque attendere.
Nella capacità di visione e previsione di una direzione editoriale, coerente, saggia ed illuminata, risiedeva
il prestigio della rivista; esisteva una
redazione competente, sempre in
grado di emendare eventuali refusi,
ed un comitato editoriale accessorio,
era visto spesso come un inutile
appesantimento sia per gli eventuali
membri invitati ad esserlo che per la
gestione oculata della stessa rivista.
Se un direttore ha le idee chiare, non
si assiepino tanti altri colleghi a confondere seppur involontariamente le
pagine- questo era il principio di
base.
Gli autori rapidamente pubblicati,
contribuivano con i loro articoli, alla
qualità della rivista.
Non era necessario introdurre le
lettere maiuscole dell'alfabeto per
qualificare la sostanza degli interventi e degli intervenuti.
32
Gli innovatori ardimentosi, non
necessariamente riscuotevano subito i risultati accademici auspicabili,
ma assicuravano ai propri concetti
quella stabilità cartacea, che un capitolo pubblicato in tempi ragionevoli
e senza refusi, garantiva, specialmente se comprendeva perfino la
possibilità di avere un certo numero
fisso di estratti da fare circolare presso quei lettori che si prevedesse
potessero avere tempo e motivazione per volerne restare aggiornati.
La reazione accademica locale,
aveva sempre un peso effettivo nella
accettazione delle teorie innovative:
era auspicabile la riduzione dei
tempi di avanzamento nella disciplina, cui il singolo scienziato avesse
apportato numerose e stabili innovazioni, anche se si trattasse di un
crocicchio di settori,, ma era parte
del rischio imprenditoriale di chi
produceva innovazione interdisciplinare, attendersi una forte resistenza a metodi, che poi sarebbero
comunque stati valutati sul lungo
termine.
In sintesi, il rischio di dovere poi
lasciare passare avanti gli autori di
quegli articoli lasciati in attesa
prima, studiosi che si erano visti passare su corsia preferenziale teorie
del tutto diverse dalle loro, era non
solo del tutto prevedibile ma anche
comprensibile. Meglio un articolo
solido pubblicato ieri, da una scienziata che resta ricercatrice a vita, di
chiara fama, che un inedito perenne
della medesima, divenuta ordinaria
per non averlo mai pubblicato.
Questo era il principio regolatore che
aveva una sua accettabilità.
La ricerca scientifica era infatti
basata sul concetto che nella vita
della costante investigazione, seria e
non seriale, tutto allo stesso tempo,
non si può avere, e non si deve neppure cercare di conseguire.
Ma erano quelli i tempi in cui
ancora il globo terrestre non era globalizzato, e si credeva giustamente,
che ci fossero centri di ricerca di
numero assai limitato, mondialmente visibili, universalmente riconosciuti, per certe discipline, particolarmente addensati negli Stati Uniti,
da cui uscivano metodi che arrivavano poi successivamente in Europa,
per essere visionati, non tradotti alla
lettera, ma piuttosto mediati, studiati, integrati quando giusto fosse,
nelle particolarità vigenti, oppure
perfino rigettati, se non consoni
rispetto alle diverse esigenze territoriali, variegate e linguisticamente
differenziate.
La divulgazione corretta avveniva
quando il test di validazione di ogni
novità ideata o importata fosse stato
effettuato con dichiarato successo.
In sintesi, esisteva ancora il rispetto
per l'utente che non si voleva rendere cavia di esperimenti rischiosi o
anche solo fastidiosi per inutile perdita del suo tempo.
Ovviamente, le procedure per la
verifica delle novità scientifiche,
erano estremamente accurate e di
disamina assai esigente. In quell'era,
che è giusto conoscere per ammirare, come si possa fare con una ricostruzione tridimensionale di una
archeologia del sapere, ad una scienziata come la sottoscritta, era continuamente richiesto di provare la
esattezza delle proprie teorie, e se ci
fossero controindicazioni di non
uscire mai all'esterno con un prodotto solo semilavorato o che seppur
completo potesse di fatto risolvere
un problema, ma aprirne poi tanti
altri imprevisti tutti intorno.
L'era pre-globalistica, che era
anche l' epoca pre-europeistica, era
vissuta all'insegna dell'impegno e
della responsabilizzazione personale
di ogni operatore scientifico.
La autovalutazione sincera, basata
comunque su verifiche, che non
scienza
sfuggivano ai controlli di
autorità precise, nei vari
settori disciplinari, era
anche la base certa, per
una garanzia nella qualità
della divulgazione successiva, che poteva prevedere
un dosaggio accorto, più
fasi e più livelli.
Non a tutti serve sapere
tutto, ed il tutto non è la
somma delle parti. Ma a
tutti è giusto fornire un
compendio, di quanto
potrebbe loro essere utile
sapere, ed eventualmente
poi approfondire da esperti in formazione.
Il filtro e la gradazione
delle conoscenze, scelte
fra quelle stabili e significative, costituivano motivo di orgoglio personale
per gli scienziati, che differenziavano come sarti
che lavorano su misura, a
seconda dei richiedenti, i
loro prodotti, corredandoli
volentieri di propri diari di
ricerca, a fare fede di
quanta passione, e dedicazione sincera, ci debba
essere nella ricerca vera,
ed anche di quanto sacrificio ogni tappa del percorso faticoso, possa richiedere.
La globalizzazione ha portato la
divulgazione scientifica ad assumere
spesso la forma di autentica propaganda, sulla base di una corsa sfrenata alla notiziabilità spicciola, al
ricorso costante ad una teatralizzazione del non ancora verificato, ma
già sancito e proclamato come dato
reale.
Il danno di una ipotesi teorica
instabile, circolata ampiamente oggi
come metodo stabile ha proporzioni
enormi e ricadute evidenti. Una sele-
15 gennaio 2014
zione scientifica mal valutata, che
venga poi riabilitata alla luce delle
evidenze documentali complete, con
il tempo risentirà sempre e comunque della pesante ipoteca iniziale.
Una terminologia frettolosamente
introdotta, globalmente diffusa,
quando ancora mancavano i dati
complessivi significativi, già tanto
diffusa da rendere gravosa la rettifica
impiegherà anni e forse secoli per un
riaggiustamento lessicale effettivo.
Se il global warming (riscaldamen-
to globale) viene oggi ad essere riconosciuto da tutti come un morfologico refuso evidente, di un ben più
significativo global warning – climate change (allarme globale, complessivo per un cambiamento climatico che ha punte di calore ma altrettanto forti picchi di gelo), ci si chiede
quanto tempo ci vorrà per ricondurre l'inconscio collettivo, per anni
subissato dal refuso vigente, ad una
considerazione bilanciata, che pur
non sottovalutando la entità del
33
scienza
15 gennaio 2014
fenomeno lo riconduca alla sua completa dimensione di dichiarato estremismo delle temperature sia per
eccesso, che per difetto.
Ammettere che le frettolosità della
ricerca estemporanea, asincronica,
ubiquita, ai tempi di internet hanno
lasciato indietro la valutazione dei
dati sulle altrettante freddolosità
accertate, costantemente emergenti,
perché erano elementi significativi,
arrivati troppo tardi ci porta a dovere
ripensare il quadro completamente,
anche per altri settori del sapere ove
si sono verificati fenomeni analoghi,
con errori non meno sconcertanti.
Le domande di ogni scienziato, che
deve essere anche vigile nei confronti della divulgazione dei propri risultati, sono oggi del tutto diverse da
quelle che gli attuali comitati paiono
avere standardizzato in questionari
web, senza tempo e senza luogo.
Innanzitutto deve essere rivisto il
concetto di 'rilevanza di un prodotto
scientifico'. che non significa aderenza sincronica di un concetto
esposto in un sommario, o parola
chiave, rispetto ad un settore disciplinare attuale, ma piuttosto deriva
dal conteggio diacronico sull' asse di
previsione della utilità potenziale di
un certo percorso scientifico, introdotto in un articolo, in relazione alla
traiettoria virtuale e livello possibile,
che la disciplina scelta come riferimento, si immagina riesca a raggiungere nel giro di una decina di
anni dalla data, di inizio della ricerca
rappresentata e compattata nel testo
stesso. Non ci può essere scienza
corretta in tempo reale.
La complessità interdisciplinare
negata e non intesa come valore
aggiunto, ha provocato uno spread
inutile fra capacità di tecnica esposizione di nuove metodologie e portabilità effettiva delle innovazioni
introdotte nella realtà accademica.
Ciò si deve alla rigidità imposta ai
34
settori disciplinari attuali, dai conteggi ubiquiti e frammentati che si
applicano in modalità automatiche e
generiche, per permettere a comitati
di referee anonimi di gestire comunitariamente la complicazione valutativa, cui si è giunti in un parossismo
di micro-detrazioni lessicali destinato a crescere senza limite.
Nella globalizzazione che annulla
le territorialità, in una europeizzazione costrittiva, si nota una perdita
progressiva di spessore teorico, un
calo netto verticale nella qualità
della scienza, e quindi anche una
erosione successiva di attendibilità
nella divulgazione.
La compressione coatta di tempi di
ideazione, compattazione dei risultati provvisori, collettivizzazione
degli articoli tecnici, momentaneamente predisposti, portano ad una
destabilizzazione costante dei parametri di riferimento, ad una aleatorietà delle conclusioni raggiunte
senza verifica allegata, dando luogo
ad un fenomeno di deriva accademica di proporzione assai estesa, proprio nel secondo decennio del terzo
millennio. Le ricadute sulla divulgazione scientifica sono evidenti e si
materializzano in uno scetticismo
assoluto, nei confronti di asserzioni
a climax ascendente e discendente
nelle contraddittorie direttive, nelle
guide provvisorie fra gli utenti.
Ai divulgatori di oggi spetta il
nuovo compito ed imprevisto ruolo
di responsabili della trasmissione di
asserzioni scazonti, che sono spesso
fra di loro in palese contrasto e
costante contraddizione, nei confronti di un pubblico di lettori demotivati ed altrettanto spaesati nel villaggio globale.
Se la caduta delle pareti divisorie
fra aree del sapere, era un fatto positivo nell'ultimo decennio del secolo
scorso, e come tale è stata apprezzata, è altrettanto vero che nei secondo
decennio del terzo millennio, si
devono considerare muri disciplinari, divisorie tematiche come la sola
garanzia possibile al dilagare delle
imprecisioni, ed aleatorietà, che
hanno valenza devastante.
Oggi quindi, sia proprio la divulgazione territoriale attenta alle esigenze dei singoli lettori da riconquistare, ad avere la precedenza assoluta,
nei confronti della plateale e pletorica disseminazione di dati spuri, di
coacervi errori, non più riconducibili
ad una matrice, che li risolve riassorbendone gli effetti collaterali,
date la proporzioni e propagazioni
raggiunte.
Possa il buon senso riprendere
quella centralità equilibrata che solo
si raggiunge con la introduzione di
filtri selettivi e di imbuti concettuali
precisi e rigorosi.
Sia la divulgazione corretta oggi la
forza motrice di tale rinnovamento e
rinsaldamento di antichi valori non
obsolescenti né obsoleti, solo temporaneamente obliterati nella congestione centrifuga dell'oggi iperconnesso, iperaccessoriato, ipercinetico.
Graziella Tonfoni. Ricercatrice Universitaria dal 1983, presso l'Alma Mater
Studiorum dell'Università di Bologna. Per le sue teorie sulla traduzione e i
suoi modelli per la mediazione culturale e la didattica divulgativa responsabile le è stato assegnato nel 1984 il Premio Minerva Donna per la Ricerca
Scientifica e la Cultura. E' autrice scientifica e letteraria, fondatrice dei contenuti del Corso di Linguistica Computazionale (1994-2005), docente per
Programmi Interdisciplinari Accademici Avanzati (1994-2013).
scienza
15 gennaio 2014
L'Agenda digitale del Web 3.0
di Valerio Eletti
Il fermento teorico e pratico che
avvolge e spinge oggi l'Agenda Digitale
ci porta, certo, a riflettere operativamente sulle opportunità offerte dallo
sviluppo attuale di Internet, della
banda larga e larghissima, dei social
network e in generale delle reti sociali,
economiche, commerciali, e tecnicoscientifiche che catalizzano fenomeni
emergenti capaci di attivare nuove
transizioni socio-economiche imprevedibili. Ma, attenzione, in una corretta prospettiva strategica, e non solo
tattica, non bisogna rinunciare a guardare contemporaneamente anche più
avanti: non verso un lontano futuro,
ma nei prossimi anni del decennio in
corso, in cui si materializzeranno
nuovi sconvolgimenti, causati da fenomeni oggi in crescita silenziosa ma
impetuosa: primo, l'esplosione dei big
data (conseguenza anche della diffusione dell'Internet delle cose); secondo, l'emergere del Web semantico (il
cosiddetto Web 3.0); e, terzo, lo sviluppo e l'affermazione (nel management,
nel marketing, nella politica, nella
finanza) di un approccio sistemico,
complesso e reticolare, con metodi di
calcolo e di elaborazione delle informazioni che fa leva su una modalità
nuova di pensiero, quella basata sul
paradigma cognitivo complesso, circolare, che considera i tradizionali ragionamenti lineari basati sul principio di
causa-effetto solo come un sottoinsieme di un più ampio e variegato ventaglio di nuove possibilità del progettare
e dell'agire.
Proviamo dunque a tracciare qui
una primissima mappa della situazione attuale delle reti e delle potenzialità e prospettive emergenti a medio
termine, per poter poi passare nei
prossimi interventi a mettere a fuoco e
a riflettere in profondità e con efficacia
pratica sugli strumenti cognitivi con
cui dobbiamo attrezzarci per orientarci nel labirinto dei comportamenti
delle reti complesse e per capire così
come cogliere le opportunità che via
via emergeranno dagli scenari in evoluzione. Il tutto mantenendo uno
sguardo attento su quelle esperienze
concrete che anticipano i trend in atto
e che si possono utilizzare quindi
come casi di studio significativi per
individuare già oggi nuovi filoni di
azioni innovative.
Fotografia attuale delle reti e del loro uso
Sono quattro i filoni principali in cui
possiamo suddividere le situazioni e le
azioni che generano oggi gran parte
delle opportunità di creazione d'impresa e di innovazione grazie al digitale in rete.
Il primo “generatore di opportunità”
viene dalla diffusione in parallelo indipendente - sia di Internet che della
telefonia smart.
Il secondo - altrettanto interessante
- è il movimento inarrestabile, sempre
più veloce ed efficace, che fa convergere le grandi strutture reticolari
Internet/www e rete telefonica smart.
Il terzo “generatore di opportunità”
si può individuare nell'enorme accumulo di data base (pur se non ancora
collegati tra loro) che si stanno raccogliendo nelle più disparate memorie
delle reti digitali.
A lato di tutto ciò continua ad agire
capillarmente un'utilizzazione diffusa
a livello sempre più globale sia del Web
1.0 (quello ormai “storico” dei sitivetrina, che costituisce ancora l'ossatura del sistema Web), sia del Web 2.0
(quello che, basato sulla bi-direzionalità dei segnali, ha dato vita al formarsi
e al moltiplicarsi di social network
sempre più interconnessi).
Quest'ultimo possiamo considerarlo
il quarto “generatore di opportunità”,
trasversale agli altri grazie al fatto che
attraverso il Web 2.0 si possono realiz-
zare indagini di mercato on line, azioni di marketing virale, azioni di organizzazioni dal basso (gruppi d'acquisto, ecc), azioni di organizzazioni dall'alto (e-gov, e-pub, ecc), azioni di speculazione e pirateria (borsa, politica,
ecc, in cui il Www si pone come amplificatore e acceleratore di segnali, con
feedback sia positivi che negativi, e in
genere non controllabili con i mezzi
attuali).
Potenzialità e prospettive emergenti.
E siamo al secondo passaggio di questo mio intervento d'apertura: mettere
a fuoco le potenzialità e le prospettive
emergenti a breve e medio termine.
Come abbiamo visto, i fenomeni che
aggiungeranno ancora nuove opportunità all'agenda digitale prossima ventura sono in sostanza due, strettamente intrecciati tra loro: primo, l'affermarsi del cosiddetto Web 3.0, la struttura di comunicazione e informazione
che si basa sull'efficacia di motori
semantici e agenti intelligenti per
“capire” i contenuti dei messaggi
postati on line o nelle reti telefoniche
smart; secondo, lo sviluppo e lo sfruttamento dei cosiddetti big data, accumulo di enormi data base interconnettibili, ancora difficili da processare, ma
visibilmente carichi di pattern nascosti che - individuati con gli strumenti
del soft computing - possono rivelare
trend e situazioni non altrimenti visibili (nei big data non si cercano risposte a domande precostituite, ma si
osserva l'emergere di nuove domande,
in una inedita visione di “serendipity
sistematizzata”).
(l’articolo - presentato al 1° Premio Nazionale di divulgazione Scientifica dell’Associazione Italiana del Libro - è pubblicato nel
magazine on line http://www. agendadigitale.eu)
Valerio Eletti è direttore scientifico del Complexity Education Project,
Laboratorio LABeL Cattid, Università Sapienza di Roma.
35
scienza
15 gennaio 2014
La chirurgia dell’occhio vede lontano
di Daniela De Vecchis
Non si è ancora all'occhio bionico,
ma a un occhio che, in molti casi, può
fare a meno di occhiali e lenti a contatto sì, qui ci si è arrivati. A cristallini artificiali che, dall'interno del
bulbo, proteggono dai raggi solari
pure e, in generale, a soluzioni chirurgiche studiate su misura per il singolo paziente, impensabili fino a non
molto tempo fa. Il tutto grazie a
microincisioni in regime ambulatoriale, laser sempre più sofisticati e
lenti intraoculari. Con poche gocce di
anestesia e senza dover tornare a
casa con l'occhio bendato. Si può dire
che l'oculistica oggi fa davvero miracoli, complice uno sviluppo tecnologico senza pari, più rapido in questo
settore che in altre branche della
medicina.
«L'evoluzione in oculistica è stata
continua e costante specialmente
dagli anni 80», afferma Luca Iacobelli,
oculista responsabile dell'Oftalmologia del Gruppo Ini (l'Istituto neurotraumatologico italiano di Roma), e
con docenza presso l'Università di
Chieti G. D'Annunzio. «Questo perché
vi è molta tecnologia applicata con
apparecchiature diagnostiche e terapeutiche, laser e materiale bio-ingegneristico». In-somma, un concentrato hi-tech in grado di cancellare definitivamente i disturbi più comuni, i
cosiddetti difetti di refrazione, quelli
cioè che non consentono alla retina
di focalizzare bene le immagini.
Miopia
«Miopia, astigmatismo e ipermetropia possono essere eliminati con il
laser a eccimeri attraverso tecnica di
superficie Prk o tecnica i-Lasik con il
nuovo laser a femtosecondi. Questo
agisce emettendo impulsi che creano
microscopiche bolle, le quali separano il tessuto corneale a profondità
prestabilite. I vantaggi non sono da
poco: assenza di complicanze dovute
al taglio, perfetta qualità visiva per la
36
precisione con cui viene separato il
lembo corneale e scomparsa quasi
totale dei fastidi per il paziente. Per di
più, nei casi in cui è utile, tali tecniche si eseguono in forma personalizzata, consentendo una correzione
individuale dei difetti di vista grazie a
un esame di aberrometria con il
quale si traccia una mappa dell'occhio che evidenzia eventuali alterazioni delle strutture». Tuttavia, non
sempre ci si può sottoporre al laser.
Per esempio, se si ha una cornea
troppo sottile o un difetto di vista
molto elevato o nei ritrattamenti di
vecchi interventi. «In tutti questi casi
è possibile impiantare una lente con
una piccola incisione, posizionandola
davanti all'iride grazie a quattro piedini che le danno stabilità, senza
ricorrere a ulteriori manovre invasive, riuscendo così a correggere miopie fino a 17 diottrie», spiega
Iacobelli, tra i pochi in Italia ad avere
ottenuto la licenza per l'impianto di
queste lenti. Un'operazione che, oltre
tutto, è reversibile: la lente si può
togliere in pochi minuti senza danni,
sempre in regime ambulatoriale e
usando un collirio come anestesia.
Presbiopia
scienza
Non è un difetto di refrazione, ma
la perdita fisiologica di efficienza del
cristallino, e si può correggere. «Due i
modi possibili: la tecnica di i-Lasik
con il programma PresbiLasik o l'impianto di cristallini artificiali multifocali. La prima consiste nell'applicare
ai laser un software in grado di associare al trattamento dei difetti di
vista da lontano la correzione del
difetto da vicino. Un intervento rivoluzionario, possibile in pazienti che
hanno un cristallino trasparente e
non presentano patologie oculistiche
importanti». Invece l'impianto di cristallini multifocali si esegue in
pazienti presbiti e con un importante
difetto di vista da lontano o in presbiti con iniziale cataratta: si aspira il
cristallino opacizzato e si inserisce il
nuovo cristallino multifocale. Il
paziente ottiene così l'eliminazione
della cataratta e degli occhiali con lo
stesso intervento. Questi cristallini
hanno inoltre un filtro giallo per i
raggi UV, tossici per la retina. Così da
ridurre lo sviluppo delle maculopatie
senili, dovute anche all'esposizione
cronica a raggi solari, e l'eventuale
presenza di fotofobia, cioè di fastidio
alla luce».
Cataratta
Il trattamento chirurgico è tra i più
diffusi, riguardando ogni anno circa
500mila italiani. «Tradizionalmente
la chirurgia della cataratta consiste
nell'aspirare il cristallino opaco,
dopo averlo frantumato con ultrasuoni tramite un facoemulsificatore,
e introdurne uno artificiale. Oggi non
si usano quasi più gli ultrasuoni, ma
si frantuma e aspira il cristallino con
un sistema di microvibrazioni della
punta del facoemulsificatore». L'altra
15 gennaio 2014
grande novità è l'applicazione del
laser a femtosecondi con il quale si
possono eseguire alcune fasi prettamente chirurgiche dell'intervento
quali la microincisione iniziale,
l'apertura del cristallino e la frantumazione dello stesso, senza dover
toccare l'occhio con i ferri chirurgici.
«Una volta asportata la cataratta, il
cristallino artificiale corregge il difetto di vista presente precedentemente, ma solo in caso di miopia o ipermetropia». Oggi, invece, ed ecco
un'altra novità, esiste una vasta
categoria di lenti intraoculari, chiamate IOL multifocali o lenti premium, che correggono definitivamente anche l'astigmatismo e la presbiopia».
Glaucoma
È un'altra tra le patologie oculari
molto diffuse e tra le più subdole,
perché compromette la vista senza
dare sintomi. «Oltre a visite periodiche che possono prevenire il problema, una volta fatta la diagnosi esiste
Daniela De Vecchis, giornalista e divulgatrice scientifica, lavora presso
l’Istituto Superiore di Sanità
un'infinita varietà di colliri efficaci
nel ridurre la pressione dell'occhio, i
quali, insieme a una terapia orale
neuro-protettiva, garantiscono al
paziente quasi sempre di non subire
una riduzione del visus e del campo
visivo. Dove però la terapia con colliri risulti inefficace, esistono tecniche
laser parachirurgiche o chirurgiche
(trabeculectomia o impianto di valvole) che risolvono spesso il problema
in maniera definitiva».
Prevenzione
Ma se la tecnologia dà un grande
aiuto, alla base della buona salute
degli occhi sta pur sempre la prevenzione. «Il consiglio è di portare dall'oculista i bambini entro i quattrocinque anni, a meno che non ci siano
sintomi che facciano sospettare
patologie a carico dell'occhio. Queste
ovviamente vanno studiate il prima
possibile. La comparsa di strabismo,
come pure di continui mal di testa,
sono anch'essi validi motivi per portare il piccolo dallo specialista prima
del dovuto».
(l’articolo - presentato al 1° Premio Nazionale di divulgazione Scientifica dell’Associazione Italiana del Libro - è pubblicato
nel numero di aprile 2013 di Class)
37
scienza
15 gennaio 2014
Il mobile learning di fronte e di profilo
di Michelle Pieri
Introduzione
“Finalmente, la rivoluzione mobile è
arrivata. Ovunque si guardi, vi sono le
prove irrefutabili della penetrazione e
dell'adozione dei dispositivi mobili.
Telefoni cellulari, Personal Digital
Assistant, mp3 player, console di
videogiochi portatili, handheld, tablet
e laptop abbondano. Nessuna fascia
demografica è immune da questo
fenomeno. Dai bambini agli anziani, le
persone sono sempre più connesse, e
comunicano digitalmente in modi che
sarebbero stati impossibili da immaginare soltanto alcuni anni fa” (Wagner
2005, p. 42). Di fatto, i dispositivi mobili, che sono diventati parte integrante
del nostro quotidiano, a livello globale
hanno rapidamente, profondamente e
sorprendentemente alterato molti
aspetti della vita umana dal punto di
vista sociale, economico, culturale e
politico. Attualmente nel mondo ci
sono più di 5,9 miliardi abbonamenti
di telefonia mobile attivi e per la
prima volta nella storia, grazie ai
dispositivi mobili, la maggioranza
degli abitanti della terra, sia nei paesi
avanzati che in quelli in via di sviluppo, ha accesso alla tecnologia della
comunicazione, e questo apre opportunità educative decisamente interessanti in ambito educativo. Il filone di
studi relativo all'uso delle tecnologie
mobili nei contesti educativi come
strumenti di formazione è il mobile
learning.
In
Europa,
come
ricordano
Kukulska-Hulme et al. (2009), le prime
esperienze di mobile learning risalgono agli anni Ottanta e sono state realizzate in alcune scuole del Regno
Unito. A partire dagli anni Novanta
sono stati realizzati, sempre in ambito
anglosassone, i primi progetti di ricerca per approfondire l'uso dei dispositivi mobili nella didattica. Uno dei
primi progetti è HandLeR (Handheld
Learning Resource) promosso nel 1998
dall'Università
di
Birmingham
38
(Sharples, Corlett & Westmancott,
2002).
Il mobile learning è ora un tema di
estrema attualità e rilevanza, dall'inizio del nuovo secolo ad oggi, gli studi
e le ricerche in questo campo sono in
continuo e rapido aumento. Laouris e
Eteokleous (2005), ad esempio, hanno
condotto una ricerca su Google inserendo come parole chiave “mobile
learning” + “definition”: nel gennaio
2005 i risultati sono stati 1.240, nel
luglio dello stesso anno 22.700.
Ripetendo la stessa ricerca nel febbraio 2012 i risultati sono stati 19.700.000.
Per quanto riguarda i più importanti
convegni internazionali sul mobile
learning, il convegno mLearn, che si è
tenuto per la prima volta nel 2002 nel
Regno Unito presso l'Università di
Birmingham, dove è nato il già citato
progetto HandLeR, e la conferenza
internazionale IADIS Mobile Learning,
che è stata organizzata per la prima
volta nel 2005 a Qawra (Malta), sono
ormai diventati eventi annuali.
Se a livello internazionale i progetti
e i convegni sul mobile learning sono
in continuo aumento, in Italia invece
le esperienze di mobile learning su
larga scala e gli eventi dedicati al
mobile learning non sono ancora
molto numerosi. Tra gli eventi nel
nostro Paese si ricorda, a titolo di
esempio, la prima “Giornata di studio
sul mobile learning” in Italia, organizzata nel 2010 dal Collaborative
Knowledge Building Group (CKBG) in
collaborazione
con
il
Centro
Interdipartimentale
Qua_si
dell'Università degli Studi di MilanoBicocca e la Exact Mobile di Sestri
Levante, alla quale hanno preso parte
diversi ricercatori provenienti da molteplici settori scientifico-disciplinari
portando le loro esperienze di mobile
learning, per lo più ancora su scala
ridotta ma con grandi potenzialità di
crescita.
Il mobile learning
Il mobile learning si differenzia dall'e-learning in quanto “non è solo elettronico, è mobile” (Shepherd, 2001) e
viene visto come la sua naturale evoluzione. Di fatto, se con l'e-learning è
stato possibile distribuire la formazione direttamente sulla scrivania dei
discenti, grazie al mobile learning è
possibile mettere a disposizione la
formazione e le informazioni ai
discenti ovunque essi si trovino e, infine, il wireless mobile learning ha permesso non solo di mettere a disposizione ma anche di aggiornare il training, le informazioni e i dati “in
mano” ai discenti ovunque essi si trovino e possano accedere ad una rete
wireless. Con il mobile learning la fase
di apprendimento non è quindi più
vincolata ad un luogo con caratteristiche specifiche, diventando così un
apprendimento potenzialmente onnipresente.
Il mobile learning, di fatto, dall'inizio del nuovo secolo ad oggi è stato
utilizzato negli ambiti più svariati e
per le popolazioni più diverse. Tra i
principali ambiti di applicazione del
mobile learning Kukulska- Hulme et
al. (2009) hanno individuato: - scuola,
si veda, ad esempio, il progetto ENLACE (Verdejo et al., 2007). - università, si
veda, ad esempio, il progetto myPad
(Whittlestone et al., 2008). - musei e
ambienti di apprendimento informale, si veda, ad esempio, il progetto
MyArtSpace (Vavoula et al., 2007). sviluppo professionale e ambienti di
lavoro, si veda, ad esempio, il progetto
Flex-Learn (Gjedde, 2008).
Senza voler mettere in secondo
piano i vantaggi offerti dai dispositivi
mobili nella formazione, come, ad
esempio, il ruolo delle tecnologie
mobili nel situare l'apprendimento in
contesti autentici, di norma nelle
esperienze di apprendimento non
vengono utilizzati solo i dispositivi
mobili, ossia nella maggior parte dei
casi si opta per soluzioni di tipo blen-
scienza
ded nelle quali si alternano strumenti
mobili, tecnologie fisse e/o momenti
di formazione in presenza.
Tra i fattori che hanno favorito la
nascita e la crescita del mobile learning, e che contribuiscono al suo successo, vi sono indubbiamente la larga,
e sempre crescente, diffusione dei
dispositivi mobili, la loro trasportabilità e la loro versatilità, in molti casi lo
stesso dispositivo mobile può essere
utilizzato per telefonare, ascoltare
musica in formato mp3, accedere alla
rete, fare fotografie e prendere annotazioni. La possibilità di accedere ad
una rete wireless per lo scambio di
informazioni e la creazione di reti di
comunicazione tra i partecipanti ad
un corso (Corlett, Sharples, Bull &
Chan, 2005) e ovviamente la crescente
diffusione delle reti wireless sono altri
due elementi che concorrono alla diffusione di questa nuova metodologia
formativa.
Tra i punti deboli del m-learning,
che sono principalmente legati
all'usabilità dell'hardware, vi sono: la
ridotta grandezza dello schermo, la
memoria limitata, la breve durata
della batteria e la tastiera di piccole
dimensioni o talvolta assente (per un
approfondimento sul tema si veda, ad
esempio, Kukulska-Hulme, 2007).
Tuttavia sia i 'nativi' che i 'migranti'
digitali sono già abituati ad utilizzare
quotidianamente dispositivi mobili,
con schermo e tastiera di dimensioni
ridotte.
Verso una teoria del mobile learning
Come osservano Sharples, Taylor e
Vavoula (2005), quasi tutte le teorie
dell'apprendimento elaborate fino ad
oggi partono dal presupposto che l'apprendimento avvenga all'interno di
un luogo, di norma un'aula, in cui
docente e discente sono fisicamente
co-presenti, e ad opera di un docente,
ossia di una persona che ha avuto una
formazione ad hoc per insegnare.
15 gennaio 2014
Esiste solo un ridotto numero di teorie
(si vedano, ad esempio, Illich, 1971;
Freire, 1972; Argyris & Schön, 1996)
che prendono in considerazione l'apprendimento al di fuori dell'aula, ma
nessuna di queste teorie prevede la
possibilità che il docente e/o il discente siano in movimento.
Per colmare questo vuoto Sharples,
Taylor e Vavoula (2005) propongono
una teoria del mobile learning che
non deve essere considerata alternativa alle teorie classiche dell'apprendimento ma deve essere vista come una
loro integrazione, dal momento che
apporta un valore aggiunto dato dalla
peculiarità degli strumenti e delle
modalità che supportano la trasmissione della conoscenza in questa
metodologia formativa. Sharples,
Taylor e Vavoula (2005) per sviluppare
questa teoria partono dai progetti che
hanno realizzato nel campo del mobile learning e dalle seguenti considerazioni. In primis, secondo questi ricercatori per elaborare una teoria del
mobile learning bisogna comprendere
quali sono le differenze che intercorrono tra il mobile learning e le altre
metodologie formative, ossia quali
sono le specificità che contraddistinguono il mobile learning. La prima evidente differenza M. Pieri, Il mobile
learning di fronte e di profilo 5 tra il
mobile learning e le altre metodologie
formative è data dal fatto che coloro
che sono coinvolti nel processo di
apprendimento (discenti e/o docenti)
possono essere in movimento, ossia
l'apprendimento avviene attraverso lo
spazio e il tempo. Di norma le persone, nell'arco della giornata svolgono
molteplici attività diverse in molteplici luoghi diversi e hanno un contatto
altalenante con le tecnologie. Bisogna
quindi comprendere come progettare
e utilizzare le tecnologie mobile per
supportare la formazione in una
società come quella attuale nella
quale le persone si muovono sempre
di più e hanno sempre più bisogno di
utilizzare gli attimi liberi dagli impegni quotidiani a fini formativi per un
apprendimento lungo tutto l'arco
della vita (lifelong learning).
Per elaborare il loro framework teorico Sharples, Taylor e Vavoula (2005)
tengono in considerazione i parametri
elaborati dall'US National Research
Council (1999). Secondo questi parametri l'apprendimento efficace deve
essere centrato su:
- studenti: l'apprendimento deve
essere costruito partendo dalle capacità e dalle conoscenze degli studenti,
per porre gli studenti nelle condizioni
migliori per riflettere e ragionare sulla
propria esperienza;
- conoscenze: la formazione deve
basarsi sulla trasmissione di nozioni
solide e scientificamente validate
attraverso l'uso efficace di metodi
appropriati;
- valutazione: il fine della valutazione deve essere quello di fornire consigli e suggerimenti utili allo studente
per raggiungere l'obiettivo prefissato;
- comunità: gli studenti con i risultati migliori, ad esempio, devono condividere le conoscenze e supportare i
compagni in difficoltà.
Questi parametri si basano su un
approccio di matrice socio costruttivista nel quale l'apprendimento viene
concepito come un processo attivo di
costruzione della conoscenza e delle
abilità tramite la pratica esperita
all'interno di una comunità che supporta il discente. Secondo Sharples,
Taylor e Vavoula (2005) un approccio
di questo tipo si adatta a una teoria
del mobile learning in cui teoricamente, tramite un forum o una chat, i
discenti possono, ad esempio, chiedere chiarimenti e suggerimenti in
qualsiasi momento e da qualsiasi
luogo e il docente e/o gli altri discenti
partecipanti al percorso di apprendimento possono potenzialmente
rispondere loro in qualsiasi momento
39
scienza
15 gennaio 2014
e da qualsiasi luogo. In quest'ottica, il
ruolo di docente/di-scente può risultare meno netto rispetto a quello proprio del “classico” apprendimento in
presenza.
Inoltre in questi ultimi anni, si sta
assistendo alla convergenza delle tecnologie mobili, come già accennato, ci
sono sul mercato dispositivi mobili
che hanno contemporaneamente più
funzioni, ad esempio sono telefono e
videocamera al tempo stesso. Un'altra
importante convergenza si sta avendo
tra le nuove tecnologie mobili personali e il lifelong learning, ad esempio,
da una parte, l'apprendimento è stato
riconcettualizzato come un'attività
personalizzata e centrata sul discente
(Leadbetter, 2005), dall'altra, le tecnologie offrono sempre più servizi personalizzati, basti pensare al music
play list e al calendario digitale.
L'apprendimento è stato riconcettualizzato come un'attività situata e collaborativa (Brown, Collins & Duguid,
1989), che avviene ovunque le persone, collettivamente o individualmente, hanno problemi da risolvere o
conoscenze da condividere, ugualmente le tecnologie connesse in rete
permettono alle persone di comunicare indipendentemente dal luogo in cui
si trovano, la tecnologia, al pari dell'apprendimento, è ubiquitaria.
Sharples, Taylor e Vavoula (2005) per
elaborare la loro teoria si basano sui
risultati del progetto MOBIlearn, a cui
si è già accennato in questo capitolo:
- È il discente a essere in movimento piuttosto che la tecnologia. Dagli
studi condotti all'interno del progetto
MOBIlearn sull'apprendimento quotidiano emerge che le interazioni fra
l'apprendimento e la tecnologia sono
complesse: il dispositivo utilizzato per
l'apprendimento non sempre è di proprietà del soggetto ma spesso il soggetto, che è in movimento, ad esempio
in trasferta, utilizza il dispositivo di
qualcun altro. Questo implica che una
40
teoria del mobile learning debba tenere in considerazione le seguenti situazioni: 1. sia l'utilizzatore che il dispositivo sono “in movimento”, 2. solo l'utilizzatore è “in movimento”.
- Non è possibile scindere l'apprendimento dalle attività che il soggetto
svolge quotidianamente come, ad
esempio, parlare con altre persone o
leggere un libro dato che anche queste
due attività possono essere considerate delle situazioni nelle quali il soggetto apprende. - Il controllo e la gestione
dell'apprendimento possono essere
distribuiti: mentre in una classe la
gestione dell'apprendimento è completamente nelle mani del docente,
nel mobile learning può essere distribuita fra i discenti, i docenti e le risorse che vengono fornite o che il soggetto cerca autonomamente e mette a
disposizione degli altri partecipanti al
percorso di apprendimento. M. Pieri, Il
mobile learning di fronte e di profilo 7
- Il contesto viene costruito dai
discenti attraverso l'interazione: il
contesto di apprendimento non è
facilmente rappresentabile nel mobile
learning, non solo in quanto non è
fisicamente delimitato ma anche perché è qualcosa di estremamente dinamico che muta a seconda delle mutevoli esigenze dei discenti.
- Il mobile learning può, al tempo
stesso, integrare, ma anche eventualmente entrare in conflitto con l'educazione formale. Si può parlare di
integrazione, quando, ad esempio, il
discente approfondisce le nozioni
ricevute dal docente tramite l'utilizzo
di dispositivi mobili. Si può parlare
invece di conflitto quando si assiste
all'utilizzo indiscriminato delle tecnologie mobili da parte dei discenti
durante l'apprendimento frontale che
determina una diminuzione della loro
attenzione nei confronti dell'insegnante.
- Il mobile learning può avere anche
delle ricadute etiche sulla privacy e
sulla proprietà: sono stati creati dei
dispositivi che consentono la registrazione di voci e immagini; questo se, da
una parte, può essere molto utile, dall'altra, può generare delle problematiche legate alla violazione della privacy.
- Il mobile learning idealmente
dovrebbe raggiungere il potenziale
discente utilizzando un dispositivo
che il discente già possiede. In questo
caso al soggetto non viene richiesto di
acquistare un dispositivo che utilizzerà esclusivamente per una funzione
ma il mobile learning si propone come
un ampliamento delle funzioni che il
soggetto può svolgere con il suo
dispositivo.
Alcuni degli assunti sopra riportati
non si riferiscono esclusivamente al
mobile learning, mentre altri si riferiscono in modo specifico al mobile
learning: la mobilità, con riferimento
allo strumento utilizzato e alla persona che lo utilizza, e l'interazione fra
colui che apprende e la tecnologia utilizzata a tale scopo. È importante evidenziare che ciò che caratterizza il
mobile learning non è tanto il fatto
che venga utilizzato un nuovo strumento come tramite fra il docente e il
discente, quanto le specifiche interazioni che i nuovi dispositivi consentono di creare; a questo proposito
Sharples, Taylor e Vavoula (2005) parlano di una vera e propria “conversazione all'interno di un contesto, resa
scienza
possibile dalle continue interazioni tra
coloro che apprendono e fra questi
ultimi e la tecnologia”.
Sharples, Taylor e Vavoula (2005)
applicano la teoria dell'attività storico-culturale all'analisi del sistema di
attività del mobile learning, 8 Mobile
learning. Esperienze e riflessioni
“made in Italy” descrivendo una relazione dialettica tra la tecnologia e
l'apprendimento attraverso una versione riadattata del modello dell'attività espansiva di Engeström (1987).
Sharples, Taylor e Vavoula (2005), in
linea con la teoria dell'attività, analizzano l'apprendimento come un sistema di attività storico-culturale,
mediate dai mezzi che vincolano e
supportano i discenti nella trasformazione e nell'acquisizione di conoscenze e competenze. Nell'analisi delle
attività del mobile learning Sharples,
Taylor e Vavoula (2005) individuano
due livelli di attività mediate dal
mezzo.
Il livello semiotico descrive l'apprendimento come un sistema nel
quale le azioni orientate all'oggetto
del discente sono mediate da segni e
mezzi culturali. Il discente internalizza il linguaggio comune, scritto e parlato, come pensiero privato che gli fornisce le risorse per controllare e sviluppare l'attività (Vygotsky, 1978).
Il livello tecnologico rappresenta
l'apprendimento come un coinvolgimento con la tecnologia, nel quale i
mezzi, ad esempio i telefoni cellulari,
fungono da agenti interattivi, nel processo di apprendimento, creando un
sistema di tecnologia umano, per
mediare la collaborazione tra i discenti e per favorire la riflessione.
Questi due livelli possono essere
presi in considerazione separatamente, per fornire o un framework semiotico agli esperti di educazione come
base per analizzare l'apprendimento
nell'era della mobilità, o un framework tecnologico agli esperti di tecno-
15 gennaio 2014
logie per proporre i requisiti per la
progettazione e la valutazione dei
sistemi di mobile learning. O i due
livelli possono essere sovrapposti per
prendere in considerazione il sistema
olistico dell'apprendimento. In questo
caso, il livello semiotico si fonde nel
livello tecnologico per formare una
categoria più ampia delle tecnologie
piuttosto che degli artefatti fisici.
Seguendo Dewey (Hickman, 1990), si
potrebbe descrivere la tecnologia
come qualsiasi mezzo che serve per
apprendere, dando alle persone la
capacità di affrontare problemi nel
loro contesto, risolverli e trasformarli
in nuovo sapere. Perciò i computer, le
lingue e le idee possono tutti essere
qualificati come tecnologie per l'apprendimento e non c'è nessuna chiara
distinzione tra il livello semiotico e
quello tecnologico.
Sharples, Taylor e Vavoula (2005) nel
loro framework non propongono la
separazione del livello semiotico e di
quello tecnologico, né tanto meno la
fusione dei due livelli, ma vogliono
instaurare una dinamica continua
nella quale il livello tecnologico e
quello semiotico possono essere
messi insieme o separati creando un
motore che porta avanti l'analisi del
mobile learning. M. Pieri, Il mobile
learning di fronte e di profilo 9
L'apprendimento è un sistema
socio-culturale, all'interno del quale
molti discenti interagiscono per creare un'attività collettiva basata su vincoli culturali e pratiche storiche.
Engeström (1987) analizza l'attività
collettiva attraverso un framework
esteso che mostra l'interazione tra
attività mediate da mezzi e regole,
comunità e divisioni del lavoro culturali. Sharples, Taylor e Vavoula (2005)
hanno rinominato i fattori culturali
con i termini: controllo, contesto e
comunicazione. Questi nuovi termini
potrebbero essere usati sia da esperti
di educazione che da esperti di tecnologie; naturalmente, questo comporta
l'eventualità che i termini vengano
interpretati in modo diverso dai due
gruppi di esperti e portino a fraintendimenti e incomprensioni reciproche.
Per questo motivo Sharples, Taylor e
Vavoula (2005) sottolineano l'importanza di chiarire il significato di questi
termini.
Il controllo dell'apprendimento può
rimanere fondamentalmente nelle
mani di una persona, ad esempio l'insegnante, o può essere distribuito tra i
discenti, o può passare dai discenti
alle tecnologie (si pensi alla computerbased instruction). Il benefit tecnologico nasce dal modo in cui l'apprendimento viene distribuito: i discenti
possono, da una parte, accedere al
materiale quando lo desiderano, dall'altra, controllare l'andamento dell'interazione.
L'uso della tecnologia avviene all'interno di un sistema sociale formato
da persone e da tecnologie. Le regole
sociali e le convenzioni stabiliscono
ciò che è accettabile e ciò che non è
accettabile (ad esempio: come scrivere una e-mail ad una determinata persona in un determinato contesto). Le
41
scienza
15 gennaio 2014
attitudini di una persona nei confronti della tecnologia possono essere
influenzate da quello che le altre persone che la circondano pensano
riguardo a questa tecnologia. Ad
esempio, vi sono persone che presentano molte resistenze nei confronti di
una determinata tecnologia, altre che
sono entusiaste all'idea di sperimentarla. Le persone e i gruppi possono
anche costruire norme informali relative al modo in cui vogliono lavorare e
apprendere.
Il contesto dell'apprendimento è un
costrutto importante ma il termine
«contesto» ha connotazioni diverse
per i diversi teorici. Dalla prospettiva
tecnologica c'è stato un dibattito per
comprendere se il contesto possa
essere isolato e modellato in un sistema computazionale o se dipende dall'interazione. Il contesto include
anche le molteplici comunità di attori,
le persone e le tecnologie interattive,
che interagiscono intorno a un obiettivo condiviso (Sharples, 2005).
La relazione dialettica tra il livello
semiotico e il livello tecnologico è
forse più semplice da vedere in relazione alla comunicazione. Se il sistema tecnologico permette certe forme
di comunicazione (come, ad esempio,
l'e-mail), i discenti iniziano ad adattare le loro comunicazioni e le loro attività di apprendimento di conseguenza. I bambini e gli adolescenti, ad
esempio, stanno sempre più spesso
«andando on-line» a casa, creando
network di interazione attraverso le
conversazioni telefoniche, i messaggi
di testo, le e-mail, i social network e le
messaggerie istantanee che fondono
lo svago e lo svolgimento dei compiti
nello stesso flusso di conversazione.
Così i bambini e gli adolescenti prendono confidenza con la tecnologia e si
abituano alla tecnologia, inventano
nuovi modi di interagire, basti pensare alle emoticon e al gergo utilizzato,
ad esempio, in determinati gruppi on42
line. Questo crea nuove regole e comunità esclusive.
Questa appropriazione della tecnologia non solo porta alla creazione di
nuovi modi di apprendere e di lavorare, ma può anche entrare in conflitto
con le tecnologie e le pratiche esistenti. Per esempio, i bambini possono
minare l'interazione costruita con
attenzione all'interno dell'aula comunicando tra di loro via sms all'insaputa dell'insegnante. Dall'al-tro lato, su
scala più ampia, le compagnie telefoniche spingono verso un mercato per
le tecnologie che supportano l'interazione come, ad esempio, la condivisione dei file e le messaggerie istantanee.
In tal modo, quindi, c'è una continua
co-evoluzione di tecnologia e comunicazione umana.
Il framework elaborato da Sharples,
Taylor e Vavoula (2005) è di estrema
utilità sia per l'analisi dell'apprendimento nel mondo mobile sia per la
progettazione delle nuove tecnologie
e dei nuovi ambienti per l'apprendimento. Sharples, Taylor e Vavoula
(2005) descrivono l'apprendimento
come un processo labile di coming to
know attraverso la conversazione in
un contesto, per mezzo della quale i
discenti in cooperazione con i pari e i
docenti, costruiscono interpretazioni
transitorie del loro mondo. L'apprendimento è mediato dalla conoscenza e
dalla tecnologia come strumenti per
produrre ricerca, in una relazione di
reciproco sostegno e dinamicamente
mutevole. La mediazione può essere
analizzata dalla prospettiva tecnologica dell'interazione uomocomputer,
del contesto fisico e della comunicazione digitale, e può essere analizzata
da una prospettiva umana che include
le convenzioni sociali, la comunità, la
conversazione e la divisione del lavoro. Queste due prospettive interagiscono per promuovere una co-valutazione dell'apprendimento e della tecnologia. M. Pieri, Il mobile learning di
fronte e di profilo 11 Sharples, Taylor e
Vavoula (2005) sottolineano che le
implicazioni di questa riconcettualizzazione dell'educazione sono profonde. Ciò descrive un processo cibernetico dell'apprendimento attraverso una
continua esplorazione del mondo e
una negoziazione del significato,
mediate dalla tecnologia. Questo può
essere visto come una sfida per l'apprendimento formale, ma anche come
un'opportunità per connettere l'apprendimento formale e l'apprendimento informale, aprendo così, ad
esempio, nuove possibilità per il lifelong learning.
(il saggio - presentato al 1° Premio Nazionale di Divulgazione Scientifica dell’Associazione Italiana del Libro - è pubblicato in Mobile Learning, Esperienze e
riflessioni “made in Italy”, a cura di
Michelle Pieri, Progedit, 2012)
Michelle Pieri ha conseguito il dottorato di ricerca presso l’Università degli
Studi di Pavia. Specializzata in Analisi e gestione della comunicazione
pubblica e d’impresa e in Insegnamento secondario (SSIS), indirizzo linguistico letterario, dal 2005 collabora con il Centro Interdipartimentale
QUA_SI (Qualità della vita nella Società dell’Informazione) e lavora presso
il Dipartimento di Scienze Umane per la Formazione «Riccardo Massa»
dell’Università degli Studi di Milano-Bicocca. I suoi interessi di ricerca si
focalizzano principalmente sulle tecnologie in ambito educativo, nello
specifico si occupa di e-learning, mobile learning, tecnologie per l’inclusione scolastica degli studenti con disabilità e tecnologie nel rapporto
casa-scuola.