COPER TM 2-2013 ok - Il sito di Franco Docchio

13:06
Pagina 1
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XV
N. 02 ƒ
2 013
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
EDITORIALE
Aspettando l’aurora...
IL TEMA: AFFIDABILITÀ NELL’ELETTRONICA
Affidabilità dei prodotti e sistemi elettronici
ALTRI TEMI
Dietro l’angolo dell’innovazione: la Fotonica
Misure e fidatezza: sistemi riparabili
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 2 - Anno 15 - Giugno 2013
In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi - Contiene I.P.
4-06-2013
TUTTO_MISURE - ANNO 15, N. 02 - 2013
COPER TM 2-2013 ok
ARGOMENTI
Metrologia legale e forense: oneri e onori del CTU
Conformità e affidabilità - parte 4
17025: La non conformità - parte VII
AFFIDABILITÀ
& TECNOLOGIA
COPER TM 2-2013 ok
4-06-2013
13:06
Pagina 2
TUTTO_MISURE
ANNO XV
N. 02 ƒ
2013
IN QUESTO NUMERO
Test di sistema per la
movimentazione di flap di aeromobili
A Testing System for the Performance Evaluation
of Fault-Tolerant
Electromechanical
Drives for Aircraft
Applications
E. Fiorucci,
G. Bucci,
F. Ciancetta
95
Cosa c’è dietro l’angolo
dell’innovazione - la Fotonica
Beyond the corner
of innovation: Photonics
F. Docchio
111
Conformità ed efficacia
parte 4
Management of a
measurement process
part 4
T. Miccoli
131
Ottimizzazione delle proprietà
radiative delle superfici opache
e controllo degli apporti solari
Measurement and optimization
of surface radiative
properties of
opaque walls and
control of solar gains
A. Muscio
147
Editoriale: Aspettando l’aurora... (F. Docchio)
85
Comunicazioni, Ricerca e Sviluppo,
dagli Enti e dalle Imprese
Notizie nel campo delle misure e della strumentazione
87
Il tema: Affidabilità nell’Elettronica
Affidabilità dei prodotti e sistemi elettronici
89
(a cura di M. Catelani, M. Mortarino)
Gli altri temi: Misure per l’Aeronautica
Test di sistema biomeccanico fault-tolerant per la
movimentazione dei flap di aeromobili
(E. Fiorucci, G. Bucci, F. Ciancetta)
95
Gli altri temi: Metrologia fondamentale
Le proprietà classificatorie: qualche considerazione sulla
misurabilità oltre le unità di misura (L. Mari)
99
Gli altri temi: Misure per la sicurezza stradale
Una barriera attiva per il monitoraggio di parametri ambientali
e di sicurezza stradale
(R. Daponte, L. De Vito, M. Pappone, M. Riccio, L. Viglione) 103
Gli altri temi: Premio HBM ad Affidabilità & Tecnologie 2013
Misura del flusso nella ventilazione polmonare (L. Battista) 107
Gli altri temi: Dietro l’angolo dell’Innovazione
La Fotonica: Il Convegno TecFo di Affidabilità
111
& Tecnologie 2013 – prima parte (a cura di F. Docchio)
Campi e compatibilità elettromagnetica
La misura della resistività dei materiali (M. Cati)
117
Le Rubriche di T_M: Visione Artificiale
Soluzioni di visione innovative per incrementare
123
produttività e affidabilità (G. Sansoni)
I Seriali di T_M: Misure e Fidatezza
Sistemi riparabili: alcune definizioni
(M. Catelani,L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi) 127
I Seriali di T_M: Conformità e Affidabilità
Dalla conformità all’efficacia: Parte 4 –
Gestione del processo di misurazione (T. Miccoli)
131
Le Rubriche di T_M: Metrologia legale
Il consulente tecnico d’ufficio: oneri e onori
137
(V. Scotti, F. Figoni)
Spazio Associazioni Universitarie di Misuristi
Dalle Associazioni Universitarie di Misuristi
141
Spazio delle altre Associazioni
L’automazione nei processi di taratura
della strumentazione elettrica (C. Pollio)
145
Ottimizzazione proprietà radiative delle superfici
opache e controllo apporti solari (A. Muscio)
147
Manifestazioni, eventi e formazione
2013-2014: eventi in breve
151
Lettere al Direttore
Il futuro dei Laboratori didattici Universitari
di misura (A. Cigada)
153
Commenti alle norme: la 17025
Non conformità, azioni correttive, azioni preventive, reclami
e miglioramento - Parte settima (N. Dell’Arena)
157
Abbiamo letto per voi
160
News
124-132-136-138-144-150-152-156-159
T_M
N.
2/13 ƒ 83
Franco Docchio
EDITORIALE
■
Aspettando l’aurora...
Waiting for the dawn
Cari lettori!
Tempi strani per un Paese
strano. In questi ultimi mesi
ne abbiamo viste di tutte.
Elezioni che hanno portato
a un’ingovernabilità latente
del Paese; un movimento
“anti-tutto” che fa da ago
della bilancia; un Presidente del Consiglio “Tecnico”
che si improvvisa Politico e
ne rimane “bruciato”; un
partito di maggioranza relativa che riesce a farsi
molto male da solo; un Presidente della Repubblica rieletto (primo caso della storia repubblicana)
dopo che aveva ripetutamente declinato gli inviti a
ricandidarsi; la riedizione di una coalizione che,
a una settimana dal primo voto di fiducia, incespica nei veti incrociati su questo o quel disegno
di legge. Come inizio per l’auspicata “terza Repubblica” c’è da farci il famoso “brodo”! La buona notizia in questo mare d’incertezza è che la
nuova compagine governativa sembra composta
in maggioranza da elementi con esperienza e/o
con voglia di fare (anche se esistono eccezioni).
Speriamo bene!
Per quanto riguarda le prime mosse del Governo
sui temi che ci riguardano, l’inizio sembra promettente: un impegno a non tagliare i fondi per
Istruzione e Ricerca e la nomina di un Amministratore Unico per Expo 2015, che faccia fare un
salto di qualità all’organizzazione dell’evento. Per
quanto riguarda il primo punto, attendiamo le
prime mosse del neo-Ministro dell’Istruzione e
Ricerca Carrozza, docente di provata esperienza
manageriale e stimata in ambito accademico.
Nel weekend trascorso, presso il mio Dipartimento si è tenuto un convegno dell’American Society
for Mechanical Engineering (ASME), interamente
organizzato da studenti dei Dipartimenti di Ingegneria Meccanica e dell’Informazione. Vi ho preso parte come Relatore in materia di Brevetti, Startup e Incubatori e ho scambiato pareri con i dirigenti del branch europeo della Società presenti all’evento, che ha visto anche gruppi di studenti
competere in un concorso di progetti nel campo
dell’automazione e della robotica. Ebbene, tutti
hanno mostrato il loro stupore e apprezzamento
per la vitalità, disponibilità, inventiva, spirito organizzativo della mia Università, accompagnati da
una sincera ammirazione per la qualità del contri-
buto scientifico dei Dottorandi che hanno esposto i
loro poster nell’atrio. “Dall’Università Italiana non
ce lo aspettavamo” mi hanno detto in molti. Ebbene
questo conforta la mia convinzione, già espressa in
queste pagine, che l’Università italiana è viva e vitale, nonostante gli orpelli burocratici, la mancanza
di una governance che promuova e non imbrigli docenti, ricercatori e studenti e la mancanza strutturale di fondi.
Altrettanto vivo e vitale mi è sembrato l’evento Affidabilità & Tecnologie 2013, che ha visto una partecipazione di espositori e pubblico in crescita
numerica e qualitativa. L’impressione generale è
quella di una classe imprenditoriale con un maggior
grado di ottimismo rispetto agli anni scorsi, pure
all’interno del quadro economico e sociale che
conosciamo. I convegni, di elevata qualità (come si
riporta in questo numero), hanno visto ampia partecipazione di neo-imprese, start-up e ricercatori che
hanno esposto le loro applicazioni di punta con
un’attenzione alle ricadute (trasferimento tecnologico e “industrializzazione” dei prodotti della ricerca)
che fino a poco tempo fa sembrava sconosciuta.
Spero vivamente che questa “corsa” all’imprenditoria nei settori high-tech serva da stimolo verso un
maggiore e più proficuo utilizzo lavorativo delle
giovani e inventive menti dei nostri laureati e Dottori di Ricerca. È fondamentale che l’opera del
Governo non si limiti all’emanazione di leggi a
favore dell’imprenditoria giovanile e della ricerca
applicata, ma che queste leggi vengano adeguatamente finanziate e i finanziamenti (basati sul merito
e non distribuiti a pioggia) vengano resi disponibili
subito e interamente (non un anno o più dopo la
presentazione della domanda). Solo in questo
modo lo spirito innovatore delle giovani generazioni verrà premiato.
Dalla finestra del nostro nuovo appartamento ascolto l’incredibile varietà di uccelli cantare nel bosco
circostante. Cantano già alle prime luci dell’alba,
poi a un tratto, come a comando, si zittiscono. Attendono l’aurora. Forse dubitano del suo arrivo. Infine esplodono con la melodia del loro canto. Anche noi, nonostante tutto, attendiamo un po’ increduli, ma tutto sommato ostinatamente fiduciosi, l’arrivo del sole.
Buona lettura!
Franco Docchio
T_M
N.
2/13 ƒ 85
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it)
Notizie nel campo delle misure
e della strumentazione
NEWS IN MEASUREMENT AND INSTRUMENTATION
This section contains an overview of the most significant news from Italian
R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels.
RIASSUNTO
L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, Start-up, dei Gruppi di R&S Italiani nel
campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie,
poiché i risultati di ricerca riportati possono costituire stimolo per attività di
Trasferimento Tecnologico.
nità di creare una start-up, chiamata
ATHENA, che ha tra i suoi scopi
anche la gestione, manutenzione e
commercializzazione dei servizi forniti tramite laboratori remotizzati.
Il sistema include molteplici esercitazioni, tra cui: Acquisizione, Acquisizione e Finestra, Campionamento,
ADC Tests, Contatore – Misure su
modem, Magnetic measurements,
Multimeter (in simulazione), Rulliera,
Laser, Misura capacità variabile.
Per ulteriori informazioni:
athena@athenaconsulting.eu
SUCCESSO DI RSENS – START-UP sori sono oggi venduti principalmente IEEE INTERNATIONAL WORKSHOP
DELL’UNITÀ GMEE DELL’UNIVERSITÀ in Scandinavia, con un ottimo succes- ON MEASUREMENTS
DI MODENA
so di mercato. Complimenti a Luigi!
& NETWORKING (M&N 2013)
Vedere anche: http://gazzettadi
modena.gelocal.it/cronaca/
2013/03/02/news/il-rivelatoredi-radon-e-made-in-modena1.6620530
ATHENA CONSULTING SRL:
UNA NUOVA START-UP… TUTTA
AL FEMMINILE DA UNISANNIO
Promuovere il Trasferimento Tecnologico Università – Impresa è uno dei
punti focali di Tutto_Misure. Il Prof.
Luigi Rovati, dell’Università di
Modena e Reggio Emilia, responsabile della locale Unità GMEE, che ha
condiviso anni di attività scientifica
con il nostro Laboratorio di Brescia, è
oggi attivissimo in Ricerca Applicata e
promozione di start-up tecnologiche
che mostrano tutta la vitalità della
ricerca italiana e la voglia di fare
imprenditoria!
Rsens srl, seconda Società di Start-up
originata dal vivaio dei Ricercatori e
dottorandi dell’Università di Modena
(la prima era Nirox srl), produce sensori di Radon portatili per uso domestico, per la rilevazione del contenuto
di Radon in edifici e industrie. I sen-
L’Università degli studi del Sannio,
grazie al Prof. P. Daponte, ha dato
vita a una nuova start-up (tutta al femminile!) nel settore dei laboratori
remotizzati. Il servizio, partito con
finalità didattiche per i corsi dell’Ateneo beneventano, si è poi esteso ad
alcuni utenti europei e ad alcune categorie (disabili, lavoratori, ecc.). Tutto
ciò ha permesso di attrarre ulteriori
risorse sia in termini economici che di
collaborazione per ulteriori sviluppi
del sistema stesso.
La complessità gestionale di tali attività infatti si è trasformata nell’opportu-
Si terrà a Napoli nella splendida cornice di Villa Doria d’Angri, il 7-8 ottobre prossimi, l’IEEE International
Workshop on Measurements & Networking.
L’evento, giunto alla sua seconda edizione, è sponsorizzato dalla IEEE
Instrumentation & Measurement Society, oltre che dall’IEEE
Italy Section e dall’AEIT, e ha lo
scopo di riunire competenze e presentare i più recenti risultati e trend di
T_M
N.
2/13 ƒ 87
N. 02ƒ
; 2013
■
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
ricerca nell’ambito delle misure
sulle reti e delle reti di misura,
con un particolare focus sugli aspetti
multidisciplinari. Sono, inoltre, previste due Special Sessions su “Dependability and security measurements in computer systems and
networks” e “Sensor Networks
for Ambient Assisted Living”.
La scadenza per la sottomissione di
contributi nella forma di extended
abstracts è fissata al 20 giugno.
Per maggiori informazioni consultare
il sito
http://mn2013.ieee-ims.org
relative a monitoraggio ambientale,
energetico e strutturale.
Ulteriori informazioni sono disponibili
nel sito http://gmee2013.unitn.it.
NPL – NATIONAL PHYSICAL
LABORATORY
di successo in Ingegneria Meccanica,
e la Guida è a disposizione di membri dell’Istituto e scaricabile gratuitamente dal sito NPL (www.npl.co.
uk/publications/guides/begin
ners-guide-to-measurement-inmechanical-engineering).
La Guida è destinata a diventare uno
strumento molto prezioso a disposizione degli Studenti di Ingegneria
Meccanica.
All’evento di lancio del 24 Aprile
2013 al NPL, Martyn Sené, Direttore
Delegato e Director of Operations di
NPL, e Isobel Pollock, Presidente di
IMechE, hanno discusso dell’importanza della Misurazione e di come la
Guida può essere di supporto a giovani Ingegneri meccanici. All’evento
anno partecipato i collaboratori alla
stesura della guida, provenienti sia
dall’industria che dall’Università, nonché membri di IMechE e di NPL.
Il National Physical Laboratory e l’Istituto degli Ingegneri Meccanici (IMechE) hanno congiuntamente lanciato
la nuovissima “Beginner’s Guide
La XXX edizione to Measurement in Mechanical
del Congresso Engineering”. La misurazione è
Nazionale del- una chiave abilitante per una carriera
l’Associazione
“Gruppo di Misure Elettriche
ed Elettroniche”
(GMEE), che rappresenta uno degli
appuntamenti scientifici più importanti in Italia per ricercatori, esperti e
addetti ai lavori operanti nel settore
delle misure, si terrà quest’anno a
Trento, dall’8 all’11 settembre.
Come nelle ultime edizioni, il CongresLA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
so prevede la presentazione di memoORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
rie selezionate sulle diverse linee di
ricerca del GMEE e di alcune presentazioni da parte di costruttori di strumentazione. Sono inoltre previste una tavola rotonda sulla valutazione della ricerca scientifica e una sessione congiunta
con il gruppo Misure Meccaniche e
Termiche (MMT) (che terrà il suo XIII
Convegno Annuale nella stessa sede)
su “Innovazione tecnologica: criticità e
L’abbonamento biennale Vi offre
opportunità per l’Università, i Centri di
ricerca e l’Industria”.
8 numeri cartacei + 8 telematici
Il congresso terminerà con l’Assemblea annuale dei ricercatori del
(Tutto_Misure News)
GMEE.
Immediatamente a seguire, l’IEEE
Per richiedere le modalità di abbonamento,
Workshop on Environmental,
Energy and Structural Monitotelefonare al n° 011/0266700
ring Systems 2013 (EESMS
2013), fornirà ai partecipanti l’opo inviare una e-mail a: metrologia@affidabilita.eu
portunità per presentare ulteriori risultati di ricerca su tematiche di misura
IL CONVEGNO ANNUALE
DEL GMEE – TRENTO
Abbonarsi ORA per 2 anni a
TUTTO_MISURE
CONVIENE!!!
70 euro (anziché 80)
T_M ƒ 88
▲
AFFIDABILITÀ NELL’ELETTRONICA
IL
TEMA
A cura di Marcantonio Catelani e Massimo Mortarino (mmortarino@affidabilita.eu)
Affidabilità dei prodotti
e dei sistemi elettronici
Un convegno di Affidabilità & Tecnologie 2013
RELIABILITY OF ELECTRONIC PRODUCTS AND SYSTEMS
In the recent 7th edition of Affidabilità & Tecnologie (Turin, April 2013), the conference dedicated to “Reliability of electronic products and systems” (below a
large summary of the speeches, introduced by a contribution of Prof. Catelani,
coworker of Tutto_Misure for Reliability) hosted leading experts, operating into
the complex production chain of electronic devices. The conference offered an
important occasion for dissemination and awareness of the importance of reliability, its design, evaluation and measurement in various industrial domains.
RIASSUNTO
Nella recente settima edizione di aprile 2013 di Affidabilità & Tecnologie, il
convegno dedicato all’“Affidabilità dei prodotti e dei sistemi elettronici” (del
quale proponiamo un’ampia sintesi degli interventi, preceduta dall’introduzione del Prof. Catelani, referente di Tutto_Misure per quanto riguarda il tema dell’Affidabilità) ha visto confrontarsi autorevoli protagonisti della complessa filiera di un apparato elettronico, offrendo un momento importante per la divulgazione e la sensibilizzazione dell’importanza dell’affidabilità, della sua progettazione, valutazione e misura in svariati comparti industriali.
INTRODUZIONE
Marcantonio Catelani (Lab.
Misure, Affidabilità e Qualità –
Scuola di Ingegneria Firenze,
Dip. Ingegneria
dell’Informazione)
Il tema dell’Affidabilità è estremamente
complesso e variegato e sta rivestendo
un ruolo sempre più importante nella
realizzazione di componenti e sistemi
in tutti i settori dell’Ingegneria, e non
solo. Oggi, i requisiti di affidabilità non
sono più, e non lo devono essere, prerogativa dell’alta tecnologia, ma devono riguardare tutti i dispositivi, nei vari
contesti applicativi. Come “tecnico” e
Ricercatore in questo ambito da svariati anni, non posso non richiamare la
definizione che la normativa fornisce
per il termine affidabilità, ovvero “attitudine di un elemento a svolgere la funzione richiesta in condizioni date per
un dato intervallo di tempo”, definizione che può essere tradotta in termini
quantitativi come “probabilità che l’elemento sia in grado di eseguite la funzione richiesta, nell’intervallo assegnato
e in condizioni stabilite”. Il richiamo
alla normativa è particolarmente importante perché spesso, anche in contesti
industriali importanti, si confondono i
termini Affidabilità e Conformità, quest’ultimo inteso come rispondenza alle
specifiche. Ciò detto, appare evidente
che, a partire dal concetto di conformità come verifica delle prestazioni dell’elemento a “tempo zero”, normalmente misurata durante o al termine della
produzione, l’affidabilità fornisce informazioni sul mantenimento nel tempo di
tali prestazioni, fissate le condizioni
d’impiego. La normativa mette in evidenza due punti essenziali nella definizione. Si evince, prima di tutto, che il
concetto di affidabilità è legato al
tempo: fissato un determinato istante,
possiamo misurare la probabilità che
l’elemento funzioni correttamente e,
quindi, sia in grado di mantenere la
conformità a quell’istante. Il secondo
aspetto, di non minore importanza,
riguarda il fatto che non è corretto procedere con una valutazione di affidabilità se non si sono stabilite le condizioni d’impiego. Chiunque si occupi di
valutazioni di affidabilità ha ben presente questo aspetto, ma preme ricor-
dare la differenza che esiste, ad esempio in ambito elettronico, tra il tasso di
guasto calcolato in un ambiente in cui
le sollecitazioni sono controllate e limitate, rispetto a una situazione in cui gli
stress applicati sono notevolmente superiori. Un esempio per tutti: un sistema di
acquisizione dati che opera in un ambiente protetto, quale potrebbe essere
quello di un laboratorio, ha un comportamento affidabilistico diverso se confrontato con un analogo dispositivo utilizzato in presenza di sollecitazioni più
gravose, come ad esempio il caso d’installazione a bordo treno. L’aspetto sperimentale legato alle prove di laboratorio consente di valutare il comportamento di un componente o di un apparato. Anche in questo caso lo scenario
è estremamente ampio e si differenzia
molto in funzione del settore tecnologico. È possibile applicare sollecitazioni
singole, come temperatura, vibrazione,
urti, ecc., o una loro combinazione
(una prova combinata caldo-umido è
un esempio) con lo scopo d’innescare
fenomeni di degrado più o meno accentuati in funzione della severità della
prova. Gli scopi in ambito elettronico
sono molteplici; si ricordano le prove di
screening (il burn-in è un esempio) finalizzate a individuare la popolazione di
componenti intrinsecamente deboli generati da un processo di produzione, le
prove accelerate che prevedono livelli
di sollecitazione tali da diminuire la vita
utile del componente, le prove effettuate per verificare il comportamento affidabilistico di nuovi materiali, quali ad
esempio le colle conduttive, argomento
questo su cui molte unità di ricerca universitarie, tra cui la nostra, stanno lavorando. È essenzialmente in questo contesto che si collocano gli interventi di
ART Group, ST Microelectronics, Gest
Labs, Corona.
È importante ricordare che la conoscenza delle prestazioni di affidabilità
rappresenta il punto di partenza per
T_M
N.
2/1
T_M
3 ƒ 89
studi più complessi e articolati, come ad
esempio le valutazioni RAMS (Reliability, Availability, Maintainability and
Safety), le analisi di Rischio, gli studi di
SIL (Safety Integrity Level), ecc. Tecniche
ormai consolidate quali la FMEA/
FMECA (Failure Modes and Effects
Analysis / Failure Modes, Effects and
Criticality Analysis), la FTA (Fault Tree
Analysis), l’HAZOP (Hazard and operability study), Markov Analysis, e tante
altre che per brevità non cito, si avvalgono delle informazioni di affidabilità.
L’intervento di HTC costituisce un esempio d’integrazione tra la tecnica FMEA
e i dati sperimentali ottenuti da prove di
laboratorio.
Gianni Orlandini (ART GROUP)
Spesso nelle aziende l’Affidabilità viene
confusa con la Qualità: esiste una grossa differenza fra un prodotto che funziona a tempo zero e un altro che funziona durante tutta la propria vita… Se
l’azienda misura in campo i danni della
non affidabilità, si quantifica subito l’utilità di dotarsi di metodi e strumenti precisi per il governo dell’affidabilità.
Due anni fa ho spinto gli organizzatori
a portare l’Elettronica nell’ambito di
questa manifestazione: l’elevata importanza dell’affidabilità nell’elettronica
era sottovalutata… Eppure affidabilità
e tecnologie vanno di pari passo nel
mondo attuale: basta vedere i trend di
crescita dell’elettronica in ambito Automotive, Ferroviario, Metering, Medicale e in altri settori d’attività, nei quali i
sistemi elettronici andavano sempre
più a integrarsi con sistemi elettromeccanici o meccanici. Mi stupiva che non
si tenesse adeguatamente conto di tali
incrementi nel settore Automotive, dove
nel 2000 l’elettronica rappresentava il
22% nell’economia di un autoveicolo,
nel 2010 il 55% e oggi questo valore
è ancora più elevato. Se pensiamo agli
on board telematic devices presenti
all’interno di un’automobile, si vede
chiaramente la crescita esponenziale
dei dispositivi elettronici, per i quali è
fondamentale il controllo di affidabilità, dato che vanno a inserirsi in sistemi
meccanici o elettromeccanici che necessitano, da un lato, d’innovazione
tecnologica e, dall’altro, di affidabilità.
Spesso non vi è tempo sufficiente per
T_M ƒ 90
N. 02ƒ
; 2013
▲
IL
TEMA
valutare l’affidabilità di un’elettronica
che porta continuamente, in tempi
molto brevi, componenti innovativi.
L’affidabilità è un aspetto fondamentale, che va tenuto sotto controllo: nel settore automotive, i fornitori devono garantire bassi costi e alti volumi di produzione ma su di essi viene scaricata anche la responsabilità dell’affidabilità
dei prodotti forniti, quindi è indispensabile strutturarsi al meglio per poter soddisfare tali esigenze.
Un caso concreto, utile a esemplificare
l’importanza di un corretto approccio
alle tecniche affidabilistiche per le
aziende impegnate nel mercato competitivo, è quello sviluppato con un importante Gruppo italiano nel settore della
distribuzione Energia, nella cui realtà
l’affidabilità dei moduli elettronici è fondamentale.
Fotografata la situazione reale e individuati i precisi obiettivi da raggiungere,
abbiamo scelto di partire da test vehicle, riguardanti la componentistica elettronica che veniva impiegata, e capire
quali simulazioni potessimo utilizzare
per analizzare la “filiera” che concorre
alla realizzazione di moduli elettronici.
Abbiamo messo sotto controllo i giunti
di saldatura “lead free”, per valutarne
le variazioni chimico-fisiche mediante lo
studio della conducibilità e delle impedenze correlato all’invecchiamento del
giunto stesso, tramite varie metodologie
e normative di riferimento. Durante 5/6
mesi di lavoro abbiamo effettuato verifiche sui giunti di saldatura su 4 diverse
tipologie di finiture superficiali, usando
diversi tipi di leghe saldanti e di componentistica (QFP, BGA, PLCC, PTH,
componenti tradizionali, ecc.) impiegati nella costruzione della schede elettroniche. Le norme di riferimento erano le
varie IPC. Le analisi svolte tendevano,
in primo luogo, ad accertare che il processo industriale fosse sotto controllo,
altrimenti si perderebbe solo del tempo:
la “mortalità infantile” del componente
elettronico è quella che viene fuori
dopo i primi mesi di vita, quindi quando si fa un test vehicle è fondamentale
progettarlo in un ambiente industriale in
cui la sicurezza del processo produttivo
è fuori discussione. Bisogna poi possedere adeguate attrezzature e strumenti
di controllo e verifica: nel caso specifi-
co, una potente macchina RX 3D di ultima generazione per sofisticate analisi
del processo di saldatura bordo macchina, attrezzature per prove di pull test
e shear test, capabilities esterne o interne per micro sezioni su giunti saldati.
Per ogni rank di produzione abbiamo
effettuato analisi su un campione significativo: microsezione, pooling share
test, sezioni e analisi metallografiche,
ecc. La valutazione dei risultati ottenuti
ci consente di eliminare eventuali difetti. Abbiamo quindi fatto il punto sulla
morfologia fra il test vehicle e le schede
in campo con oltre 10 anni di vita e un
confronto dei risultati tra schede con
finiture e componentistica differenti.
Il nostro obiettivo era quello di spingerci con le prove fino a coprire dai 12-15
anni fino ai 20 anni di vita equivalente:
trattandosi di prove “zero difetti”, volevamo eliminare il rischio di non costruire un’ipotesi affidabilistica sufficientemente utile. Molto importante è la scelta dei cicli termici da seguire durante le
prove: nel caso specifico, cicli da 0 a
100 °C, con dual time di 10 minuti e un
gradiente termico di 15 °C/min, che
hanno richiesto l’impiego di una cella
climatica di elevate prestazioni. Quindi
abbiamo realizzato 4 campioni per ciascun tipo di lega saldante, simulando
20 anni di vita equivalente. Importantissimi altri due elementi considerati: la
freccia di deformazione dovuta agli
effetti termici (abbiamo progettato specifici sensori a fibra ottica per analizzarli) e l’impiego di metodologie DOE,
fondamentale su processi multivariabili.
Spesso queste metodiche DOE vengono
giudicate affrettatamente troppo costose: il DOE serve proprio a eliminare il
“PVC” (Proviamo/Vediamo/Cambiamo), preventivando le variabili, capire
quali siano influenti e, alla fine, i risultati sono estremamente razionali, correlati
e affidabili.
La mole di risultati ottenuti è stata molto
importante per il tipo di output che ne è
derivato, compensando adeguatamente
il lavoro iniziale di progettazione e pianificazione. Finora abbiamo effettuato
150 giorni di cella climatica, equivalenti a 12-15 anni di vita in campo, ma le
prove a tutt’oggi continuano. Risultati e
raccomandazioni emerse sono numerosissimi e mi limito a citarne alcuni: in-
N. 02ƒ
;2013
Santo Pugliese
(STMicroelectronics)
Da più di 25 anni lavoro nel reparto di
Affidabilità della ST di Cornaredo (MI)
e ho maturato una vasta esperienza sui
test affidabilistici dei circuiti integrati e
relativi meccanismi di fallimento. Nel
nostro laboratorio si fanno prove in particolare sui componenti elettronici per il
settore Automotive analizzandone i
guasti individuati, e direi che abbiamo
a che fare con tutta la possibile casistica di problematiche.
Siamo la principale industria europea
produttrice di semiconduttori, con 12
siti produttivi e un fatturato di 8 miliardi
di dollari. Il settore Automotive rappresenta il 18% della produzione e, se si
pensa che un chip in questo mercato ha
un valore di circa 1 dollaro, si può
avere un’idea di quanti componenti
vengono prodotti al giorno, e per ciascuno di essi vanno garantiti elevati target affidabilistici.
Questo segmento di mercato è molto
legato all’innovazione ed è ai vertici
delle sfide affidabilistiche: basti pensare ai radar utilizzati per evitare che l’auto investa il pedone, ai sofisticati controlli del motore, senza contare l’estrema variabilità delle condizioni ambientali in cui il veicolo deve operare, dai
-40 °C ai 150 °C. di temperatura del
motore. Inoltre nell’auto si trovano sia i
componenti con tecnologie “vecchie”
sia quelli di ultima generazione, ma per
tutti occorre garantire gli stessi standard
di qualità. Un settore applicativo che
richiede elevata affidabilità ma anche
continua riduzione dei costi: i nostri
clienti principali ogni anno ci chiedono
la riduzione del prezzo, obbligandoci
a continui step tecnologici per ridurre i
costi di produzione… ma l’affidabilità
sui prodotti safety deve continuare a
crescere! I nostri clienti più esigenti ci
chiedono 0 ppm, quindi zero difetti,
non solo per il rispetto delle pure norme
in materia di sicurezza ma anche perché nel settore auto, quando si verifica
un problema, scattano le campagne di
richiamo, la pubblicità sui mezzi d’informazione e quindi si verifica non solo
un danno economico ma anche d’immagine.
Nel concetto di affidabilità le variabili
più importanti sono il tempo e le condizioni in cui il dispositivo deve operare
(se un cellulare funziona anche sott’acqua, posso dire che è “robusto”, mentre
è “affidabile” se funziona correttamente nel tempo nelle condizioni di specifica). Ogni volta che un dispositivo non
rispetta tali condizioni ci troviamo in
presenza di un “failure”, che in ST classifichiamo nel seguente modo: “intrinseco”, se deriva da un problema sistematico di progetto o di processo, o “estrinseco”, se deriva da un problema sporadico che si può verificare una volta
avviata la produzione. La valutazione
affidabilistica svolta sul lotto di qualifica
è comunque focalizzata sui problemi
intrinseci. L’approccio base che usiamo
è quello di effettuare test accelerati in
cui applichiamo gli stress maggiori possibili, sia elettrici sia fisici (possono essere sequenze o stress singoli), a cui il
prodotto in campo sarà soggetto. L’obiettivo è quello di riprodurre in un
tempo più breve lo stress che il componente subirà durante tutta la propria
vita, anche eccedendo tali limiti per individuare i margini di robustezza sopra
citati. La “curva della vasca da bagno”,
nota per chi opera nel settore, serve a
visualizzare graficamente l’andamento
del failure rate nel tempo: prima abbiamo la mortalità infantile, poi la vita utile
e infine la degradazione. I principali
fattori di stress che applichiamo sono:
la temperatura (che aumenta la mobilità dei processi di diffusione e la velocità delle reazioni chimiche), le variazioni di temperatura (che aumentano gli
sforzi di taglio e le compressioni/
espansioni dei materiali), l’umidità
abbinata alla temperatura (fattori acceleranti della corrosione), la tensione
(che accelera i fenomeni di degradazione degli ossidi e la velocità dei por-
▲
nanzitutto vi sono informazioni estremamente tranquillizzanti per alcuni tipi di
finiture ENIG con lega saldante 305
(nessun guasto dopo 12 anni simulati) e
per le finiture OSP (1 guasto dopo 12
anni simulati), mentre sono state rilevate
indicazioni preoccupanti su alcuni componenti PTH e tradizionali. Avevamo
inoltre inserito nel test alcuni dispositivi
reballing (processo richiesto, ad esempio, in ambito militare) e i risultati sono
stati tutt’altro che rassicuranti.
IL
TEMA
tatori di carica), la corrente (per gli
effetti di metal electromigration e di
degradazione del giunto di saldatura) e
i picchi di potenza (che possono creare
deformazioni e fratture nelle metal).
Quando parliamo di prove di affidabilità dobbiamo anche pensare a come è
fatto il circuito integrato e a come la
tecnologia si sia evoluta nel tempo: fino
a pochi anni fa, lo spessore della parte
superiore delle interconnessioni era più
o meno uguale a quello della parte inferiore dove ci sono le diffusioni nel silicio; oggi la parte superiore, per esempio, è un castello di metallizzazioni,
ben più spessa rispetto a quella inferiore, che invece continua a ridursi. Ciò influisce pesantemente sulle prove, imponendo un’attenzione maggiore alle interconnessioni fra i vari strati.
Ciascun test di affidabilità, che segue
precisi standard, mira a mettere in evidenza uno specifico meccanismo di fallimento: la prova elettrica cerca di simulare l’applicazione e di creare guasti
dovuti alla corrente e alla tensione; i cicli termici mirano a creare rotture; la
prova umida è volta ad accertare gli effetti di umidità; ecc. È importante simulare tutti gli stress che il dispositivo subirà durante il tempo di vita specificato
dal cliente. Ad esempio, nelle varie prove di affidabilità i dispositivi non sono
saldati sulla board applicativa, e per
simulare lo stress che subiranno durante
il processo di saldatura che adotterà il
cliente, dopo aver tenuto i componenti
per con un certo tempo in umidità controllata (192 ore a 30 °C con 60% di
umidità), li sottoponiamo a un profilo termico simile a quello vero, con un picco
di temperatura che arriva intorno ai
260 °C, e analizziamo le possibili degradazioni causate dall’umidità intrappolate nel package. Dopo questo “Preconditioning” i dispositivi vengono suddivisi poi nei vari stress test.
La regina delle prove di affidabilità,
chiamata HTOL (High Temperature
Operating Life), è quella che cerca di
simulare esattamente l’applicazione. Ad
esempio, riguardo al sistema frenante
ABS, ognuno dei circa 200 componenti sottoposti a tale prova pilota un carico
induttivo simile a quello del sistema,
chiudendo e aprendo le valvole tante
volte quanto richiesto nella specifica del
T_M ƒ 91
N. 02ƒ
; 2013
cliente (o anche molto di più, per avere
un adeguato margine di robustezza
verso possibili problemi in produzione
non evidenziabili normalmente sui lotti
usati per la prova), in regime di alta
temperatura (150 °C o più) in modo di
accelerare possibili degradazioni delle
metallizzazione dei power.
Ogni volta che si fa una prova-vita si
deve stressare in maniera controllata:
ogni meccanismo di fallimento deve
essere accelerato, senza introdurne di
nuovi e questa è la difficoltà maggiore
alla quale dobbiamo ovviare.
Ogni meccanismo di fallimento testato
potrebbe far deviare un parametro e
quindi dobbiamo valutare se il dispositivo dopo prova è ancora dentro specifica; ma non solo, dobbiamo riuscire
anche a misurare il margine di robustezza verso il suo tempo di vita in
applicazione. In tale ottica, è importante quindi fare prove di robustezza, per
misurare il margine verso il fallimento,
andare oltre gli standard. Ciò si può
ottenere tramite prove di ware-out, che
tuttavia non sono sempre attuabili, a
causa della loro eccessiva durata.
Abbiamo quindi messo a punto analisi
sia fisiche sia elettriche sui pezzi dopo
prova basate sul “quasi difetto”, sulla
degradazione e su modelli di simulazione del meccanismo di fallimento. Se
vogliamo raggiungere la soglia degli
“zero difetti”, nella qualifica dobbiamo
garantire un approccio in termini di robustezza, anche se ciò non è sufficiente perché a tutti i livelli, dalla tecnologia
di front end e back end alla progettazione, produzione e service, ogni tassello deve contribuire al raggiungimento dell’obiettivo. A livello di qualifica,
possiamo agire sulle prove di robustezza, mentre in produzione devono essere effettuati tutti gli screening possibili dei
pezzi deboli. Infine, anche il service
deve essere adeguato a tale tipo di
approccio e solo a questa stregua l’obiettivo “zero difetti” è raggiungibile.
In sintesi, il concetto che stiamo cercan-
T_M ƒ 92
do di applicare a livello di “robustezza” in affidabilità è il seguente: ricevuto dal cliente il mission profile, disponendo della nostra matrice dei meccanismi di fallimento, in base a come è
fatto il prodotto produciamo una matrice di test, che va a integrare quella
degli standard e ci permette di valutare
il margine di robustezza e superare il
concetto di qualifica basato solo su 0
scarti nelle varie prove.
Enrico Galbiati (GEST LABS)
Il nostro Laboratorio si occupa da anni
di test di affidabilità per conto terzi e
l’esperienza fin qui sviluppata ci suggerisce che l’affidabilità nell’elettronica
dipende da fattori legati ai processi e ai
materiali. Fra i primi ne troviamo due
strettamente connessi, che coinvolgono
anche il fattore base, l’umidità relativa,
in modo diametralmente opposto: l’accumulo di cariche elettrostatiche, in
grado di provocare una scarica elettrica, indicata con Electrostatic Discharge
(ESD), e la sensibilità all’umidità da
parte di alcuni tipi di componenti, chiamati Moisture Sensitive Devices (MSD).
Queste tematiche sono spesso sottovalutate, soprattutto perché solitamente
hanno i maggiori effetti sull’affidabilità
e sono “nascoste”, quindi non danno
rilevanti problemi nell’immediato. La carica elettrostatica influenza praticamente
tutti i componenti ed è difficile da tenere sotto controllo, anche perché a volte
gli standard forniscono indicazioni non
facili da seguire. L’accumulo di cariche
sulla superficie degli oggetti spesso non
danneggia immediatamente i componenti ma, nel momento in cui si trasferisce da una superficie all’altra, genera
una corrente generalmente bassa ma
sufficiente a provocare danni nei componenti, visibili soprattutto nel tempo.
Un problema importante, in particolare,
nei siti produttivi. Un oggetto può caricarsi per effetto triboelettrico, per contatto con oggetti già carichi o per induzione. Per esempio, una volta che l’effetto triboelettrico ha generato oggetti
carichi, attraverso il contatto o l’induzione si possono causare scariche elettriche che possono danneggiare i componenti elettronici. Quindi una delle
maggiori cause di questi problemi è
l’effetto triboelettrico, che avviene quan-
do vengono a contatto materiali diversi
che hanno diverse affinità elettroniche.
Infatti, alcuni materiali tendono a perdere cariche negative (elettroni), altri
ad acquistarle: se sfortunatamente ho
vicini tra loro due materiali che sono
lontani nella scala triboelettrica, uno dei
quali tende a cedere elettroni e l’altro
ad accaparrarli, basta uno strofinio o
un piccolo contatto e abbiamo già l’oggetto carico. Questo può avvenire sia
quando si mettono a contatto due materiali diversi, sia quando li si separa (ad
esempio, quando si stacca un pezzo di
nastro adesivo). L’effetto triboelettrico
dipende inoltre dall’ampiezza e dalla
forza dello strofinio e da altri parametri,
tra i quali l’umidità. A questo punto si
rischia di danneggiare il componente,
perché trasferiamo corrente da un oggetto all’altro. Queste cariche si possono generare dagli indumenti degli addetti, delle pavimentazioni dei locali
produttivi, ecc.; i relativi potenziali elettrostatici che si generano possono essere veramente elevati. In tale ambito, un
fattore importantissimo è l’umidità relativa: quando essa scende sotto il 30%
abbiamo una grande produzione di
cariche elettrostatiche che possono provocare danni notevoli. Il danneggiamento del componente può avvenire
per effetto del contatto con l’operatore,
che può così scaricare la propria carica elettrostatica sul componente stesso,
oppure tramite una macchina, che può
avere parti con cariche elettrostatiche
che, per contatto, vengono trasferite al
componente. Occorre pertanto prevenire tali effetti, in primo luogo proteggendo gli operatori dall’accumulo di cariche elettrostatiche (attraverso indumenti
protettivi, bracciali collegati a massa,
ecc.). La scarica, generando calore,
può provocare danni nel componente.
A volte si raggiungono temperature
molto elevate, anche se le scariche possono essere d’intensità non percepibile
dalla persona. Possiamo pertanto avere
un guasto immediato, rilevabile, oppure più frequentemente un guasto
latente, perché la scarica può generare
un innalzamento della temperatura che
provoca microfratture interne nel componente che però non si manifestano in
tempi così brevi da rendersi evidenti
nell’immediato.
N. 02ƒ
;2013
Un altro fattore che influisce sull’affidabilità riguarda i componenti MSD,
generalmente plastici, che assorbono
umidità e non si danneggiano immediatamente, ma nel momento in cui
sono sottoposti a temperature superiori
a 200 °C durante la saldatura sulla
scheda. Infatti possono subire danni, in
quanto l’umidità assorbita si trasforma
in vapore che genera tensioni. Queste
causano fratture, che si manifestano
in modo repentino (se di entità veramente grave) oppure possono semplicemente indebolire il componente e
fargli perdere nel tempo la funzionalità. Alcune fratture possono essere rilevate solo tramite esami accurati in laboratorio, che utilizzano strumenti
specifici, come il microscopio acustico
a scansione.
Esistono standard, a volte poco conosciuti, che offrono indicazioni su come
gestire i vari tipi di componenti, catalogati secondo lo specifico livello di sensibilità all’umidità. Di conseguenza, in
produzione è necessario considerare
come gestire questi componenti: ad
esempio, se dopo aver aperto la busta
contenente componenti MSD questi non
sono utilizzati subito, dopo quanto
tempo devono essere chiusi in un’apposita busta? Come deve essere questa
busta? Quando la busta viene riaperta
e i componenti MSD rimangono ancora
esposti all’ambiente, dopo quanto
tempo e come devono essere “asciugati”? Tutti questi accorgimenti consentono
di gestire al meglio i componenti, riducendo al minimo i possibili problemi.
Attenzione, quindi, a tener sotto controllo questi aspetti, che a volte sono sottovalutati, sia perché difficili da analizzare sia perché molto spesso manifestano i propri effetti nel tempo.
Achille Garrone (Ricerca
& Sviluppo – CORONA)
La CORONA spa produce da sempre
circuiti stampati e due terzi della nostra
produzione riguardano le finiture
ENIG. Fin dai primi anni ’90 è emersa
l’esigenza di considerare il circuito
stampato non più come supporto di una
serie di componenti ma come un componente esso stesso, in quanto attore
nel funzionamento dell’apparato. Si è
così iniziato a dimensionare i condutto-
ri, i dielettrici, ecc. per ottenere
un valore resistivo noto, che non
fosse penalizzante per il funzionamento dell’apparato. Sono
stati sviluppati laminati in possesso di caratteristiche dielettriche e
di perdita di segnale diverse, in
modo da raggiungere l’obiettivo
prefissato in termini d’impedenza. Abbiamo sviluppato un know how proprio, grazie anche alla collaborazione
con gruppi di ricerca d’importanti
aziende elettroniche operanti nel settore telecomunicazioni e in quello militare. L’integrazione dei componenti, la
loro miniaturizzazione e, soprattutto, la
sempre maggiore velocità di trasmissione dei dati hanno reso necessario che i
circuiti stampati utilizzassero laminati
che alle alte frequenze non interferissero, se non in modo controllato, con il
passaggio del segnale. I valori più
significativi fra le caratteristiche dei laminati sono la costante dielettrica e il
fattore di dissipazione, che sono tanto
migliori quanto più bassi: il top in tal
senso è rappresentato dai materiali a
base teflon, che hanno una costante
dielettrica da 2,2 a 2,6, ma presentano
problemi di lavorabilità e di costo. I fabbricanti di laminati, spinti anche dalla
rapida evoluzione dei componenti,
hanno sviluppato prodotti alternativi
che si collocano a livelli intermedi fra
gli FR4 epossidici e di teflon, per quanto concerne sia i valori di costante dielettrica sia quelli di perdita e anche i
costi. Caratteristiche da prendere in
esame sono: l’idoneità alla saldatura
senza piombo, legata alla temperatura
di decomposizione, la resistenza a cicli
termici, la resistenza al filamento anodico, la temperatura di transizione vetrosa, la costante dielettrica, la capacità di tenuta superficiale alle scariche, il tempo di delaminazione, la
massima temperatura d’esercizio, il
comportamento al fuoco.
I costi dei laminati sono quindi estremamente variabili (alcuni materiali teflon
possono costare anche 8-30 volte rispetto a un FR4), ma la scelta del materiale non è tutto e occorre che il processo di fabbricazione del circuito sia
condotto in maniera corretta: il produttore deve possedere ovviamente le certificazioni di autoestinguenza e di ade-
renza e un sistema qualità affidabile,
aspetti che lo aiutano a ottenere i risultati attesi. Le fasi più importanti del processo produttivo sono la pressatura e
incollaggio del multistrato, la metallizzazione dei fori e lo spessore dei riporti. È inoltre importante che il fabbricante abbia i processi in casa e, quindi,
possa intervenire immediatamente in
presenza di un guasto: un altro punto
importante è l’affidabilità legata alla
resa di ogni lotto. Tutto ciò richiede il
possesso di adeguata strumentazione
di misura, che consenta di misurare lo
spessore dei riporti, svolgere prove
d’impedenza, saldabilità, stress termico, contaminazione ionica, controllo
delle soluzioni chimiche impiegate e
delle acque di scarico. Se necessario,
bisogna avvalersi di laboratori esterni,
in grado di effettuare altri importanti tipi
di misure e prove, quali la compatibilità elettromagnetica.
Nell’apparato, un altro aspetto importante è rappresentato dalla qualità dei
componenti acquistati, delle saldature
(soprattutto quando è previsa la rilavorazione della scheda), del collaudo finale (i software di collaudo spesso non
coprono le condizioni d’esercizio).
Paolo Montangero
(Ricerca & Sviluppo – HTC)
La HTC opera nel campo dei cablaggi
e degli assemblaggi di cabine elettroniche ed elettromeccaniche. Produciamo
cabine di controllo per sistemi robot,
che possono essere fissi su una postazione di lavoro oppure montati su sistemi cartesiani, quindi in grado di traslare; in questo secondo caso, il cablaggio che collega la cabina al robot deve
essere mobile (cavi in catenaria). Abbiamo poi un cablaggio a bordo macchina, che viene sollecitato dai movimenti del robot a livello sia di torsione
sia di flessione. HTC fornisce sia le cabine di controllo sia i cablaggi in catenaria e a bordo del robot.
T_M ƒ 93
N. 02ƒ
; 2013
■
IL
TEMA
Per quanto riguarda gli aspetti affidabilistici è importante avere un’idea delle
possibili cause di guasto e delle relative
contromisure attuabili per ridurre l’incidenza dei guasti sia delle cabine sia dei
cablaggi. Una prima causa di può essere attribuita agli errori o alle criticità del
progetto. Per ridurre l’impatto di questa
voce utilizziamo metodi diversi: dalle
tecniche FMEA alle simulazioni (di tipo
termico e meccanico), per capire le sollecitazioni e l’usura a cui le parti sono
soggette. Una seconda causa di guasti
è da ricercare nella qualità e affidabilità dei materiali e dei componenti che
utilizziamo: se le schede o l’elettromeccanica scelte per la cabina di controllo
hanno criticità, è evidente che queste
possono portare a guasti e malfunzionamenti dell’intero sistema robot. La
contromisura sta nella giusta scelta dei
componenti e dei materiali, che devono
avere un corretto dimensionamento, ma
sono altrettanto importanti le prove di
vita e i controlli svolti su materiali e componenti in entrata.
Nella nostra realtà, i problemi affidabilistici più importanti sono quelli relativi
agli errori di montaggio e di assemblaggio: errati collegamenti o connessioni difettose possono generare intermittenze, anomalie e problemi di funzionamento del sistema. Gli strumenti
che mettiamo in campo in tale ottica
sono: la FMEA, le istruzioni operative
dettagliate, la formazione del personale, i controlli in linea, i collaudi e il burnin finale.
Un‘ultima causa di guasto può essere
legata al cattivo impiego che il cliente
può fare del robot, ad esempio quando
le condizioni d’impiego superano quelle previste dalle specifiche o quando
non si rispettano cicli di manutenzione
programmata raccomandati dal costruttore.
L’ambiente operativo dei sistemi robot
non è certamente ideale per l’elettroni-
ca e per le strumentazioni sofisticate:
basti pensare alle condizioni in cui
opera un robot di saldatura, soggetto a
forti disturbi elettromagnetici, scariche
elettriche, elevate temperature e pesanti ritmi di lavoro (7 giorni su 7, 24 ore
su 24). In questo contesto, è evidente la
difficoltà di attuare programmi di manutenzione e, di conseguenza, la prevenzione dei possibili guasti diventa ancor
più fondamentale.
Per quanto riguarda i cablaggi a posa
mobile, la scelta dei cavi e dei materiali deve tener presente le specifiche del
cliente: ad esempio, il numero di cicli di
movimentazione, l’accelerazione, la velocità e il raggio di curvatura del sistema. Nel progetto del cavo tali specifiche condizionano la scelta delle materie plastiche più opportune, dei conduttori in rame. Il cavo prodotto viene poi
sottoposto a severi test meccanici su simulatori che riproducono esattamente il
movimento del robot, misurando in continuo la variazione della resistenza
ohmica del cavo, prove climatiche
ambientali e altri tipi di test relativi a
funzionalità e sicurezza. Anche per i
cablaggi in posa mobile, l’evoluzione
tecnologica spinge verso prestazioni
sempre più elevate: attualmente si sta
lavorando per aumentare la loro vita
da 10 a 20 milioni di cicli (un ciclo
dura mediamente 10 secondi, quindi
20 milioni di cicli significano circa 5
anni di vita del sistema), ma si lavora
anche per aumentare la velocità e l’accelerazione.
La cabina di controllo comprende diversi elementi, a partire dalla carpenteria meccanica (una sorta di “vestito”
della parte elettronica), che è particolarmente importante ai fini dell’affidabilità, ai sistemi di raffreddamento (dissipatori, ventole), ai componenti elettronici (sistemi di sicurezza, alimentazione, CPU, ecc.). L’evoluzione delle
cabine di controllo robot va nella direzione di una continua riduzione delle
dimensioni, aumentando quindi la densità dei componenti e le problematiche
termiche e ponendo nuove sfide affidabilistiche. L’affidabilità può comunque essere assicurata con una serie di
precauzioni. L’uso nella carpenteria di
materiali migliori (es. alluminio al posto
della lamiera) nelle parti soggette a
maggior sollecitazione termica. La scelta di componenti di ultima generazione
più compatti e più efficienti termicamente. La riduzione della numerosità
dei componenti e delle connessioni
interne usando cavi multipli o connettori differenti, per semplificare l’assemblaggio e al tempo stesso aumentare
l’affidabilità. Il posizionamento e il raffreddamento sono ulteriori elementi
chiave della cabina, per garantire il
controllo della temperatura. Oltre alla
FMEA, nel processo produttivo delle
cabine di controllo per robot e dei
cablaggi di connessione si pone particolare cura alla documentazione, ai
controlli in linea e ai collaudi. La documentazione di processo deve essere
completa e mantenuta costantemente
aggiornata (a fronte di revisioni e cambiamenti spesso molto frequenti). In
particolare le istruzioni operative fanno
grande uso d’immagini per rimanere
semplici e accurate. I controlli in linea
sono fondamentali per mantenere il
completo controllo del processo e
garantire qualità e affidabilità. Un
esempio può essere rappresentato dal
test di trazione sulle terminazioni crimpate sul cavo. L’impiego di macchine
crimpatrici automatiche consente il test
meccanico al 100% della produzione,
garantendo la corretta esecuzione
della crimpatura. A livello di collaudo
effettuiamo un controllo elettrico sul
100% dei cavi prodotti verificando la
continuità elettrica, la resistenza d’isolamento e la ricerca di cortocircuiti. Per
la cabina di controllo in specifico effettuiamo un test di funzionamento molto
completo dove la cabina viene fatta
lavorare per un certo numero di ore
con un carico che simula le condizioni
reali di esercizio. I programmi di test
simulano le condizioni operative
(assorbimenti, cicli, ecc.) e i possibili
inconvenienti a cui si può andare
incontro (blocchi, black-out elettrici,
ecc.). I software collezionano i dati
rilevati, che in seguito possono essere
analizzati e consentire l’accertamento
di eventuali anomalie e la loro correzione. Dopo le fasi di collaudo è possibile effettuare un burn-in, aumentando la temperatura all’interno della
cabina in modo da provocare il guasto
di un possibile componente debole.
GLI
ALTRI TEMI
▲
MISURE PER L’AERONAUTICA
Edoardo Fiorucci, Giovanni Bucci, Fabrizio Ciancetta
Test di sistema elettromeccanico
fault-tolerant
per la movimentazione dei flap di aeromobili
A TESTING SYSTEM FOR THE PERFORMANCE EVALUATION OF
FAULT-TOLERANT ELECTROMECHANICAL DRIVES
FOR AIRCRAFT APPLICATIONS
A testing system for the performance evaluation of innovative electromechanical drives for aircraft flaps is presented. It has been developed as a
cooperation with the Umbra Group Aerospace. The research activity is focused on the design of the measurement system and on the development of the
software for the measurement and the monitoring of mechanical, hydraulic
and electrical parameters, as well as the managing of the control system for
the emulation of the load force opposing to the actuators movement.
RIASSUNTO
In collaborazione con la Umbra Cuscinetti di Foligno è stata sviluppata una
stazione di misura per il test di un innovativo sistema di attuazione per flap
per apparecchi aeromobili. È stato realizzato il sistema di misura dotato di
un software per il monitoraggio dei parametri elettrici, elettronici, meccanici e idraulici del banco prova e per la gestione del sistema di controllo per
la simulazione del carico aerodinamico antagonista alla movimentazione
degli attuatori.
L’AZIONAMENTO ELETTRICO
DEGLI HIGH LIFT SYSTEMS
Le esigenze economiche e ambientali
associate al consumo di carburante,
unitamente a quelle del miglioramento
delle condizioni di sicurezza, spingono le aziende aeronautiche a sviluppare soluzioni innovative per la nuova
generazione di aeromobili. Una delle
linee guida è quella che prevede la
sostituzione degli azionamenti idraulici con quelli elettromeccanici, essendo questi più leggeri e affidabili. I maggiori sforzi vertono
nel miglioramento dei dispositivi di azionamento dei cosiddetti High Lift Systems (HLSs) [1],
le superfici mobili utilizzate
per regolare la forma dell’ala
in funzione della velocità (Fig.
1). Per queste ragioni è stato
sviluppato un innovativo sistema di attuazione che prevede
l’impiego di una coppia di
motori sincroni a magneti permanenti multi-fase, progettati
in modo da garantire le prestazioni
minime anche in caso di guasto di
una o due fasi [2-4]. La posizione dei
due attuatori è controllata in parallelo, in modo da garantire la ridondanza del sistema di controllo e di attuazione. In particolare, questa soluzione
consente di evitare complessi sistemi
per la gestione dell’errore d’inseguimento, estendendo alla coppia di attuatori, che movimentano il singolo
flap, la filosofia fault-tolerant del singolo motore multifase.
LE CARATTERISTICHE GENERALI
DEL SISTEMA DI TEST
Il set-up per il test del sistema di attuazione è riportato in Fig. 2 ed è composto da tre elementi: (i) Quadro PC;
(ii) Quadro azionamento; (iii) Banco
prova. Il Quadro PC presenta al suo interno un PC industriale equipaggiato
con un LGA 775 Core 2 Quad Q
6600 @2,4 GHz, 4-GB DDR 3, Hd da
500 GB e una scheda di acquisizione
dati NI PCIe-6323. Il Quadro azionamento contiene il sistema di controllo,
l’alimentatore del bus DC del sistema
di potenza e una coppia d’inverter a
cinque fasi fault-tolerant per l’azionamento degli attuatori. La scheda di controllo, denominata ECU, è composta
da due sezioni: ECU HIGH e ECU
LOW. ECU HIGH provvede alla generazione della traiettoria di posizione
degli azionamenti, a partire dal profilo
di posizione creato dal Quadro PC,
mentre ECU LOW provvede a instradare i dati generati da ECU HIGH ai
due azionamenti, usando un bus SPI
ad alta velocità (6 Mbps).
Figura 2 – Il banco prova
Figura 1 – Gli High Lift Systems
Dipartimento di Ingegneria Industriale,
dell’Informazione e di Economia,
Università dell’Aquila
edoardo.fiorucci@univaq.it
T_M
N.
T_M
2/1
3 ƒ 95
Il banco prova è composto da: (i) un
pistone idraulico per la simulazione
della forza aerodinamica antagonista
al movimento degli attuatori; (ii) un
circuito idraulico che regola/aziona il
pistone idraulico; (iii) una riga ottica
per la misura della posizione corrente
del pistone; (iv) tre celle di carico per
Figura 3 – Particolare del sistema di movimentazione
T_M ƒ 96
N. 02ƒ
; 2013
▲
GLI
ALTRI TEMI
la misura della forza sul pistone e sui
due attuatori (Fig. 3).
Il banco prova simula la spinta aerodinamica sui flap, e quindi fornisce un
carico (o meglio una forza antagonista) al movimento degli attuatori. Tale
spinta è simulata da un pistone idraulico, messo in movimento da un circuito idraulico a olio. Nel circuito
idraulico sono state installate opportune valvole che regolano il flusso dell’olio, e quindi il movimento stesso del
pistone.
Sono presenti quattro tipologie di valvole (Fig. 4):
1) Valvole di sicurezza on/off VEI
che aprono o chiudono il circuito
idraulico. Queste valvole vengono
comandate dal software di misura, e
azionate se si rileva un’anomalia
durante la movimentazione per un
eccesso di spinta o se il sistema di
controllo degli azionamenti è in erro-
re. Sono inoltre azionate dal fungo
di emergenza.
2) Valvola WRTE: è una valvola di
massima che regola la massima pressione presente nel circuito idraulico; è
gestita dal software e regolata in base
alla risposta dinamica del sistema
idraulico.
3) Le valvole DBEE di parzializzazione: durante una variazione improvvisa della pressione del sistema idraulico, dovuta a un cambio di andatura o
a una simulazione di un gradino di
carico, si comportano da cuscinetti
idraulici che smorzano o irrigidiscono
il comportamento del sistema.
4) La valvola WREE è una valvola proporzionale che, in base al segnale di
controllo analogico in ingresso, crea
uno squilibrio di pressione alle estremità del pistone idraulico. La differenza di pressione permette la movimentazione del pistone.
N. 02ƒ
;2013
IL SISTEMA DI MISURA
SVILUPPATO
Per la caratterizzazione delle prestazioni del sistema è stata implementata
una stazione di misura che, connessa
al banco prova, provvede: (i) al monitoraggio dei parametri meccanici,
elettrici ed elettronici dell’intero sistema; (ii) alla configurazione del test
con la creazione del profilo di movimentazione e la configurazione/
monitoraggio dei parametri del controllo dei singoli attuatori; (iii) alla
generazione della forza resistente
alla movimentazione con l’applicazione del carico aerodinamico al flap
tramite il pistone idraulico.
Inoltre, il sistema di misura utilizza: (i)
un Fluke Hydra per la misura della
temperatura da 6 termocoppie per il
monitoraggio del sistema in condizione di stress termico; (ii) un alimentatore Regatron (400 V, 32 kW) che fornisce la potenza elettrica in DC agli
azionamenti; (iii) un convertitore SPIUSB per il monitoraggio dei parametri di ECU HIGH, ECU LOW e dei due
sistemi di controllo.
Infine, il banco prova utilizza i
seguenti trasduttori: (i) due celle di
carico, una per ogni attuatore, modello CL da 20 kN; (ii) una cella di carico, sul pistone, modello 3124 da
50 kN; (iii) tre amplificatori, uno per
ogni cella di carico, modello TA4/2;
(iv) un trasduttore magnetostrittivo di
posizione rettilinea senza contatto
(riga ottica) Gefran modello MK4-A.
Il software di misura è stato sviluppato usando il pacchetto LabWindows™
CVI di National Instruments. A differenza di altri pacchetti software per lo
sviluppo di applicativi ad alto livello
(LabView, C#, VB.NET, DELPHI, ecc.),
il CVI fornisce: (i) la possibilità di realizzare interfacce utente utilizzando un
linguaggio di sviluppo che permette il
controllo dell’hardware che si sta utilizzando senza strati software intermedi; (ii) la possibilità di gestire e
implementare sistemi con la tecnologia del multithreading. Inoltre è basato su eventi, e quindi su interrupt software e hardware, s’interfaccia con
schede di acquisizione dati con librerie
già fornite, s’interfaccia con qualsiasi
dispositivo esterno con le librerie .lib
e .dll fornite dal produttore del dispositivo. Infine è dotato di un insieme di
oggetti visuali e di oggetti specifici,
quali ad esempio i grafici, che consentono lo sviluppo d’interfacce utente
user friendly.
Data la complessità del sistema da
monitorare e da controllare, l’intero
software è stato progettato utilizzando la tecnica del multithreading. In
particolare i threads che sono stati sviluppati si occupano (i) del controllo
PID della forza da imporre; (ii) dell’acquisizione dei dati provenienti dal
supervisore del sistema di controllo
degli attuatori (ECU HIGH e ECU
LOW) tramite un convertitore SPI-USB
(Cheetah SPI Host Adapter della TotalPhase) operante alla frequenza di 2
MHz; (iii) dell’acquisizione dei dati
analogici dei parametri meccanici e
idraulici; (iv) del controllo e monitoraggio del regolatore di potenza sul
bus DC; (v) dell’acquisizione dei dati
dal Fluke Hydra; (vi) della comunicazione via RS232 con i DSPs presenti
nel sistema di attuazione; (vii) della
sincronizzazione dei dati raccolti dai
singoli threads; (viii) del salvataggio
dei dati; (ix) della visualizzazione dei
dati sull’interfaccia utente; (x) della
gestione della diagnostica del sistema; (xi) del controllo degli errori; (xii)
del main thread.
I threads comunicano fra loro con un
sistema di Threads Save Queues:
code circolari di dati, protetti e gestiti
▲
Figura 4 – Schema di funzionamento
del circuito idraulico
GLI
ALTRI TEMI
dal sistema operativo, che consentono
l’interscambio dei dati fra differenti
threads eliminando il problema dei
locks per l’accesso ai dati.
L’INTERFACCIA UTENTE
Il software per il monitoraggio/controllo del banco prova è stato suddiviso in due programmi: il primo configura i sistemi elettrico, elettronico e di
controllo, mentre il secondo imposta i
test da eseguire, controlla il valore
della forza e memorizza i dati acquisiti.
Il primo programma fornisce una procedura guidata per l’accensione del
banco prova. In particolare, le azioni
da seguire saranno nell’ordine:
1. scelta del numero di azionamenti
da utilizzare (1 o 2);
2. selezione del file di configurazione
nel quale sono presenti sia i files che
contengono le variabili dei DSPs sia le
variabili che vengono inizializzate
nella fase di configurazione iniziale;
3. accensione dell’alimentazione della logica del banco prova;
4. accensione della pompa del circuito idraulico;
5. accensione dell’alimentazione del
quadro azionamento;
6. configurazione dei DSPs con il
download dei parametri di configurazione iniziale. Il secondo programma
è organizzato in tabs.
Ogni tab è organizzato in modo da
consentire un corretto utilizzo all’utente finale. Nel tab principale (Fig. 5)
l’operatore può impostare i parametri
del profilo di posizione e di forza
della movimentazione, salvare e visualizzare i dati, e visualizzare i faults
che si possono presentare nei blocchi
funzionali del sistema di test. I parametri del target di posizione e il profilo di forza da imporre al pistone
idraulico possono essere salvati in file
di configurazione, in modo da riutilizzare le impostazioni per diverse prove.
Gli altri tabs consentono di visualizzare e configurare gli andamenti degli attuatori provenienti dal SPI in differenti grafici; avere informazioni sugli andamenti meccanici (posizione-
T_M ƒ 97
N. 02ƒ
; 2013
▲
GLI
ALTRI TEMI
do da non
perdere mai
di vista il sistema nella
sua totalità.
I dati acquisiti durante il
test sono stati
salvati in un
file binario
nel formato
standard
della National
Instruments TDMS.
A titolo di
esempio,
nella parte
Figura 5 – Screenshot del software di monitoraggio
superiore di
Fig. 6 sono
carico e posizione-velocità), elettrici riportati gli andamenti del profilo di
(tensione e corrente fornite dall’ali- posizione dei due attuatori (curve in
mentatore DC) e idraulici (andamento grigio e rosso), e delle correnti degli
dei carichi e dei sensori di pressione); attuatori Master e Slave (verde e fucavere informazioni sulle temperature sia); tutti i dati sono espressi in “per
(dal Hydra Fluke) e infine i faults gene- unità”. Il grafico inferiore mostra i
rati da ogni singolo elemento del siste- valori acquisiti dalle celle di carico
ma sia esso elettrico/elettronico/mec- del Master e dello Slave (verde e blu),
e l’andamento della cella di carico
canico, sia idraulico.
Ogni volta che si presenta un errore, presente sul pistone in newton (rosso)
il LED di stato generale del sistema durante un gradino di forza resistente.
che lo ha generato si accende in moRIFERIMENTI
BIBLIOGRAFICI
Figura 6 – Dati salvati dal software di misura.
Sopra: profilo di posizione e andamenti delle correnti sui singoli attuatori;
Sotto: andamento delle celle di carico
T_M ƒ 98
1. P.K.C. Rudolph,
“High-Lift
Systems on Commercial Subsonic
Airliners”, NASA,
Ames Research
Center, NASA
contractor report,
vol. 4746, 1996.
2. Villani M., Tursini M., Fabri G.,
Castellini L., “High
Reliability Permanent
Magnet
Brushless Motor
Drive for Aircraft
Application”,
IEEE Transaction.
on Ind. El., vol.
59, pp. 20732081, 2012.
3. J.W. Bennett, B.C. Mecrow, A.G.
Jack, D.J. Atkinson, “A Prototype Electrical Actuator for Aircraft Flaps”, IEEE
Trans. On Ind. App., Vol. 46, No. 3,
2010.
4. M. Christmann, S. Seemann, P. Jänker “Innovative Approaches To Electromechanical Flight Control Actuators
And Systems” Int. Conf. on Recent
Advances in Aerospace Actuation
Systems and Components, France,
2010.
Edoardo Fiorucci è
Professore Aggregato di
Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Industriale, dell’Informazione
e di Economia dell’Università dell’Aquila. Si occupa di strumentazione basata su PC, di sistemi di
misura per la valutazione della qualità
dell’alimentazione elettrica, di sistemi
per il test e il collaudo automatico di
macchine elettriche, di sensori smart per
applicazioni di misura distribuita.
Giovanni Bucci è Professore Ordinario di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Industriale, dell’Informazione
e di Economia dell’Università dell’Aquila. Si occupa di strumentazione basata su PC, misure di
potenza in regime deformato, sistemi di
misura per la valutazione della qualità
dell’alimentazione elettrica, sistemi di
misura multiprocessore, algoritmi digitali per strumentazione di misura in RealTime.
Fabrizio Ciancetta è
assegnista di ricerca
presso il Dipartimento di
Ingegneria Industriale,
dell’Informazione e di
Economia dell’Università
dell’Aquila. Si occupa di
strumentazione basata su PC, di sensori
smart per applicazioni di misura distribuita, di sistemi di misura per la valutazione della qualità dell’alimentazione
elettrica, di algoritmi digitali per strumentazione di misura in Real-Time.
GLI
ALTRI TEMI
▲
METROLOGIA FONDAMENTALE
Luca Mari
Le proprietà classificatorie
Qualche considerazione sulla misurabilità oltre le unità di misura
NOMINAL PROPERTIES
The structural characteristics of the nominal properties and the processes for
experimentally attributing values to them (called “nominal evaluations” in short)
are introduced, and it is shown that also the result of such processes is affected
by uncertainty. The relations between measurement and nominal evaluation are
finally discussed.
RIASSUNTO
Si introducono le caratteristiche strutturali delle proprietà classificatorie e dei
processi per l’attribuzione sperimentale di valori a tali proprietà (chiamati per
brevità “valutazioni nominali”), e quindi si mostra che anche il risultato di tali
processi è affetto da incertezza. Ciò consente infine di discutere le relazioni tra
misurazione e validazione nominale.
UN TEMA CONTROVERSO
La misurazione è carica di stereotipi, e
i più radicati tra essi riguardano il concetto stesso di misurabilità: cosa può
essere misurato? Senza addentrarci in
dettagli (per il lettore interessato ad
approfondire un buon punto di partenza è [Rossi 2007]), basti notare che
fino a un recente passato si sono usate
espressioni come “contare e misurare”
e “pesi e misure”, come se contare e
pesare non potessero essere modi per
misurare. Sono tracce della tradizione
inaugurata dagli Elementi di Euclide, in
cui “misura” è usato per le grandezze
geometriche (e per i numeri, ma questo
è un altro discorso...) e con l’ipotesi che
misurabilità e divisibilità per un’unità (di
misura) siano concetti coincidenti.
Con questa impostazione, in contesti
tecnici e scientifici vari si sostiene tuttora che solo grandezze con unità siano
misurabili. Poiché la misurazione è
un’attività che progettiamo e realizziamo, e non un’entità scoperta in natura,
una certa convenzionalità circa il suo
possibile oggetto è certamente presente. Non è però convenzionale la qualità che in genere si attribuisce ai risultati di misura, e che non si riconosce per
esempio alle opinioni, che pure potrebbero essere espresse a proposito di
grandezze e in termini di unità di misu-
ra (“mi pare che quest’oggetto sia lungo 1,23 m”).
Per ragioni, che sarebbe interessante
approfondire altrove, questo tema è
diventato rilevante e un moving target
per la metrologia. Ce ne fornisce una
buona testimonianza il Vocabolario
Internazionale di Metrologia (VIM), che
nella sua prima edizione, 1984, manteneva la posizione tradizionale e ora,
nella terza edizione, 2007, include
anche le grandezze ordinali tra le entità misurabili. Tuttora aperta è l’eventuale ulteriore estensione: è corretto considerare misurabili anche le proprietà
classificatorie? (“nominal properties” in
inglese; chiamate a volte, meno propriamente, anche “proprietà qualitative”; l’introduzione classica alle proprietà classificatorie nel contesto dei diversi
tipi di scala è in [Stevens 1946]).
La posizione del VIM3 al proposito è
interlocutoria: per la prima volta include
una definizione del concetto (“proprietà
di un fenomeno, corpo o sostanza, ma
alla quale non è possibile associare una
espressione quantitativa”), ma dichiara
che “la misurazione non si applica a proprietà classificatorie”. Sollecitazioni
verso una più sistematica considerazione
delle proprietà classificatorie stanno
giungendo al Joint Committee for Guides
in Metrology (JCGM, http://www.
bipm.org/en/committees/jc/
jcgm), in particolare in vista della possibilità di adottare parallelamente al
VIM un vocabolario delle proprietà
classificatorie (al momento identificato
informalmente come “VIN”, [Nordin et
al. 2010]) oppure d’integrare tali proprietà nella prossima edizione del VIM.
Quale strada si dovrebbe intraprendere? Conservare la visione tradizionale
secondo cui classificare non è un modo
di misurare, assumendo quindi che le
proprietà classificatorie non siano un tema metrologico? O proseguire nell’innovazione, rispondendo così alle nuove richieste che la società e il mercato
pongono, e costruire un sistema concettuale in cui la misurabilità è caratterizzata non più dall’“avere un’unità” o
“una magnitude” (un termine non facilmente traducibile in italiano), ma per
esempio da condizioni operative sul
processo? La domanda è aperta e non
è chiaro quale risposta si sceglierà. Propongo qui un’introduzione al tema, che
cercherò di mantenere neutrale rispetto
all’alternativa posta. Per correttezza,
chiarisco che propendo per l’“opzione
innovativa”, e in conclusione proporrò
qualche ragione a supporto di questa
posizione.
COSA SONO
LE PROPRIETÀ CLASSIFICATORIE
Alla base del sistema di concetti della
metrologia ci sono:
• oggetti, come oggetti fisici, fenomeni,
processi, …
• proprietà, come la lunghezza, l’efficienza, la forma geometrica, …
• valori di proprietà, come 1,23 m,
55 %, rotondo, …
Scuola di Ingegneria Industriale,
Università Cattaneo - LIUC,
Castellanza
lmari@liuc.it
T_M
N.
2/13 ƒ 99
N. 02ƒ
;2013
COME SI ATTRIBUISCONO
SPERIMENTALMENTE VALORI
ALLE PROPRIETÀ CLASSIFICATORIE
Il VIM3 definisce la misurazione come
un “processo volto a ottenere sperimentalmente uno o più valori che possono
essere ragionevolmente attribuiti a una
grandezza”. È per questo riferimento
alla necessità che il misurando sia una
grandezza, e poiché una proprietà classificatoria non è una grandezza, che,
come già notato, “la misurazione non si
applica a proprietà classificatorie”. Ma
che dire, per analogia, del processo di
attribuzione sperimentale di uno o più
valori a una proprietà classificatoria?
Prima di tutto, una nota lessicale. Il VIM3
chiama tale processo “examination” in
inglese ed “examen” in francese, termini
a mio parere opinabili, ma che spiegano perché nella traduzione italiana si è
scelto “esame”. Per enfatizzare la funzione di attribuzione di valori, per brevità userò qui invece “valutazione”, e “valutazione nominale” per la valutazione
di proprietà classificatorie. Dunque sia la
misurazione sia la valutazione nominale
sono, in questo senso, valutazioni.
La valutazione nominale e la classificazione sono spesso trattate come uno
stesso tipo di processo, quando invece
anche una semplice analisi mette in evidenza alcune loro differenze interessanti. Nel caso ordinale, in cui un’ambiguità analoga potrebbe presentarsi,
si mantiene la distinzione tra generico
ordinamento e misurazione ordinale:
per misurare una grandezza ordinale
occorre un opportuno insieme di campioni (si pensi al caso classico della
durezza secondo Mohs), così che ogni
misurazione ordinale induce un ordinamento, ma si possono ottenere ordinamenti senza effettuare alcuna misurazione, in particolare quando si opera
per confronto diretto tra oggetti da ordinare (“questo è maggiore di quello”)
invece che confrontando l’oggetto sotto
misurazione con i campioni previamente scelti. Questa distinzione si mantiene
anche tra generica classificazione e
valutazione nominale.
Una classificazione è basata su un criterio operativo di confronto che consente di stabilire per ogni coppia di
oggetti candidati se essi appartengono
o meno alla stessa classe (sto trascurando la presenza d’incertezze, tema
che riprenderò in seguito). È il caso di
una bilancia a due piatti su cui si posano oggetti di peso non noto. L’esito è “i
due oggetti hanno un peso diverso”,
oppure “hanno lo stesso peso” e quindi
appartengono alla stessa classe di
peso, ma quale sia il peso degli oggetti rimane ignoto: abbiamo classificato
per peso ma non abbiamo ancora misurato. Proprio come per la bilancia,
una valutazione nominale richiede un
criterio d’indistinguibilità, ma il confronto va eseguito tra l’oggetto sotto valutazione e uno o più oggetti campione per
▲
Le grandezze (fisiche e non) sono particolari proprietà, e i misurandi sono
proprietà riferite a oggetti (come: la
lunghezza di questo tavolo). L’abituale notazione funzionale mette in evidenza la relazione tra la proprietà
generale, lunghezza, e le sue corrispondenti proprietà individuali, lunghezza(tavolo).
Per definizione, due proprietà individuali, x e y, della stessa specie (cioè istanze
della stessa proprietà generale) sono
reciprocamente confrontabili, e la più
semplice condizione di confrontabilità è
quella d’indistinguibilità: se due proprietà x e y sono della stessa specie allora si
può assumere che esse siano o indistinguibili, x = y, o distinguibili, x ≠ y. Per
molte proprietà questa informazione può
essere raffinata, per esempio scoprendo
che il confronto può essere effettuato
anche in termini ordinali, e quindi che se
x ≠ y allora x < y o x > y, oppure anche
a seguito di un’operazione di concatenazione + di proprietà, e quindi che
x = y+y+...+y ripetuta n volte, in breve
x = n y. D’altra parte, per certe proprietà l’unico confronto che fornisce informazione significativa è quello d’indistinguibilità (per esempio di due oggetti si può
accertare se abbiano o meno la stessa
forma, ma in generale non ha senso
chiedersi quale dei due abbia la forma
maggiore), che consente di stabilire una
classificazione, ma non un ordinamento
né tanto meno delle distanze tra le proprietà stesse. Classificatorie sono appunto le proprietà per cui l’indistinguibilità è
la sola relazione significativa.
GLI
ALTRI TEMI
la valutazione.
Supponiamo appunto di esserci dotati
di un insieme di oggetti ki tale che:
• [scelta dell’insieme dei campioni]: tutti
gli oggetti ki hanno la proprietà generale X (per esempio, tutti hanno una
forma geometrica), essendo quindi
xi = X(ki) la proprietà individuale di ki
per X, e per ogni coppia di oggetti ki e
kj, i ≠ j, X(ki) ≠ X(kj), cioè gli oggetti sono
tra loro tutti distinguibili rispetto a X;
• [taratura dell’insieme dei campioni]: a
ogni proprietà xi è associato un identificatore univoco vi in un insieme V attraverso una funzione iniettiva f: {xi} → V,
cioè tale che a proprietà distinguibili
sono associati identificatori diversi (se
xi ≠ xj allora f(xi) ≠ f(xj): a forme diverse
sono associati identificatori di forma
diversi). Tali identificatori sono utilizzati
come valori per la proprietà X.
La funzione f sintetizza in sé le due attività (scelta del dominio; associazione di
valori ad argomenti / proprietà), e per
questo nelle teorie rappresentazionali
della misurazione [Krantz et al. 1971] è
chiamata scala di misura. Nel caso
della valutazione nominale il concetto di
scala, che richiama elementi in successione ordinata, pare improprio, ma in
assenza di un termine alternativo consolidato lo manterrò, nella forma “scala di
valutazione”. Il termine “valutazione
nominale” dovrebbe allora essere riservato ai processi in cui il confronto per indistinguibilità è basato su una scala di
valutazione, dunque su un insieme di
campioni tarati, secondo la procedura:
• si confronta l’oggetto sotto valutazione k con i diversi campioni della scala,
fino a trovare il campione ki che risulta
indistinguibile da k per la proprietà X:
X(k) = X(ki);
• si attribuisce alla proprietà X(k) il
valore f(X(ki)).
Dato un insieme K di oggetti che
hanno la proprietà X, l’applicazione
della procedura induce su K una classificazione basata su X: due oggetti
sono nella stessa classe se sono indistinguibili con uno stesso campione
della scala, così che, per transitività,
risultano appunto anche indistinguibili tra loro. Dunque ogni valutazione
nominale induce una classificazione,
mentre non ogni classificazione corrisponde a una valutazione nominale.
T_M ƒ 101
N. 02ƒ
; 2013
▲
GLI
ALTRI TEMI
di proprietà o, più in generale, per cesso potrebbero essere “tradizionalesempio una distribuzione di probabili- mente metrologici” e solamente la fase
finale è nominale / classificatoria: ci sotà sull’insieme dei valori.
no davvero ragioni sufficienti per manPer come ipotizzato finora, il confronto
tenere questi processi al di fuori dello
tra proprietà classificatorie in termini ATTRIBUZIONE DI VALORI
studio della scienza e della tecnologia
d’indistinguibilità è descritto da una A PROPRIETÀ CLASSIFICATORIE
della misurazione?
relazione di equivalenza: x = x (riflessi- E MISURAZIONE
vità); x = y se e solo se y = x (simmetria);
se x = y e y = z allora x = z (transitività). In conclusione, parafrasiamo le doman- RIFERIMENTI BIBLIOGRAFICI
La riflessività è in pratica irrilevante, e la de di apertura: l’attribuzione sperimensimmetria, per cui il confronto non tale di valori a proprietà classificatorie JCGM 200:2012, International Vocadipende dall’ordine con cui si conside- – ciò che abbiamo chiamato “valuta- bulary of Metrology – Basic and generano le proprietà, è importante ma zione nominale” – è una misurazione? ral concepts and associated terms
generalmente non critica. Delicata è Una possibile risposta è data per defi- (VIM), 3rd Edition (2008 version with
invece l’assunzione di transitività, nizione, sulla linea della tradizione: minor corrections), Joint Committee for
secondo cui l’indistinguibilità si trasferi- poiché sono misurabili solo grandezze, Guides in Metrology, 2012 (http://
sce tra confronti, una condizione che in e le proprietà classificatorie non sono www.bipm.org/en/publications/
generale non è garantita: dall’indistin- grandezze, la valutazione nominale guides/vim.html) (versione anche
guibilità di x e y e di y e z non si può non è una misurazione. Al proposito con testo in italiano: http://www.
inferire generalmente che x e z siano a noto che il VIM3 ha già rotto questa tra- ceiweb.it/it/lavori-normativiloro volta indistinguibili. In termini di va- dizione, chiamando “grandezze” le it/vim.html).
lori di proprietà, alla stessa conclusione proprietà ordinali, in contraddizione D.H. Krantz, R.D. Luce, P. Suppes, A.
si giunge supponendo che il risultato con il paradigma euclideo ma consen- Tversky, Foundations of measurement,
della valutazione sia non un singolo tendosi così di trattare di misurazione Academic Press, 3 volumi, 1971,
valore v, ma un sottoinsieme di valori ordinale.
1989, 1990.
Vi = {vi}, e assumendo che il corrispon- Se invece si focalizza – come mi pare L. Mari, S. Sartori, A relational theory of
dente dell’indistinguibilità di proprietà appropriato – sulla struttura del proces- measurement: Traceability as a solution
sia l’intersezione non nulla tra sottoin- so, si potrebbe considerare che quanto to the non-transitivity of measurement
siemi di valori: da Vi ∩ Vj ≠ ∅ e presentato sopra (1. costruzione della results, Measurement, 40, 233-242,
Vi ∩ Vk ≠ ∅ in generale non segue che scala e 2. sua taratura; 3. confronto tra 2007.
Vj ∩ Vk ≠ ∅, una situazione chiamata oggetto e campioni; 4. attribuzione di G. Nordin, R. Dybkaer, U. Forsum, X.
appunto “catena d’intransitività”. Ciò un valore sulla base del risultato del Fuentes-Arderiu, G. Schadow, F. Pontet,
mostra che perfino una struttura sempli- confronto) non è dipendente dal tipo An outline for a vocabulary of nominal
ce come quella nominale implica un’i- della scala, e quindi si applica in prati- properties and examinations – Basic
dealizzazione perché la si possa inten- ca identicamente per la valutazione and general concepts and associated
dere come generatrice di classificazioni. nominale e la misurazione. Nel caso di terms, Clin Chem Lab Med, 48, 11,
D’altra parte, proprio la semplicità di unità di misura, la scala si può costruire 1553-66, 2010.
questa scala consente di avanzare una per iterazione della concatenazione tra G.B. Rossi, Measurability, Measureipotesi generale: la non transitività nella unità, ma ciò riguarda appunto come si ment, 40, 545-562, 2007.
relazione d’indistinguibilità tra proprie- costruisce la scala, non come si misura. S.S. Stevens, On the theory of scales of
tà è la caratteristica fondamentale del- Il “confronto diretto” con la grandezza measurement, Science, 103, 2684,
l’incertezza di valutazione / misura (è realizzata da un campione non è fre- 677-680, 1946.
questa un’occasione preziosa per ricor- quente per la misurazione, più tipicadare il contributo di Sergio Sartori all’i- mente effettuata mediante la trasduziodea che il sistema metrologico sia inter- ne della grandezza sotto misurazione
pretabile come uno strumento per gesti- in un’indicazione, ma ciò appare un
Luca Mari è Professore
re strutturalmente tale non transitività fatto d’implementazione. D’altra parte,
Ordinario di scienza della
[Mari, Sartori 2007]).
anche la valutazione nominale può
misurazione presso la
A meno di questioni solo lessicali, la essere, e spesso è, il risultato di procesScuola di Ingegneria Indudefinizione del VIM3 di ‘risultato di si complessi, che operano in input su
striale dell’Università Catmisura’, “insieme di valori attribuiti a un proprietà o specificamente grandezze
taneo – LIUC di Castellanmisurando congiuntamente a ogni altra e producono in output appunto una proza. È chairman del TC 1,
informazione pertinente disponibile”, si prietà classificatoria, per esempio nella Terminology, dell’International Electrotechapplica dunque perfettamente anche logica del pattern recognition o dell’iden- nical Commission (IEC) ed esperto per
alla valutazione nominale: il risultato di tificazione di entità. In casi di questo l’IEC nel Joint Committee for Guides in
una valutazione è un insieme di valori genere, tutti i passi intermedi del pro- Metrology (JCGM) – WG 2 (VIM).
INCERTEZZA
NELL’ATTRIBUZIONE DI VALORI
A PROPRIETÀ CLASSIFICATORIE
T_M ƒ 102
GLI
ALTRI TEMI
▲
MISURE PER LA SICUREZZA STRADALE
P. Daponte*, L. De Vito*, M. Pappone*,**, M. Riccio*, L. Viglione*
Una barriera attiva
per il monitoraggio
di parametri ambientali e di sicurezza stradale
AN ACTIVE GUARDRAIL FOR MONITORING ENVIRONMENTAL
AND ROAD SAFETY PARAMETERS
The paper deals with a Wireless Active Guardrail System (WAGS), that
adds to the typical passive protection of guardrails the capability of monitoring both traffic and environment along the roads. Such system can prevent disasters, as it can provide user-friendly and low-delay safety warning
signs to travelers in presence of possible collisions between vehicles and
guardrails. Moreover it is useful to monitor the traffic and the pollution levels
along the road in a distributed manner.
RIASSUNTO
Nell’articolo è descritto un sistema innovativo di barriera stradale che non
solo è caratterizzato dalla tradizionale funzione di protezione passiva, ma
consente anche di prevenire incidenti stradali, poiché è in grado di fornire
tempestivamente ai conducenti segnalazioni in caso di collisioni tra veicoli
e barriere. Il sistema permette inoltre di monitorare il traffico e i livelli d’inquinamento lungo la strada in modo distribuito.
IL MONITORAGGIO
DI PARAMETRI AMBIENTALI
E DI SICUREZZA STRADALE
Fra tutti i sistemi di trasporto, quello su
strada è di gran lunga il più pericoloso, e quello che paga il prezzo più alto
in termini di vite umane. Una barriera
di sicurezza stradale (guard rail) può
essere in grado di contenere e ridirigere i veicoli uscenti dalla carreggiata, di
proteggerli dagli alberi e da altri pericoli presenti sulle strade, autostrade,
ponti o gallerie. Tuttavia, essa non costituisce un sistema anticollisione. Attualmente, il numero di veicoli coinvolti
in incidenti stradali è in crescita, e il
più delle volte lo scontro avviene proprio tra il veicolo e la barriera [1].
Un altro aspetto direttamente legato al
trasporto su strada, che incide significativamente sulla salute umana e che
dunque occorre considerare e analizzare è l’inquinamento da traffico veicolare. Nel corso delle ultime due decadi, il numero di veicoli circolanti
sulle strade europee è incrementato, e
proporzionalmente lo è anche la
quantità di sostanze inquinanti da essi
prodotto. Inoltre, tutti coloro che vivono vicino o nelle grandi città o in prossimità di strade ad alto traffico sono
esposti a rischi ancora più elevati e, a
lungo termine, a rischi di malattie legate all’inquinamento. In molte città europee, le malattie cardiovascolari e
respiratorie nelle persone che sono
state esposte a sostanze inquinanti come il monossido di carbonio, biossido
di azoto, biossido di zolfo e particolato è in aumento [2].
Al fine di ridurre i rischi per la salute
umana causati dal traffico veicolare,
una delle priorità della politica nazionale in materia di mobilità è il miglioramento, la riorganizzazione e il potenziamento degli standard di sicurezza
delle strade, dei veicoli e dei sistemi di
emergenza. A tal proposito si manifesta la necessità di sviluppare un sistema
di monitoraggio per la sicurezza del
trasporto su strada e per l’inquinamento prodotto dal traffico veicolare.
L’idea di misurare le sostanze inquinanti che vengono prodotte dai veicoli su strada è tecnicamente fattibile, e
produrrebbe una fonte più affidabile
d’informazioni rispetto alle statistiche
T_M
ordinarie ottenute sulla base di modelli matematici. Le tipiche stazioni di
monitoraggio ambientale installate in
città sono costose e richiedono software specializzati; inoltre sono isolate e limitate a una piccola zona di monitoraggio. Relativamente a questo ultimo aspetto, è necessario considerare che ciò può comportare una scarsa
rappresentatività dei dati sperimentali
misurati. Occorre, infatti, tener presente che gli inquinanti presentano
una grande variabilità spaziale in relazione all’intensità del traffico principale sulle strade urbane.
Un buon sistema di monitoraggio
ambientale per le città dovrebbe essere in grado di attuare una copertura
ottimale da un punto di vista sia spaziale, sia temporale, e quindi di analizzare in modo continuo e automatico le principali fonti d’inquinamento
dell’aria e segnalarne i livelli di valori pericolosi.
Negli ultimi anni sono stati pubblicati
numerosi lavori di ricerca che propongono sistemi di monitoraggio per
la sicurezza del traffico e per l’inquinamento veicolare, in grado di coinvolgere ampie aree d’interesse. Tali
sistemi possono essere sviluppati per
evitare un imminente impatto tra auto
e guard rail, allertando il conducente.
A tal proposito vale la pena menzionare il sistema denominato RED-WINE
[5]. Questo sistema si basa su sensori
wireless utilizzati per rilevare gli incidenti sulle strade e per segnalarli ai
viaggiatori. L’obiettivo del sistema è
quello di garantire la sicurezza stradale e il controllo del traffico. Il sistema di
controllo del traffico utilizza sensori a
* Dip. di Ingegneria, Università
degli Studi del Sannio
** New Solution Enterprise srl, Benevento
daponte@unisannio.it
N.
2/13 ƒ 103
N. 02ƒ
;2013
IL PROGETTO “BARRIERA ATTIVA”
L’attività di ricerca avviata presso il
Laboratorio di Elaborazione dei Segnali e delle Informazioni di Misura
(LESIM) del Dipartimento di Ingegneria
dell’Università degli Studi del Sannio, è
finalizzata alla realizzazione di una
nuova tipologia di barriera stradale
che unisce alla tradizionale funzione di
sicurezza passiva delle funzionalità
attive capaci di rilevare (i) l’avvicinamento di veicoli alla barriera stradale,
(ii) l’inquinamento prodotto dai veicoli
in transito, (iii) la velocità degli stessi, e
(iv) il danneggiamento della barriera
stradale propagando un allarme a un
centro di controllo [3].
L’attività di ricerca si colloca nell’ambito del progetto nazionale PON dal
titolo “Studio e sviluppo di una innovativa barriera stradale basata su un
nuovo concetto di sicurezza con funzione strutturale (funzione passiva)
e funzione attiva”, ed è condotta
in collaborazione con le aziende
TECH.CON s.r.l. e CAR segnaletica
stradale S.r.l..
In considerazione dello stato attuale
dell’arte sia in Italia sia all’estero, l’obiettivo della proposta “Barriera Attiva” è l’ideazione e l’elaborazione di
un prototipo pre-industriale (proof-ofconcept) finalizzato a migliorare il
livello di qualità e sicurezza anche
ambientale delle strade italiane ed
europee, attraverso innovazioni tecnologiche che rendano le barriere
stradali un sistema attivo nella prevenzione ed eliminazione degli incidenti stradali e delle conseguenze
ambientali relative alla circolazione
di veicoli motorizzati sulla strada [4].
A tal fine, è stato previsto lo sviluppo
delle seguenti funzionalità attive innovative:
• rilievo di emissioni inquinanti (monossido di carbonio – CO, biossido di
azoto – NO2, biossido di zolfo –
SO2, polveri sottili con diametri aerodinamici equivalenti inferiori a 10 µm
e 2,5 µm – PM10 e PM2,5) dei mezzi
motorizzati attraverso sensori integrati negli organi strutturali delle barriere
stradali;
• delineazione di margine stradale
con sistemi a LED luminosi (marker
stradali);
• comunicazione in tempo reale all’ente gestore della strada di eventuale
danneggiamento di barriera stradale a
seguito di urto di mezzo motorizzato al
dato chilometro tramite un dispositivo
attivo, integrato negli elementi strutturali della barriera stradale e collegato a
un dispositivo informatico in grado di
segnalare in tempo reale ciò che è
avvenuto sulla barriera;
• comunicazione intelligente in grado di
segnalare, su appositi pannelli dissuasori, a passi adeguati, la velocità dei
mezzi in circolazione che precedono il
proprio passaggio mediante sensori di
rilevamento immediato della velocità di
circolazione in quel dato passo;
• segnalazione di avvicinamento pericoloso di mezzo motorizzato alla barriera stradale con accensione di barre
luminose a led integrate e attivate tramite sensori, in caso di avvicinamento
di un mezzo agli elementi longitudinali della barriera;
• alimentazione fotovoltaica dei sistemi attivi presenti nella barriera attraverso pannellature solari integrate in
▲
infrarossi in grado di misurare l’energia emessa dai veicoli, generata dal
riscaldamento dei motori.
Il sistema RED-WINE può fornire informazioni su collisioni auto-guardrail,
sullo stato del traffico e su alcuni parametri ambientali. Tuttavia tale sistema
presenta alcuni limiti: (i) non misura la
velocità media dei veicoli che attraversano una porzione di strada (tale
misura potrebbe essere necessaria
per il monitoraggio del traffico e,
quindi, della sicurezza stradale, e potrebbe fornire informazioni molto utili
sullo stato del traffico alla polizia e a
tutte le autorità competenti nell’ambito
dei trasporti) e (ii) non fornisce un’immediata interfaccia sul luogo di supporto ai conducenti durante il tragitto,
(ad esempio una segnalazione visiva
o acustica per evitare collisioni con il
guardrail).
Il sistema intelligente “Barriera Attiva”,
noto anche con l’acronimo inglese
WAGS (Wireless based Active Guardrail System), rappresenta la soluzione
in grado di superare i suddetti limiti.
GLI
ALTRI TEMI
ogni modulo con funzione autonoma,
in modo tale che l’eventuale danneggiamento di un modulo per incidente
stradale non privi gli altri moduli della
necessaria autonomia.
LE TECNOLOGIE DEI SENSORI
L’integrazione di sistemi di monitoraggio appropriati (sensori) nel sistema
“Barriera Attiva”, necessari a monitorare, controllare e gestire i parametri
di sicurezza e ambientali, ha richiesto
una progettazione ad hoc opportunamente ottimizzata per via dell’enorme
quantità di dati da acquisire/gestire/inviare.
Tra i sensori studiati la scelta si è orientata sulle seguenti tecnologie che meglio soddisfano alcuni fattori caratteristici (temperatura di funzionamento, risoluzione, sensibilità, cross-sensitivity,
consumo di potenza, campo di misura, vita operativa, costo):
• Sensori basati su principio ottico per
la rilevazione delle polveri sottili (PM10
e PM2,5) e su principio elettrochimico
con funzionamento amperometrico per
i gas tossici (NO2, SO2, CO);
• Sensori di accelerazione basati su
tecnologia MEMS (Micro Electro
Mechanical Systems) per la rilevazione di urti contro il guard rail.
• Sensori di velocità fotoelettrici a infrarossi impiegati per rilevare la velocità dei veicoli. Tali sensori sono in
grado di rilevare oggetti a distanze
più elevate;
• Sensori di prossimità a ultrasuoni, che
sfruttano l’emissione d’impulsi a una
frequenza di 40 kHz per rilevare la
presenza di oggetti posti nelle loro vicinanze grazie all’eco dovuta alla riflessione degli ultrasuoni da parte degli
oggetti stessi.
L’ARCHITETTURA DEL SISTEMA
Mediante l’impiego dei sensori precedentemente menzionati, e di tecnologie di comunicazione wireless, il sistema “Barriera Attiva” è in grado di
esercitare una funzione di protezione
attiva e nel suo complesso funziona
come mostrato in Fig. 1. Dalla figura
T_M ƒ 105
N. 02ƒ
; 2013
raggio ambientale e i nodi gateway.
Se un nodo gateway è fuori uso, un
nodo adiacente trasmetterà tutti i dati
al nodo gateway più vicino. Ciò è eviFigura 1 – Architettura del sistema “Barriera Attiva”
denziato in Fig. 1 con una linea di colore viola. Con i collegamenti di colore
blu sono indicate le connessioni tra i
si può notare che sono presenti tre tipi nodi gateway.
di nodi sensore wireless posizionati
direttamente sulle piastre dei guard
rail: per la sicurezza del traffico (in GLI SVILUPPI FUTURI
rosso), per il monitoraggio ambientale (in verde), e il nodo di gateway.
Il progetto “Barriera Attiva”, per il
Al fine di assicurare un’adeguata quale è prevista una durata di 36 mesi,
potenza al segnale per la trasmissione è iniziato con l’attività di definizione
dei dati, dovrebbe essere preso in con- dello stato dell’arte, analizzando le
siderazione un posizionamento ottima- tecnologie più adatte alle esigenze del
le del nodo. Nel caso di un’applicazio- progetto tra quelle offerte dal mercato.
ne in autostrada, l’intervallo di colloca- Nel prosieguo, al fine di progettare il
mento di nodi per la sicurezza del traf- tipo di architettura più idoneo alle esifico può essere compreso tra 5 e 25 m, genze operative della piattaforma, le
a seconda delle grandezze misurate. attività di ricerca si sono orientate alla
Per i nodi ambientali l’intervallo potreb- definizione della struttura complessiva
be essere compreso tra 50 e 100 m, e con l’individuazione dei principali moper i gateway potrebbe essere di circa duli che la comporranno e delle relati500 m, a seconda della tecnologia di ve interfacce di comunicazione. È precomunicazione wireless utilizzata.
vista, poi, a valle delle fasi di progettaTutti i dati trasmessi dai nodi sensori zione e realizzazione di ciascun modusono acquisiti da nodi gateway colle- lo, un’attività di sperimentazione delgati tra di loro in una topologia lineare. l’intero sistema con prove di verifica sul
Il ruolo dei nodi gateway è quello di campo.
raccogliere i dati rilevati dai nodi sensori in una determinata area, e reindirizzarli a un gateway coordinatore. I RIFERIMENTI BIBLIOGRAFICI
nodi gateway coordinatori, provvedono
a trasmettere tutti i dati ricevuti a un ser- 1. P. Daponte, L. De Vito, F. Picariello,
ver. Infine, gli stessi vengono inviati a un I. Tudosa, S. Rapuano, “Wireless sensistema di monitoraggio tramite colle- sor network for traffic safety”. Published
gamenti Internet a banda larga. Occor- on Proc. of IEEE Workshop on Envire precisare che sono stati utilizzati sen- ronmental, Energy, and Structural
sori wireless anziché cablati per privile- Monitoring Systems, Perugia, Italy,
giare aspetti quali scalabilità, flessibilità Sept. 2012.
e bassi costi di realizzazione.
2. L. De Vito, V. Cocca, M. Riccio, I.
Per quanto riguarda le tecnologie ado- Tudosa, “Wireless active guardrail
perate per la comunicazione tra senso- system for environmental measureri, e tra i sensori e i gateway, sono sta- ments”. Published on Proc. of IEEE
te ricercate, adoperate e sviluppate tec- Workshop on Environmental, Energy,
nologie tali da ridurre il consumo ener- and Structural Monitoring Systems,
getico dei sensori. Nella Fig. 1 le linee Perugia, Italy, Sept. 2012.
rosse indicano i collegamenti tra i nodi 3. M. Pappone, L. Viglione, “Progetsensori per sicurezza del traffico, men- tazione di un sistema di misura per
tre le linee sottili in giallo rappresenta- una innovativa barriera stradale”. Atti
no una diramazione tale da evitare un del Congresso Nazionale GMEE,
collegamento con un nodo guasto per Monopoli, Italia, Settembre 2012.
realizzarne uno con il successivo. Le li- 4. Università del Sannio, CAR Segnanee verdi specificano le connessioni tra letica Stradale S.r.l., Tech con S.r.l.,
i nodi sensori wireless per il monito- “Barriera attiva – studio e sviluppo di
T_M ƒ 106
una innovativa barriera stradale basata su un nuovo concetto di sicurezza
con funzione strutturale (funzione passiva) e funzione attiva”, Progetto di
ricerca P.O.N. – Ricerca e Competitività 2007-2013.
5. RED-WINE, [Online]. Available:
www.sistrasrl.it.
Pasquale Daponte è
Professore Ordinario di
“Elaborazione dei Segnali e Informazioni di Misura” presso la Facoltà di
Ingegneria dell’Università
del Sannio in Benevento.
È President Elected dell’IMEKO e coordinatore dell’IMEKO Working Group
on ADC and DAC Metrology.
Luca De Vito è Ricercatore della Facoltà di Ingegneria
dell’Università
degli Studi del Sannio.
Svolge il suo lavoro di
ricerca nell’ambito delle
misure sui sistemi di telecomunicazione e dei convertitori A/D e
D/A.
Marta Pappone è laureata in Ingegneria Energetica. Svolge il suo lavoro di assegnista di ricerca
nell’ambito delle misure
sugli impianti elettrici e
sul monitoraggio ambientale presso l’Università degli Studi del
Sannio.
Maria Riccio è laureata
in Ingegneria Informatica. Svolge il suo lavoro di
assegnista di ricerca
presso l’Università degli
Studi del Sannio nell’ambito delle tecnologie e le
metodologie di enhanced learning.
Liliana Viglione è laureata in Ingegneria dell’Automazione. Svolge il
suo lavoro come assegnista di ricerca presso l’Università degli Studi del
Sannio occupandosi di
progettazione di sistemi di monitoraggio ambientale.
GLI
ALTRI TEMI
▲
PREMIO HBM AD AFFIDABILITÀ & TECNOLOGIE 2013
Luigi Battista
Misura del flusso
nella ventilazione polmonare
Un sistema innovativo in fibra ottica più robusto alle fluttuazioni di intensità
A NOVEL FIBER-OPTIC SENSING TECHNIQUE FOR FLOW
MEASUREMENT DURING NEONATAL MECHANICAL VENTILATION
This paper reports the development of an optical fiber flow sensor for neonatal mechanical ventilation. The sensor is based on a novel fiber-optic sensing technique allowing it to be less sensitive to light intensity fluctuations
independent by the measurand than intensity-based sensors.
RIASSUNTO
Nel presente lavoro viene descritta la realizzazione di un sensore di flusso
in fibra ottica per la ventilazione polmonare neonatale. Il sistema di misura
è basato sull’impiego di un principio di funzionamento innovativo che permette, rispetto ai sensori basati sulla modulazione dell’intensità, la riduzione degli errori dovuti alle fluttuazioni dell’intensità luminosa indipendenti
dal misurando.
LA MISURA DEL FLUSSO
DURANTE LA VENTILAZIONE
POLMONARE NEONATALE
La misura del flusso durante la ventilazione polmonare praticata nelle
unità di terapia intensiva neonatale
è di cardinale importanza in quanto, anche per via delle piccole dimensioni dei pazienti (la massa dei
neonati prematuri è tipicamente
compresa tra qualche centinaio di
grammi e qualche kilogrammo), è
assolutamente necessario monitorare accuratamente la quantità di miscela gassosa erogata dal ventilatore al neonato al fine di ridurre il rischio di barotraumi causati da una
ventilazione non ottimale.
La maggior parte dei sensori di flusso
commerciali si basa su un principio di
funzionamento elettrico o elettromagnetico: sono pertanto soggetti alle
interferenze elettromagnetiche, e il segnale sensoriale è quindi esposto a
errori. Inoltre, perché tali sensori siano impiegabili in ambito clinico, il costruttore deve adottare una serie di
accorgimenti tecnici al fine di garantire la sicurezza elettrica per il paziente e gli operatori.
Al fine di ridurre tali inconvenienti,
presenti non solo nella ventilazione
polmonare ma anche nella maggior
parte degli ambiti biomedici, sono
stati proposti molteplici sistemi di misura in fibra ottica per applicazioni
medicali [1]. Infatti i sensori in fibra
ottica, essendo caratterizzati da immunità alle interferenze elettromagnetiche e da un elevato grado d’isolamento elettrico [2], consentono rispettivamente di ridurre gli errori dovuti
alle interferenze elettromagnetiche
(presenti, ad esempio, durante un esame di risonanza magnetica o durante
l’esecuzione di un intervento di elettrochirurgia praticato con elettrobisturi) e di ridurre le problematiche
inerenti la sicurezza elettrica, in
quanto sono necessari, da parte del
costruttore, minori accorgimenti tecnici per garantire tale condizione di
sicurezza.
La maggior parte dei sensori in fibra
ottica proposti sono basati sull’impiego di reticoli di Bragg (Fibre
Bragg Grating, FBG) e sulla modulazione d’intensità luminosa (intensitybased sensors): i primi necessitano
dell’impiego di componenti quali
analizzatore di spettro ottico o d’interrogatore di FBG, che richiedono
un certo investimento (tipicamente
T_M
tra circa i 20.000 € e 40.000 €) e
sono caratterizzati da una velocità
di scansione della lunghezza d’onda non sempre adeguata [2]; d’altra
parte, hanno il vantaggio di essere
basati sulla variazione della lunghezza d’onda della radiazione trasmessa/riflessa e, conseguentemente, sono immuni dagli errori dovuti
alle variazioni d’intensità luminosa
indipendenti dal misurando. I secondi, invece, sono tipicamente economici e costruttivamente semplici, ma
hanno lo svantaggio di essere affetti
dagli errori dovuti alle variazioni
d’intensità luminosa indipendenti
dal flusso.
Presso il Laboratorio di misure meccaniche, termiche e collaudi dell’Università degli Studi Roma Tre, è
stato realizzato un sistema in fibra
ottica per la misura del flusso basato su un principio di funzionamento
innovativo che consente di ottenere,
pur mantenendo una configurazione sensoriale semplice ed economica, una elevata robustezza alle
variazioni d’intensità luminosa indipendenti dal misurando. Inoltre,
come evidenziato nei paragrafi
seguenti, tale sistema di misura è
stato sviluppato per la misura dei
valori di portata volumetrica d’aria
tipicamente incontrati nell’ambito
della ventilazione polmonare neonatale [3-4].
Dip. di Ingegneria, Università
degli Studi Roma Tre
luigi.battista@uniroma3.it
luigi-battista@virgilio.it
N.
2/13 ƒ 107
N. 02ƒ
; 2013
LA MISURA DEL PROFILO D’INTENSITÀ LUMINOSA
PER RIDURRE GLI EFFETTI
DELLE FLUTTUAZIONI OTTICHE
Il sistema di misura realizzato è costituito da una fibra ottica disposta trasversalmente in un condotto, con una estremità incastrata e con l’altra libera (Fig. 1). La fibra ottica
viene deflessa per azione del flusso presente all’interno del
condotto: misurando lo spostamento dell’estremità libera
della fibra ottica, è possibile risalire al flusso di processo.
Figura 1 – Schema del sensore di flusso.
(a) In corrispondenza di un flusso Q nullo, viene individuata
una posizione di riferimento corrispondente alla posizione
del fotodiodo caratterizzato dal maggiore valore d’intensità luminosa
misurata. (b) Quando il flusso varia (Q≠0), la fibra ottica si muove
e di conseguenza anche il valore massimo della distribuzione
d’intensità luminosa si sposta dalla sua iniziale posizione
di riferimento lungo la direzione dell’array
La misura di tale spostamento può essere ottenuta
mediante l’impiego di una scheda di acquisizione connessa a un array lineare di 128 fotodiodi, posizionato
di fronte all’estremità libera della fibra ottica emettitrice
al fine di misurare il profilo d’intensità all’uscita della
fibra stessa. Tale profilo, rilevato mediante l’array di
fotodiodi connesso alla scheda di acquisizione, è caratterizzato da un valore massimo d’intensità che trasla
lungo l’array di fotodiodi in funzione del valore di flusso presente nel condotto: la posizione del fotodiodo
maggiormente illuminato dell’array di fotodiodi è quindi
correlata al flusso (Fig. 1).
Il principio di funzionamento è caratterizzato dal fatto
che l’informazione sensoriale (in questo caso, il flusso)
è contenuta all’interno della distribuzione d’intensità
luminosa e della posizione in cui si misura il suo valore
massimo, che non dipende né dal livello totale di luce
(nel caso in cui il valore d’intensità luminosa rilevata è
al di sopra della soglia di rumore) né dalle fluttuazioni
d’intensità luminosa indipendenti dal misurando. Pertanto, contrariamente ai sensori basati sulla modulazione dell’intensità luminosa, se quest’ultima varia durante
un flusso costante, il valore massimo del profilo d’intensità cambia, ma la posizione del fotodiodo dell’array
maggiormente illuminato rimane pressoché invariata,
confermando l’indipendenza del flusso misurato dalle
variazioni d’intensità luminosa indipendenti dal misurando.
N. 02ƒ
;2013
▲
GLI
ALTRI TEMI
LA CATENA DI MISURA
PER RILEVARE IL PROFILO
D’INTENSITÀ LUMINOSA
Al fine di verificare il funzionamento
del sistema proposto, sono state condotte prove sperimentali con la catena di misura illustrata in Fig. 2. La
luce emessa da una sorgente L (ad
esempio un LED) è collimata all’interno di una fibra ottica mediante un
collimatore asferico C; la luce si propaga all’interno della fibra ottica OF,
fuoriesce dall’estremità libera della
fibra ottica stessa e si proietta sulla
superficie sensibile dell’array di fotodiodi A. L’array A converte il profilo
d’intensità incidente su di esso in un
segnale elettrico, che è successivamente acquisito per mezzo di una
scheda di acquisizione AC che lo
invia a un laptop PC, sul quale è
impiegato un software per acquisizione ed elaborazione dati: la posizione del fotodiodo maggiormente
illuminato dell’array, ottenuta mediante l’elaborazione digitale dei
dati, viene poi correlata al flusso Q
presente all’interno del condotto P.
Figura 3 – Risultati delle misurazioni con il sensore di flusso in fibra ottica:
profili d’intensità rilevati dall’array di fotodiodi A e acquisiti con la scheda AC
per diversi valori di flusso
Il modulo di uscita digitale della scheda AC può essere utilizzato al fine di
generare i segnali di Serial Input (segnale d’inizio scansione dell’array di
fotodiodi) e di Clock, necessari per
garantire la corretta temporizzazione
dell’array di fotodiodi.
Le prove sperimentali sono state
effettuate per diversi valori di flusso
che sono stati impostati regolando la
pressione di uscita
di un compressore in
modo che un sensore di flusso di riferimento RF connesso
alla stessa scheda di
acquisizione AC e
disposto in serie al
sensore di flusso in
fibra ottica proposto, indicasse il valore di flusso stabilito
per condurre la prova sperimentale.
GLI ESPERIMENTI
ESEGUITI
Figura 2 – Schema della catena di misura (non in scala).
L: LED impiegato per alimentare la fibra ottica;
OF: fibra ottica; AC: scheda di acquisizione dati;
C: collimatore asferico; P: condotto;
PC: laptop; A: array di fotodiodi
Mediante l’esecuzione di prove sperimentali condotte con
la catena di misura
indicata in Fig. 2, si
è verificato che il
sistema di misura
proposto è in grado
di misurare flussi
fino a 18 l/min, ossia i valori di portata volumetrica normalmente incontrati nella ventilazione polmonare
neonatale e con pazienti di massa
fino a 10 kg [5]. In Fig. 3 sono mostrati i profili d’intensità luminosa
per diversi valori di flusso, ottenuti
acquisendo con la scheda AC l’uscita dell’array di fotodiodi.
Successivamente la stessa catena di
misura è stata impiegata per effettuare acquisizioni di dati anche durante
prove spirometriche e durante prove
eseguite con ventilatori polmonari
neonatali (Fig. 4): i risultati che emergono dalle prove sperimentali mostrano che le misure ottenute con il sensore di flusso in fibra ottica sono in accordo con quelle ottenute mediante
l’impiego del sensore di flusso di riferimento.
LA PROPOSTA DI UN NUOVO
PRINCIPIO DI FUNZIONAMENTO
Nel presente lavoro si è descritto il
funzionamento di un sensore di flusso
in fibra ottica per applicazioni di ventilazione polmonare neonatale basato
su un principio di funzionamento
innovativo che consente l’immunità
alle variazioni d’intensità luminosa
indipendenti dal misurando, in quanto
il dispositivo è basato su una tecnica
differenziale che prevede la misura
del profilo d’intensità emesso da una
fibra ottica.
T_M ƒ 109
NEWS
▼
N. 02ƒ
; 2013
▲
GLI
ALTRI TEMI
NUOVO TRASDUTTORE
DI DEFORMAZIONE
AD ALTA SENSIBILITÀ
Figura 4 – Acquisizioni consecutive dell’uscita dell’array di fotodiodi
durante la prova respiratoria; i risultati ottenuti considerando
più scansioni consecutive mostrano una forma d’onda caratterizzata
dall’alternanza tra inspirazione ed espirazione
Sebbene sia stato sperimentalmente
verificato un accordo tra le misure
ottenute con il sensore di flusso in
fibra ottica e quelle ottenute mediante l’impiego del sensore di flusso di
riferimento (sia durante prove spirometriche che durante prove eseguite, in ambiente non strutturato, con
ventilatori polmonari tipicamente utilizzati nelle terapie intensive neonatali), sono in corso di sviluppo ulteriori configurazioni sensoriali per
migliorare le caratteristiche statiche
e dinamiche del sistema di misura
considerato.
Instruments, Vol. 84 (3), 035005,
2013.
4. L. Battista, A. Scorza, S.A. Sciuto,
“Preliminary evaluation of a simple
optical fiber measurement system for
monitoring respiratory pressure in
mechanically ventilated infants”,
Proc 9th IASTED Int Conf on Biomedical Engineering, pp. 443-449,
2012.
5. U. Frey, J. Stocks, A. Coates, P. Sly and
J. Bates,“Specifications for equipment
used for infant pulmonary function
testing”, Eur Respir J., Vol. 16, pp.
731-740, 2000.
RIFERIMENTI BIBLIOGRAFICI
1. P. Rolfe, F. Scopesi and G. Serra,“
Advances in fibre-optic sensing in
medicine and biology” Meas. Sci.
Technol., Vol.18, pp.1683-1688,
2007.
2. B. Lee, “Review of the present status of optical fiber sensors”, Optical
Fiber Technology, Vol. 9, pp. 57-79,
2003.
3. L. Battista, A. Scorza, S.A. Sciuto,
“An air flow sensor for neonatal
mechanical ventilation application
based on a novel fiber-optic sensing
technique”, Review of Scientific
T_M ƒ 110
Luigi Battista si è laureato in Ingegneria Biomedica nel 2009. Attualmente sta concludendo il
Dottorato di Ricerca in
Ingegneria presso il Laboratorio di Misure Meccaniche, Termiche e Collaudi dell’Università di Roma Tre, è assegnista di ricerca
presso l’Istituto Nazionale di Ottica del
CNR ed è docente a contratto di Misure
e collaudo di macchine e impianti elettrici. Si occupa principalmente di sensori in fibra ottica, strumentazione biomedica e misure in ambito biomedico.
La misurazione della forza nelle macchine è straordinariamente precisa, se i sensori di forza sono montati direttamente
nel flusso della forza. In questo caso,
però, la macchina deve essere adattata
al sensore, operazione non sempre realizzabile.
I sensori di deformazione rappresentano
un’alternativa collaudata a tale scopo: essi
sfruttano le deformazioni degli oggetti di
misura nel momento dell’applicazione
della forza, ad esempio nei compiti di
monitoraggio per il controllo degli edifici.
Tali deformazioni sono proporzionali alla
forza e misurabili tramite i trasduttori di
deformazione. I sensori basati su estensimetri offrono, in moltissimi casi, un’economica alternativa ai sensori di forza integrati. Il loro limite, però, è rappresentato
dalle deformazioni minime: un esempio è
costituito da quegli oggetti che, se sollecitati, presentano solo deformazioni di scarsa entità, quali presse, impianti di saldatura o macchine per crimpare, oppure nei
casi in cui lo spazio disponibile è limitato.
Con il nuovo trasduttore di deformazione
piezoelettrico CST/300, HBM supera tali
limiti. L’elevata sensibilità di circa 50
pC/N assicura segnali di uscita molto elevati e, perciò, una buona riproducibilità
anche in ambienti di misura critici. Le
deformazioni minime di 10 µm/m o meno
o le deformazioni nominali fino a 300
µm/m possono essere rilevate immediatamente senza difficoltà. Con un’adeguata
taratura, è possibile determinare senza
problemi le forze applicate. Fissato con
un’unica vite e dotato di una lunghezza di
soli 47 mm, il trasduttore occupa pochissimo spazio ed è resistente nei confronti
degli influssi esterni, quali i movimenti dei
cavi o i campi elettromagnetici.
Per ulteriori informazioni:
www.hbm.com/it/menu/prodotti/
trasduttori-e-sensori
GLI
ALTRI TEMI
▲
DIETRO L’ANGOLO DELL’INNOVAZIONE
a cura di Franco Docchio
La Fotonica
Il Convegno TecFoTM di Affidabilità & Tecnologie 2013, parte I
BEYOND THE CORNER OF INNOVATION: PHOTONICS
In this paper and in the next ones (Tutto_Misure 3-4/2013) we present a
summary of TecFo™, one of the special meetings that enriched the 2013
edition of the event Affidabilità & Tecnologie, held in Turin on April 17-18,
2013. The speakers who attended the event provided a compendium of the
R&D activity in Photonics and Optoelectronics in Italy, and demonstrated the
impressive vitality of basic and applied research, as well as of the industrial
development in the field. Particular emphasis is given to the field of measurements, and of technology transfer.
RIASSUNTO
In questo, e nei prossimi due numeri della rivista, viene presentato un riassunto
del Convegno TecFo™, uno dei convegni specialistici che hanno arricchito l’edizione 2013 di Affidabilità & Tecnologie (Torino, 17-18 Aprile 2013). I relatori che si sono succeduti sul palco hanno tracciato un quadro delle ultime innova zioni riguardanti le tecnologie fotoniche e optoelettroniche, testimoniando la
vitalità della ricerca, sviluppo e industrializzazione italiana nel settore, con particolare riferimento alle misure e alle possibilità di trasferimento tecnologico.
INTRODUZIONE
Franco Docchio
(Università di Brescia e Tutto_Misure)
Una delle rubriche care al precedente
Direttore di Tutto_Misure, il compianto
Prof. Sergio Sartori, si intitolava “Che
cosa c’è dietro l’angolo”. In questa
rubrica erano messi in luce i più recenti e promettenti sviluppi nei campi
della metrologia, delle misure e della
relativa strumentazione, nonché della
normativa nel settore. Il titolo della rubrica è stato qui ripreso per una serie
di articoli che riassumono i contenuti
dei Convegni specialistici dell’evento
Affidabilità & Tecnologie, Edizione
2013 (Torino, 17-18 Aprile 2013). In
questi Convegni viene fatto il punto
sullo stato dell’arte nei diversi campi
settori di interesse per i visitatori dell’evento.
Uno degli Eventi, con annessa sezione espositiva, è TecFo™, Convegno
dedicato alle Tecnologie Fotoniche. La
fotonica, come viene ribadito dalla
Co-Organizzatrice (insieme allo scrivente) dell’evento, la Prof. Roberta
Ramponi, sta assumendo un ruolo
Leader nel contesto della R&D europea e mondiale, grazie agli innumerevoli settori applicativi che la vedono
protagonista. Anche in Italia la fotonica è rappresentata da Università,
Centri di Ricerca e Imprese, che posizionano il nostro Paese ai vertici nel
panorama mondiale. I relatori sono
stati selezionati tra coloro che meglio
potessero testimoniare la vitalità della
ricerca e del trasferimento tecnologico
(Brevetti, start-up) nel settore.
Un breve sunto delle interessanti relazioni che si sono succedute nell’ambito del Convegno è qui presentato:
T_M
siamo certi che i lettori della Rivista vi
troveranno spunti per possibili collaborazioni con i relatori e le loro istituzioni, e le imprese che operano nel
settore troveranno le motivazioni per
iniziare o confermare la partecipazione alla prossima edizione dell’evento
arricchendo ancor più l’offerta di tecnologia, ricerca, e produzione di strumentazione optoelettronica, così come è avvenuto negli anni scorsi nel
campo della Visione industriale.
Buona lettura!
PRESENTAZIONE DELL’EVENTO
Roberta Ramponi
(Politecnico di Milano)
Questo convegno, alla sua seconda
edizione, vuole mettere a confronto il
mondo scientifico-accademico della
ricerca avanzata nel settore delle tecnologie fotoniche con le applicazioni
Università di Brescia,
Presidente Comitato Scientifico
e Industriale di A&T e
Direttore Responsabile di Tutto_Misure
franco.docchio@ing.unibs.it
N.
2/13 ƒ 111
N. 02ƒ
;2013
Programma
Tecnologie Fotoniche:
applicazioni innovative
dalla ricerca per l’industria
1. Introduzione del Moderatore –
Roberta Ramponi (Politecnico di Milano, EOS)
2. Microscopio olografico a contrasto di fase per l’ispezione e
caratterizzazione di materiali e processi: dalla microelettronica alla biomicrofluidica – Lisa Miccio (INO-CNR
– Napoli)
3. Imaging nel vicino infrarosso: applicazioni e tecnologie – Lorenzo Colace (Università di Roma 3)
4. Silicon Photonics: le potenzialità, i limiti e le opportunità per gli utenti – Andrea Melloni (DEI – Politecnico
di Milano)
5. La sfida della celle fotovoltaiche di plastica – Guglielmo Lanzani (CNST-IIT Milano)
6. Le tecnologie fotoniche per rivelare
qualità e sicurezza alimentare –
Anna Grazia Mignani, Leonardo
Ciaccheri, Andrea Azelio Mencaglia
(CNR-IFAC Sesto Fiorentino)
7. Sistema di generazione di segnali
per l’identificazione di molecole
di elevato impatto ambientale
e biologico – Fabio Baronio, Matteo
Conforti, Mario Marangoni, Costantino De Angelis, Giulio Cerullo (Università di Brescia, Politecnico di Milano)
8. L’arte vista sotto una nuova
luce: la fotonica per lo studio e la
conservazione del patrimonio storico
artistico – Gianluca Valentini (Dip.
Fisica – Politecnico di Milano)
9. AMPLE: Un sistema LIDAR per la
realizzazione di mappe 3D delle proprietà ottiche del particolato e della
loro evoluzione temporale nell’area
urbana di Pechino – Giuliano Piccinno (Italia-Cina Joint Research Center
for Laser Remote Sensing, – ALA
Advanced LIDAR Applications srl,
Napoli – Bright Solutions srl, Cura
Carpignano PV)
10. Conclusioni – Franco Docchio
(Università di Brescia)
MICROSCOPIA OLOGRAFICA
A CONTRASTO DI FASE
PER L’ISPEZIONE
E CARATTERIZZAZIONE
DI MATERIALI E PROCESSI:
DALLA MICROELETTRONICA
ALLA BIO-MICROFLUIDICA
L. Miccio, A. Finizio, S. Grilli,
M. Paturzo, P. Memmolo, F. Merola,
V. Bianco, M. Matrecano, P. Ferraro
(Istituto Nazionale di Ottica, CNR)
▲
industriali. Intende dunque fare luce
su argomenti che, come si vede dal
programma, sono abbastanza variati,
e possono costituire i settori di maggior impatto in termini di potenzialità
di trasferimento tecnologico.
La fotonica è stata, negli ultimi anni,
inclusa tra le cosiddette tecnologie
chiave abilitanti dall’Unione Europea, per cui è una delle tecnologie su
cui maggiormente si punta a livello
europeo in termini di sviluppo industriale, e sarà sicuramente uno dei settori cardine nel prossimo Programma
Quadro della UE, denominato Horizon 2020. In Horizon 2020 saranno potenziate le tecnologie chiave
abilitanti, come supporto, da un lato,
della competitività industriale, ma con
una forte attenzione all’utilizzatore e
alla risposta alle sfide della società
moderna in termini di miglioramento
della società e di sviluppo sostenibile.
Sicuramente in queste applicazioni la
fotonica può giocare un ruolo fondamentale. Alcuni esempi di settori particolarmente significativi verranno presentati in questo convegno.
GLI
ALTRI TEMI
L’olografia è una tecnica interferometrica relativamente recente: la pubblicazione di Dannis Gabor del 1948
[1] è storicamente riconosciuta come
il suo inizio. Dai primi set-up sperimentali a oggi sono stati implementati molteplici miglioramenti, e ancora
oggi l’olografia è considerata una tecnica up-coming.
L’olografia è una tecnica di imaging
in ottica coerente composta da due
fasi; la prima è la registrazione di un
pattern d’interferenza, la seconda
riguarda la formazione dell’immagine. In olografia classica l’ologramma
è registrato su una lastra fotografica e
la formazione dell’immagine si ottiene
per diffrazione dalla lastra. In olografia digitale (OD) la registrazione delle
immagini avviene su un dispositivo
elettronico (CCD o CMOS), mentre la
ricostruzione dell’immagine dell’oggetto è operata numericamente con
programmi che emulano il processo
di diffrazione della luce. Il passaggio
dalla ricostruzione ottica a quella
numerica permette di avere accesso,
oltre che all’ampiezza del campo ottico, anche alla fase in modo quantitativo [2], cioè di avere mappature di
fase linearmente dipendenti dal cammino ottico della luce. È possibile
quindi gestire numericamente l’ampiezza e la fase del campo ottico
riflesso o trasmesso dal campione in
esame che può essere una cellula,
un dispositivo microelettronico o un
oggetto di dimensioni umane.
Figura 1 – La tecnica dell’OD per visualizzare oggetti immersi in fluidi torbidi.
(a) adattamento del setup sperimentale a esperimenti di micro-fluidica;
(b) confronto fra la visualizzazione in luce bianca e quella olografica
per un test-target e immagini di spermatozoi in canali microfluidici ottenuti
con il setup disegnato in (a). [Ref. 15]
T_M ƒ 113
N. 02ƒ
; 2013
Di fatto la capacità di fornire immagini di ampiezza e
a contrasto di fase rende l’OD uno strumento adeguato
in molti campi di applicazione dalla metrologia
[3,4] alla visualizzazione 3D [5]. I vantaggi derivanti dall’OD sono molteplici, dovuti soprattutto alla possibilità di operare numericamente sulle immagini. È stata
dimostrata la capacità di eliminare le aberrazioni [6-8],
operare “extended focused images” [9,10], ricavare
immagini di tipo DIC [11,12] o anche aumentare sinteticamente la risoluzione dell’apparato [13,14]. È stato
recentemente provato in campo microfluidico che l’olografia digitale può essere impiegata in casi di scarsa
visibilità come nel caso di campioni biologici immersi in
mezzi torbidi [15-17].
Un risultato di notevole interesse per la comunità è stato raggiunto quest’anno, e riguarda la possibilità di acquisire e ricostruire ologrammi di
oggetti macroscopici e di persone viventi in
condizioni di scarsa visibilità. Il risultato è stato
raggiunto utilizzando laser che emettono nella regione
dell’infrarosso [18-20] ed è stato applicato al caso di
persone nascoste da fumo e fiamme [21]. Il risultato è
stato realizzato grazie alla collaborazione tra le sezioni
di Napoli e Firenze dell’Istituto Nazionale di Ottica
(INO) del CNR.
La sezione di Napoli dell’INO da anni lavora per
ampliare i campi d’applicazione dell’OD migliorando sia i set-up sperimentali, sia gli algoritmi di ricostruzione numerica adattando di volta in volta la tecnica
alle specifiche esigenze sperimentali.
1. 35, 2112-2114 (2010).
2. Reliability of 3D imaging by digital holography at long
IR wavelength, A. Pelagotti et al, Journal of Display Technology 6, 465-471 (2010).
3. Imaging live humans through smoke and flames using
far-infrared digital holography, Locatelli et al, Opt.
Express 21 (2013)
Lisa Miccio si è laureata in Fisica con lode
all’Università Federico II di Napoli nel 2006.
Ha poi ottenuto il titolo di Dottore di Ricerca
all’Università di Firenze nel Febbraio 2010.
Opera attualmente presso l’INO-CNR. I suoi
interessi di ricerca sono nel campo dell’ottica,
le sue principali attività riguardano lo studio
delle proprietà dei materiali mediante imaging in luce
coerente.
RIVELARE QUALITÀ E SICUREZZA ALIMENTARE
CON DISPOSITIVI FOTONICI
Anna Grazia Mignani (CNR-Istituto di Fisica Applicata “Nello Carrara”, Sesto Fiorentino – FI)
La fotonica è attualmente considerata dall’Unione Europea una tecnologia-chiave abilitante, in grado cioè di
migliorare la qualità della vita del 21° secolo e di produrre un’accelerazione dell’economia. Le tecnologie foto-
T_M ƒ 114
N. 02ƒ
;2013
inoltre sviluppate tecniche di analisi
dei dati spettroscopici che consentono di estrarre più informazioni da un
unico spettro, utilizzando perciò una
sola tecnica analitica per la misura
di più parametri. Tali tecniche consentono di creare mappe bi/tridimensionali nelle quali il campione è
raffigurato da un punto rappresentativo della sua identità. L’analisi di più
campioni permette quindi la realizzazione di mappe contenenti più
punti, i quali si raccolgono o distinguono sulla base delle mutue similitudini o differenze. Qualora siano disponibili campionature di alimenti
certificati, cioè dotati di un’analitica
di riferimento ottenuta con tecniche
convenzionali, è inoltre possibile correlare i dati spettroscopici con quelli
di riferimento in maniera da realizzare modelli predittivi per un’indagine multiparametrica [4].
Dispositivi
fotonici-spettroscopici
hanno dimostrato efficacia e affidabilità per controllare la qualità e rivelare eventuali contaminazioni di
cereali [5, 6], frutta [7], prodotti lattiero-caseari [8], carni [9, 10], oli di
vario tipo [11, 12] e di molti altri alimenti [13, 14]. Anche presso l’Istituto di Fisica Applicata “Nello Carrara” del CNR sono stati progettati e
sperimentati semplici dispositivi foto-
▲
niche, inizialmente sviluppate negli
anni ’80-‘90 per il settore delle telecomunicazioni, hanno successivamente generato una moltitudine di sorgenti di luce compatte, rivelatori, microspettrometri, fibre ottiche e componenti ottici miniaturizzati, che trovano
applicazioni significative nel settore
biomedicale e manifatturiero, e in settori innovativi quali la generazione di
energia, l’illuminazione, la metrologia
e la sensoristica.
Le opportunità offerte dalla fotonica
possono essere sfruttate anche dal settore del controllo alimentare, che
sempre più richiede la disponibilità di
strumenti compatti, maneggevoli e di
costo contenuto da inserire nei processi di produzione. La spettroscopia,
quale consolidata tecnica fotonica per
l’indagine dei materiali, sta riscuotendo un particolare interesse anche per
applicazioni alimentari. Essa consente
infatti di analizzare il prodotto
rapidamente, in maniera diretta
e non distruttiva, in tempo reale
e senza utilizzare reagenti chimici. In tal senso, viene considerata
una tecnica analitica “verde”, cioè
sostenibile dal punto di vista dell’impatto ambientale [1, 2].
L’interazione tra luce e alimento permette di acquisire spettri di assorbimento, fluorescenza, o Raman, che
sono identificativi delle caratteristiche
peculiari dell’alimento stesso. Tali
spettri contengono infatti informazioni
riguardanti la composizione molecolare, e possono inoltre evidenziare
tempestivamente eventuali anomalie.
L’intera banda spettroscopica che si
estende dal visibile al vicino infrarosso (400 -2.500 nm), è utile per analisi
alimentari. Le informazioni riguardanti i pigmenti provengono dalla banda
visibile, mentre quelle riguardanti carboidrati, proteine, zuccheri, grassi e
acqua derivano dal vicino infrarosso.
In pratica, l’indagine spettroscopica ad ampio spettro costituisce una sorta di “fingerprint”
globale dell’alimento [3].
Per venire incontro all’esigenza di
interpretare spettri convoluti di difficile comprensione, contenenti una
miriade di informazioni molecolari
ridondanti e interferenti, sono state
GLI
ALTRI TEMI
nici per la verifica di qualità e sicurezza di alimenti, quali olio extra
vergine di oliva, whisky, vino, birra e
latte.
Un esempio è dato da uno strumento
che evidenzia soglie di rischio di contaminazione del latte da parte di
aflatossina M1. Come illustrato in
Fig. 2, lo strumento è di tipo portatile per poterlo utilizzare durante la
raccolta del latte. Dato che le direttive europee tollerano una concentrazione massima di aflatossina pari a
50 µg/l, tale strumento è progettato
per evidenziare e scartare campioni
eccessivamente contaminati. Essendo l’aflatossina M1 intrinsecamente
fluorescente, viene effettuata una
misura di fluorescenza eccitata con
un LED a emissione ultravioletta e
rivelata con uno spettrometro compatto. Gli spettri di fluorescenza relativi a varie concentrazioni di contaminante, opportunamente elaborati, permettono di costruire una mappa di rischio bidimensionale, nella
quale il campione di latte è rappresentato da un punto la cui collocazione indica l’appartenenza a determinate soglie di contaminazione.
Ciò rende possibile l’attribuzione
del rischio e la conseguente accettazione o meno del campione
raccolto.
Figura 2 – Rivelazione di aflatossina M1 nel latte – in alto: schema di misura per spettroscopia
di fluorescenza e sua implementazione come dispositivo portatile – in basso: spettri
di fluorescenza di campioni di latte contenenti varie concentrazioni di aflatossina M1 e relativa
mappa in grado di collocare i vari campioni in varie zone di contaminazione
T_M ƒ 115
N. 02ƒ
; 2013
Figura 3 – Rivelazione della qualità della birra – a sinistra: schema del dispositivo
che consente di effettuare spettri di assorbimento nell’ampia banda visibile e vicino infrarosso,
indipendentemente dalla torbidità e rappresentazione di una sua possibile implementazione –
in alto al centro e destra: spettri di assorbimento di birre di varie provenienze –
in basso al centro: modello predittivo per la rivelazione del contenuto alcolico –
in basso a destra: mappa identificativa delle birre di provenienza belga o altra provenienza
Un esempio di strumentazione per
applicazioni al controllo di qualità è
invece mostrato in Fig. 3, in questo
caso dedicato alla misura del contenuto alcolico della birra e alla verifica
della sua provenienza geografica. Il
campione da analizzare è contenuto
all’interno di una sfera integratrice,
alla quale sono affacciati una sorgente alogena e alcuni spettrometri compatti. Tale sistema effettua una spettroscopia di assorbimento nell’ampia
banda 400 -1.700 nm tramite luce diffusa, che risulta indipendente dall’eventuale torbidità del campione senza
dover apportare procedure di filtraggio. Gli spettri acquisiti nel vicino infrarosso permettono di ottenere un
modello predittivo per il contenuto
alcolico: un sistema simile, di tipo
compatto e configurato con una cella
di flusso può quindi essere utilizzato
per il controllo del processo di produzione della birra.
Inoltre, gli spettri acquisiti nell’intero
intervallo visibile e vicino infrarosso
permetto di creare una mappa bidimensionale per la classificazione
della provenienza geografica del prodotto. Tale mappa evidenza che le
birre di provenienza belga, grazie
alle loro qualità peculiari, si raccolgono in un gruppo nettamente distinto
rispetto al gruppo rappresentativo di
altri tipi di birre. Questa tecnica di
classificazione può essere utilizzata a
tutela del prodotto per rivelare
frodi commerciali.
Le prospettive future dei sistemi fotonici per l’industria alimentare si stanno
T_M ƒ 116
rivolgendo non solo alla realizzazione di strumenti innovativi dedicati a
migliorare produzione e controllo del
prodotto, ma anche alla realizzazione di semplici dispositivi per un’autovalutazione dell’alimento. Infatti, sempre maggiore è il desiderio dei consumatori di essere coinvolti in maniera attiva nelle scelte del prodotto. La
grande offerta commerciale di smartphone, e i loro piccoli dispositivi fotonici (LED e telecamera) già inclusi,
inducono a progettare nuove applicazioni per l’autovalutazione
dell’alimento. Ad esempio, un qualunque smartphone può leggere un
codice QR o a barre, e inviare tramite rete internet tale immagine a un database remoto contenente informazioni di qualità e tracciabilità, ottenendo
innumerevoli informazioni aggiuntive
rispetto a quelle presenti sulle etichette della confezione.
In una visione più futuristica, il LED e
la telecamera dello smartphone, e
altri piccoli dispositivi fotonici che
potranno essere in seguito integrati,
consentiranno di effettuare indagini
spettroscopiche tramite lo smartphone stesso, che opererà come un piccolo computer dotato di applicazioni per la gestione, l’elaborazione e
il confronto delle informazioni spettroscopiche che sottintendono la
garanzia di qualità e sicurezza dell’alimento.
Anna Grazia Mignani
ha conseguito la Laurea in
Fisica e il Dottorato in Controlli non Distruttivi presso
l’Università degli Studi di
Firenze. Dal 1984 lavora
presso l’Istituto di Fisica
Applicata “Nello Carrara” del CNR, è
Fellow della Società Internazionale SPIE,
e svolge attività di ricerca, sviluppo e trasferimento tecnologico nell’ambito della
sensoristica fotonica. I prototipi realizzati
con finanziamenti di progetti di ricerca
nazionali e dell’Unione Europea hanno
trovato applicazioni in numerosi controlli
di processi industriali, nella rivelazione
della qualità delle acque e nel settore del
controllo ambientale. Recentemente, i
semplici dispositivi per spettroscopia realizzati, hanno riscosso interesse da parte
del settore alimentare, per quantificare
online composti nutraceutici e altri indicatori di qualità, per rivelare eventuali frodi
commerciali, e per garantire la sicurezza
del prodotto.
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA
Marco Cati
La misura della resistività
dei materiali
Tecnica di misura basata sul metodo Volt-Amperometrico a 4 terminali
misura sono suddivisi in industriali
quando sono basati sull’impiego di
strumenti a lettura diretta, e di confronto quando sono basati sull’impiego di configurazioni a ponte [2].
Il metodo più semplice, utilizzato soprattutto in ambito industriale, per la determinazione di una qualunque resistenza
è il metodo Volt – Amperometrico, che
permette di ricavare il valore di una resistenza incognita Rm dall’applicazione
diretta della prima legge di Ohm, cioè
dal rapporto tra la differenza di potenRIASSUNTO
ziale ∆V misurata ai capi della resistenLa tecnica di misura basata sul metodo Volt – Amperometrico a quattro terza incognita e la corrente I che l’attraminali è molto diffusa nell’ambito dell’industria dei semiconduttori, dove
versa. Questo metodo di misura può
viene utilizzata per determinare la resistività di materiali con differenti droessere impiegato, senza ricorrere a sforgaggi. In questo articolo ne viene descritto l’impiego per la determinaziozi eccessivi in termini di disponibilità di
ne della resistività di materiali metallici che, nell’ambito della Compatibilistrumentazione, per coprire un campo
tà Elettromagnetica (CEM), rappresenta un parametro fondamentale per
di misura che può estendersi dai millesidiscriminarne le proprietà schermanti. Nella prima parte dell’articolo viene
mi di Ohm alle migliaia di Ohm. Per la
richiamata la trattazione analitica del metodo; nella seconda parte viene
misura di resistenze più piccole dei mildescritta la sonda di misura impiegata, e viene offerto un esempio applilesimi di Ohm occorre qualche accorgicativo relativo alla validazione del metodo attraverso la determinazione
mento in più; infatti, in questo caso, le
della resistività di un provino in rame.
resistenze di contatto Rc tra i morsetti di
misura e i terminali della resistenza incognita Rm introducono un errore sistemaINTRODUZIONE
ne e la verifica delle proprietà elettri- tico non trascurabile proprio nella deterche dei materiali metallici.
minazione della resistenza incognita.
Nella Compatibilità Elettromagnetica
Tale errore risulta complesso da correg(CEM) non è insolito sentire parlare
gere, in quanto la stima della resistenza
della misura di resistenza o di resisti- LA MISURA
di contatto è piuttosto difficoltosa. Una
vità superficiale espressa in Ω/ (si DI RESISTENZA ELETTRICA
delle metodiche più semplici in ambito
legge Ohm su quadrato). Tali granindustriale per superare questa difficoltà
dezze sono riportate, per esempio, La misura della resistenza elettrica è il metodo Volt – Amperometrico a
nelle specifiche tecniche dei materiali con la relativa incertezza riveste quattro terminali.
schermanti come i nastri conduttivi, i un’importanza fondamentale nell’infinger metallici o gli elastomeri con- gegneria. Come sappiamo i metodi di
duttivi [1]. Ma cosa si intende nello misura differiscono sia a seconda del- IL METODO VOLT-AMPEROMETRICO
specifico quando si parla di resisten- l’ordine di grandezza della resistenza A QUATTRO TERMINALI
za o di resistività superficiale dei incognita, sia in funzione del grado
materiali e, più in particolare, cosa d’incertezza da associare alla misu- Il metodo Volt – Amperometrico a
significa esprimere una resistenza razione. In maniera piuttosto grosso- quattro terminali è illustrato in Fig. 1
elettrica in Ω/ ? In questo articolo lana possiamo suddividere in tre cate- (a sinistra lo schema di principio, a
vengono chiariti questi concetti pre- gorie piccole, medie e grandi i valori destra il circuito equivalente). In quesentando un metodo di misura basato delle resistenze incognite rispettivasulla tecnica a quattro terminali che, mente inferiori a un Ohm, da uno a
con opportuni accorgimenti, può un migliaio di Ohm e oltre un migliaio Ricerca e Sviluppo - Esaote spa, Firenze
essere impiegato per la determinazio- di Ohm. Analogamente, i metodi di marco.cati@esaote.com
THE MEASUREMENT OF THE RESISTIVITY OF MATERIALS
The measurement technique based on the four-terminals Volt - Amperometric
method is widely adopted in the semiconductor industry, where it is used to
determine the resistivity of materials with different types of doping. In this
article we describe the use of this technique for the determination of the resistivity of metallic materials that, in the Electromagnetic Compatibility (EMC)
field, is a key parameter to discriminate in terms of shielding properties. In
the first part of the article the analysis of the method is presented: in the second
part, the four-probe head used for the measurement is described and an
example related to the validation of the method by determining the resistivity of a copper sample is offered.
T_M
N.
2/13 ƒ 117
sto caso si utilizzano i due terminali esterni collegati a un generatore di corrente (maglia amperometrica) per iniettare una corrente nota
I (generalmente continua) nella resistenza incognita Rm e
due terminali interni collegati a un misuratore di tensione
(maglia voltmetrica) per misurare la differenza di potenziale ∆V. Con questa tecnica la caduta di tensione sulle
resistenze di contatto Rc risulta trascurabile in quanto la
corrente che scorre nella maglia voltmetrica è, in pratica,
nulla essendo la resistenza d’ingresso del voltmetro dell’ordine delle migliaia di Ohm e la resistenza incognita
inferiore ai millesimi di Ohm nel caso di materiali metallici. Dal rapporto tra la differenza di potenziale ∆V e la corrente I è possibile infine determinare il valore della resistenza Rm.
Figura 1 – Misura a quattro terminali
(sinistra: schema di principio;
destra: circuito equivalente)
DALLA MISURA DI RESISTENZA
ALLA RESISTIVITÀ SUPERFICIALE DEL MATERIALE
Cerchiamo adesso di applicare il metodo esposto al caso
di nostro interesse. Supponiamo cioè che i quattro terminali di misura di Fig. 1 siano allineati e posti in contatto
con un materiale metallico; in questo caso la resistenza
incognita Rm è caratteristica del materiale metallico stesso.
È interessante chiedersi se è possibile risalire dalla misura
della resistenza Rm alla stima della resistività ρ del materiale sotto misura. La risposta è affermativa, ed è derivata
direttamente dall’applicazione di questa tecnica nel
campo della misura della resistività dei materiali semiconduttori [3].
In particolare, con riferimento alla Fig. 2, assumendo che:
– Il provino sia a forma di parallelepipedo rettangolo di
dimensioni trasversali a e b (con a>b) e spessore w;
– Il provino sia omogeneo cioè con resistività ρ uniforme nell’area di misura.
– I quattro terminali siano allineati e disposti parallelamente alla direzione identificata dal lato a;
– La spaziatura tra i quattro terminali sia uniforme e pari a s;
– La superficie su cui si poggiano i terminali sia piatta e
priva di discontinuità;
– La superficie di contatto
terminale – materiale sia
emisferica con raggio trascurabile;
e, tenendo conto della
distribuzione spaziale
che assumono le linee di
corrente sulla superficie
e all’interno del provino
nel caso di applicazione
di una corrente continua,
è possibile dimostrare
[4] che la resistività, ρ
Figura 2 – Geometria del provino
sotto misura
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
(misurata in Ωm), può essere espressa dalla relazione:
ρ = 2πs
∆V
G( s , w )K ( a , b , s )
I
dove ∆V è la differenza di potenziale misurata tra i terminali interni, I è la corrente applicata ai terminali esterni e
infine G(s,w) e K(a,b,s) sono due coefficienti correttivi che
tengono conto rispettivamente dell’effetto sulla distribuzione delle linee di corrente nel provino da parte dello spessore finito w e delle dimensioni trasversali finite a e b.
A partire dall’espressione sopra, si definisce resistività
superficiale, ρs l’espressione ρs=ρ/w:
ρs =
s ∆V
ρ
= 2π
G( s , w )K ( a , b , s )
w
w I
L’unità di misura della resistività superficiale è Ω/ .
L’espressione dei coefficienti G e K è piuttosto complessa e
coinvolge l’impiego di funzioni speciali. In particolare G è
funzione del rapporto w/s e risulta espresso dalla relazione:
G( s , w ) =
w

 s 
 s 
s 21n(2) + N 
 − N 
 2w 
w 

con:
∞
N ( λ ) = 2π ∑ iH (01) ( i 2πnλ )
n =1
dove Ho(1) è la funzione di Hankel di prima specie e i è
l’unità immaginaria (i2=-1). Analogamente K è funzione
del rapporto a/s e b/s e risulta espresso dalla relazione:
1n( 2)
K( a,b, s) =
π

−4
π
1− e d
+ 1n 
π

−2
d
 1− e d
e

∞
+∑1
 m =1m

−2π ( c − 2 )
m
d
m
m

−6 π  
−2π 
⋅ 1 − e d  ⋅ 1 − e d 

 

m

−2πc 
d
1 − e



con c=a/s e d=b/s. Si osservi inoltre che, per come sono
stati disposti i terminali di misura rispetto al provino (Fig.
2), nell’espressione di K dovrà essere a>3s ovvero
a/s=c>3.
I COEFFICIENTI G E K
Sebbene le espressioni dei coefficienti G e K siano complesse è possibile offrirne una rappresentazione grafica. Nella Fig. 3 è riportato l’andamento del coefficiente G in funzione di w/s. Come si osserva, per w/s>>1
T_M ƒ 119
(provino spesso rispetto alla distanza
tra i terminali) il coefficiente G tende
al valore unitario (per esempio già
per w/s=5 risulta G=0,9931 ovvero
si commette un errore inferiore al 1%
Figura 3 – Andamento del coefficiente G
in funzione di w/s
T_M ƒ 120
N. 02ƒ
; 2013
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
se si assume G=1 nell’espressione
della resistività del materiale). Analogamente per w/s<<1 (provino sottile
rispetto alla distanza tra i terminali di
misura) il coefficiente G può essere
approssimato come
G=(w/s)/(2ln(2))=
0,7213⋅(w/s) e la resistività superficiale assume in questo caso l’espressione semplificata ρs=π/ln(2)⋅(∆V/I)⋅K
=4,5324⋅(∆V/I)⋅K
indipendente dal valore dello spessore w
del provino. Per questo caso particolare la
resistività superficiale
viene chiamata anche
sheet resistance o resistenza di strato. L’unità
di misura della resistenza di strato è Ω/ .
Nella Fig. 4 è riportato l’andamento
del coefficiente K in funzione di b/s
per alcuni valori di a/s (si ricordi che
deve essere a/s>3). Come si osserva,
fissato il valore di a/s, per b/s>>1 il
Figura 4 – Andamento del coefficiente K
in funzione di b/s, fissato a/s
N. 02ƒ
;2013
Figura 5 – Andamento del coefficiente K
in funzione di a/s, fissato b/s
Le Figg. 4 e 5 forniscono infine
anche utili indicazioni su quando
poter considerare “infinito” un provino dal punto di vista della determinazione della resistività del materiale: infatti, per valori di a/s>>1 e
b/s>>1 il coefficiente K tende a un
valore unitario: per esempio già per
a/s=20 e b/s=20 risulta K=0,9818,
ovvero si commette un errore inferiore al 2% se si considera K=1 nell’espressione della resistività del materiale.
RISULTATI SPERIMENTALI
E VALIDAZIONE DEL METODO
Il metodo presentato è stato validato
confrontando il valore della resistività ottenuto applicando la trattazione
teorica descritta con quella di alcuni
provini a resistività nota (p. es.
rame, alluminio, ecc.). A titolo esem-
plificativo si riportano qui i risultati
ottenuti nel caso specifico in cui il
provino è realizzato a partire da
una striscia di nastro conduttivo in
rame (modello CCH-36-101-0300
prodotto dalla Chomerics ® ) di
dimensioni trasversali axb pari a
185x76 mm e spessore nominale w
pari a 35,6 µm [1].
La strumentazione coinvolta prevede, oltre all’utilizzo della sonda a
quattro terminali auto-costruita descritta sotto, anche l’impiego di un
multimetro digitale a sei cifre
e mezzo e un generatore di
corrente continua lineare e
stabilizzato (immagine a
destra Fig. 6).
La sonda a quattro terminali
è progettata (immagine a
sinistra in Fig. 6) impiegando quattro contatti a molla
Ingun® a punta arrotondata
(modello GKS-100-305-130A-30-00) utilizzati nel campo
delle verifiche ICT (In Circuit
Testing), con spaziatura tra i
terminali uniforme e pari a
s=5,05 mm. Ciascun contatto a molla è quindi collegato
all’anima di un connettore
BNC da pannello e la ghiera
dei connettori BNC è collegata galvanicamente allo chassis in
metallo della sonda (immagine centrale in Fig. 6). Questo particolare
tipo di costruzione permette di
schermare dalle eventuali interferenze elettromagnetiche sia il circuito
d’iniezione della corrente di prova
(maglia amperometrica), sia, soprattutto, il circuito di lettura della tensione di misura (maglia voltmetrica)
che, considerati i piccoli valori atte-
▲
coefficiente K tende a un valore costante dipendente dal rapporto a/s
stesso. Analogamente, fissato il valore
di a/s, per b/s<<1 il coefficiente K
può essere approssimato come
K=(b/s)⋅ln(2)/π.
Nella Fig. 5 è riportato l’andamento
del coefficiente K in funzione di a/s
per alcuni valori di b/s. Come si
osserva, fissato il valore di b/s, per
a/s>>1 il coefficiente K tende a un
valore costante dipendente dal rapporto b/s stesso.
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
si della tensione letta (dell’ordine
delle decine di microvolt) può risultare sensibile alle interferenze elettromagnetiche.
Tenendo conto delle caratteristiche
geometriche della sonda di misura e
del provino, risulta a/s=36,63,
b/s=15,05 e w/s=7,05e-3<<1 da
cui utilizzando i grafici di Fig. 3, Fig. 4
e Fig. 5 (o per maggiore accuratezza
le formule sopra esposte) si ottiene
K=0,9697 e G=(w/s)/(2ln(2))=
0,7213⋅(w/s)=5,08e-3.
Le misure sono effettuate applicando
una corrente continua di I=5,02 A con
una temperatura ambiente di 25 °C.
La differenza di potenziale tra i
due terminali esterni risulta di
∆V=569,6 µV ±0,7% (uno scarto tipo
ottenuto da 5 misure). Per le formule
esposte, la resistività stimata risulta quindi ρ=2πs⋅(∆V/I)⋅G⋅K=1,77⋅10-8 Ωm.
Considerato che la resistività teorica
del rame a 20 °C è ρCU=1,69⋅10-8 Ωm
e che il coefficiente termico è
α=4,04e-3 Ωm/°C, la resistività teorica riportata a 25 °C risulta
ρ@T=ρ@20°C⋅(1+α⋅(T-20))=
1,72⋅10-8 Ωm. Lo scostamento tra la
resistività misurata e quella teorica del
rame riportata a 25 °C è quindi inferiore al 4%, cioè entro l’incertezza
strumentale che può essere stimata
attorno a qualche punto percentuale.
CONCLUSIONI
E SVILUPPI FUTURI
È stato presentato un metodo per la
determinazione della resistività dei
materiali metallici basato sulla tecnica
Volt – Amperometrica a quattro terminali. Il metodo si presta a un impiego
in ambito industriale sia per la
semplicità della
sonda di misura
realizzata, sia
per la tipologia
di strumentazione
impiegata
che, di fatto, risulta senz’altro
disponibile all’inFigura 6 – Sonda a quattro terminali
terno di un repar(sinistra: progetto CAD; centro: realizzazione; destra: set-up di prova)
to di Ricerca &
T_M ƒ 121
N. 02ƒ
; 2013
■
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
Sviluppo. Il metodo di misura è stato
validato attraverso la stima della resistività di un provino in rame impiegando una corrente di prova continua: l’accuratezza raggiunta è stimata nell’ordine del 4%.
Nel futuro l’impiego del metodo
sarà esteso a frequenze maggiori di
zero per valutare l’effetto sulla determinazione della resistività della non
più uniforme distribuzione di corrente lungo lo spessore del provino
sotto misura. In quest’ottica sarà utilizzato un software di simulazione
agli elementi finiti (FEM) per confrontare i risultati sperimentali con
quelli predetti dalle simulazioni.
ding Products, Chomerics®.
2. L. Olivieri, E. Ravelli, “Elettrotecnica – Misure Elettriche”, Vol. 3, Edizioni Cedam, 1975, Padova.
3. A. Uhlir, JR, “The Potentials of
Infinite Systems of Sources and Numerical Solutions of Problems in Semi-
conductor Engineering”, The Bell
System Technical Journal, January
1955.
4. F.M. Smits, “Measurement of Sheet
Resistivities with the Four-Point Probe”,
The Bell System Technical Journal,
May 1958.
Marco Cati si è laureato con lode ed encomio solenne al curriculum di studio in Ingegneria Elettronica presso l’Università di
Firenze nel 2001 discutendo una tesi sulla misura d’impedenza
in alta frequenza in presenza di correnti di modo comune. Nel
2002 viene nominato Cultore della Materia per il settore Misure
Elettriche ed Elettroniche. Nel 2005 consegue il titolo di Dottore
di Ricerca in Ingegneria dell’Affidabilità, Manutenzione e Logistica lavorando sul tema delle incertezze di misura nelle prove di CompatibiliRIFERIMENTI BIBLIOGRAFICI
tà Elettromagnetica. Dal 2005 svolge attività professionale nel reparto ricerca
e sviluppo di Esaote dove è responsabile delle verifiche di Compatibilità Elet1. Datasheet CHO-FOIL & CHO-FAB tromagnetica su dispositivi ecografici. È ispettore tecnico per l’ente unico di
Shielding Tapes – Laminates & Groun- accreditamento italiano ACCREDIA.
T_M ƒ 122
VISIONE
ARTIFICIALE
▲
A cura di Giovanna Sansoni (giovanna.sansoni@ing.unibs.it)
Soluzioni di visione
innovative
per incrementare produttività e affidabilità
INNOVATIVE SOLUTIONS IN VISION
The section on Artificial Vision is intended to be a “forum” for Tutto_Misure
readers who wish to explore the world of components, systems, solutions for
industrial vision and their applications (automation, robotics, food&beverage,
quality control, biomedical). Write to Giovanna Sansoni and stimulate
discussion on your favorite topics.
RIASSUNTO
La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori
della rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la
visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e
sottoponetele argomenti e stimoli.
L’edizione 2013
di Affidabilità &
Tecnologie ha riservato alla visione
un ampio spazio,
sia per il numero
di stand sia per la tipologia degli
eventi divulgativi che sono stati proposti. Fra questi, il Convegno “Visione
Artificiale e Tracciabilità: soluzioni
innovative per incrementare produttività e affidabilità” ha offerto preziose
informazioni e spunti di riflessione in
merito all’evoluzione della tecnologia
e alla direzione verso cui il mercato
va evolvendo. Due erano le presentazioni riguardanti lo stato dell’arte e
due le presentazioni relative a sistemi
di visione prodotti da sviluppatori
“storici”. Un mix interessante e di
ausilio per il numeroso pubblico che,
da un lato, ha potuto apprendere
quali siano le tecnologie attualmente
a disposizione e, dall’altro, ha visto
due esempi significativi dell’evoluzione a breve-medio termine di queste
tecnologie.
Guido Giuliani, docente di comunicazioni ottiche e dispositivi optoelettronici presso il Dipartimento di Ingegneria Industriale e dell’Informazione
dell’Università di Pavia e fondatore di
Julight srl, una start-up dell’Università
di Pavia che sviluppa dispositivi
optoelettronici laser innovativi per
misure di distanza e di vibrazione, ha
presentato lo stato dell’arte in tema di
sensori ottici nelle applicazioni
industriali e ha “popolato” lo spazio che in ambito di visione industriale viene normalmente occupato dalle
sole telecamere, con la sensoristica
che la tecnologia optoelettronica
mette a disposizione. Nella sua relazione, il prof. Giuliani ha parlato di
barriere ottiche, che utilizzano
tecnologia laser/LED, in combinazione con una telecamera, e ha sottolineato come esse vengano sviluppate
non solo per applicazioni di sicurezza e di riconoscimento di presenza,
ma anche per applicazioni di controllo dimensionale (micrometri ottici). Il
mercato ne mette a disposizione a diversi livelli di precisione e l’evoluzione è verso la realizzazione di dispositivi a costi ridotti e risoluzione aumentata.
Altra famiglia di dispositivi optoelettronici di utilizzo emergente è quella
dei sensori per misure di distanza. La tecnologia sfrutta molteplici
principi di misura: triangolatori a singolo punto, lame di luce, sistemi a
proiezione di luce strutturata, sensori
a tempo di volo, sistemi confocali e
T_M
dispositivi coherent laser radar (per
ciascuno di essi il lettore interessato
troverà in fondo alla rubrica un link al
video YouTube che ne mostra il principio di funzionamento, n.d.r.). La precisione di misura dei triangolatori a
singolo punto è nell’intervallo che va
da alcuni mm ad alcuni mm, in dipendenza del range di misura; essi
hanno potenzialmente basso costo
(ma ancora i dispositivi di mercato
sono sovraquotati!), lavorano bene su
tutte le superfici, anche ad alta riflettività, e risolvono problemi di misura
molto diversificati, che coprono le
aree applicative del controllo di finitura di superfici, della micro-profilometria e del controllo dimensionale.
L’evoluzione va verso la realizzazione di dispositivi miniaturizzati, integrabili con altri sensori. La
naturale evoluzione di questi dispositivi è quella che ha portato alla realizzazione di lame di luce: in esse la
triangolazione viene parallelizzata in
una direzione; per scansione si ottengono mappe topografiche 3D di
superfici, si eseguono controlli dimensionali e s’intercettano difetti di lavorazione. Nei sistemi a proiezione di
luce strutturata l’obiettivo è l’acquisizione di una mappa 3D mediante una
singola misura: tipica è l’applicazione
in macro-profilometria, per processi di
reverse engineering e di prototipazione rapida. Il trend tecnologico sta
recentemente affermando dispositivi a
tempo di volo e basati su geometria
confocale. I primi sono caratterizzati
da range di misura molto ampi (da
0,2 mm a 100 m), con risoluzioni
basse (qualche mm); i secondi sfruttano luce bianca, fibra ottica e misure
spettrali: sono caratterizzati da risoluzioni di misura di qualche nm, in
range che variano fra 10 e 30 mm.
Benché di costi ancora alti, il loro utilizzo va prendendo piede in applicazioni di nicchia, quali la meccanica di
N.
2/13 ƒ 123
N. 02ƒ
; 2013
▲
NEWS
CONFERENZA COMSOL 2013 - CALL FOR PAPERS
Il Comitato Scientifico della 9a Conferenza annuale COMSOL dedicata alla simulazione multifisica è lieto di invitare ingegneri e ricercatori da tutto il mondo a contribuire alla
Conferenza inviando uno o più abstract che descrivano i loro
lavori, progetti e risultati, da presentare in occasione della più
grande conferenza mondiale dedicata alla simulazione multifisica e CAE.
La Conferenza Europea di quest’anno si terrà al Beurs-World
Trade Center di Rotterdam dal 23 al 25 ottobre.
Le Conferenze COMSOL riuniscono più di 2000 ingegneri,
ricercatori e scienziati da tutto il mondo, offrendo loro l’opportunità di far conoscere il proprio lavoro, condividere best practice e tecnologie innovative e incontrare i creatori di COMSOL
Multiphysics. Le conferenze hanno come obiettivo il miglioramento delle tecniche di modellazione e di simulazione di applicazioni multidisciplinari e multifisiche. I partecipanti avranno la
possibilità di partecipare ai minicorsi, alle panel discussion,
agli eventi di networking e assistere ai keynote di industrie leader del settore e alle numerose presentazioni degli utenti.
Tra le opportunità offerte dalla Conferenza:
– Sessioni di minicorsi sulla simulazione multifisica tenuti dagli
specialisti COMSOL, che coinvolgono un’ampia gamma di
discipline e temi, tra cui applicazioni in ambito elettrico, meccanico, fluidodinamico e chimico.
– Keynote di industrie leader del settore e famosi centri di ricerca. Tra i partecipanti alle edizioni passate: DuPont Company,
Ford Motor Company, Microsoft Corporation, Robert Bosch,
Toyota Research Institute e altri ancora.
– Occasioni per interagire con un gruppo di esperti di simulazione multifisica in ambito industriale e assistere a dibattiti sulle
sfide progettuali offerte dal mondo reale.
– Un’esposizione dei servizi e dei prodotti offerti dai partner e
dai consulenti certificati COMSOL per potenziare e arricchire la
vostra esperienza di simulazione.
– La presentazione della nuova versione di COMSOL Multiphysics. I partecipanti alla Conferenza saranno i primi a conoscere le nuove funzionalità e tecnologie introdotte nella suite dei
prodotti di COMSOL Multiphysics.
“Oltre alle numerose sessioni di minicorsi, la Conferenza offrirà
ai partecipanti l’opportunità unica di scambiare idee con colleghi esperti nei medesimi ambiti di interesse” afferma Tycho van
Noorden, Program Committee Chair della Conferenza di Rotterdam. Non solo gli utenti che presenteranno il proprio lavoro
alla Conferenza avranno la possibilità di farlo conoscere agli
T_M ƒ 124
altri partecipanti, ma in aggiunta gli articoli e i poster presentati alla Conferenza saranno pubblicati sul sito di COMSOL e
otterranno un riconoscimento internazionale. È possibile consultare i contributi presentati alle Conferenze 2012 visitando la
sezione COMSOL Conference User Presentations sul sito
www.comsol.it.
I lavori potranno essere presentati sotto forma di presentazione
orale, di poster o entrambi. Le sessioni tecniche riguarderanno
le seguenti tematiche:
Elettromagnetismo AC/DC – Acustica e vibrazioni – Batterie,
celle a combustibile e processi elettrochimici – Bioscienze e
bioingegneria – Ingegneria delle reazioni chimiche – Fluidodinamica (CFD) – Riscaldamento elettromagnetico – Geofisica e
geomeccanica – Trasporto di calore e cambiamento di fase –
MEMS e nanotecnologie – Multifisica – Ottica, fotonica e semiconduttori – Ottimizzazione e metodi inversi – Particle tracing –
Dispositivi piezoelettrici – Fisica dei plasmi – RF e microonde –
Didattica e metodi di simulazione – Meccanica strutturale e
stress termici – Fenomeni di trasporto – Microfluidica
La Poster Session è uno degli eventi chiave della Conferenza.
“Ciò che dà particolare valore alla Poster Session nel contesto della Conferenza è l’ampia gamma delle differenti applicazioni presentate.” afferma Bernt Nilsson, Sr. Vice President
del Dipartimento Marketing presso COMSOL, Inc. “Con la
Poster Session, non solo si ha l’opportunità di illustrare il proprio progetto durante la sessione dedicata, ma i lavori sono
anche messi in mostra per tutti e tre i giorni della Conferenza, favorendo il confronto continuo tra gli autori e i partecipanti”.
Call for papers e invio degli abstract
Gli abstract inviati saranno sottoposti a revisione da un Comitato Scientifico costituito da 20 esperti di simulazione multifisica. Quest’anno il Comitato Scientifico include uno straordinario
gruppo di scienziati e ricercatori provenienti da università,
aziende ed enti governativi di fama internazionale, tra cui Airbus France, L’Oréal, Medtronic, Sharp, Siemens e STMicroelectronics.
Per inviare un abstract e sottoporlo alla revisione del Comitato
Scientifico, visitate la pagina web
www.comsol.com/conference2013/usa/papers.
Coloro che invieranno il proprio abstract entro l’Early Bird
deadline del 5 luglio potranno godere di uno sconto sul costo
della registrazione alla Conferenza. L’ultima deadline per l’invio degli abstract è il 23 agosto.
N. 02ƒ
;2013
ragionevolmente separati tra loro.
Tale soluzione è ottima quando i
pezzi hanno una delle loro tre dimensioni trascurabile rispetto alle altre
(pezzi piani).
Ciò che permetterebbe di sfruttare
appieno la flessibilità offerta da un
robot è l’abilità di determinare
posizione e orientamento, a
priori incogniti, di oggetti disposti alla rinfusa in una cassetta
o in un cassone, che devono essere
afferrati e manipolati da un robot
industriale. La vera difficoltà consiste
nella realizzazione di sistemi di visione 3D flessibili e facilmente riconfigurabili, capaci cioè di gestire diverse
tipologie di pezzi.
Lo sviluppo dei sistemi di guida robot
3D è stato finora principalmente limitato dall’enorme carico computazionale connesso all’esecuzione
delle tre seguenti operazioni: (i) l’acquisizione dei dati, (ii) il riconoscimento (segmentazione) dell’oggetto
da afferrare, e (iii) l’identificazione di
posizione e posa dell’oggetto da afferrare. L’attività di ricerca e sviluppo
sviluppata a partire dagli anni ‘80 ha
portato alla realizzazione di diverse
soluzioni tecnologiche. A oggi, l’acquisizione dei dati 3D grezzi può essere realizzata mediante utilizzo di
una singola immagine (visione monoculare), oppure di almeno due immagini (visione stereo) o d’immagini 3D,
ottenute mediante sensori 3D, quali lame di luce, sistemi a luce strutturata e
sensori a tempo di volo.
Quando si adotti la visione monoculare, per la quale il mercato offre
un’ampia scelta di telecamere, sistemi
d’illuminazione, lenti di raccolta, software di misura e protocolli di trasmissione, non è possibile procedere alla
ricostruzione 3D della scena: è tuttavia possibile confrontare un’immagine
2D con le diverse proiezioni possibili
del modello 3D dell’oggetto da identificare (shape-based matching). In questo caso, l’algoritmo genera un
modello di riferimento come
insieme di proiezioni del modello 3D
e lo confronta con l’immagine acquisita. La velocità di calcolo dipende
dalle ampiezze dei range di posa e
scalatura consentite e aumenta consi-
▲
precisione e il controllo di superfici
ottiche. L’aspetto che li accomuna ai
sensori a tempo di volo è la collinearità fra la direzione del
fascio emesso da dispositivo e
di quello riflesso dalla superficie e misurato dal dispositivo. Questa
caratteristica li rende adatti all’ispezione di fori di piccolo diametro e di
superfici caratterizzate da sottosquadri e variazioni rapide di forma, non
misurabili dai sistemi a triangolazione. I sistemi coherent laser radar, infine, sfruttano un diodo laser per l’emissione della radiazione, ed effettuano la misura di distanza mediante
tecniche d’interferometria e
modulazione di lunghezza
d’onda. In questi dispositivi viene
sfruttata la possibilità di far interferire
il fascio di riferimento e quello di misura all’interno della cavità laser (selfmixing), il che consente di ottenere
dimensioni molto ridotte. La tecnologia è relativamente giovane ma molto
promettente, specialmente per applicazioni di vibrometria.
Remo Sala, docente di misure e strumentazione industriale presso il Politecnico di Milano, ha dato il suo contributo nell’ambito dello stato dell’arte
della visione artificiale per guida
robot. Nel suo intervento egli ha
messo in rilievo come, da un lato, l’introduzione dei robot negli anni ‘80
avesse messo a disposizione degli
integratori di sistemi manipolatori
completamente flessibili, e come
tuttavia, dall’altro lato, questo incremento di flessibilità dei manipolatori
non avesse permesso un incremento
di flessibilità degli impianti. Infatti, in
assenza di una sensoristica
adeguata i robot continuavano
a necessitare di pezzi posizionati e orientati in modo rigido:
in altre parole, la flessibilità messa a
disposizione dai robot era consumata
dalla periferia. L’utilizzo di visione
è stato indubbiamente un grosso passo in avanti verso la fruizione piena delle potenzialità dei
robot.
La visione 2D è una soluzione affidabile tutte le volte in cui è possibile fare
gestire un’area di presa costituita da
un nastro su cui i pezzi arrivano
VISIONE
ARTIFICIALE
derevolmente se la ricerca è limitata a
parti planari.
Nella visione stereoscopica la
medesima scena viene ripresa da
almeno due posizioni diverse, utilizzando più telecamere oppure movimentando una telecamera mediante il
robot: l’informazione 3D risultante è
una nuvola di punti della scena,
ottenuta ricercando le posizioni dei
punti omologhi nelle diverse immagini. L’identificazione dell’oggetto è effettuata fra la nuvola di punti e il modello 3D del pezzo da cercare.
Quando si utilizzano sensori 3D si
ottiene una misura 3D della scena completa (nuvola di punti), e il
matching è ricercato analogamente al
caso della visione stereoscopica. La
varietà di sensoristica 3D a disposizione richiede un attento esame
del problema di misura per scegliere il dispositivo adatto, per
quanto riguarda sia le caratteristiche
di risoluzione e intervallo di misura, sia
per quanto riguarda le caratteristiche di
riflettività e forma delle superfici.
Il progetto di un “buon” sistema di
presa da cassone mostra dunque un
certo numero di criticità, quali (i)
la scelta dell’hardware, (ii) la configurazione del sistema di acquisizione,
(iii) la scelta dell’ambiente di sviluppo
e degli algoritmi/librerie per l’analisi.
Un aspetto particolarmente critico e
mai abbastanza compreso è infine
quello relativo all’implementazione
della strategia di presa, onde evitare
le collisioni fra la pinza e il cassone e
fra la pinza e gli oggetti presenti nel
cassone. Dunque, se da un lato la visione artificiale ha consentito un sensibile incremento della flessibilità di
robot e macchine utensili, dall’altro è
fondamentale comprenderne caratteristiche e limitazioni per un
suo proficuo utilizzo: compito delle Università, dei centri di ricerca e, in
generale, degli operatori del settore è
quindi la promozione di una consapevole e approfondita cultura
della visione.
Paolo Raschiatore, fondatore e
amministratore delegato di Vision
Device, ha presentato alcuni interessanti sistemi di visione progettati per
applicazioni di controllo nel settore
T_M ƒ 125
automotive. Fra essi, sono stati mostrati i sistemi chiavi in mano sviluppati per il controllo di qualità di ancorine d’iniettori, per il controllo di componenti di pompe freno, per il controllo di cuscinetti auto e avio, e per il
controllo di camme. Il denominatore
comune di queste applicazioni è lo
sviluppo di macchine dedicate
e molto sofisticate, nelle quali
la tecnologia predominante è
quella meccanica. Esse richiedono
infatti la progettazione di sistemi meccanici che, benché di “supporto”
rispetto ai dispositivi di visione dal
punto di vista delle operazioni di
misura, di fatto costituiscono il 70%
del valore della macchina.
La tecnologia della visione non introduce elementi di particolare
novità: telecamere, protocolli di comunicazione, ottiche e illuminatori
sono scelti adeguatamente all’interno
della vasta offerta di prodotti che il
mercato è oggi in grado di offrire. Il
software di misura implementa metodi di analisi che, pur con notevoli
livelli di sofisticazione, rappresentano tecnologia matura e assestata.
Invece, la meccanica di supporto
è l’elemento chiave ai fini della
resa complessiva: un’adeguata progettazione consente la riduzione di
parti in movimento, la realizzazione
di molteplici controlli in tempi e spazi
ridotti, e aumenta il livello di affidabilità e scalabilità del sistema complessivo.
Come l’Ing. Raschiatore ha sottolineato nel suo intervento, è tempo e ora
che si comprenda come il termine
meccatronica identifichi una tecnologia ibrida nella quale, a differenza del passato, la componente
meccanica assume un ruolo
predominante rispetto a quella elettronica e ottica. Questa situazione
richiede a sua volta una significativa
variazione del punto di vista da parte
dei committenti: l’attitudine comune è
infatti quella di costruire il sistema di
visione attorno alla meccanica preesistente. Lo sviluppo di sistemi innovativi
e avanzati deve invece andare nella
direzione complementare: verso cioè
la riprogettazione della periferia meccanica.
T_M ƒ 126
N. 02ƒ
; 2013
■
VISIONE
ARTIFICIALE
Fabio Rosi (Vea srl) ha mostrato
un’applicazione di controllo di
lavorazione a pressa: l’applicazione è estremamente complessa, poiché si è di fronte non a un semplice
problema di controllo di pezzo lavorato, bensì a un controllo di processo. Nella fattispecie di un processo
complesso. La complessità nasce dalle
molte variabili che influenzano
la lavorazione a pressa, fra cui
la temperatura del materiale, le sue
caratteristiche meccaniche, la variabilità legata al posizionamento del
materiale sotto la pressa, il controllo
in tempo reale della formatura del
pezzo. L’insieme di queste variabili è
nella pratica tenuto sotto controllo da
personale molto esperto, la cui familiarità con il processo garantisce la
qualità del controllo complessivo.
La sfida intrapresa è stata quella di
realizzare attorno al sistema di
visione un sistema che utilizza
tecnologie d’intelligenza artificiale per controllare in modo adattativo il processo e per poter prendere
decisioni inerenti i parametri del processo in modo sufficientemente simile
alle decisioni che il personale esperto
è in grado di prendere. Questo logica
va verso la fusione di tecnologie
di visione artificiale con tecnologie di “data mining”, che prevedono la realizzazione di sistemi
decisionali esperti: in essi, i dati vei-
colati dal sistema di visione
costituiscono
solo una sottoclasse dell’insieme di dati necessari al sistema
complessivo,
quali, ad esempio, le informazioni che descrivono la fisica del
processo e quelle che vengono
dall’esperienza
del personale.
Questo approccio ha in sé spiccate caratteristiche d’innovazione e, naturalmente, pone nuove sfide realizzative, per le quali è necessario
mettere a frutto tutto il know-how acquisito fino a oggi.
D’altro canto, l’evoluzione sociale,
politica ed economica alla quale assistiamo ci pone di fronte all’interrogativo fondamentale: cosa possiamo
noi, vecchio continente, opporre ai
paesi emergenti? Il nostro know-how,
la capacità d’innovare, e di produrre
con alti livelli qualitativi.
RIFERIMENTI
Triangolazione:
www.youtube.com/watch?v=
F6Loard7b7I
Structured light:
www.youtube.com/watch?v=
wryJeq3kdSg
laser strip:
www.youtube.com/watch?v=
9bZN79Ae2gs
TOF:
www.youtube.com/watch?v=
lLDkwmF-14k
Confocal:
www.youtube.com/watch?v=
AUgD5-5HvGA&list=
PL00295C0319440893
I SERIALI
MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA
M. Catelani 1, L. Cristaldi 2, M. Lazzaroni 3, L. Peretto 4, P. Rinaldi 4
Sistemi riparabili
alcune definizioni
REPAIRABLE SYSTEMS
For repairable devices, such as systems, sub-systems, etc., availability requirements have to be defined. Availability takes into account, in fact, not only
the concept of reliability, extensively discussed in previous papers, but integrates this concept with information on the repair and restoration of the performed functions, with the activities associated to them. In other words,
given a device, it is possible to estimate the fault status and, consequently,
the related maintenance issues.
RIASSUNTO
Per i dispositivi riparabili (sistemi, sotto-sistemi, ecc.), a integrazione dell’affidabilità, occorre definire anche i requisiti di disponibilità. La funzione
di disponibilità prende in considerazione, infatti, non solo il concetto di
affidabilità di cui abbiamo ampiamente parlato negli articoli precedenti,
ma integra tale concetto con le informazioni sulla riparazione e il ripristino
delle funzioni svolte, con le attività a esse associate. In altri termini, dato un
dispositivo, è possibile valutare gli stati di guasto e di avaria e, di conseguenza, i relativi aspetti manutentivi.
INTRODUZIONE
Quando si prendono in esame sistemi
o dispositivi riparabili, oltre alla funzione di affidabilità, viene definita
anche quella di disponibilità. L’affidabilità è definita come “la probabilità che un dispositivo adempia
a una specifica funzione fino a
un determinato istante in prefissate condizioni d’impiego” [1-4].
Questo concetto non ammette pertanto
interruzioni del servizio. Nel caso in
cui, per esempio, sia prevista manutenzione, questa deve essere effettuata
al di fuori del tempo di missione. Nel
caso di sistemi riparabili la manutenzione rende il sistema non disponibile
per il tempo necessario alla propria
riparazione. Quindi la disponibilità
implica che il sistema possa anche non
funzionare per determinati periodi. La
disponibilità è pertanto una funzione
più generale, che considera sia l’affidabilità del sistema, sia gli aspetti manutentivi, quindi un “ripristinare la funzioni richiesta” dopo l’insorgenza di
un guasto.
Le norme UNI 9910 e CEI 56-50 defi-
niscono la disponibilità (Availability) come l’attitudine di un’entità a essere in grado di svolgere una funzione in determinate
condizioni a un dato istante, o
durante un dato intervallo di
tempo, supponendo che siano
assicurati i mezzi esterni eventualmente necessari. Nel caso di
dispositivi a funzionamento intermittente, la disponibilità di una macchina
può essere definita come la percentuale di tempo, rispetto al tempo totale, in cui è richiesto il funzionamento
stesso della macchina.
IL TEMPO MEDIO AL RIPRISTINO:
MEAN TIME TO REPAIR/RESTORE
(MTTR)
Una proprietà dei sistemi riparabili è la
Manutenibilità, ovvero la loro attitudine, in assegnate condizioni di utilizzazione, a essere mantenuti o riportati in
uno stato nel quale essi possono svolgere le funzioni richieste (quando la
manutenzione è eseguita nelle condizioni date con procedure e mezzi prescritti). Da un punto di vista quantitativo, la manutenibilità è la probabilità,
spesso indicata con M(t), che il sistema
malfunzionante possa essere riportato
al suo corretto funzionamento entro il
periodo t. È strettamente correlata con
la disponibilità: tanto più breve è l’intervallo di ripristino del corretto funzionamento, tanto più elevata sarà la probabilità di trovare il sistema funzionante in un dato istante. In corrispondenza
del suo valore estremo, M(0) = 1, il sistema in oggetto sarà sempre disponibile. In analogia a MTTF (Mean Time To Failure), che caratterizza i dispositivi non riparabili, si fa riferimento
a funzioni analoghe a quelle già definite per l’affidabilità per i sistemi riparabili. L’insieme di tali funzioni prende
il nome di funzioni di manutenibilità, secondo quanto riportato sinteticamente
in Tab. 1.
Una valutazione di MTTR è data da:
MTTR =
∑ t i ⋅ g( t i ) ⋅ ∆t i
(1)
i
con il significato dei simboli indicato
nel seguito. Per tali funzioni valgono
relazioni formalmente identiche a
quelle dell’affidabilità; perciò, indicando con t = 0 l’istante al quale si è
Nel caso di componenti riparabili
diventa fondamentale il parametro
che esprime il tempo medio che inter1 Università degli Studi di Firenze
corre tra l’insorgenza di un guasto e il
2 Politecnico di Milano
completamento della sua riparazione
(ripristino); esso viene solitamente 3 Università degli Studi di Milano
detto “Mean Time To Repair/ 4 Università degli Studi di Bologna
massimo.lazzaroni@unimi.it
Restore (MTTR)”.
T_M
N.
2/13 ƒ 127
N. 02ƒ
; 2013
▲
I SERIALI
MISURE E FIDATEZZA
Tabella 1 – Analogia tra le funzioni di manutenibilità e le funzioni di affidabilità
Funzioni di manutenibilità
Analoghe funzioni affidabilistiche
g(t)
Densità di probabilità di riparazione normale
f(t)
Distribuzione probabilità di guasto
M(t)
Probabilità di riparazione (manutenibilità)
F(t)
Inaffidabilità
N(t)
Probabilità di non riparazione
R(t)
Affidabilità
µ(t)
Tasso di riparazione (istantaneo)
λ(t)
Tasso di guasto istantaneo
verificato il guasto, si ha:
g(t)⋅∆t probabilità che la riparazione
termini nell’intervallo [t, t+∆t]
M(t) probabilità che la riparazione
termini nell’intervallo [0, t]
µ(t)⋅∆t probabilità che la riparazione
termini nell’intervallo [t, t+∆t] condizionata al non completamento al tempo t.
Se il tasso di riparazione µ(t) = costante, risulta:
MTTR =
1
µ
T_M ƒ 128
(2)
Altro parametro assai importante è il
Tempo medio tra guasti: Mean
Time Between Failures (MTBF). Il
tempo medio tra i guasti (MTBF) può
essere definito in due modi: nel primo
modo MTBF è l’MTTFS dei dispositivi
riparabili (dove S indica che è il parametro è definito per il Sistema); nel
secondo modo l’MTBF è la somma del
tempo medio fino al guasto MTTFS del
dispositivo e del suo tempo medio di
riparazione/ripristino MTTR.
Talvolta può apparire più logico utiliz-
zare la seconda definizione perché,
così facendo, si mantiene la stessa terminologia per MTTF indipendentemente dal fatto che il dispositivo sia
riparabile o meno, considerando l’uno come estensione teorica dell’altro.
In Fig. 1 sono mostrate graficamente
le differenze fra le due definizioni di
MTBF.
Figura 1 – Definizioni per MTBF
N. 02ƒ
;2013
La rappresentazione di Fig. 2 illustra
una scomposizione del tempo sia di
funzionamento, sia di guasto negli
elementi temporali su cui è basata l’analisi della disponibilità.
può presentare valori elevati di disponibilità nonostante frequenti, ma brevi,
periodi di malfunzionamento. La disponibilità è una buona misura per caratterizzare i sistemi in cui sono accettabili malfunzionamenti, purché nella
maggior parte delle circostanze il sistema funzioni in modo corretto. Una definizione matematica della disponibilità
A (Availability) è:
A=
UpTime
UpTime
=
TotalTime UpTime + DownTime
(3)
▲
LA DISPONIBILITÀ NEL CICLO
DI VITA DEL PRODOTTO
I SERIALI
MISURE E FIDATEZZA
La disponibilità stazionaria, o più semplicemente “disponibilità”, è il valore
limite (t → infinito) di un’altra grandezza
(variabile) che prende il nome di “disponibilità istantanea” A(t); tale grandezza
rappresenta la disponibilità media, a
priori, stimata su un tempo t. La disponibilità istantanea ha un andamento che
dipende dalla condizione iniziale (all’istante t = 0 il sistema può essere “funzionante” o “guasto”); in ogni caso il
valore limite A(t → infinito) è sempre A.
CONCLUSIONI
Figura 2 – Scomposizione del tempo
di un sistema riparabile. Legenda. TT: Total Time,
il tempo totale di utilizzo, Up Time: Tempo
di funzionamento, Down Time: Tempo
di non funzionamento, OT Operating time:
parte dell’up time in cui si ha effettivo esercizio,
ST Stand-by Time: parte dell’up time durante
il quale si attende l’inizio di missione,
non è effettivo esercizio ma il sistema è assunto
come operante, TMT Total Maintenance Time:
Tempo totale di manutenzione, ALDT Administrative
and Logistic Down Time: Tempo speso in attesa di
ricambi e personale per la manutenzione, TCM Total
corrective maintenance: Tempo totale di manutenzione
correttiva, TPM Total preventive Maintenance:
Tempo Totale di manutenzione preventiva
In figura, le lettere “C” e “P” rappresentano rispettivamente i periodi di
tempo attribuiti rispettivamente alla
manutenzione correttiva (cioè manutenzione che viene eseguita solo dopo
che il sistema si è guastato) e preventiva (cioè manutenzione che viene
eseguita prima che il sistema si guasti),
spesi in attesa di risorse necessarie
all’espletamento della manutenzione.
La disponibilità rappresenta dunque la
probabilità di essere in grado di funzionare correttamente al momento in
cui il funzionamento è richiesto, cioè
non fino a un determinato istante (che
richiama piuttosto il concetto di affidabilità) ma in un determinato istante,
indipendentemente da eventuali guasti
occorsi in precedenza e poi riparati.
Questo concetto implica pertanto che il
dispositivo possa risultare non funzionante in determinati istanti. Un sistema
L’attuale valutazione della disponibilità viene effettuata sostituendo agli elementi temporali altri parametri che
realizzano le grandezze interessate.
Si hanno così formulazioni differenti,
mirate a visualizzare obiettivi specifici. Sotto certe condizioni è necessario
definire la disponibilità di un sistema
riparabile con riguardo solo al tempo
di esercizio e alla manutenzione correttiva: ecco che la disponibilità così
definita, anche detta disponibilità
intrinseca (o stazionaria) (Inherent
availability) assume la forma:
Nell’ambito dei sistemi/componenti
riparabili, il guasto rappresenta dunque
solo uno dei momenti tipici della vita
utile, al quale seguono intervalli di funzionamento e di non funzionamento
che sono oggetto degli studi relativi alla
disponibilità. L’esigenza di ridurre al
minimo l’indisponibilità che deriva sia
dal guasto sia dalla riparazione sta
spingendo verso l’adozione di politiche
e tecniche di manutenzione sempre più
sofisticate e integrate.
BIBLIOGRAFIA
MTTF
MTTF
A=
=
MTTF + MTTR MTBF
(4)
In queste condizioni ideali sono trascurati i tempi di attesa e quelli associati alla manutenzione preventiva
(MTTR è quindi calcolato considerando solo i tempi di manutenzione correttiva). Tale grandezza (adimensionale e compresa tra 0 e 1) assume un
doppio significato:
• a posteriori, quello di “efficienza”
di un sistema per il quale sono stati
rilevati i parametri MTTF, MTTR,
MTBF;
• istantaneamente, quello di probabilità che il sistema sia disponibile (quindi non in riparazione). Ovviamente il
complemento a 1 della disponibilità
assume la denominazione di “indisponibilità” U (Unavailability):
U = 1− A =
MTTR
MTTF + MTTR
(5)
1. Lazzaroni, L. Cristaldi, L. Peretto, P.
Rinaldi and M. Catelani, Reliability
Engineering: Basic Concepts and
Applications in ICT, Springer, ISBN
978-3-642-20982-6, e-ISBN 978-3642-20983-3, DOI 10.1007/978-3642-20983-3, 2011 Springer-Verlag,
Berlin Heidelberg.
2. M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, “L’affidabilità
nella moderna progettazione: un elemento competitivo che collega sicurezza e certificazione”, Collana I quaderni del GMEE, Vol. 1 Editore: A&T, Torino, 2008, ISBN 88-90314907, ISBN13: 9788890314902.
3. A. Birolini: Reliability Engineering –
Theory and Practice. Springer, Heidelberg, 6 Ed., 2010, ISBN: 978-3642-14951-1.
4. R. Bellington, R. N. Allan: “Reliability Evaluation of Engineering
Systems” – Plenum Press, NY, 1996,
ISBN: 0306452596, ISBN-13: 9780-306-45259-8.
T_M ƒ 129
N. 02ƒ
; 2013
▲
I SERIALI
MISURE E FIDATEZZA
Marcantonio Catelani è
Professore Ordinario di
Misure Elettriche ed Elettroniche presso il Dipartimento di
Ingegneria dell’Informazione dell’Università di Firenze.
La sua attività di ricerca si
svolge prevalentemente nei settori dell’Affidabilità, della diagnostica e qualificazione
di componenti e sistemi, del controllo della
qualità e del miglioramento dei processi. Fa
parte del CT 56 – Affidabilità – del CEI ed
è coordinatore di gruppi di ricerca, anche
applicata, delle tematiche citate.
Loredana Cristaldi è
Professore Associato di
Misure Elettriche ed Elettroniche presso il Dipartimento di Elettrotecnica
del Politecnico di Milano. La sua attività di
ricerca è svolta principalmente nei
campi delle misure di grandezze elettriche in regime distorto e dei metodi
di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi industriali. Fa parte del CT 56 – Affidabilità – del CEI.
Lorenzo Peretto si è laureato in Ingegneria
elettronica presso l’Università di Bologna. È
attualmente docente di Affidabilità e Controllo
Qualità e di Strumentazione Elettronica di Misura presso l’Università di Bologna e afferisce al
Dipartimento di Ingegneria Elettrica. L’attività di
ricerca riguarda misure e metodi per l’affidabilità in ambito elettronico, tecniche di progettazione per la manutenibilità, strumenti e metodi per la misura della Qualità dell’Energia Elettrica.
T_M ƒ 130
Massimo Lazzaroni è
Professore Associato di
Misure Elettriche ed Elettroniche presso il Dipartimento di Fisica dell’Università
degli Studi di Milano. La
sua attività di ricerca è
rivolta alle misure per le applicazioni
industriali, per la diagnostica dei sistemi
industriali, per l’Affidabilità e il Controllo
della Qualità. Fa parte del CT 85/66 –
Strumenti di misura delle grandezze elettromagnetiche Strumentazione di misura,
di controllo e da laboratorio e del CT 56
– Affidabilità del CEI.
Paola Rinaldi si è laureata in Fisica presso
l’Università degli Studi di Bologna. Ha conseguito il titolo di dottore di ricerca in Ingegneria Elettrotecnica presso la stessa Università.
Dal 2001 è ricercatore universitario nel settore delle Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria dell’Energia
Elettrica e dell’Informazione dell’Università degli Studi di
Bologna.
I SERIALI
CONFORMITÀ E AFFIDABILITÀ
▲
CONFORMITÀ E AFFIDABILITÀ
Tommaso Miccoli
Dalla Conformità all’efficacia
Parte 4 – Gestione del processo di misurazione
MANAGEMENT OF A MEASUREMENT PROCESS
It often happens that the new standards, in particular those introducing original
concepts with respect to current thinking, do not receive the same amount of
appreciation as the amount of novelty that they bring in, and they are confined
in a sort of limbo. According to my opinion, this is a consequence of several
causes that can be all traced back to the lack of time for the necessary and due
examinations and to the inertia of the cognitive process. We tend to be satisfied with what we are used to do because the “trouble” of the change leads
to a preventive dissuasion.
The situation here depicted applies to the standard ISO 10012! Indeed in this
document, where the point of view is moved from the single calibration, providing metrological traceability, to the measurement process, which is oriented
toward the adequacy for use of the measuring instrumentation, an attempt was
made to introduce a new systemic vision of the management of measurement
instrumentation which actually resulted in a scarce application.
RIASSUNTO
È frequente che l’avvento di nuove norme, soprattutto se queste introducono
nuovi concetti rispetto al pensiero comune, non abbia un successo pari al livello d’innovazione introdotto, ed esse sono destinate a rimanere in un limbo
applicativo. Le cause sono molteplici, ma tutte, a mio modo di vedere, possono essere ricondotte alla mancanza di tempo per i necessari e legittimi approfondimenti o a una inerzia cognitiva che fa sì che ci si accontenti di continuare a fare “quello che si è sempre fatto” preventivamente dissuasi dalla “fatica”
che il cambiamento inevitabilmente comporta.
Anche per la norma ISO 10012 è successa lo stessa cosa! Infatti questo documento, spostando l’ottica dalla singola operazione di taratura, che fornisce la
riferibilità metrologica, al processo di misurazione, orientato, invece, sull’adeguatezza all’uso dell’apparecchiatura, ha cercato d’introdurre una visione
sistemica nella gestione delle apparecchiature, con scarsi successi applicativi.
SEMPRE RICHIAMATA,
POCO CONOSCIUTA,
QUASI MAI APPLICATA!
LA UNI EN ISO 10012:2004
Questo è il titolo di un breve saggio di
circa 60 pagine che nel 2010 ho redatto collaborando con un collega chimico, con lo scopo di fornire esempi applicativi della norma UNI EN ISO
10012:2004: Sistemi di gestione della
misurazione: Requisiti per i processi e le
apparecchiature di misurazione, nel
contesto delle misure effettuate presso i
Laboratori di prova.
Le misurazioni, in genere, sono esclusi-
La ISO 10012, al di là della descrizione dei requisiti da considerare nell’impostazione di un sistema di gestione di
misurazione coerente con tutti gli altri
Sistemi di Gestione conosciuti, introduce sostanzialmente due concetti che
sono d’importanza fondamentale nella
sua applicazione, e precisamente:
1. Il processo di misurazione ha inizio
con la definizione delle esigenze di
misurazione e si conclude con l’analisi
statistica dei dati derivanti dalle conferme metrologiche eseguite nel tempo;
2. La gestione dell’intervallo di conferma metrologica come elemento direttamente connesso con il rischio che l’apparecchiatura non sia in corretto stato
di conferma metrologica nel momento
del suo utilizzo.
IL PROCESSO
DI CONFERMA METROLOGICA
Come tutti i processi, anche quello di
conferma metrologica risponde alle
regole generali di gestione di un processo, che vedono l’identificazione del
perimetro di azione (inizio, fine e interazioni), la definizione degli input e la
precisa identificazione degli output in
relazione agli scopi e utilizzi previsti.
Quindi un processo di conferma non
dovrebbe mai iniziare dalla taratura, in
quanto una apparecchiatura potrebbe
essere correttamente tarata ma non idonea alle esigenze di misurazione per
uno specifico scopo.
Il processo di conferma metrologica ha
come obiettivo principale quello di
garantire l’adeguatezza dell’apparecchiatura di misurazione all’utilizzo previsto, ad esempio, da un metodo di
prova, da una caratteristica di un prodotto, dall’ambiente, ecc., qualora lo
va proprietà del mondo tecnico che, di
fronte a una norma che implica il soddisfacimento di requisiti gestionali, ha
trovato poco rilevante il suo utilizzo
nella gestione delle apparecchiature. In
conseguenza, si è continuato a operare
nel modo di sempre, ossia considerando valida la sola equazione “apparecchiatura di misura = taratura”; talvolta è implicita una “manciata” di verifiche intermedie, definite con
i criteri più disparati e la frequenza di
taratura, se non imposta da una norma
o da una legge, deriva da un responso
aleatorio, quasi fosse uscito da una
tiemme@protec.it
sfera di cristallo.
T_M
N.
2/13 ƒ 131
▲
I SERIALI
CONFORMITÀ E AFFIDABILITÀ
NEWS
▼
stato dell’apparecchiatura stessa ne
influenzi i risultati. Un’apparecchiatura
di misurazione può ritenersi adeguata
quando, note le sue caratteristiche di
misurazione (CMA), attraverso l’effettuazione di un processo di conferma
metrologica, si dà evidenza che soddisfa i requisiti metrologici richiesti
(RMC). Dal confronto tra CMA ed RMC
deriva che l’apparecchiatura può essere confermata metrologicamente (confronto positivo), oppure dichiarata non
confermata (confronto negativo) per
tutti o parte dei requisiti metrologici e,
conseguentemente, non idonea per lo
scopo previsto.
In quest’ottica, la taratura è un processo contenuto all’interno del processo di
conferma metrologica, e il suo output è
costituito dalla riferibilità metrologica
dell’apparecchiatura riportata in un
rapporto/certificato di taratura dal
quale vengono desunti i due parametri
NUOVO CALIBRATORE
DIGITALE PORTATILE
Il calibratore digitale 9110D di vibrazione portatile è il nuovo prodotto della
serie 9100 unità portatili della TMS,
una società del Gruppo PCB Piezotronics.
Il 9110D si distingue con nuove funzionalità che consentono agli utenti di
T_M ƒ 132
un processo, è necessario
identificare le variabili
dominanti
Figura 1 – Processo di conferma metrologica mediante taratura
del processo in
esame,
necessari allo scopo, ossia gli scosta- conoscerne la variabilità, fissare i limiti
menti e le incertezze di misura della entro cui tale variabilità consente di
taratura. Vedasi in sintesi quanto riepi- avere risultati accettabili e monitorarne
logato in Fig. 1.
gli andamenti nel tempo, per acquisire
le conoscenze per una governabilità
sempre più efficace ed efficiente.
CARATTERISTICHE METROLOGICHE Anche per il processo di conferma
SIGNIFICATIVE,
metrologica vale questa regola generaLIMITI DI ACCETTABILITÀ
le e quindi occorrerà identificare la/le
E CONTROLLO STATISTICO
caratteristiche metrologiche significative
DELLA CAPACITÀ DEL PROCESSO rappresentative del mantenimento del
corretto stato di conferma metrologica
In generale, per tenere sotto controllo dell’apparecchiatura nel tempo, dopo
fare quel passo in più sulla taratura portatile, ivi compresa la generazione di un
certificato di taratura ISO 17025-compatibile.
Il calibratore 9110D Digital Portable
Vibration è compatto, alimentato a batteria ed è una fonte completamente autonoma di riferimento per le vibrazioni;
esso può essere convenientemente utilizzato per tarare i singoli sensori, interruttori di vibrazioni e trasduttori di spostamento.
I dati raccolti consentono di convalidare il canale misura, ma anche l’intera
catena di monitoraggio o di registrazione.
Progettato per l’uso in situ, anche su
impianto di produzione, l’unità calcola
e visualizza la sensibilità del sensore di
prova sullo schermo di lettura in tempo
reale. Ha anche, built-in, l’ingresso
ICP® per comuni accelerometri piezoelettrici, e può salvare fino a 500 record
di calibrazione direttamente nella memoria interna dell’unità. Gli utenti possono copiare i record su flash drive USB
(incluso) come una comune cartella di
lavoro. La generazione di rapporti tramite la porta USB dell’unità risulta essere molto semplice. I dati di calibrazione
salvati vengono poi trasferiti su un computer in cui l’utente può facilmente generare e stampare un certificato di calibrazione ISO personalizzabile e con-
forme alla norma ISO 17025. Questo
prodotto offre una eccellente stabilità
per la taratura delle vibrazioni con
intervallo esteso da 7 Hz (420 CPM) a
10 kHz (600.000 CPM) come gamma
di frequenza, mentre le ampiezze sono
fino a 20 g pk (196 m/s2).
Il 9110D è dotato di un accelerometro
integrato (di riferimento) al quarzo,
assoluta precisione e regolazione automatica del livello di vibrazione, il tutto
alloggiato in una robusta Pelican®
Storm Case. Il 9110D è sempre pronto
all’utilizzo sui siti di prova industriali, consapevoli di portare con voi sul
campo l’accuratezza di uno strumento
da laboratorio.
Con sede a Cincinnati (Ohio, USA), la
TMS è una società del Gruppo PCB Piezotronics che produce prodotti per test
strutturali, shaker elettrodinamici per
vibrazione, sistemi di taratura per accelerometri, microfoni e pressioni, sistemi
di collaudo non distruttivi per una varietà di industrie e di laboratori di prova
nazionali.
Per un elenco completo dei prodotti TMS e specifiche schede tecniche:
www.modalshop.com
Per maggiori informazioni, interpellare
la filiale italiana di PCB Piezotronics:
www.pcbpiezotronics.it
N. 02ƒ
;2013
logica sotto controllo statistico, occorre
però che siano state rimosse tutte le
cause identificabili di variabilità, e che
sia stata raggiunta una variabilità naturale del processo monitorata ed esaminata attraverso la lettura delle carte di
controllo X – R (norma UNI ISO
8258:2004 – carte di controllo di Shewart).
Gli indici di qualità di un processo più
comunemente usati sono:
– l’indice di potenzialità del processo
(Cp, process capability) definito come il
rapporto tra la differenza dei limiti di
specifica e 6 volte lo scarto tipo del processo (Cp= (LSS-LSI)/6σ);
– l’indice di prestazione del processo
(Cpk, shifted capability index) definito
come la prestazione effettiva del processo in quanto indica lo spostamento
della media dei valori misurati rispetto
al valore nominale, perché è un indice
unilaterale rispetto al limite più vicino
alla media (Cpk= min [LSS-µ/3σ;
µ-LSI/3σ].
La relazione tra Cp e Cpk ha significato
solo nel caso di distribuzione normale e
specifica simmetrica. Quando il valore
della media dei valori misurati è deviato rispetto al valore nominale, vale sempre la relazione Cp ≥ Cpk. Cp sarà uguale a Cpk solo nel caso in cui si ha un
valore di specifica simmetrica, e la media dei valori rilevati del processo in
esame, centrati sul valore nominale. Si
rimanda alla lettura di specifici testi sul
controllo statistico di processo per l’approfondimento sull’argomento.
Il valore maggiore di 1 di Cp è considerato accettabile in quanto la variabilità del processo è inferiore a quella
ammessa dalle specifiche. Tuttavia si
potrebbero avere dati fuori limite se il
processo non fosse centrato. In genere
si considera capace un processo in cui
il valore di Cp=Cpk ≥1,33. Infatti un
indice di 1,33 significa che la differenza tra la media m e il limite di
tolleranza è 4sigma (dato che
1,33 è 4/3). Con
un Cp e Cpk pari a
tale valore, il
99,994% dei dati
cade all’interno
delle specifiche.
▲
aver eliminato le cause di errori sistematici e ricondotto il processo entro i
limiti della sua variabilità naturale.
L’importanza di una corretta gestione
delle carte di controllo è, da questo
punto di vista, fondamentale al fine di
dare evidenza che il processo, oggetto
della nostra osservazione, è sotto controllo o meno. Appare fuori discussione
il beneficio di tale approccio, che consente di governare con valutazioni statistiche un processo quando sono presenti cause identificabili di variabilità.
Purtroppo, il numero di dati disponibile
non è sempre sufficiente per un’elaborazione statistica robusta: quindi è di
fondamentale importanza definire accuratamente i limiti di variabilità del
processo di verifica della caratteristica
ritenuta rappresentativamente significativa del corretto stato di conferma metrologica dell’apparecchiatura sotto
osservazione. Nei casi in cui è il metodo di prova stesso che definisce i limiti
di accettabilità delle tarature e delle
conferme metrologiche, è gioco forza
fare riferimento a questi valori ”guida”
e, nei casi in cui il risultato dovesse
essere fuori dai limiti di controllo, si
dovrà intervenire sulla causa riportando la misurazione entro i limiti di accettabilità.
Avendo a disposizione, invece, un numero sufficientemente elevato di dati
relativi al controllo della caratteristica
metrologica “guida”, si è in grado di
poter avviare un processo di eliminazione sistematica delle cause che originano controlli fuori limite riconducendo
il processo entro i limiti della sua variabilità naturale. In tal modo è possibile
ottenere un continuo e costante miglioramento finalizzato alla rimozione delle
situazioni anomale, e a riportare/mantenere il processo stesso sotto controllo
statistico. (Punto 8 pagg. 11-12 della
norma UNI ISO 8258:2004 – carte di
controllo di Shewart).
Il vantaggio di avere il processo sotto
controllo statistico è che esso diventa
predicibile, con conseguente preventiva
valutazione della sua capacità di soddisfare le specifiche e quindi, in termini
pratici, di poter diminuire i controlli che
portano sempre e comunque a un allungamento dei tempi di prova. Per poter
parlare di processo di conferma metro-
I SERIALI
CONFORMITÀ E AFFIDABILITÀ
Con riferimento a quanto visto finora,
tuttavia, non sempre l’obiettivo può
essere quello di ottenere indici di performance più elevati; occorre infatti
effettuare una valutazione complessiva
dell’intero processo in esame al fine di
verificare l’incidenza della fase di misura sull’incertezza composta e decidere,
di conseguenza, in che misura quest’attività di miglioramento sia economicamente conveniente. In questo caso diventa prioritario rispondere alla domanda se, o fino a che punto, si può assumere il rischio che il mancato controllo
del sistema di misura, verificato mediante la modalità associata alla capacità di processo, produca risultati inattendibili e quindi da rigettare.
CONFERMA METROLOGICA
MEDIANTE
L’ATTIVITÀ DI VERIFICA
Il controllo dell’andamento della caratteristica metrologica significativa consente di monitorare nel tempo la stabilità del comportamento dell’apparecchiatura dal punto di vista del mantenimento del corretto stato di riferibilità
metrologica. Tale attività è effettuata
mediante una verifica periodica del
valore di questa grandezza, valutandone la sua distribuzione su una carta di
controllo X-R. Se dall’andamento di tale
distribuzione si può dimostrare che la
sua variabilità evidenzia una situazione
di controllo statistico di processo, si
potrebbe continuare a confermare metrologicamente l’apparecchiatura solo
con le verifiche intermedie. Se invece
tale condizione non si realizza, si può
comunque aumentare l’intervallo di frequenza della conferma metrologica
mediante una taratura in ragione del
rischio che è possibile assumere in relazione alla criticità delle misure e all’im-
Figura 2 – Controllo statistico di processo
N. 02ƒ
; 2013
Figura 3 – Processo di conferma metrologica mediante verifica Intermedia
patto che queste hanno nella valutazione della conformità.
In Fig. 3 è rappresentato sinteticamente
il processo di conferma metrologica
realizzato mediante la verifica del mantenimento del corretto stato di riferibilità
metrologica associato alla Caratteristica Metrologica Significativa (CMS) e ai
suoi limiti di variabilità.
Dalla figura presentata e da quanto
enunciato sembrerebbe evidente la presenza di un conflitto normativo tra la
richiesta, ad esempio della norma
ISO/IEC 17025 che prevede la definizione preventiva di un intervallo di taratura, e invece il continuare a confermare metrologicamente l’apparecchiatura
solo con attività di verifica a condizione
che si sia in presenza di controllo statistico di processo. In realtà, a parere
dell’autore, vi sono due aspetti da considerare che annullano nella sostanza
tale conflitto apparente:
– l’armonizzazione semantica tra i termini utilizzati nelle varie norme che trattano l’argomento, nello specifico la ISO
10012 che prevede un riesame periodico del sistema di misurazione e la
norma ISO/IEC 17025 che invece
richiede una taratura periodica;
– l’esclusione dal concetto di taratura di
una fase preliminare di analisi di dati
inerenti i risultati delle precedenti conferme metrologiche dell’apparecchiatura ottenute sia con attività di taratura
sia con attività di verifica. Analisi dei
dati che nella ISO 10012 rappresenta
il perimetro finale del processo di conferma.
Se si tengono in considerazione i due
concetti sopra espressi, è possibile ipo-
T_M ƒ 134
tizzare un parallelismo sincronizzato
tra quanto richiesto dalla ISO/IEC
17025 in termini d’intervallo di taratura, e quanto invece proposto nella ISO
10012 come riesame periodico. Entrambe le norme richiedono un ciclo
periodico globale e sistematico di verifica della corretta riferibilità metrologica dell’apparecchiatura, ma non è
scontato che tale verifica debba obbligatoriamente portare a un’attività operativa di taratura.
Se dall’analisi dei dati emerge una
situazione tale che il processo di misurazione è sotto controllo statistico, ciò
sta a significare che il processo è capace, e che nel 99,994% soddisfa i requisiti richiesti. Qualora io procedessi in
una situazione di questo tipo a effettuare la taratura, al risultato ottenuto, affetto dall’incertezza di taratura, normalmente è associato un intervallo di confidenza pari al 95%. In tale ipotesi,
quale delle due conferme è più performante? La prima, generata da una analisi statistica dei dati che confermano un
processo di misurazione capace personalizzato per quella determinata apparecchiatura, in quell’utilizzo specifico e
in quel preciso contesto, o la seconda
derivata da un processo più generale di
taratura? (vedi Fig. 4).
Per poter realizzare un’analisi statistica
significativa (vedi carte di controllo di
Shewart UNI ISO 8258:2004 pag. 13
Fig. 3, e pag. 16 punti 10.4 e 10.5)
è scontato che si deve poter disporre
di un numero di dati statisticamente
significativo, ecco allora che il numero di verifiche intermedie da effettuarsi tra due successivi riesami deve garantire l’applicazione di quanto sopra
descritto.
L’INTERVALLO
DI CONFERMA METROLOGICO
A oggi, purtroppo, non sono disponibili metodologie semplici, sicure e poco costose che possano supportare
adeguatamente un laboratorio nell’attività di garantire la definizione di
una corretta frequenza nella verifica
del corretto stato di conferma metrologica. L’approccio qualitativo proposto, ad esempio, dalla guida ILAC
G24 dà generiche indicazioni sulla
definizione dell’intervallo di conferma metrologica il quale dovrebbe
essere definito prendendo in considerazione:
Figura 4 – Riesame periodico del sistema di misura e frequenza di taratura
N. 02ƒ
;2013
• le raccomandazioni fornite dal
costruttore;
• l’estensione, la frequenza e la severità di utilizzo dell’apparecchiatura;
• l’influenza delle condizioni ambientali;
• l’incertezza di misura richiesta;
• gli errori massimi possibili (paragonati ad esempio con i requisiti cogenti);
• i possibili aggiustamenti dell’apparecchiatura;
• le influenze esterne sulla misura;
• la disponibilità di dati relativi ad
apparecchiature similari.
Per talune apparecchiature sono invece disponibili norme e/o linee guida
che cercano di dare indicazioni quantitative sugli intervalli di taratura consigliati, come ad esempio nell’appendice D della guida EA 4/10.
Più in generale, per poter prendere
decisioni sulle caratteristiche da tenere
sotto controllo e sulle frequenze da utilizzare, occorrerebbe preventivamente
valutare la criticità di tali caratteristiche
e il relativo impatto sui risultati analitici
finali. Tale attività, se condotta sistematicamente con un approccio metodologico, si configura come un’analisi di
valutazione del rischio non oggetto del
presente articolo.
Esiste un legame molto stretto tra gestione del rischio e gestione del processo di misurazione in considerazione del fatto che rappresenta una delle
maggiori criticità presenti in un labo-
■
I SERIALI
CONFORMITÀ E AFFIDABILITÀ
misurazione rappresentano un processo critico in un laboratorio di
prova, sia per il peso economico sia
per la qualità dei risultati prodotti.
La pubblicazione della UNI EN ISO
10012:2004, spesso sottovalutata, e
la soggettività con cui si affronta questa tematica principalmente derivata
dalle esperienze e convinzioni personali maturate nel tempo, hanno portato a una reale disattenzione verso
possibili nuovi approcci che potrebbero migliorare le esigenze di operatività concreta dei laboratori di prova.
È per tale motivo che sarebbe importante aprire un tavolo di discussione
tra utilizzatori, costruttori ed Enti di
Accreditamento/Certificazione al fine
di concordare alcune posizioni accettabili da parte di tutti nell’ottica comunque di garantire l’esecuzione di
attività a valore aggiunto che abbiano un senso logico compiuto all’interno dell’intero processo di misurazione, siano economicamente sostenibili
e migliorino complessivamente l’efficacia e l’efficienza delle prestazioni
analitiche erogate dai laboratori di
prova.
Solo in questo modo si può sperare di
ridurre le possibili incomprensioni tra
chi opera in tali processi, nella convinzione che le posizioni personali
CONCLUSIONI
siano spesso superate da un’evoluzione tecnologica e di pensiero in contiLa conferma metrologica e l’attività di nuo cambiamento che possa aiutare a
taratura delle apparecchiature di vedere da nuove angolazioni concettuali i vecchi problemi. Non è forse
questa la vera capacità di apprendere
in un percorso di life long learning?
ratorio di prova. Gli elementi da valutare non sono solo quelli legati al
rischio dell’esecuzione di un’attività di
prova con un’apparecchiatura non
in corretto stato di conferma metrologica (rischio operativo), ma anche il
tipo di utilizzo che il cliente farà dei
dati generati dal processo di misurazione.
Alla luce di tali considerazioni, le
classi di rischio possono avere un impatto significativo sui rischi strategici,
sui rischi legati a contratti, norme e
regolamenti, sui rischi di perdita d’immagine, sui rischi finanziari, ecc..
Chi conosce la filosofia di fondo del
Sistema di Accreditamento sa benissimo che la credibilità di una Organizzazione passa attraverso la capacità
di adottare misure preventive finalizzate ad assicurare prestazioni compatibili con le esigenze dei propri
clienti.
Nella Fig. 5 si riporta una tabella sintetica di comparazione tra i metodi
per la determinazione dell’intervallo
di conferma metrologica previsti nel
documento ILAC G24, lasciando al
lettore un eventuale approfondimento
sul tema mediante nella lettura diretta
della guida suddetta.
Tommaso Miccoli Laureato in Scienze Strategiche e Scienze Politiche è
amministratore della Tiemme Sistemi Sas. Membro
fondatore del network
Kosmosnet. Si occupa
della Progettazione, Sviluppo e Ottimizzazione di Processi Organizzativi e di
Supporto alla definizione di Strategie e
ottimizzazione dei Sistemi di Governance. Lead Auditor Certificato di Sistemi di
Gestione. Collabora con Accredia in
qualità di Ispettore di Sistema dal 1998.
Figura 5 – Metodi riportati nella ILAC G24 per la definizione degli intervalli
di conferma metrologica
T_M ƒ 135
N. 02ƒ
; 2013
▲
NEWS
IL PREMIO HBM 2013 PER L’ACQUISIZIONE DATI DI MISURA
I tre lavori vincitori premiati ad Affidabilità & Tecnologie 2013
HBM, leader internazionale negli strumenti e sistemi di misurazione, allo scopo di contribuire ancora più concretamente all’innovazione competitiva delle industrie e degli enti di ricerca italiani ha chiamato a raccolta tutti coloro i quali abbiano sviluppato idee significative o maturato esperienze applicative di successo, nell’ambito dell’acquisizione dati di misura.
Siamo molto soddisfatti del numero e soprattutto del livello contenutistico dei lavori ricevuti, tutti molto interessanti. Fra tutti i
contributi pervenuti, la giuria ha scelto il vincitore e i successivi
due classificati, che sono stati premiati ufficialmente il 18 aprile 2013, presso lo stand HBM all’interno della settima edizione
di AFFIDABILITÁ & TECNOLOGIE Torino, Lingotto Fiere, la
manifestazione italiana dedicata a metodi, strumenti e tecnologie per l’Innovazione Competitiva.
Il vincitore del 1° premio si è aggiudicato l’innovativo sistema di acquisizione dati espressoDAQ 1-DQ430-START-PAK,
mentre il 2° e 3° classificati hanno vinto la partecipazione
gratuita al seminario tecnico “Il modo pratico per determinare l’incertezza di misura” che si terrà nei giorni 8 e 9 ottobre
2013 presso la filiale italiana di HBM a Milano. A tutti i premiati, inoltre, è stato omaggiato l’abbonamento annuale alla
rivista “TUTTO_MISURE”.
1° CLASSIFICATO
Progetto:
“Acquisizione dati da
fotosensori
per la realizzazione
di
un sistema
in fibra ottica per la misura del flusso durante
la ventilazione polmonare neonataGianluca Marengo (HBM Italia)
le”
consegna il primo premio a Luigi Battista
Candidato:
Ing. Luigi Battista
Ente: Università degli Studi Roma Tre
Articolo pubblicato su questo numero a pag. 107
2° CLASSIFICATO
Progetto: “Misure estensimetriche in Biomeccanica”
Candidato: Prof. Ing. Luca Cristofolini
Ente: Dipartimento di Ingegneria Industriale, Università di Bologna
3° CLASSIFICATO
Progetto: “Monitoraggio del quadro fessurativo della
volta della chiesa adiacente gli Appartamenti Reali
del Borgo Castello della Mandria”
Candidato: p.i. Vincenzo Di Vasto
Ente: Dipartimento di Ingegneria Strutturale, Edile e Geotecnica,
Politecnico di Torino
ACCESSORI PER STRUMENTI DI MISURA E TEST
LABO-SYSTEM di TORINO rappresenta
da oltre 20 anni il punto di riferimento nel
settore degli accessori per strumenti di
test, diagnostica e misura. La gamma di
prodotti spazia dal semplice spinotto a
banana 2-4 mm ai più recenti prodotti di
T_M ƒ 136
sicurezza a norme IEC61010031 (pinze coccodrillo isolate,
adattatori magnetici, cordoni
con spinotti protetti) per misure
di grandezze elettriche con
Power Analyzer e altri strumenti, oltre a comprendere kit
di ricambio per tutti i tipi di
multimetri e strumenti diagnostici vari.
Tra i prodotti più innovativi
l’ampia gamma di connettori
isolati BNC (prese da pannello, spine e prese volanti) con
cavo speciale extraflessibile
isolato in PVC o Silicone (tipo RG58). I
connettori BNC e il cavo sono disponibili
in un’ampia gamma di colori!
Per chi si occupa di misure metrologiche
nell’ambito dei Centri SIT, la LABOSYSTEM offre un’ampia gamma di spinot-
ti a banana 4 mm e morsetti da pannello
in CuTe dorati per misure Low E.M.F; inoltre cavi di misura speciali, pinze Kelvin di
ogni tipo e dimensione!
La società torinese da anni mette al servizio
dei clienti la propria esperienza nel ricercare e trovare ogni genere di cordone di
misura di qualsiasi provenienza o marca.
Tra le linee principali dell’offerta non mancano connettori singoli e multipli Alta Tensione completati da una vasta gamma di
cavi A.T. in Silicone, PVC, PE, extraflessibili e non, fino a 300 KV.
Per chi lavora con Alte Correnti sono disponibili morsetti da pannello e spinotti
fino a 400°; anche qui la gamma si completa con cavi extraflessibili in PVC e Silicone fino a 300 mmq.
Per ulteriori informazioni:
www.labo-system.it
METROLOGIA
LEGALE E FORENSE
▲
A cura dell’Avv. Veronica Scotti e dell’Avv. Fernando Figoni
(veronica.scotti@gmail.com)
www.avvocatoscotti.com
Il consulente tecnico d’ufficio:
oneri e onori
The technical expert involved in trials/cases: duties and honours
LEGAL AND FORENSIC METROLOGY
This section intends to discuss the great changes on Legal
Metrology after the application of the D.Lgs. 22/2007, the
so-called MID directive. In particular, it provides information,
tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the
Directive. This section is also devoted to enlightening aspects
of ethical codes during forensic activities where measurements are involved.
Please send all your inquiries to Ms. Scotti or to the Director!
RIASSUNTO
Questa rubrica intende discutere i significativi cambiamenti in tema di
Metrologia Legale a seguito dell’entrata in vigore del D.Lgs. 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni,
consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del
loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di
aspetti etici correlati allo svolgimento di misurazioni legate ad attività in
ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete
accontentati!
LA CONSULENZA TECNICA
D’UFFICIO: INQUADRAMENTO
Nell’ambito di un giudizio, sia esso
civile, penale o amministrativo, accade sempre più spesso che si renda
necessario per il giudice, ai fini
della piena comprensione dei fenomeni indagati, il ricorso a competenze tecniche che possono essere
fornite solamente da soggetti particolarmente qualificati, ovvero specializzati in date materie (commercialista, ingegnere, geologo, grafologo e altri). Come già altre volte
sottolineato, benché nel nostro ordinamento il giudice sia definito come
peritus peritorum e abbia quindi
pieni poteri anche in relazione a
materie al medesimo estranee (quanto meno apparentemente estranee), i
codici contemplano e disciplinano
detto supporto tecnico, esterno rispetto al giudice, prevedendone limiti e regolamentazione.
Di fatto, l’organo giudicante decide,
in merito alla necessità o meno di una
consulenza tecnica d’ufficio (CTU), in
via del tutto autonoma, in base al proprio apprezzamento circa la vicenda,
sebbene spesso accada che tale richiesta provenga dalle parti in causa
che sollecitano la disposizione di una
verifica qualificata destinata a fare
chiarezza su elementi tecnici specialistici ignoti alla conoscenza comune.
In ossequio alla natura della consulenza tecnica d’ufficio quale strumento di ausilio per il giudice, rimane
ferma la possibilità per quest’ultimo di
controllare i risultati cui il consulente è
pervenuto, e di non conformarsi alle
sue conclusioni pur dovendone dare,
in questo caso, adeguata motivazione
[Cass., sez. I, 13/9/06 n. 19661]
che non è invece necessaria quando il
giudice condivida l’esito della consulenza [Cass., sez. III, 13.10.05,
n. 19475].
Proprio perché si tratta di supporto
qualificato per il giudice, la consulenza tecnica, normalmente, non
viene considerata un mezzo di
prova vero e proprio, ma solo uno
strumento di valutazione delle prove
che le parti hanno già messo a disposizione del giudice nel processo
(Piero Leanza (a cura di), Le prove
civili, Torino, Giappichelli, 2012, p.
338-340). Ciò è vero solo in parte
perché, quando l’attività del consulente si spinge oltre la pura valutazione e si trasforma in deduzione,
ad esempio per la determinazione
delle cause di un certo fenomeno
fisico, le dichiarazioni del consulente si avvicinano molto al valore di
prova (ivi, 340-341), superando in
tale modo la natura stessa della
consulenza e divenendo elemento
probatorio in ordine alla fattispecie
esaminata in giudizio, come si dirà
brevemente in appresso.
Sotto il profilo rituale, una volta assunta la decisione di disporre una
consulenza tecnica d’ufficio, il giudice decide la nomina del consulente
tecnico (CTU)1, scegliendolo tra gli
iscritti nelle liste del Tribunale e invitandolo a prestare giuramento 2. Il
giuramento, che consiste nella presentazione dinanzi al giudice e nell’impegno ritualmente assunto con la
formula “consapevole della responsabilità morale e giuridica che assumo nello svolgimento dell’incarico,
mi impegno ad adempiere al mio
ufficio senza altro scopo che quello
di far conoscere la verità”, è atto
dovuto del consulente il quale
può, comunque, rifiutare l’incarico
ricevuto se sussistono incompatibilità
o altri elementi ostativi che il consulente ha l’obbligo di comunicare al
giudice.
Successivamente a tale adempimento, il consulente diviene ausiliario
del giudice e, come tale, assume lo
status di pubblico ufficiale
munito dei conseguenti poteri. Va
però rilevato che spesso il giudice
T_M
N.
2/13 ƒ 137
limita, al momento dell’assegnazione dell’incarico (soprattutto per
quanto concerne il procedimento
civile) l’ambito di attività del consulente, definendo i confini della liceità del suo operato. L’atto con cui l’incarico del consulente viene definito
e contestualmente anche circoscritto
è la formulazione del quesito cui lo
stesso dovrà rispondere con la propria relazione. Il quesito risulta normalmente nel verbale dell’udienza
in cui il consulente viene nominato.
LA CTU PERCIPIENTE
E LA CTU DEDUCENTE
È prassi abbastanza comune nell’ambito giuridico di descrivere i
poteri e l’ambito operativo del consulente con le due parole: “deducente” e “percipiente”. La contrapposizione riflette l’ambiguità che
contrassegna il ruolo del consulente
e la natura di prova della sua attività. La questione è piuttosto sottile
perché, come si è detto, la CTU non
è considerata un mezzo di prova
vero e proprio, ma piuttosto uno strumento di valutazione dei fatti e delle
eventuali prove già dedotti e allegati nel processo, anche se è possibile
che il compito del consulente vada
oltre la pura e semplice valutazione.
La giurisprudenza ci dice infatti che il
giudice può affidare al consulente
non solo l’incarico di valutare i
fatti accertati o dati per esistenti
(consulente deducente), ma anche
quello di accertare i fatti stessi
(consulente percipiente), e in tal
caso, poiché la consulenza costituisce
essa stessa fonte oggettiva di prova, è
necessario e sufficiente che la parte
deduca il fatto che pone a fondamento del suo diritto e che il giudice ritenga che l’accertamento richieda specifiche cognizioni tecniche (Cass. Civ.
sez. III, 23.2.06 n. 3990).
Il consulente deducente, quindi, è
quello che più propriamente svolge il
compito dell’ausiliario del giudice nel
senso di valutare le prove esistenti,
mentre quello percipiente deve accertare fatti non altrimenti accertabili.
Quest’ultimo inciso riveste una particolare importanza nel processo, perché la consulenza tecnica non può
sostituire i poteri delle parti di far confluire nel processo i mezzi di prova
che possono legittimamente e doverosamente utilizzare in modo tempestivo.
È infatti principio assolutamente unanime che il CTU non possa fare da
supplente alle parti che abbiano
omesso di provare i fatti da loro
dedotti (questo peraltro giustifica il divieto di consulenze puramente esplorative, ma questo è un problema che
non riguarda il consulente, ma il giu-
▼
Una volta che abbia prestato il giuramento, il consulente deve predisporre
la propria relazione al giudice, salvo
che, per qualche motivo, non sia chiamato a rendere le proprie dichiarazioni al giudice stesso e alle parti in
udienza (è questa la norma nel processo penale, come previsto nell’art.
511 c.p.p.).
NEWS
N. 02ƒ
; 2013
▲
METROLOGIA
LEGALE E FORENSE
MISURA DELLA TEMPERATURA DEI CAMPIONI
DURANTE I TEST D’INVECCHIAMENTO
La temperatura del materiale sottoposto a prove d’invecchiamento è
una delle cause primarie della sua
degradazione. La misura della temperatura dei campioni durante i test
d’invecchiamento accelerato fino a
oggi risultava difficoltosa e richiedeva l’interruzione della prova.
URAI è lieta di annunciare l’introduzione dell’innovativa tecnologia S_T
(Specimen Specific Surface Temperature) per i Weather Ometer serie
Ci4000 della propria rappresentata
ATLAS MTT. Il sistema utilizza un sensore a infrarossi per l’accurata rilevazione della temperatura superficiale del campione posto nella
fascia centrale della giostra rotante.
A esso è abbinato un sistema auto-
T_M ƒ 138
matico RFID per identificare e contrassegnare in maniera dinamica le
rilevazioni effettuate. I valori di temperatura rilevati potranno poi essere
resi disponibili sia sotto forma di
tabella sia visualizzati in forma grafica sullo schermo touch screen dello
strumento.
Tra le caratteristiche principali di questa innovazione citiamo:
– possibilità di contrassegnare, con
codici specifici, i vari campioni ai
quali verranno accoppiate le rilevazioni di temperatura;
– visualizzazione in “real-time” delle
temperature superficiali dei campioni
durante la loro esposizione;
– esportabilità dei dati ai fogli di calcolo per successive analisi.
Parte essenziale
del
sistema S_T
è il pirometro
ottico
che, fornito
di certificato NIST, è ricalibrabile insitu senza necessità di rimuovere
alcun componente. Ulteriore punto
di forza di questo sistema è l’estrema versatilità d’impiego nelle più
svariate condizioni di temperatura,
umidità e irraggiamento.
Per ulteriori informazioni consultare
il sito
www.urai.it
o inviare e-mail a
piermario.fossati@urai.it
N. 02ƒ
;2013
TERZIETÀ DEL CTU
E CONTRADDITTORIO
DELLE OPERAZIONI
Il CTU deve essere terzo e imparziale in modo non dissimile dal giudice come richiesto dal suo ruolo di
ausiliario. Anche il CTU può venire
ricusato, cioè rifiutato dalle parti, con
apposita istanza e può astenersi qualora ritenga di potere essere in una
posizione non equidistante dalle parti
(cfr. Cass. 22 luglio 2004, n. 13667).
Al principio della terzietà e imparzialità fa da sfondo in qualche
modo il principio del contraddittorio, caratteristico di tutte le fasi del
processo e quindi anche delle operazioni di valutazione delle prove.
Tale contraddittorio, nell’ambito della consulenza tecnica nel processo
civile, si articola con lo strumento
previsto dall’art. 87 c.p.c. ovvero
con la nomina dei consulenti tecnici
di parte (CTP).
I CTP hanno il compito di ausiliari del
difensore della parte, come il CTU lo
è del giudice. A tale effetto, una volta
che la loro nomina è stata portata a
conoscenza del CTU o per menzione
del nominativo al verbale dell’udienza o per comunicazione diretta (come
è prassi piuttosto comune), a essi va
comunicato ogni avviso riguardante
le operazioni peritali.
Il ruolo del CTP risulta essere valorizzato nel processo civile con la
Legge n. 69 del 18 Giugno 2009.
Secondo il nuovo testo dell’art. 195,
il Giudice deve fissare i termini entro
i quali: (i) il consulente deve trasmettere la bozza di relazione ai
CTP; (ii) il termine entro il quale i
CTP devono trasmettere al consulente le proprie osservazioni; e (iii) il
termine entro il quale il consulente
deve depositare in cancelleria il testo definitivo della relazione, le osservazioni formulate dalle parti e
una sintetica valutazione sulle stesse.
Anche nel processo penale il contraddittorio è disciplinato dalla legge e in
particolare dall’art. 225 c.p.p. che
prevede la possibilità delle parti di
nominare propri consulenti tecnici di
parte, i poteri dei quali sono previsti
dall’art. 230 c.p. (assistere al conferimento dell’incarico, presentare richieste, osservazioni e riserve, partecipare alle operazioni peritali, esaminare
le relazioni, ecc.).
Da tale panorama normativo emerge
quindi la necessità del rispetto, da
parte del CTU, della dialettica processuale al fine di consentire alle parti
processuali il diritto di difesa e di partecipazione al giudizio, in ossequio ai
principi dettati in materia dalla Costituzione.
Gli adempimenti richiesti al CTU
comportano, come è intuibile, una
serie di responsabilità a carico del
consulente in caso di loro violazione. Infatti non si può trascurare che,
a seguito dell’accettazione dell’incarico, derivano obblighi specifici la
cui inosservanza, a seconda dei
casi, dà luogo a fattispecie penalmente rilevanti (quali falsa perizia,
patrocinio infedele, esercizio abusivo della professione), sanzioni civili
(risarcimento del danno) e discipli-
■
dice che deve ammettere o meno la
consulenza d’ufficio). L’art. 228 c.p.,
che disciplina i poteri del consulente
nominato nel processo penale, dispone che lo stesso può essere autorizzato dal giudice a prendere visione
degli atti, dei documenti e delle cose
prodotti dalle parti dei quali la legge
prevede l’acquisizione al fascicolo
per il dibattimento.
Il CTU non può pertanto (in
generale) acquisire documenti
se non siano stati già ritualmente
prodotti dalle parti e senza il consenso delle stesse (Cass. 19 agosto
2002, n. 231), pena la nullità della
consulenza. L’unica deroga a questo
principio è quella per cui il CTU, in
ragione del suo dovere di rispondere ai quesiti posti dal giudice, può
acquisire documenti anche non prodotti dalle parti o chiedere informazioni a terzi, purché tali documenti e
informazioni riguardino “fatti accessori rientranti nell’ambito strettamente tecnico della consulenza” e non
anche fatti posti a base della
domanda (Cass. Civ. 15 aprile
2002, n. 5422).
METROLOGIA
LEGALE E FORENSE
nari, che costituiranno oggetto di
successivo contributo.
Alla luce di quanto brevemente
esposto, in considerazione della crescente importanza delle CTU nei
diversi procedimenti giudiziari (sia
civili che penali e amministrativi),
nonché delle numerose norme previste per il corretto svolgimento dell’attività, nel rispetto dei principi
d’imparzialità e in osservanza del
principio del contraddittorio tra le
parti processuali, pare sempre più
concreta la necessità di una formazione latu sensu giuridica, anche
solo di massima, per i soggetti che
intendano prestare il loro servizio in
ambito processuale allo scopo di
fornire le indicazioni necessarie per
una idonea e utile attività di consulenza in ambito processuale, nonché
al fine di consentire la conoscenza
delle potenziali conseguenze derivanti da una non conforme esecuzione dell’incarico, con l’indicazione di eventuali cautele adottabili.
Fernando Figoni, Avvocato in Piacenza, Dottore di Ricerca in diritto
pubblico presso l’Università di Pavia e Membro
della Camera Arbitrale
presso la CCIAA di Piacenza.
NOTE
1
CTU costituisce acronimo sia della
consulenza che del consulente tecnico
d’ufficio ed è termine utilizzato in
forma ambivalente.
2 Secondo quanto stabilito dall’art. 61
codice di procedura civile: “La scelta
dei consulenti tecnici deve essere
normalmente fatta tra le persone iscritte in albi speciali formati a norma delle disposizioni di
attuazione al presente codice”. Ciò
non preclude, in ogni caso, al giudice di scegliere consulenti non iscritti
in albi qualora, in base al proprio
prudente apprezzamento, lo ritenga
opportuno.
T_M ƒ 139
N. 02ƒ
; 2013
▲
NEWS
BURSTER COMPIE 20 ANNI
La sensazione che provo nel guardarmi indietro è quella di un tempo trascorso velocemente, come fosse stato
ieri, e invece sono passati 20 anni.
Nel novembre del 1993 stavamo uscendo dall’ennesima recessione economica e decidevo di percorrere
questa nuova avventura aprendo burster Italia. Era
stata una decisione più forzata dagli eventi che desiderata, ma alla fine si è dimostrata vincente. Devo un
grazie particolare a Matthias Burster, che ha avuto
fiducia in me, e a tutti i miei collaboratori, in primis mia
nipote Elisa Azzola.
A quel tempo gli strumenti e i sensori burster erano
poco conosciuti in Italia ma, grazie all’ottima qualità
dei prodotti e alla mia fame di successo, partendo dal
fatturato del primo anno di soli 100 milioni di lire
abbiamo raggiunto in breve buoni risultati e, se non avessimo perso un’importante rappresentanza (la Staiger, per
la quale producevamo il miglior risultato di vendite a
livello mondiale), oggi potremmo vantare un fatturato
di oltre 6 milioni di euro.
Ma questa è la vita e devo dire che è proprio vero che “non tutti i mali vengono per
nuocere”. Infatti non ho avuto difficoltà a sostituire i torsiometri e le presse elettriche di
Staiger con le prestigiose Coretec (Japan) e Honeywell (USA). Questa sfida ci ha regalato già molte soddisfazioni e molte altre ce ne regalerà nel prossimo futuro.
In questi anni si sono succeduti molteplici avvenimenti, politici ed economici, molto negativi: tra questi, i più significativi sono stati l’attentato dell’11 settembre e la recente crisi
finanziaria che tuttora perdura e ci preoccupa. Tutto questo ci ha costretto ad aumentare
i nostri sforzi per fronteggiare le crisi, confermandoci oggi tra le aziende leader nel settore. L’altro fenomeno significativo per la nostra economia è stata la globalizzazione, che
ha costretto molte aziende ad affrontare la concorrenza di paesi emergenti che godono
di un costo del lavoro molto contenuto. Si sono salvate le aziende capaci di dare valore
aggiunto ai propri prodotti, a livello di contenuti e di elevata qualità. Molte di queste
aziende hanno inoltre adottato una politica di ricerca e sviluppo a lungo termine e ridotto il costo del lavoro aumentando l’efficienza, anche grazie alla meritocrazia.
Cosa dire del nostro settore e, più in generale, dell’Italia e degli italiani fin qui incontrati? Nel mondo dell’Università e della Ricerca abbiamo riscontrato una forte percentuale di persone scontente, a volte con scarse motivazioni; nel settore privato, a parte
le grandi aziende, la ricerca è ancora considerata più un costo che un beneficio a
lungo termine. Quindi è importante agire sulla leva della meritocrazia, soprattutto nel
pubblico, e correggere l’errato approccio dei privati per la ricerca e il controllo di qualità. Questa considerazione penso si possa estendere a tutti i settori lavorativi. Se
diamo per scontata la genialità italiana, la qualità di un prodotto o di un servizio è
oggi più che mai la parola magica per avere successo.
Per raggiungere una buona qualità servono passione e strumenti adeguati. Non essere tirchi nell’investire in ricerca e sviluppo è una priorità e, mentre noi italiani siamo
geniali nel progettare una macchina oppure un piatto di cibo speciale, qualche volta
trascuriamo di approntare un buon controllo di qualità o d’impiegare la migliore materia prima. La passione nel lavoro, e quindi la soddisfazione che da esso ci può derivare, è anch’essa direttamente proporzionale al successo di un’impresa e la leva fondamentale per praticarla è la “meritocrazia”. Quanti errori si sono fatti e, purtroppo,
si continuano a fare. Potremmo essere la nazione più bella e ricca del mondo ma, per
miopia o meschini interessi momentanei e personali, non lo abbiamo ancora capito.
Politicamente ci stiamo finalmente avvicinando alle democrazie anglosassoni, ma la
strada è ancora lunga, sia per disporre di politici e imprenditori geniali, affidabili e
onesti, sia di un sindacato che faccia veramente l’interesse dei lavoratori.
Dal 2012 è entrato a far parte della famiglia di burster Italia mio figlio, Ing. Federico,
che con l’esperienza lavorativa accumulata, in Italia e negli Stati Uniti, è già una colonna portante della nostra impresa.
Dare il massimo supporto prima della vendita cercando la migliore soluzione tecnica
e, se necessario, un adeguato training dopo vendita, rimane il nostro motto.
A tutti i nostri migliori auspici per i prossimi vent’anni.
Alberto Acquati
(Managing Director burster Italia)
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie
di Misuristi
THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT
This section groups all the significant information from the main University
Associations in Measurement Science and Technology: GMEE (Electrical
and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography), and Nuclear Measurements.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia
delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure
Nucleari.
GMEE: CONSIGLIO DIRETTIVO
DELL’ASSOCIAZIONE GMEE
A MILANO POLITECNICO
Il Consiglio Direttivo del GMEE si è
riunito il giorno 5 Aprile 2013 a Milano, presso la Sala Riunioni del Dipartimento di Elettrotecnica del Politecnico.
Tra le notizie d’interesse per i lettori, la
comunicazione, da parte del Presidente
Betta, che alla Presidenza dell’Istituto di
Ricerca Metrologica (I.N.Ri.M.) di Torino si è insediato, per decreto del Ministro Profumo, un nuovo Commissario nella persona del Prof. Rodolfo Zich (Politecnico di Torino). Al
Prof. Zich gli auguri di buon lavoro da
parte della Rivista! Il Presidente ha poi
ringraziato tutti i Soci del GMEE che
hanno dato pronta testimonianza per il
tragico e criminale atto doloso che
ha colpito la Città della Scienza
di Napoli.
Il GMEE ha una nuova
Unità Operativa: il GUFPI-ISMA
L’Associazione GUFPI-ISMA (Gruppo Utenti Function Point Italia – Italian
Software Metrics Association) ha
chiesto al Consiglio di poter
entrare nell’Associazione come
Unità Operativa GMEE. Il GUFPIISMA è l’Associazione italiana per la
promozione, la diffusione e lo sviluppo delle tecniche quantitative di
misurazione del software, inclusi i metodi di misurazione della dimensione funzionale Function Point
IFPUG e COSMIC (http://www.
gufpi-isma.org). Contemporaneamente l’Associazione GMEE entrerà a
far parte della GUPFI-ISMA.
UN’INTERESSANTE INIZIATIVA
CRUI-FEDERUTILITY,
D’INTERESSE PER SOCI GMEE
E AZIENDE
Mario Savino, Politecnico di Bari
Ormai vi è consapevolezza sempre
più diffusa che si esce dalla crisi economica del nostro Paese attraverso
non solo la concertazione tra imprese
e sindacati, ma, anche e forse soprattutto, attraverso una più stretta
collaborazione tra aziende e
Università, che possa consentire ai
prodotti e ai servizi di essere innovativi e quindi sempre più competitivi.
D’altra parte esistono diverse Direttive e Comunicazioni da parte dell’Unione Europea che sollecitano una
più stretta cooperazione Università –
imprese, al fine di garantire una
migliore divulgazione e valorizzazione delle nuove conoscenze nell’economia e nella società, anche per il
perseguimento degli obiettivi strategici fissati dal Consiglio europeo di
Lisbona.
La Conferenza dei Rettori (CRUI),
insieme con la sua Fondazione, è un
organo con funzioni propositive, di
consultazione e di raccordo del sistema universitario anche con il mondo
esterno. Diverse sono le iniziative
Sito web del GMEE
della CRUI intraprese per sviluppare
Il sito Web del GMEE (www.gmee.org) sinergie tra mondo universitario e
è fase avanzata di aggiornamento,
con nuova veste grafica. Oggi
include anche il sito della
Giornata della Misurazione. Si
sta ultimando la pagina contenente i progetti di ricerca dei
franco.docchio@ing.unibs.it
Soci GMEE.
T_M
N.
2/13 ƒ 141
grid deriva dalla considerazione che
l’evoluzione della rete elettrica
in linea con le tendenze mondiali
richiederà il coinvolgimento di
più soggetti in un processo che si
svilupperà in diversi anni, oltre alla
collaborazione delle strutture
di ricerca operanti sul territorio
nazionale. In particolare si sta già
lavorando all’ingegnerizzazione e
sperimentazione di nuove procedure,
applicate alle architetture di rete.
Grande attesa riveste l’applicazione
di nuove tecnologie riguardanti
le fonti energetiche rinnovabili
e le ICT, finalizzate al risparmio
energetico, alla riduzione dei gas a
effetto serra, oltre che a rispondere
alle domande provenienti dalla rete e
dal gestore. La presenza di una ge-
nerazione distribuita sulle reti
elettriche in media e bassa tensione richiede, utilizzando una rete
di trasmissione dati capillare e continuamente aggiornata, una differente
e più efficiente gestione dei carichi sui singoli nodi di rete, che
potrebbe contribuire a contenere le
perdite di rete e a ottimizzare la distribuzione dell’energia.
Il GdL sulle misure è interessato
soprattutto alle problematiche poste dalla Direttiva 2004/22/CE
(MID) sui contatori dell’acqua, oltre
che del gas e dell’energia elettrica, in
particolare sulla necessità di verificare la validità metrica dei
contatori (“bollo metrico”). Inoltre
sono stati posti aspetti tecnici di funzionalità dei contatori d’acqua
in ragione delle condizioni climatiche
estreme che possono verificarsi in
alcune aree geografiche del Paese.
Si è inoltre sottolineato come la Direttiva sull’efficienza degli usi finali dell’energia e i servizi energetici (2006/
32/CE) auspichi una maggiore
efficienza ottenibile tramite l’im-
▼
mondo delle imprese nei settori di
comune interesse. La CRUI ha sottoscritto con Federutility (la Federazione delle aziende dei servizi pubblici locali – www.federutility.it)
un accordo finalizzato allo sviluppo
di specifici progetti di ricerca su perdite negli acquedotti, nuove tecnologie per la depurazione,
sistemi di domotica per l’energia
e il gas, sistemi innovativi di misura e di telecontrollo e tecnologie
per lo smaltimento dei rifiuti. Per
conseguire tali obiettivi sono stati costituiti gruppi di lavoro (GdL) tematici composti da rappresentanti di
ognuno dei soggetti coinvolti (Università, Aziende Federutility e Imprese
rappresentate da Anie e Anima) e ciò
anche per creare le opportune sinergie volte a reperire finanziamenti
nazionali e internazionali.
I GdL si sono già riuniti sia a Roma sia
a Milano, anche alla presenza del
Segretario Generale della CRUI, Rettore Paleari, e stanno svolgendo le
prime istruttorie tecniche.
L’attenzione dei GdL sulle smart
NEWS
N. 02ƒ
; 2013
▲
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
CONTINUA LA PARTNERSHIP SULL’INNOVAZIONE
FRA HEXAGON E RED BULL TECHNOLOGY
Hexagon Metrology ha recentemente rinnovato il contratto di Partnership sull’Innovazione con la Red Bull Technology,
che si estende così fino alla fine del
2015 a conferma della forte cooperazione instaurata negli ultimi anni.
Partnership sull’Innovazione significa
che i tecnici Red Bull Technology sono
coinvolti non solo in quanto utilizzatori
di sistemi Hexagon Metrology, ma partecipano attivamente anche in attività di
ricerca, sviluppo e test di nuovi prodotti.
Entrambe le aziende trarranno grande
vantaggio da questa cooperazione,
essendo entrambe all’avanguardia nella
tecnologia automobilistica.
Chris Charnley, Quality Manager di Infiniti Red Bull Racing, afferma: “Immettiamo
costantemente massicce dosi di cambiamento nella nostra attività e operiamo con
T_M ƒ 142
tempi estremamente stretti, ma pretendiamo
il meglio nella qualità e precisione dei componenti. Hexagon Metrology ci offre la tecnologia e il supporto più avanzati per garantire che le operazioni di verifica si svolgano nel minor tempo possibile, nella completa fiducia della precisione e affidabilità
dei risultati”.
Al Peasland, Responsabile delle Partnership Tecnologiche di Infiniti Red Bull Racing, aggiunge “Hexagon Metrology è
un partner estremamente prezioso e il
carattere essenziale dei loro prodotti e
servizi li fa sentire realmente parte del
nostro team. Condividono la nostra passione e offrono livelli eccezionali di supporto che sostanzialmente ci aiutano a
restare competitivi”
Il livello di assistenza al cliente che si
aspetta il tre volte Campione del mondo
Costruttori e
Piloti di Formula Uno è
altissimo.
Chris parla
della sua esperienza con i team di assistenza tecnica e applicativi di Hexagon Metrology: “La natura del nostro settore industriale richiede orari lunghissimi, flessibilità e professionalità da parte dei tecnici di assistenza Hexagon Metrology.
Abbiamo assolutamente bisogno di
questo tipo di supporto. I tecnici Hexagon Metrology costituiscono davvero
un riferimento nell’assistenza al cliente”.
Per ulteriori informazioni:
www.hexagonmetrology.com.
N. 02ƒ
;2013
di utilizzo dei fanghi di depurazione della acque reflue
urbane in agricoltura in rapporto alla loro qualità e al loro contenuto di sostanze inquinanti rimosse dai
reflui depurati.
Il Gruppo di Misure Elettriche ed Elettroniche – GMEE ha manifestato
interesse a questa iniziativa
CRUI-Federutility e ha invitato una
rappresentanza della Federazione a
partecipare alla Sessione congiunta tra i gruppi di misure elettriche,
elettroniche, meccaniche e termiche
su “Innovazione tecnologica: criticità
e opportunità per l’Università, i Centri
di ricerca e l’Industria”, che si terrà
dall’8 all’11 settembre a Trento, durante il XXX Congresso nazionale del
GMEE.
SEMINARIO DI ECCELLENZA
“ITALO GORINI”
AL VIA L’EDIZIONE 2013
Gregorio Andria, Politecnico di Bari e
Claudio Narduzzi, Università di
Padova – Condirettori del Seminario
Il Seminario di Eccellenza
“Italo Gorini”, Scuola di Dottorato organizzata annualmente dall’Associazione Italiana GMEE sulle
tematiche della misurazione, è rivolta ad allievi di dottorato e giovani
ricercatori di tutta Italia. La Scuola
Gorini è articolata su un ciclo
triennale che nell’arco di durata di
un ciclo di dottorato permette, attraverso l’alternanza tra le diverse
linee di ricerca, di coprire tutte le
principali tematiche d’interesse GMEE.
L’edizione 2013 si terrà presso l’Università di Padova da lunedì 2
settembre 2013 a venerdì 6
settembre 2013 e sarà ospitata
nelle aule del Dipartimento di Ingegneria dell’Informazione. Le linee di
ricerca interessate sono: “Metodi di
misura”, “Strumentazione di
▲
piego continuo d’innovazioni
tecnologiche. In questo contesto
s’inserisce un provvedimento dell’Autorità per l’energia elettrica e il gas
(delibera ARG/gas 155/08, rivisto e
adeguato dalle delibere ARG/gas
36/11 e 28/12/R/GAS) che impone
una forte accelerazione nella
sostituzione degli apparati di
misura installati sulla rete di distribuzione del gas, in analogia a quanto
già disposto per il settore elettrico
dalla delibera 292/06.
Lo svilupparsi, anche su impulso regolatorio, di tecnologie legate allo smart
metering, alla telegestione e al telecontrollo rende ipotizzabile, in un
prossimo futuro, l’adozione di una
strategia multi-utility basata sulla
combinazione di alcune o di tutte le
misure in un unico sistema, il che permetterebbe non solo una riduzione
dei costi, ma anche la possibilità di
avere uno sguardo d’insieme sul
consumo energetico, favorendo
politiche di risparmio. In tal senso
appare opportuno citare il documento
di consultazione 478/2012/R/gas
avente a oggetto i criteri di selezione
degli investimenti ammessi alla sperimentazione di soluzioni di telelettura/telegestione congiunta di misuratori di gas naturale di classe minore o
uguale a G6 e di misure di punti di
riconsegna/prelievo di altre commodity.
Il GdL sui fanghi ha centrato la
sua attenzione sull’abbattimento
degli odori negli impianti di
depurazione, su una possibile utilizzazione dei fanghi prodotti
in questi impianti e sui trattamenti
per il raggiungimento di questi
scopi. Il recupero dei fanghi in agricoltura è normato a livello nazionale
dal D.Lgs. 27 gennaio 1992, n. 99,
che ha dato attuazione alla Direttiva
europea 86/278/CEE, nella stessa
materia. L’art. 5 comma 2 dello stesso decreto (D.Lgs. 99/92) prevede
la possibilità di aggiornare la normativa, “in conformità con le determinazioni della Commissione economica europea ovvero in relazione a
nuove acquisizioni tecnico-scientifiche”. In particolare il GdL ha focalizzato l’attenzione sulla possibilità
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
misura”, “Misure per l’uomo e
per l’ambiente”, a ciascuna delle
quali è dedicata una mattinata con
due relazioni presentate da docenti
esperti provenienti da vari Atenei italiani. Inoltre, due relazioni saranno
dedicate alle “Misure Meccaniche
e Termiche”, confermando la collaborazione ormai consolidata
con i docenti di quel settore e riguarderanno:
– “Immagini in infrarosso, potenzialità
e insidie di una tecnica di misura alla
portata di tutti” (Prof. B. Saggin, Politecnico di Milano);
– “Strumentazione aerospaziale per il
progetto ExoMars 2016” (Prof. S.
Debei, Università di Padova).
La Scuola presenta quest’anno due
nuove iniziative:
– un pomeriggio dedicato a un seminario/minicorso organizzato con il
contributo di National Instruments,
sui sistemi di acquisizione dati e la
loro gestione nell’ambiente LabView;
– visite a laboratori di ricerca dell’Università di Padova, di particolare
interesse per studenti di dottorato e
giovani ricercatori GMEE:
• “Misurare le emozioni” – laboratori
del Centro di Sonologia Computazionale;
• laboratorio e sala Prove in Alte Tensioni del Dipartimento di Ingegneria
Industriale;
• laboratorio di Colorimetria del
Dipartimento di Ingegneria Industriale;
• laboratorio di Bioingegneria del
movimento del Dipartimento di Ingegneria dell’Informazione.
La Scuola è da sempre aperta alla
partecipazione di persone provenienti da aziende ed enti. Da quest’anno,
è anche offerta la possibilità d’iscriversi alle singole giornate d’interesse
per assistere alle relazioni, secondo il
programma qui riportato:
T_M ƒ 143
• “Valutazione della sostenibilità e
dell’impatto ambientale dei prodotti”
(Prof. G. Dotelli, Politecnico di Milano)
Giovedì 5 settembre 2013
(ore 9:00-13:00):
Strumentazione di misura
(Prof. A. Baccigalupi, Università di
Napoli “Federico II”)
• “Definizione, misura e portabilità
del tempo nelle applicazioni scientifiche”
(Prof. G. Naletto, Università di Padova)
• “Design and metrological characterization of high-performance digital
magnetic flux-meters”
(Prof. P. Arpaia, CERN, Ginevra e
Università del Sannio, Benevento)
Venerdì 6 settembre 2013
(ore 9:00-13:00):
Misure per l’uomo e per l’ambiente
(Prof. M. Parvis, Politecnico di Torino)
• “Misure morfologiche e funzionali
sull’uomo: immagini e segnali biomedici in neurofisiologia”
(Prof. F. Molinari, Politecnico di Torino)
• da definire
(Prof. D. Trinchero, Politecnico di Torino)
Per ulteriori informazioni
e aggiornamenti:
http://measurement.dei.unipd.
it/gorini2013
NEWS
▼
Martedì 3 settembre 2013
(ore 9:00-13:00):
Metodi di misura
(Prof. R. Ottoboni, Politecnico di Milano)
• “Misure assolute di frequenze ottiche e spettroscopia molecolare di
precisione”
(Prof. G. Galzerano, Politecnico di
Milano)
T_M ƒ 144
N. 02ƒ
; 2013
■
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
NUOVA MACCHINA
DI MISURA SUPERPRECISA ED ECONOMICA
Con la nuova Leitz PMMXi, Hexagon Metrology si
rivolge in modo specifico
alle aziende produttive di
piccole e medie dimensioni, per le quali finora le
macchine di misura Leitz
PMM-C e Leitz Infinity non
erano economicamente
accessibili, offrendo una
precisione molto elevata e
stabile nel tempo e un’alta
produttività.
Con una precisione di
base di 0,6 + L/550
micron, la nuova Leitz
PMM-Xi è adatta all’ambiente industriale per la
taratura di strumenti di
misura e come macchina
di riferimento per produzione, centri qualità e
laboratori di misura. Come
macchina di misura universale, essa sostituisce inoltre
i form tester, le macchine
di verifica degli ingranaggi e alberi a camme, nonché altre macchine speciali offrendo risultati di misura riproducibili grazie a una risoluzione delle
righe ottiche di 0,02 micron.
La nuova macchina di misura è equipaggiata con la nuova versione del
sensore di scansione LSP-X5 High-Speed, che può operare in modalità
di scansione ad alta velocità autoadattativa, di scansione tridimensionale e in misura punto a punto. La nuova generazione dell’LSP-X5 è
dotata di un’interfaccia per un sensore di temperatura del pezzo intercambiabile con gli stili di misura. Il sensore di temperatura può essere
integrato nella testa di misura in ogni momento nel corso del ciclo di
misura. Con la misura della temperatura del pezzo e la successiva compensazione, i valori di misura diventano ancora più precisi.
Complessivamente sono disponibili nove modelli della Leitz PMM-Xi
nelle corse già affermate della linea Leitz PMM-C.
Per ulteriori informazioni:
Levio Valetti (Hexagon Metrology Italia)
E-mail: levio.valetti@hexagonmetrology.com
SPAZIO DELLE ALTRE
ASSOCIAZIONI
▲
Rubrica a cura di Franco Docchio e Alfredo Cigada
Notizie dalle altre Associazioni
• Riduzione dei possibili errori di misura introdotti dall’operatore.
Gli svantaggi:
• Il SW fornito dal costruttore richiede
spesso modifiche e adattamenti, per
poter eseguire, ad esempio, misure in
punti diversi da quelli già previsti, e
nella maggior parte dei casi non è utilizzabile per altri analoghi strumenti
(multimetri ad alte prestazioni, ecc.);
• Può succedere che il trasferitore (misuratore multifunzione) e il SW non
siano più supportati dal costruttore;
• Costi iniziali di sviluppo e verifica
non trascurabili.
OTHER ITALIAN ASSOCIATIONS
This section reports the contributions from Associations wishing to use
Tutto_Misure as a vehicle to address their information to the readers.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle Associazioni che vedono nella Rivista uno strumento per veicolare le loro informazioni al pubblico di Tutto_Misure.
A.L.A.T.I.: L’AUTOMAZIONE
NEI PROCESSI DI TARATURA
DELLA STRUMENTAZIONE
ELETTRICA - ASPETTI
E SOLUZIONI ANCHE
IN RELAZIONE AL DOCUMENTO
ACCREDIA DT-02-DT;
Carmelo Pollio, Delo Service Srl,
Vicepresidente A.L.A.T.I.
(presentato ad Affidabilità & Tecnologie
Torino, 18 aprile 2013)
L’automazione
Il termine automazione identifica la
tecnologia che usa sistemi di controllo
(come circuiti logici o elaboratori) per
gestire macchine e processi, riducendo la necessità dell’intervento umano.
L’automazione di un processo si realizza per l’esecuzione di operazioni
ripetitive o complesse, ma anche ove
si richieda sicurezza o certezza dell’azione o semplicemente per maggiore comodità.
In un processo di taratura accreditato
oltre a quanto sopra asserito bisogna
garantire dei requisiti specifici dettati
dell’ente di accreditamento.
La Storia dell’automazione nei
laboratori accreditati di taratura
Nell’ambito dei Laboratori di Taratura
Accreditati, l’automazione è utilizzata
per gran parte delle grandezze tranne che per quelle elettriche in bassa
frequenza. Dal 1998 si sono cominciate a utilizzare nelle attività accreditate procedure automatiche solo per
la taratura e la verifica periodica dei
campioni di prima e seconda linea e
solo per l’acquisizione delle misure,
già con buoni vantaggi.
Tutte le attività successive all’acquisizione rimangono “in manuale”, ovvero prevedono l’intervento umano da
parte di un operatore, così come l’elaborazione dei risultati e la stesura
dei documenti di registrazione delle
verifiche periodiche e tarature.
Nel tempo però si consolida l’obiettivo di sviluppare un sistema gestionale
automatizzato completo per tutte le
attività del laboratorio accreditato,
che riduca al minimo e semplifichi le
attività del personale addetto all’attività di taratura.
Ovviamente questo approccio porta
con sé vantaggi e svantaggi.
I vantaggi:
• Notevole riduzione delle ore di lavoro per l’esecuzione delle misure, eseguibili anche di notte (es. circa 256
punti di misura);
• Verifica immediata dei risultati, grazie anche all’utilizzo di fogli di calcolo realizzati con la stessa sequenza
dei dati generati dal programma che
esegue le misure (in formato Excel o
di testo);
Situazione attuale
Le continue richieste del mercato e la
notevole moltitudine di strumenti di misura multifunzione, e l’obbligato rinnovamento dei campioni dei Centri,
portano spesso ad affrontare nuove
sfide che hanno come obiettivo quello
di mantenere l’automazione delle misure nella gestione dei campioni e nell’esecuzione di tutte le tarature. Ad
esempio questa è la situazione che si
può avere utilizzando un SW come
MetCal.
MetCAL permette sia la gestione dei
campioni intesa come verifiche periodiche, verifiche pre- e post-trasporto e
verifica finale del calibratore multifunzione; sia la taratura della strumentazione anche in modalità semi-automatica, mantenendone così i vantaggi
iniziali. Come in passato, si continua
però a utilizzare il SW come sistema
di acquisizione anche se già è utilizzabile la parte che provvede all’emissione dei documenti finali della taratura ovvero il certificato. Tutto ciò,
però, non ha senso se si riducono i
tempi per l’esecuzione delle misure
ma non vengono ridotti i tempi di
franco.docchio@ing.unibs.it
T_M
N.
2/13 ƒ 145
esportazione ed elaborazione dei
risultati e la validazione dei modelli di
misura.
È stato quindi sviluppato un SW gestionale basato sull’utilizzo di Access
che integra la gestione completa del
laboratorio con l’emissione del certificato di taratura importando i dati
delle misure dal modello di misura in
Excel compilato dall’operatore durante l’esecuzione della sequenza di
misure. Nel caso in cui venga utilizzato il sistema di acquisizione dei
dati, questi ultimi vengono esportati o
scritti direttamente nel modello di
misura.
Come modelli di misura si utilizzano
due file standard, personalizzati per
ogni modello di strumento, uno per i
misuratori, e uno per i generatori con
solo poche ed essenziali formule di calcolo: la media, lo scarto tipo, la convalida dei dati inseriti, la valutazione delle
specifiche (Pass o Fail) senza nessun
collegamento ad altri file né calcoli
complessi, riducendo considerevolmente i tempi di validazione.
Il SW gestionale importa i dati, esegue il calcolo dell’incertezza punto
per punto e presenta l’anteprima del
certificato o il rapporto di taratura a
seconda della richiesta del cliente.
Esempio pratico
Supponiamo di dover eseguire la
taratura di un multimetro digitale
multifunzione palmare con una indicazione a 3 1/2 digit che non
abbiamo mai visto in precedenza,
di cui abbiamo però la documentazione tecnica necessaria e il manuale d’uso. Scegliendo un modello normalmente in uso in Excel, che include anche il calcolo delle incertezze
di misura e la stampa diretta del certificato di taratura, occorrono dalle
4 alle 6 ore per realizzare il modello e per validarlo. Occorrono inoltre
dai 5 ai 30 minuti per eseguire le
misure anche utilizzando un sistema
semi-automatico ovvero un SW che
esegue la sequenza delle misure e
imposta il calibratore a ogni punto:
l’operatore deve solo digitare l’indicazione del multimetro.
Utilizzando invece il sistema precedente con Access i tempi per la rea-
T_M ƒ 146
N. 02ƒ
; 2013
▲
SPAZIO DELLE ALTRE
ASSOCIAZIONI
lizzazione del modello di misura e la
validazione si riducono notevolmente
a circa 2 ore comprendendo l’esecuzione delle misure e la stampa del certificato (nella valutazione dei tempi si
è considerata una buona conoscenza
di Excel e un’esperienza di taratura
dell’operatore).
Conclusioni
L’ideale sarebbe l’utilizzo di SW
“commerciali” in modo completo fino
alla stampa del certificato di taratura,
ma il lavoro è ancora lungo e complesso in quanto i fornitori spesso non
hanno competenze adeguate tali da
poter lavorare in autonomia. Sin dalla
prima pubblicazione del SIT Doc.
535 e successivamente, di recente,
del ACCREDIA DT-02-DT, si è spesso
sottovalutata l’importanza di una cor-
retta gestione dei modelli di misura da
parte dei Centri accreditati. Analogamente da parte dell’ente di accreditamento si è sottovalutato l’impatto dell’applicazione di questi documenti sui
laboratori in termini di tempo necessario e quindi di costi.
L’associazione ALATI, ritenendo utile e
doverosa una formazione periodica
su questi e altri relative alle attività di
taratura accreditate, sta organizzando dei corsi ad hoc su specifici argomenti, partendo proprio da quello
relativo alla gestione di un sistema informativo all’interno dei centri accreditati che risponda ai requisiti dettati
dall’ente e alle specificità insite nei laboratori.
Terremo aggiornati i lettori di Tutto_
Misure sulle varie iniziative che ALATI
intraprenderà.
RIAPRE IL GABINETTO DELLE SCIENZE
DI PORTO SAN GIORGIO
Durante la primavera di quest’anno, una felice circostanza ha determinato la
possibilità di attivare un progetto di salvaguardia e valorizzazione del patrimonio d’interesse storico-scientifico della Scuola “E. De Amicis” di Porto San
Giorgio, fondata nel 1913. La Dirigente dell’ISC Nardi, Dott.ssa Daniela
Medori, ha istituito un gruppo di lavoro coordinato dal curatore, l’Ing. Oronzo
Mauro, che, insieme ai suoi collaboratori, con grande solerzia, ha portato a
termine il progetto permettendo di riaprire il Gabinetto delle Scienze in occasione dei festeggiamenti dei 100 anni della Scuola “E. De Amicis”.
L’Antico Gabinetto di Scienze, coevo all’apertura della scuola, come testimoniano i reperti ivi trovati e restaurati intorno agli anni ’30, è stato affiancato dal
Gabinetto delle Attività Marinare, voluto dal governo fascista per rilanciare le
corporazioni nella fattispecie, a Porto San Giorgio, quella della pesca. Nel
corso degli anni, la scuola inoltre ha stratificato una serie di sussidi didattici
molto interessanti, anch’essi classificabili come beni culturali scientifici.
Il recente progetto di recupero, durato circa 3 mesi, ha reso possibile identificare
oggetti di valore scientifico che tornano ad avere un ruolo di primo piano per la
Scuola “De Amicis” e per il territorio con l’istituzione di un nuovo museo per Porto
San Giorgio. Grazie a quest’opera di valorizzazione gli studenti e visitatori del
Gabinetto potranno ammirare alcuni dei pezzi restaurati quali una macchina elettrostatica di Wimshurst con accessori, una serie di macchine semplici, un bel voltametro di Bertram, ora pronti per ispirare nuovi orizzonti scientifici.
Da non dimenticare la bella collezione ittiologica relativa al Gabinetto delle Attività Marinare che torna, in un bell’armadio d’epoca, a ricordare l’importanza del
mare. Il Tellurium del costruttore Felkl & Son di Praga è un oggetto di spicco nella
collezione del Gabinetto; anch’esso restaurato, mostra ora come le sequenze degli
equinozi e la meccanica della terra fossero insegnati in modo molto efficace.
Anche la collezione mineralogica affascina con i colori di variopinti minerali.
Un’ampia raccolta di altri sussidi didattici per la scienza è disponibile ed oggetto
ormai d’interesse museale (documentari su pellicola, su diapositiva, regoli di vario
genere, cartelloni murali, ecc.). È stata inoltre allestita una postazione di rilievo
dedicata alla microscopia tale da permettere osservazioni avvincenti.
Info Point: tel. 0734 676043 – E-mail: primariacapoluogo@iscnardi.it
SPAZIO DELLE ALTRE
ASSOCIAZIONI
▲
MISURE DI PROPRIETÀ TERMOFISICHE
Alberto Muscio
Ottimizzazione delle proprietà radiative
delle superfici opache e controllo apporti solari
Misure di riflettanza solare ed emissività termica
ASSOCIAZIONE ITALIANA PROPRIETÀ
TERMOFISICHE (AIPT)
Inizia in questo numero una serie di presentazioni
delle attività svolte in ambito misuristico dai soci
dell’Associazione Italiana Proprietà Termofisiche
(AIPT), che aderisce come unità esterna al Gruppo
Misure Elettriche ed Elettroniche. Per lo spazio concesso su Tutto Misure il Comitato Direttivo dell’AIPT
desidera porgere i suoi più sentiti ringraziamenti. Il
primo contributo, del Presidente Alberto Muscio, riguarda l’ottimizzazione delle proprietà radiative delle superfici
opache e il controllo degli apporti solari, mediante misure di riflettanza
solare ed emissività termica. Buona lettura!
Alberto Muscio (Presidente), Elena Campagnoli (Segretario), Francesco
Righini (Tesoriere), Giuseppe Ruscica, Paolo Coppa (Revisore dei Conti).
MEASUREMENT AND OPTIMIZATION
OF SURFACE RADIATIVE PROPERTIES
OF OPAQUE WALLS AND CONTROL OF SOLAR GAINS
This article focuses on the measurement and optimization of surface radiative
properties of opaque walls, such as solar reflectance and thermal emissivity,
to implement cool roof or cool color solutions designed to limit solar gains and
overheating of the irradiated surfaces. The underlying challenges, the investigation methods and some significant applications are presented.
RIASSUNTO
Questo articolo verte sulla misura e ottimizzazione delle proprietà radiative superficiali delle pareti opache, in particolare della riflettanza solare e
dell’emissività termica, ai fini della realizzazione di soluzioni tipo cool roof
o cool color atte a limitare la captazione degli apporti solari e il surriscaldamento delle superfici irradiate. Si presentano nel seguito le problematiche di fondo, le metodologie d’indagine seguite, e alcune applicazioni
significative.
PROPRIETÀ RADIATIVE
E APPORTI SOLARI
Il principale carico termico da compensare ai fini del condizionamento
estivo degli edifici è dato dagli apporti solari, del cui contenimento il settore dell’edilizia in Italia si è finora
preoccupato essenzialmente in relazione agli elementi vetrati (dotati a tal
fine di schermature, oppure di vetri
opportunamente formulati). Gli appor-
ti attraverso gli elementi opachi, tuttavia, anche se più ridotti per unità di
superficie irradiata, possono avere un
impatto fondamentale sui fabbisogni
energetici per condizionamento a
causa dell’elevata estensione di tetti e
pareti.
I primi studi svolti nel settore da ricercatori AIPT risalgono a quando, nel
2005, vennero avviate presso l’Università di Modena e Reggio Emilia
indagini sui cosiddetti “cool roof”,
T_M
soluzioni di copertura degli edifici la
cui denominazione negli Stati Uniti
ha oggi assunto un significato univoco nella terminologia tecnica in virtù
della loro amplissima diffusione,
mentre solo in anni recenti essi
hanno cominciato a trovare un utilizzo degno di nota nell’edilizia italiana.
Entrando nel dettaglio, si definiscono cool roof soluzioni contraddistinte da riflettanza solare ed emissività
termica elevate e durevoli nel
tempo. La riflettanza solare è la frazione della radiazione solare incidente che viene direttamente riflessa
da una superficie irradiata, ed è
variabile da 0, per una superficie
totalmente assorbente, fino a 1
(100%), per una superficie perfettamente riflettente. L’emissività termica, anch’essa variabile tra 0 e 1, è
il rapporto tra la radiazione termica
emessa nell’infrarosso da una superficie e la massima emissione teoricamente possibile alla medesima temperatura. Una soluzione per coperture edili dotata di riflettanza elevata assorbe solo una piccola parte
della radiazione solare incidente.
Inoltre, se la superficie è caratterizzata da emissività elevata, la maggior parte dell’energia solare assorbita viene restituita all’ambiente
esterno mediante irraggiamento termico nell’infrarosso. Il ruolo combinato di riflettanza solare ed emissività termica della superficie in
esame può essere altresì espresso
attraverso il Solar Reflectance Index
(SRI), che rappresenta la diminuzio-
Dipartimento di Ingegneria
“Enzo Ferrari”
Università di Modena e Reggio Emilia
alberto.muscio@unimore.it
N.
2/13 ƒ 147
ne di temperatura superficiale ottenuta in condizioni di riferimento rispetto a una superficie nera non
metallica (riflettanza 10%, emissività
90%, SRI=0), normalizzata per la
diminuzione di temperatura superficiale ottenibile rispetto alla stessa
superficie nera da parte di una superficie bianca di riferimento (riflettanza 80%, emissività 90%,
SRI=100%).
È importante rilevare che associare la
riflettanza solare di una superficie
opaca al suo colore visibile (ad esempio, bianco) può essere fuorviante in
quanto la banda spettrale del visibile
include un frazione minoritaria dell’energia apportata dall’irradiazione del
sole (Fig. 1). L’accurata misura della
riflettanza risulta quindi fondamentale
ai fini della previsione dell’effettivo
comportamento termico di una superficie.
N. 02ƒ
; 2013
▲
SPAZIO DELLE ALTRE
ASSOCIAZIONI
per la misura delle proprietà
radiative superficiali (riflettanza solare, emissività termica,
SRI) e di protocolli per la certificazione dei prodotti commerciali, sia a nuovo che dopo
invecchiamento almeno trienFigura 2 – Installazione di un cool roof
sui Laboratori Pesanti della Facoltà di Ingegneria
nale. Il punto di riferimento in
di Modena: stato iniziale e finale
materia è il Cool Roof Rating
Council (CRRC), un‘organizzazione fondata nel 1998 per svilup- copertura relativamente leggere, si
pare un programma di valutazione era sempre manifestato un surriscaldamento estivo tale da rendere gli
dei prodotti commerciali.
In Europa, i principi di base dei cool ambienti interni pressoché impraticaroof sono più o meno consapevol- bili per tutta la stagione calda. L’apmente applicati da migliaia di anni plicazione a spruzzo di una guaina
– nel sud Italia, in Grecia e in altre liquida bianca sopra la preesistente
aree del Mediterraneo, il colore guaina bituminosa nera (Fig. 2) ha
dominante degli edifici è ancora il portato a una riduzione delle tempebianco – ma il concetto tecnologico rature mediamente pari a 3,0°C per
di cool roof è rimasto sconosciuto ai l’aria interna e a 3,7°C per il soffitto
più fino a pochi anni fa. In tempi re- (Fig. 3). A controprova dell’efficacia
centi, tuttavia, alcuni centri di ricer- della soluzione adottata, nel corso
ca europei hanno dell’estate successiva all’intervento il
deciso di coordinare e capannone ha conosciuto un livello di
capitalizzare le attività frequentazione inusuale, specialmend’indagine in atto arri- te nei giorni di fermo dell’impianto di
vando alla formale condizionamento del campus.
costituzione
dell’European
Cool
Roof
C o u n c i l
(ECRC), organizzazione
ispirata
al
CRRC e similmente volta a
promuovere
Figura 1 – Spettro solare (normalizzato)
la diffusione
dei cool roof
I COOL ROOF NEGLI USA,
e a sviluppare un programma europeo di certificazioIN EUROPA E IN ITALIA
ne dei prodotti commerciaFigura 3 – Installazione di un cool roof
sui Laboratori Pesanti della ex-Facoltà d’Ingegneria
Studi specifici sui cool roof furono li. All’ECRC aderiscono i
di Modena: temperature misurate prima e dopo
avviati negli U.S.A. sin dalla fine nostri associati dell’Energy
anni ’90 del secolo scorso, promos- Efficiency
Laboratory
si dai drammatici black-out estivi che (EELab), laboratorio specializzato Negli anni successivi l’EELab ha
colpirono il paese a causa dei del Dipartimento di Ingegneria acquisito, tra gli altri, spettrofotometri in banda 300-2.500 nm per
sovraccarichi della rete elettrica “Enzo Ferrari” di Modena.
indotti dagli impianti di condiziona- Un primo studio sperimentale svolto acquisizione dello spettro di riflettivimento. In virtù delle potenzialità dall’EELab risale al 2005, quando tà nell’intervallo d’interesse (la rifletscientificamente dimostrate, i cool un cool roof fu posto in opera sopra tanza solare viene valutata come
roof sono attualmente promossi con un capannone sede di laboratori del- valore medio della riflettività, pesata
grande vigore da molte amministra- l’allora Facoltà di Ingegneria di per lo spettro standard dell’irradiazioni pubbliche e organizzazioni Modena. Essendo tale capannone zione solare) ed emissometri broadprivate d’oltreoceano. Ciò ha porta- privo di apparati di condizionamen- band comparativi (l’emissività termito allo sviluppo di specifici standard to dell’aria e dotato di strutture di ca viene valutata mediante compa-
T_M ƒ 148
N. 02ƒ
;2013
▲
SPAZIO DELLE ALTRE
ASSOCIAZIONI
razione diretta con campioni di riferimento basso-emissivi e alto-emissivi) conformi ai migliori standard del
CRRC e a quelli attualmente in valutazione da parte dell’ECRC. È stato
così possibile mettere a disposizione
dell’industria una struttura che ha
portato avanti un’intensa attività sia
di attestazione indipendente delle
prestazioni misurate (Fig. 4), sia di
valutazione e ottimizzazione di prodotti per l’edilizia.
Figura 5 – Spettro UV-Vis-NIR della riflettività (rl) e riflettanza solare (rsol)
di tegole sperimentali con rivestimento ceramico tipo cool color
APPLICAZIONI INNOVATIVE
DELLE COOL SURFACES
fortemente incentivati nel quadro generale di promozione delle fonti energetiche rinnovabili, si è affrontata l’importante criticità dei surriscaldamenti delle
vasche di fermentazione ricercando
un’ottimizzazione spinta delle proprietà radiative superficiali esterne e interne della cupola gasometrica che chiude superiormente le vasche di fermentazione suddette (Fig. 6).
Un altro ambito applicativo al quale si
è rivolta l’indagine scientifica è quello
del controllo degli apporti solari attra-
Le metodologie di misura e ottimizzazione messe a punto per lo sviluppo
di cool roof e cool color del settore
edile sono state sfruttate anche in
ambiti applicativi completamente differenti dall’edilizia.
Ad esempio, in relazione agli impianti
I COOL COLOR
per la produzione di biogas tramite ferRecentemente, l’indagine ha riguarda- mentazione anaerobica di biomasse di
to anche i cosiddetti “cool color”, solu- origine agrozootecnica, al momento
zioni di trattamento superficiale aventi
la stessa risposta spettrale nel visibile
(cioè per lunghezze d’onda comprese
tra 400 nm e 700 nm), in cui cade
circa il 43% della radiazione solare, e
quindi lo stesso colore, di superfici edili
tradizionali, ma molto riflettenti nella
banda spettrale dell’infrarosso vicino
(lunghezze d’onda tra circa 700 nm
e 2.500 nm), che comprende più del
52% degli apporti energetici solari
(Fig. 1). Poiché solo la parte visibile
della radiazione riflessa va a influenzare la risposta cromatica di una
superficie, i cool color possono avere
lo stesso aspetto per l’occhio umano di
materiali quali, ad esempio, le tipiche
tegole di terracotta, ma offrire una
riflettanza solare molto più elevata
Figura 6 – Schematizzazione dei diversi meccanismi di scambio termico
(anche oltre il 50%, contro il 20÷35%
radiativo di una cupola gasometrica
tipicamente riscontrato, vedi Fig. 5).
Figura 4 – Cartiglio standard delle prestazioni
misurate dall’EELab: Solar Reflectance (SR),
Infrared Emittance (IE), Solar Reflectance Index (SRI),
Surface Temperature (ST)
T_M ƒ 149
N. 02ƒ
; 2013
■
SPAZIO DELLE ALTRE
ASSOCIAZIONI
RIFERIMENTI
BIBLIOGRAFICI
NEWS
▼
1. H. Taha, H. Akbari,
A.H.
Rosenfeld,
J.
Huang,
“Residential
cooling loads and the
urban heat island – The
effects of albedo”, Building and Environment
23 (1988) 271-283.
2. L. Doulos, M. Santamouris, I. Livada, “Passive cooling of outdoor
urban spaces. The role
of materials”, Solar
Energy 77 (2) (2004),
231-249.
3. R. Lollini, B. Barozzi,
Figura 7 – Spettro del coefficiente di assorbimento (al=1-rl)
G. Fasano, I. Meroni,
per cinque diversi colori della carrozzeria di un autoveicolo
M. Zinzi, “Optimisation
of opaque components
verso gli elementi opachi delle carroz- of the building envelope. Energy, ecozerie degli autoveicoli (Fig. 7), ovvero nomic and environmental issues”, Builattraverso i pannelli della cassa refri- ding and Environment 41 (8) (2006),
pp. 1001-1013.
gerata dei camion frigoriferi.
Anche in questi casi si è verificato che 4. A. Synnefa, M. Santamouris, H.
approcci sommari di stima degli Akbari, “Estimating the effect of using
apporti solari possano riservare gros- cool coatings on energy loads and therse sorprese, e che solo la misura rigo- mal comfort in residential buildings in
rosa delle proprietà radiative superfi- various climatic conditions”, Energy and
ciali permette di attuare approcci di Buildings 39 (11) (2007) 1167-1174.
5. A. Libbra, L. Tarozzi, A. Muscio,
analisi e ottimizzazione efficaci.
ESTENSIMETRI
MINIATURA
PER USO OEM
Gli estensimetri miniatura Micro-Measurements sono progettati per offrire prestazioni superiori a un minor costo per il cliente
OEM (Original Equipment Manufacturer).
Questi estensimetri possono essere usati in
molte applicazioni, in particolare in quelle
applicazioni ove lo spazio a disposizione
è ristretto o dove è necessario limitare il
consumo in corrente, come negli apparati
alimentati da batterie.
Gli estensimetri miniatura Micro-Measurements possiedono infatti una elevata
resistenza elettrica in una griglia molto
piccola, per esempio una resistenza da
10 kOhm in una griglia di soli 1 mm x 1 mm.
La resistenza molto elevata consente di
T_M ƒ 150
M.A. Corticelli, “Spectral response
data for development of cool coloured
tile coverings”, Optics and Laser Technology 43 (2011) 394-400.
6. A. Libbra, A. Muscio, C. Siligardi, P.
Tartarini, “Assessment and improvement of the performance of antisolar
surfaces and coatings”, Progress in
Organic Coatings 72 (2011) 73-80.
7. Cool Roof Rating Council, “Product
rating program manual (CRRC-1)”,
retrievable in 2012 at the address:
www.coolroofs.org/alldocs.html#crrc1.
8. European Cool Roof Rating Council, “EU-Cool Roofs Strategic Plan”,
retrievable in 2012 at the address:
http://coolroofcouncil.eu.
Alberto Muscio si è laureato con lode in Ingegneria dei Materiali presso l’Università di Modena e Reggio Emilia e ha poi conseguito un dottorato di ricerca in Fisica Tecnica presso
l’Università di Bologna. È oggi docente di
Fisica Tecnica Industriale presso il Dipartimento di Ingegneria “Enzo Ferrari” di
Modena, ove è responsabile del laboratorio EELab (www.eelab.it). È inoltre Presidente dell’Associazione Italiana Proprietà
Termofisiche e membro del Comitato Tecnico dell’European Cool Roof Council.
aumentare la tensione di alimentazione kOhm per torsiometri;
per ottenere un’uscita più elevata.
• 4 griglie a diaframma da 5 kOhm per
trasduttori di pressione.
Caratteristiche
• Uscita più elevata rispetto agli estensi- Per ulteriori informazioni:
metri tradizionali, grazie a griglie più www.luchsinger.it
corte;
• Alta resistenza elettrica - fino a 20 kOhm;
• Dimensioni miniaturizzate;
• Basso consumo di
corrente;
Gli estensimetri miniatura sono disponibili
nelle seguenti versioni:
• lineari con resistenze da1, 5, 10 kOhm;
• 2 griglie a mezzo
ponte da 1 e 5 kOhm;
• 4 griglie a ponte intero da 1 e 5 kOhm per
celle di carico;
• 4 griglie al taglio,
ponte intero, da 1 e 5
MANIFESTAZIONI
EVENTI E FORMAZIONE
■
2013-2014
eventi in breve
2013
26-28 giugno
Istanbul, Turkey
International IIE Conference
http://www.iieistanbul.org
01-02 luglio
Los Angeles, USA
2013 2nd International Conference on Advances in Computer Science and Engineering (CSE 2013)
http://www.cse-conf.org
09-12 luglio
Orlando, USA
6th International Multi-Conference on Engineering and Technological Innovation: IMETI 2013
www.2013iiisconferences.org/imeti
09-12 luglio
Orlando, USA
11th International Conference on Education and Information Systems, Technologies and Applications: EISTA 2013
http://www.2013iiisconferences.org/eista
09-11 luglio
Orlando, USA
17th World Multi-Conference on Systemics, Cybernetics and Informatics: WMSCI 2013
www.2013iiisconferences.org/wmsci
14-16 luglio
Beijing, China
International Conference on Signal and Image Processing (CSIP 2013)
www.engii.org/workshop/csip2013july
15-18 luglio
Samos, Greece
2013 International Conference on Embedded Computer Systems
http://www.samos-conference.com
18-19 luglio
Barcelona, Spain
19th IMEKO TC-4 Symposium
www.imeko2013.es
29-31 luglio
Reykjavik, Iceland
8th International Joint Conference on Software Technologies (ICSOFT 2013)
http://www.icsoft.org
29-31 luglio
Reykjavik, Iceland
10th International Conference on Informatics in Control, Automation and Robotics (ICINCO 2013)
http://www.icsoft.org
17-18 agosto
Singapore
2013 2nd International Conference on Recent Trends in Materials and Mechanical Engineering
http://www.icrtmme-conf.org
17-19 agosto
Hong Kong
2013 2nd International Conference on Mechanical Properties of Materials and Information Technology
(ICMPMIT 2013)EI Compendex
http://icmpmit-conf.org/index.htm
19-22 agosto
Vancouver, Canada
13th Annual NUSOD Conference
http://www.nusod.org/2013/
25-28 agosto
Seoul, Korea
2013 World Congress on Advances in Nano, Biomechanics, Robotics, and Energy Research (ANBRE13)
http://anbre.cti3.com/anbre13.htm
25-31 agosto
Barcelona, Spain
SENSORDEVICES 2013, The Fourth International Conference on Sensor Device Technologies and Applications
http://www.iaria.org/conferences2013/SENSORDEVICES13.html
04-06 settembre
Genova, Italy
2013 Joint IMEKO TC1-TC7-TC13 Symposium
http://www.imeko-genoa-2013.it
08-11 settembre
Trento, Italy
Congresso GMEE 2013
www.gmee.org
08-11 settembre
Trento, Italy
Congresso GMMT 2013
09-10 settembre
Bangkok, Thailand
4th ANNUAL INTERNATIONAL CONFERENCE ON SOFTWARE ENGINEERING & APPLICATIONS (SEA 2013)
16-21 settembre
Alhusta, Crimea
Nanomaterials: Applications & Properties 2013 (NAP 2013)
16-18 settembre
Muten, Switzerland
1st EOS Topical Meeting on Frontiers in Optical Imaging (FOI 2013)
www.myeos.org/events/foi2013#Call_for_Papers
20-22 settembre
Hainan, China
2013 International Conference on Advanced ICT(Information and Communication Technology) f
or Business and Management (ICAICTBM2013)
http://www.icaictm2013.org/
20-22 settembre
Beijing, China
2013 Conference on Education and Evaluation (CEAE 2013)
www.engii.org/workshop/ceae2013september/
29 sett-03 ottobre
Porto, Portugal
ADVCOMP 2013, The Seventh International Conference on Advanced Engineering Computing
and Applications in Sciences
http://www.iaria.org/conferences2013/ADVCOMP13.html
29 sett-03 ottobre
Porto, Portugal
DATA ANALYTICS 2013, The Second International Conference on Data Analytics
http://www.iaria.org/conferences2013/DATAANALYTICS13.html
01-03 ottobre
San Diego, USA
Avionics, Fiber-Optics and Photonics Conference
http://www.avfop-ieee.org
07-08 ottobre
Napoli, Italy
IEEE International Workshop on Measurements & Networking
http://mn2013.ieee-ims.org/
18-22 ottobre
Nantou, Taiwan
2013 International Applied Science and Precision Engineering Conference (ASPEC)
http://www.taeti.org/aspec/index.html
20-23 ottobre
Madrid, Spain
International Conference on Renewable Energy Research and Applications, (ICRERA)
www.icrera.org
21-26 ottobre
Saint Paul, USA
ASPE 28th Annual Meeting
http://aspe.net/technical-meetings/2013-annual-meeting/
10-13 novembre
Vienna, Austria
IEEE IECON- 39th Annual Conference of IEEE Industrial Electronics Society
http://www.iecon2013.org
16-17 novembre
Chengdu, China
2013 International Conference on Information Technology and Applications
http://www.ita2013.org
17-22 novembre
Lisbon, Portugal
INFOCOMP 2013, The Third International Conference on Advanced Communications and Computation
http://www.iaria.org/conferences2013/INFOCOMP13.html
29 novembre
Lyon, France
Symposium on Structural Health Monitoring and Non-Destructive Testing
http://lva.insa-lyon.fr/symposium2013
http://www.softwareng.org
2014
07-09 gennaio
Lisbon, Portugal
International Conference on Pervasive and Embedded Computing and Communication Systems (PECCS 20914)
T_M
http://www.peccs.org/
N.
2/13 ƒ 151
NUOVO SISTEMA
DI MISURAZIONE
ISTANTANEA
Keyence ha recentemente sviluppato un
nuovo sistema di misura istantanea tramite
immagini: la nuova serie IM-6120 a campo
ampio, un dispositivo di misura che può
competere con proiettori di profilo, microscopi di misura o macchine di misura CNC
automatiche. Il nuovo sistema semplifica la
misurazione, con un solo pulsante: bastano
3 secondi per misurare fino a 99 caratteristiche con documentazione completa inclusa, e gli operatori non necessitano di una
specifica formazione!
La semplicità d’uso della serie IM-6120 permette un forte risparmio sui costi rispetto ai
processi di misura tradizionali. Il sistema è
dotato di un piatto di alta precisione per
misurazione immediate, con dimensioni
pezzo fino a 200 mm. Infine, per l’analisi di
forme complesse (profili sinistri, denti d’ingranaggi, ecc.), in cui le misure lineari, ad
arco o circolari non sono sufficienti, la serie
IM-6120 offre ora un overlay grazie al
quale è possibile confrontare i bordi della
parte con un diagramma teorico.
Per ulteriori informazioni:
www.keyence.it/IM
T_M ƒ 152
N. 02ƒ
; 2013
▲
NEWS
KISTLER GROUP: ROBERTO GORLERO,
OLTRE ALL’ITALIA, GUIDERÀ ANCHE IL SUD EUROPA
Il Gruppo Kistler Instrumente AG di Winterthur, leader da oltre 50 anni nello sviluppo
di sensori Piezoelettrici per la gestione delle
principali misure dinamiche in ambito Automotive, Industriale, Aerospaziale, ha deciso
di riorganizzare e compattare la struttura
Europea del gruppo. Infatti da qualche
mese gli uffici europei del gruppo sono stato
suddivisi e inglobati in 5 macro blocchi/
Aree: Nord, Centro, East, Ovest, Sud. L’incarico di gestire, amministrare e far progredire il SUD Europa è stato affidato alcuni
mesi fa dal Gruppo svizzero a Roberto
Gorlero, 49 anni, ligure di nascita e milanese di adozione, nel gruppo da diversi
anni dopo esperienze in Gavazzi, Foxboro,
Invensys.
Gorlero, entrato nel Gruppo Kistler nel
2004, prima come direttore generale e,
dopo alcuni mesi, anche come amministratore delegato della sede italiana, da
oggi riveste anche la carica di amministratore delegato di Kistler Spagna e di
Kistler Turchia, gestendo nel complesso
come Regional Manager Southern Europe
tutto il mercato del Sud Europa, che comprende Portogallo, Spagna, Italia, Grecia, Macedonia, Albania, Turchia.
Gorlero ha ricevuto questo prestigioso e
impegnativo incarico sulla base degli ottimi risultati ottenuti in Italia, dove la crescita sia come fatturato sia come addetti,
negli ultimi 9 anni, è stata superiore a
ogni aspettativa (circa il 25-30% all’anno,
con punte anche maggiori in alcuni anni)
e totalmente opposta al trend del settore di
questi ultimi anni, aumentando ulteriormente il prestigio di questo marchio di
altissima tecnologia.
Gorlero risponde direttamente, come in
passato, all’Executive Board di Kistler Group
in Svizzera e al CEO del Gruppo e in Italia
in Italia (insieme a Roberto Vegliach, attuale responsabile tecnico) sarà anche responsabile dell’implementazione e sviluppo del
prossimo nuovo Technical Center Sud Europa, che verrà creato a Milano presso il
nuovo quartier generale, in cui Kistler Italia si trasferirà a breve, che fungerà da
supporto operativo e strategico per tutta la
clientela del Sud Europa, con mansioni e
personale dedicato a seconda delle diverse linee di Business (4.500 prodotti e soluzioni).
Nell’ambito di questa riorganizzazione
Europea, anche nella struttura italiana sono
state create due figure nuove e di supporto
alla Direzione: la direzione vendite dirette,
affidata ad Alberto Rigon, e la responsabili-
tà globale del mercato plastica per il Sud
Europa, affidata a Roberto Marazza, i quali
dipenderanno da Roberto Gorlero.
Il Sud Europa, all’interno del Gruppo Kistler, ha l’ambizione di crescere ulteriormente, traguardando ambiziosi fatturati
già nel breve periodo, e di rivolgersi
anche verso nuovi mercati, quali i Balcani,
Israele, Nord Africa, dove si stanno definendo nuove strategie e prospettive.
Alcuni numeri del Gruppo Kistler fatturato
complessivo in crescita, pari a 300 milioni di franchi svizzeri, 27 uffici nel mondo,
1.200 dipendenti, 3 Divisioni principali
per i prodotti (Automotive & Research, Industrial Process, Sensors technology), 7
fabbriche in Europa e Usa.
Per ulteriori informazioni:
www.kistler.com
LETTERE
AL DIRETTORE
▲
A cura di Franco Docchio (franco.docchio@ing.unibs.it)
Il futuro dei Laboratori didattici
Universitari di misura
Per stimolare un franco dibattito nelle Università e nelle Industrie
LETTERS TO THE DIRECTOR
This section contains letters, comments and opinions of the readers. Please write to Tutto_Misure!
RIASSUNTO
In questa rubrica vengono pubblicate lettere dei lettori della Rivista. Continuate a scrivere e a dire la vostra sui principali temi della ricerca, della
didattica delle misure e dello sviluppo industriale!
LETTERA DEL PROF.
ALFREDO CIGADA
(POLITECNICO DI MILANO)
Caro Direttore,
Ti scrivo questa lettera non in qualità
di tuo vicedirettore, bensì come uno
dei tanti operatori che cercano di
lavorare per una cultura delle misure: ho avuto predecessori illustri e mi
sembra che ora sia venuto il nostro
turno per cercare di valorizzare le
misure e l’attività sperimentale.
Spero solo che questa lettera costituisca l’avvio di una discussione, che
coinvolga più persone possibili: non
chiedo altro.
Lo stato di generale crisi e incertezza
che in questo periodo investe il
nostro Paese ha ripercussioni anche
all’interno delle Università. La carenza di risorse ha imposto anche qui
una revisione di progetti avviati anni
fa, nel tentativo di renderli coerenti
con la loro sostenibilità. Questo
approccio, pur comprensibile, spesso però riduce l’efficacia degli strumenti utili a rafforzare quel processo
educativo e formativo che da più
parti viene ricordato come il solo e
vero motore della possibile ripresa
economica del Paese: si entra in un
circolo involutivo che porta a una
carenza di idee da cui scaturisce
nuova povertà e incapacità di competere con i migliori.
Tra i tanti punti oggetto di valutazione vi è la domanda se gli sforzi profusi in questi anni per allestire e mantenere laboratori didattici, soprattutto
per i corsi d’Ingegneria, abbia ancora senso, a fronte di una carenza di
organico e di mezzi. Nella discussione sin qui affrontata, che vedo
ripetersi in molte sedi lungo la nostra
penisola, ritengo che si debba cercare di valutare la situazione alla
luce del maggior numero di elementi
possibili.
In particolare è fondamentale che la
discussione non rimanga confinata
all’interno delle sedi accademiche,
ma debba essere allargata a tutte le
parti in causa, ossia anche agli studenti, alle aziende e più in generale
al mondo del lavoro. Infatti senza un
T_M
parere di ritorno sulle aspettative e
sul livello di soddisfazione di chi
impiega e utilizza gli ingegneri che
formiamo, qualunque decisione rischia di essere slegata, se non addirittura contraria alle reali esigenze
del mondo del lavoro: in questo
senso auspico che questa riflessione
stimoli pareri e una discussione sull’utilità della didattica sperimentale,
accompagnata dall’espressione di
idee e suggerimenti.
Personalmente, insegnando corsi di
misure, ho sempre sostenuto la necessità di attività sperimentali all’interno dei corsi universitari. I nostri
percorsi formativi offrono poche occasioni per confrontarsi con prove
pratiche, in cui il sapere cominci a
diventare saper fare. Spesso i nostri
studenti, allenati al rigore numerico,
sono convinti che la realtà sperimentale debba adeguarsi ai modelli
numerici e non viceversa; manca totalmente il senso pratico, la capacità
di saper agire; rimane una distanza
abissale tra quanto studiato sui libri
e il mondo reale che rimane sempre
lontano: spesso manca la consapevolezza che, affinché qualcosa funzioni, è necessario collegare una
presa di corrente e attivare un interruttore (fatti non così banali e scontati). I miei studenti spesso lamentano
che i nostri corsi sono troppo teorici
e che mancano le possibilità di imparare a fare: ecco perché ho da sempre lottato perché almeno il 30% dei
corsi del mio gruppo fossero svolti in
laboratorio (all’estero si viaggia su
percentuali prossime al doppio),
malgrado i numeri dei nostri corsi
rendano questa impresa quasi impossibile.
Nel 2001, dalle colonne di questa
stessa rivista, in occasione dell’inaugurazione dei laboratori sperimentali che il Politecnico di Milano aveva
attivato presso il nuovo campus di
N.
T_M
2/1
3 ƒ 153
Bovisa, si era tentata un’analisi dei
benefici attesi dai nuovi laboratori,
con i quali si voleva rendere più efficace la didattica, con lo scopo di
migliorare la consapevolezza e la
cultura delle misure.
A distanza di 12 anni è possibile
trarre alcune conclusioni: l’aula
destinata alle attività sperimentali di
base è stata frequentata mediamente da un numero compreso tra
17.000 e 20.000 studenti/anno,
sono stati messi a punto esercizi e
attività per le quali si sono studiati
con attenzione prerequisiti e risultati
attesi, è stata incessantemente coltivata e mantenuta attiva una serie di
contatti e confronti in sede internazionale con le Università più attive e
attente alla didattica sperimentale,
per mantenere attenzione a un continuo miglioramento. Si è trattato di
una operazione soprattutto culturale,
per convincere gli studenti che le ore
di laboratorio non solo non sono ore
di vacanza, ma sono forse i momenti più importanti nella loro formazione: questo ha certamente imposto
anche un modo diverso di fare
didattica.
Quanto sin qui fatto, oserei dire in
T_M ƒ 154
N. 02ƒ
; 2013
▲
LETTERE
AL DIRETTORE
modo quasi miracoloso, grazie
soprattutto alla buona volontà di
molti giovani, ha incontrato l’assistenza iniziale di alcuni sponsor,
prevalentemente società che operano nel mondo delle misure e dei controlli, alcune di queste al nostro fianco in modo continuativo e assiduo. I
costi di manutenzione sono stati contenuti nell’ordine di qualche migliaio
di euro/anno, per attività di riparazione, manutenzione e ripristino. I
maggiori costi hanno riguardato la
sorveglianza, per permettere l’apertura delle aule per il maggior tempo
possibile. Con un impegno considerevole si ritiene di avere contribuito
al raggiungimento dell’obiettivo di
migliorare la consapevolezza dell’importanza delle attività sperimentali.
Una recente valutazione a livello
europeo ha mostrato come, ad esempio, nel Regno Unito (un modello certamente da considerare con attenzione, visti i risultati ottenuti delle proprie Università in ambito internazionale) l’attività didattica basata su
laboratori coinvolga in maniera
pesante il lavoro scolastico sin dalla
scuola primaria: la formazione
appare meno pesante, ma più efficace. Non si vuole attribuire tutto il
merito ai laboratori didattici, ma certamente l’attenzione verso questo
tipo di attività contribuisce a creare
un modello didattico ancora rivoluzionario che costituisce un mattone
fondamentale della formazione.
In questo scenario io e tutti coloro i
quali hanno in questi anni speso
molte delle proprie energie alla preparazione ed erogazione di una
didattica imperniata sui laboratori,
guardiamo con assoluta preoccupazione all’evoluzione attuale, che
sembra inevitabilmente condurre alla
fine di questa esperienza in Italia,
contribuendo con un piccolo ulteriore
colpo ad allontanare il nostro Paese
dalla corsa con i migliori. Anzi, il
nostro desiderio sarebbe quello di
poter fare molto di più, combattendo
contro le difficoltà quotidiane, che
prima di essere un problema economico sono in realtà un problema di
mentalità, adottando la mentalità
solitamente vincente per cui si combatte la crisi di un settore investendo
ancora di più.
Se è pur vero che uno dei problemi
principali risiede nei numeri impressionanti di studenti delle sedi universitarie italiane, ritengo comunque
che sia importante non arrendersi e,
nei limiti del possibile, sia necessario
tentare di amplificare gli sforzi per
offrire un servizio di attività sperimentale a tutti i nostri studenti.
Vorrei ricordare il caso di una celebre università inglese, che, trovandosi in una posizione molto bassa per
la qualità della didattica erogata, ha
prodotto uno sforzo anche economico impressionante fornendo a ciascuno studente materiale utile a svolgere attività sperimentale nel corso
dei cinque anni di studio: è stata una
scelta ponderata e coraggiosa, ma
che ha permesso il rilancio di quella
sede un tempo prestigiosa.
Se questa è la mia posizione, certamente motivata da due decenni d’interesse sul tema ma pur sempre personale, desidero, come già scritto,
attivare con questa breve lettera una
discussione che serva a raccogliere
esperienze lungo la nostra penisola,
N. 02ƒ
;2012
lo di nostri colleghi cui ho inviato la
lettera per cominciare a raccogliere
contributi e spunti di discussione, da
pubblicare su questo numero per poi
estendere la discussione sulla pagina Facebook e su Tutto_Misure
News. La crescente mancanza di
fondi per laboratori didattici credo
sia il risultato (i) dei tagli di bilancio
che da troppo tempo si susseguono;
(ii) della scarsa propensione delle
Università a integrare i bilanci Ministeriali con proventi diversi, quali
proventi da attività di trasferimento
tecnologico, ricerca applicata, ecc.,
(iii) dello scarso “coraggio” delle
Amministrazioni a emulare il caso
inglese che citi. Risultato: le esercitazioni di Laboratorio se ci sono,
bene, se non ci sono, fa lo stesso.
Eppure sempre maggiore è, da
parte degli studenti, il rammarico di
non usufruire maggiormente dei
laboratori Didattici di base e avanzati. E che dire dei Laboratori virtuali? Premesso che il Laboratorio
Virtuale non può, e non dovrebbe
sostituire quello reale, mi sembra
che neanche in licenze/studente per
esercitazioni virtuali le Università
siano disposte a investire… ma mi
poso sbagliare.
Quanto scrivi merita un’attenta considerazione da parte degli stakeholder delle Università – le imprese.
Troppo spesso si ascoltano le lamentele da parte industriale su una preparazione universitaria troppo intrisa di sapere a largo spettro, ma
carente di saper fare. Eppure, seppur con lodevoli eccezioni, in poche
investono sui loro potenziali e futuri
dipendenti partecipando alla realizzazione e allo “svecchiamento” dei
laboratori didattici. Morale, laboratori sottodimensionati e “vecchi”. E
in tempi di crisi come questo, un’inversione di rotta sembra proprio
remota!
Franco Docchio
Caro Cigada,
condivido pienamente quanto hai
scritto. Nelle schede del riesame per
i diversi Corsi di Studio universitari,
richiesti dal MIUR, emerge come una
costante per Ingegneria la lamentela
degli studenti relativa al tempo molto
■
pareri e opinioni. Se da quanto riceverò vi sarà lo stimolo a proseguire,
continuerò il mio lavoro con rinnovato vigore, certo di operare per un
fine utile e importante, sperando di
riuscire anche a coinvolgere in questa attività “rivoluzionaria” tutti coloro i quali fossero disposti a fornire il
proprio contributo. Se, viceversa, il
parere della maggioranza fosse contro la didattica sperimentale, non
potrò fare altro che prenderne atto e
cominciare un percorso alternativo.
Come ho già scritto, il problema non
è solamente economico: tuttavia esiste anche il problema economico e il
mio sogno sarebbe quello di poter
sostenere la didattica sperimentale
grazie a una minima collaborazione
con un piccolo gruppo di sponsor,
che aiuti ad arricchire le esperienze
con idee nuove e fresche, a tenere le
attrezzature aggiornate e in grado di
offrire il migliore servizio a studenti e
aziende. Spesso, in passato, per le
attività didattiche si sono dimostrati
perfetti anche sensori considerati
“scarti” solo perché al di fuori delle
incertezze previste da specifica: per
un laboratorio didattico sono forse
gli strumenti migliori, perché insegnano a superare le difficoltà più
importanti, ma questo è solo un
esempio.
Spero che la sopravvivenza delle
attività sperimentali, fondamentali
per una buona preparazione, non
sia un sogno troppo utopico, ma le
rivoluzioni partono dalle piccole
cose per poter arrivare a quelle grandi. Tra qualche mese spero di poter
tornare su queste pagine con un
aggiornamento e una sintesi delle
opinioni ricevute.
Invito comunque tutti i lettori, anche
se non avessero disponibilità immediate per aiutare i nostri sforzi di
mantenimento delle attività sperimentali all’interno dei laboratori didattici, a rispondere a questa sollecitazione esprimendo i loro pareri, le
loro proposte e, perché no, le loro
critiche.
Alfredo Cigada
Caro Alfredo,
ricevo e pubblico volentieri la tua lettera. Il mio commento precede quel-
LETTERE
AL DIRETTORE
limitato dedicato alle attività in laboratorio. Queste risultano fondamentali in quanto per insegnare “a fare”
bisogna aver imparato “a saper
fare”, il che è possibile solo con una
intensa frequentazione dei laboratori
sia didattici, sia di ricerca, possibilmente almeno per gli studenti che frequentano le lauree magistrali. A questo proposito inviterei gli interessati a
leggere l’interessante articolo “IL
LABORATORIO DIDATTICO” scritto
dai colleghi purtroppo scomparsi:
Prof. ing. Italo GORINI e Prof. ing.
Serio SARTORI, disponibile sul sito
della nostra associazione GMEE
all’indirizzo: www.gmee.org/
attachments/ar ticle/94/
laboratorio_didattico.pdf.
Cordiali saluti
Mario Savino
(Politecnico di Bari)
Caro Cigada,
ho letto con grande interesse la tua lettera. Operando da tempo in una piccola sede, abbiamo sempre avuto difficoltà a gestire i laboratori didattici
ed in particolare quelli specifici per le
misure.
In genere, si preferisce investire risorse su laboratori intesi come aule
attrezzate con PC, attività pregevolissima ma che di fatto non ha nulla di
“realmente” sperimentale.
Noi abbiamo seguito il detto “di
necessità virtù”, per cui abbiamo operato in due direzioni;
– creazione di un laboratorio polifunzionale di Facoltà, in cui tutti i docenti coinvolti in attività sperimentali
potessero svolgere le proprie attività
didattiche sperimentali (corsi di fisica,
controlli, elettronica, elettrotecnica,
misure, ..);
– creazione di un laboratorio remotizzato, così da offrire più opportunità
agli allievi di avvicinarsi alle attività
sperimentali.
Non so se queste soluzioni possano
essere adottate ovunque: nel nostro
caso hanno permesso di continuare a
offrire una più che adeguata formazione ai nostri allievi.
Cordialmente
Pasquale Daponte
(Università del Sannio)
T_M ƒ 155
TECNICA DI MISURA
DELLA COPPIA PRECISA
E ROBUSTA
DA 50 N·M A 10 KN·M
Le funzionalità
del torsiometro
digitale a flangia T40B di
HBM Test and
Measurement,
da sempre sinonimo di qualità e affidabilità, sono da oggi ampliate con
gli intervalli di
misura 50 e
100 N·m, in
modo da rendere disponibili gli intervalli
di misura della coppia nominale da 50
N·m a 10 kN·m.
Grazie alla struttura compatta del torsiometro, è possibile integrarlo facilmente
nelle più varie applicazioni, ad esempio
per il controllo di motori elettrici e sistemi
di trazione ibridi. Il sistema magnetico
opzionale di misurazione del numero di
giri genera 1.024 impulsi per giro, garantendo così una misurazione estremamente
precisa anche con numero di giri molto
basso. Grazie al principio di misurazione
magnetica, i vapori di olio e lo sporco non
influiscono sulla misurazione del numero
di giri. La trasmissione digitale dei dati tra
rotore e statore garantisce l’esclusione di
pressoché ogni disturbo.
In sintesi, T40B può essere definito come
sistema preciso e robusto che consente
una misurazione priva di disturbi della
coppia e del numero di giri anche in condizioni ambientali critiche in campo industriale.
Per ulteriori informazioni:
www.hbm.com/it/menu/prodotti/
trasduttori-e-sensori/coppia
HBM Test and Measurement
Fondata in Germania nel 1950, Hottinger
Baldwin Messtechnik (HBM Test and Measurement) si è costruita una reputazione
come leader mondiale di tecnologia e del
mercato nell’industria delle misurazioni e
prove. HBM offre prodotti per la catena di
misurazione completa, dalle prove virtuali
a quelle fisiche. Le sedi di produzione
sono situate in Germania, U.S.A. e Cina;
HBM è presente in più di 80 Paesi nel
mondo.
T_M ƒ 156
N. 02ƒ
; 2013
▲
NEWS
MICROFONO PER MONTAGGIO A PARETE
Il microfono G.R.A.S. 47AX 0,5“CCP
da incasso, a basso profilo, è un microfono di precisione da mezzo pollice con
preamplificatore incorporato. Con un
altezza (al diaframma) di soli 8 mm,
il microfono 47AX è adatto
per montaggio a incasso in piastre nelle
applicazioni con sensori multipli (array
microfonici) per la
mappatura del rumore e in altre applicazioni con vincoli
dimensionali. Il
montaggio a
incasso è ideale
dove è possibile
forare la struttura,
come un modello di creta,
per posizionare il microfono. Il 47AX
è disponibile anche come kit 67AX
Array, che include una piastra di 400
mm di diametro predisposta per il montaggio. Il 47AX è posizionato asimmetricamente nella piastra di montaggio,
per fornire una risposta in frequenza più
uniforme. Il microfono si basa sullo standard IEC 61094.
Caratteristiche
• microfono a pressione prepolarizzato
con una gamma dinamica 22-146
dB;
• range di frequenza da
3,15 Hz a 20 kHz;
•
preamplificatore
incorporato a basso
consumo tipo CCP
(constant current);
• circuito TEDS per
l’identificazione
automatica del trasduttore (supporta
IEEE 1451.4)
• cavo integrale di
1,5 m con connettore
microdot più un adattatore
per cavo BNC.
Applicazioni tipiche: spazi ristretti,
incasso in modelli in creta, mappature
del rumore, misure di rumore in generale.
Per ulteriori informazioni:
www.luchsinger.it
VIDEOCAMERE AD ALTA VELOCITÀ E REGISTRATORI LTR
Instrumentation Devices Srl,
specializzata nelle soluzioni di
misura e analisi per la sperimentazione scientifica e industriale, propone un’ampia gamma di videocamere ad alta velocità; robuste e compatte,
basate su sensore CMOS
di elevata qualità, offrono alta risoluzione e la possibilità di effettuare
riprese fino ad alcune
decine di migliaia di fotogrammi al secondo.
Restituiscono immagini e filmati di elevata
definizione e chiarezza tali da permettere
la comprensione di scene anche estremamente veloci in tutti i loro dettagli.
Le videocamere ad alta velocità possono
essere abbinate ai sistemi di registrazione
a lungo termine della famiglia LTR (Long
Time Recording); disponibili nelle versioni
portatili o fisse, sono in grado di registrare
scene, ad alta velocità e
ad alta risoluzione, da
poche decine di minuti
fino ad alcune ore.
Alcune applicazioni riguardano:
• Sperimentazione meccanica e automotive;
• Crash e impact test;
• Analisi del moto nello sport;
• Fenomeni elettrici e meccanici;
• Processi industriali e produttivi.
Per ulteriori informazioni:
www.instrumentation.it
COMMENTI
ALLE NORME
▲
COMMENTI ALLE NORME: LA 17025
A cura di Nicola Dell’Arena (ndellarena@hotmail.it)
Non conformità, azioni correttive, azioni preventive,
reclami e miglioramento - Parte settima
Non conformità e azioni correttive
A great success has been attributed to this interesting series of comments by
Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025.
RIASSUNTO
Prosegue con successo l’ampia e interessante serie di commenti di Nicola
Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La
struttura della documentazione (n. 4/2000); Controllo dei documenti e
delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n.
3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004
e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n.
1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali
(n. 3/2007, n. 2/2008 e n. 3/2008); il Campionamento (n. 4/2008 e
n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità
parte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011).
Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a
(n. 1/2012), parte 3.a (n. 2/2012), parte 4.a (n. 3/2012), parte 5.a
(n. 4/2012), parte 6.a (n. 1/2013).
AUDIT SUPPLEMENTARI
La norma, al punto 4.11.5, prescrive
che “quando l’identificazione delle
non conformità o degli scostamenti
suscitano dei dubbi circa la conformità del laboratorio nei confronti delle
proprie politiche e procedure o nei
confronti della presente norma internazionale, il laboratorio deve assicurare che i settori di attività interessati
siano sottoposti ad audit, in conformità al punto 4.14, il più presto possibile”.
Il requisito è giusto ed è di facile
applicazione, ma va applicato solo
nel caso di gravissime non conformità (non una sola, anche se grave).
Del resto questo concetto di applicazione viene ben chiarito con la Nota
della norma “gli audit supplementari
spesso seguono l’attuazione di azioni correttive per confermarne l’efficacia. Un audit supplementare dovrebbe rendersi necessario solo
quando viene identificato un rischio
o un problema grave per l’andamento dell’impresa”. La norma parla
al plurale, cioè più di un audit supplementare, ma per me e per un laboratorio accreditato esso è un
evento eccezionale.
Questo requisito è un pezzo forte e
storico dei sistemi qualità. Esso esisteva sin dalla prima norma sulla
garanzia della qualità e aveva una
valenza seria e di garanzia di tutto
il sistema messo in atto. È uno strumento che si deve utilizzare moltissimo nei primi anni di applicazione
dei sistemi qualità, ma che dovrebbe
T_M
scomparire del tutto in un laboratorio accreditato. Mi spiego: è facile
nella prima applicazione della
norma, soprattutto se fatta con un responsabile della qualità non adeguatamente preparato, che il laboratorio trovi difficoltà e commetta
molti errori in quasi tutti i requisiti.
Naturalmente la maggior parte degli errori avviene nei requisiti gestionali che applica per la prima volta
(se sbaglia quelli tecnici, è meglio
che chiuda!). A questo punto conviene effettuare un audit per verificare cosa è successo e adeguare il
sistema o preparare il personale. Segue una seconda o una terza applicazione: qui le non conformità o gli
errori devono per forza diminuire e
ridursi quasi a zero, per cui non c’è
più il bisogno di utilizzare lo strumento dell’audit supplementare.
Questo requisito è applicato anche
dall’organismo di accreditamento,
soprattutto nella fase di primo accreditamento, quando le non conformità si riferiscono a molteplici
requisiti della 17025. Qualora l’organismo di accreditamento dovesse
applicare questo strumento durante
il periodo di accreditamento, il laboratorio è a rischio revoca o chiusura.
POSIZIONE DI ACCREDIA
SUL 4.11.5
Accredia prescrive la laconica frase
“si applica il requisito di norma” ed
è giusto, vista la facilità di applicazione e interpretazione del requisito.
REGISTRAZIONI
Nel rispetto delle norme sulla documentazione, questa volta, riporto un
N.
2/13 ƒ 157
N. 02ƒ
; 2013
■
COMMENTI
ALLE NORME
conformità all’interno del sistema di
gestione, mentre nel punto 1 (grassetto) si riporta il codice d’identificazione del Rapporto di Non Conformità
(ad esempio RNC.008)
Insieme al Rapporto ho il piacere di
riportare un’altra registrazione dal
nome “Situazione delle azioni correttive/preventive”, che non è riportata
come requisito da nessuna norma ma
può essere utile alla società per tenere sotto controllo le azioni correttive e
preventive nel suo procedere nel
tempo. Esso è uno strumento indicato
nelle prime norme sulla garanzia
della qualità e non più riportato nelle
nuove norme.
AZIONE DI RECUPERO
Nel recente passato era stato coniato
e applicato il termine “azione di recupero” che non veniva riportato da
nessuna norma (tanto per creare confusione e zizzania). Constato con
sommo piacere che nelle ultime versioni di Accredia questo temine è sparito.
esempio di registrazione che può
essere utilizzata
anche da una
società che applica la ISO 9001.
L’ho
chiamato
Rapporto di Non
conformità
in
accordo alle vecchie norme e per
continuare con il lessico classico a
me familiare. Si può dare qualsiasi
nome alla registrazione, visto che le
9000 e 17025 non danno alcun
nome, purché il Rapporto riporti
tutte le fasi previste dalle norme.
Esso è adatto a tutte le necessità sia
per non conformità gestionali sia tecniche, è completo per tutte le fasi
previste dalle norme e con la voce
All. (Allegato) riportata a ogni fase è
aperto a tutta l’ulteriore documentazione che si potrebbe produrre
(come ad esempio un documento di
pianificazione). I numeri in grassetto
T_M ƒ 158
sono un mio artificio per indicare
nella procedura cosa fare in dettaglio per ogni singolo punto. Esso è
adatto per documentare sia le azioni
correttive di origine interna sia quelle provenienti dall’esterno (cliente,
organismo di accreditamento o di
certificazione).
Nel modello, il codice Mod. 05.0
indica l’identificazione della revisione
zero del modello Rapporto di non
N. 02ƒ
;2013
■
NEWS
ACQUISIZIONE PARALLELA DI TENSIONI ELETTRICHE ELEVATE
E GRANDEZZE DI MISURA MECCANICHE
Il sistema di acquisizione dati QuantumX si è affermato in brevissimo tempo come soluzione altamente flessibile in tutti i casi in cui sia necessario rilevare grandezze di misura
meccaniche, idrauliche e termiche. Il nuovo condizionatore di segnale ad alto voltaggio
SCM-HV, sviluppato dalla specialista in tecniche di misura HBM, consente di trasformare
le tensioni elettriche elevate in modo tale da poter essere acquisite contemporaneamente
a tutte le altre. Oggi è quindi possibile rilevare parallelamente sia le tensioni elettriche sia
le grandezze di misura meccaniche, elaborando insieme i rispettivi dati, risparmiando
tempo e denaro.
Il nuovo condizionatore di segnale ad alto voltaggio è conforme alla Direttiva EN61010
e alle prescrizioni previste per la categoria di misura IEC da 2 a 300 Volt. In caso di misurazioni al di fuori della categoria, è possibile acquisire persino segnali fino a 500 Volt.
Abbinandolo a QuantumX, è possibile impostare velocità dati fino a 100 kS/sec per canale.
SCM-HV opera nella classe di precisione di 0,05 con un intervallo di temperature da -20 a +60 ° C. Con questa new entry, HBM
offre la soluzione giusta per ogni categoria IEC e rafforza ulteriormente le caratteristiche di QuantumX come sistema universale di
acquisizione dei dati di misura per tutte le grandezze di misura fisiche.
Per ulteriori informazioni: www.hbm.com/it/menu/prodotti/elettronica-e-software-di-misura
NUOVO FINECORSA DI SICUREZZA A TRANSPONDER
L’impiego dei sistemi di sicurezza decentralizzati, come ad esempio i moduli SIMATIC ET
200pro ed ET 200S, è in costante aumento sia sulle macchine sia sugli impianti, grazie alla
semplificazione e alla riduzione dei costi di cablaggio che questi sistemi consentono.
La società tedesca EUCHNER, rappresentata in Italia da TRITECNICA spa, offre a propri clienti versioni specifiche di finecorsa di sicurezza a transponder per la verifica della posizione dei
ripari di sicurezza della serie CES e CET (con blocco del riparo per impiego su macchine che
presentano movimenti con inerzie pericolose) appositamente realizzate per questo tipo di
applicazioni.
I dispositivi di queste serie permettono il collegamento diretto ai moduli di sicurezza tramite
connettori standard M12, facilitando ulteriormente il cablaggio. L’impiego della tecnologia a
transponder assicura il massimo livello di sicurezza secondo EN ISO 13849-1 (categoria 4 e
PLe) e la massima protezione contro le manomissioni. La costruzione particolarmente robusta
ne consente l’impiego anche in ambienti estremamente gravosi.
Per ulteriori informazioni: www.tritecnica.it
NUOVA TECNOLOGIA AVANZATA
PER IL SISTEMA DI MISURA 3D PORTATILE TRACKARM
CAM2 (Gruppo FARO Technologies), leader mondiale della tecnologia di misura 3D, presenta la nuova generazione della tecnologia TrackArm, il sistema portatile di misura 3D estremamente versatile ed economicamente vantaggioso, che unisce le funzionalità di misurazione a lungo raggio e l’elevata precisione del CAM2 Laser Tracker alla flessibilità del CAM2 Arm.
La perfetta e diretta combinazione di questi dispositivi metrologici amplia il volume di lavoro del sistema, permettendo di riposizionarlo rapidamente in qualsiasi punto all’interno del range di misurazione del Laser Tracker, pur mantenendo lo stesso sistema
di coordinate e la stessa interfaccia software. Si tratta di una soluzione ideale per i settori automobilistico, aerospaziale e produzione di macchinari pesanti, così come per le aziende che forniscono componenti di grandi dimensioni ai settori costruzione di
gallerie, minerario, energia idroelettrica ed eolica.
TrackArm unisce il Laser Tracker Vantage, che garantisce un range operativo fino a 80 metri, all’intera gamma dei bracci di misura CAM2 (Edge, Prime e Fusion), per formare un sistema a lunga portata con sei gradi di libertà. Il software CAM2 Measure 10
offre una semplice interfaccia utente che consente di passare rapidamente da un sistema all’altro. Installando la sonda di scansione laser CAM2 sul braccio di misura si hanno ulteriori funzionalità di scansione e ispezione senza contatto per eseguire reverse
engineering, comparazioni pezzo/CAD e altre tipologie d’ispezioni.
Non ci sono limitazioni legate alla linea di vista: CAM2 TrackArm è in grado di passare dal
Tracker al braccio di misura, consentendo ai sei gradi di libertà del CAM2 Arm di raggiungere i punti più nascosti, che sono esterni alla linea di vista del Laser Tracker, addirittura dietro gli
angoli e all’interno dei fori. È quindi possibile misurare qualsiasi cosa, indipendentemente dalla
dimensione e dal posizionamento.
TrackArm è disponibile come sistema completo (Laser Tracker, CAM2 Arm e kit TrackArm). Gli
utenti attuali del CAM2 Arm o del Laser Tracker possono ordinare l’upgrade al TrackArm per
poter lavorare con le due CMM portatili contemporaneamente.
Per ulteriori informazioni: www.cam2.it
T_M ƒ 159
T U T T O _ M I S U R E
Anno XV - n. 2 - Giugno 2013
ISSN: 2038-6974
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 - Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Salvatore Baglio,
Antonio Boscolo, Marcantonio Catelani,
Marco Cati, Pasquale Daponte, Gianbartolo Picotto,
Luciano Malgaroli, Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Riccardo Nicoletti,
Mario F. Tschinke
Le pagine delle Associazioni Universitarie di Misuristi:
Stefano Agosteo, Bruno Andò, Filippo Attivissimo,
Alfredo Cigada, Domenico Grimaldi,
Claudio Narduzzi, Marco Parvis, Anna Spalla
Lo spazio delle altre Associazioni: Franco Docchio,
Alfredo Cigada
Le pagine degli IMP: Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AEI-GMTS (Claudio Narduzzi);
AIPnD (Giuseppe Nardoni);
AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione);
ANIE (Marco Vecchi); ANIPLA (Marco Banti,
Alessandro Ferrero); AUTEC (Anna Spalla),
CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE
(Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto);
GRUPPO MISURISTI NUCLEARI (Stefano Agosteo)
INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM
(Rodolfo Zich, Paolo Vigo, Franco Pavese);
ISPRA (Maria Belli); OMECO (Clemente Marelli);
SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa);
SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione e Stampa:
la fotocomposizione - Torino
Autorizzazione del Tribunale di Casale Monferrato n. 204
del 3/3/1999.
I testi firmati impegnano gli autori.
A&T - sas
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 0266700 - Fax 011 5363244
E-mail: info@affidabilita.eu
Web: www.affidabilita.eu
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
È vietata e perseguibile per legge la riproduzione totale o
parziale di testi, articoli, pubblicità e immagini pubblicate
su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc.
ABBONAMENTO ANNUALE: 40 EURO
(4 numeri cartacei + 4 numeri telematici)
ABBONAMENTO BIENNALE: 70 EURO
(8 numeri cartacei + 8 numeri telematici)
Abbonamenti on-line su: www.tuttomisure.it
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
•
•
•
E
Il tema: la Fotonica e le misure
Supplemento alla GUM: proposte di revisione
Trasferimento Tecnologico
molto altro ancora...
T_M
N.
ABBIAMO
LETTO PER VOI
■
La Redazione di Tutto_Misure
(franco.docchio@ing.unibs.it)
We have read for you
BREVE STORIA DELL’ELETTRICITÀ
(DALLE OSSERVAZIONI DI TALETE
AL MONDO DEI MICROPROCESSORI)
Walter di Gregorio
94 pp. – Philobiblon Edizioni, Ventimiglia (2011)
ISBN 978-88-88591-59-9 – Prezzo: € 10,00
L’autore ripercorre, per un pubblico senza preparazione specifica, duemilacinquecento anni di storia dell’elettrologia e del magnetismo, e delle applicazioni tecnologiche più significative che ne sono derivate dalla seconda metà del XIX secolo. È un
breve itinerario storico che si propone di accompagnare il lettore attraverso scienziati, teorie, esperimenti, invenzioni e brevetti, aiutandolo il più possibile a familiarizzare con alcuni concetti basilari di elettrotecnica, elettronica e telecomunicazioni.
L’Autore – Walter Di Gregorio è docente di Elettrotecnica ed Elettronica dal
1987. Perito elettronico, si è laureato in Ingegneria Industriale. In qualità di cultore della materia, ha svolto seminari universitari di Teoria del Circuiti ed è autore di circa 50 articoli tecnico-scientifici in campo elettrico ed elettronico, in parte
relativi all’evoluzione storica di tali discipline.
* In considerazione del fatto che il libro, per problemi di distribuzione, è di difficile
reperibilità in regioni diverse da Liguria, Piemonte e Val d’ Aosta, l’editore, per acquisti diretti ed esclusivamente ai lettori di TUTTO_MISURE, è disposto a inviarlo a domicilio, con spese a proprio carico e pagamento posticipato, entro 30 gg, tramite bollettino postale accluso al plico, al solo prezzo di copertina. Inviare l’ordine via mail a:
philobiblonedizioni@libero.it oppure telefonare al n° 0184/230555.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO
AEP Transducers
p. 82
Aviatronik
4a di cop.
Bocchi
p. 86
burster
p. 140
Cam 2
p. 159
Cibe
p. 120
Comsol
p. 124
Delta Ohm
p. 100
DGTS
p. 96
HBM
p. 110-114-136-154-159
Hexagon Metrology
p. 142-144
IC&M
p. 130
Instrumentation Devices
p. 154
Keyence
p. 81-154
2/13 ƒ 160
Kistler Italia
Labcert
Labo-System
LMS Italiana
LTF
LTTS
Luchsinger
Mitutoyo Italiana
PCB Piezotronics
Physik Instrumente
Renishaw
Rupac
Tritecnica
Urai
p. 128-154
p. 104
p. 136
p. 118
p. 122
p. 112
p. 108-152-154
3a di cop.
p. 132
p. 140
p. 84
2a di cop.
p. 159
p. 138