8:48 Pagina 1 TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ” ANNO XIV N. 01 ƒ 2 012 EDITORIALE GRUPPO MISURE ELETTRICHE ED ELETTRONICHE AFFIDABILITÀ & TECNOLOGIA Coraggio! IL TEMA: MISURE DIMENSIONALI TRV: Le misure dimensionali oggi e domani ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, DCB Torino - nr 1 - Anno 14 - Marzo 2012 In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi 24-02-2012 TUTTO_MISURE - ANNO 14, N. 01 - 2012 COPER TM 1-2012 ok ALTRI TEMI Sistema di taratura dei portali Tutor Sicurezza nei sistemi VoIP Misure ENEA di Radon e Toron Comunicazioni industriali a livello di campo La rivoluzione nel sistema SI Politiche energetiche e sistemi di monitoraggio ARGOMENTI Metrologia legale e forense: Le assicurazioni a tutela dell’attività di misura e prova Visione industriale: Nel blu dipinto di blu IMP: Misure per illuminazione a LED La norma 17025: Non conformità – parte II TUTTO_MISURE ANNO XIV N. 01 ƒ 2012 IN QUESTO NUMERO Misure per la sicurezza nei sistemi VoIP Measurements for VoIP systems security L. Angrisani, M. Di Lelio, P. Morabito, R. Schiano Lo Moriello, M. Vadursi 23 Le comunicazioni industriali a livello di campo Field-level industrial communication: analysis of the performance S. Rinaldi 39 Il comportamento a radiofrequenza dei componenti circuitali passivi: un esempio applicativo The radiofrequency behaviour of passive circuit components: an actual example C. Carobbi, M. Cati, C. Panconi 47 Misurare l’affidabilità: sollecitazioni e degrado Measuring dependability L. Cristaldi, M. Lazzaroni 55 Editoriale: Coraggio! (F. Docchio) 5 Comunicazioni, Ricerca e Sviluppo, dagli Enti e dalle Imprese Notizie nel campo delle misure e della strumentazione 7 Il tema: Misure dimensionali Strumenti innovativi per le aziende competitive (a cura di M. Mortarino) 11 Gli altri temi: Misure elettriche ed elettroniche Collaudo delle barriere autostradali tutor: un moderno sistema automatico (L. Fumagalli, M. Trebeschi, P. Tomassini, G. Libretti, F. Docchio, M. Zanatta, M. Pellegrini, E. Fabbrizi) 19 Gli altri temi: Il meglio di GMEE 2011 Misure per la sicurezza nei sistemi VoIP (L. Angrisani, M. Di Lelio, P. Morabito, R. Schiano Lo Moriello, M. Vadursi) 23 Gli altri temi: Il meglio di Metrologia & Qualità 2011 La misura della concentrazione del radon e del toron (G. Sciocchetti, A. Sciocchetti, P. Giovannoli, P. De Felice, G. Cotellessa, F. Cardellini, M. Pagliari) 27 Materiali di riferimento (RM) per le analisi degli alimenti (R. Gatti, P. Sangiorgio, G. Zappa, C. Zoani) 31 Gli altri temi: Discussioni sul SI La rivoluzione nel Sistema Internazionale di Unità, vista da un pensionato che si ribella (S. Sartori) 35 Gli altri temi: Vincitore del premio “C. Offelli” 2011 Le comunicazioni industriali a livello di campo: strumenti di misura dedicati all’analisi di parametri di reti real-time (S. Rinaldi) 39 Gli altri temi: Energia e misure Politiche energetiche e sistemi di monitoraggio: prima parte (M. Savino) 43 Campi e compatibilità elettromagnetica Il comportamento a radiofrequenza dei componenti circuitali passivi (C. Carobbi, M. Cati, C. Panconi) 47 Le Rubriche di T_M: Visione Artificiale Nel blu dipinto di blu (G. Sansoni) 53 I Seriali di T_M: Misure e Fidatezza Misurare l’affidabilità: sollecitazioni e degrado (L. Cristaldi, M. Lazzaroni) 55 Le Rubriche di T_M: Metrologia legale Le assicurazioni a tutela dell’attività di misura e prova (V. Scotti) 59 Spazio Associazioni Universitarie di Misuristi Dalle Associazioni Universitarie di Misuristi (F. Docchio, A. Cigada, A. Spalla, S. Agosteo) 63 Lo spazio degli IMP Applicazioni metrologiche per l’illuminotecnica: caratterizzazione metrologica di ambienti illuminati (P. Iacomussi) 65 Manifestazioni, eventi e formazione 2012: eventi in breve 69 Commenti alle norme Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte seconda (N. Dell’Arena) 71 Storia e curiosità L’unificazione Metrica in Italia, vista dal Regno delle Due Sicilie (P. Vigo) 75 Abbiamo letto per voi 80 News 30-45-60-64-66-70-72-74-79 T_M N. 1/12 ƒ 3 Franco Docchio EDITORIALE ■ Coraggio! Cheer up! Cari lettori! Eccoci al numero uno del terzo anno di vita della Rivista sotto la mia direzione. Com’ero emozionato due anni fa, quando mi accingevo a scrivere l’editoriale! La continuità con la quale li leggete e li commentate mi ha piacevolmente sorpreso. Continuate così! Questo è il numero della rivista che verrà distribuito, oltre alla normale tiratura, a oltre 6.000 partecipanti di Affidabilità & Tecnologie 2012. Dunque è doveroso un caloroso benvenuto a tutti coloro che hanno trovato nell’evento, che ha nella Rivista un suo portavoce e partner, un luogo per incontrarsi e discutere i temi dell’innovazione in comparti che anno dopo anno si arricchiscono. L’evento si svolge ancora una volta nel contesto di un anno difficile per l’Economia mondiale e domestica, con le imprese che fronteggeranno un probabile decremento del PIL, nonostante gli sforzi che il Governo attuale fa per rilanciare lo sviluppo e i consumi (Decreti Liberalizzazioni e Semplificazioni). L’augurio ai miei lettori industriali è, ancora una volta, che presto ci possano essere le condizioni per una ripresa stabile e duratura. Le Università si trovano, in questi mesi, occupate nel riordino strutturale derivante dalla necessità di adeguarsi ai requisiti della Riforma Gelmini (che peraltro sta subendo parziali correzioni proprio con il Decreto Semplificazioni). Questa, in aggiunta alle nuove procedure per la valutazione dei docenti e ricercatori Universitari, è una buona occasione per il corpo docente di trascendere l’autoreferenzialità che ha spesso caratterizzato il funzionamento delle strutture Dipartimentali e di Facoltà. Ne saremo capaci? A giudicare dalle prese di posizione di alcuni dei componenti della mia Facoltà, ho il dubbio che l’impresa sia ancora epica, ma sono fondamentalmente ottimista che la nuova governance porterà a un livello di responsabilizzazione adeguato. Nei colloqui coi colleghi europei, qui in Portogallo, trovo che essi sono fortemente impegnati in una sana competizione tra le sedi Universitarie nazionali per l’eccellenza, sulla base del fatto che i migliori avranno più finanziamenti dallo Stato (e potranno accedere con più facilità a Progetti internazionali). Qui si sta lentamente procedendo in questa direzione, anche se il cambiamento è spesso percepito con una punta di fastidio e come un’imposizione. Anche la capacità di produrre imprenditoria giovanile (start-up) è considerata un “must” all’estero, che viene ricompensato adeguatamente. Da questo punto di vista non mi sono certo sentito in soggezione: anzi, l’opera svolta dal nostro Laboratorio, che ha portato alla formazione di una decina di start-up nel campo dell’ottica e delle misure ottiche (uno degli articoli di questo numero è di una di queste), è stata particolarmente apprezzata e messa in evidenza anche con un pizzico d’invidia. L’invito ai docenti e ai loro ricercatori/dottorandi dunque è di perseguire su questa strada. L’invito alle imprese è quello di aver fiducia negli start-up universitari come “anello di congiunzione” tra il mondo dell’Università e il bisogno d’innovazione delle imprese. Questa edizione dell’evento contiene un tema in più: la Fotonica. Si consolida un secondo obiettivo dell’editore A&T: ospitare nuovi comparti tecnologici di punta all’interno della manifestazione “Affidabilità & Tecnologie” (come l’ormai avviato comparto della Visione Industriale). Il nostro Paese vanta un’intensa attività di ricerca di eccellenza nella Fotonica (lo dimostrano i più di ottanta centri di ricerca pubblici o privati che vi operano), ma è carente nel numero d’imprese attive nel settore. È il momento di fare emergere il settore anche in ambito industriale e l’opera del CSI di A&T verrà destinata in parte anche a ciò, con iniziative in questo e nei prossimi eventi. In questo numero, come negli altri tre numeri del 2012, il tema consiste in una Tavola Rotonda “virtuale” fra esperti di misure, appartenenti sia al mondo della Ricerca sia a quello dell’offerta di strumenti e servizi in questo specifico ambito. L’obiettivo è quello di delineare lo stato dell’arte, le possibili evoluzioni e i reali vantaggi per le imprese che affrontano le misure non come semplice “obbligo” ma come opportunità, operando scelte ragionate e consapevoli finalizzate al miglioramento competitivo. La prima Tavola Rotonda è dedicata alle misure dimensionali. Seguono contributi sul tema “Misure Elettriche ed Elettroniche”, nonché articoli e stimoli su altri temi, ivi inclusi quello dell’amico Mario Savino sul tema delle politiche energetiche e quello del fondatore della Rivista Sergio Sartori che “dice la sua” riguardo alla rivoluzione nel Sistema Internazionale di unità. A tutti auguro una buona lettura di questo numero, buon evento e buon lavoro. E, soprattutto, coraggio! Franco Docchio T_M N. 1/12 ƒ 5 COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE ▲ La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it) Notizie nel campo delle misure e della strumentazione NEWS IN MEASUREMENT AND INSTRUMENTATION This section contains an overview of relevant news of Italian R&D groups, associations and industries, in the field of measurement science and instrumentation, at both theoretical and applied levels. RIASSUNTO L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, start-up, dei Gruppi di R&S Italiani nel campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie, poiché i risultati di ricerca riportati possono costituire stimolo per attività di Trasferimento Tecnologico. CONCORSO DI IDEE A TRENTO È stata presentata lo scorso 14 dicembre, presso il Polo Scientifico e Tecnologico Fabio Ferrari, la seconda edizione del “Concorso di idee” promosso dal DISI – Dipartimento di Ingegneria e Scienza dell’Informazione dell’Ateneo. L’iniziativa, nata nel 2010 su proposta di Dedagroup spa, ha visto quest’anno l’adesione di quattro importanti realtà aziendali attive nel settore ICT: DEDAGROPUP spa, GPI spa, ALES srl e TELECOM Italia spa. Il concorso prevede che ogni impresa proponga un bando su specifiche tematiche ICT, in relazione alle proprie attività aziendali. Quest’anno gli argomenti hanno spaziato dall’informatica applicata ai servizi bancari e sanitari, ai sistemi elettronici e alle telecomunicazioni. Nel corso dell’evento di presentazione – a cui hanno partecipato numerosi studenti dei corsi di laurea triennale e magistrale delle aree Informatica, Elettronica e Telecomunicazioni – le quattro aziende hanno avuto l’opportunità di far conoscere agli studenti le proprie aree di business e le tecnologie da loro utilizzate. Ciascuna ha poi illustrato le modalità di adesione al bando, rispondendo alle domande degli studenti. I quattro bandi sono stati aperti contemporaneamente lo stesso giorno della presentazione, ed è ancora possibile aderire inviando il progetto con l’idea innovativa entro le date previste dai singoli regolamenti. Seguirà una fase di selezione e valutazione e le tre migliori idee per ogni area del concorso saranno successivamente premiate con computer portatili e smartphone. Scopo principale del concorso è individuare e valorizzare idee innovative nell’area delle nuove tecnologie. L’iniziativa mira a mettere in contatto la realtà universitaria con quella aziendale, facilitando l’incontro tra gli studenti e il mondo del lavoro. Proprio in quest’ottica è previsto che gli studenti vincitori abbiano l’opportunità di realizzare personalmente la propria idea presso l’azienda che ha proposto il bando, nel corso di un periodo di stage retribuito. In questo modo lo studente otterrà il triplice risultato di vedere riconosciuto il valore della propria idea, poterla realizzare direttamente, e soddisfare il vincolo di stage curriculare previsto dai piani di studio. Le aziende, a loro volta, possono avvicinarsi al mondo degli studenti e conoscerne i talenti per una successiva ricerca di capitale umano. Inoltre la presenza degli studenti in un ambiente di lavoro – riconoscono unanimemente le aziende – stimola la creatività interna e incentiva un approccio innovativo anche alle attività di routine. La premiazione ufficiale del concorso è prevista nel corso degli ICT days 2012, che si terranno a Povo di Trento i prossimi 18, 19 e 20 aprile. Tutti i dettagli sul concorso e i link ai bandi sono disponibili alla pagina http://disi.unitn.it/announcements/217. LAB #ID CONFERMATO IN QUESTIO Il Lab#ID, che è stato ampiamente illustrato nei seriali di Tutto_Misure da parte dei componenti del Gruppo diretto da Luca Mari della LIUC di Castellanza, è stato confermato anche per il 2012 in QuESTIO (Quality Evaluation in Science and Technology for Innovation Opportunity). Il Lab#ID è in QuESTIO dal 2009, primo tra i centri di ricerca della LIUC, ed è grazie a questo che può essere utilizzato come centro di ricerca e trasferimento tecnologico per voucher e nell’ambito di bandi finanziati dalla Regione Lombardia. EVENTO DI TRASFERIMENTO TECNOLOGICO A BRESCIA Si è svolto il 25 Gennaio 2012 un interessante seminario orientato al trasferimento tecnologico e alla valorizzazione della proprietà intellettuale di giovani, organizzato dalla Bocconi Alumni T_M N. 1/12 ƒ 7 Association Brescia. Il seminario aveva il titolo “Due regole per la crescita: talento e merito”. All’incontro sono stati presentati 5 progetti di ricercatori/imprenditori under 35 del territorio, o già avviati o ancora nella fase di elaborazione, caratterizzati per l’innovazione e ritenuti meritevoli di promozione per il possibile riconoscimento di supporto. In particolare, è stato presentato un nuovo biosensore da parte del Gruppo di Chimica per le Tecnologie di Ingegneria di Brescia, caratterizzato da costi di apparecchiatura e reagenti molto inferiori a quelli di mercato. Inoltre è stato presentato un prototipo di lampione per illuminazione autostradale, costruito dalla Società 030 di Brescia, e utilizzante LED e ottica della ditta T-Led di Rezzato, che consente un reale risparmio energetico del 50-60%. All’incontro hanno partecipato anche fondi di private equity e venture capital, di cui uno specializzato nel settore delle energie rinnovabili e biomedicale. PROGETTO DI RICERCA EUROPEO BTTMON Dal 16 Gennaio 2012, nell’ambito dell’azione Marie Curie – People del 7°PQ, prenderà il via il progetto di ricerca europeo “BTTMON” c/o il Von Karman Institute for Fluid Dynamics (VKI) di Rhode Saint Genese – Bruxelles. Responsabile scientifico del progetto e Visiting Professor per 18 mesi presso il VKI sarà il Prof. Gianluca Rossi dell’Università di Perugia (a sinistra nella foto). Tema del progetto è lo sviluppo di un nuovo sistema di monitoraggio delle vibrazioni di pale di motori di aerei in esercizio. La metodologia di misura è basata su sensori e algoritmi su cui il Prof. Rossi lavora sin dalla sua tesi di Laurea e Dottorato. Allora La tematica era stata proposta dal Prof. Tomasini di Ancona al fine di approfondire una collaborazione di ricerca attiva in quel periodo con il Nuovo Pignone di Firenze. T_M ƒ 8 N. 01ƒ ; 2012 ▲ COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE Obiettivo del nuovo progetto BTTMON • I partecipanti sono stati suddivisi in è di arrivare a sviluppare nuovi sengruppi eterogenei, cioè composti sori e progettare sistemi particolarciascuno da docenti dei diversi ordimente prestanti e leggeri, in modo ni e gradi di scuola; tale che li si possa utilizzare anche • A ciascun partecipante è stato distribuito un elenco di termini, ritenuper il monitoraggio in esercizio di turti tra i più importanti per affrontare bine aeronautiche. nella scuola percorsi didattici orientati all’apprendimento delle misure. NOTE SUL PRIMO CORSO • I gruppi interdisciplinari hanno cercato di associare a ciascun termine DI FORMAZIONE E PRATICA una definizione che meglio risponEDUCATIVA DELLA METROLOGIA desse, a loro parere, all’obiettivo di (A. CALCATELLI, M. SARDI – trasformare il singolo termine in uno I.N.RI.M., TORINO) strumento comunicativo concettualmente ben definito. Secondo il protocollo d’intesa siglato nel dicembre 2010 presso la sede • Nella discussione per ogni termine è dell’Ufficio Scolastico Regionale, via stata presentata la spiegazione sePietro Micca 20, Torino e sulla base condo la versione italiana del diziodel progetto di formazione in precenario internazionale di metrologia. denza discusso e approvato, nel periodo dal 15/02/2011 al 25/05/2011 2. Momento collettivo si sono tenuti gli incontri con gli inse- di apprendimento di base gnanti dei vari livelli scolastici. Il (lezioni frontali) corso è stato condotto con la collabo- Le lezioni sono state suddivise in due razione degli insegnanti tutor segna- gruppi in base agli argomenti: lati dal MIUR. 1) Sistema Internazionale di unità di Anita Calcatelli e Sergio Sartori hanno misura (SI) e i suoi futuri sviluppi: strutcondotto le lezioni frontali e per la tura e regole di scrittura del SI come parte sperimentale hanno collaborato linguaggio universale, errori più comuAndrea Merlone, Andrea Malengo e ni; organizzazione internazionale e Marina Sardi dell’I.N.Ri.M. Tutto il nazionale della metrologia, con partimateriale utilizzato é stato messo a di- colare attenzione alla situazione italiasposizione dei partecipanti al corso e na; presentazione dell’attività dell’Istitumemorizzato in una chiavetta USB. Al to Nazionale di Ricerca Metrologica. corso hanno partecipato 25 insegnan- Questa parte è stata comune a tutti i partecipanti e la lezione è stata tenuta ti, dei vari ordini scolastici. Il programma del corso è stato il se- dal Prof. Sergio Sartori. 2) Cenni sulla valutazione dell’incerguente: tezza di misura; per questa parte gli 1. Autoverifica. Lezione insegnanti sono stati suddivisi in due introduttiva: Costruzione gruppi in base a considerazioni sulla di un linguaggio comune formazione di base: Gruppo a) costiSono stati forniti a- tuito da insegnanti di scuola primaria gli insegnanti due e secondaria di primo livello (lezione documenti conte- tenuta dal Prof. Sergio Sartori); Grupnenti la spiegazio- po b) insegnanti di scuola secondaria ne e il modo di di secondo livello (lezione tenuta utilizzo del Dizio- dalla Dr.ssa Anita Calcatelli). nario Internazionale di Metrologia e 3) Esperienza pratica di laboratorio. Si una lista di 20 termini di cui i parteci- è partiti dalla considerazione che ciò panti dovevano indicare il significato. che interessa non è la grandezza da A questa attività sono state dedicate le misurare ma una definizione corretta prime tre ore di incontro con lo scopo di dei motivi della scelta, della strumentaverificare il bagaglio metrologico pre- zione disponibile, della procedura di sente nei partecipanti. La modalità di misurazione, l’elaborazione dei risultati esecuzione è stata la seguente: e la loro presentazione. Si è scelto di N. 01ƒ ;2012 ■ lavorare sulla densità di corpi solidi di vario materiale e forma e sono state approntate tre stazioni di lavoro nell’aula didattica allestita nella sede dell’I.N.Ri.M. di Corso Massimo D’Azeglio 42. Ciascuna stazione è stata dotata di tre campioni metallici di forma cilindrica, prismatica e irregolare rispettivamente, di una bilancia, di due volumi tarati di diversa risoluzione e di un calibro. Gli insegnanti sono stati suddivisi in tre gruppi: uno costituito da insegnanti di scuola primaria e secondaria di primo grado e due gruppi costituiti da insegnanti di scuola secondaria di secondo grado. 4) Progetti di trasferimento in classe. Gli insegnanti suddivisi nei sopra descritti tre gruppi hanno presentato tre progetti di trasferimento nelle rispettive classi di quanto acquisito nelle esperienze eseguite durante il corso, soprattutto dal punto di vista dell’impostazione dell’esperimento e della elaborazione dei dati pur proponendo esperienze che abitualmente vengono eseguite in classe. La più consistente novità consiste nel fatto che tutti si sono preoccupati di dare una valutazione dell’incertezza di misura. 5) Questionario di valutazione del livello di apprendimento. Sono stati somministrati due questionari per i due diversi livelli scolastici. Dei 24 insegnanti che hanno preso parte al test ben 19 hanno risposto correttamente a 15 o più domande su 20 e un solo insegnante ha risposto correttamente a tutte le 20 domande. 6) Questionario di valutazione del corso. Alla fine del corso è stato inviato dall’USR a tutti i partecipanti un questionario per la valutazione del corso con lo scopo di ricavarne suggerimenti per l’eventuale prosecuzione con un secondo corso o anche con un corso di “secondo” livello, per quanti hanno partecipato al primo con lo scopo di conseguire un miglioramento. Hanno inviato i questionari compilati quattordici partecipanti (inclusi quattro tutor). In generale si può concludere che il corso ha interessato al gran parte dei partecipanti le cui difficoltà si sono dimostrate principalmente nell’elaborazione dei risultati delle misurazioni COMUNICAZIONI, RICERCA E SVILUPPO DA ENTI E IMPRESE in modo completo, inclusa la valutazione dell’incertezza di misura. Il corso si è concluso con un seminario il 25 maggio 2011 presso le OGR, nel quale oltre a due interventi a cura di Calcatelli e Sartori sull’importanza degli aspetti metrologici nel processo di unificazione dell’Italia è stato fatto un bilancio del corso da parte dei docenti tutor e dei corsisti e sono stati consegnati gli attestati di partecipazione. ma vendemmia dimostrando la capacità del dispositivo di misurare specifici parametri analitici in tempi compatibili con i moderni sistemi produttivi. Questa importante innovazione tecnologica si inserisce in un processo che mira al continuo miglioramento della nostra produzione vitivinicola mediante sistemi di monitoraggio distribuito. Prosecuzione del progetto Il Protocollo d’intesa USR-I.N.Ri.M.GMEE siglato il 28 ottobre 2010 ha validità due anni, e considerata la valutazione positiva e l’interesse che il corso ha suscitato negli insegnanti anche a fronte di una limitata e tardiva pubblicità che è stata svolta dal MIUR poco prima dell’inizio, è intenzione degli enti firmatari riproporre l’attività anche nel corrente anno scolastico 2011-2012, insieme al già citato corso di secondo livello. Il collega e amico Gianfranco Molinar Min Beciet dell’I.N.Ri.M. lascia, per motivi strettamente personali, la direzione del Congresso Biennale “Metrologia e Qualità”, che a partire dal 2005 ha gestito con il consenso degli Enti promotori, curando in particolare i congressi del 2007, 2009 e 2011. “Per prima cosa voglio ringraziare tutti voi per la vostra continua collaborazione e stimoli ricevuti in questi anni.” – dice Gianfranco nella sua lettera – “È stata una piacevole attività e sono lieto di aver potuto apprezzare il vostro valore e la vostra disponibilità. Voglio ringraziare in particolare Massimo Mortarino, Luciano Malgaroli e Silvia Pignatiello di Affidabilità e Tecnologie per la loro continua e instancabile passione per la cultura della metrologia e della qualità e per le loro capacità logistiche e amministrative senza le quali questo evento biennale non sarebbe stato possibile. Un ringraziamento alla dirigenza dell’I.N.Ri.M. e ai numerosi colleghi di questo Ente che mi hanno sempre aiutato a realizzare gli obiettivi e gli eventi utili al progresso della cultura metrologica”. A nome della Redazione della Rivista Tutto_Misure, è mio desiderio ringraziare Gianfranco Molinar per l’assidua e illuminata gestione delle scorse edizioni del Congresso, e porgere gli auguri di buon lavoro a chi vi subentrerà, assicurandogli l’appoggio della Rivista. NUOVO SENSORE PER L’INDUSTRIA VITIVINICOLA DA GMEE MODENA Nell’ambito del progetto “Interventi di base per una viticoltura sostenibile e di qualità del territorio romagnolo” finanziato tramite la Misura 124 del Programma di sviluppo rurale della Regione Emilia-Romagna, l’unità GMEE di Modena in collaborazione con il Gruppo CEVICO, il Centro ricerche produzioni vegetali di Cesena, Astra Innovazione, il Dipartimento di Chimica dell’Università di Modena e Reggio Emilia e Enea CR Faenza ha sviluppato un sensore innovativo per la valutazione della qualità delle uve in ingresso alla filiera produttiva. Le prestazioni del primo prototipo sono state valutate sul campo durante l’ulti- GIANFRANCO MOLINAR LASCIA LA DIREZIONE DEL CONGRESSO “METROLOGIA E QUALITÀ” T_M ƒ 9 ▲ MISURE DIMENSIONALI IL TEMA a cura di Massimo Mortarino Strumenti innovativi per le aziende competitive Tavola rotonda con autorevoli esperti di misure dimensionali INNOVATIVE TOOLS FOR COMPETITIVE MANUFACTURERS Tutto_Misure organizes a series of “virtual” Round Tables among experts in measurement science and technology. They belong to the worlds of Research and of manufacturing and marketing of instruments and services in this field. The aim is to focus on the state of art, the possible evolution, and the real advantages for all the manufacturers who wish to approach measurements as an opportunity (not only as an obligation), and who make reasoned and informed choices for a true competitive improvement. The first round table is focused on Dimensional Measurements. In the next issues: Controls and measurements: sensors and innovative solutions – Tests and calibrations to ensure reliability – Legal metrology. RIASSUNTO Tutto_Misure ha organizzato una serie di Tavole Rotonde “virtuali” fra esperti di misure, appartenenti sia al mondo della Ricerca sia a quello dell’offerta di strumenti e servizi in questo specifico ambito. L’obiettivo è quello di delineare lo stato dell’arte, le possibili evoluzioni e i reali vantaggi per le imprese che affrontano le misure non come semplice “obbligo” ma come opportunità, operando scelte ragionate e consapevoli finalizzate al miglioramento competitivo. La prima Tavola Rotonda è dedicata alle misure dimensionali. Nei prossimi numeri: Controlli e misure: sensori e soluzioni innovative – Prove e tarature a garanzia dell’affidabilità – Metrologia legale. MISURE DIMENSIONALI: in atto da tempo in questi ambiti, fra STRUMENTI PER L’INNOVAZIONE loro sempre più integrati e sinergici. COMPETITIVA Leggiamo, con sempre maggiore fre- La sesta edizione di AFFIDABILITÁ & TECNOLOGIE (www.affidabilita.eu), la manifestazione italiana focalizzata sui Metodi, Soluzioni e Tecnologie per l’Innovazione Competitiva, ospiterà al proprio interno la più importante mostra di strumenti, soluzioni e servizi nell’ambito delle Misure, Prove e Controlli. È questo un approfondimento obbligato, in considerazione della notevole evoluzione quenza, che le aziende che gestiscono le misure come “opportunità” e non come mero “obbligo” possono godere di vantaggi importanti in termini di qualità, affidabilità, flessibilità dei propri prodotti e processi. Ma in quali termini, a livello concreto? A quali condizioni? Con quale impegno, a livello organizzativo ed economico? Per tentare di rispondere a questi e altri interrogativi, fondamentali per moltissime imprese manifatturiere interessate ad affrontare soluzioni innovative in quest’ambito in funzione di specifiche problematiche per le quali trovare le risposte più efficaci e più competitive, abbiamo interpellato i rappresentanti di alcune realtà primarie operanti nell’ambito delle Misure dimensionali, chiedendo loro di trac- ciare uno “stato dell’arte” delle tematiche in questione e anticiparne le possibili future evoluzioni. Nelle loro risposte sono contenute informazioni puntuali e aggiornate per chi deve indirizzare e governare i progetti di cambiamento all’interno delle nostre aziende manifatturiere, presentando il reale valore di soluzioni ancora poco diffuse (o, comunque, adottate più per accontentare il committente che a fronte di una scelta d’investimento consapevole e ragionata), a causa di una scarsa specifica cultura da parte dell’utenza e, a volte, della rapida evoluzione delle proposte presentate sul mercato. Hanno partecipato alla nostra prima Tavola Rotonda Virtuale: • Maurizio Buono – METROLOGIC GROUP (General Manager) • Giorgio Friso – RUPAC (Amministratore Unico) • Stephan Greulich – DIATEST (Sales Manager) • Annarita Lazzari – MITUTOYO ITALIANA (Mitutoyo Institute of Metrology – MIM, Manager) • Roberto Rivetti – RENISHAW (Amministratore Delegato) • Levio Valetti – HEXAGON METROLOGY (Mktg & Comm Manager Commercial Operations Italia) • Paolo Vigo – ACCREDIA (Vicepresidente) D: Le aziende manifatturiere più lungimiranti investono per garantire l’affidabilità della propria produzione: è questa una “politica industriale” in crescita nel nostro Paese? Come si pongono le aziende italiane rispetto ai propri competitor esteri? mmortarino@affidabilita.eu T_M N. 1/12 T_M ƒ ƒ 11 11 (P. Vigo) Spero che il dato, più volte evocato durante la crisi economica di questi ultimi mesi, che evidenzia la solidità industriale del nostro Paese quale seconda economia manifatturiera dopo la Germania, serva a spronare tutti gli imprenditori delle aziende produttive italiane a investire sulle misure per la qualità e l’affidabilità dei prodotti, magari puntando maggiormente sulla ricerca al fine di una migliore competitività. (R. Rivetti) Le aziende italiane stanno recuperando terreno, investendo il loro tempo e mettendo in gioco le proprie conoscenze in un campo in cui ancora c’è molto da fare. (S. Greulich) Ovviamente per noi, in quanto stranieri, non è facile rispondere a questa domanda. Pensiamo comunque che le aziende italiane, come le loro concorrenti straniere, cercheranno di migliorare i loro prodotti, la loro produzione e la loro organizzazione. (G. Friso) Oggi la parola d’ordine è “investire sì, ma con la massima oculatezza”, a volte anche troppa (!!!)... e questo spesso penalizza i risultati che si vorrebbero e si potrebbero ottenere. Si tende, ancora troppo frequentemente, a penalizzare la “vera qualità” a favore della “produzione”. I concorrenti esteri (Europei – Germania in testa) delle nostre Aziende sono molto più attenti alla qualità, anche sotto il profilo normativo/formale. (M. Buono) La crisi recente ha dimostrato che le aziende che avevano creduto nella qualità oggi sono in grado di crescere e competere anche in un quadro economico difficile e ancora per molti aspetti instabile. Molti dei gruppi industriali nostri clienti hanno da sempre investito per garantire l’affidabilità dei propri prodotti, al fine di poter competere con la crescente pressione dei prodotti delle aree emergenti, e questa politica oggi sta dando i propri frutti. Due buoni segnali, ad esempio: di recente il gruppo Volkswagen è diventato il primo costruttore al mondo di automobili e il gruppo Peugeot è stato premiato dall’ADAC per la qualità costruttiva dei propri modelli. In Italia la situazione è, a mio avviso, ancora in forte ritardo; in particolare i grandi gruppi sono tradizionalmente recalcitranti a innovare strutture organizzative che nel tempo si sono stabilizzate nell’ambito della qualità e del miglioramento. Tali inerzie drenano risorse, a tutto svantaggio degli investimenti in formazione e tecnologie. A questo si contrappone, invece, una media impresa estremamente dinamica, che da tempo ha indirizzato il proprio interesse ai mercati più evoluti e quindi è riuscita a recepire con minore difficoltà l’evoluzione tecnologica che ha investito in questi ultimi 5 anni il settore della qualità. Resta invece ancora più di una perplessità sulla piccola impresa, con risorse limitate per investire e fortemente provata dalla crisi finanziaria e dalla stretta del credito. (A. Lazzari) Per quanto riguarda le varie aziende italiane si può constatare che questo atteggiamento è sicuramente in crescita, anche se in realtà sono ancora poche le aziende che nel nostro Paese investono in questa direzione. Purtroppo a volte si deve anche ammettere che per molte aziende italiane l’acquisto di tecnologia viene percepito più come un costo inevitabile che come un vero e proprio investimento nella direzione della garanzia della qualità e l’atteggiamento è in realtà spesso quello di evitare altri costi dello stesso tipo, avvertiti come inutili. (L. Valetti) L’intervento di sistemi per reverse engineering e verifica dimensionale di superfici complesse non è limitata alla ricostruzione di oggetti incogniti o alla verifica finale, ma può essere distribuito lungo tutte le fasi del processo, dalla progettazione alla prototipazione, alla realizzazione degli stampi, alla produzione di serie e successivamente alla manutenzione degli impianti di produzione. Tutti questi interventi danno modo all’azienda manifatturiera di ottimizzare le fasi di preparazione alla produzione e successivamente tenere sotto controllo ogni fase del processo eliminando in modo mirato e tempestivo eventuali anomalie che possono insorgere. T_M ƒ 13 Maurizio Buono Giorgio Friso D: Dal Vostro punto di vista, quali saranno gli scenari futuri (evoluzione delle tecnologie, nuovi ambiti di applicazione, nuovi mercati)? (P. Vigo) Una volta metabolizzato il concetto che non possiamo competere abbassando il livello dei prezzi dei nostri prodotti, visti gli elevati costi (produttivi e sociali), l’unica alternativa è quella di migliorare i livelli di qualità e affidabilità dei prodotti stessi, eventualmente esplorando con l’arguzia che ci caratterizza nuovi ambiti applicativi. (R. Rivetti) Difficile prevedere nel breve termine un cambiamento delle tecnologie di base, piuttosto un loro utilizzo sotto una luce leggermente diversa che le renda appetibili a nuovi ambiti di applicazione, spostando l’attenzione dalla tradizionale misura di certificazione a misura orientata al controllo di processo. (S. Greulich) Prodotti sempre più personalizzati per la soluzione delle esigenze dei singoli clienti e completa tracciabilità delle misure. (G. Friso) Andremo sempre più verso lavorazioni con macchine “multifunzione” e lavorazioni particolari, con la conseguenza di una sempre maggiore attenzione richiesta verso nuove normative (vedi USA) e una crescente necessità d’interazione tra Aziende e/o realtà di continenti diversi. Questo, secondo me, creerà grosse difficoltà alle nostre Aziende, proprio per una mancanza di cultura e conoscenza della metrologia, a partire dalle sue basi “teorico/normative”. (L. Valetti) Relativamente agli strumenti per il reverse engineering e la verifica dimensionale, sarà importante perfezionare ancora di più i sensori, le loro capacità di acquisizione e la loro precisione, mentre nell’ambito del software sarà fondamentale adeguare le piattaforme esistenti alla necessità di trattare quantità di dati sempre maggiori in tempi sempre più stretti. L’industrializzazione di questi processi su scala via via più larga impone inoltre l’applicazione di questi sistemi su macchine automatiche e compatibili con gli ambienti produttivi. T_M ƒ 14 Annarita Lazzari Roberto Rivetti (M. Buono) In futuro ci aspettiamo un forte incremento dell’utilizzo di sistemi ottici (laser, fotogrammetria, ecc.), anche integrati a strutture tridimensionali tradizionali, come le CMM. Queste tecnologie, in grado di raccogliere enormi quantitativi d’informazioni in poco tempo, saranno però poco utili senza software altrettanto potenti, capaci di analizzare correttamente l’enorme mole di dati inviata. È necessario possedere una forte mentalità metrologica per fare in modo che i dati vengano interpretati correttamente dal software, una solida base di partenza con funzioni già predisposte per il collaudo, un codice sorgente in grado di sfruttare completamente le ultime tecnologie in termini di processori e sistemi operativi. Per quanto riguarda i mercati, è fin troppo facile prevedere sviluppi nelle aree dove si sta investendo di più come Cina, Brasile, India e paesi limitrofi come la Thailandia. (A. Lazzari) Uno dei possibili scenari è sicuramente la misurazione online per una riduzione dei tempi di produzione e contemporaneamente dei costi di misurazione. L’offerta nell’ambito delle Misure dimensionali varia a seconda della sensibilità delle singole aziende manifatturiere e delle richieste degli specifici mercati: che cosa propone la Vostra azienda di realmente distintivo/competitivo all’interno di questo vastissimo panorama? (P. Vigo) Uno dei settori nei quali, per mia attività personale, vedo grandi innovazioni affacciarsi sul mercato futuro è quello dei misuratori “intelligenti” (smart, nel nostro gergo). Misuratori che sappiano elaborare i segnali di misura (i propri e anche gli altrui presenti) fornendo così utili servizi agli utilizzatori. Attenzione: le tecnologie di misura, o meglio, i sensori che “estraggono” il segnale di misura resteranno più o meno quelli attuali ma sarà possibile, tramite “intelligenze” diffuse, interpretare i segnali integrandoli con i contesti e anche valutandone criticamente Levio Valetti Paolo Vigo le variazioni per poi fornire il service, cioè le valutazioni, le diagnosi, gli allarmi in una visione di sistema. (R. Rivetti) Proponiamo una gamma di sensori a contatto e non contatto, ormai standard industriale per la verifica dimensionale di pezzi e utensili su macchine di misura, calibri automatici e macchine utensili. Questi dispositivi estendono il concetto di misura dimensionale mettendo le informazioni raccolte al servizio del controllo di processo, per far sì che il contributo della misura dimensionale sia positivo e orientato alla maggiore produttività delle aziende, sia in officina sia in sala metrologica. Tra questi prodotti ricordiamo i più famosi: Revo e PH20, le teste che hanno rivoluzionato il modo di misurare i pezzi con aumenti percentuali della produttività a tre cifre, ed Equator, il calibro flessibile che affianca l’automazione alla flessibilità nella verifica di conformità in produzione e alla tracciabilità tramite macchina di misura. (S. Greulich) Un sistema di radio trasmissione dati flessibile e sicuro: un singolo ricevitore (antenna), collegato a un normale PC, può ricevere i dati di misura provenienti da molteplici strumenti, diversi tra loro per tipologia e marca. Il software, oltre a visualizzare le misure, mostra l’indirizzo dello strumento che le ha inviate. Diatron 1000: un visualizzatore elettronico realmente portatile, per i tamponi di misura Diatest, con una risoluzione di 0,1 µm e la possibilità, grazie al sistema wireless opzionale, di inviare i dati di misura a un PC, a una distanza di 20 m. Prodotti speciali per esigenze speciali: il nostro ufficio tecnico è composto da personale altamente specializzato con alle spalle percorsi formativi di 3-4 anni, di ingegneria meccanica di precisione. Per questo motivo siamo in grado di offrire prodotti speciali per risolvere problemi di misura particolari. (G. Friso) Attualmente sul mercato non c’è che l’imbarazzo della scelta relativamente a cosa acquistare; la tecnologia continua a offrire soluzioni sempre più esasperate ed è sempre più orientata verso quelle basate su apparecchi di misura “multisensore”. È difficile, in que- N. 01ƒ ;2012 ce calibro, il cui sistema Absolute viene riconosciuto come indispensabile per un utilizzo sicuro e affidabile nelle misure di produzione, ai nuovi micrometri QuantuMike, la cui velocità di misurazione e accuratezza viene considerata ai massimi livelli del mercato. Molto apprezzati risultano anche i sistemi di invio e ricezione dati U-Wave la cui flessibilità viene apprezzata non soltanto dai clienti finali ma anche dagli sviluppatori di nuovi software di analisi dati non strettamente legati all’ambito automotive per cui sono stati inizialmente sviluppati. Anche nell’ambito della misurazione della Rugosità il nuovo SJ210 sta diventando ormai un riferimento, soprattutto nel settore della misurazione in produzione. Ma Mitutoyo è specializzata anche in alta tecnologia e le caratteristiche richieste dalle aziende alle apparecchiature di misura sono sempre più esigenti; la continua necessità di rincorrere il miglioramento continuo della qualità dei prodotti fa allo stesso tempo aumentare anche le aspettative di vita e contestualmente si ha l’esigenza di ridurre al minimo i consumi energetici. Tutto ciò deve essere preso in considerazione da un’azienda nella scelta del proprio sistema di misura. Mitutoyo offre CMM ad alta accuratezza con velocità di misura e accelerazione elevatissime. La possibilità di sostituire o aggiungere sistemi di tastatura e software rende l’acquisto di tali apparecchiature di misura un ottimo investimento per il futuro. Precisione, velocità e flessibilità sono i tre aspetti che caratterizzano la nostra produzione. D: Quali sono, oggi, i settori che possono maggiormente beneficiare delle Vostre proposte? E quali sono le esigenze (prestazioni, prezzi, ecc.) alle quali maggiormente vi chiedono di rispondere? (R. Rivetti) Automotive, aerospaziale, packaging, medicale e meccanica generale, con maggior enfasi laddove il controllo di qualità e il controllo di processo determinano il successo di una produzione. L’esigenza principale è quella di trovare una soluzione che abbia il corretto bilancio tra i benefici di processo e i costi. ▲ sto contesto, riuscire a proporre qualcosa di realmente distintivo e innovativo. La cosa su cui veramente si può contare per distinguere la propria Azienda è il servizio pre- e post vendita e la capacità di offrire un qualificato supporto di consulenza in ambito delle tematiche relative al “controllo qualità”. (M. Buono) Ciò che distingue principalmente Metrolog risiede sicuramente nella qualità, flessibilità e facilità d’utilizzo del prodotto. In effetti il software di misura Metrolog permette di gestire con un unico software tutti i tipi di macchine di misura 3D, qualunque sia il tipo di tecnologia utilizzata (CMM tradizionali, bracci antropomorfi, laser tracker, teste laser, fotogrammetria, ecc.). Questo elemento distintivo, unito alle elevate prestazioni di calcolo, permette alle aziende di standardizzare un solo software di misura per tutte le sale metrologiche del gruppo, a prescindere dalle macchine 3D possedute, e poter continuare a utilizzare i programmi e i dati acquisiti anche in caso di sostituzione di una macchina con una diversa soluzione. Inoltre il prodotto è altamente intuitivo e progettato per l’operatore, permettendo così una riduzione drastica dei costi di formazione e la possibilità d’interscambiare gli operatori tra tutte le macchine possedute. (L. Valetti) Hexagon Metrology, in quanto fornitore di sistemi di misura a coordinate, è in grado di fornire una gamma completa di soluzioni per il reverse engineering di superfici complesse. L’offerta spazia da sistemi per scansione laser ad altissima velocità e risoluzione utilizzabili con bracci articolati manuali portatili e con sistemi laser tracker a sensori per scansione su macchine automatiche. Sono inoltre disponibili sistemi di fotogrammetria per l’acquisizione di grandi quantità di dati superficiali in tempi rapidissimi, sia utilizzabili in modo manuale che guidati da robot industriali. La gestione software delle nuvole di punti acquisite è affidata ad applicazioni specialistiche in grado di trattare grandi quantità di punti e con essi ricostruire matematicamente le superfici, oppure confrontare i dati acquisiti con il modello CAD dei pezzi per rilevare eventuali scostamenti dalle superfici teoriche. (A. Lazzari) Tutti i nostri prodotti si distinguono nel loro campo: dal sempli- IL TEMA (S. Greulich) Affidabilità dei prodotti – Affidabilità delle consegne – Soluzioni personalizzate per problemi di misura particolari – Massima accuratezza nella misurazione di diametri interni (fino a 0,2 µm) – Sistemi di trasmissione wireless sicuri, versatili e pratici. (G. Friso) Lo strumento di misura dimensionale può essere utilizzato da chiunque produca “pezzi”, per cui i settori a cui sono rivolte le nostre vendite sono molteplici; se proprio vogliamo identificarne un paio, tra i più importanti ci sono la meccanica e l’automotive. L’esigenza primaria è quella di contenere il “costo pezzo” e quindi le Aziende sono spesso alla ricerca del miglior compromesso tra la “massima precisione nei controlli, nel minor tempo possibile e con la minima spesa”. (M. Buono) Siamo un’azienda totalmente trasversale e, sebbene i nostri prodotti rappresentino uno standard principalmente nel settore aeronautico (con una soluzione integrata in CatiaV5) e in quello automotive, ormai i nostri clienti appartengono ai settori più impensati; questo grazie anche al fatto che le esigenze del controllo dimensionale 3D sono di recente molto aumentate. In effetti la crisi che ha investito il settore manifatturiero in questi anni ha fatto capire alle aziende che investire in qualità per migliorare i propri prodotti è l’unica via per poter competere anche in momenti difficili. Le aziende hanno investito in nuove tecnologie, che necessitano di potenze di calcolo sempre maggiori: mi riferisco, in particolare, al controllo tramite nuvole di punti, ambito nel quale abbiamo investito tre anni di ricerca e sviluppo per poter offrire ai nostri clienti il meglio in termini di prestazioni e analisi. (A. Lazzari) Ormai tutti i settori richiedono misurazioni affidabili e di elevata accuratezza e tutti i settori ci richiedono elevate prestazioni anche su semplici strumenti di uso comune. Tuttavia il settore trainante è ancora quello dell’automotive, insieme al settore macchine industriali e meccanica in generale. (L. Valetti) Tutti i settori, industriali e non, nei quali è necessario analizzare superfici complesse sono virtualmente e praticamente potenziali utilizzatori dei sistemi descritti: dall’industria dei traspor- T_M ƒ 15 N. 01ƒ ;2012 ti all’aeronautica, da ogni tipo di produzione legata al design alle applicazioni dei materiali compositi, dalla cantieristica navale alla tutela del patrimonio artistico e architettonico. Le principali esigenze di ciascun mercato sono l’ottimizzazione delle attività di reverse engineering e verifica dimensionale al fine di ridurre, nel modo più drastico possibile, i tempi di acquisizione ed elaborazione dei dati, nonché il raggiungimento di risultati affidabili e di precisioni compatibili con l’applicazione specifica. D: Secondo Voi, è necessaria una maggiore cultura in materia? Quali strumenti di divulgazione suggerite? (P. Vigo) La cultura metrologica o delle misure in genere sta lentamente tornando in auge dopo essere stata offuscata dall’euforia informatica e simulativa, anche perché il numero di dati di misura che coinvolge quotidianamente qualsiasi operatore è elevatissimo! Comincia infatti a serpeggiare il dubbio che molti di questi dati siano inutili o dubbi e questo favorisce il diffondersi del concetto che è meglio avere pochi dati certi e riferibili piuttosto che tanti dati inutili e falsi. Insomma la cultura dell’incertezza di misura, che deve accompagnare ciascun valore, comincia a essere percepita da molti. Infine fatemi sottolineare il mio condividere che l’arte di divulgare è la migliore espressione della docenza (noi professori dobbiamo essere dei lampadofori per gli allievi.....dobbiamo andare avanti nel buio, con una lampada accesa portata dietro le nostre spalle....per illuminare! Siamo mascherine nei cinematografi che illuminano la strada ai clienti!). (R. Rivetti) Le persone che decidono come trasformare i processi all’interno delle aziende avrebbero maggior beneficio da eventi culturali in cui affrontare gli aspetti strategici e le motivazioni della misura, mentre gli operatori che ogni giorno devono cercare soluzioni a problemi contingenti possono avere maggior beneficio da forme elettroniche di condivisione delle esperienze e delle soluzioni, come forum e corsi elettronici. (S. Greulich) Sì, un’evoluzione cultura- IL TEMA le è di fondamentale importanza e dovrà avvalersi, oltre che degli strumenti classici di comunicazione (siti web, flyer digitali e cartacei, newsletter, pubblicità e articoli su riviste di settore, ecc.), di fiere specialistiche e incontri/visite presso i clienti. Sarà altresì necessario studiare adeguate strategie per sfruttare i mezzi di comunicazione offerti dalle nuove tecnologie: social network, Facebook, Xing, YouTube, ecc. (G. Friso) Sicuramente sì! Il problema è: come, dove e da parte di chi…? I Produttori, che sicuramente sono i più coinvolti, lo possono fare, ma logicamente non possono sottrarsi all’aspetto “commerciale” che il rapporto con lo “studente”/Cliente può assumere (diffidenza da parte di quest’ultimo, relativa al fatto che magari non riesce a capire se quello che gli viene detto è realmente “obiettivo” o se contiene messaggi finalizzati alla potenziale vendita). Potrebbe avere senso, secondo me, che i Produttori di strumentazione di misura possano stringere accordi con gli enti predisposti alla formazione (ITIS e Università) al fine di poter sponsorizzare una maggiore diffusione della cultura metrologica dotando (a titolo praticamente gratuito) questi Istituti di strumenti aggiornati e tecnologicamente “importanti” (facendosi anche carico di una certa formazione rivolta al Corpo Docente), a fronte di un deciso impegno a potenziare questo aspetto della formazione “tecnica”. Sarebbe inoltre auspicabile la creazione di un portale “al di sopra delle parti” (Internet è a oggi la fonte a cui si rivolge, in prima battuta, chi è alla ricerca d’informazioni) dove poter trovare informazioni corrette su Normative, su campi applicativi, oltre a commenti e riferimenti su dove potersi rivolgere per poter operare una corretta scelta sullo strumento più idoneo a risolvere una determinata problematica. (M. Buono) È evidente che aumentare la cultura in materia sia una necessità prioritaria, dal momento che solo così le decisioni in seno a realtà produttive possono essere consapevoli e scevre da ogni tipo di pregiudizio. A mio avviso il contatto umano tra aziende e fornitori rimane ancora il modo migliore per poter divulgare informazioni e innescare un circolo virtuoso di crescita comune. (L. Valetti) È fondamentale identificare con precisione le applicazioni nelle quali queste tecnologie non sono ancora sufficientemente conosciute e divulgare la conoscenza attraverso azioni e strumenti di comunicazione mirati. Spesso la potenziale utenza ha difficoltà a riferire una data tecnologia alla propria esigenza attraverso il solo confronto con applicazioni già consolidate ma appartenenti a settori diversi. (A. Lazzari) Purtroppo la formazione nel nostro Paese non viene posta nella giusta considerazione: capita spesso che le aziende investano molto denaro nelle nuove tecnologie, ma senza disporre del know how necessario per l’utilizzo ottimale delle potenzialità delle apparecchiature acquistate, e quindi l’investimento stesso viene vanificato e alla fine non compreso e apprezzato. Un modo per divulgare la cultura venendo in qualche modo incontro alle esigenze delle aziende è, soprattutto in questi periodi di crisi conclamata, l’utilizzo delle tecnologie via Internet e di tutte le forme di divulgazione a esso collegate: queste forme sono e saranno le migliori. In Mitutoyo, vantiamo un centro di formazione per specialisti delle misure: il Mitutoyo Institute of Metrology (MIM) in cui, oltre a corsi pratici su prodotti Mitutoyo, vengono sviluppati ed erogati corsi nell’ambito della Metrologia, Qualità e Statistica, pensati appositamente per le aziende e ritagliati sulle loro specifiche esigenze. Da tempo è stato attivato un progetto di formazione in e-learning, che ha riscosso molto successo fra i nostri clienti, e sono stati inoltre realizzati corsi di formazione in DVD, svolti proprio come un corso tradizionale in aula. Tutto ciò ha dato la possibilità di venire incontro alle molteplici esigenze del cliente e ai vari problemi delle aziende, che spesso lamentavano i costi di trasferta o l’impossibilità di essere operativi nel proprio posto di lavoro nel momento in cui ci si assentava per frequentare un corso di formazione, fornendo in tal modo anche la possibilità di avere sempre a propria disposizione le necessarie informazioni, spiegate in forma semplice e diretta. T_M ƒ 17 N. 01ƒ ; 2012 ■ IL TEMA I Poli dell’Innovazione e della Ricerca ad AFFIDABILITÀ & TECNOLOGIE 2012 ViaMéca (Polo di competitività francese della meccanica avanzata), MESAP (Polo dell’Innovazione piemontese della meccatronica e dei sistemi avanzati di produzione), Tecnalia (Centro di ricerca privato no-profit dei Paesi Baschi), IAM Abruzzo (Polo d’Innovazione Automotive) e Club Meccatronica avranno un ruolo di primo piano nella sesta edizione di AFFIDABILITÀ & TECNOLOGIE (Torino, 18/19 aprile 2012). Queste importanti realtà, oltre a partecipare all’ampia e qualificata parte espositiva, si proporranno anche come potenziali buyer e, a tale scopo, verranno organizzati incontri fra i loro rappresentanti e quelli di aziende fornitrici di tecnologie e soluzioni innovative, selezionate direttamente tra quelle espositrici ad AFFIDABILITÀ & TECNOLOGIE 2012. ViaMéca (www.viameca.fr) è una realtà che fa riferimento al polo industriale delle RHONE ALPES, particolarmente attiva per progetti con processi di produzione avanzati, ingegneria di superficie, sistemi intelligenti e di robotica applicata, macchine speciali, veicoli speciali, strutture speciali. ViaMéca opera nel settore dei beni industriali, industria automobilistica, aeronautica, energia e medicale. MESAP (http://mesapiemonte.it) – Unione Industriale di Torino: Il Polo della meccatronica MESAP aggrega piccole, medie e grandi imprese, centri e organismi di ricerca operanti nei campi della meccatronica e dei sistemi avanzati di produzione. L’Unione Industriale di Torino è un’associazione volontaria d’imprese, a livello territoriale, aderente a Confindustria, per la rappresentanza, la tutela, la promozione e lo sviluppo delle aziende e dei loro interessi. All’Associazione aderiscono, in oltre 30 gruppi merceologici, oltre 2.300 imprese con circa 200.000 addetti. Tecnalia Research & Innovation (www.tecnalia.com) è un centro nato dalla fusione di 8 centri con un lungo e ampio curriculum di ricerca industriale e innovazione. Con circa 1.500 ricercatori, 120 M€ di fatturato e quasi 3.800 clienti, Tecnalia opera nella ricerca industriale e innovazione in diversi settori: tecnologie e sistemi per la salute, l’autonomia e la qualità di vita; sistemi industriali; tecnologie per lo sviluppo sostenibile (energia, edilizia, ambiente); ingegneria dei trasporti e aerospaziale; ecc. IAM Abruzzo, Polo d’Innovazione Automotive (www.innovazioneautomotive.eu) che raggruppa 79 aziende abruzzesi, prevede azioni di sistema (marketing per attirare nuove imprese e gestione delle infrastrutture ad accesso aperto, organizzazione di programmi di formazione, seminari e conferenze finalizzati a facilitare la condivisione delle conoscenze e il lavoro in rete) e servizi specialistici per le imprese aderenti. Club Meccatronica (www.meccatronica.org), promosso da un gruppo d’imprenditori dell’Associazione Industriali di Reggio Emilia, si propone come punto d’incontro aperto per tutti coloro che operano nella meccanica avanzata e nella meccatronica. TORINO, NON PER CASO AFFIDABILITÀ & TECNOLOGIE rappresenta una novità nel panorama fieristico italiano. Ispirata alla concretezza delle fiere americane, si avvale di un progetto contenutistico in continua evoluzione e crescita, “tarato” sulle esigenze dei visitatori e degli espositori, in collaborazione con il mondo della ricerca. Una realtà in costante crescita di consensi, con strategie di sviluppo che vedono direttamente coinvolti i vari “partner” della manifestazione, realtà istituzionali, industriali e associative che patrocinano e sostengono l’evento. “Abbiamo realizzato la prima edizione nel 2007 – spiega Luciano Malgaroli, fondatore di AFFIDABILITÀ & TECNOLOGIE – puntando a dar vita a un progetto fieristico che fosse realmente rispondente alle esigenze delle società espositrici e dei visitatori. Ci siamo subito resi conto delle potenzialità della nostra formula e abbiamo registrato una costante crescita del 20/25% in ciascuna delle cinque edizioni”. “La scelta di Torino come sede della manifestazione non è casuale.” – prosegue – “Nel nord ovest d’Italia hanno sede industrie di primaria importanza e migliaia di aziende appartenenti alle relative filiere industriali. A ciò si aggiunge un’opportuna gestione delle risorse da parte della pubblica amministrazione, il ruolo fondamentale del Politecnico, che interagisce attivamente con l’industria, e quello della Camera di Commercio e dei Poli dell’Innovazione, che attuano politiche di sviluppo e internazionalizzazione in grado di attrarre maggiormente gli investimenti di numerose aziende estere. Torino e AFFIDABILITÀ & TECNOLOGIE sono quindi diventate un appuntamento per migliaia d’imprenditori e tecnici da tutta Italia: aziende che puntano sull’innovazione e hanno saputo conquistare anche i mercati esteri grazie alle loro capacità. Torino è sempre più considerata città dell’innovazione e AFFIDABILITÀ & TECNOLOGIE è capace di attrarre visitatori di alto profilo, a livello nazionale e internazionale, che cercano idee e soluzioni per incrementare la competitività della propria azienda”. “La nostra strategia è chiara: – conclude Malgaroli – ci consideriamo parte attiva di questo processo di sviluppo e vogliamo crescere ulteriormente per poter offrire alle aziende e alla ricerca un luogo ideale d’incontro all’altezza delle loro aspettative, che favorisca opportunità di business e scambio di idee utili per la competitività”. T_M ƒ 18 GLI ALTRI TEMI ▲ MISURE ELETTRICHE ED ELETTRONICHE L. Fumagalli 1, M. Trebeschi 1, P. Tomassini 1, G. Libretti 1, F. Docchio 1, M. Zanatta 1, M. Pellegrini 2, E. Fabbrizi 2 Collaudo delle barriere autostradali Tutor un moderno sistema automatico AN AUTOMATIC TEST SYSTEM FOR MOTORWAY TUTOR PORTALS Q-Tech srl has recently developed a new integrated system able to test Tutor motorway portals of Autostrade per l’Italia, which integrates full custom and off-the-shelf sensors, within a compact architecture based on National Instruments instrumentation. SOMMARIO Q-Tech srl ha portato a buon esito il progetto e la realizzazione di un nuovo sistema integrato per il collaudo delle barriere Tutor installate dalla società Autostrade per l’Italia spa, integrando sensoristica full-custom e off-the-shelf all’interno di un’architettura unitaria basata su strumentazione National Instruments. INTRODUZIONE Il Tutor è un innovativo sistema, ideato e sviluppato da Autostrade per l’Italia, che permette il controllo della velocità media dei veicoli in transito. Il sistema “SICVe Test”, realizzato da Q-Tech per Autostrade per l’Italia, è un sistema di misura installato su un’autovettura di test, che acquisisce ed elabora dati provenienti da sensoristica optoelettronica: lo scopo primario di questo sistema è di fornire l’esatta velocità del veicolo durante il transito del medesimo tra le due spire installate nel manto stradale in corrispondenza delle barriere Tutor. Per sviluppare la seconda versione del sistema “SICVe Test” Q-Tech ha scelto di basarsi sulla piattaforma NI CompactRIO e sulla programmazione grafica in ambiente NI LabVIEW, realizzando una soluzione integrata robusta, performante e semplice da utilizzare. IL TUTOR DI AUTOSTRADE PER L’ITALIA Il SICVe (Sistema Informativo per il Controllo della Velocità, più comunemente denominato “Tutor”), è un sistema di rilevazione della velocità istantanea e media ideato, progettato e e dal portale di uscita, calcolando per ciascun veicolo (identificato su base targa) la velocità media tenuta nel tratto sotto controllo. I dati dei veicoli la cui velocità media non supera quella consentita sono immediatamente eliminati, mentre le violazioni vengono accertate dalla Polizia Stradale. A differenza dei sistemi tradizionali, il Tutor permette di rilevare l’eccesso di velocità come comportamento abituale di guida, ed è in grado di funzionare in qualsiasi condizione atmosferica e d’illuminazione. Attualmente il controllo della velocità tramite Tutor è attivo su oltre 2.500 km di carreggiate e ha permesso, nei primi 12 mesi di funzionamento, di registrare una significativa riduzione della velocità media (-15%) e della velocità di picco (-25%), determinando anche una netta diminuzione dell’incidentalità e delle conseguenze alle persone [1]. sviluppato da Autostrade per l’Italia spa, omologato dal Ministero delle Infrastrutture e dei Trasporti, e gestito dalla Polizia Stradale. Il Tutor è il primo sistema che permette di rilevare la velocità media dei veicoli su tratte autostradali di lunghezza variabile, indicativamente tra i 10 e i 25 km, delimitate da due portali. Come mostrato in Fig. 1, ciascun portale Tutor si compone per ogni corsia di transito di due serie di sensori interrati, oltre DESCRIZIONE che di un illuminatore IR, di una foto- DEL SISTEMA “SICVE TEST V2.0” camera e di un orologio GPS posti sul portale. Q-Tech srl, grazie al suo know-how nella progettazione di sistemi ottici e optoelettronici [2-5], ha realizzato con successo negli anni scorsi un sistema (denominato “SICVe Test”) per il collaudo delle barriere Tutor. L’esperienza maturata nello sfruttamento delle potenzialità offerte dalle soluzioni hardware e software National InFigura 1 – Schema del sistema Tutor per ogni struments ha consentito a Q-Tech di corsia di transito progettare e mettere in opera una nuova architettura per il sistema I sensori posizionati sotto l’asfalto, al “SICVe Test V2.0”, basata su prodotti passaggio dei veicoli, ne rilevano la National Instruments. velocità istantanea e attivano le tele- Il sistema di misura in oggetto è instalcamere installate sui portali stessi. La targa del veicolo viene fotografata e vengono registrate la data e l’ora di (1) passaggio. Un sistema centrale effet- (2) Q-Tech srl, Rezzato (BS) Autostrade per l’Italia spa, Firenze tua l’abbinamento tra gli orari di pasl.fumagalli@q-tech.it saggio rilevati dal portale d’ingresso T_M N. 1/12 ƒ 19 ottico commerciale con elevata accuratezza di misura. Il sistema è inoltre in grado di rilevare l’orario e le coordinate GPS del transito; la presenza di un database contenente informazioni sulle barriere Tutor installate da Autostrade per l’Italia Figura 2 – a) L’autovettura di test su cui è installato il sistema permette all’applicativo “SICVe Test V2.0”, b) il sensore ottico IR sviluppato da Q-Tech di riconoscere automaticamente la barriera sotto lato su un’autovettura di test apposita- cui avviene il transito. La Fig. 2b mostra mente allestita, mostrata in Fig. 2a. Nel in dettaglio il sensore ottico IR progettato corso dei transiti della vettura lungo la e realizzato da Q-Tech per rilevare gli rete autostradale, il sistema è in grado impulsi emessi dalla barriera Tutor. di riconoscere gli impulsi prodotti dalle Il prototipo del sistema “SICVe Test barriere Tutor grazie a un sensore otti- V2.0” è mostrato Fig. 3: esso si compoco IR appositamente sviluppato da Q- ne di un’unità di elaborazione allogTech; tali impulsi vengono correlati con giata nel bagagliaio dell’autovettura di l’effettiva velocità istantanea del veicolo, test, che contiene sia il dispositivo NI misurata per mezzo di uno strumento CompactRIO (provvisto di modulo GPS T_M ƒ 20 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI e di moduli di acquisizione analogica e digitale) sia l’elettronica ausiliaria necessaria al funzionamento del sistema. L’unità viene alimentata dalla batteria dell’autovettura. Tutti i sensori sono direttamente connessi all’unità di elaborazione: come si può vedere in Fig. 2b, il sensore infrarosso Q-Tech e il sensore di velocità sono posizionati esternamente all’autovettura, su appositi supporti. Figura 3 – Il sistema “SICVe Test V2.0” installato nel bagagliaio dell’autovettura di test N. 01ƒ ;2012 Figura 4 – Il posto di guida dell’autovettura di test ARCHITETTURA DEL SISTEMA “SICVE TEST V2.0” Per realizzare il nuovo sistema “SICVe Test V2.0” Q-Tech ha scelto la piattaforma National Instruments CompactRIO [6]: essa infatti da un lato fornisce le elevate prestazioni richieste dall’applicazione, e dall’altro garantisce la robustezza necessaria per un’applicazione a bordo veicolo. Per la realizzazione del sistema “SICVe Test V2.0” si è utilizzato l’ambiente di sviluppo NI LabVIEW provvisto dei moduli LabVIEW Real-Time e LabVIEW FPGA. La Fig. 5 mostra gli strumenti a disposizione in ambiente LabVIEW per realizzare le diverse parti che compongono una generica applicazione per la piattaforma NI CompactRIO. Utilizzando il modulo LabVIEW Real-Time è stato creato un programma da eseguire sul controller real-time CompactRIO (riquadro “Real Time Processor” in Fig. 5). Questo applicativo, denominato “SICVeTestcRIO”, ingloba tutte le funzionalità di acquisizione dei dati dai sensori, elaborazione e generazione dei file di output. È stato inoltre utilizzato il modulo LabVIEW FPGA per programmare e personalizzare la FPGA nello chassis CompactRIO (riquadro “Reconfigurable FPGA” in Fig. 5). Le applicazioni LabVIEW Real-Time e LabVIEW FPGA sono state sviluppate su un computer host utilizzando la programmazione grafica e quindi scaricate su CompactRIO per essere eseguite in modalità stand-alone. Utilizzando LabVIEW è stato inoltre creato un applicativo d’interfaccia utente per il sistema CompactRIO (riquadro “User Interface” in Fig. 5). Questo applicativo, denominato “SICVeTestUI”, viene eseguito sul Touch Panel computer: esso permette all’operatore di visualizzare lo stato del sistema e di poter eventualmente interagire con esso mediante una modalità avanzata di gestione. ▲ L’interconnessione con i sensori esterni è effettuata mediante opportuni connettori fissati al pannello frontale dell’unità di elaborazione “SICVe Test V2.0”. Il pannello posteriore dell’unità di elaborazione contiene il connettore al sistema di alimentazione, il pulsante di accensione/spegnimento dell’unità, la ventola di raffreddamento e i fusibili. Sulla sinistra del pannello posteriore è presente un pannello rimovibile che copre il punto di accesso previsto per la taratura del dispositivo. Il sistema è completato da un Touch Panel computer veicolare da 12’’ montato accanto al posto guida come mostrato in Fig. 4. La connessione tra il pannello frontale dell’unità di elaborazione e il Touch Panel computer è diretta, mediante un cavo di rete. GLI ALTRI TEMI affinché, nella modalità standard utilizzata nel corso delle campagne di misura, l’operatore (che è anche il guidatore dell’autovettura) si limiti a verificare la corretta acquisizione di ciascun transito attraverso una barriera Tutor, confermata da indicatori macroscopici a video e da segnalazioni acustiche. Al termine di una giornata di misurazioni l’operatore può scaricare su chiavetta USB i file di riepilogo contenenti i risultati delle elaborazioni del sistema “SICVe Test V2.0”; i dati vengono quindi inviati presso la sede di Firenze di Autostrade per l’Italia, dove il personale addetto procede all’analisi dei transiti effettuati. Figura 6 – L’interfaccia utente dell’applicativo Q-Tech “SICVeTest-UI” CONCLUSIONI L’applicazione realizzata da Q-Tech srl è risultata semplice da installare, da configurare e da utilizzare. L’integrazione tra i compoFigura 5 – La piattaforma NI CompactRIO: nenti NI CompactRIO e componenti hardware e strumenti software l’ambiente di programmaa disposizione per lo sviluppo di applicazioni (fonte: National Instruments) zione grafica LabVIEW ha permesso di progettare e realizzare in tempi rapidi un Opportuni punti di test sono stati sistema dall’architettura unitaria e previsti per tutte le fasi della pro- consistente, caratterizzato da modugrammazione; la stretta integrazio- larità e scalabilità. L’autovettura ne della piattaforma ha consentito di equipaggiata con il sistema “SICVe ottenere una diagnostica puntuale e Test V2.0” è attualmente utilizzata approfondita. Come mostrato in Fig. 6, con successo dalla società Autostral’applicativo d’interfaccia utente de per l’Italia spa per collaudare “SICVeTest-UI” installato sul Touch regolarmente gli oltre trecento portaPanel Computer è stato progettato li Tutor installati in Italia. T_M ƒ 21 N. 01ƒ ; 2012 RIFERIMENTI BIBLIOGRAFICI 1. www.autostrade.it/assistenza-al-traffico/tutor. html 2. L. Fumagalli, P. Tomassini, M. Zanatta, F. Docchio, A 400kHz High-Accuracy, Laser Telemeter for Distributed Measurements of 3-D Profiles, IEEE Trans. Instr. Meas., 60(3), 2011, pp. 1054-1060. 3. L. Fumagalli, P. Tomassini, M. Zanatta, F. Docchio, Laser telemeter for distributed measurements of object profiles, 2009, Italian patent (granted). 4. L. Fumagalli, P. Tomassini, G. Libretti, M. Trebeschi, M. Zanatta, F. Docchio, Telemetria laser avanzata: nuove applicazioni, Tutto Misure 1/2010, pp. 19-22. 5. L. Fumagalli, G. Libretti, P. Tomassini, M. Trebeschi, M. Zanatta, Sistemi optoelettronici per portali multifunzione ferroviari, LabVIEW World 13, 2010, pp. 25-27. Luca Fumagalli si è laureato nel 2000 in Ingegneria Elettronica all’Università di Brescia con una tesi sulla metrologia di fasci laser. Cofondatore di Q-Tech s.r.l., ne è Amministratore Delegato. Paolo Tomassini si è laureato nel 1998 con lode in Ingegneria Elettronica all’Università di Brescia, dove ha anche conseguito il Dottorato di Ricerca in Strumentazione Elettronica. Dopo essere stato assegnista di Ricerca presso il Laboratorio di Optoelettronica, nel 2002 ha fondato la Società Q-Tech s.r.l., divenendone Presidente, carica che tuttora ricopre. Marco Trebeschi ha conseguito la Laurea con Lode in Ingegneria Elettronica e il Dottorato di Ricerca in Strumentazione Elettronica presso l’Università degli Studi di Brescia. Ha ottenuto le certificazioni National Instruments CLD (Certified LabVIEW Developer) e CPI (Certified Professional Instructor). Attualmente è Software Design Manager presso QTech srl. Marco Zanatta si è laureato in Ingegneria Elettronica nel 2001. In seguito ha lavorato nella divisione R&S di Agilent Technologies come progettista ottico, specializzato nella progettazione e sviluppo di circuiti ottici planari basati su tecnologia “silica on silicon”. Nel 2004 ha lavorato ai Pirelli Labs come responsabile di progettazione ottica di componenti attivi e passivi per fibre ottiche. Nel 2008 è iniziata la sua collaborazione con Q-Tech s.r.l.. Nel 2011 è entrato a far parte della società in qualità di socio e membro del consiglio di amministrazione. T_M ƒ 22 GLI ALTRI TEMI ▲ IL MEGLIO DI GMEE 2011 L. Angrisani 1, M. Di Lelio 2, P. Morabito 3, R. Schiano Lo Moriello 1, M. Vadursi 4 Misure per la Sicurezza nei Sistemi VoIP Un test bed riconfigurabile per misurazioni in tempo reale MEASUREMENTS FOR VOIP SYSTEMS SECURITY The paper presents the design of an automatic real-time system for security measurements over VoIP (voice over IP) systems, The system allows the evaluation of both objective and subjective quality parameters, in the presence of typical security attacks to the infrastructure. VoIP application developers and vendors could benefit from such a measurement system, especially for the tests they are required to carry out to assess the robustness of their products with respect to the most common security threats. RIASSUNTO L’articolo presenta un sistema automatico per la misura in tempo reale dei parametri di sicurezza dei sistemi di voice over IP (VoIP), Lo scopo è la valutazione congiunta di parametri di qualità oggettiva e di qualità percepita dall’utente in presenza di tipici attacchi alla security del sistema, al variare dei parametri della infrastruttura di rete. Potenziali fruitori del sistema di misura sono i vendor di applicazioni VoIP, cui spetta l’onere di effettuare test specifici per verificare la robustezza delle applicazioni rispetto ai più comuni rischi. SICUREZZA NEI SISTEMI VOIP: QUALI I RISCHI? Le problematiche di sicurezza dei sistemi VoIP sono peculiari e richiedono un approccio nuovo e specifico, caratterizzato da robustezza e tempestività. Il VoIP, infatti, non è semplicemente una delle tante applicazioni che girano sull’infrastruttura IP; al contrario, si tratta di un servizio complesso, simile ai sistemi di telefonia già esistenti, quali PSTN, ma caratterizzato da una ben più seria vulnerabilità intrinseca. Inoltre, il buon funzionamento dell’infrastruttura VoIP richiede, come per tutte le applicazioni real-time, valori molto stringenti dei parametri di qualità del servizio (QoS), come un’affidabilità pari al 99,999% o un’indisponibilità massima inferiore ai 5 minuti di downtime all’anno. Ciò comporta che un qualsiasi attacco all’infrastruttura va gestito e risolto in pochi secondi. Gli attacchi cui possono essere soggetti i sistemi VoIP possono essere divisi in quattro categorie principali: • attacchi che mirano a ridurre la disponibilità del servizio VoIP; casi, ciò si traduce nella richiesta formale verso il cliente che ha richiesto la connessione di farsi carico di effettuare un insieme di test specifici per verificare la robustezza rispetto ai più comuni attacchi cui va incontro una rete IP. Da ciò scaturisce la forte esigenza di un approccio ai problemi di sicurezza VoIP che consenta di dare risposte in tempi rapidi e in modo automatico. COSA MISURARE E COME MISURARE Metriche L’obiettivo principale della metodologia proposta è la definizione di una procedura di misura che non si limiti a identificare i possibili punti di vulnerabilità del sistema, ma permetta di valutare, per una specifica implementazione VoIP: • punti di forza: caratteristiche di sicurezza, integrate o esterne all’infrastruttura, che consentono di proteggere il sistema giorno per giorno dai potenziali attacchi che subisce; • punti di debolezza: falle nell’infrastruttura VoIP che rappresentano potenziali punti ove gli attacchi possono fare breccia nel sistema. La metodologia deve inoltre rappresentare per il responsabile del sistema uno strumento per pianificare le modifiche necessarie alla piattaforma di rete, nell’ottica di un incremento del livello di sicurezza. Le metriche considerate mirano a valutare le prestazioni e la qualità del sistema sia da un punto di vista ogget- • attacchi che mirano a danneggiare l’integrità del servizio VoIP; • Spam over IP Telephony (SPIT); • eavesdropping, che è l’ascolto non autorizzato delle chiamate da parte di terzi; • frodi tariffarie. Tra le cinque categorie, gli attacchi che minano la disponibilità del sistema sono senza dubbio quelli che hanno l’impatto maggiore sulla qualità percepita dagli utenti, indisponibilità del servizio, downtime del sistema, perdita di produttività e costi legati a manutenzione non programmata. Un problema di sicurezza in un’infrastruttura VoIP potrebbe portare a una grave failure di sicurezza per la rete PSTN interconnessa, benché quest’ultima sia di solito ritenuta un dominio sicuro e affidabile. A causa di punti deboli come questo, propri della tecnologia VoIP, i responsabili tecnici degli operatori della rete, che hanno il compito di gestione e (1) sorveglianza dell’intera infrastruttura, (2) Università di Napoli “Federico II” hanno un atteggiamento particolarmente (3) ATS Assistance cauto quando si tratta di connettere una (4) Free-lance Università “Parthenope” – Napoli sottorete VoIP privata all’infrastruttura di rete. Nella grande maggioranza dei angrisan@unina.it T_M N. 1/12 ƒ 23 ▲ GLI ALTRI TEMI tivo (Quality of Service, QoS), sia da un punto di vista soggettivo (Quality of Experience, QoE). Per la QoS valutiamo parametri quali jitter, ritardo e percentuale di pacchetti persi (PLR), mentre per la qualità percepita dall’utente effettuiamo valutazioni automatiche di MOS (Mean Opinion Score) mediante il software Empirix Hammer Call Analyzer, in accordo alla raccomandazione ITU P-800 “Methods for subjective determination of transmission quality”, Test bed sperimentale La metodologia deve essere progettata in modo che il carico rappresentato dalle attività di monitoraggio e misura non vada a detrimento della QoS/QoE del sistema in real-time. A tale scopo è stata realizzata una piattaforma reale con tutti i principali componenti di un core network IP WAN, unitamente a una implementazione reale VoIP che include SIP Proxy, SIP UAs, Firewalls, Core ed Edge Routers, telefoni IP, IPPBX. Modificando i parametri di sicurezza del sistema è possibile verificare al contempo la resistenza della piattaforma agli attacchi e l’influenza del sistema di misura sulle prestazioni del sistema VoIP. In Fig. 1 è riportato uno schema del test bed di misura che rappresenta un sistema integrato rete/VoIP. L’idea è di riprodurre, su scala ridotta, lato utente, la gran parte delle attività ed eventi che un utente VoIP può sperimentare durante il ciclo di vita del servizio multimediale che egli ottiene dall’operatore (QoE) e, lato rete, i principali problemi che gli operatori di gestione e ingegneria devono affrontare (QoS). A tale scopo, è stata progettata una rete costituita da due rami, connessi tra di loro da una WAN simulata e controllabile, In questo modo, è possibile Figura 1 – Test bed di misura misurare, al variare delle condizioni della WAN (es.: i,e, valori di jitter, ritardo di trasmissione, percentuale di pacchetti persi), i diversi parametri a livello applicazione VoIP, quando le condizioni della connessione variano nel tempo. ALCUNI RISULTATI La procedura operativa è stata progettata in modo da permettere la costruzione di una tabella che riporti i risultati dei test in termini di QoE e QoS, per l’insieme di differenti condizioni operative WAN/LAN simulate col test bed mostrato in figura. Il diagramma di flusso della procedura, riportato in Fig. 2, consiste nei seguenti passi: a) selezione dei parametri per le condizioni operative (“ambientali”): vengono qui fissati i valori dei parametri relativi alle condizioni operative della rete WAN, che saranno usati nelle fasi successive di emulazione; b) tuning dei parametri di sicurezza dei dispositivi di rete relativi a una delle tre condizioni: Maximum Security – Medium Security – Low Security; c) esecuzione di un numero statisticamente significativo di chiamate per un dato set di parametri ambientali e di sicurezza, e misurazioni ripetute dei parametric MOS/R-Factor all’altro estremo della rete; d) verifica del completamento dei test per tutte e tre le condizioni di sicurezza: [se NO, torna a (b), altrimenti vai a (e)]; e) verifica del completamento dei test per tutte le condizioni operative della rete WAN: [se NO, torna a (a), altrimenti vai a (f)]; f) Fine della sessione. I test sono stati condotti su traffico cifrato con un tunnel IP-SEC e su traffico non cifrato. In Tab. 1 sono riportati i casi di test più rilevanti, riferibili a situazioni operative realistiche (JB è la durata del buffer di jitter). I casi di test dal #01 al #09 consentono di analizzare l’impatto del jitter e del delay sulla qualità, in assenza di perdita di pacchetti (PLR=0). Si prendano, ad esempio, i casi #01 e #02, Mettendo a zero il delay sulla rete WAN è possibile ottenere un limite ideale per il Packet Loss Ratio (PLR) su Figura 2 – Diagramma di flusso della procedura operativa una rete IP che supporti servizi VoIP: se il valore di PLR supera il 2%, come nei casi #10 e #11, è probabile che la QoE percepita dall’utente risulti non soddisfacente. Infatti, nonostante il delay sia stato reso nullo e il jitter sia assente, la QoE va in questo caso al di sotto del limite accettabile per una chiamata telefonica (MOS = 3,43,6). Da ciò è possibile concludere che un carrier IP deve garantire un PLR inferiore al 2% per poter supportare servizi VoIP di qualità accettabile. Si considerino ora i casi di test #03, #04, #05 e #06, nei quali sono state emulate situazioni di vita reale di una generica rete IP. I valori misurati per i parametri di QoS sono coerenti con l’esperienza di chi opera su reti siffatte. Se ci si concentra sui valori di jitter, è possibile notare come un moderato incremento di quest’ultimo determini un decremento significativo della QoE, che corrisponde a una qualità inaccettabile in presenza di un jitter buffer di durata pari a 20 ms, o appena accettabile se il buffer ha durata pari a 60 ms. N. 01ƒ ;2012 Il test #07, in particolare, mostra come si ottenga un Round-Trip-Time (RTT) pari a 148 ms e un jitter pari a 7,78 ms (vale a dire circa il 5% del RTT). Eppure, scegliendo opportunamente il jitter buffer, è possibile ottenere un ottimo punteggio MOS pari a 4,1. Il test case #08 evidenzia una situazione differente, Si ottiene un RTT pari a 86 ms, ma un jitter molto elevato, pari a 12,41 ms, e ciò determina un degrado inaccettabile della qualità percepita. Il test case #09 rappresenta una situazione duale: basso jitter associato a un delay elevato (RTT = 404 ms). Per tale ragione, la QoE percepita è scarsa, nonostante un jitter molto contenuto (pari a circa l’1% del RTT). Si analizzino ora casi più realistici, con PLR diverso da zero. Si prenda, ad esempio, il test case #12, che dà i seguenti risultati: jitter = 5,14 ms, RTT = 202 ms, che significa un jitter pari al 2,5% del RTT. In tale condizione, è lecito attendersi, in linea con le analisi precedenti, un buon punteggio MOS, rappresentativo di una buona QoE. Al contrario, ciò non accade; il valore di PLR, che supera l’1%, determina infatti una degradazione delle prestazioni del sistema. Analoga situazione si verifica nel test case #13: jitter = 9,73 ms, RTT = 255 ms, PLR = 0,47%. Il jitter è pari al 3,8% del RTT, che è un valore relativamente buono, eppure, per effetto di un PLR non trascurabile, il valore di MOS rientra nei limiti di accettabilità solo per un jitter buffer di durata pari a 100 ms. L’OBIETTIVO: LINEE GUIDA PER LA PROGETTAZIONE DI APPLICAZIONI VOIP I primi test di cui si è dato conto nella sezione precedente sono finalizzati all’analisi del comportamento del sistema al variare dei parametri di rete che dipendono, a loro volta, sia dalle condizioni operative della rete sia da possibili attacchi tesi a degradarne le prestazioni. Il test bed riportato in Fig. 1 rappresenta l’ultima evoluzione del sistema di Tabella 1 – Risultati di misura di QoS/QoE misura realizzato, Esso consente di effettuare esperimenti anche al variare dei parametri relativi alle possibili policy di sicurezza (es. firewall SIP) implementate dal sistema sotto esame, emulando così gli effetti di possibili attacchi, al variare delle contromisure rese disponibili dal sistema. Inoltre si sta cercando di analizzare il problema sicurezza fino a livello applicativo, tramite l’adozione di SIP Security Controller. Su questo si sta concentrando al momento l’attività congiunta tra l’Unità GMEE di Napoli e l’ATS Assistance. L’obiettivo è trovare un tradeoff ottimale tra le esigenze di sicurezza e quelle di QoE/QoS, che inevitabilmente risentono di sovrastrutture di qualsivoglia natura (hardware, software, di processing, ecc.) introdotte per migliorare la sicurezza. Esse tipicamente comportano un deterioramento di QoS, in termini d’incremento di jitter e/o delay e/o PLR, e un conseguente peggioramento della QoE percepita. Lo scopo finale è pervenire all’individuazione di un insieme di “linee guida”, basate sui risultati di un’ampia casistica di test, che rappresentino un buon punto di partenza nella progettazione di nuove applicazioni VoIP. RIFERIMENTI BIBLIOGRAFICI [1] P. Thermos, A. Takanen, “Securing VoIP Networks: Threats, Vulnerabilities, and Countermeasures” Addison Wesley, 2007. [2] S. McGann, D.C. Sicker, “An Analysis of Security Threats and Tools in SIPBased VoIP Systems”, Proc. of the Second VoIP Security Workshop, Washington DC, USA, 1-2 June 2005. [3] Telecommunication Standardization Sector of ITU, “ITU-T Recommen- dation P,800 Methods for subjective determination of transmission quality”, August 1996. [4] Empirix Hammer Calls Analyzer www,empirix,com/solutions/ products-ser vices/hammercall-analyzer,aspx [online]. [5] H. Abdelnur, R. State, I. Chrisment, C. Popi, “Assessing the security of VoIP Services” 10th IFIP/IEEE International Symposium on Integrated Network Management, pp. 373382, 21 -25 Maggio 2007. [6] D.R. Kuhn, T.J. Walsh, S. Fries, “Security considerations for voice over IP Systems” Recommendations of the National Institute of Standards and Technology (NIST), Special Publication 800-58, 2004. [7] C.K. Hung, M. Vargas Martin, “Security Issues in VOIP Applications” Electrical and Computer Engineering, 2006, CCECE ‘06, Canadian Conference, pp. 2361-2364, May 2006. [8] S. Cardeal, F. Neves, S. Soares, F. Tavares, P. Assuncao, “ArQoS®: System to monitor QoS/QoE in VoIP”, IEEE International Conference on Computer as a Tool (EUROCON) 2011, 27-29 April 2011. [9] D. Butcher, Li Xiangyang, Jinhua Guo, “Security Challenge and Defense in VoIP Infrastructures”, IEEE Transactions on Systems, Man, and Cybernetics, Part C: Applications and Reviews, vol. 37, n. 6, pp. 1152-1162, November 2007. [10] A.D. Keromytis, “Voice-over-IP Security: Research and Practice”, IEEE Security & Privacy, vol. 8, n. 2, pp. 76-78, March-April 2010. [11] D. Sisalem, J. Kuthan, S. Ehlert, “Denial of service attacks targeting a SIP VoIP infrastructure: attack scenarios and prevention mechanisms”, T_M ƒ 25 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI Mauro Di Lelio è MaRosario Schiano Lo IEEE Network, vol. 20, n. 5, pp. 26naging Director nella BuMoriello è ricercatore 31, Sept-Oct 2006. universitario di Misure siness Unit Telco in ATS. [12] D. Bao, L. De Vito, L. Tomaciello, Elettriche ed Elettroniche Da anni si occupa di pro“A method for classifying VoIP system presso la Facoltà di Ingegettazioni VoIP con magimpairments” Proc. of XV IMEKO TC4 gneria dell’Università di giore attenzione alla riInt. Symp. on “Novelties in Electrical Napoli Federico II. Si occerca e sviluppo di piatMeasurements and Instrumentation”, cupa principalmente di misure per la taforme nell’ambito della sicurezza. Iasi – Romania, 19-21 Sept 2007, sicurezza e per la caratterizzazione di Attualmente conduce uno studio sul rapvol. 2, pp. 537-542. porto tra sicurezza e Quality of Servi- componenti. ce/Quality of Experience (QoS/QoE) in applicazioni Real Time. Leopoldo Angrisani è professore Ordinario di Misure Elettriche ed EletMichele Vadursi è ritroniche presso la Facoltà Pasquale Morabito è cercatore universitario di Ingegneria dell’Univerconsulente free lance nel di Misure Elettriche ed sità di Napoli. Si occupa campo delle TelecomuniElettroniche presso la di misure su sistemi e reti cazioni, Si occupa di miFacoltà di Ingegneria di comunicazione, misure su sistemi wisure nel predetto campo, dell’Università di Napoli reless in presenza d’interferenza, misucon particolare focalizza“Parthenope”. Si occupa re per la sicurezza. È General Chairzione sulle applicazioni principalmente di misure su sistemi e man del IEEE International Workshop on multimediali realizzate in ambito TDM e reti di comunicazione e misure per la Measurements & Networking. IP. dependability. T_M ƒ 26 GLI ALTRI TEMI ▲ IL MEGLIO DI METROLOGIA E QUALITÀ 2011 G. Sciocchetti 1, A. Sciocchetti 1, P. Giovannoli 1, P. De Felice 2, G. Cotellessa 2, F. Cardellini 2, M. Pagliari 2 La misura della concentrazione del radon e del toron con il nuovo rivelatore passivo a tracce sviluppato dall’ENEA ABSTRACT The experimental device is based on Alpha-PREM, a new concept of integrating passive track detector developed at the INMRI-ENEA laboratory. The unique features of this instrument allow controlling detector exposure with a patented sampling technique. A novel prototype based on the project of Technoradon company is described. Applications in the field of area and personal monitoring at workplaces are envisaged. A passive radonthoron discriminative measurement system based on Alpha-PREM application has been developed. RIASSUNTO L’INMRI-ENEA ha sviluppato e brevettato un dosimetro radon, basato su un nuovo concetto di strumento integratore passivo a tracce, con caratteristiche uniche per il monitoraggio sia ambientale sia personale nei luoghi di lavoro. Viene descritto un nuovo prototipo progettato dalla Technoradon srl, riportando i primi risultati delle prove di qualificazione nella camera radon a microclima controllato in funzione nel CR Casaccia. Viene inoltre presentato un sistema di misura della concentrazione media del toron basato sulla tecnica della doppia cella a diffusione a permeabilità differenziata. UN DISPOSITIVO INNOVATIVO: IL DOSIMETRO RADON INTEGRATORE PASSIVO A PISTONE SVILUPPATO DALL’ENEA L’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI) dell’ENEA effettua ricerche, fra l’altro, sui metodi di misurazione del radon e sugli standard per la taratura della strumentazione. Il dosimetro radon Alpha-PREM (Piston Radon Exposure Meter), di seguito indicato A-PREM, è stato sviluppato e brevettato dall’ENEA. In questo lavoro viene presentato il prototipo progettato e realizzato dalla Technoradon srl, una società che provvede all’ingegnerizzazione del brevetto per il quale sono state ottenute l’UE Patent (convalidata in vari paesi europei) e, di recente, l’US Patent (negli USA). Questi strumenti sono costituiti da piccole celle con diverse geometrie e volumi, che racchiudono lastrine di materiale plastico (LR-115, policar- ne ambientale del radon. Questi dosimetri, per evitare l’esposizione delle lastrine sia durante lo stoccaggio sia durante la movimentazione, devono essere protetti con appropriati involucri protettivi antiradon. Nel nuovo dosimetro ENEA l’inconveniente è stato eliminato da uno speciale dispositivo che consente di controllare la durata del monitoraggio. Il dosimetro, grazie alla sua speciale struttura meccanica, è un vero strumento professionale, riusabile senza limiti, a differenza di quelli “usa e getta” basati sul dispositivo di filtrazione “air gap” [1] [2]. Esso consiste di cella cilindrica, pistone e base intercambiabile realizzata con materiali trasparenti, nella quale sono ricavate le sedi delle lastrine. Le celle dei prototipi sono state realizzate con materiale conduttivo e non conduttivo per la sperimentazione dell’effetto delle cariche elettrostatiche, con un volume interno di circa 40 cm3 e l’impiego di una lastrina di Cr-39 del tipo 25x2 mm 2 posizionata sulla base. Il pistone scorrevole all’interno della cella cilindrica realizza una parete mobile che consente di variare il volume utile compreso tra la testa e la base. Questo dispositivo ha due funzioni: la funzione “statica” start/ stop che consente, nella posizione di contatto della testa del pistone con la superficie della lastrina, di ridurre a zero il volume della cella eli- bonato, CR-39), sensibili alle particelle alfa emesse, all’interno della cella, dal radon e dai suoi prodotti di decadimento. Le alfa che incidono sulla superficie delle lastrine producono microscopiche tracce latenti che, dopo uno sviluppo chimico con soluzioni alcaline, possono essere contate con appropriate tecniche di analisi. L’aria penetra nella cella per campionamento diffusivo attraverso un filtro (oppure un dispositivo del tipo “air gap”) che impedisce l’ingresso dei particolati, vettori dei prodotti di decadimento del radon presenti nell’aria. Il fattore di taratura, per questa tipologia di strumenti, è dato dal rapporto tra il “segnale” dello strumento (densità delle tracce registrate al netto del fondo) e l’esposizione al radon, definita come prodotto della concentrazione media per il tempo. Pertanto, cono- (1) Technoradon srl, Roma scendo l’intervallo dell’esposizione (2) ENEA INMRI, Istituto Nazionale con un appropriato fattore di taratu- di Metrologia delle Radiazioni Ionizzanti, ra con il conteggio della densità di Centro Ricerche Casaccia, Roma tracce si determina la concentrazio- g.sciocchetti@technoradon.it T_M N. 1/12 ƒ 27 Figura 1 – Dosimetro con corpo trasparente (immagine virtuale) minando l’esposizione dei rivelatori, e la funzione “dinamica” che, mediante l’estrazione del pistone, consente, con l’effetto siringa, il prelievo istantaneo di campioni di radon dall’aria circostante. Figura 2 – Il prototipo reale nelle condizioni start e stop (dosimetro aperto e chiuso) Il pistone del nuovo prototipo è un dispositivo per il campionamento dell’aria, basato su una struttura a stelo cavo e una testa con la sede di un filtro intercambiabile. L’ingresso dell’aria avviene attraverso un piccolo foro sullo stelo che, opportunamente ottimizzato, può fungere anche come dispositivo selettivo dell’ingresso degli isotopi del radon presenti nell’aria (“pinhole effect”). A causa del ritardo della diffusione gassosa, solo il radon (222Rn), con emivita di 3,82 giorni, attraversa il foro, mentre una larga percentuale del toron (220Rn), con breve emivita di 55,60 secondi, sarà T_M ƒ 28 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI eliminata. Così si evita l’interferenza del 220Rn che potrebbe causare una sovrastima nella misurazione del radon. Il toron è presente in modo significativo in alcune aree del nostro paese e viene emesso da alcuni materiali da costruzione, ad esempio il tufo largamente usato in passato [3] [4]. La base trasparente del dosimetro è una “finestra” per la lettura dei codici delle lastrine i quali possono essere usati come codici d’identificazione del dosimetro. Nella Fig. 3 sono riportate sedi di lastrine di largo impiego: 10x10 mm2, 25x25 mm2 e 37x13 mm2. La possibilità d’impiego di diverse tipologie di lastrine consente ai laboratori di ricerca e di servizio d’inserire A-PREM nella filiera operativa senza modificare le tecniche di sviluppo e di lettura, standardizzate in base alla tipologia della lastrina. secondo un segnale senza il contributo del toron che consente di determinare la concentrazione del radon. Dopo avere determinato la concentrazione del 222Rn CRn con A-PREM/Rn, applicando la relazione (1) è possibile valutare il segnale 222Rn di APREM/Tn. DRn = kRn · CRn (1) DRn – segnale 222Rn; kRn – fattore di taratura 222Rn di A-PREM/Tn; CRn – concentrazione del 222Rn. Il segnale 220Rn si calcola con la sottrazione del segnale 222Rn dalla densità totale delle tracce della lastrina di A-PREM/Tn. DTn = kTn · CTn (2) DTn – segnale 222Rn; kTn fattore di taratura 220Rn di A-PREM/Tn; CTn – concentrazione del 220Rn. Con la formula (2) e il fattore di taratura kTn si può determinare la concentrazione del toron. Nella Fig. 4 è presentato un kit sperimentale a doppia cella basato su due dosimetri A-PREM [5]. L’unica differenza Figura 3 – Basi con sedi di lastrine di geometrie di largo impiego: 10x10 m2, 25x25 m2 e 37x13 m2 consiste nelle dimensioni dei fori di campionamento sullo stelo cavo: APPLICAZIONI DEL DOSIMETRO uno è stato maggiorato per facilitare il A-PREM NEL METODO campionamento del 220Rn, mentre l’alDISCRIMINATIVO RN/TN tro mantiene le dimensioni standard A DOPPIA CELLA A DIFFUSIONE PER IL MONITORAGGIO DEL TORON per eliminare il contributo del 220Rn. Le concentrazioni indoor del radon Il metodo discriminativo 222Rn/220Rn a doppia cella consente la determinazione simultanea della concentrazione media del radon e del toron. Esso si basa su una coppia di dosimetri con filtri a diversa efficienza di filtrazione. Ad esempio il dosimetro con filtro di carta ad alta permeabilità, denominato A-PREM/Tn, permette il campionamento del 222Rn e del 220Rn, mentre quello a membrana con bassa permeabilità, denominato A-PREM/Rn, lascia passare il 222 Rn ma eliminerà una larga percentuale del toron, a causa del ritarFigura 4 – Coppia di dosimetri A-PREM do della diffusione gassosa. Nel per la misura della concentrazione del toron. primo caso si avrà sulla lastrina un A sinistra la cella A-PREM/Tn con foro magsegnale dovuto ai due isotopi, nel giorato, a destra la cella A-PREM/Rn standard N. 01ƒ ;2012 conduttiva con foro d’ingresso dell’aria maggiorato non indica differenze significative rispetto alla cella della versione standard, se non per il valore dell’incertezza. Per la versione standard A-PREM /Rn con cella acetalica conduttiva è stato determinato un valore del fattore di taratura, pari a 2,96 cm-2/kBqhm-3 ± 13% (incertezza percentuale). APPLICAZIONE DEI DOSIMETRI INTEGRATORI PASSIVI NEI PROTOCOLLI DI MONITORAGGIO DEL RADON NEI LUOGHI DI LAVORO PER GLI ADEMPIMENTI DEL D.LGS. 230/1995 S.M.I. I livelli di radon negli ambienti confinati sono variabili perché influenzati da fattori meteorologici, dalla RISULTATI DELLE PROVE tipologia edilizia, dai sistemi di ricambio dell’aria e dalle stesse attiviDI QUALIFICAZIONE tà lavorative. La misurazione della DEL DOSIMETRO A-PREM concentrazione del radon può esseNELLA CAMERA RADON re effettuata con metodi di tipo istanINMRI – ENEA taneo oppure continuo, con l’impieLe prove sono state effettuate presso go di strumentazione attiva elettronila Camera Radon INMRI – ENEA su ca. La misura del valore medio della prototipi realizzati, su progetto della concentrazione del radon con i dosiTechnoradon srl, dalla 4T-PLAST di metri integratori passivi a tracce Roma con la tecnologia dello stam- trova un largo impiego per gli adempo a iniezione. Nella Tab. 1 sono pimenti di legge negli ambienti di riportate le risposte di dosimetri con lavoro. La normativa si basa sul mocelle conduttive e non conduttive a nitoraggio delle concentrazioni di un’atmosfera di riferimento di attività di radon medie annuali con 20.600 ±388 Bq/m3 di concentra- un livello di azione pari a zione di radon costante. I vetrini 500 Bq/m 3. Sono previste misurasono stati analizzati con il supporto zioni in tutti i luoghi di lavoro sotterdel Laboratorio Radon U-Series srl di ranei e all’interno di locali situati in Bologna. zone in cui è alta la probabilità di I dati non evidenziano sostanziali riscontrare elevate concentrazioni. differenze tra le prestazioni della L’applicazione dei dosimetri passivi è cella a diffusione conduttiva e della prevista in modo esplicito nei protocolli cella a diffusione non conduttiva. La di monitoraggio delle “Linee guida per risposta al radon dei rivelatori a trac- le misure di concentrazione di radon in ce della versione A-PREM/Tn a cella aria nei luoghi di lavoro sotterranei” predisposte dalla Conferenza dei PreTabella 1 – Riepilogo delle prove di qualificazione sidenti delle Regioni di diversi tipi di dosimetri A-PREM (densità di tracce in cm-2 ) e delle Province autonome. Il valore medio annuale della concentrazione di radon è un para- ▲ possono cambiare a causa di molti parametri, tra cui la ventilazione. La risposta dei dosimetri passivi chiusi dipende dal tempo di permeazione il quale influenza l’equilibrio dinamico tra le concentrazioni esterne e interne del radon e, quindi, il valore del loro rapporto: un valore troppo elevato potrebbe sottostimare la concentrazione media. A-PREM è vantaggioso perché, senza la membrana, si basa su una coppia di dosimetri che può funzionare con tempi di permeazione brevi. La tecnologia A-PREM non richiede, inoltre, dispositivi di filtrazione ausiliari come nel caso degli “air gap”[6], [7]. Sono in corso verifiche sperimentali per ottimizzare le applicazioni di coppie di dosimetri con uguali filtri a elevata efficienza e uguale fattore di taratura per il radon. GLI ALTRI TEMI metro che caratterizza il locale nel quale sono presenti postazioni di lavoro; tuttavia il monitoraggio ininterrotto notte-giorno, anche in assenza di attività lavorative, previsto nelle Linee guida, potrebbe sovrastimarne i valori [8] e [9]. A differenza dei dosimetri convenzionali, A-PREM con la funzione start/stop consente di determinare campioni rappresentativi. Queste prestazioni lo rendono idoneo per il monitoraggio dell’esposizione individuale perché il dosimetro consente l’addizione di esposizioni sequenziali basate su monitoraggi differenziati in diversi intervalli e aree operative. BIBLIOGRAFIA 1. Sciocchetti G., Cotellessa G., Soldano, E., Pagliari, M., “A new technique for measuring radon exposure at working places”, Rad. Measurements, 36, Issues 1.6, June 2003, 199-203. 2. Sciocchetti G., Cotellessa G, Soldano E., Pagliari M. and A. Ceccatelli, “A new passive integrating detector for measurement of individual radon exposure at working places”, IRPA 11 May 23-28, 2004. 3. Sciocchetti G., Bovi, M., Cotellessa, G., Baldassini, P.G., Battella, C., Porcu, I., Indoor Radon and Thoron Surveys in High Radioactivity Areas of Italy, Radiat. Prot. Dosim., 45, 509514 (1992). 4. Bochicchio F., Campos Venuti G., Nuccetelli C., Risica S. and Tancredi F, Indoor measurements of 220Rn and 222Rn and their decay products in a Mediterranean climate area, Environment International, Volume 22, Supplement 1, Pages 633-639 (1996). 5. Sciocchetti G., Sciocchetti A., Giovannoli P., De Felice P., Cardellini F., Cotellessa G., Pagliari M., “A new passive radon-thoron discriminative measurement system”, Thoron 2010, Workshop & intercomparison 12-22 May, 2010, NIRS, Chiba, Japan AIRM-AIRP. 6. Tokonami S., Takahashi H., Kobayashi Y., and Zhuo W., Up-to-date radon-thoron discriminative detector for a large scale survey, Review of Scient. Instr. 76, 113505 (2005). 7. Calamosca M. e S., Penzo S., A new CR-39 nuclear track passive thoron measuring device, Radiation Measurements 44 (2009) 1013-1018. T_M ƒ 29 N. 01ƒ ; 2012 ▲ 8. Sciocchetti G., Sciocchetti A., Giovannoli P., Cotellessa G., Pagliari M. “Monitoraggio dell’esposizione al radon negli ambienti di lavoro”, Giornate di studio “Il rischio da contaminazione radioattiva: i casi radon e uranio impoverito”. Paestum 29-30 aprile 2008. 9. Sciocchetti G., “Radioprotezione radon negli ambienti di lavoro e garanzia di qualità”, XXXIV Convegno Nazionale dell’AIRP, “Sicurezza e Qualità in Radioprotezione”, Vasto Marina (Chieti), 1-3 ottobre 2007. Series srl di Bologna per l’analisi dei Si ringraziano l’Ing. Massimo Esposito rivelatori a tracce delle prove di qualifie la Dott.ssa Marta Rossetti della U- cazione. RINGRAZIAMENTI Giuliano Sciocchetti ha svolto una lunga attività di ricerca al C.R. Casaccia dell’ENEA dove, fra l’altro, è stato Responsabile del Laboratorio Misure Ambientali, curando la realizzazione di apparati di monitoraggio e di taratura tra cui la Camera Radon Climatizzata. Responsabile scientifico e coordinatore delle campagne sul radon in ambienti di lavoro e nelle abitazioni su scala nazionale. Ha fondato ed è titolare della società Technoradon srl specializzata nel settore del radon. Coordinatore del Gruppo di Lavoro internazionale WG B10 “Radon and Radon Daughter Measuring Instruments” dell’IEC. Per quest’attività nel 2005 gli è stato conferito il 1906 AWARD IEC. NEWS WIKA ACQUISISCE SCANDURA ▼ GLI ALTRI TEMI Con la recente acquisizione della SCANDURA, WIKA ha compiuto un ulteriore passo verso il rafforzamento della propria posizione di leadership nel mercato delle apparecchiature e dei servizi di taratura. Fondata negli anni Cinquanta come fornitore di laboratori completi per la taratura della strumentazione di processo, Scandura è presto divenuta una delle aziende di riferimento e un marchio riconosciuto a livello internazionale nel settore della taratura. Il portafoglio prodotti include calibratori portatili, bilance a pesi e strumenti campione per applicazioni metrologiche e industriali, integrati da pacchetti software, accessori e una vasta gamma di servizi complementari. Soprattutto i calibratori portatili soddisfano i massimi requisiti in termini di prestazioni e di standard di sicurezza e offrono uno strumento di misura affidabile, ad esempio con certificazione ATEX, anche per applicazioni critiche nell’industria di processo. I sistemi completi di taratura per laboratori e officine elettrostrumentali hanno una reputazione consolidata. Progettati e realizzati secondo le specifiche esigenze dei singoli clienti, essi consentono il raggiungimento delle migliori accuratezze disponibili sul mercato. Scandura verrà integrata nel gruppo WIKA ed è disponibile per tutti i clienti del mondo attraverso la sua consolidata rete di vendita e il qualificato personale di supporto. Per ulteriori informazioni: f.miccoli@wika.it T_M ƒ 30 GLI ALTRI TEMI ▲ IL MEGLIO DI METROLOGIA E QUALITÀ 2011 R. Gatti 1, P. Sangiorgio 2, G. Zappa 1, C. Zoani 1 Materiali di Riferimento (RM) per le analisi degli alimenti RM per la valutazione delle caratteristiche organolettiche REFERENCE MATERIALS FOR THE EVALUATION OF THE ORGANOLEPTIC PROPERTIES OF FOODSTUFFS To make the quality of food products objective and comparable, it is necessary to use measurable parameters able to take into account all the characteristics of a product. In particular, the organoleptic properties of a food product are ultimately what determines whether or not a consumer will continue to use it. In this work we examine the current production of RMs for the evaluation of the organoleptic properties of foodstuffs and we discuss main issues linked to the development of new RMs for this field. RIASSUNTO Per rendere oggettiva e comparabile la qualità delle produzioni alimentari è necessario utilizzare parametri misurabili che coprano tutti gli aspetti qualitativi di un prodotto; tra questi, le proprietà organolettiche sono spesso il più determinante nel giudizio soggettivo e nelle scelte di consumo. Nel presente lavoro si analizza la produzione di RM da impiegare per la valutazione delle caratteristiche organolettiche e vengono discusse le principali problematiche legate alla realizzazione di nuovi RM per questo settore. INTRODUZIONE Per rendere oggettiva e comparabile la qualità delle produzioni alimentari è necessario utilizzare parametri misurabili in grado di coprire tutti gli aspetti qualitativi di un prodotto: dimensioni, aspetto, proprietà fisiche e microbiologiche, assenza di pericoli e minor contenuto di sostanze nocive o indesiderate, composizione e presenza di nutrienti e sostanze nutriceutiche, proprietà organolettiche, origine delle materie prime, aspetti relativi al confezionamento, conservabilità e facilità d’uso, aspetti legati alla sostenibilità ambientale e all’etica delle produzioni. Le proprietà organolettiche sono spesso l’elemento che più condiziona il giudizio soggettivo di qualità e le scelte di consumo e tra queste il flavour è senz’altro il parametro più determinante. Il flavour di un alimento è costituito dall’insieme di composti volatili e non volatili, che vengono percepiti attraverso i recettori olfattivi (aroma) e gustativi (taste). La definizione del profilo aromatico di un alimento è importante per: valutarne o dimostrarne la qualità e l’origine; caratterizzare e selezionare spe- cie o cultivar; valutare la genuinità e la freschezza dei prodotti; avere informazioni sull’insorgenza di fisiopatie o sulla maturazione dei prodotti; ottimizzare le produzioni e migliorare il gradimento dei prodotti. Per misurare le caratteristiche organolettiche di un alimento possono essere utilizzati, accanto all’analisi chimica strumentale, i sistemi olfattivi e gustativi artificiali (naso e lingua elettronici) e l’Analisi Sensoriale (AS), impiegata per evocare, misurare, analizzare e interpretare le sensazioni che possono essere percepite dai sensi della vista, olfatto, gusto, tatto e udito. Ad esempio nel comparto produttivo olio la normativa europea [1] prevede che la classificazione commerciale del prodotto in 8 categorie venga effettuata non solo in base al valore dell’acidità libera, ma anche in base alla valutazione oggettiva del gusto eseguita con un Panel Test. La necessità di RM per le misure in questo settore è quanto mai pressante e diversificata. Infatti solo disponendo di adeguati RM è possibile stabilire valide correlazioni tra composizione chimica e flavour di un alimento, tarare i sistemi artificiali e gli stessi Giudici di AS (Panelisti). DETERMINAZIONE DEL FLAVOUR DEGLI ALIMENTI Nella percezione del flavour degli alimenti l’olfatto riveste un ruolo spesso essenziale: i recettori olfattivi sono circa 20 milioni, contro i circa 1.000 recettori gustativi, e consentono il riconoscimento di circa 10.000 odori differenti; l’apparato olfattivo è estremamente sensibile ed è in grado di rilevare anche tracce di molecole volatili (10 molecole/ml di aria). Per stabilire l’aroma di un alimento è necessario definire il suo “profilo aromatico”, ossia individuare e quantificare decine (anche centinaia) di composti volatili appartenenti a diverse classi chimiche (esteri, aldeidi, ammine, lattoni, alcoli, terpeni, chetoni, idrocarburi, acidi), presenti negli alimenti a basse concentrazioni [2]. I composti volatili contribuiscono all’aroma solo se sono olfattivamente attivi e in relazione non solo alla loro concentrazione nell’alimento, ma anche all’impatto olfattivo (valore soglia, intensità della risposta, saturazione), che può essere influenzato da numerose variabili (fisiologiche, genetiche, patologiche, culturali) e dalla concomitante presenza di altri composti volatili. La prima difficoltà nell’eseguire la determinazione dei composti volatili deriva dalle modalità di estrazione dall’alimento, che deve avvenire con metodi “blan- (1) ENEA - Agenzia Nazionale per le nuove tecnologie, l’energia e lo sviluppo economico sostenibile; Unità Tecnica Sviluppo e Innovazione del sistema Agroindustriale (UTAGRI) C.R. Casaccia, Roma (2) ENEA - Unità Tecnica Tecnologie di Trisaia - Laboratorio Biotecnologie (UTTRI-BIOTEC) C.R. Trisaia; Rotondella (MT) rosanna.gatti@enea.it T_M N. 1/12 ƒ 31 di” per evitare modifiche dell’aroma in seguito a reazioni enzimatiche (es.: idrolisi di esteri, scissione ossidativa di acidi grassi insaturi, idrogenazione di aldeidi) e non enzimatiche (es.: idrolisi di glicosidi, formazione di lattoni da idrossiacidi, ciclizzazione di polioli). Per eseguire l’estrazione completa dei componenti volatili da una matrice alimentare, i metodi tradizionali sono stati superati dalle tecniche di spazio di testa statiche, dinamiche o di tipo SPME (Solid Phase Micro-Extraction) [3]. Il riconoscimento qualitativo dei composti e la loro quantificazione avviene per gascromatografia (GC); quali rivelatori vengono impiegati sia i sistemi a ionizzazione di fiamma (FID) che rivelatori specifici a spettrometria di massa (MS). I nasi elettronici (eNOSE) [4] sono invece in grado d’identificare/riconoscere gli odori emulando il sistema olfattivo dell’essere umano attraverso sensori a microarray. Essi caratterizzano e me- T_M ƒ 32 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI morizzano l’impronta olfattiva di una miscela odorosa senza riferimento alla sua composizione chimica e, dopo una fase preliminare d’istruzione, sono in grado di riconoscere un odore che sia già nel proprio archivio. L’AS è da considerare come un completamento ai classici metodi di valutazione chimici e fisici, che non prendono in considerazione la psiche umana. In campo alimentare l’AS è finalizzata – proprio come l’analisi strumentale – all’ottenimento di risultati oggettivi, ripetibili e riproducibili relativi alle manifestazioni organolettiche dei prodotti attraverso l’intervento intelligente di un gruppo di esperti (il Panel) che utilizzano i loro organi di senso come veri e propri strumenti di misura, secondo ben precisi protocolli e procedure d’analisi. Il Panel Test si differenzia dalla “degustazione” per la “scientificità” del metodo, che ricalca nell’impostazione quello delle rilevazioni strumentali attraverso (i) la selezione degli strumenti di misura, (ii) il controllo delle condizioni e delle modalità di valutazione (assenza di condizionamenti esterni, facilitazioni all’utilizzo dello strumento), (iii) l’analisi approfondita dei dati rilevati. In particolare la formazione dei Giudici di AS (Panelisti) avviene attraverso le seguenti tappe: • identificazione e riconoscimento degli stimoli gustativi fondamentali: dolce (saccarosio), acido (acido citrico), salato (sodio cloruro), amaro (caffeina), umami (sodio glutammato), metallico (solfato ferroso); • individuazione delle soglie di percezione e di riconoscimento; • riconoscimento e memorizzazione degli odori, ad esempio: mandorla (benzaldeide), cannella (eugenolo), burro (diacetile), ecc.; • test di apprendimento delle modalità di classificazione di uno stimolo per gradi d’intensità (ranking) e di appren- N. 01ƒ ;2012 MATERIALI DI RIFERIMENTO PER LE CARATTERISTICHE ORGANOLETTICHE La produzione attuale di RM da impiegare per la valutazione delle caratteristiche organolettiche attraverso l’analisi chimica e/o l’AS nei prodotti alimentari è scarsa, nonostante le grandi necessità per il settore. Al fine di valutare la pro- duzione attuale di RM per la determinazione delle caratteristiche organolettiche, è stata consultata la banca dati realizzata da ENEA nel 2001 specificatamente per il settore agroalimentare [8,9] e periodicamente aggiornata (aggiornamento ottobre 2011) ricercando MatrixRM o sostanze pure (sostanze aromatiche e sapori base) e loro miscele da impiegare per le analisi chimiche e/o per le AS. Vi è un solo produttore (MUVA-Kempten) che realizza RM per la valutazione di alcuni sapori base (amaro, acido, dolce) in specifiche bevande (Tab. 1). Inoltre l’IRMM produce un RM di grasso di burro anidro (BCR-633) in cui, accanto ai parametri certificati, viene fornito un valore indicativo per il contenuto di vanillina. Non esistono RM di sostanze pure specificatamente prodotti per questo settore; esistono però alcuni RM di composti volatili (es.: acetone, acetaldeide, propanolo) certificati per la purezza che, pur non essendo key odorants (sostanze aromatiche che forniscono il caratteristico aroma di un alimento), per alcuni alimenti contribuiscono all’aroma complessivo [10]. La scarsa disponibilità di RM per le caratteristiche organolettiche è dovuta a numerose difficoltà, che riguardano: l’individuazione delle sostanze responsabili del flavour di un alimento, la stabilità, l’omogeneità, la specificità delle tecnologie da impiegare, la varietà e la complessità delle tecniche analitiche da utilizzare per la caratterizzazione e l’eventuale certificazione. Accanto a RM da impiegare per la definizione del profilo aromatico, possono essere di grande utilità RM da impiegare per l’individuazione e la quantificazione dei cosiddetti key odorants, oltre che per la determinazione degli off-flavours (sostanze che conferiscono all’alimento aromi estranei o sgradevoli). Anche nell’applicazione della GC-O è richiesta un’ampia varietà di RM, sia per ▲ dimento delle modalità di uso delle scale d’intensità su soluzioni artificiali prima semplici, poi complesse; • Analisi Descrittiva Quantitativa su matrici reali: seduta preliminare, individuazione degli attributi/descrittori; esecuzione del test sul prodotto e individuazione del profilo sensoriale. La Gas-Cromatografia/Olfattometria (GC-O), infine, viene utilizzata per attribuire una rilevanza sensoriale ai composti volatili e prevede l’accoppiamento della gascromatografia con l’AS [5]: i composti volatili vengono separati ed eluiti dalla colonna cromatografica e quindi inviati in parallelo al detector (FID o MS) e all’olfattometro, al quale le sostanze giungono tramite un condotto generalmente riscaldato per evitare la condensazione dei componenti stessi; esso è collegato a una maschera o a un cono di vetro attraverso cui l’operatore (il flavorist) percepisce l’odore al momento della comparsa di ogni picco del cromatogramma. In questo modo è possibile stabilire una correlazione tra una determinata sostanza e le sue caratteristiche sensoriali. Da un punto di vista analitico, risultano utili le banche dati che contengono informazioni sui composti, le sostanze aromatiche e le loro proprietà sensoriali, quali ad esempio: la banca dati VCF (Volatile Compounds in Food) [6], con informazioni analitiche (es.: tempo di ritenzione, spettro di massa) per oltre 7.800 composti volatili, elencati per categoria di prodotto alimentare e raggruppati per classi chimiche; la banca dati Flavornet (accessibile liberamente on-line, ma aggiornata soltanto al 2004) [7], che cataloga le sostanze aromatiche per le loro caratteristiche cromatografiche e proprietà sensoriali in base a dati di letteratura ottenuti tramite GC-O [4]. GLI ALTRI TEMI quanto riguarda le sostanze pure da impiegare per la corretta identificazione del composto, sia per le miscele di sostanze – o meglio ancora Matrix-RM – per la definizione di profili aromatici. L’AS, poi, richiede un’ampia disponibilità di RM sia in forma di sostanze pure che di matrici alimentari. I Panelisti, infatti, devono essere “tarati” utilizzando soluzioni e matrici di riferimento per l’identificazione e il riconoscimento dei sapori fondamentali, degli odori, degli aromi e delle altre caratteristiche sensoriali dei prodotti (visive, tattili, meccaniche). Pertanto le principali necessità in questo settore riguardano RM da impiegare per il riconoscimento dei sapori di base presenti a diverso livello e di alcuni odori fondamentali e per il riconoscimento delle produzioni in base al profilo aromatico. Visto lo specifico utilizzo di questi RM (prove “scientifiche” di degustazione), è necessario considerare, oltre gli aspetti legati alla stabilità e omogeneità, anche le problematiche di rappresentatività organolettica e di sicurezza e igiene alimentare. Nella realizzazione di RM da impiegare nella valutazione e definizione del profilo aromatico, la principale problematica è legata alla stabilità. Per superare questa difficoltà, nei laboratori ENEA si sta studiando la possibilità di preparare nuove tipologie di RM, quali ad esempio i Double Phase-Reference Materials (DP-RM) [11] e RM rappresentativi del campione a diversi stadi del trattamento analitico, quali ad esempio RM di estratti di componenti volatili adsorbiti su cartucce SPME. RIFERIMENTI BIBLIOGRAFICI [1] Reg. CEE 2568/91, modificato dal Reg. CE 640/2008. [2] Food Chemistry. Cap.5: Aroma compounds. H.D. Belitz, W. Grosch, P. Schieblerle. Springer, 2009. Tabella 1 – Disponibilità attuale di RM da impiegare per la valutazione delle caratteristiche organolettiche di alimenti e bevande N. 01ƒ ; 2012 [3] K. Robards, A. Sides, S.H. Helliwell. Developments in extraction techniques and their application to analysis of volatiles in foods. Trends in Analytical Chemistry, vol. 19, n. 5, p. 322-329 (2000). [4] M. Peris, L. Escuder-Gilabert. A 21st century technique for food control: Electronic Noses. Analytica Chimica Acta, 638 (2009) 1-15. [5] S.M. Van Ruth. Methods for Gas ChromatographyOlfactometry: a review. Biomedical engineering 17 (2001), 121-128. [6] www.vcf-online.nl [7] www.flavornet.org [8] M.G. Del Monte, L. Troisi, G. Zappa. Reference materials for agrofood – Rapporto tecnico ENEA n. 7/INN – 2000 [9] P. Carconi, R. Gatti, G. Zappa, C. Zoani. I materiali di riferimento per il settore agroalimentare: stato attuale e necessità. V Congresso “Metrologia & Qualità”, Torino, 14-16 Marzo 2007. [10] Horticultural Reviews. Cap. 5: F. Rapparini, S. Predieri. Pear Fruit Volatiles. John Wiley & Sons, New York, 2003. [11] G. Zappa, R. Gatti, C. Zoani (ENEA); G. Diletti, G. Scortichini (IZS_AM). Double-Phase Reference Materials. “The Future of Reference Materials – Science and Innovation”. November 23-25 2010, Geel, Belgium. Rosanna Gatti Ricercatore Chimico, specialista in tecniche cromatografiche. Svolge attività di sviluppo di metodi e materiali di riferimento per la qualità e la sicurezza alimentare, per la caratterizzazione di materiali e processi e per la valutazione del rischio chimico. Paola Sangiorgio Ricercatore chimico, referente dell’impianto ENEA UTTRI-BIOTEC per la preparazione di materiali di riferimento per il settore agroalimentare. Come giudice di analisi sensoriale e panel leader, svolge attività di ricerca volte alla valorizzazione e recupero di prodotti dell’agricoltura tradizionale (quali il grano saraceno) o all’individuazione di sistemi innovativi di processo finalizzati al miglioramento delle proprietà organolettiche e nutrizionali di alcuni alimenti. Giovanna Zappa Responsabile del Coordinamento “Qualità dei Test Chimici e Biologici” ENEA-UTAGRI. Membro di commissioni tecniche e comitati consultivi nazionali e internazionali per la metrologia e la standardizzazione, la sicurezza alimentare e la salute dei consumatori. Svolge attività di ricerca e di docenza e formazione universitaria e post-universitaria. Claudia Zoani Dottore di Ricerca in Chimica Analitica (La Qualità delle Misure Chimiche per la Sicurezza Alimentare e negli Ambienti di Vita e di Lavoro). Assegnista di Ricerca ENEA. Svolge attività di ricerca sullo sviluppo di metodi e materiali di riferimento per le misure chimiche e biologiche. T_M ƒ 34 GLI ALTRI TEMI ▲ DISCUSSIONI SUL SI Sergio Sartori La rivoluzione nel Sistema Internazionale di unità vista da un pensionato che si ribella! THE REVOLUTION OF THE INTERNATIONAL SYSTEM OF UNITS Resolution no. 1, adopted by the General Conference on Weights and Measures on Oct. 21st 2011, anticipates the general lines of 2015 decisions that will produce a revolution of the International System of units. In the paper the base units probable definition tests are presented, the reasons for the choice are analyzed, and advantages and disadvantages are discussed. RIASSUNTO La risoluzione 1 del 21 ottobre 2011, assunta dalla XXIV Conferenza Generale dei Pesi e delle Misure, anticipa le linee generali delle decisioni che verranno prese nel 2015 e che rivoluzioneranno il Sistema Internazionale di unità. Nell’articolo vengono presentati i probabili testi delle nuove definizioni delle unità di base; si analizzano inoltre le ragioni di tali scelte, i vantaggi e gli svantaggi del cambiamento generale e le conseguenze implicite della linea scelta. È FATTA La risoluzione 1 del 21 ottobre 2011, assunta dalla XXIV Conferenza Generale dei Pesi e delle Misure, rivoluziona il Sistema Internazionale di unità di misura. L’organismo intergovernativo di governo della metrologia globale ha deciso di esporre quali contenuti avrà il nuovo sistema, rimandando al 2015 la sua entrata in vigore per dar tempo ad alcuni laboratori di portare a termine misure in corso. È la risoluzione1 più lunga, articolata e complessa della storia della metrologia. Ed ecco, in esclusiva per il lettori di Tutto_Misure, in prima mondiale le due notizie chiave su come sarà il nuovo sistema, una buona e una cattiva. Prima la buona notizia. È stato deciso di non buttare nel pattume delle grandezze e delle unità derivate le sette grandezze e le loro unità della tradizione: lunghezza con il metro, massa con il kilogrammo, tempo con il secondo, intensità della corrente elettrica con l’ampere, temperatura termodinamica con il kelvin, quantità di sostanza con la mole, intensità luminosa con la candela. Stando alla proposta iniziale, abbiamo rischiato di veder sostituire le nostre il valore esatto della costante che funge da riferimento, immutabile e senza incertezza, secondo i desideri dei fisici e degli astronomi. Tre piccole precisazioni preliminari. Il termine taglia è la mia traduzione del francese amplitude e dell’inglese magnitude. È possibile che si possa individuare un termine in italiano meno ambivalente. I numeri riportati nelle definizioni potranno subire marginali variazioni a seguito dei risultati sperimentali prodotti dai laboratori ritardatari. Il nuovo ordine della sequenza delle definizioni deriva dalla gerarchia che tra loro esiste. 1. Il secondo, simbolo s, è l’unità di tempo; la sua taglia è determinata fissando il valore numerico della transizione iperfine dello stato fondamentale dell’atomo di cesio 133 a riposo, a una temperature di 0 K, esattamente a 9 192 631 770 quando essa è espressa in s-1, unità del SI uguale a hertz, Hz. 2. Il metro, simbolo m, è l’unità di lunghezza; la sua taglia è determinata fissando il valore numerico della velocità della luce in vuoto esattamente a 299 792 458 quando essa è espressa in unità SI m·s–1. 3. Il kilogrammo, simbolo kg, è l’unità di massa; la sua taglia è determinata fissando il valore numerico della costante di Planck esattamente a 6,626 069 3 × 10-34 quando essa è espressa in m2·kg·s–1, unità del SI uguale al joule secondo, J·s. 4. L’ampere, simbolo A, è l’unità di intensità di corrente elettrica; la sua taglia è determinata fissando il valore numerico della carica elementare esattamente a 1,602 176 53 × 10-19 quando essa è espressa in s·A, unità del SI uguale al coulomb, C. 5. Il kelvin, simbolo K, è l’unità di sette accoppiate con le seguenti altre: 1. frequenza, la cui unità assume come riferimento la frequenza della transizione tra i due livelli iperfini dello stato fondamentale dell’atomo di cesio 133; 2. velocità, la cui unità assume come riferimento la velocità della luce in vuoto; 3. azione, la cui unità assume come riferimento la costante di Planck; 4. carica elettrica, la cui unità assume come riferimento la carica elementare; 5. entropia, la cui unità assume come riferimento la costante di Boltzmann; 6. rapporto tra il numero di entità X in uno specifico campione2 e la quantità di sostanza della stessa entità X nel medesimo campione, la cui unità assume come riferimento la costante di Avogadro; 7. efficienza luminosa spettrale, la cui unità assume come riferimento l’efficienza luminosa della radiazione monocromatica di frequenza 540 × 1012 Hz. Ed eccovi la cattiva notizia: tutte le definizioni delle unità di misura di base saranno profondamente cambiate e avranno la forma detta “a costanti espli- Fondatore della Rivista Tutto_Misure cite”, cioè in ciascuna sarà specificato sergio.sartori3@tin.it T_M N. 1/12 ƒ 35 N. 01ƒ ;2012 assunzioni presenti nelle definizioni delle unità di base. Non ci saranno più freni alla fantasia dei ricercatori, perché il vincolo di congruenza alle sette assunzioni è ovviamente entro i limiti dell’incertezza necessaria. Tutti avrete subito pensato agli effetti secondari di queste decisioni. Vi sarete immaginati i fiumi di parole spese per discuterle e le migliaia di tonnellate di carta, speriamo riciclata, indispensabili per fissarle. Vi sarete messi le mani nei capelli, pensando alla mole di lavoro da effettuare: norme da riscrivere, manuali di qualità da aggiornare, leggi da revisionare; libri di testo da emendare. Qualcuno avrà pensato anche al business: ci saranno corsi di aggiornamento da progettare, per insegnanti, per tecnici delle aziende, magari anche per manager e per ricercatori; ha inizio la corsa alla caccia dei finanziatori. Ma chi ci guadagna da questa rivoluzione, oltre chi per primo la propose, visto che acquisterà gloria (e odio?) imperituri, e i pochi istituti metrologici nazionali che troveranno, nel nuovo SI, la giustificazione delle cifre enormi dei contribuenti spese per trasferire l’incertezza da alcune costanti ad altre? La risposta al quesito è nel messaggio subliminale contenuto nella delibera. Esso dice pressappoco così: “Cari biologi, economisti, ingegneri, sociologi, fisiologi, tutti voi insomma che fate misure non fisiche, sappiate che se volete entrare con le vostre unità nell’Olimpo delle unità del SI, e vedervi pertanto citati nelle leggi degli Stati e, di conseguenza, poter accedere alla torta dei finanziamenti pubblici destinati alla metrologia, sappiate che dovrete presentarvi con un modello fatto di costanti fondamentali collegato alle nostre costanti. Altrimenti siete fuori per sempre.” Si potrebbe ribattere a questo messaggio con la seguente domanda: “Come mai, cari colleghi fisici, proprio ora ancorate il Sistema Internazionale di unità alle vostre costanti fondamentali, mentre i neutrini se ne vanno a spasso nel ben noto “tunnel della Gelmini” superando la velocità limite della luce in vuoto? E mentre quelli di voi che si occupano di astro- ▲ temperatura termodinamica; la sua taglia è determinata fissando il valore numerico della costante di Boltzmann esattamente a 1,380 650 5 × 10-23 quando è espressa in m2·kg·s-2·K-1, unità del SI uguale al joule diviso kelvin, J·K-1. 6. La mole, simbolo mol, è l’unità di quantità di sostanza; la sua taglia è determinata fissando il valore numerico della costante di Avogadro esattamente a 6,022 141 5 × 1023 quando essa è espressa in unità SI mol-1. 7. La candela, simbolo cd, è l’unità d’intensità luminosa in una data direzione; la sua taglia è determinata fissando il valore numerico dell’efficienza luminosa della radiazione monocromatica di frequenza 540 × 1012 Hz esattamente a 683 quando essa è espressa in unità SI m-2·kg-1·s3·cd·sr, o cd·sr·W-1, che è uguale all’unità SI lumen diviso watt, lm·W-1. Avrete notato che tutte le sette definizioni sono circolari, ossia nella definizione è usata l’unità che si sta definendo. Inoltre solo le definizioni 1 e 6 sono indipendenti; tutte le altre dipendono almeno dalla prima. Da queste scelte derivano tre importanti conseguenze: a. Tutte le definizioni esistenti saranno abrogate; b. Poiché le costanti citate nelle definizioni sono esatte, cioè prive d’incertezza, e immutabili, le incertezze che avevano i loro valori, in quanto risultato di esperimenti, si devono “scaricare” da qualche parte. La risoluzione precisa che si scaricheranno sulla massa del prototipo, sul valore della permeabilità magnetica del vuoto, sulla temperatura termodinamica del punto triplo dell’acqua, sulla massa molare del carbonio 12; queste quattro grandezze manterranno i valori che avevano in passato, ma tali valori, prima esatti per definizione, ora saranno affetti da incertezza in quanto determinati sperimentalmente3. In conclusione, nessun guadagno sull’incertezza dell’intero sistema: solo una nuova distribuzione delle incertezze tra vecchi e nuovi attori; c. La messa in pratica delle nuove definizioni, ossia la realizzazione dei campioni di misura, potrà essere fatta seguendo un percorso sperimentale qualsiasi, purché si rispettino le sette GLI ALTRI TEMI fisica e di cosmologia, cominciano a pensare a una infinità di universi, ciascuno con le sue leggi e le sue costanti universali, infinite uguali alle vostre ma altre infinite diverse?”. Per parte mia la domanda ha una risposta filosofica e politica. Il potere della scienza si è alleato con il potere dell’economia per gestire lo sviluppo delle misure a livello mondiale. Attori di questa alleanza sono gli Istituti Metrologici nazionali, i cui direttori, presidenti, ricercatori e amministratori occupano il 95% dei posti di governo negli organismi previsti dall’accordo internazionale del 1875, “La convenzione del Metro”. Inchiniamoci e applaudiamo. NOTE 1 Il testo ufficiale della risoluzione e la sua traduzione in inglese possono essere scaricati dal sito www.bipm.org/jsp/fr/ ListCGPMResolution.jsp?CGPM=24 2 In questo contesto il termine campione traduce il termine inglese sample. 3 Non sarà necessario compiere gli esperimenti. Infatti siamo di fronte a un cambio di paradigma: quegli esperimenti, che prima venivano condotti per determinare al meglio il valore numerico delle costanti, ora fissate esatte e immutabili, sono gli stessi che domani serviranno per determinare il valore della massa del prototipo, la permeabilità magnetica nel vuoto, la temperatura termodinamica del punto triplo dell’acqua, la massa molare del carbonio 12. Poiché il risultato degli esperimenti è già noto, si tratta solo di calcolare, mediante le usuali regole di propagazione delle incertezze, l’incertezza da associare a esso. Sergio Sartori è membro emerito dell’Accademia Internazionale di Ingegneria della Produzione e membro onorario del GMEE. È stato direttore dell’IMGC-CNR, consulente UNESCO per i laboratori tecnologici in America Latina, consulente della Commissione Europea per l’ingegneria di precisione, vicepresidente di European Society for Precision Engineering and Nanotechnology, fondatore e direttore della rivista Tutto_Misure. T_M ƒ 37 GLI ALTRI TEMI ▲ VINCITORE DEL PREMIO “C. OFFELLI” 2011 Stefano Rinaldi Le comunicazioni industriali a livello di campo Strumenti di misura dedicati all’analisi dei parametri di reti real-time FIELD-LEVEL INDUSTRIAL COMMUNICATION: ANALYSIS OF THE PERFORMANCE In recent years, industrial control system are based on communication infrastructures interconnecting the actors of the automation system. An innovative distributed instrument has been proposed and implemented in order to optimize the network performance. The proposed device is able to acquire in a non-invasive way the information from the field and to integrate it with appropriate simulation models. RIASSUNTO Negli ultimi anni, i sistemi di controllo industriale sono incentrati sull’utilizzo d’infrastrutture di comunicazione che permettono d’interconnettere tra di loro i diversi attori che compongono il sistema di automazione. Al fine di ottimizzare le prestazioni di queste reti di comunicazione, è stato sviluppato uno strumento di misura in grado di acquisire in modo non invasivo le informazioni dal campo e d’integrarle in opportuni modelli di simulazione. LE RETI DI COMUNICAZIONE INDUSTRIALI A LIVELLO DI CAMPO Originariamente la comunicazione ai livelli più bassi di un sistema di automazione, il cosiddetto livello di campo, era gestita attraverso connessioni punto a punto. Sensori e attuatori si interfacciavano mediante segnali analogici e digitali direttamente al controllore. Questo approccio implicava un gran numero di cablaggi, a discapito dei costi e dell’affidabilità dell’impianto. Le prime reti di comunicazione digitale introdotte per sostituire queste connessioni sono i bus di campo, soluzioni proprietarie in grado di offrire elevate prestazioni e affidabilità. Tuttavia, l’utilizzo di tecnologie di comunicazione differenti per i diversi livelli dell’impianto limita lo scambio delle informazioni tra gli attori del sistema di automazione. Negli ultimi anni Ethernet, la tecnologia largamente utilizzata per la realizzazione di reti locali (LAN) aziendali, è stato introdotto anche a livello di campo, attraverso le Real-Time Ethernet (RTE). Queste ultime riescono a soddisfare gli stringenti requisiti, in termini di affidabilità, prestazioni e si- spetto a quelli definiti per valutare le infrastrutture di comunicazione tradizionali, in quanto diversi sono i servizi che devono offrire. Le prestazioni di un bus di campo cablato vengono misurate attraverso l’utilizzo di specifici indicatori, definiti nella norma IEC61784-2 [1]. Questi indicatori possono essere raggruppati in due classi: i parametri che dipendono dal tempo e quelli legati alla banda utilizzata dal sistema. I primi si occupano di caratterizzare il tempo di trasferimento dell’informazione sull’infrastruttura di comunicazione, cercando di identificare le variazioni nel tempo di trasferimento, chiamate anche jitter, che affliggono il sistema di controllo. I secondi invece si occupano di caratterizzare la composizione del traffico presente sul bus di campo, ovvero di identificare la percentuale di banda trasmissiva riservata alla comunicazione real-time e quella riservata al traffico normale. Accanto a questi parametri è in generale necessaria un’attenta analisi dei meccanismi di sincronizzazione, quali i protocolli Network Time Protocol (NTP) [2] e IEEE 1588 Precision Time Protocol (PTP) [3], utilizzati nelle moderne infrastrutture di rete per ottimizzare il tempo di trasferimento sulla rete e la correlazione tra dati di misura distribuiti. curezza, richieste dal sistema di automazione, modificando alcune caratteristiche della tecnologia Ethernet. In questa tipologia d’infrastruttura è fondamentale garantire il trasporto delle informazioni in un tempo ridotto e noto (determinismo) e in modo ripetitivo (isocronia). Recentemente nel campo delle comunicazioni industriali si è affacciata anche la tecnologia wireless. Questo tipo di infrastrutture, in generale basate su tecnologia IEEE 802.15.4, permette a nodi autonomi di comunicare senza l’utilizzo di cavi. Tuttavia la quantità di informazioni che possono essere scambiate attraverso queste soluzioni e le prestazioni real-time non sono comparabili con quelle garantite da reti cablate; per questo motivo, queste due UNO STRUMENTO DI MISURA nuove tecnologie possono essere adot- DISTRIBUITO PER L’ANALISI tate nello stesso impianto, formando le DI RETI INDUSTRIALI cosiddette reti ibride. La stima di questi indicatori richiede molta attenzione, specialmente per QUALI SONO I PARAMETRI DI VALUTAZIONE DELLE PRESTAZIONI PER LE RETI INDUSTRIALI? Università di Brescia, Dip. Ingegneria Le reti di automazione industriale han- dell’Informazione no indici di prestazione differenti ri- stefano.rinaldi@ing.unibs.it T_M N. 1/12 ƒ 39 quanto riguarda la stima dei parametri temporali. Infatti, un’analisi completa del sistema richiede l’acquisizione di pacchetti e di segnali fisici che indicano lo stato interno dei nodi (quali il livello applicativo e la temporizzazione interna). L’utilizzo di un ambiente di simulazione può essere d’aiuto solo fino a un certo punto, in quanto la modellizzazione di dispositivi reali non è facile. D’altro canto, gli analizzatori di rete disponibili hanno un’architettura a singola sonda di acquisizione che rende difficile eseguire misure distribuite (quale la stima del ritardo di propagazione dei pacchetti). Nel caso di reti ibride, è importante anche poter correlare i dati che sono presenti sulla rete Real-Time cablata con i dati presenti sulla rete wireless. Al contrario, uno strumento distribuito, con diverse sonde di acquisizione, in grado di acquisire sia il traffico sulla rete cablata che sulla rete wireless, è la T_M ƒ 40 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI soluzione ideale per le reti industriali, in quanto permette la ricostruzione del comportamento del sistema. Per questo motivo è stato sviluppato un innovativo strumento distribuito, la cui architettura è riportata in Fig. 1, costituito da diverse sonde, in grado di acquisire contemporaneamente il traffico in diversi punti della rete sotto esame. Le sonde che compongono lo strumento sono in grado di collezionare il traffico sia dalla rete cablata sia dalla rete wireless [4], [5] e di assegnare precisi marker temporali (timestamp) agli eventi avvenuti sulla rete. Al fine di monitorare il traffico sono state realizzare due diverse tipologie di sonde (Fig. 2): una dedicata all’acquisizione su Ethernet, l’altra per l’acquisizione di pacchetti wireless. La prima tipologia è dedicata all’acquisizione di traffico a livello MAC di Ethernet e quindi può essere adottato per monitorare Figura 1 – L’architettura dello strumento di misura distribuito tutti i protocolli RTE definiti in IEC61784-2. La seconda tipologia invece è dedicata all’acquisizione delle informazioni dai bus di campo wireless e quindi lavora a livello fisico IEEE 802.15.4. I pacchetti catturati da queste sonde sono poi trasmessi verso una stazione di supervisione attraverso una N. 01ƒ ;2012 ▲ GLI ALTRI TEMI rete di misura dedicata. Come in ogni sistema di misura distribuito, le sonde devono essere tra loro sincronizzate. Ogni sonda può essere connessa a una sorgente in grado di fornire un valido segnale temporale, distribuito attraverso una linea dedicata (1-PPS, 1 Pulse Per Second o GPS) oppure attraverso la rete di misura, utilizzando un opportuno protocollo di sincronizzazione, quale IEEE 1588 PTP (Precision Time Protocol), in grado di garantire incertezze di sincronizzazione inferiori al microsecondo. Figura 3 – Lo strumento distribuito, un prototipo per il monitoraggio di reti RTE e WirelessHART Figura 2 – Schema a blocchi di una generica sonda Per limitare il costo dell’intero sistema di misura, l’architettura proposta utilizza una sonda realizzata utilizzando un system-on-chip mentre la stazione di supervisione è stata realizzata utilizzando un PC, la cui interfaccia utente è stata ottenuta utilizzando l’analizzatore di rete Wireshark. Il prototipo completo è illustrato in Fig. 3. Le diverse modalità di sincronizzazione delle sonde distribuite sono state accuratamente testate. Nel primo esperimento, è stata valutata la capacità del sistema di sincronizzarsi utilizzando un segnale di riferimento esterno (1-PPS), fornito attraverso un generatore di funzioni (Agilent 33220A). Ogni sonda è in grado di generare un segnale di riferimento (1-PPS_out) connesso con il proprio riferimento tem- porale interno; l’entità dello sfasamento tra questi segnali, misurato attraverso un frequenzimetro (Agilent 53123) è una misura della capacità delle sonda di agganciare il riferimento temporale. In Fig. 4a è riportata la distribuzione dello sfasamento temporale tra due sonde (4.000 campioni). La massima variazione tra i riferimenti temporali è inferiore ai 100 ns su due ore di osservazione. Successivamente sono state valutate le prestazioni ottenibili utilizzando il protocollo PTP per sincronizzare i riferimenti temporali delle sonde. Anche in questo caso l’indice valutato è lo sfasamento tra i segnali di riferimento di due sonde: una sonda agisce come master PTP, trasmettendo periodicamente (ogni 1 s) i messaggi di sync all’altra. In Fig. 4b è riportata la distribuzione dello sfasamento temporale misurato su 4.000 campioni. Il massimo sfasamento è stato nell’ordine di 145 ns, comparabile con la soluzione precedente. GLI AMBIENTI DI SIMULAZIONE: UN AIUTO ALLE RETI INDUSTRIALI L’analisi e lo sviluppo di nuovi impianti di comunicazione può notevolmente Figura 4 – Distribuzione temporale dell’offset il riferimento temporale della sonda 1 e della sonda 2 sincronizzate utilizzando un segnale 1-PPS esterno a) e il protocollo PTP b) T_M ƒ 41 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI avvantaggiarsi dall’uso di strumenti di simulazione, attraverso cui analizzare potenziali situazioni di conflitto prima della realizzazione della rete in situ. Per potenziare le capacità di analisi dello strumento di misura presentato nella precedente sezione, è stato sviluppato un framework di simulazione per reti RTE, principalmente per i protocolli EtherNet/IP e PROFINET IO. L’ambiente realizzato permette di raffinare i modelli di simulazione attraverso i parametri ottenuti da campagne di misura sul campo. Il framework di simulazione è stato sviluppato utilizzando un simulatore a eventi discreti, OMNeT++. Per la validazione di questi modelli è stata realizzata una infrastruttura PROFINET ai cui estremi sono stati collocati due nodi EtherNet/IP [6]. In Fig. 5a è riportata la distribuzione del ritardo del tempo di propagazione (TFPD) dei pacchetti EtherNet/IP sulla rete. Come si può notare dal grafico, l’infrastruttura PROFINET introduce un ritardo variabile in quanto gli switch regolano il trasferimento dei pacchetti al fine di garantire il determinismo, influenzando al contempo il tempo di propagazione degli altri protocolli. In Fig. 5b i risultati ottenuti sulla rete sono stati confrontati con quelli ottenuti dall’ambiente di simulazione, risultando in perfetto accordo con quanto ottenuto in simulazione e validando la correttezza dei modelli realizzati. è stata ampiamente adottata anche in molte applicazioni industriali critiche, quali il motion control, dove sono richieste comunicazioni Real-Time. L’adozione di questa tecnologia richiede tuttavia strumenti di analisi e di misura dedicati, in grado di valutare parametri di rete quali il jitter di propagazione e la sincronizzazione dei nodi, per identificare possibili condizioni di malfunzionamento o di guasto [7], [8]. L’analisi delle prestazioni di tali reti è possibile solo grazie allo sviluppo di un innovativo strumento di misura distribuito. Ognuna delle sonde che compongono lo strumento, può essere sincronizzata con un’incertezza di sincronizzazione nell’ordine di 100 ns. Tuttavia tale strumento da solo non è sufficiente per una corretta analisi del sistema e quindi è stato integrato con un ambiente di simulazione e di analisi, dedicato ai principali protocolli RTE. I parametri ricavati attraverso lo strumento di misura possono essere integrati all’interno del simulatore, al fine di raffinare i modelli. L’utilizzo combinato dello strumento di misura e del simulatore permette di analizzare correttamente le problematiche delle comunicazioni industriali, quali la coesistenza di diversi protocolli RTE sulla stessa infrastruttura o la propagazione delle informazioni su reti ibride industriali. LE MISURE SULLE RETI DI COMUNICAZIONE AL SERVIZIO DELLE PRESTAZIONI RIFERIMENTI BIBLIOGRAFICI [1] “IEC 61784-2 (Ed. 1): Industrial communication networks – Profiles – La tecnologia Ethernet/Internet ormai Part 2: Additional fieldbus profiles for real-time networks based on ISO/IEC 8802-3”, IEC, 2007. [2] D.L. M i l l s , “Network Time Protocol (verFigura 5 – Distribuzione del ritardo di propagazione, TFPD, sion 3) di due nodi EtherNet/IP su un’infrastruttura PROFINET a) ottenute attraverso misure su un’infrastruttura reale e b) in ambiente di simulazione Specificat i o n , T_M ƒ 42 Implementation and Analysis”, RFC1305, March 1992. [3] “IEEE Standard for Precision Clock Synchronization Protocol for Networked Measurement and Control Systems”, IEEE 1588-2008”, IEEE, 2008. [4] P. Ferrari, A. Flammini, D. Marioli, A. Taroni. “A Distributed Instrument for Performance Analysis of Real-Time Ethernet Networks”, IEEE Trans. Industrial Informatics, Vol. 4, No. 1, pp. 16-25, 2008. [5] P. Ferrari, A. Flammini, D. Marioli, S. Rinaldi, E. Sisinni. “On the Implementation and Performance Assessment of a WirelessHART Distributed Packet Analyzer”, IEEE Trans. Instrumentation and Measurements, May, 2010, Vol. 59, N. 5, pp. 13421352. [6] P. Ferrari, A. Flammini, S. Rinaldi, G. Gaderer, “Evaluation of clock synchronization accuracy of coexistent Real-Time Ethernet protocols”, in Proc. of IEEE ISPCS2008, Ann Arbor, MI, USA, Sept., 2008, pp. 87-91. [7] P. Ferrari, A. Flammini, D. Marioli, S. Rinaldi, A. Taroni, “Testing coexistence of different RTE protocols in the same network”, in Proc. of IEEE WFCS2008, Dresden, 2008, pp. 179-187. [8] P. Ferrari, A. Flammini, S. Rinaldi, E. Sisinni, “On the Seamless Interconnection of IEEE 1588-Based Devices Using a PROFINET IO Infrastructure”, IEEE Trans. Industrial Informatics, August, 2010, Vol. 6, N. 3, pp. 1551-3203. Stefano Rinaldi ha conseguito il Dottorato di Ricerca presso l’Università degli Studi di Brescia nel 2010. Attualmente è titolare di Borsa di Ricerca “Dote Ricercatore” per lo sviluppo di strumenti per la sincronizzazione nella distribuzione dell’energia elettrica. Le sue attività di ricerca riguardano l’analisi delle prestazioni delle reti di comunicazione industriali, le reti di sensori wireless e i metodi di sincronizzazione avanzati. ▲ ENERGIA E MISURE GLI ALTRI TEMI Mario Savino Politiche energetiche e sistemi di monitoraggio prima parte ENERGY POLICIES AND MONITORING SYSTEMS When dealing with the problem of the future of energy policies, some questions, such as renewable energy sources, energy saving and CO2 emissions, need to be addressed. This paper highlights the increasing importance of solar power plants, which require a supervisory control system to improve their efficiency and reliability. A related problem is that of the nuclear power, the only readily available large-scale alternative to fossil fuels for continuous low-emission supply of electricity. RIASSUNTO Nell’affrontare il futuro delle politiche energetiche è necessario porsi alcune domande su fonti di energia rinnovabili, risparmio energetico ed emissioni di CO2. Questo articolo evidenzia l’importanza crescente degli impianti fotovoltaici, che richiedono un sistema di supervisione per migliorare efficienza e affidabilità. Un problema correlato è quello del nucleare, l’unica alternativa ai combustibili fossili disponibile su grande scala per fornitura continua di energia elettrica con basse emissioni. LA CRISI EPOCALE E IL RUOLO DEI METROLOGI In una fase storica di profonda crisi economica nella quale i politici riconoscono i loro limiti e chiedono sostegno alla propria azione, scienziati, tecnici e ingegneri sono chiamati a fornire il loro contributo per pervenire il più rapidamente possibile al suo superamento e per evitare conseguenze drammatiche che la storia ci ricorda. Un ruolo importante nell’ambito delle scelte da operare è rappresentato dalle politiche energetiche. La crisi energetica mondiale, accelerata dal disastro alla centrale nucleare giapponese di Fukushima Daiichi, sta obbligando tutti i paesi del mondo a rivedere le proprie politiche energetiche. Com’è ormai noto in tutte le nazioni molta gente sta citando tale disastro come prova inconfutabile che l’energia nucleare metterebbe in pericolo la sopravvivenza del genere umano sulla terra e per questo motivo dovrebbe essere vietata. Scienziati di tutto il mondo lavorano all’innovazione puntando sulle fonti energetiche che consentano un risparmio e rispettino ci intelligenti a basso consumo energetico e ponendo attenzione nelle abitazioni alla manutenzione dei sistemi di riscaldamento e refrigerazione, oltre a un adeguato isolamento delle pareti e degli infissi. L’ENERGIA SOLARE Fino alla metà del diciottesimo secolo, quando furono scoperti i combustibili fossili, le fonti d’energia rinnovabile erano le uniche disponibili. Da quel periodo in poi si è avuto un uso sempre più intenso dei combustibili fossili, e ciò ha contribuito in modo consistente al cambiamento climatico nel nostro pianeta. È principalmente questo cambiamento che sta inducendo i governi di tutto il mondo a riconsiderare seriamente la sostituzione dei combustibili fossili con fonti energetiche rinnovabili. Queste, escludendo l’energia idroelettrica, fino agli inizi di questo secolo rappresentavano una percentuale tanto irrisoria da non comparire nelle tabelle relative alle tipologie di energia impiegata nel mondo. Si può quindi considerare il nuovo millennio l’inizio di una diversa filosofia di approccio alle fonti energetiche. Le donne e gli uomini hanno finalmente alzato la testa. Invece di guardare verso il basso al sottosuolo, saccheggiato per anni attraverso l’estrazione di petrolio, gas, carbone, uranio, si pensa di utilizzare al meglio l’energia che ci viene dal sole e dal vento. Come riportato nell’ultimo rapporto pubblicato da REN21 (Renewable Energy Network for the 21st Century) le energie l’ambiente, nell’ambito delle direttive contenute nel protocollo di Kyoto. In particolare i metrologi hanno il compito di sviluppare sistemi più efficienti di monitoraggio e controllo, tali da migliorare le prestazioni degli impianti e garantire la loro sicurezza. Oltre a oculate scelte concernenti le fonti energetiche, occorre puntare in modo più sostanziale sul risparmio energetico. Erich Fromm scrive nel suo bel libro “La rivoluzione della speranza”: “Uno spettro si aggira fra noi, ma solo pochi riescono a vederlo con chiarezza. Non è il vecchio fantasma né del fascismo, né del comunismo. Si tratta di un nuovo spettro, una società completamente meccanizzata, dedita alla massima produzione di beni e al loro consumo”. Occorre porre sia fine a un consumismo sfrenato, sia maggiore attenzione alla riduzione dei consumi energetici. Un primo risparmio può partire dalle nostre abitazioni e dagli edifici commerciali, dove si consuma più del 41% dell’energia utilizzata, come risulta da uno studio condotto Prima Facoltà di Ingegneria, negli USA. Tale risparmio è ottenibile Politecnico di Bari sviluppando sempre più elettrodomesti- savino@poliba.it T_M N. 1/12 ƒ 43 rinnovabili alla fine del 2009 rappresentavano un quarto dell’energia elettrica mondiale, e tutto lascia prevedere una loro ulteriore crescita negli anni a venire. Il Presidente Giorgio Napoletano ha sostenuto più volte la sua convinzione di puntare sulle energie rinnovabili per soddisfare il fabbisogno energetico del nostro paese nell’ambito delle politiche di tutela e protezione dell’ambiente. Tra le energie rinnovabili particolarmente attrattiva è quella solare, prodotta da miliardi di anni e notevolmente la più disponibile sulla terra. Gli impianti energetici che sfruttano il sole sono di due tipi, basati gli uni sugli effetti termici, gli altri su quelli fotovoltaici. Impianti solari termici stanno sorgendo in tutto il mondo: solo per fare qualche esempio, in Italia a Priolo in Sicilia è attiva una centrale sperimentale basata su una tecnologia sviluppata all’ENEA e sostenuta dal premio Nobel Carlo Rubbia; in Spagna in Andalusia è già attiva una centrale elettrica da 19,9 MW, nel deserto dell’Australia è prevista una centrale da 250 MW, in California nei pressi della città di Blyte sta sorgendo una centrale con una potenza complessiva di 1 GW. Il vantaggio di queste centrali, rispetto a quelle basate sull’effetto fotovoltaico, sta nella loro capacità di immagazzinare in serbatoi di sali fusi l’energia termica generata durante il giorno, in modo da produrre il vapore per le turbine anche dopo il tramonto, in assenza del sole. Gerhard Knies afferma, nella presentazione della DESERTEC Foundation che “In sei ore i deserti ricevono più energia dal sole di quella utilizzata dalla specie umana in un anno”. Quasi due miliardi di persone nel mondo non hanno accesso all’elettricità, e la maggior parte di loro si trova in Asia e Africa, dove l’energia solare potrebbe contribuire a un solido sviluppo delle zone meno industrializzate di questi continenti, attraverso la crescita di moderni sistemi di comunicazione e di fornitura dell’energia. Il progetto DESERTEC è stato sviluppato da politici, scienziati ed economisti dei paesi del Mediterraneo, e ha dato luogo sia alla nascita di una fondazio- T_M ƒ 44 N. 01ƒ ; 2012 ▲ GLI ALTRI TEMI ne, sia, nel 2003, al piano delle Nazioni Unite, denominato DESERTEC Concept, per sviluppare una rete elettrica tra Europa, Medio Oriente e Africa settentrionale, in grado di trasportare energia rinnovabile ricavata da centrali da 100 GW, basate prevalentemente sul solare termico. Purtroppo non tutte le zone del pianeta sono adatte ad assicurare un buon rendimento di queste centrali, il che spiega le ragioni della diffusione del fotovoltaico, impiegabile anche per piccole e medie utenze. GLI IMPIANTI FOTOVOLTAICI L’aumento dei costi del gas naturale e del carbone, insieme con i vincoli ambientali, è tra i fattori che contribuiscono a investire in fonti di energia alternative e rinnovabili. La tecnologia fotovoltaica (PV) ha un grande potenziale di sostanziale miglioramento per quanto attiene al rendimento delle celle solari, il cui massimo valore teorico, ottenibile con materiali quali l’arseniuro di gallio, il tellururo di cadmio o il seleniuro d’indio e rame, si aggira intorno al 30%, valore che si riduce al 25% nelle migliori realizzazioni pratiche a singola giunzione e che si raggiunge impiegando particolari strutture tandem con due assorbitori. Nel passato solo poche industrie hanno considerato conveniente investire in ricerca e sviluppo per la produzione di celle e pannelli PV, che possono considerarsi ancora nella loro infanzia. Ci si aspetta che i notevoli investimenti fatti in USA possano portare a un ulteriore incremento del loro rendimento, l’obiettivo è quello del 65%, impiegando le nanotecnologie e, in particolare, piccoli nanocristalli, noti come quantum dot. Tali investimenti sono giustificati in quanto negli ultimi dieci-quindici anni la crescita degli impianti PV è stata considerevole, con un incremento del trentacinque percento negli ultimi due anni. Sempre nel RED21 si afferma che i PV sono passati come potenza totale installata da 7,3 GW nel 2009 a 17 GW nel 2010, con il maggior incremento nei paesi Ue, in particolare in Italia e Germania, la quale ha installato nel 2010 più pannelli di quanti l’anno precedente erano stati venduti nel mondo intero. La rapida evoluzione del mercato si è avuta grazie alla drastica riduzione dei prezzi operata soprattutto da dieci (dislocati in Asia) tra i quindici maggiori produttori di celle PV. Si valuta pari (a volte anche superiore) al 50% l’incidenza del costo dei pannelli PV su quello complessivo di un impianto completamente installato, valutato in base ai chilowatt di picco. Il costo medio di un chilowatt di picco oscilla tra i 4.000 € e i 7.000 €, in base alle dimensioni del sistema, alla qualità dei moduli PV e alle condizioni d’installazione. Papa Benedetto XVI ha proclamato la tutela dell’ambiente tra gli obiettivi del suo pontificato. Sul tetto dell’aula per le udienze pontificie, conosciuta con la doppia denominazione di Aula Paolo VI, in quanto realizzata sotto il pontificato di Papa Montini, e Sala Nervi, dal nome del grande architetto e ingegnere italiano che l’ha progettata, sono stati installati 2.400 pannelli PV, con una potenza massima di 222 kW, in grado di soddisfare le esigenze energetiche in un anno di molte stanze degli edifici pontifici. È stata inoltre annunciata la realizzazione entro il 2014 di un impianto PV da 100 MW nella zona di Santa Maria di Galeria, in prossimità dell’ubicazione di Radio Vaticana. In realtà, non solo nello Stato Pontificio, ma in tutto il mondo i governi stanno incoraggiando lo sviluppo di fonti energetiche alternative. Così si ha che nei paesi OCSE circa il 2% dell’elettricità è prodotta da fonti rinnovabili, escludendo l’idroelettrico, e si prevede un aumento del 4% entro il 2015. In Italia sono stati installati impianti PV decentralizzati sui tetti delle scuole, dei grandi magazzini e degli uffici, di dimensioni da 1 kWp fino a 20 kWp, nelle grandi industrie da 20 kWp fino a 1 MWp e al suolo dell’ordine di 10 MWp. È quindi evidente che si sta passando da una struttura centralizzata con grandi stazioni di potenza a una decentrata di piccole e medie dimensioni. N. 01ƒ ;2012 ■ GLI ALTRI TEMI LA RIDUZIONE DEI GAS A EFFETTO SERRA EVITIAMO IL CONFLITTO SOLARE-NUCLEARE IL MONITORAGGIO PER MIGLIORARE I RENDIMENTI L’Agenzia Internazionale dell’Energia (AIE) dell’OCSE ha stimato che l’impiego d’energia primaria nel mondo sia destinato a crescere da questo anno al 2030, specie in paesi emergenti come Cina e India, a un tasso leggermente inferiore al 40%. Sempre l’AIE ha manifestato grande preoccupazione per l’incremento delle emissioni di gas a effetto serra, che hanno raggiunto livelli record nonostante la crisi economica. In particolare la Cina ha superato gli USA come emettitore di CO2 nel 2007, probabilmente per l’eccessivo incremento delle centrali a carbone. Allarmanti sono i dati riportati dall’Earth Systems Research Laboratory di Hawaii’s Mauna Loa in USA, che ha rivelato alla fine di maggio 2011 il livello di CO2 nell’atmosfera pari a 395 ppm, il 46% superiore a quello misurato in epoca preindustriale. Dalle previsioni fatte dallo stesso laboratorio si evince che i pericoli legati al riscaldamento globale e ai cambiamenti climatici potrebbero essere evitati solo aumentando l’uso di fonti energetiche a basse emissioni di gas a effetto serra e che per limitare al di sotto di 3°C l’aumento di temperatura nel pianeta sarebbe necessario incrementare le centrali a energia pulita rispetto a quelle a carbone tra il 34% e il 52% entro il 2030. Al riguardo lasciano ben sperare le nuove politiche energetiche in Cina, che nel 2010 si è attestata al primo posto per investimento pubblico nel settore dell’energia pulita, mentre gli USA sono al terzo posto, dietro anche alla Germania. Chiaramente la riduzione di quantità di CO2 emessa è fortemente dipendente dalla fonte dell’energia sostituita. Per esempio si stima che la sostituzione di una centrale a carbone con una idroelettrica o solare permetterebbe una riduzione d’unità di carbonio equivalente da 1 kg a meno di 10 g, per ogni chilowattora. Per ottenere questo risultato, nelle centrali PV un fattore molto importante è rappresentato dalla progettazione dei pannelli e dal loro controllo mediante monitoraggio. Ha suscitato molte polemiche la prima dichiarazione pubblica del Ministro dell’ambiente Corrado Clini, che ha affermato qualcosa difficilmente contestabile: “La tecnologia nucleare ha ancora un ruolo rilevante nel sistema energetico europeo e globale”. Le previsioni sono di un incremento della domanda di energia elettrica, il che rende impossibile pensare alla prossima chiusura di tutte le centrali nucleari, che come gli impianti solari sono a bassa emissione di CO2 e forniscono circa il 14% d’energia elettrica nel mondo, il 24% nei paesi OCSE e il 34% nella UE. Esiste chiaramente una tendenza a ridurre il numero di centrali nucleari, dismettendo quelle più vecchie, come sta avvenendo in Germania e negli USA, ma sarebbe un errore non contribuire alle ricerche scientifiche sul nucleare, in quanto, a parte le centrali idroelettriche, le altre rinnovabili non sono ancora adatte alla grande produzione e a una fornitura continua. Oggi, specie dopo i disastri di Chernobyl e Fukushima, la parola nucleare fa paura, tanto che si parla di “risonanza magnetica”, eliminando l’aggettivo nucleare, per un esame diagnostico a volte indispensabile. Il nostro pianeta non può fare a meno nel prossimo futuro della fissione nucleare, nonostante i problemi che essa pone soprattutto d’alterazioni genetiche del DNA, trasmesse per molte generazioni, e di smaltimento delle scorie. Purtroppo il plutonio può rimanere radioattivo per centinaia di migliaia d’anni e non è facile trovare siti geologici dove depositarlo. Se un futuro può ancora esserci per la fissione nucleare, questo è legato a norme più severe sulla sicurezza e sullo smaltimento delle scorie, per non lasciare una tremenda eredità alle generazioni future. Nel lungo periodo una solida speranza viene dalle ricerche condotte sulla fusione nucleare, che sembra comportare molti minori rischi della fusione. Particolarmente interessante è il progetto ITER (International Thermonuclear Experimental Reactor). Nella seconda parte di questo articolo si esamineranno i moderni sistemi di monitoraggio in grado di migliorare prestazioni, affidabilità e sicurezza delle centrali elettriche, con particolare riferimento a quelle PV. NEWS ▼ Mario Savino è professore Ordinario di Misure Elettriche ed Elettroniche presso la Prima Facoltà di Ingegneria del Politecnico di Bari. Si occupa di misure elettriche, strumentazione elettronica biomedicale, sensori e trasduttori. È Honorary Chairman del Comitato Tecnico TC-4 “Measurement of Electrical Quantities” della Confederazione Internazionale delle Misure (IMEKO). BIKINI DALL’UNITÀ GMEE DI BRESCIA Il Laboratorio di Optoelettronica dell’Università di Brescia, diretto da Giovanna Sansoni, presenta il nuovo Bikini, sistema per misurare l’eccentricità dei tubi dalle promettenti applicazioni industriali, soprattutto nel settore della produzione di tubi, trafilati e tondini. La prima versione del sistema (che utilizzava la tecnica 3D e garantiva una precisione di misura inferiore ai due centesimi di millimetro) è nata dalle esigenze di controllo di prodotti trafilati. La nuova versione di Bikini, pur mantenendo le stesse prestazioni, è semplificata nella struttura e limitata nei costi. “Oggi il nostro prototipo ha una struttura più semplice – spiega Giovanna Sansoni –. Utilizza due laser, anziché quattro, e una sola fotocamera. Ha quindi una struttura più compatta e flessibile, costa meno e richiede una manutenzione meno complessa”. Bikini è anche già equipaggiato con un software di misura dotato di un’interfaccia utente user-friendly. Ora tutto è pronto per la fase di ingegnerizzazione di Bikini. Le trafilerie interessate a investire sull’innovazione e a migliorare i propri processi produttivi o le aziende interessate all’ingegnerizzazione del prodotto, possono condividere con Optolab questa attività e, successivamente, potranno garantire alle loro lavorazioni un prezioso valore aggiunto. Per contatti: giovanna.sansoni@ing.unibs.it, o 030/3715446. T_M ƒ 45 CAMPI E COMPATIBILITÀ ELETTROMAGNETICA ▲ LA COMPATIBILITÀ ELETTROMAGNETICA Carlo Carobbi1, Marco Cati2,3, Carlo Panconi3 Il comportamento a radiofrequenza dei componenti circuitali passivi Un esempio concreto THE RADIOFREQUENCY BEHAVIOUR OF PASSIVE CIRCUIT COMPONENTS: AN ACTUAL EXAMPLE After the discussion on the behavior of radiofrequency passive circuit components (capacitor, inductance and resistance) in this issue of Tutto_Misure we want to show the impact of the concepts described so far on a practical case: the design and synthesis of a radio-frequency filter for attenuation of signals in the radio broadcast FM band (88 MHz – 108 MHz). As it will be explained in the article, the use of this type of filters is often “a must” to ensure a correct radiated emission measurement carried out in an open area test site for EMC assessment. blu). Nella stessa figura sono riportati come riferimento (linea rossa) anche i limiti di classe A di emissione radiata riferiti a 10 metri di distanza della norma EN 55022 [3]. RIASSUNTO Dopo la trattazione approfondita sul comportamento a radiofrequenza dei componenti circuitali passivi (condensatore, induttore e resistore), in questo numero di Tutto_Misure vogliamo far vedere come i concetti fin qui descritti incidano su un caso applicativo reale: il progetto e la sintesi di un filtro a radiofrequenza per l’attenuazione dei segnali nella banda FM (88 MHz – 108 MHz), quella cioè delle stazioni radio a modulazione di frequenza. Come sarà chiarito nell’articolo, l’impiego di questa tipologia di filtri risulta infatti molto spesso fondamentale per garantire una corretta determinazione delle emissioni radiate effettuate nei siti di prova all’aperto nell’ambito della Compatibilità Elettromagnetica. Figura 1 – OATS, Open Area Test Site (riproduzione autorizzata da PMM) LO SPETTRO ELETTROMAGNETICO Come facilmente intuibile quando venIN CAMPO APERTO gono effettuate misure di emissione Qualsiasi dispositivo elettronico per essere immesso sul mercato deve essere sottoposto a specifiche prove che, nell’ambito della compatibilità elettromagnetica, ne garantiscono la presunzione di conformità ai requisiti della direttiva europea 2004/108/CE [1]. Una di queste è la misura delle emissioni radiate tra 30 MHz e 1.000 MHz. Il sito ideale, di riferimento, per la misura delle emissioni radiate è definito dalla normativa [2] e consiste in un uno spazio semi-infinito sopra a un piano di massa infinito, perfettamente piatto e perfettamente conduttivo: si tratta del sito di prova all’aperto o, in inglese, OATS, “Open Area Test Site” (Fig. 1). radiata in una realizzazione pratica del sito all’aperto, l’antenna ricevente Figura 2 – Ambiente urbano, posizionata a una specifica distanza livelli di campo elettromagnetico tipico (in genere 10 metri) dal dispositivo in campo aperto. Linea rossa: limiti sotto test (DUT, Device Under Test) EN 55022 di classe A a 10 metri capterà, oltre alle emissioni elettromagnetiche generate dal DUT stesso, anche tutti i segnali dovuti ad esempio a stazioni radio broadcast, ripetitori televisivi, stazioni radio base, commutazioni impulsive, rumore di fondo, ecc.. Questi segnali, normalmente presenti nell’ambiente urbano e indu- 1 Dip. Elettronica e Telecomunicazioni striale, costituisco il così detto livello Università di Firenze di rumore ambientale. Un tipico esem- 2 Ricerca e Sviluppo, Esaote S.p.A., pio di livelli di campo elettromagnetico E (espressi in dBµV/m) misurati al- 3Firenze Elettroingegneria, Pistoia l’aperto in ambiente urbano tra 30 MHz e 300 MHz è riportato in Fig. 2 (linea marco.cati@esaote.com T_M N. 1/12 ƒ 47 LA NECESSITÀ DEL FILTRAGGIO Come si osserva dalla Fig. 2, l’emissione elettromagnetica più intensa che generalmente si registra in campo aperto è proprio quella dovuta ai segnali nella banda FM (88 MHz - 108 MHz) quella cioè delle stazioni radio a modulazione di frequenza. La presenza di livelli di emissione così intensi può causare alcuni inconvenienti nella corretta determinazione dell’emissione elettromagnetica del DUT che, al contrario, risulta essere di ridotta intensità. Tra le problematiche più importanti si ricorda che: 1) la contemporanea presenza di segnali intensi (banda FM) assieme a segnali deboli (emissioni del DUT) richiede elevate prestazioni in termini di dinamica e linearità del ricevitore; 2) segnali molto intensi in ingresso al ricevitore possono provocare una T_M ƒ 48 N. 01ƒ ; 2012 ▲ CAMPI E COMPATIBILITÀ ELETTROMAGNETICA saturazione dello stesso con conseguente generazione di armoniche fittizie (prodotti d’intermodulazione) che possono essere attribuite erroneamente proprio a emissioni del DUT. Per limitare gli inconvenienti di cui sopra, è possibile seguire due possibili approcci: a) impiego di ricevitori dotati di filtro preselettore in ingresso (banco di filtri a sintonia fissa oppure preselettore a inseguimento, tracking preselector), oppure b) impiego di un filtro a radiofrequenza applicato all’ingresso del ricevitore. Entrambe le soluzioni permettono di eliminare il problema della saturazione del ricevitore “facendo passare” soltanto la frequenza che deve essere rivelata nel caso a), oppure attenuando significativamente i segnali della banda FM nel caso b). Considerato che la soluzione a) risulta essere più costosa perché richiede l’impiego di strumenta- zione specifica (per esempio ricevitori EMI), la seconda soluzione è generalmente quella preferita soprattutto nelle misure di pre-conformità: quelle cioè a carattere indicativo, ad uso del progettista che, sebbene non spendibili in fase di certificazione di prodotto, forniscono utili indicazioni nella identificazione delle emissioni elettromagnetiche generate dal DUT ai fini della successiva mitigazione. PROGETTO E SINTESI DEL FILTRO FM A partire dalle considerazioni precedenti, abbiamo scelto di progettare un filtro elimina banda del terz’ordine con risposta in frequenza Chebyshev del II tipo in quanto, sebbene quest’ultimo non presenti una regione di transizione tra banda N. 01ƒ ;2012 passante e banda d’interdizione ripida (roll-off) come nel caso del filtro Chebyshev del I tipo, le oscillazioni (ripple) nella banda passante risultano del tutto assenti. Nella Tab. 1 sono riportate le principali specifiche di progetto richieste dal filtro a radiofrequenza; si noti in particolare l’attenuazione nella banda FM di 60 dB necessaria a riportare i valori dei segnali delle stazioni radio a livelli prossimi a quelli di rumore di fondo (vedi Fig. 2) e l’impedenza di ingresso e di uscita progettata per un sistema a 50Ω (valore tipico per un ricevitore). Figura 3 – Sintesi della rete passiva che realizza il filtro FM con le specifiche di Tab. 1 za in termini di attenuazione d’inserzione del circuito di Fig. 3 è riportata con la linea blu in Fig. 4. Come evidente tutte le specifiche di progetto richieste dalla Tab. 1 sono soddisfatte. La prima difficoltà di realizzazione pratica del circuito di Fig. 3 è quella di “tradurre” i valori di progetto delle induttanze e dei condensatori determinati con la teoria delle reti elettriche con quelli realmente disponibili sul mercato. Quasi sempre infatti il valore teorico di progetto deve essere approssimato con una combinazione attraverso collegamenti in serie e/o in parallelo di valori di mercato appartenenti a serie standardizzate. In riferimento al circuito di Fig. 3 abbiamo perciò considerato le seguenti sostituzioni con componentistica commerciale (tra parentesi è indicato l’errore percentuale commesso): L1 = L2 = 16,36 nH = 8,2 nH + 8,2 nH (0,24%); L3 = 408,60 nH = 220 nH + 180 nH + 8,2 nH (–0,10%); L4 = 397,40 nH = 220 nH + 180 n H (0,65%); C1 = C2 = 161,200 pF = 110 pF//51 pF//0.2 pF (0,0%); C3 = 6,637pF = 3,3pF//33pF Tabella 1 – Specifiche del filtro elimina banda progettato Dalla teoria delle reti elettriche, la generica risposta nel dominio di Laplace F(s) per la tipologia di filtro è riportata nell’equazione (1). La risposta in frequenza si ottiene quindi sempre dalla (1) con la sostituzione s = jω, con j unità immaginaria j2 = –1. F( s ) = (s 2 2 + ω n ,1 )(s 2 + ω n ,2 2 )(s 2 + ω n ,3 2 ) 2 ω 0,1 ω 0,1 ω 0,3 2 2 2 2 2 s + Q s + ω 0,1 s + Q s + ω 0,2 s + Q s + ω 0,3 1 2 3 (1) Senza entrare nei particolari di progetto per i quali si rimanda a specifici testi come [4], i parametri della (1) che realizzano le specifiche della Tab. 1 sono: ωn,1 = 6,158 ⋅ 108, ωn,2 = 6,072 ⋅ 108, ωn,3 = 6,244 ⋅ 108, ω0,1 = 6,158 ⋅ 108, ω0,2 = 5,637 ⋅ 108, ω0,3 = 6,726 ⋅ 108, Q1 = 4,962, Q2 = 9,963, Q3 = 9,963. La rete elettrica passiva in configurazione a pi-greco che sintetizza la funzione di trasferimento (1) è riportata nella Fig. 3. La risposta nel dominio della frequen- ▲ CAMPI E COMPATIBILITÀ ELETTROMAGNETICA (–0,56%); C4 = 6,454 pF = 4,3 pF//2,2 pF (0,71%) dove con il simbolo “+” abbiamo indicato un collegamento serie e con il simbolo “//” un collegamento parallelo tra i componenti. Come si può notare gli errori percentuali legati al processo di implementazione del filtro sono tutti sotto all’1% e comunque tutti inferiori alla tolleranza tipica (1% o 5%) che specificano i costruttori di componentistica SMD. Sempre nella Fig. 4 è mostrato (linea rossa) come si modifica la risposta in frequenza del filtro FM con la componentistica SMD standard selezionata. Di fatto, come atteso, si osserva una non significativa variazione della risposta in frequenza con un sostanziale accordo con quanto previsto teoricamente sia in termini di attenuazione in banda d’interdizione sia in termini di frequenze di taglio a –3 dB. Figura 4 – Risposta in frequenza (attenuazione d’inserzione) del filtro FM di Fig. 3. Linea blu: valori di progetto. Linea rossa: valori serie SMD T_M ƒ 49 N. 01ƒ ; 2012 ▲ CAMPI E COMPATIBILITÀ ELETTROMAGNETICA …E I PARASSITI DEI COMPONENTI? stenza parassita pari a 200 mΩ per passa da 98 MHz a circa 97 MHz, 2) Nel progetto fin qui descritto non abbiamo ancora considerato l’effetto sulla risposta in frequenza dei parassiti dei componenti. In base a quanto già discusso nei numeri precedenti di Tutto_Misure [5,6,7,8], sostituendo a ciascun condensatore e a ciascuna induttanza (selezionata dalla famiglia SMD in package 0603) il relativo modello circuitale equivalente, è possibile simulare il circuito complessivo del filtro FM che tiene conto dell’effetto dei parametri parassiti. In particolare per tutti i condensatori utilizzati (110 pF, 51 pF, 4,3 pF, 3,3 pF, 2,2 pF, e 0,2 pF) sono stati estrapolati dai dati forniti del costruttore [10] una resistenza parassita di 50 mΩ e una induttanza parassita di 360 pH; analogamente per le induttanze è stata estrapolata una capacità parassita da 0,5 pF e una resi- T_M ƒ 50 8,2 nH, 5 Ω per 180 nH e 6 Ω per 220 nH. Il fatto che la resistenza parassita per le induttanze sia diversa a seconda del valore della induttanza considerata dipende, come noto, dal fatto che le induttanze sono realizzate con l’impiego di ferriti le cui proprietà sono molto più complicate da modellare rispetto ai dielettrici dei condensatori e fortemente dipendenti dalla frequenza. I valori di resistenza parassita utilizzati nella simulazione sono perciò quelli relativi alla frequenza di centro banda del filtro cioè 98 MHz. La risposta in frequenza sempre in termini di attenuazione d’inserzione del circuito che rende conto dell’effetto dei parassiti è riportata in Fig. 5. Come è possibile osservare la risposta in frequenza risulta morfologicamente diversa rispetto a quanto atteso. In particolare: 1) la frequenza di centro banda l’attenuazione nella banda d’interdizione risulta essere di circa 41 dB contro i 60 dB richiesti e 3) la banda a –3dB si allarga di circa 12 MHz passando da 88 MHz – 108 MHz a circa 80 MHz – 112 MHz. Figura 5 – Risposta in frequenza (attenuazione d’inserzione) del filtro FM di Fig. 3. Linea blu: valori di progetto. Linea marrone: valori serie SMD con effetto componenti parassiti N. 01ƒ ;2012 Le considerazioni svolte ci permettono senz’altro di concludere che l’effetto dei parassiti può risultare deleterio su tutto il progetto a radiofrequenza soprattutto nelle situazioni in cui le prestazioni del circuito dipendono essenzialmente dall’interazione di componentistica reattiva. Viste le difficoltà incontrate, come facciamo allora a progettare un filtro per la banda FM? Esistono per lo meno due possibilità: la prima è quella di cercare di tenere sotto controllo e di considerare fin dalle fasi iniziali della progettazione l’effetto dei parametri parassiti dei componenti avvalendosi di strumenti di progettazione che possono predire l’effetto dei parassiti prima di qualsiasi realizzazione pratica, per esempio valutando l’effetto delle perdite dei componenti, selezionando quindi tra le serie disponibili sul mercato quelle maggiormente performanti (per esempio se il progetto lo consente si può pensare di utilizzare induttori avvolti in aria). La seconda, nel caso in cui il tempo sia la variabile di progetto più importante, è quella di ricercare se sul mercato esistano già realizzazioni collaudate e funzionanti che soddisfino alle specifiche richieste. Per esempio, nel caso del filtraggio della banda FM esistono alcune soluzioni commerciali [11] che presentano caratteristiche sufficienti per essere utilizzate con successo nelle misure in campo aperto. Nella Fig. 6 sono mostrate le risposte in frequenza in termini di perdita d’inserzione (opposto della attenuazione di inserzione) per le due soluzioni commerciali identificate: a connettore coassiale e a montaggio superficiale; entrambe le soluzioni presentano una attenuazione in banda di interdizione di oltre 70 dB e una frequenza di taglio a –3 dB di 80 MHz e di 120 MHz. cinamento delle legislazioni degli Stati membri relative alla compatibilità elettromagnetica e che abroga la direttiva 89/336/CEE. 2. CISPR 16-1-4, “Specification for radio disturbance and immunity measuringapparatus and Figura 6: Esempio di Filtri FM commerciali methods - Part 1-4: Radio con montaggio a connettore coassiale e con montaggio superficiale disturbance and immunity (per gentile concessione di Mini-Circuits) measuring apparatus Ancillary equipment Radiated disturbances”, Ed. 3.0, Carlo Carobbi si è laureato con lode in Inge2010. gneria Elettronica nel 3. CEI EN 55022 - Class. CEI 110-5 1994 presso l’Università - CT 210 - Fascicolo 9636 - Anno di Firenze. Dal 2000 è 2009 - Edizione Quarta “Apparecchi Dottore di Ricerca in per la tecnologia dell’informazione “Telematica”. Dal 2001 è Caratteristiche di radiodisturbo - Limiti ricercatore presso il Dipartimento di e metodi di misura”. 4. R. Schaumann, M.E. Van Valken- Elettronica e Telecomunicazioni dell’Uniburg, “Design of Analog Filters”, versità di Firenze dove è docente di Oxford University Press, 15 January Misure Elettroniche e di Compatibilità 2001, ISBN-10: 0195118774, ISBN- Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accredi13: 978-0195118773. tamento Accredia. È presidente del SC 5. C. Carobbi, M. Cati, C. Panco210/77B (Compatibilità Elettromagnetini, “The Radio Frequency Behavior ca, Fenomeni in alta frequenza) del CEI. of Passive Circuit Components: The Capacitor – Parte 1”, Tutto_MisuMarco Cati si è laureato re, periodico trimestrale, A&T, con lode ed encomio son. 4/2010. lenne in Ingegneria Elettro6. C. Carobbi, M. Cati, C. Panconica all’Università di Firenni, “The Radio Frequency Behavior ze nel 2001. Dal 2005 è of Passive Circuit Components: Dottore di Ricerca in IngeThe Capacitor – Parte 2”, Tutto_Misugneria dell’Affidabilità, re, periodico trimestrale, A&T, Manutenzione e Logistica. Dal 2005 fa parte del reparto R&S di Esaote dove è n. 1/2011. 7. C. Carobbi, M. Cati, C. Panconi, responsabile delle verifiche di Compatibi“The Radio Frequency Behavior of lità Elettromagnetica su dispositivi ecograPassive Circuit Components: The fici. Collabora come ispettore tecnico con Inductor”, Tutto_Misure, periodico tri- l’ente unico di accreditamento Accredia. Svolge attività di consulente nel campo mestrale, A&T, n. 2/2011. 8. C. Carobbi, M. Cati, C. Panconi, della compatibilità elettromagnetica e “The Radio Frequency Behavior of della sicurezza elettrica. Passive Circuit Components: The ResiCarlo Panconi si è laustor”, Tutto_Misure, periodico trimereato nel 2003 in Ingegnestrale, A&T, n. 3/2011. ria Elettronica all’Università 9. H.W. Ott, “Electromagnetic Comdi Firenze È Dottore di Ripatibility Engineering”, John Wiley & cerca in “Controlli non diSons, August 2009, ISBN struttivi”. Dal 1988 è inse9780470189306. gnante di Laboratorio di 10. Johanson Technology, Camarillo, Elettrotecnica e di Elettronica nel triennio RIFERIMENTI BIBLIOGRAFICI CA - USA, degli Istituti Tecnici e Professionali. Come 1. Direttiva 2004/108/CE del Parla- www.johansontechnology.com libero professionista svolge attività di conmento Europeo e del Consiglio, 15 11. Mini-Circuits, Brooklyn, NY - USA, sulenza nel campo della compatibilità elettromagnetica e della sicurezza elettrica. dicembre 2004, concernente il ravvi- www.minicircuits.com T_M ƒ 51 VISIONE ARTIFICIALE ▲ A cura di Giovanna Sansoni (giovanna.sansoni@ing.unibs.it) Nel blu dipinto di blu IES – Imaging Elaboration Systems “VOLARE” The section on Artificial Vision is intended to be a “forum” for Tutto_Misure readers who wish to explore the world of components, systems, solutions for industrial vision and their applications (automation, robotics, food&beverage, quality control, biomedical). Write to Giovanna Sansoni and stimulate discussion on your favorite topics. RIASSUNTO La rubrica sulla visione artificiale vuole essere un “forum” per tutti i lettori della rivista Tutto_Misure interessata a componenti, sistemi, soluzioni per la visione artificiale in tutti i settori applicativi (automazione, robotica, agroalimentare, controllo di qualità, biomedicale). Scrivete alla Prof. Sansoni e sottoponetele argomenti e stimoli. Cari lettori, immaginate di andare in ufficio e di trovare sulla vostra scrivania, oltre alla fattura del telefono e a quella dell’energia elettrica, anche la fattura relativa ai costi di utilizzo di un sistema di elaborazione d’immagine (lo vogliamo chiamare IES, come “Imaging Elaboration System”?). Vi siete abbonati a IES perché vi fornisce una lista di servizi che realizzare all’interno della struttura nella quale operate sarebbe troppo costoso. Se siete nel campo dei trasporti e lavorate con immagini termiche, IES vi offre la possibilità di calibrarle a partire dalle specifiche del vostro sensore termico e dai parametri delle superfici da misurare. Il tecnico addetto alla gestione di queste immagini non dovrà porsi domande troppo complesse su quali siano i modelli che stanno alla base di questa operazione. IES lo farà per lui. Se vi occupate di leggere vetrini da un microscopio e avete il problema di separare l’informazione legata alla struttura cellulare in esame dall’inevitabile rumore introdotto dal dispositivo, IES vi mette a disposizione strumenti di denoising e di deconvoluzione che vi consentono di evidenziare con un alto grado di dettaglio la struttura biologica alla quale siete interessati. Non dovete necessaria- mente sapere tutta la teoria dei metodi di denoising, né lo stato dell’arte sui metodi di deconvoluzione. Il sistema vi offre un banco di filtri per il pre-processing, insieme a indici che vi forniscono informazioni in merito alla qualitàdell’immagine; vi consente inoltre di “disaccoppiare” le aberrazioni e le componenti out-of-focus delle vostre immagini premendo il tasto “Deconvoluzione”. Se operate in un reparto di radiologia, avrete certamente a che fare con immagini prodotte da sistemi TAC (Tomografia Assiale Computerizzata) e RM (Risonanza Magnetica). Vi trovate sommersi da stack d’immagini per le quali avete certamente problemi d’immagazzinamento, problemi di visualizzazione e problemi di elaborazione. L’immagazzinamento, direte voi, è presto fatto. Basta avere un Centro di Calcolo come si deve, che utilizzi modalità ben standardizzate (DICOM ne è un esempio), ne condivida i protocolli e le modalità di salvataggio. Ma IES vi consentirebbe di comprimere i dati in modo efficiente prima di salvarli nei vostri server: anche in questo caso non vi dovreste preoccupare di come si fa. Non dovreste chiedere alla vostra direzione sanitaria di acquistare hardware o software specifico, e non avreste bisogno di assumere un ingegnere per effettuare la compressione. Tutti gli algoritmi sono nel sistema IES, che accetta i vostri stack e ve li restituisce in forma compressa, corredati delle informazioni circa la percentuale di compressione, e la qualità della stessa. IES vi consentirebbe anche di visualizzare gli stack d’immagini utilizzando una modalità molto simile a quella che utilizzate per vedere il posto nel quale andrete in vacanza quest’anno mediante Google Earth, e cioè in modo interattivo, scegliendo quali parti dello stack trasmettere a bassa risoluzione e quali ad alta risoluzione, potendo vedere la stessa scena secondo punti di osservazione diversi, e utilizzando codifiche diverse e sovrapposte (non sto pensando solo a falsi colori, ma a mappe funzionali, che indichino livelli di concentrazione, grado di ossigenazione, ecc.). Quanto alle elaborazioni possibili sulle immagini, lo so come la pensate: l’analisi visiva da parte del diagnosta è fondamentale ma certo, avere a disposizione un sistema che lo aiuti nell’indagine non sarebbe male. IES vi potrebbe essere di aiuto, ad esempio riducendo gli artefatti del movimento, i disturbi di un segnale eco, gli speckle presenti in un OCT, o la saturazione indotta da elementi protesici. E che dire delle possibili applicazioni nell’ambito dei controlli non distruttivi, laddove il riconoscimento di difetti viene fatto mediante uno o più sistemi di visione? Se il sistema si potesse ridurre alla sola telecamera e le immagini potessero poi essere trasferite a IES, per il riconoscimento dei difetti? Il lettore che è arrivato fin qui si sta chiedendo se IES sia la versione moderna di “Mother” in “2001 Odissea nello spazio”, cult movie di Stanley Kubric, di cui, francamente, non ho mai capito la conclusione. Vi tranquillizzo in proposito: IES è semplicemente un prototipo di sistema di elaborazione e gestione di T_M N. 1/12 ƒ 53 immagini utilizzante tecnologie basate su Cloud Computing. Quando si parla di Cloud Computing si fa riferimento a un insieme di tool informatici aventi come finalità quella di fornire servizi a coloro che ne facciano richiesta (client) attingendo a risorse la cui collocazione, gestione e manutenzione sia a carico di altri. Il paragone con la rete di distribuzione elettrica è a tal proposito illuminante: ciascuno di noi è un client che utilizza il servizio secondo tariffe stabilite. Non paghiamo quello che non consumiamo, non dobbiamo preoccuparci di sapere dove sia la cabina primaria di distribuzione, né dobbiamo manutenerla. Ci pensa il gestore del servizio. Inoltre non ci è richiesta una particolare specializzazione in materia di flussi di corrente, trifase e impedenze per accendere una lampadina: la parte più spinosa è riuscire a leggere la bolletta (speriamo che il decreto semplificazione ci aiuti in tal senso!). In materia di Cloud Computing, l’obiettivo è lo stesso: fare sì che al client sia consentito fare SOLO il client, non dovendo chiedersi dove prendere le risorse per attrezzarsi di server locali, di programmi con licenze singole, di operatori qualificati e specializzati, ed essendo garantito nella continuità del servizio. La metafora della nuvola è volta a “far sparire” dentro la nuvola tutto ciò che il client non è tenuto a sapere: quali sono i server che immagazzinano le informazioni e quali i programmi che le elaborano, quali i linguaggi utilizzati nei programmi, come debbano essere formattati i dati, come trasferirli in modo sicuro, con quali metodi essi vengano analizzati, e così via. Per realizzare la nuvola è necessario disporre di architetture che, come minimo, consentano la totale traducibilità di formati e contenuti “locali” in un formato condiviso all’interno della nuvola. Non mi addentrerò nella selva di sigle che ad oggi vengono utilizzate per fare riferimento a queste architetture per due ragioni: l’una è che non è il mio mestiere, l’altra è che non è nemmeno il vostro. A noi utilizzatori serve sapere che si può fare, e che quello che sta dentro la nuvola tutto è tranne che nebuloso: al contrario è un insieme molto T_M ƒ 54 N. 01ƒ ; 2012 ■ VISIONE ARTIFICIALE ordinato di protocolli di comunicazione, che “traducono”le informazioni in entrata per renderle comprensibili ed elaborabili da risorse distribuite e, a valle dell’elaborazione, le riportano alla lingua originale. La realizzazione di un sistema basato su Cloud Computing e finalizzato alla gestione delle immagini come IES è solo agli inizi. I motivi sono molteplici, e sono principalmente legati alla complessità dell’informazione che deve transitare, che è per l’appunto l’immagine. Un primo problema è la comprimibilità delle immagini, in relazione alla velocità con la quale possono essere inviate alla nuvola, elaborate nella nuvola eda questa trasferite all’indietro. È infatti evidente che l’utilizzatore client, se deve attendere ere geologiche in linea, alla fine preferirà avere il suo sistema locale di gestione. Un secondo problema è il protocollo da utilizzare nel trasferimento dell’immagine: deve essere un protocollo che sia il più semplice possibile, leggibile da una amplissima varietà di macchine, con piattaforma all inclusive (Linux, Mac, Windows…). È ovvio che lo standard XML si mostra assolutamente adatto allo scopo: si tratta di una codifica “non codifica”, dato che utilizza una descrizione testuale. L’aspetto delicato è la dimensione dei file risultanti, e questo riporta al problema della compressione. Un terzo aspetto da tenere in considerazione è la filosofia di elaborazione delle immagini da seguire: se nell’elaborazione “in locale”, è ovvio partire dalle immagini “tali e quali”, cioè elaborare tutti i valori presenti nella matrice immagine, quando si guarda a un’elaborazione fatta in cloud bisogna pensare per prima cosa a massimizzare la quantità d’informazione non significativa. Si entra così nel campo dell’analisi d’immagini sparse,definite come immagini che, se osservate in un dominio diverso da quello usuale, sono matrici per la maggior parte riempite di valori molto vicini allo zero, e pertanto prive d’informazioni. Il campo di studio al quale mi riferisco è quello dell’analisi Wavelet (ma ci sono anche le curvlet, e le ridglet...). Tali tecniche, vi assicuro, necessitano di una base teorica estremamente com- plessa, fatta di analisi matematica, di statistica, e di metodi di analisi di fenomeni stocastici. Quindi, è meglio che ci pensi la nuvola. Tuttavia mostrano un potenziale di applicazione di tutto rilievo, quando si pensi che servono a comprimere (lo standard JPEG2000 è solo l’inizio), a ridurre il rumore, a effettuare l’enhancement di dettagli, e a trasferire in multirisoluzione stack d’immagini. Io sono molto fiduciosa: la fusione di competenze informatiche, misuristiche, matematiche si renderà indispensabile nel futuro. Forse anche per questo i miei laureati in elettronica, che ne sanno di misura e di visione, quando vanno ai colloqui in azienda (NdR: una delle aziende è fatta di ex dottorandi del mio laboratorio, fondatori del nostro primo spin-off) si trovano test d’ingresso fatti al 50% di quesiti d’informatica...? Abbonarsi ORA per 2 anni a TUTTO_MISURE LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ” CONVIENE!!! 66 euro (anziché 72 euro) L’abbonamento biennale Vi offre 8 numeri cartacei + 8 telematici (Tutto_Misure News) Per richiedere le modalità di abbonamento, telefonare al n° 011/0266700 o inviare una e-mail a: metrologia@affidabilita.eu I SERIALI MISURE E FIDATEZZA ▲ MISURE E FIDATEZZA Loredana Cristaldi 1, Massimo Lazzaroni 2 Misurare l’affidabilità Sollecitazioni e degrado MEASURING DEPENDABILTY In the paper the relationship between the stress externally applied at the component or material and the strength is introduced. To this aim information concerning the failure condition can be obtained with reliability tests and measurements. RIASSUNTO Il lavoro evidenzia come, attraverso le misure e le tecniche di affidabilità, si possa definire una relazione tra la sollecitazione applicata esternamente a un dispositivo, o a un materiale, e il comportamento del materiale stesso. La risposta del materiale, o dispositivo, alla sollecitazione esterna ne influenza il processo di degrado e,in ultima istanza, la condizione di guasto. nici, ma anche su altre tipologie di componenti (si pensi ad esempio agli isolamenti delle macchine elettriche); • meccanici – vanno considerati gli shock legati all’installazione e al trasporto e, in particolare, le vibrazioni a cui sono soggetti i dispositivi durante il loro normale funzionamento (si pensi, ad esempio, al caso dei dispositivi installati sui diversi tipi di mezzi di trasporto); • elettrici – interferenze di tipo elettromagnetico, legate alle caratteristiche dell’alimentazione o alla mutua interferenza tra apparati. In generale ogni dispositivo è soggetto ai fattori d’influenza: è ovvio che è proprio la tipologia di dispositivo e di utilizzo dello stesso a rendere un fattore predominante rispetto agli altri. Dal momento che le modalità di utilizzo dei componenti e dei materiali hanno un forte impatto sull’affidabilità dei sistemi [1-3], lo studio dei modelli è stato affiancato, in ambito normativo, dalla definizione di parametri e di griglie da utilizzare per la selezione e la qualificazione dei materiali/componenti oltre che per la definizione degli standard operativi. Per capire l’importanza di questo aspetto basti pensare, relativamente alle condizioni ambientali, alle classificazioni definite in ambito elettronico dai diversi enti nazionali e internazionali (per esempio ETSI - European Telecommunication Standards Institute e IEC - International ElectrotechnicalCommission). Le norme prodotte specificano, infatti, i limiti di stress e le condizioni di prova relativamente a: temperatura, umidità, precipitazioni, radiazioni, sabbia, rumore, vibrazioni, shock elettrico e meccanico. INTRODUZIONE LE SOLLECITAZIONI L’affidabilità “fisica” si basa sullo studio della vita di un componente, o di un sistema, attraverso opportuni modelli matematici. In qualunque ambito ci si trovi a operare, meccanico, elettrico o elettronico, la definizione e l’individuazione dei modelli richiede la conoscenza dello stato del componente o sistema in termini di ingressi (per es. le condizioni di carico), di fattori d’influenza (ambientali, meccanici, elettrici ecc.) e, non ultimo, delle prestazioni richieste. Ciò consente la formalizzazione di opportune equazioni che includono le variabili rappresentanti il fenomeno che ha dato origine alla definizione del modello, gli ingressi e le misure. Lo scopo di tutto ciò è, in genere, lo studio dei meccanismi che possono eventualmente portare a processi di degrado, affaticamento, invecchiamento. È evidente che tali meccanismi possono essere talvolta estremamente rapidi, al limite istantanei quando le sollecitazioni sono di entità e dinamica tali da eccedere la resistenza del materiale, e altre volte assai lenti, instaurandosi, in quest’ultima eventualità, i tipici fenomeni di affaticamento. Lo studio di un modello per un componente che sia utile ai fini della definizione di parametri affidabilistici presuppone che vengano ben interpretati due aspetti fondamentali dello studio fisico dell’affidabilità: i meccanismi di guasto e i tipi di guasto (che saranno descritti in un successivo articolo). Il meccanismo di guasto, definito come il processo chimico-fisico che porta al guasto, dipende dalle sollecitazioni applicate al dispositivo. Al loro instaurarsi concorrono sia le modalità di utilizzo durante il normale funzionamento sia i fattori d’influenza legati all’ambiente. A seconda del contesto operativo i fattori d’influenza che, cumulandosi, portano allo stato di avaria possono essere di tipo differente. Ad esempio, per i componenti elettronici la temperatura di lavoro del componente è spesso un fattore d’influenza estremamente importante, mentre per componenti d’impianti chimici lo è spesso la capacità di corrosione del fluido presente nel sistema. È possibile suddividere i principali fattori d’influenza in tre tipiche tipologie: • climatici – l’aumento della tempera- 1 Politecnico di Milano tura ambiente rende meno agevole la loredana.cristaldi@polimi.it dissipazione del calore e ciò incide sul 2 Università degli Studi di Milano comportamento dei componenti elettro- massimo.lazzaroni@unimi.it T_M N. 1/12 ƒ 55 N. 01ƒ ; 2012 Le norme classificano gli ambienti definendo per ognuno di essi i valori dei parametri ambientali caratteristici (temperatura, umidità relativa, vibrazioni, ecc.). Si veda a questo proposito la Tab. 1 relativa alle condizioni normali standardizzate, che fa riferimento a temperature intese come baricentro di quel particolare diagramma che, mostrando le combinazioni dei valori possibili della temperatura dell’aria e dell’umidità relativa, è noto con il nome di climatogramma [4]. seguito di un guasto al sistema di condizionamento, qualora presente). Nella zona intermedia deve essere garantita la piena funzionalità degli apparati, mentre in quella più esterna è ammesso un degrado, che però deve essere reversibile. Ci si potrebbe chiedere se sia possibile trovare una relazione che leghi le sollecitazioni imposte alla resistenza del componente, la qual cosa consentirebbe di progettare dispositivi per i quali la condizione di rottura verrebbe raggiunta solo a fronTabella 1 – Esempio di classificazione ambientale te dell’applicazione di elevati livelli di sollecitazione. In realtà sia il carico sia la resistenza del componente seguono di fatto una loro distribuzione statistica. Nell’ipotesi di una distribuzione di tipo normale (va tuttavia segnalato che in letteratura sono presenti studi in cui tale analisi è compiuta ricorrendo anche a differenti distribuzioni) si può ipotizzare che l’affidabilità diTre sono le zone individuate nel cli- penda dalla distanza che esiste fra le matogramma: “code” delle due distribuzioni (come • una più interna che rappresenta le qualitativamente illustrato in Fig. 2). condizioni incontrate per il 90% del Tale distanza porterebbe quindi alla tempo; definizione di un opportuno margine • una intermedia riferita a condizioni di sicurezza. In realtà è lo studio dei ambientali limite normali; parametri caratteristici della distribu• una più esterna riferita a condizioni zione, per es. la sua media e la sua ambientali eccezionali (ad esempio a deviazione standard, che consente la definizione quantitativa di tale margine. Figura 2 – Relazione tra stress e resistenza Figura 1 – Esempio di climatogramma Indicando con L ed S (Fig. 3) i valori medi e con σL e σS le deviazioni standard delle distribuzioni rispettivamente della sollecitazione applicata al dispositivo (Load) e della sua resistenza N. 01ƒ ;2012 (Strength), è possibile definire due indici: il primo esprime un margine di sicurezza (MS) mentre il secondo (LR) tiene conto della forma della sollecitazione [3, 5, 6]: MS = LR = S −L σ S2 + σ L2 σL σ S2 + σ L2 (1) (2) Figura 3 – Relazione tra stress e resistenza: analisi dei legami La probabilità che avvenga un guasto è, ovviamente ma anche intuitivamente, legata alla distanza e alla forma delle due distribuzioni (illustrate, sempre qualitativamente, in Fig. 3). Com’è evidenziato dai grafici di Fig. 3, mentre il caso illustrato in (a) rappresenta la condizione ideale, in (b) e (c) sono riportati due possibili casi in cui potrebbe insorgere (con frequenza elevata) il guasto: in (b) il margine di sicurezza è basso in quanto, pur avendo una distribuzione della sollecitazione molto stretta, è proprio la campana della resistenza ad allargarsi. Come evidenziato, la probabilità di guasto interessa solo una pic- cola frazione dei dispositivi che rispondono a tale legge. In (c) è invece rappresentata una situazione a maggiore criticità: in questo caso la probabilità di guasto per sollecitazione interessa una frazione decisamente più consistente di dispositivi. Quanto detto, con particolare riferimento al caso (b), fornisce un elemento di indagine assai utile qualora si sia interessati, come avviene praticamente sempre, a effettuare il controllo della qualità: lì dove i requisiti di affidabilità sono stringenti ma i controlli sull’intero lotto non sono possibili o sono sconsigliabili per l’elevato costo che ne deriverebbe (si pensi ai sistemi dove è prevalente la presenza di componenti elettronici), si può attuare una strategia di prova tale da sottoporre i dispositivi a un overstress che elimini quelli la cui resistenza appartiene alla coda della distribuzione. È questo un esempio di quelle prove di screening che hanno per obiettivo, tra l’altro, quello di evidenziare la percentuale di componenti intrinsecamente deboli che caratterizzano la zona dei guasti prematuri della curva a vasca [1]. ▲ I SERIALI MISURE E FIDATEZZA posto all’azione delle sollecitazioni mantiene inalterate le proprie caratteristiche nel tempo. In realtà la resistenza del dispositivo va incontro a un continuo degrado con conseguente modifica delle sue caratteristiche nominali. Richiamando per semplicità l’ipotesi di distribuzione normale, è possibile ipotizzare un’evoluzione qualitativa nel tempo della resistenza del componente sottoposto alle sollecitazioni esterne del tipo indicato in Fig. 4. Corre, tuttavia, l’obbligo di segnalare che l’andamento di figura è del tutto qualitativo, fermo restando il principio secondo cui, nel tempo, le due distribuzioni tendono ad avvicinarsi. Definire un andamento come quello indicato presuppone la conoscenza del comportamento del dispositivo attraverso una caratterizzazione che può passare attraverso un modello analitico ma, sicuramente, passa dalle prove di vita eseguite sui dispositivi della stessa famiglia. CONCLUSIONI In questo lavoro si è cercato di mettere in evidenza l’importanza di conoscere la relazione di legame tra la IL DEGRADO sollecitazione applicata esternamente NEL TEMPO DEI COMPONENTI a un dispositivo, o a un materiale, e il comportamento del materiale stesCom’è immaginabile, solo nel caso so. Anche se nell’articolo non si è puramente ideale un dispositivo sottopotuto scendere in ulteriori dettagli, appare evidente che la conoscenza di tale relazione porta alla definizione e all’individuazione dei modelli fisico-chimici di degrado. È anche chiaro il fatto che tecnologie diverse, come ad esempio quella elettrica ed elettronica rispetto alla meccanica, manifestano (o possono manifestare) comportamenti completamente diversi. Per il costruttore di componenti lo studio del meccanismo di guasto è di estremo interesFigura 4 – Andamento qualitativo del degrado se per migliorare le prestadella resistenza zioni di affidabilità del di- T_M ƒ 57 N. 01ƒ ; 2012 spositivo o del materiale. In un successivo articolo, infine, saranno presentate alcune applicazioni di quanto qui brevemente illustrato. BIBLIOGRAFIA [1] M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, Le parole della fidatezza, Tutto_Misure - ISSN 2038-6974 - Anno 13, N° 1, Marzo 2011, pagg. 49-53 - ISSN 2038-6974. [2] M. Catelani, L. Cristaldi, M. Lazzaroni, Le funzioni di affidabilità, Tutto_Misure - ISSN 2038-6974 – Anno 13, N° 2, Giugno 2011, pagg. 131-134. [3] M. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi and M. Catelani, Reliability Engineering: Basic Concepts and Applications in ICT, Springer, ISBN 978-3-642-20982-6, e-ISBN 978-3-642-20983-3, DOI 10.1007/978-3-64220983-3, 2011 Springer-Verlag, Berlin Heidelberg. [4] ETSI ETS 300 019-1-3-Edition 1-1992-02, equipment Engineering (EE) – Environmental conditions and environmental tests for telecommunications equipment; Part 1-3: Classification of environmental conditions; Stationary use at weather protected locations. [5] M. Catelani, L. Cristaldi, M. Lazzaroni, L. Peretto, P. Rinaldi, “L’affidabilità nella moderna progettazione: un elemento competitivo che collega sicurezza e certificazione”, Collana I quaderni del GMEE, Vol. 1 - Editore: A&T, Torino, 2008, ISBN 88-90314907, ISBN13: 9788890314902. [6] R. Bellington, R.N. Allan: “Reliability Evaluation of Engineering Systems” - Plenum Press, NY, 1983. Loredana Cristaldi è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Elettrotecnica del Politecnico di Milano. La sua attività di ricerca è svolta principalmente nei campi delle misure di grandezze elettriche in regime distorto e dei metodi di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi industriali. Fa parte del CT 56 – Affidabilità del CEI. Massimo Lazzaroni è Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Tecnologie dell’Informazione dell’Università degli Studi di Milano. La sua attività di ricerca è rivolta alle misure per le applicazioni industriali, per la diagnostica dei sistemi industriali, per l’Affidabilità e il Controllo della Qualità. Fa parte del CT 85/66 – Strumenti di misura delle grandezze elettromagnetiche Strumentazione di misura, di controllo e da laboratorio e del CT 56 – Affidabilità del CEI. T_M ƒ 58 METROLOGIA LEGALE ▲ A cura dell’Avv. Veronica Scotti (veronica.scotti@gmail.com) Le assicurazioni a tutela dell’attività di misura e prova Insurances covering test and measurement activities LEGAL AND FORENSIC METROLOGY This section intends to discuss the great changes on Legal Metrology after the application of the Dlgs 22/2007, the so-called MID directive. In particular, it provides information, tips and warnings to all “metric users” in need of organizations that can certify their metric instruments according to the Directive. This section is also devoted to enlighting aspects of ethical codes during forensic activities where measurements are involved. Please send all your inquiries to Ms. Scotti or to the Director! RIASSUNTO Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati! IL CONTRATTO ASSICURATIVO Un tema d’interessante attualità, considerato l’estendersi delle responsabilità associate all’attività di misura, prova e certificazione, è quello dei contratti assicurativi a copertura dei rischi collegati allo svolgimento di determinati compiti e incarichi. In particolare, il contratto assicurativo che assume maggiore rilevanza è la polizza RCT (Responsabilità Civile verso Terzi), ovvero quel contratto volto a indennizzare un soggetto del danno patito in conseguenza del verificarsi dell’evento/rischio contemplato dalla polizza. Al riguardo è fondamentale fare riferimento a due concetti che, apparentemente, sembrano essere diversi ma tendono a sovrapporsi divenendo quasi un aspetto unitario poiché circoscrivono l’area di competenza della compagnia ai fini del risarcimento: oggetto della polizza e limitazioni di responsabilità della compagnia. Oggetto della polizza assicurativa RCT è il rischio coperto dalla polizza, ovvero (solitamente) una elencazione di eventi o di tipologie di attività, potenzialmente verificabili, che risultano coperti dalla polizza, con l’effetto che il soggetto che abbia patito un danno in dipendenza di tali attività venga indennizzato dalla compagnia. Le clausole limitative della responsabilità sono, invece, come indica la terminologia, la previsione di condizioni o di eventi che, sebbene inclusi nell’oggetto di polizza, non possono essere indennizzati e, pertanto, sebbene astrattamente riconducibili agli eventi coperti dal contratto assicurativo, per la loro specificità, non potranno essere risarciti tramite tale mezzo. Per questi eventi, qualora si verificassero e fossero, ai sensi del codice civile, riconducibili a responsabilità del soggetto autore del danno, l’onere del risarcimento sarebbe posto direttamente in capo al soggetto assicurato, seppure a titolo di mera colpa lieve (vedi infra). Sebbene i due concetti citati siano diversi, la loro funzione è analoga in quanto destinati a prevedere, rispettivamente, i rischi coperti e le esclusioni; disciplinano cioè, letti in modo complementare, il campo di applicazione della polizza stipulata. Sul punto la Corte di Cassazione è intervenuta più volte a dichiarare la nullità di alcune clausole limitative della responsabilità in quanto, atteso il loro tenore spesso vessatorio, non erano approvate espressamente secondo lo schema previsto dalle norme stabilite in materia ed erano volte a ridurre e ridimensionare i rischi coperti dalla polizza. Infatti, spesso nelle polizze RCT, per definire il campo di applicazione del contratto assicurativo si è soliti utilizzare la seguente espressione: La Società si obbliga a tenere indenne l’assicurato di quanto questi sia tenuto a pagare, quale civilmente responsabile a sensi di legge, a titolo di risarcimento per danni involontariamente cagionati a terzi, sia per lesioni personali che per danneggiamenti a cose. Tale definizione, che riproduce quasi fedelmente la norma civilistica in materia di danni extracontrattuali1, evidenzia una notevole ampiezza della polizza RCT che richiede, evidentemente a tutela della compagnia, alcune limitazioni ovvero l’individuazione di aree ove la polizza è del tutto inoperante. I limiti individuati nel contratto assicurativo non costituiscono oggettivamente, sotto il profilo sostanziale, una violazione delle norme: per tale ragione non sono considerabili automaticamente nulli. Tuttavia ai fini della loro validità, secondo l’orientamento mani- T_M N. 1/12 ƒ 59 Un importante ulteriore elemento nell’ambito delle polizze RCT è dato dalla connotazione soggettiva della condotta posta in essere da colui che ha determinato l’evento dannoso. È infatti opportuno rammentare che le ipotesi di danni coperti dalla polizza RCT solitamente riguardano una condotta colposa da parte del soggetto assicurato mentre sono escluse, per definizione, le condotte dolose ovvero volontarie poste in essere dagli assicurati. La condotta colposa può tuttavia manifestare alcune sfumature che, sebbene apparentemente trascurabili giacché sempre di colpa si tratta, determinano l’obbligo o meno da parte della compagnia assicuratrice d’indennizzare il danno che la condotta colposa ha generato. Le gradazioni comunemente riconosciute della entità della colpa sono: – Colpa lievissima – Colpa lieve – Colpa grave Va necessariamente evidenziato che le polizze assicurative RCT standard prevedono la copertura per danni cagionati per colpa lievissima e colpa lieve, mentre escludono totalmente la colpa grave, assimilandola quasi al dolo. In realtà sono previste ulteriori polizze (meglio definite come integrazioni alla polizza RCT classica) che contemplano il risarcimento anche per danni cagionati con colpa grave, ma si tratta di contratti assicurativi autonomi (e complementari) rispetto alla assicurazione per risarcimento derivanti da responsabilità civile verso terzi. In linea generale il quadro brevemente descritto sembra piuttosto chiaro e inequivocabile (colpa lieve e lievissima = copertura; dolo e colpa grave = no copertura, salvo il caso di stipula di apposita polizza integrativa che con- no impiegati nelle applicazioni per l’automatizzazione nel settore industriale e, grazie alla tecnica di misurazione a frequenza portante, misurano grandezze come la forza, la deformazione, il momento torcente e la pressione, in maniera semplice e affidabile. La tecnologia Field DeviceTool (FDT) assicura una parametrizzazione unitaria delle apparecchiature di campo di produttori diversi. Si tratta in questo caso di una definizione delle interfacce e delle funzioni, che semplifica il processo di engineering nella tecnologia di automatizzazione. Il fulcro di questa tecnologia è rappresentato dai cosiddetti Device Type Manager (DTM), messi a disposizione dal produttore delle apparecchiature di campo sotto forma di driver standardizzati. Con essi è possibile prevedere un efficiente asset management degli impianti, indipendentemente dal produttore o dal protocollo fieldbus. Inoltre, grazie alla tecnologia FDT si possono parametrizzare e gestire centralmente gli amplificatori di misura assieme ad altre apparecchiature di campo, e allo stesso tempo leggere i dati aggiornati, visualizzati su un sistema sovraordinato. L’amplificatore di misura digiCLIP è già impiegato con successo dai clienti in abbinamento alla tecnologia FDT, ad esempio nell’industria delle macchine da stampa. Il DTM per l’amplificatore di misura digiCLIP viene fornito su CD insieme a ogni modulo, ma è anche disponibile sul sito www.hbm.com/it/menu/prodotti/ amplificatori-industriali, da dove è possibile scaricarlo gratuitamente. ▼ festato dalla giurisprudenza, è necessaria un’approvazione espressa formalizzata mediante apposita sottoscrizione, secondo quanto stabilito dal codice civile per le clausole vessatorie ai sensi dell’art. 13412. Il rischio insito in un’amplificazione delle ipotesi di clausole di limitazione della responsabilità (ovvero di riduzione dell’oggetto della polizza e quindi diminuzione delle ipotesi di rischio coperto dal contratto assicurativo) è dato principalmente dal fatto che, vista la tecnica espressiva utilizzata per tali condizioni, che sono frequentemente indicate in maniera estremamente generica, si assista ad una indebita riduzione dei rischi coperti dalla polizza con la conseguente inoperatività del contratto assicurativo per molteplici fattispecie, per le quali al contrario l’assicurato ritiene (erroneamente) di essere coperto e garantito. NEWS N. 01ƒ ; 2012 ▲ METROLOGIA LEGALE SUPERVISIONE EFFICIENTE DEI MACCHINARI TRAMITE IL CONTROLLO DELLA FORZA, GRAZIE AL DTM CERTIFICATO NEGLI AMPLIFICATORI DI MISURA DIGICLIP LHBM, lo specialista in tecnica di misura- zione, offre ora per il suo amplificatore di misura digitale di tipo digiCLIP un DTM (Device Type Manager) certificato, con il quale è possibile ricorrere alla tecnologia Field Device Tool (FDT). Il DTM per amplificatore di misura digiCLIP ha ottenuto infatti la certificazione dall’ufficio conformità del FDT Joint Interest Group e sarà inserito nell’elenco dei dispositivi certificati a partire da subito (www.fdtgroup.org/de/product catalog/certified-dtms). In tale elenco vengono accolti soltanto quei dispositivi che corrispondono alla norme stabilite dal gruppo FDT e si dimostrano poi ineccepibilmente funzionanti nel loro impiego sul campo. Gli amplificatori di misura digiCLIP vengo- T_M ƒ 60 N. 01ƒ ;2012 tra soggetti operanti nel medesimo campo di attività. Tale considerazione permette quindi a colui il quale ha causato un danno di prevedere anticipatamente (con un certo grado di ragionevolezza) l’esito di una istruttoria volta a valutare la sua condotta dalla quale sia conseguito un evento dannoso, nonché di riconoscere se trattasi di colpa lieve o grave, alla luce dello stato delle conoscenze tecniche al momento in cui è avvenuto il fatto. Tuttavia ai fini della copertura assicurativa non è sufficiente individuare se la condotta colposa fonte di danno ricada o meno nelle fattispecie contemplate dalla polizza, in quanto vi sono altri elementi da considerare per ottenere l’indennizzo del risarcimento; in particolare tutte le polizze prevedono un termine, solitamente perentorio e decadenziale (in genere sono 60 giorni ma varia da compagnia a compagnia), entro il quale comunicare alla compagnia l’accaduto (che può coincidere con il momento del verificarsi dell’evento dannoso ovvero con il momento della ricezione della richiesta di risarcimento del danno della parte lesa) così come è previsto (per legge) un termine prescrizionale di due anni per il riconoscimento dei propri diritti. Pertanto, ai fini della operatività della polizza non è sufficiente che l’evento sia coperto da assicurazione, ma è fondamentale il rispetto delle tempistiche previste dalla legge e dalle condizioni contrattuali per l’esercizio dei diritti derivanti dal contratto assicurativo. Diversamente, in caso di mancato rispetto di ogni singola condizione contrattuale indicata in polizza per la richiesta d’indennizzo, sorge l’obbligo di risarcimento a carico del soggetto autore del danno5 che, contrariamente a quanto avviene per le compagnie assicurative, esposte a un termine di prescrizione biennale, resta, invece, assoggettabile a richiesta di risarcimento per 5 anni a decorrere dal verificarsi dell’evento. Infine, è opportuno specificare, sebbene sia circostanza nota, che nel caso in cui il risarcimento del danno sia richiesto in sede di procedimento ■ templi la colpa grave): in realtà la distinzione dei casi di colpa diventa tanto più difficile quanto più complessa è l’attività considerata come oggetto di polizza. La colpa, secondo la definizione tradizionale, è costituita dalla violazione delle norme di comune conoscenza, e l’atteggiamento si può manifestare sia attraverso l’inconsapevolezza o ignoranza dell’esistenza di tali norme, sia attraverso la conoscenza di tali norme e la loro violazione consapevole, con la prefigurazione del possibile verificarsi del danno unitamente all’accettazione del rischio. Per il professionista3 la colpa lieve si manifesta attraverso la violazione di regole particolari attinenti il settore di attività ma che rappresentano comunque un aspetto marginale: viceversa la colpa grave è costituita essenzialmente dall’assenza del livello minimo di cultura e di esperienza indispensabile. Concorre, poi, a formare la colpa grave l’errore inescusabile derivante dalla mancata applicazione delle cognizioni generali e fondamentali attinenti alla professione, ovvero nel difetto di quel minimo di abilità, perizia tecnica e diligenza, che non devono mai mancare in chi esercita una attività da ritenersi altamente qualificata. Infatti, le attività non ripetitive che richiedano specifiche competenze e conoscenze, come quelle che spesso è chiamato a svolgere il tecnico che esegue prove particolari o utilizzi metodi ancora in corso di sperimentazione che non abbiano ancora trovato norme e protocolli di riferimento4, possono porre problemi interpretativi circa il grado di colpa da associare ad un evento dannoso verificatosi in conseguenza di dette attività. L’indagine volta ad accertare se sussista colpa o meno (escludendo ovviamente il caso di dolo) è necessariamente svolta con l’ausilio di soggetti particolarmente esperti nella materia oggetto di esame, in quanto gli elementi che devono essere valutati ineriscono agli aspetti tecnici di cui, solitamente, il soggetto chiamato a giudicare ha scarsa conoscenza. Pertanto si può sostenere che il giudizio che riguarda se una condotta debba essere considerata colposa o meno è una sorta di giudizio inter pares, o meglio METROLOGIA LEGALE penale (avviato per danneggiamento, lesioni ecc.), la polizza RCT resta operante esclusivamente per gli aspetti patrimoniali relativi all’indennizzo mentre rimangono a carico dell’autore del danno le eventuali sanzioni derivanti dal processo che hanno natura puramente individuale e personale. NOTE 1 Art 2043 c.c. - Qualunque fatto doloso o colposo, che cagiona ad altri un danno ingiusto, obbliga colui che ha commesso il fatto a risarcire il danno. 2 In ogni caso non hanno effetto, se non sono specificamente approvate per iscritto, le condizioni che stabiliscono, a favore di colui che le ha predisposte, limitazioni di responsabilità, facoltà di recedere dal contratto o di sospenderne l’esecuzione, ovvero sanciscono a carico dell’altro contraente decadenze, limitazioni alla facoltà di opporre eccezioni, restrizioni alla libertà contrattuale nei rapporti coi terzi, tacita proroga o rinnovazione del contratto, clausole compromissorie o deroghe alla competenza dell’autorità giudiziaria. 3 La nozione qui considerata di professionista è più ampia rispetto a quella comunemente intesa di soggetto iscritto presso i pertinenti Ordini professionali. In questo contesto si fa riferimento a soggetti muniti di particolari conoscenze e specifiche competenze talché è loro richiesta, per l’esercizio delle loro attività, una particolare diligenza estremamente qualificata. 4 La colpa sarà tanto più facile da dimostrare tanto più dettagliatamente sono disciplinate le modalità operative per lo svolgimento di una data attività. 5 L’obbligo in realtà è strettamente derivante dalla condotta del soggetto autore del danno e pertanto sorge al momento in cui si verifica il danno ma, nel caso in cui tale evento sia indennizzabile secondo la polizza stipulata, la compagnia si sostituisce, sotto il profilo patrimoniale, all’obbligato impegnandosi direttamente al risarcimento. T_M ƒ 61 SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI ▲ Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo Dalle Associazioni Universitarie di Misuristi THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT This section groups all the relevant information from the main University associations in Measurement Science and Technology: GMEE (Electrical and Electronic Measurement), GMMT (Mechanical and Thermal Measurements), AUTEC (Cartography and Topography) and Nuclear Measurements. RIASSUNTO Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari. li. Si sottolinea l’importanza di contributi attivi da parte di tutti i Soci, in particolare dai Soci che hanno riferimenti più diretti con il mondo induSintesi del Consi- striale. glio Direttivo del GMEE del 16 DiEventi GMEE cembre 2011 Convegno GMEE 2012 (a cura (2-5 settembre): di Roberto Buccianti) i lavori di preparazione del ConveIl Consiglio Direttivo del GMEE si è gno a Monopoli sono a buon punto tenuto in data 16 dicembre 2011 ed è necessario procedere alla prepresso il Politecnico di Milano. iscrizione (tramite il sito raggiungibile dal sito www.GMEE.org) al più Iniziative ministeriali presto per consentire all’organizzaed ANVUR zione di definire gli aspetti contratVengono presentati dal Presidente i tuali con le diverse controparti. Il documenti più recenti, con particolare prezzo stimato (da confermare) per riferimento ai processi di valutazione le camere è di circa 75-80 Euro/ delle attività di ricerca. notte per doppia uso singola e 6065 Euro/notte a persona per caSituazione economica di GMEE mera doppia. Probabilmente gli Le iniziative del 2011 (Convegno e accompagnatori avranno una quota Scuola di Dottorato) sono state svilupmolto ridotta (circa 50 Euro) con il pate con esiti positivi per i contenuti pagamento diretto delle diverse tecnici, per la partecipazione e per il escursioni. risultato economico. GMEE – ASSOCIAZIONE GRUPPO MISURE ELETTRICHE ED ELETTRONICHE Rivista Tutto_Misure Franco Docchio è confermato come Direttore, con un forte apprezzamento per i risultati conseguiti e per il successo delle diverse iniziative editoria- Giornata della Misurazione 2012: si terrà a Roma in data da definire. Valorizzazione delle attività scientifiche dei ricercatori del GMEE È stato ancora analizzato in dettaglio il documento presentato già nella riunione precedente e si pone l’attenzione su come valorizzare il contributo di autori diversi, anche appartenenti a università diverse. La Presidenza elaborerà una versione finale sulla base anche delle osservazioni che perverranno. Progetto RIDITT “Rete Italiana per la Diffusione dell’Innovazione e il Trasferimento Tecnologico alle imprese” Daponte ha ricordato che il GMEE partecipa (nell’ambito di una specifica Associazione Temporanea di Scopo - ATS in via di formalizzazione) a uno dei progetti ammessi a finanziamento nel Programma RIDITT, denominato “DIffusione e TRasferimento di tecnologie ad IMprese nel settore delle MISure” (acronimo DI.TR.IM.MIS.), il cui capofila è l’Università del Sannio. Il Progetto ha l’obiettivo di valorizzare i risultati della ricerca pubblica nazionale nel settore delle misure elettriche, elettroniche ed elettroottiche, individuando quali possano apportare i maggiori benefici al tessuto delle PMI delle area depresse delle province dell’Aquila, Benevento, Taranto e Cosenza (per poi estendere l’approccio prima alle intere aree regionali di Abruzzo, Campa- Scuola di Dottorato Gorini 2012: Si terrà a Bari immediatamente a valle del Convegno e le tematiche proposte sono di forte interesse anche per le aziende. franco.docchio@ing.unibs.it T_M N. 1/12 ƒ 63 ▼ nia, Puglia e Calabria e, successivamente, a livello nazionale) e operando la loro diffusione e trasferimento tecnologico in tali aree, sollecitando al contempo la nascita nelle aree suddette di nuove imprese ad alta tecnologia che industrializzino e commercializzino tali tecnologie, ovvero che siano in grado di erogare servizi ad elevato valore aggiunto del mercato indotto dalla diffusione NEWS LE CELLE DI CARICO FUTEK IN VIAGGIO VERSO MARTE 28 novembre 2011: la NASA dà inizio alla missione spaziale con destinazione Marte, il pianeta rosso, quarto nel sistema solare in ordine di distanza dal sole. Un viaggio lungo 25 volte la distanza dalla Terra alla Luna. Questa è una delle tante sfide della missione, tra le quali, non certamente le meno importanti, sono la temperatura di Marte (da -140 °C a +20 °C, un gradiente di 160 °C spostato sulla parte negativa) e l’ammaraggio di un veicolo laboratorio di dimensioni paragonabili a una vettura. T_M ƒ 64 N. 01ƒ ; 2012 ■ SPAZO ASSOCIAZIONI UNIVERSITARIE MISURISTI delle tecnologie stesse. Ulteriori det- operativo in tempi brevi. tagli sono sul sito di GMEE 2012. Collana Misure e Automazione Quote Soci per il 2012 Si segnala che presso Franco Angeli EdiSono state confermate le quote già in tore è stata attivata una Collana di Misuessere (40 Euro per i Soci Ordinari). re e Automazione per la quale si possono presentare proposte editoriali al Prof. Nuove iniziative Cascetta. Il Presidente, il Segretario e il Sito Web Direttore di Tutto Misure sono stati nomiIl nuovo Sito WEB sta procedendo nati, per conto del GMEE, nel Comitato e si prevede che possa divenire Editoriale della Collana. Il veicolo Rover Curiosity (Mars Science Laboratory) è un laboratorio mobile che ha come obiettivo l’analisi geologica e strutturale del suolo, oltre alle analisi chimiche e fisiche; per questo è stato sviluppato uno speciale laser trivella per penetrare in profondità. Da questa missione la NASA conta di ricavare un’enciclopedia scientifica di informazioni. Questo programma spaziale si avvale della collaborazione internazionale di altri Stati e aziende che partecipano con le loro tecnologie per lo sviluppo di sistemi, apparati e componenti. Ciò implica investimenti e una padronanza nella struttura aziendale, per offrire tutte le più ampie garanzie tecniche e funzionali. È questo il caso della Futek, primaria azienda americana nella produzione di trasduttori di forza con tecnologia estensimetrica, che partecipa alla missione su Marte con una serie di trasduttori di forza biassiali e triassiali espressamente sviluppati per assolvere alle specifiche ambientali e meccaniche. La composizione geometrica delle celle di carico triassiali consente di controllare dinamicamente le forze secondo gli assi e ricostruire lo spostamento dinamico del baricentro del Rover. La tecnologia estensimetrica racchiude quella semplicità applicativa e conoscitiva che, nei molti anni di presenza , l’ha resa familiare anche se vincolata ad alcuni limiti (la temperatura che può arrivare a coprire le MILL STD -55 °C…+125 °C con qualche estensione, l’incollaggio del- l’estensimetro sulla superficie, il suo invecchiamento nei cicli termici e l’invecchiamento a fatica). Futek ha realizzato queste speciali celle di carico, che hanno rivoluzionato il concetto costruttivo con una rinnovata tecnologia basilare per il gradiente di temperatura -270 °C… +125 °C (campo criogenico) e un’estensione di oltre 235 °C presente su Marte. La realizzazione degli estensimetri è stata completamente rivoluzionata: materiale isolante di supporto, materiale della griglia, collante, connessioni elettriche interne ed esterne, acciaio del corpo trasduttore e saldature. Insomma una vera rivoluzione tecnologica. Alle temperature criogeniche tutto si cristallizza cambiando le caratteristiche di base; per questo il metallo del corpo è un acciaio legato, trattato con materiale di riporto, le saldature sono realizzate con uno speciale gas, “l’incollaggio” è coperto da riservatezza e le connessioni elettriche sono isolate con materiali vetrosi speciali. Questi trasduttori hanno superato tutte le verifiche e le qualifiche NASA e sono installati sul ROVER Cortesy. Per Futek, questo è un primo traguardo; infatti, sta collaborando intensamente con alcuni clienti nel settore delle biologia, dove il mantenimento in vitro degli elementi è in ambiente criogenico. In questo ambiente si potrà ricercare, in modo diretto e semplificato, la variazione delle masse (peso). L’8 agosto 2012 è previsto l’ammaraggio su Marte; da quel momento le celle di carico Futek dovranno cominciare a lavorare e dare il loro contributo alla missione. La Futek vanta un catalogo di oltre 1.600 modelli, da quelli miniatura ai grandi tonnellaggi, dei quali il 70% acquistabili in pronta consegna e a costi competitivi. Al suo interno, un Centro di Taratura e Certificazione accreditato A2LA e una specializzazione nello sviluppo di trasduttori specifici su richiesta dei clienti. La DSPM Industria di Milano è il riferimento Futek per l’Italia: www.dspmindustria.it ▲ LO SPAZIO DEGLI IMP Paola Iacomussi Applicazioni metrologiche per l’illuminotecnica Caratterizzazione metrologica di ambienti illuminati METROLOGICAL APPLICATIONS FOR LIGHTING ENGINEERING Metrological applications in lighting engineering means an approach to the science of lighting that includes the study of the characteristics and of the reciprocal interactions between sources, materials and observers. The design of a lighting plan is not the main aspect, on the contrary the goal is reaching higher performances from the point of view of observer perception, safety and energy saving. The paper is an introduction to lighting engineering and road lighting. RIASSUNTO La definizione “Applicazioni metrologiche per l’illuminotecnica” vuole evidenziare che il fulcro centrale dello studio dell’illuminazione non è più la realizzazione di un progetto, magari esteticamente piacevole e in grado di soddisfare le richieste normative, bensì la caratterizzazione metrologica di tutte le componenti presenti in un ambiente illuminato e della loro interazione reciproca: sorgenti, materiali e osservatori. Lo scopo è di ottimizzare l’impianto affinché raggiunga le migliori prestazioni in termini di percezione visiva, sicurezza e consumi energetici, arrivando ad assicurare prestazioni anche migliori di quelle minime previste nelle norme. L’articolo è introduttivo all’illuminotecnica e presenta alcune considerazioni sull’illuminazione stradale e i risultati ottenibili grazie a un simile approccio. L’ILLUMINOTECNICA: UNA SCIENZA INTERDISCIPLINARE L’illuminotecnica è la tecnica dell’illuminazione, cioè la disciplina che si occupa di studiare, progettare e verificare l’illuminazione per ambienti esterni e interni di qualunque tipo, sia con sorgenti artificiali sia naturali. Un approccio metrologico all’illuminotecnica comporta che le conoscenze coinvolte siano molte e interdisciplinari, le principali sono: – la fotometria: cioè la scienza della misurazione della luce; – visione e percezione: cioè lo studio di come riusciamo a vedere e percepire oggetti e non solo; – la metrologia: cioè la scienza della misura applicata ovviamente sia alle sorgenti illuminanti, sia ai materiali presenti nella scena illuminata, sia all’uomo come osservatore (soft metrology) e alla loro reciproca interazione; – il panorama normativo. La fotometria consiste nel misurare la radiazione elettromagnetica in modo tale che i risultati siano correlati alla sensazione visiva umana: le grandezze radiometriche sono integrate nell’intervallo del visibile e pesate per il fattore spettrale di visibilità V(λ), cioè la curva che rappresenta la sensibilità dell’occhio umano alle varie lunghezze d’onda (definizione n. 845-01-22 in [1]) e moltiplicate per il coefficiente di visibilità massimo di una radiazione Km, (definizione n. 845-01-56 in [1]) parametro che permette, nel sistema SI, la coerenza tra le unità di misura. L’esigenza di misurare la radiazione visibile ha fatto sì che la candela sia una delle unità base del Sistema SI [2] e che, in conseguenza di ciò, all’interno degli Istituti Metrologici Primari vi siano gruppi di ricerca in illuminotecnica. In funzione dell’intensità della radiazione che incide sull’occhio, si individuano diverse condizioni di visione (fotopica, cioè diurna, mesopica e scotopica, cioè notturna) a cui corrispondono diversi valori del coefficiente di visibilità di una radiazione (K(λ) e K’(λ)), cioè il prodotto del fattore di visibilità per il coefficiente di visibilità massimo della radiazione. Le misurazioni avvengono per il tramite di sensori, la cui curva di sensibilità spettrale deve approssimare la curva del fattore spettrale di visibilità, scegliendo, generalmente, la curva fotopica, anche quando, come nel caso dell’illuminazione stradale notturna, altre scelte potrebbero essere più pertinenti. Fondamentale è la capacità metrologica di caratterizzare sorgenti, materiali, impianti d’illuminazione e la loro reciproca interazione, dal punto di vista (i) fotometrico, (ii) radiometrico, (iii) spaziale e (iv) percettivo, sviluppando appositi sistemi di misura. L’osservatore è elemento chiave le cui prestazioni, analizzate con tecniche di soft metrology, diventano un fattore importante anche per la redazione di norme tecniche. FINALITÀ E OBBIETTIVI DI UN APPROCCIO METROLOGICO ALL’ILLUMINOTECNICA La fotometria e l’illuminotecnica hanno una grande varietà di grandezze ognuna delle quali si riferisce a specifiche applicazioni: come per caratterizzare particolari capacità dei materiali o di sorgenti e impianti, che non saranno affrontate in questa sede. Le Istituto Nazionale di Ricerca Metrologica (I.N.Ri.M.), Torino p.iacomussi@inrim.it T_M N. T_M ƒ ƒ 65 65 1/12 N. 01ƒ ; 2012 2011 ▲ LO SPAZIO DEGLI IMP NEWS ▼ grandezze fondamentali, richiamate L’illuminamento è legato al flusso lumiin tutte le normative, sono: noso dalla seguente relazione: Luminanza: grandezza fotometrica dφ associata a superfici reali o immagiE = narie, definita per una data superficie dA elementare in una data direzione L’illuminazione riveste un ruolo fondadalla seguente relazione: mentale nei consumi di un Paese industrializzato: in Italia, nel 2010, la sola dφ illuminazione pubblica ha comportato L= dΩdA cos ϑ consumi per circa 6,4 TW/h [3], mentre quella privata rappresenta circa Essa rappresenta quindi il flusso di un l’80% dei consumi domestici [4]. Esseraggio elementare (dΦ) passante per re in grado d’illuminare meglio grazie il punto di misura che si propaga nel- a migliorate capacità di misura e prol’angolo solido contenente la direzio- gettazione porta un evidente vantagne considerata (dΩ) per unità di area gio economico per tutto il Sistema Itaproiettata (dAcosϑ). Si misura in can- lia migliorando i consumi energetici e dele al metro quadro [cd/m2] con uno lo sviluppo eco-sostenibile. strumento chiamato luminanzometro. L’illuminazione stradale, sia per i suoi Illuminamento: rappresenta il flus- consumi energetici che per il carattere so incidente su una superficie, si misu- di sicurezza che riveste, è il principara in lux [lx] e viene misurato con uno le campo di studio su cui le ricadute economiche, tecnologiche, normative strumento chiamato luxmetro. Affidabilità nell’Elettronica L’affidabilità dell’elettronica diventa sempre più un aspetto fondamentale da governare in molte filiere produttive e, di conseguenza, si inserisce fra le priorità delle aziende che intendono innovare per competere. Incrementare il valore degli edifici civili e industriali Il valore dell’affidabilità delle misure, prove e certificazioni nella Diagnosi Energetica, in collaborazione con ACCREDIA. I CONVEGNI DELLA SESTA EDIZIONE della manifestazione italiana dedicata a Metodi, Soluzioni e Tecnologie per l’Innovazione Competitiva (Torino, Lingotto Fiere – 18/19 aprile 2012) Mercoledì 18 aprile Caratterizzazione dei materiali Materiali innovativi e lavorazioni speciali offrono enormi opportunità per vincere le sfide tecnologiche e incrementare la competitività aziendale ma, obbligatoriamente, debbono essere affiancati da prove affidabili a garanzia della sicurezza del consumatore e della credibilità del produttore. T_M ƒ 66 TESTING e MISURE al servizio delle prestazioni e dell’affidabilità Due fra gli ambiti più importanti sui quali ogni azienda manifatturiera deve concentrare la propria attenzione e convogliare i giusti investimenti per garantire la qualità e conformità dei propri prodotti e lavorazioni. Sistemi elettronici per la sicurezza dei veicoli: presente e futuro Il ruolo della norma ISO 26262 per la Sicurezza Funzionale, in collaborazione con AICQ Automotive e AICQ Piemontese. Giovedì 19 aprile Visione artificiale e robotica nei controlli e nell’automazione Le produzioni che utilizzano queste soluzioni possono portare valore aggiunto alle imprese manifatturiere, impegnate a competere perseguendo il miglioramento della qualità, affidabilità, flessibilità dei propri prodotti e processi. e culturali di un approccio più metrologico all’illuminotecnica, sono più evidenti. Contribuisce a ridurre la criminalità e aumentare il senso di sicurezza ambientale, ma è anche un potente mezzo di prevenzione che, operando direttamente sull’ambiente, non richiede particolare cooperazione volontaria da parte degli utenti della strada. La progettazione d’impianti d’illuminazione pubblica è particolarmente complessa e per semplificazione i valori normativi, essenzialmente luminanza L (effettivo indicatore delle condizioni di visione) e illuminamento e le loro rispettive uniformità, vengono calcolati e verificati solo in alcuni punti di griglie opportunamente disposte. In questo modo impianti con caratteristiche normative simili possono fornire prestazioni molto diverse. Per ovviare a questo problema e valutare efficacemente i consumi, I.N.Ri.M. ha pro- Soluzioni e Tecnologie innovative nella manutenzione e ispezione Come garantire l’incremento dell’affidabilità di macchine e impianti. La manutenzione come ambito della Progettazione. Virtual Commissioning: integrare mondo reale e virtuale per la massima efficacia ed efficienza di avvio e operatività dei sistemi produttivi A cura di Siemens Industry Software. Simulazione e prototipazione Migliorare la qualità e affidabilità dei prodotti, riducendo tempi e costi. Fotonica industriale e biomedicale Evoluzione e futuri sviluppi della Fotonica come strumento per l’Innovazione Competitiva. A cura della Piattaforma italiana della Fotonica. Macchine utensili innovative al servizio della competitività Come cambia un settore in funzione delle mutate esigenze degli utenti: macchine multifunzione, flessibili, eco-efficienti, per microlavorazioni, per elettroerosione, ecc. Per consultare i programmi dettagliati: www.affidabilita.eu La partecipazione è gratuita, previa iscrizione. Per ulteriori informazioni, contattare la Segreteria Organizzativa: tel. 011/0266700 E-mail: info@affidabilita.eu N. 01ƒ ;2012 posto un approccio mirato per la progettazione degli impianti basato sull’estensione del coefficiente di luminanza normalmente utilizzato per la caratterizzazione dei materiali (definizione n. 845-04-71 in [1]) agli impianti d’illuminazione [5]. Per strade a traffico motorizzato [6] la condizione necessaria e sufficiente perché si realizzi un risparmio enerFigura 1 – Il laboratorio mobile getico è l’ottenimento dei valori norrealizzato dall’I.N.Ri.M. mativi di luminanza con il minimo livello d’illuminamento. Questa condizione si verifica se il valore del coeffi- limite di velocità), e di valutare i livelli d’inquinamento luminoso [10]. ciente di luminanza dell’impianto In questo modo è possibile assicurare non solo i vincoli di sicurezza, ma ottiL Qi = R mizzare anche i costi di gestione, ER manutenzione e i consumi con un conseguente risparmio economico ed è massimo (LR, ER sono rispettivamen- energetico. te la luminanza e l’illuminamento Le norme vigenti richiedono che venmedio dell’impianto). Poiché la lumi- gano effettuate verifiche sia a fini di nanza dipende dalle caratteristiche collaudo sia nel corso della vita deldell’asfalto illuminato, per rendere l’impianto e specificano le condizioni paragonabili i risultati è conveniente di misura in cui operare. Inoltre i valonormalizzare rispetto a una condizio- ri misurati da Tiresia superano le ne campione rappresentata dal para- richieste normative sie per numero di metro Q0 coefficiente di luminanza punti misurati (Fig. 2) sia per accuramedio di una strada con asfalto cate- tezza di misura (incertezze inferiori al goria C2 come definito dalla CIE [7] 3% in modalità metrologica). in [8], ottenendo il Fattore di Qualità dell’Installazione qi [6]: qi = L’accuratezza ed efficienza nelle misure non può prescindere dalla valutazione delle condizioni di percezione degli osservatori: un miglioramento delle condizioni di visione, non necessariamente corTiresia relato a un aumento dei livelli d’illuminazione, comporta una maggior sicurezza. Infatti, la riduzione del flusso luminoso installato è il primo ed essenziale passo verso il contenimento dell’impatto ambientale e dei consumi energetici. Le norme, specialmente le più recenti come la UNI 11248 [11], considerano questi aspetti, indirizzando il progettista a prevedere riduzioni delle prestazioni dell’impianto in base a parametri di influenza, quali il volume del traffico o la presenza di sistemi alternativi di segnalazione, purché vi sia, attraverso una assunzione diretta di responsabilità, il presupposto che le prestazioni, in termini di sicurezza, di tale impianto siano pari o superiori a un analogo impianto normativo. LR Q0 ER In questo modo, sono vincenti sia per le prestazioni visive, sia per i consumi che per l’inquinamento luminoso (dispersione del flusso verso la volta celeste), impianti in grado di assicurare valori più alti del parametro qi. Il rispetto costante dei valori normativi d’illuminamento e luminanza su strada assicura le condizioni di sicurezza per il traffico: una maggiore accuratezza nelle misure consente il corretto dimensionamento dell’impianto ai valori normativi e tecniche di misura ottimizzate con sistemi di misura mobili, come il laboratorio Tiresia [9], illustrato in Fig. 1, consentono di effettuare verifiche continue per ottimizzare gli interventi di manutenzione e i parametri esterni (come ad esempio il Figura 2 – Misurazione della luminanza operata con il laboratorio mobile Tiresia equipaggiato con un video luminanzometro a matrice CCD. I quadrettini neri indicano i punti normativi ove è necessario effettuare le misurazioni puntuali di luminanza, mentre i rettangoli bianchi indicano le possibilità di misura di un luminanzometro non basato su tecnologia CCD. È evidente come con strumenti non basati su CCD non sia possibile rispettare i requisiti normativi di misura sui punti di una griglia Per effettuare una corretta valutazione delle condizioni di percezione, è possibile ricorrere a nuove metodologie di misura basate sulle condizioni di visione mesopica, cioè quella condizione di visione intermedia tra le condizioni diurne (fotopiche e descritte dalla curva V(λ)) e notturne (scotopiche e descritte dalla curva V’(λ)), che è tipica della condizione di visione notturna in presenza d’impianti d’illuminazione. Per la condizione mesopica non è possibile definire una curva di visibilità, ma piuttosto un modello di visibilità in quanto si tratta di una condizione di adattamento transiente in cui intervengono nel processo di visione sia i coni che i bastoncelli (le due tipologie di recettori presenti sulla retina la cui attivazione è legata alle condizioni fotopiche, coni, e scotopiche, bastoncelli). Vista la peculiarità dell’occhio umano di essere maggiormente sensibile alla radiazione più “blu” dello spettro in condizioni di visione scotopica, si aprono nuove possibilità per la valutazione delle effettive condizioni di visione che potrebbero avvantaggiare, anche per l’aspetto percettivo oltre che di efficienza energetica, impianti d’illuminazione con sorgenti LED. La possibilità di valutare i livelli d’illuminazione secondo i modelli di visione mesopica non è ancora prevista a livello normativo a causa del numero ridotto di ricerche svolte nel campo, benché recentemente la CIE abbia proposto un modello di visione sviluppato nell’ambito di un Progetto Europeo [12]. L’Italia ad esempio ha un numero di gallerie stradali e autostradali, dove gli impianti sono costantemente accesi, pari a quello di tutto il resto d’Europa. Società Autostrade per l’Italia ha iniziato una campagna di sostituzione d’impianti obsoleti con impianti a LED, la cui progettazione dei corpi illuminanti è stata ottimizzata sulla base della caratterizzazione metrologica efficace degli stessi, degli impianti e delle condizioni di visione [13] ottenendo risparmi energetici dell’ordine del 37% (Fonte Società Autostrade per l’Italia). T_M ƒ 68 N. 01ƒ ; 2012 ■ LO SPAZIO DEGLI IMP Figura 3 – Impianto d’illuminazione in galleria, a sinistra, impianto tradizionale, a destra dopo la sostituzione con apparecchi a LED ottimizzati per le condizioni d’installazione e le richieste normative. Fonte Società Autostrade per l’Italia Istanbul, in CD ROM. 6. CIE Pubblicazione n.115, Lighting for road of motor and pedestrian traffic. 7. www.cie.co.at. 8. CIE Pubblicazione, Road Surface and lighting Joint, TR CIE PIARC 1984, CIE Vienna. 9. Paola Iacomussi, Giuseppe Rossi, M. Castellano “Caratterizzazione degli impianti d’illuminazione pubblica” Rivista Luce n.2-2004, p. 38-43. 10. P. Soardo, P. Iacomussi, G. Rossi, L. Fellin, Compatibility of road lighting with stars visibility, Lighting Research and Technology, Vol. 40, No. 4, pp 307-322, December 2008. 11. UNI 11248:2007; “Illuminazione stradale – Selezione delle categorie Illuminotecniche”. 12. Progetto MOVE: Mesopic Optimization of Visual Efficiency. 13. Contratto di Ricerca INRIM RIFERIMENTI BIBLIOGRAFICI Società Autostrade per l’Italia. 14. EMRP 2009 JRP09 Metrology for 1. CIE Pubblicazione n.17, IEC Sold State Lighting. 50(845) International Lighting Vocabulary. 2. www.bipm.org/utils/common/ pdf/si_brochure_8.pdf. 3. Dati Terna - Consumi elettrici per Paola Iacomussi è settore Merceologico anno 2010 ricercatore presso l’Istituwww.terna.it/default.aspx? to Nazionale di Ricerca tabid=419. Metrologica I.N.Ri.M., si 4. ENEA Res-Relprom “Risparmio occupa in particolare Energetico con l’illuminazione”, Enea, della caratterizzazione giugno 2008. spettro-fotometrica e per5. P. Soardo, P. Iacomussi, G. Rossi, cettiva (soft metrology) di materiali e The luminance Coefficient in road sistemi d’illuminazione anche tramite lighting: a parameter for saving sistemi di misura digitali sviluppati energy and reducing atmospheric pol- appositamente. È docente presso l’Unilution, Congresso Lux Europa 2009, versità di Torino. Le applicazioni con sorgenti LED in illuminotecnica sono la grande sfida per il futuro, ma poiché gran parte delle conoscenze illuminotecniche non risultano più valide per questo particolare tipo di sorgenti, solo un approccio metrologico allo studio delle sorgenti, delle possibili applicazioni e delle prestazioni visive umane, potrà consentire di ottenere i migliori risultati. L’importanza di un simile approccio è stata riconosciuta dalla Comunità Europea, che ha finanziato un progetto di ricerca tra gli Istituti Metrologici Primari, proprio per la definizione di una “metrologia dei LED” a cui l’I.N.Ri.M. partecipa sia per le sue competenze nella caratterizzazione di sorgenti, materiali e loro interazione, sia per soft metrology [14]. MANIFESTAZIONI EVENTI E FORMAZIONE ■ 2012 eventi in breve 2012 18 - 19 APRILE Torino, Italy Affidabilità & Tecnologie 2012 www.affidabilita.eu 21 - 22 APRILE Changsha, China 2012 International conference on Biochemistry, Environment and Energy Materials (BEEM 2012 ) www.iser-association.org/BEEM2012/Home 7 - 8 MAGGIO Nanchang, China 2nd International Conference on Materials, Mechatronics and Automation (ICMMA 2012) www.hkedu.biz/icmma2012/index.htm 9 - 11 MAGGIO Grenoble, France 9th European Workshop on Microelectronics Education (EWME ‘12) http://cmp.imag.fr/conferences/ewme2012 13 - 16 MAGGIO Graz, Austria 2012 I2MTC - IEEE International Instrumentation and Measurement Technology Conference http://imtc.ieee-ims.org/index.php 15 - 17 MAGGIO Firenze, Italy Fotonica 2012 www.fotonica2012.it 7th 18 - 19 MAGGIO Budapest, Hungary IEEE International Symposium on Medical Measurement and Applications (MeMeA 2012) http://memea2012.ieee-ims.org 26 - 29 MAGGIO Xiían, China 2012 Spring International Conference on Computer Science and Engineering www.engii.org/scet2012/CSE2012.aspx 26 - 29 MAGGIO Xiían, China Spring Int’l Conf. on Electronics and Electrical Engineering (CEEE-S 2012) www.engii.org/scet2012/CEEE2012.aspx 4 - 8 GIUGNO Stockholm, Sweden 12th EUSPEN Conference www.stockholm2012.euspen.eu 20 - 22 GIUGNO Sorrento, Italy IEEE International Symposium on Power Electronics, Electrical Drives, Automation and Motio (SPEEDAM 2012) http://webuser.unicas.it/speedam/ CallForPaper_Speedam2012.pdf 20 - 22 GIUGNO Roma, Italy 25th International Symposium on Computer-Based Medical Systems www.math.unipa.it/cbms 26 - 29 GIUGNO Ancona, Italy 10th Intl Conference on Vibration Measurements by Laser and Noncontact Techniques (AIVELA) www.aivela.org 17 - 20 LUGLIO Orlando, USA The 5th International Multi-Conference on Engineering and Technological Innovation: IMETI 2012 www.2012iiisconferences.org/imeti 28 - 31 LUGLIO Roma, Italy 9th International Conference on Informatics in Control, Automation and Robotics (ICINCO 2012) www.icinco.org 10 - 12 AGOSTO Shanghai, China The 6th International Conference on Management and Service Science (MASS 2012) www.massconf.org/2012 19 - 23 AGOSTO Moscow, Russia 32th Progress in Electromagnetics Research Symposium (PIERS) http://piers.org/piers/submit/survey.php 19 - 24 AGOSTO Roma, Italy CENICS 2012: The Fifth International Conference on Advances in Circuits, Electronics and Micro-electronics www.iaria.org/conferences2012/CENICS12.html 19 - 24 AGOSTO Roma, Italy The 3rd International Conference on Sensor Device Technologies and Applications (SENSORDEVICES 2012) www.iaria.org/conferences2012/SENSORDEVICES12.html 3 - 5 SETTEMBRE Monopoli, Italy Congresso GMEE 2012 www.gmee.org 3 - 5 SETTEMBRE Monopoli, Italy Congresso GMMT 2012 9 - 14 SETTEMBRE Busan, Korea XX IMEKO World Congress http://imeko2012.kriss.re.kr 16 - 19 SETTEMBRE Anchorage, USA 2012 International IEEE Conference on Intelligent Transportation Systems www.itsc2012.org 16 - 18 OTTOBRE Bologna, Italy 2nd International Conference on Electrical Systems for Aircraft, Railway and Ship Propulsion 16 - 19 OTTOBRE Torino, Italy 13th Int’l Computer Graphics Conference (VIEW) 21 - 25 OTTOBRE Crete, Greece 4th International Symposium on Transparent Conductive Materials (TCM2012) www.iesi.forth.gr 26 - 28 OTTOBRE Chongquing, China The Second International Conference on Information Science and Manufacturing Engineering (ICISME 2012) http://isme2012.cqnu.edu.cn 28 - 31 OTTOBRE Tapei, Taiwan IEEE Sensors 2012 www.ieee-sensors.org 22 - 24 NOVEMBRE Belgrade, Serbia 2012 Telecommunications Forum TELFOR2012 www.telfor.rs/?lang=en www.esars.org www.viewconference.it T_M N. 1/12 ƒ 69 N. 01ƒ ; 2012 ▲ NEWS INCREMENTARE IL VALORE DEGLI EDIFICI CIVILI E INDUSTRIALI Il valore dell’affidabilità delle misure, prove e certificazioni nella Diagnosi Energetica Mercoledì 18 aprile 2012 – ore 10.30 - 13.00 Torino, Lingotto Fiere nell’ambito della Sesta edizione di AFFIDABILITÀ & TECNOLOGIE la manifestazione italiana dedicata a Metodi, Soluzioni e Tecnologie per l’Innovazione Competitiva Introduzione ai lavori: Situazione attuale e problematiche applicative – Paolo Vigo (Vice Presidente ACCREDIA) Il ruolo dei servizi di certificazione, prova e taratura nella diagnosi energetica degli edifici Filippo Trifiletti (Direttore ACCREDIA) Tecniche di misura dell’energia e dei flussi energetici Marco Dell’Isola (Università di Cassino - Direttore Fac. Ingegneria Civile e Meccanica) Problematiche di misura in campo e di riferibilità delle misure – Luigi Iacomini (INRIM) Strumenti e servizi di misura e prova (ACCREDIA) Fattori di incertezza nella certificazione energetica Vincenzo Corrado (Politecnico di Torino) Esigenze delle imprese edili in ottica di garanzia delle “performance” energetiche degli edifici e miglioramento dei protocolli operativi – Nicola Massaro (ANCE) Fonti rinnovabili di energia, efficienza energetica e certificazione delle professionalità: un trinomio imprescindibile Anna Moreno (ENEA UTT-LEARN, Servizio Informazione e Formazione) Il parere degli “addetti ai lavori” Michele Fazzini (Ordine degli Ingegneri di Torino) Dibattito finale Obiettivi –- analizzare l’attuale situazione riguardante l’accertamento delle “performance” energetiche del patrimonio edile esistente (in gran parte costruito parecchi decenni fa). Accertamento che ricorre ancora in modo insufficiente a sistemi di misura e di diagnosi affidabili e riferibili e, pertanto, non sempre garantisce il rispetto dei parametri definiti dalle apposite normative; – promuovere e diffondere la cultura della misura, della diagnosi e dell’efficientamento energetico, presso il mondo degli “addetti ai lavori”, delle imprese edili e degli impiantisti, ma anche presso quello delle aziende e degli utenti; – analizzare i problemi connessi alla riferibilità metrologica in campo energetico edilizio e promuovere efficaci servizi metrologici e di certificazione e prova. Stimolare indagini di settore per la riduzione dei costi della diagnosi energetica, certificazione e gestione dei sistemi energetici; – promuovere un confronto tra i costruttori di strumenti, ricercatori e certificatori per stimolare la soluzione e il superamento delle criticità del mercato, ovvero cercare di definire protocolli operativi che partendo da dati certi garantiscano uno sviluppo al settore consono alle ricadute che certificazione e diagnosi possono avere sul valore del patrimonio edilizio. Destinatari Professionisti della diagnosi e certificazione energetica - Costruttori e fornitori di strumenti - Fornitori di servizi di certificazione e prova e metrologici in campo energetico - Costruttori di software di diagnosi e certificazione energetica - Università e centri di ricerca Ordini professionali (Ingegneri, Architetti,…) - Imprese edili (Ance, Finco) - Impiantisti (elettrici, idraulici, termici, ecc.). La partecipazione è gratuita, previa iscrizione. Per informazioni e iscrizioni: www.affidabilita.eu oppure contattare la Segreteria Organizzativa: tel. 011/0266700 Email: info@affidabilita.eu NUOVO CALIBRATORE IN CAMPO E COMUNICATORE EVOLUTO Danetech srl, azienda milanese specializzata nella fornitura di strumenti e sistemi dedicati alle tarature di strumentazione di misura industriale, presenta un’impor tante novità della propria rappresentata Beamex: MC6, Calibratore multifunzione e Comunicatore da campo di nuova generazione. In seguito alla richiesta di misurazioni sempre più stabili e precise e a trasmettitori sempre più sofisticati, gli strumentisti e i tecnici di taratura sono costretti a utilizzare un numero sempre maggiore di dispositivi di T_M ƒ 70 misurazione: di conseguenza, è aumentata la domanda di dispositivi di misurazione automatizzati e intuitivi. Inoltre, le aziende sono alla ricerca di nuove soluzioni per ridurre il costo di gestione dei dispositivi di misurazione e sostituire diversi singoli dispositivi con un dispositivo multifunzione. Il nuovo calibratore in campo e comunicatore evoluto Beamex MC6 è la soluzione ideale per i requisiti dell’industria di processo moderna. Lo strumento, ad alta precisione, offre la possibilità di tarare segnali di pressione, temperatura e vari segnali elettrici. Inoltre, MC6 comprende un comunicatore fieldbus completo per strumenti Hart, Foundation Fieldbus e Profibus PA. Le sue caratteristiche principali sono la praticità e facilità d’uso, grazie al grande touch-screen a colori da 5.7” e all’interfaccia multilingua. Il robusto involucro con classe di protezione IP65 (a prova di acqua e polvere), il design ergonomico e il peso ridotto lo rendono un dispositivo di misurazione ideale per l’uso in campo in vari settori: farmaceutico, energetico, gas e petrolio, alimenti e bevande, assistenza, nonché chimico e petrolchimico. Grazie alle cinque modalità operative, MC6 è facile e veloce da usare, oltre che estremamente pratico, in quanto permette di trasportare minore attrezzatura in campo. Le modalità operative sono: Misurazione, Taratura, Documentazione, Registrazione dati e Comunicazione Fieldbus. Inoltre, in combinazione al software di calibrazione Beamex CMX, MC6 consente una calibrazione e una documentazione completamente automatiche e senza documentazione cartacea. Allo stesso tempo, Beamex ha lanciato anche una nuova versione del software di taratura CMX che, in combinazione a MC6, offre nuove possibilità di gestione della taratura senza documentazione cartacea. Per maggiori informazioni: www.danetech.it COMMENTI ALLE NORME ▲ COMMENTI ALLE NORME: LA 17025 A cura di Nicola Dell’Arena (ndellarena@hotmail.it) Non conformità, azioni correttive, azioni preventive, reclami e miglioramento - Parte seconda Non conformità le la politica, ma ciò non è in uso nella situazione odierna. A great success has been attributed to this interesting series of comments by Si riporta un esempio di politica conteNicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025. nuto nel manuale della qualità. “Le condizioni avverse alla qualità sono identiRIASSUNTO ficate e registrate al fine di correggerle Prosegue con successo l’ampia e interessante serie di commenti di Nicola il più rapidamente possibile. Esse sono Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La sottoposte a un procedimento di analisi struttura della documentazione (n. 4/2000); Controllo dei documenti e e valutazione da posizioni organizzatidelle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e labove ben definite con l’adozione delle ratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto (n. azioni correttive. Il laboratorio conside3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4/2003, n. 2/2004 ra due tipologie di non conformità che e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle Apparecsono rilevate durante l’esecuzione delle chiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006, n. proprie attività: non conformità minore; 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali (n. non conformità maggiore. Si definisce 3/2007, n.2/2008 e n.3/2008); il Campionamento (n.4/2008 e n. non conformità minore situazioni (dei 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assiculocali e delle apparecchiature) di picrazione della qualità parte 1.a (n.4/2010); Assicurazione della qualità cola entità che non influenzano la quaparte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011). lità finale delle attività svolte. Si definiNon conformità, azioni correttive, ecc. parte 1.a (n. 4/2012). sce non conformità maggiore situazioni (dei locali e delle apparecchiature dePREMESSA una politica e delle procedure che viazioni dalle procedure tecniche) che Dopo la tratta- devono essere attuate quando qualun- influenzano la qualità finale delle attivizione storica que aspetto delle attività di prova e/o tà svolte”. della non confor- taratura, o i risultati di queste attività, mità, si inizia non siano conformi alle procedure o ai Conforme alle proprie procedure dal capitolo 4.9 requisiti concordati con il cliente”. Come detto per altri requisiti, il laboradal titolo “Tenuta Innanzitutto la norma definisce la non torio deve scrivere una procedura tecsotto controllo conformità e quando il laboratorio de- nica che descriva tutta l’attività di prodelle attività di ve agire. Esso deve agire in due situa- va. Questa procedura può essere sostiprova e/o di zioni: durante le attività e alla fine, a tuita da norme, se esistono e sono esautaratura non conformi”. Il titolo parla seguito di risultati negativi. La non rienti. La procedura può contenere tutto con il linguaggio iniziale del Quality conformità si ottiene quando, durante il comportamento del laboratorio dalAssurance, a cominciare dal termine la prova o alla fine della stessa, risul- l’ingresso alla riconsegna dell’oggetto inglese “Control to”, tenuta sotto con- ta qualcosa che non sia conforme alle da provare e può anche contenere le trollo, e si capisce che la non conformi- “proprie procedure o ai requisiti con- modalità e le responsabilità delle aziotà si applica ad attività tecniche e non cordati con il cliente”. ni da effettuare a seguito delle non congestionali. All’interno ritorna il linguag- La norma prescrive politica e proce- formità riscontrate. Questo caso si pregio delle nuove norme, quando richie- dure, e poi le attività di prova devono senta quando il laboratorio conosce a de di adottare “azioni correttive”. essere conformi alle proprie procedu- perfezione il processo di prova e le Nel corso degli articoli mi sforzo di non re. Vediamo di capire di cosa ha biso- diverse tipologie delle non conformità chiamare azioni correttive le soluzioni gno un laboratorio. che possono accadere. Al laboratorio adottate per risolvere la non conformità. che si trova in questa situazione basta Politica solo questa procedura tecnica. Per questo requisito basta riportare sul POLITICA E PROCEDURE manuale della qualità la politica che il Conforme ai requisiti concordati laboratorio intende adottare sulle non Già ho detto di questo requisito per Il paragrafo 4.9.1 della norma prescri- conformità: non serve altro. Si potreb- altri punti della norma. Se ci sono, bive che “il laboratorio deve possedere be riportare nella procedura gestiona- sogna applicarli e non aggiungo COMMENTS ON STANDARDS: UNI CEI EN ISO/IEC 17025 T_M N. 1/12 ƒ 71 nulla, vista la facilità della loro appli- tempi e, se servono, anche le responsabilità sui costi, registrazioni da uticazione. lizzare. Possedere procedure Come al solito la norma parla di pro- Attribuzione di responsabilità cedure al plurale, senza specificare e autorità se siano tecniche o gestionali. La norma afferma che bisogna attribuiPer le procedure tecniche il laborato- re le responsabilità e le autorità, tuttavia rio può seguire due strade: (i) posse- non era necessario farlo poiché tale dere la sola procedura di prova, requisito è insito in tutto il sistema qualicome detto sopra, oppure (ii) posse- tà e nel concetto di procedura. Per dere, oltre alla procedura di prova, rispettare questo requisito le responsatante procedure tecniche per ogni bilità devono essere definite da quando tipologia di non conformità, anche se nasce la non conformità fino alla chiua priori non tutte le non conformità sura. Le responsabilità da definire sono: hanno la soluzione già pronta. In que- rilevazione della non conformità, inizio sto settore il laboratorio può anche iter, valutazione dell’importanza della non scrivere le procedure, ma citare i non conformità, l’analisi della non conmanuali d’istruzione delle apparec- formità e l’adozione delle azioni da efchiature e dei materiali di consumo fettuare, l’attuazione delle azioni deciche riportano cosa può accadere, e la se, la verifica dell’attuazione, la verifica soluzione del problema. Nel caso di della validità dell’azione effettuata, la una non conformità non conosciuta a verifica dell’impatto che la non conforpriori il laboratorio deve applicare mità ha sulle prove/tarature effettuate quanto richiesto dalla norma. in precedenza, l’arresto dei lavori e la Per le procedure gestionali il labora- sospensione dell’emissione dei rapporti torio deve emettere una sola procedu- di prova o dei certificati di taratura, il ra che comprenda tutto quanto richie- richiamo del lavoro, l’informazione al cliente, l’autorizzazione a riprendere le sto dalla norma. attività. Nella procedura gestionale bisogna riportare con precisione tutte CONTENUTO DELLA PROCEDURA queste responsabilità. L’attribuzione delle responsabilità diGESTIONALE pende dalle dimensioni e dalla comIl secondo comma del paragrafo 4.9.1 plessità del laboratorio. Per un piccolo prescrive che ”la politica e le procedu- laboratorio le responsabilità possono re devono assicurare che: a) siano attri- rimanere confinate a una sola persona. buite le responsabilità e le autorità per Per un laboratorio con diverse tipologie la gestione delle attività non conformi e di prove le responsabilità possono rimasiano definite e adottate le azioni (com- nere confinate alle persone di quella preso l’arresto dei lavori e la sospen- determinata prova e solo per grossi sione temporanea dei rapporti di prova costi la decisione delle azioni da effeto dei certificati di taratura, se necessa- tuare può arrivare al livello superiore. rio) quando viene identificata un’attività Per un laboratorio più grande le responnon conforme; b) sia eseguita una valu- sabilità possono essere attribuite a tazione dell’importanza delle attività diversi livelli, fino ad arrivare al massinon conformi; c) siano tempestivamente mo livello. L’unico aspetto cui si deve adottate azioni correttive, assieme ad porre attenzione è quello di attribuire la ogni decisione circa l’accettabilità del- responsabilità della scelta delle azioni l’attività non conforme; d) se necessa- da effettuare a personale competente. rio, sia informato il cliente e sia richia- La norma riporta una serie di azioni mato il lavoro; e) sia definita la respon- che sono importanti, anche se qualcusabilità per autorizzare la continuazio- na non è applicabile a tutte le non ne delle attività.” conformità. Tutte queste azioni sono Amo ripetermi. Ogni procedura ge- applicabili a gravi e significative non stionale deve sempre contenere re- conformità, mentre la maggior parte sponsabilità, modalità di attuazione, di quelle che si verificano nei labora- N. 01ƒ ; 2012 ■ COMMENTI ALLE NORME tori sono lievemente gravi e risolvibili con facilità e in breve tempo all’interno del laboratorio. Esempi di non conformità fanno capire con più facilità quanto detto. La rottura di un’apparecchiatura può anche essere considerata una grave non conformità, ma sicuramente non è necessario avvertre il cliente, né deve essere avviato l’iter per il richiamo. Il superamento dei limiti di taratura di un’apparecchiatura che influisce sui risultati della prova/taratura è sicuramente una grave non conformità (maggiore), e per essa bisogna valutare l’impatto sulle prove/tarature effettuate da quando l’apparecchiatura era nei limiti di taratura, ma potrebbe non essere necessario avviare l’iter del richiamo. Valutazione dell’importanza della non conformità La norma prescrive la valutazione dell’importanza della non conformità. Per l’applicazione di questo requisito al laboratorio conviene come politica suddividere la non conformità in maggiore e minore, in modo da prevedere due iter di risoluzione diversi. Naturalmente per un laboratorio piccolo potrebbe non convenire effettuare tale suddivisione. I criteri di scelta sono: importanza della non conformità ai fini dei risultati di prova/taratura, costo delle azioni da effettuare, responsabilità delle decisioni (una società può stabilire che qualsiasi decisione da prendere deve essere effettuata dal top manager), intervento del cliente. Se il cliente vuole prendere la decisione sulla scelta delle azioni da effettuare (caso rarissimo per non dire inesistente) la non conformità deve essere considerata maggiore. Una volta effettuata la valutazione deve essere registrata. A parole sembra una cosa complicata, ma la valutazione può essere anche semplice quando è divisa in minore e maggiore, e dipende dall’esperienza del laboratorio nel classificare le tipologie di non conformità che si possono verificare. I manuali delle case costruttrici aiutano il laboratorio nell’effettuare la classificazione delle non conformità. Essi riportano i problemi che si possono verificare e la loro risoluzione: in questi casi la non conformità può essere definita minore. T_M ƒ 73 MICROFONI IN PRONTA CONSEGNA CON LA SEMPLICITÀ DELLA TECNOLOGIA ICP® DI PCB PIEZOTRONICS, INC. PCB Piezotronics offre una varietà di prodotti per le misure acustiche, tra cui microfoni ICP® prepolarizzati serie 377 (moderna versione del tradizionale microfono a condensatore esternamente polarizzato), microfoni da array, microfoni piatti e microfoni per impieghi speciali. La linea dei microfoni è integrata da un assortimento di preamplificatori, condizionatori di segnale, filtro di ponderazione A, calibratori portatili e accessori. Tutti i prodotti acustici PCB® vengono utilizzati in una varietà di industrie tra cui: automotive, aerospaziale e difesa, OEM, università, consulenti, elettrodomestici, ricerca e sviluppo, ecc. PCB® è l’inventrice della tecnologia ICP®, parte integrante del progetto dei moderni microfoni prepolarizzati, ed è fra i pionieri nella microelettronica: questo dimostra i nostri continui investimenti in ricerca avanzata per essere sempre all’avanguardia nei progetti acustici.I microfoni prepolarizzati hanno molti vantaggi rispetto ai modelli esternamente polarizzati, soprattutto nell’ambito delle applicazioni portatili o dell’uso in ambiente esterno (“prove sul campo”) con elevati tassi di umidità. I microfoni di misura PCB sono conformi allo standard di alta qualità IEC 61094-4, quindi in classe 1, sono utilizzabili da 80 °C (elettronica), con una versione HT fino a 120 °C (Industry exclusive). Il risultato è che la performance è migliorata, la gamma dinamica può rimanere precisa per un intervallo di temperatura maggiorato e il loro rumore di fondo è molto basso. Calibratori acustici di precisione portatili: PCB® offre calibratori per microfoni, leggeri, portatili con funzionamento a batteria, che soddisfano gli standard IEC e ANSI. PCB® realizza anche un sistema di taratura acustico allo stato dell’arte. Tutti i rapporti di prova e i certificati di taratura mostrano la risposta in frequenza del microfono alla pressione (con l’utilizzo dell’attuatore) e al campo libero, la sua correzione, le condizioni in cui è stata eseguita la taratura, i relativi fattori di incertezza e le attrezzature utilizzate. La taratura dei microfoni di riferimento è tracciabile attraverso documentazione PTB e la maggior parte delle tarature sono A2LA, che per il mutuo riconoscimento interlaboratori (ILAC_MRA) sono equivalenti ai certificati ACCREDIA. Per ulteriori informazioni: www.pcbpiezotronics.it T_M ƒ 74 N. 01ƒ ; 2012 ▲ NEWS NUOVA PRESSA ELETTRICA DOPPIA SCALA PER PIANTAGGI DA 5 KN + 15 KN E 25 KN + 50 KN La nuova pressa elettrica Kistler con motore in linea si distingue, oltre che per la robustezza e l’affidabilità, anche per alcune caratteristiche che la rendono unica per operazioni di piantaggio per alberi, cuscinetti, boccole, anelli di tenuta, guarnizioni e una serie di altri particolari meccanici: • dimensioni ridotte: la taglia da 15 kN ha una lunghezza totale di 748 mm; • cella di carico piezoelettrica: sensibile, resistente ai sovraccarichi, lineare più di ogni altra cella con diversa tecnologia; • encoder assoluto: risoluzione 0,001 mm; • doppia scala: Taglia piccola: Scala 1 = 5 kN; Scala 2 = 15 kNTaglia grande: Scala 1 = 25 kN; Scala 2 = 50 kNLa doppia scala offre il vantaggio di poter adattare la stazione di piantaggio a prodotti molto diversi tra loro in termini di forze in gioco, permettendo così di salvare i costi legati allo sviluppo di più stazioni dedicate e opportunamente dimensionate. Tutto questo senza rinunciare a un’ottima risoluzione su entrambe le scale, grazie alla cella piezoelettrica; • manutenzione minima: con la sua specifica di ingrassatura ogni milione di cicli oppure 1..2 volte all’anno secondo il programma di manutenzione; • corsa: Taglia piccola: 200 mm, Taglia grande: 400 mm; • velocità: Taglia piccola: 250 mm/s, Taglia grande: 150 mm/s. Per ulteriori informazioni: www.kistler.com 2012 LMS EUROPEAN VEHICLE CONFERENCE Vehicle Synthesis redesigned: where controls & mechanics meet to deliver vehicle brand performance LMS International organizza dal 18 al 19 aprile 2012, presso il Kempinski Airport Hotel di Monaco di Baviera, la European Vehicle Conference 2012: il forum annuale per manager e tecnici che vogliono discutere e confrontarsi sui più recenti sviluppi del settore automobilistico. I lavori si apriranno con il benvenuto di Urbain Vandeurzen (Chairman and Chief Executive Officer, LMS International) e Jan Leuridan (Executive Vice-President and Chief Technical Officer, LMS International), che condivideranno la strategia e la visione di LMS. Sefuiranno le prestigiose testimonianze di: Guglielmo Caviasso (Head of Vehicle Integration and Validation, R&D, Fiat Group Automobiles); Christof M. Weber (Senior Manager, Durability and Benchtesting, Daimler Trucks); Ryusaku Sawada (Project General Manager, Engine Planning Department, Toyota Motor Corporation); Durante le due giornate di conferenza saranno trattati i seguenti temi: Evoluzione dei sistemi meccatronici: applicazioni motore, cambio, trasmissione, autotelaio, sistemi termici e di raffreddamento, impianti elettrici e batterie Gestione energetica: come bilanciare i requisiti di economia nei consumi, con il comfort di guida e il comfort termico Le nuove sfide nell’acustica, le vibrazioni, le prestazioni di guida e comfort a livello del veicolo e dei suoi componenti Affidabilità e fatica: come contribuire alla qualità dei sottosistemi e del veicolo completo. Relatori dalle maggiori realtà industriali e istituti di ricerca presenteranno le loro scelte strategiche per affrontare le nuove sfide ingegneristiche: Autoneum Management, Cummins, Daimler, Eta, FluiDesign, Fraunhofer, Hutchinson, CNR Imamoter, John Deere, Landi Renzo, Mann+Hummel, Magneti Marelli, Magna Powertrain, Mitsubishi Heavy Industries, Opel, Piaggio, Renault, Università di Padova e altri. Per ulteriori informazioni: visitare il nostro sito www.lmsitaly.com/vehicle-europe-2012 o contattare Alessandra Fabiani alessandra.fabiani@lmsintl.com STORIA E CURIOSITÀ ▲ Paolo Vigo L’Unificazione Metrica in Italia vista dal Regno delle due Sicilie METRIC UNIFICATION IN ITALY, AS SEEN FROM THE NEWLY BORN ITALIAN KINGDOM In this paper the right testimony on the relevant contribution given by the scientists of the Kingdom of the Two Sicilies to the complex “metrological unification” process occurred during the first years of the newly born Italian Kingdom in the second half of the 19th century is presented. Obviously, Piedmont and its Kingdom were the chief protagonists of this process, but “metrological unification” prolegomena have been found in the Kingdoms and Principalities existing before the unified Italian Kingdom. RIASSUNTO In questa memoria si intende presentare una doverosa testimonianza del contributo che anche gli scienziati del Regno delle due Sicilie hanno dato all’articolato processo di “unificazione metrica” che si verificò in Italia durante il Risorgimento e che in particolare vide fattiva attuazione nel neonato Regno d’Italia nella seconda metà del XIX secolo. Processo di “unificazione metrica” che ha avuto come protagonista il Piemonte e il suo allargato Regno Unitario, ma i cui prolegomeni costellano la storia preunitaria. INTRODUZIONE Numerose sono le testimonianze più o meno note e documentate, sia dal punto di vista storico che da quello tecnico-scientifico e commerciale, delle istanze e dei conseguenti atti legislativi regolatori dei mercati che nei vari regni e ducati italici (Regno Borbonico, Principato di Toscana, Ducato di Modena, il Lombardo-Veneto, le Repubbliche di Genova e Venezia e il Piemonte stesso) si sono susseguiti tra la fine del 1700 e la prima metà del 1800 [1,2]. In una “analogia metrica” europea [3,5] che ovviamente il “vento napoleonico” amplificò e la restaurazione non seppe che confermare, al più modificando le denominazioni “rivoluzionarie” delle unità di misura ma non la sostanza delle decisioni in materia di universalità e di non antropomorfismo dei campioni, nonché della organizzazione decimale dei multipli e sottomultipli (escluse ovviamente le misure di tempo nei fatti “antropomorfe” o meglio “terrestri”). Organizzazione su base decimale semplice e razionale, e che si è dimostrata nella pratica facilmente metabolizzabile dalla società [6,7]. In un arco di tempo storico non perfettamente definibile e tipico dei suddetti anni, si verificò infatti in Europa e in particolare anche in Italia un processo di riordino e di pratica attuazione di regole unitarie per le misure, le loro unità e campioni e la relativa diffusione (riferibilità), che ha dell’incredibile se non viene ricollegato a una specifica analisi del contesto storico e sociale. Le misure e la loro codifica legislativa erano, infatti, sino a quei tempi strettamente connesse principalmente allo scambio delle merci e alla loro valorizzazione, più che alla quantificazione delle proprietà (edili e terriere) e dei connessi raccolti o rendite. In queste ultime due specificità risiede, molto probabilmente, il principale ostacolo che nei diversi contesti storici ha sempre limitato o ritardato il varo di una codifica unitaria e oggettiva, istanza più volte soste- nuta dagli scienziati, dai militari e dai funzionari dello stato, ma fortemente ostacolata specie dalla nobiltà, preoccupata di poter vedere in tal modo quantificate esattamente e univocamente le proprie capacità produttive e reddituali [8], cosa quest’ultima che poteva da un lato aumentare i tributi e dall’altro rendere troppo oggettive e contestabili le esose richieste ai sottoposti. È infatti possibile affermare che, in tutti i principali regni europei e ancor più in quelli italiani, l’affermarsi di qualsiasi “razionalizzazione e universalità” metrica è stata ostacolata o procrastinata dalla tacita alleanza della nobiltà con i mercanti, ai quali le regole metriche di quantificazione delle merci erano note e oggetto della loro precipua personale professionalità e capacità di orientarsi e condizionare i mercati. Questo consentiva loro di generare un valore aggiunto, non solo non collegabile direttamente alla quantificazione delle merci, ma che spesso risultava amplificato dall’incertezza metrica. Di questo sono indiretta testimonianza i numerosi e continuamente aggiornati “manuali dei Mercatores” [9,10], che riportano in dettaglio e con pedanteria le unità di misura in uso nei diversi mercati per le specifiche merci e, naturalmente, i cambi delle monete a base oro o argento in corso legale. Quando poi la complessità sociale ed economica generata dall’affermarsi Dipartimento DiMSAT, Università di Cassino p.vigo@libero.it Presentato alla settima edizione del Congresso “Metrologia e Qualità”, Torino aprile 2011 T_M N. 1/12 ƒ 75 della rivoluzione industriale ha per così dire rotto il patto scellerato, rendendo improcrastinabile la certezza e unificazione metrica per la realizzazione e la circolazione dei manufatti industriali, contemporaneamente allargando il respiro mercantile a nuove e meno localistiche visioni dell’intero scambio delle merci, anche di tipo agricolo e alimentare, e tutto questo si è coniugato con il crescere dell’idea dello Stato [11], allora il processo di razionalizzazione e unificazione metrica ha bruciato i tempi della storia, in una sintesi che ha ad esempio avuto nei primi quindici anni di vita del Regno d’Italia dell’inimmaginabile, in efficienza ed efficacia legislativa e normativa [12]. Tanto da portare in soli tre lustri, dalla promulgazione (SMD adottato in Piemonte nel 1853) ed estensione del Sistema Metrico Decimale a tutto il Regno d’Italia con una delle prime leggi del Regno Unitario (1861), alla firma dell’Italia, quale “socio fondatore”, della Convenzione del Metro (1875, Parigi) [13]. Convenzione ancora oggi cardine di tutto il Sistema Internazionale SI di cui siamo figli e attuatori, visti anche gli accordi vigenti del WTO (World Trade Organization) che come tutti sanno vedono nella unitarietà e riferibilità delle misure una T_M ƒ 76 N. 01ƒ ; 2012 ▲ STORIA E CURIOSITÀ delle colonne portanti della uni- spesso si trovano inchiavardati sulle versalità dei mercati. mura delle chiese prospicienti, in una primordiale ma efficace riferibilità metrologica ai campioni di misura, L’UNIFICAZIONE METRICA ammantata di sacralità [15,16]. Esempi di assoluto pregio sono le IN ITALIA “Logge dei mercanti” di Ascoli PiceNel su descritto quadro d’insie- no e di Norcia, ma numerose e poco me, così furente (poco nota è la note restano altre vestigia metriche specificità che il regolamento at- disseminate nei territori, spesso tratuativo della su richiamata legge scurate nel loro valore storico e di adozione del SMD in Italia fu sociale. promulgato il giorno successivo Ritornando al Regno delle due Siciall’approvazione in Parlamen- lie appare ovvio e giusto evidenziato!), certamente unificante per il re in questo contesto che esso, anRegno d’Italia nei suoi primi pas- che in qualità di più antico e consosi nella costituzione dello Stato lidato stato italico, più o meno per unitario, è giusto ricordare che lunghi secoli unitario e federato alla rapidità e all’efficacia attua- (nella denominazione “due Sicilie” tiva, di stampo prettamente pie- si nasconde una tradizionale sepamontese, contribuirono senza razione delle due società e culture, ombra di dubbio anche tutte le quella napoletana e quella siciliadiverse esperienze di razionaliz- na), vanta una lunga tradizione mezazione e unificazione metrica che, trica più che documentabile storicacome ricordato, si erano verificate nei mente, frutto delle attività dei merdifferenti territori italiani, pur con cro- canti, degli scienziati e dei funzionologie diverse e differenti gradi di nari dello Stato [17]. successo attuativo [14]. Si può allo scopo partire dalla purLa diversificazione metrica italiana, troppo smarrita legge Aragonese del caratteristica di quegli anni pre-uni- 6 aprile 1480 nella quale, probabiltari, era la conseguenza storica del- mente per la prima volta in Europa, si l’autonomia comunale, tipica dei ter- fa riferimento a una unità di lunghezritori del centro e del nord, che costi- za (miglio) non antropomorfa, ma tuisce una vera e propria “bio-diver- basata su una definizione astronomisità” anche economica e sociale ca, e a una unità di peso (quartana) della storia della nostra nazione. Autonomia conquistata sul campo, già dai tempi dell’impero, dalle città e dai territori più fattivi e virtuosi che, nell’avere riconosciuti i loro diritti impositivi, avevano anche di riflesso ottenuto l’autonomia metrica. Si pensi che nel manuale Hoepli di Metrologia [15] nel 1895 vengono dettagliatamente descritte e convertite le misure di lunghezza superficie, capacità (per liquidi e aridi) e di peso ancora in uso nelle 68 province del Regno, alcune suddivise anche per comprensori comunali nei quali ultimi vigevano ulteriori diversificazioni. Testimonianze storiche di questo sono le tante “lapidi metriche” e i campioni di “volume o di forma” che nelle varie piazze dei mercati N. 01ƒ ;2012 Palermo, ma nei fatti rigorosamente lontani dai pesi e dalle misure del continente. Molti storici hanno paura ad affermare esplicitamente che il decennio Francese tolse ai Borbone anche in campo metrico, così come in campo sociale e di organizzazione dello stato, tante rogne, introducendo regole e norme che sotto gli stessi Borbone non avrebbero mai avuto rapida attuazione, influenti come ancora erano nel loro regno il clero e la nobiltà. Ma una lettura attenta di questa legge metrica, connessa a una valutazione critica degli avvenimenti coevi, non può non validare questa affermazione [20,21]. Va quindi documentato che, nel lunghissimo arco dei quattro secoli che dividono le due leggi metriche unitarie delle due Sicilie, le attività metriche nel Regno avevano continuato a essere il caposaldo organizzativo dei mercati, seppur mantenendo sempre la ricordata separazione tra “le Sicilie” specchio di un regno che, come molti sanno, era organizzato su due capitali e su due megaterritori al loro completo sostegno nonché con due sole Università attive (retaggio quest’ultimo che ha condizionato lo sviluppo e la diffusione della cultura nei territori meridionali). In una giusta ottica storica vanno quindi inquadrati episodi più che significativi che testimoniano delle istanze tante volte sottoposte alla sensibilità del Re da militari e da commercianti (in questo sostenuti dagli scienziati del regno) purtroppo mai ascoltate. Così come vanno ricordati in questo contesto i contributi alla codifica delle unità e dei campioni presenti nella storia e ▲ definita tramite un recipiente cubico di dimensioni note (1 palmo) riempito di olio di oliva, quest’ultimo individuato come fluido “universale”, visto il respiro prettamente agroalimentare dei mercati da regolare [18]. Detta legge era avanzatissima per i suoi tempi, ed è documentabile come essa sia frutto, solo dopo pochi secoli di unità del regno, della osservazione che Federico II all’atto della sua incoronazione evidenzia sulla “diversità siciliana” delle misure in uso “al di qua e al di là del fiume Salso” [17,18]. Un’altra splendida testimonianza di unificazione metrica è la legge borbonica, sempre del 6 aprile, ma del 1840 (sarebbe divertente poter provare storicamente che la data di promulgazione fu volutamente da qualcuno resa sincrona). Legge che, nel cercare di sintetizzare gli eventi metrici vissuti nel regno nei primi anni dell’800 e connessi alla travolgente sequenza (i) della rivoluzione napoletana, (ii) del decennio francese e (iii) della restaurazione borbonica, reintroduce i campioni di Napoli capitale [19]. Ridenominandoli secondo tradizione (ritornano la canna metrica e altri nomi noti), adeguandoli nelle definizioni alle vincenti tecnologie impostesi nel decennio Francese (che aveva dato luogo a una ricchezza di manufatti e successi quali quelli della Real Scuola di Ponti e Strade che poi diventerà Facoltà di Ingegneria dell’Università oggi intitolata a Federico II), nonché riorganizzando multipli e sottomultipli su base decimale, e cioè riconoscendo alla decimalità una praticità attuativa che è ormai patrimonio dell’umanità e della intera comunità socio economica. La legge borbonica prova a sintetizzare e aggiornare i quattro secoli di “vigenza unitaria” delle regole metriche degli Aragona, che il su evidenziato federalismo e antagonismo napoletano e siciliano invece avevano abbondantemente “tradito” con una inconfutabile divergenza fra gli “usi” riferibili ai campioni di Napoli capitale e quelli della tradizione autonomistica siciliana, non collegati univocamente alla seconda capitale STORIA E CURIOSITÀ nelle poche (rispetto all’Italia dei comuni) steli metriche esistenti nel regno (a eccezione del distrutto monumento dei pesi e misure nel tribunale e della splendida lapide metrica del Duomo di Acireale). Si inquadrano poi nello scenario dell’unificazione metrica anche il fiorire di lodi, anche di autori meridionali, all’unificazione e alla universalità del sistema metrico decimale che caratterizzarono l’avvio del processo unitario e della codifica di una metrologia universale [22]. Infine c’è da sottolineare, in un momento storico quale quello attuale, che fu proprio il federalismo a impedire nelle due Sicilie la promulgazione di leggi metriche unitarie e aggiornate, e che invece nei principati degli estensi, in quello toscano, e in quello di Milano esistono testimonianze storiche più che interessanti sul processo di unificazione metrica. Nessuna risulta però eccelsa nella efficacia attuativa quale quella piemontese. Questa infatti si distinse per il “gioco di squadra” che si verificò in quegli anni tra Stato e Chiesa sotto l’influenza determinante di Don Bosco, il che permise, proprio per il tramite delle parrocchie, la diffusione territoriale delle nuove unità decimali contribuendo al successo irreversibile del Metro [23]. Interessante poi sarebbe poter approfondire il tema della unifica- T_M ƒ 77 N. 01ƒ ; 2012 ▲ STORIA E CURIOSITÀ vicende metriche e della consolidata presenza nelle Università torinesi di valenti studiosi di metrologia i due gioielli, Istituti Metrologici Primari (IEN e IMGC) sono recentemente confluiti in un unico istituto l’INRIM a Torino, nel quale si svolge la quasi totalità della ricerca metrologica italiana e delle attività correlate di diffusione e mantenimento dei campioni di misura. Una specificità torinese alla quale, da rappresentante delle terre dei Borbone, ho avuto il piacere e l’onore di partecipare, sempre ben accolto. RINGRAZIAMENTI zione monetaria del neonato Regno d’Italia, quale principale concausa della rapidità attuativa dell’unificazione metrica. Visto che, come molti sanno, per l’imprevedibilità e la rapidità dell’unificazione restarono in corso legale per anni monete auree coniate dai differenti stati preunitari e agli ufficiali metrici del tempo fu imputato anche, se non principalmente, il ruolo di verificatori dei contenuti in oro di dette monete, a garanzia del consumatore e della fede pubblica [12,13,24]. Principio quest’ultimo ispiratore di quella branca della metrologia denominata metrologia legale. Branca che trasse dalla su menzionata firma della Convenzione del Metro del 1875 tanta linfa vitale da dar luogo, alla fine del 1800, a una legge metrica tanto dettagliata e perfetta da saper resistere, sin quasi ai nostri giorni, a tutte le novità che hanno interessato la metrologia e i mercati [25]. Occorre oggi poi evidenziare che il primato metrologico del Piemonte e di Torino, capitale della metrologia italiana, si inquadra perfettamente in quanto detto, visto che sulla scia delle T_M ƒ 78 L’autore ringrazia la Prof. Costanza D’Elia e i tanti amici e colleghi, metrologi e non, che hanno voluto reperire atti e documenti metrici utili. Doveroso è poi un pensiero di commosso ricordo per l’amico collega Prof. Sigfrido Leschiutta autore di tante opere storiche sulla metrologia piemontese alle quali l’autore si è indegnamente ispirato riconoscendolo Maestro. BIBLIOGRAFIA 1. Tillet M. e anonimo “Saggio rapporti dei pesi stranieri con il marco di Francia”, Adunanza Pubbl. Acc. Francia 9 aprile 1766 e stamperia SAR Firenze 1799; 2. Melchiorre Delfico “Sulla necessità di rendere uniformi i pesi e le misure del Regno”, Stamp. Reale Acc. Militare, Napoli 1787; 3. Adler K. “La misura di tutte le cose”, Rizzoli editore, Milano 2002; 4. Cipolla M. “Storia economica dell’Europa preindustriale”, Universal Paperbooks, Il Mulino, Bologna 1980; 5. Tucci U. “Pesi e misure nella Storia d’Italia”, Einaudi, Torino 1973; 6. Leschiutta S. “L’arte della misura del tempo presso le cortigiane e altre curiose storie……”, Quaderni GMEE, Torino 2008; 7. Anonimo, Don G. Bosco?, “Lezioni popolari sul sistema metrico”, Stamp. Sociale degli Artisti Tipografi, Torino 1849; 8. De Lorenzo R. “Storia e Misure”, Franco Angeli, Milano 2007; 9. Griserini F. “Dizionario delle Arti e dei Mestieri”, M. Fenzo, Venezia 1768-78; 10. Frosoni G. “Il giovane istruito nell’arimmetrica pratica…… delle principali piazze d’Europa loro monete, pesi e misure”, G. Cambiagi, Firenze 1792; 11. De Simone E. “Storia Economica, dalla Rivoluzione Industriale alla Rivoluzione”, Franco Angeli Ed., Milano 2008; 12. Lombardi L. “Storia del sistema metrico e l’opera dell’ufficio internazionale di pesi e misure”, Soc. It. Progr. Scienze, Roma 1941; 13. Francisci P. “La Convenzione del Metro e la Metrologia legale”, Edizioni CieRe, Roma, 2003; 14. Sestini M.C. “La rivoluzione Metrologica”, Tesi- Università di Camerino A.A. 2007-08; N. 01ƒ ;2012 NEWS ■ 15. Tacchini A. “La metrologia universale e il codice metrico internazionale”, Hoepli, Milano, 1845. 16. Vigo P. “Metrologia e Società: l’evoluzione dei Codici delle Misure nel Sistema Metrico Decimale”, DIMSAT, Cassino 2006; 17. Salvati C. “Misure e Pesi nella documentazione storica dell’Italia del Mezzogiorno”, L’arte Tipografica Napoli, 1976; 18. Iovieno S. “Legal Metrology in the city of Naples during Aragonesi domination”, OILM Bulletin Vol XL n. 4, 1999; 19. Vigo P. “Metrologia e Società Civile un binomio in continua evoluzione anche nella nostra Italia”, L’arte della misura ed. CieRe Roma 2003; 20. Zerbi R. “La Polizia Amministrativa Municipale del Regno delle Due METROLOG XG E METROLOG X4 SOLUZIONI PRONTE PER IL FUTURO Metrolog è un software 3D polifunzionale, che soddisfa tutte le esigenze di misura e di controllo qualità. Metrologic Group offre la possibilità, unica nel suo genere, di connettere il Metrolog a tutti i sistemi di misura 3D presenti sul mercato siano essi a contatto oppure ottici, dai bracci portatili sino ai laser tracker, passando per gli scanner 3D manuali, CMM manuali e automatiche. Sviluppato da un gruppo forte di 30 anni d’esperienza, integra Sicilie”, Tipografia Urania, Napoli, 1846; 21. Molinari V. “Trattato di Metrologia Universale”, Stab. Tipogr. Servio Tullio, Napoli 1862; 22. Alfano de Rivera Carlo “Tavole di riduzione dei pesi e delle misure delle Due Sicilie in quelli statuiti dalla legge del 6 aprile 1840”, Stamperia del Fibreno, 1840; 23. Leschiutta S. “Il Metro è bello, è difficile, ma soprattutto va insegnato”, Torino 1999; 24. Roth J. “Il peso Falso”, Aldelphi, 1999: 25. Russi A., Vigo P. “Dall’antropomorfo all’universale: l’evoluzione dei codici e delle misure nella storia italiana”, II Convegno Nazionale Storia dell’Ingegneria, Salerno, 2006. tutte le ultime tecnologie in materia di controllo tridimensionale. Si possono effettuare misure di tipo geometrico (algoritmi certificati da PTB e NIST) e di misure libere (curve e superfici) con qualsiasi tipo di sistema CAD. La scalabilità della soluzione è assicurata grazie alla realizzazione di pacchetti applicativi che consentono alle aziende appartenenti al settore automotive aerospaziale, construction, energia ecc., di accedere alla migliore configurazione in relazione alla tipologia di attività. Metrolog fornisce anche funzionalità specifiche quali le GD&T (ISO-ASME) studiate per la gestione avanzata delle tolleranze geometriche nonché moduli opzionali concepiti per l’acquisizione diretta o l’import della nube di punti, come anche per la misurazione delle pale e palette di turbine o la misura e analisi di ingranaggi. Metrologic Group è una multinazionale, di origine francese, leader mondiale nello sviluppo e ■ STORIA E CURIOSITÀ Paolo Vigo è Professore Ordinario presso l’Università degli Studi di Cassino. Dal 2000 al 2008 è stato Presidente del Comitato Centrale Metrico del Ministero delle Attività Produttive. Dal 2001 al 2009 è stato Rettore dell’Università degli Studi di Cassino. È attualmente Prorettore dell’Università di Cassino e Presidente del Palmer, Parco Scientifico e Tecnologico del Lazio Meridionale. Dal 1986 collabora con l’Istituto di Metrologia G. Colonnetti del CNR di Torino e dal 2006 è Consigliere di Amministrazione dell’Istituto Nazionale di Ricerca in Metrologia I.N.Ri.M. di Torino in cui l’IMGC è confluito. È Vicepresidente con delega al settore Taratura di ACCREDIA, Ente Unico nazionale per l’Accreditamento. nella produzione di sistemi di controllo dimensionale e nella fornitura dei servizi collegati. Le nostre attività sono: l’equipaggiamento elettronico hardware e software di macchine di misura tridimensionali (CMM) nuove o usate (retrofit), la fornitura di sistemi di controllo on-line, la formazione, la manutenzione e la calibrazione delle CMM. La dimensione internazionale è garantita da una rete di vendita estesa a 30 paesi e dalla presenza delle filiali in Italia, USA, Germania, Spagna, Cina, e Svezia. Per ulteriori informazioni: www.metrologicgroup.com T_M ƒ 79 T U T T O _ M I S U R E Anno XIV - n. 1 - Marzo 2012 ISSN: 2038-6974 Sped. in A.P. - 45% - art. 2 comma 20/b legge 662/96 - Filiale di Torino Direttore responsabile: Franco Docchio Vice Direttore: Alfredo Cigada Comitato di Redazione: Salvatore Baglio, Antonio Boscolo, Marcantonio Catelani, Marco Cati, Pasquale Daponte, Gianbartolo Picotto, Luciano Malgaroli, Gianfranco Molinar, Massimo Mortarino Redazioni per: Storia: Emilio Borchi, Riccardo Nicoletti, Mario F. Tschinke Le pagine delle Associazioni Universitarie di Misuristi: Stefano Agosteo, Paolo Carbone, Carlo Carobbi, Alfredo Cigala, Domenico Grimaldi, Claudio Narduzzi, Marco Parvis, Anna Spalla Lo spazio delle altre Associazioni: Franco Docchio, Giuseppe Nardoni Le pagine degli IMP: Domenico Andreone, Gianfranco Molinar, Maria Pimpinella Lo spazio delle CMM: Alberto Zaffagnini Comitato Scientifico: ACISM-ANIMA (Roberto Cattaneo); AEI-GMTS (Claudio Narduzzi); AIPnD (Giuseppe Nardoni); AIS-ISA (Piergiuseppe Zani); ALPI (Lorenzo Thione); ANIE (Marco Vecchi); ANIPLA (Marco Banti, Alessandro Ferrero); AUTEC (Anna Spalla), CNR (Ruggero Jappelli); GISI (Abramo Monari); GMEE (Giovanni Betta); GMMT (Paolo Cappa, Michele Gasparetto); GRUPPO MISURISTI NUCLEARI (Stefano Agosteo) INMRI – ENEA (Pierino De Felice, Maria Pimpinella); INRIM (Elio Bava, Flavio Galliana, Franco Pavese); ISPRA (Maria Belli); OMECO (Clemente Marelli); SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa); SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli) Videoimpaginazione: la fotocomposizione - Torino Stampa: La Grafica Nuova - Torino Autorizzazione del Tribunale di Casale Monferrato n. 204 del 3/5/1999. I testi firmati impegnano gli autori. A&T - sas Direzione, Redazione, Pubblicità e Pianificazione Via Palmieri, 63 - 10138 Torino Tel. 011 0266700 - Fax 011 5363244 E-mail: info@affidabilita.eu Web: www.affidabilita.eu Direzione Editoriale: Luciano Malgaroli Massimo Mortarino È vietata e perseguibile per legge la riproduzione totale o parziale di testi, articoli, pubblicità e immagini pubblicate su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc. ABBONAMENTO ANNUALE: 36 EURO (4 numeri cartacei + 4 numeri telematici) ABBONAMENTO BIENNALE: 66 EURO (8 numeri cartacei + 8 numeri telematici) Abbonamenti on-line su: www.tuttomisure.it L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato della formazione alla Qualità aziendale. NEL PROSSIMO NUMERO • Il tema: Controlli e misure sensori e soluzioni innovative • MEMS per rilevare il movimento umano • La competenza nei laboratori di taratura E molto altro ancora T_M N. ABBIAMO LETTO PER VOI ■ La Redazione di Tutto_Misure (franco.docchio@ing.unibs.it) LA VITA INASPETTATA – IL FASCINO DI UN’EVOLUZIONE CHE NON CI AVEVA PREVISTO di Telmo Pievani Scienza e Idee – Raffaello Cortina Editore 253 pagine ISBN 9788860304070: € 17,85 (amazon.com), 2011 Interrogato da un teologo su quale fosse la caratteristica più spiccata di Dio creatore, il biologo inglese J.B.S.Haldane rispose: “Una smodata predilezione per i coleotteri”. All’epoca se ne consideravano circa quattrocentomila specie contro... una sola del genere Homo. E forse i coleotteri popoleranno il pianeta quando Homo sapiens non sarà nemmeno più un ricordo. Frutto di cosmica contingenza, uno dei tanti arbusti del “cespuglio della vita” sopravvissuti alla lotta per l’esistenza, l’essere umano si è fatto strada in una natura che non perde occasione di schiacciarlo, facendogli provare il senso della solitudine nell’Universo. In questo libro Telmo Pievani ci rammenta che la comparsa degli organismi viventi è stata un fenomeno inatteso, e ne ricostruisce la storia evolutiva come un intrico di biforcazioni privo di direzioni privilegiate, sicché anche l’animale uomo si rivela tutt’altro che l’eccezione animata dalla scintilla divina. Proprio in questo modo si conquista una rinnovata solidarietà con tutta la “rete del vivente”, come la chiamava Charles Darwin, senza nessuna concessione a fondamentalismi e superstizioni. L’autore è professore associato di filosofia della scienza presso la facoltà di scienze della formazione dell’Università degli studi di Milano-Bicocca. Ha ricoperto gli insegnamenti di epistemologia e di epistemologia evolutiva. Dal 2007 è vice-direttore del dipartimento di scienze umane per la formazione “Riccardo Massa” e vice-presidente del corso di laurea in scienze dell’educazione. LE AZIENDE INSERZIONISTE DI QUESTO NUMERO AEP Transducers p. 2 Affidabilità & Tecnologie 3a di cop Aviatronik 4a di cop Bocchi p. 38 CAM 2 p. 58 CCIAA di Prato p. 32 Cibe p. 26 Coop. Bilanciai Campogalliano p. 62 Danetech p. 70 Delta Ohm p. 10 DGTS p. 40 DSPM Industria p. 64 Fluke-CalPower p. 12 Hexagon Metrology p. 4 HBM p. 34-60-72 IC&M p. 48 1/12 ƒ 80 Kistler Italia Labcert LMS Italiana LTTS Luchsinger Mager Metrologic Group Mitutoyo Italiana PCB Piezotronics Physik Instrumente Renishaw Rupac Soc. Bilanciai Porro Vision Engineering Wika Italia p. 20-74 p. 36 p. 46-74 p. 16 p. 22 p. 50 p. 79 p. 1 p. 74 p. 56 p. 6 2a di cop p. 52 p. 72 p. 30
© Copyright 2024 Paperzz