Storia dei linguaggi e struttura di un compilatore - Home

Lezione 1 - I primi linguaggi: basso livello
Corso — Programmazione
Linguaggi di programmazione— Storia della programmazione
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Il primo linguaggio teorico
• Charles Babbage è stato il matematico e filosofo
britannico, che per primo ebbe l'idea di un calcolatore
programmabile (macchina differenziale e macchina
analitica)
• Ada Lovelace, discepola e collaboratrice di Babbage,
definì il primo linguaggio di programmazione (1837).
• Era un linguaggio di tipo assemblativo, ma lavorava su
una macchina teorica
• Introdusse il concetto di ciclo ripetuto e il concetto di
variabile indice.
• La realizzazione della macchina analitica non fu mai
portata a termine.
Primi calcolatori (1)
• Lo Z3 è il primo calcolatore totalmente programmabile e
totalmente automatico (ideato dall'ingegnere tedesco
Konrad Zuse) (1941)
• Nel 1998 è stato dimostrato che lo Z3 è Turing completo (
stesso potere computazionale di una macchina di Turing
universale)
• Zuse fu il primo programmatore della storia ad agire su
una macchina realmente programmabile
• Lo Z3 fu utilizzava il codice binario
• Utilizzava una tecnologia Elettromeccanica
• Atanasoff-Berry Computer (ABC) completamente
elettronico
• Non era Turing completa
• Elaborazione e memorizzazione separati
Primi calcolatori (2)
• Electronic Numerical Integrator and Computer
• Il primo computer elettronico general purpose della storia
• Costruito dal 1943 al 1945
• Programmazione definita da circuiti elettrici
• L'ENIAC era decimale mentre lo Z3 era già binario.
• Programmare l'ENIAC voleva dire riscrivere il programma
mentre lo Z3 poteva caricarlo da nastro perforato.
• Tutti gli attuali computer hanno un disegno progettuale
che ricorda più lo Z3 che l'ENIAC.
• La macchina non aveva un programma registrato: sei
donne erano impegnate a muovere commutatori e
connettere cavi.
Linguaggio di programmazione concreto
• Konrad Zuse, sviluppò il Plankalkül (1943 1945 ).
• Sviluppò il linguaggio mentre se ne stava nascosto sulle
Alpi della Baviera in attesa della fine della Seconda Guerra
Mondiale.
• Usò il suo linguaggio come opponente nel gioco degli
scacchi sul suo computer Z3.
• Il linguaggio era già in grado di gestire sia tabelle che
strutture di dati.
• Il Plankalkül rimase seppellito in qualche archivio in
Germania per molto tempo.
Linguaggio macchina(1)
• Una sequenza di bit. LOAD 8 potrà essere rappresentata
in una macchina reale come 00110100, dove 0011 è la
rappresentazione interna del codice operativo LOAD
• I linguaggi di programmazione coincidevano con l'insieme
delle istruzioni eseguibili dall'hardware.
• Enorme sforzo richiesto per codificare algoritmi semplici.
Linguaggio macchina(2)
• Sono specifici della macchina.
• Ogni CPU ha il proprio linguaggio macchina.
• Occorre conoscere l architettura della macchina per
scrivere programmi.
• I programmi non sono portabili.
• I codici sono illeggibili all' uomo.
• I programmatori si specializzano nel cercare efficienza su
una macchina specifica, anziché concentrarsi sul
problema.
Linguaggio assembly
• Codifica di tipo simbolico, anziché binaria, dei programmi:
è meglio risparmiare il tempo dell'uomo anche a costo di
sprecare tempo macchina (una parte del tempo è dedicata
alla traduzione di programmi, non alla loro esecuzione
diretta)
• In assembly ogni istruzione è identificata da una sigla
piuttosto che da un numero e le variabili sono
rappresentate da nomi piuttosto che da numeri.
• I programmi scritti in assembly necessitano di un apposito
programma assemblatore per tradurre le istruzioni tipiche
del linguaggio in istruzioni macchina.
• Oggi si utilizza l' assembly solo se esistono vincoli
stringenti sui tempi di esecuzione.
Lezione 2 - I primi linguaggi: alto livello
Corso — Programmazione
Linguaggi di programmazione— Storia della programmazione
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Linguaggi ad alto livello
• Tra gli anni 50 e 60 si passo ai linguaggi ad alto livello,
anche se qualche concetto era già stato introdotto prima
• Si tratta di un passaggio stabilito da un maggior uso di tali
linguaggi
• Essi richiedono un compilatore o un interprete che sia in
grado di tradurre le istruzioni del linguaggio di alto livello
in istruzioni macchina di basso livello le uniche eseguibili
dal calcolatore
• Compilatori ed interpreti sono di gran lunga più complessi
di un assemblatore
FORTRAN
• Il FORmula TRANslator è stato sviluppato da un gruppo di
programmatori della IBM guidati da John Backus e
pubblicato per la prima volta nel 1957.
• Era stato progettato per facilitare la traduzione in codice
di formule matematiche.
• Data la sua semplicità di scrittura i programmatori
riuscivano ad essere fino a 500 volte più veloci in
FORTRAN che in altri linguaggi. E stato il primo linguaggio
``problem oriented'' anziché ``machine oriented''.
COBOL
• Sviluppato nel 1959 da un gruppo di professionisti riuniti
alla Conference on Data Systems Languages (CODASYL).
• Da allora ha avuto molte modifiche e miglioramenti. Nel
tentativo di superare le numerose incompatibilità tra le
varie versioni, l'American National Standards Institute
(ANSI) annunciò uno standard nel 1968, che produsse
l'ASN-COBOL.
• Il linguaggio continua ad evolversi ancora oggi, che è
disponibile in una versione object-oriented inclusa nel
COBOL 2002
LISP
• Nel 1958 John McCarthy fu incaricato di creare una lista di
specifiche per creare l'elaborazione simbolica.
• Il List Processing Language fu integrato come estensione
nel FORTRAN stesso.
• LISP segue i paradigma funzionale
• Un programma LISP può modificare se stesso crescendo
• Sia i dati sia i programmi sono delle liste. Per questo
motivo un programma in LISP può trattare altri
programmi al suo interno.
• E utilizzato nello studio della intelligenza artificiale.
Contiene il concetto di Garbage Collector
Linguaggi degli anni 60
• Algol - ALGOrithmic Language
Primo linguaggio con una sintassi formalmente definita
(BNF)
Primo linguaggio basato sui principi della programmazione
strutturata
Evoluzione: Algol 58, 60 e 68, parente del C e del PASCAL
Introdusse concetti fondamentali come il
record di attivazione
• BCPL Basic Combined Programming Language erede
di CPL mai decollato e progenitore di B e quindi anche di C
• Simula-67
Introduce il concetto di classe e oggetto
E' il progenitore del Java e di tutti i linguaggi orientati agli
oggetti
Linguaggi degli anni 70
• Pascal
Sviluppato per l' insegnamento
Ha avuto un grande successo anche nel mondo dell'
industria
Ha visto svilupparsi di versioni visuali (Delphi)
• Prolog
Introduce la programmazione logica
Si basa sul calcolo dei predicati del primo ordine
• Smalltalk
Prime interfacce grafiche
Object Oriented
• C
Concepito inizialmente come una sorta di assembler
strutturato
E diventato il linguaggio più affermato nella
programmazione di sistema
Linguaggi degli anni 80
• Ada
Omaggio alla prima programmatrice
ADA doveva rappresentare il punto di maturazione perfetta
di tutti i principi di costruzione del software e dei relativi
meccanismi linguistici elaborati negli anni precedenti.
• C++
Uno dei più usati linguaggi Object Oriented fino all'avvento
di Java
E' un'estensione del C, sviluppato da Bjarne Stroustrup
presso i Bell Laboratories.
Linguaggio Basic
• Evoluzione del Basic
Sviluppato nel 1964 presso l'Università di Dartmouth
Fu progettato per essere un linguaggio semplice da
imparare, nacque come linguaggio per principianti
Originariamente progettato come linguaggio compilato,
molte delle sue versioni più note sono interpretate
Una delle più famose versioni è il Microsoft BASIC,
sviluppato da Bill Gates, Monte Davidoff e Paul Allen
Il BASIC ha subito notevoli evoluzioni e cambiamenti,
diventando un linguaggio strutturato con potenzialità molto
simili a quelle di altri linguaggi più evoluti (e.g. Visual
Basic)
Nonostante le carenze si diffuse molto grazie ai personal
computer (Comodore64 basic, Atari e Amiga basic ecc.)
Basic versioni
• Non strutturato
10 LET C = A2 * A3 - A2
15 IF C = 0 THEN 55
20 READ D1, D2
• Strutturato
DO
INPUT Inserisci un numero , Num
LOOP WHILE num > 0
• A oggetti
PUBLIC SUB Button1Click()
DIM Num, Name AS String
IF TextBox1.Text <> `` THEN
Name = TextBox1.Text
ENDIF
END
Lezione 3 - Linguaggi attuali
Corso — Programmazione
Linguaggi di programmazione— Storia della programmazione
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Linguaggi degli anni 90
• Il linguaggio Java è derivato da un linguaggio chiamato
OAK, che fu sviluppato nei primi anni '90 alla Sun
Microsystem come linguaggio piattaforma indipendente
predisposto per applicazioni di intrattenimento come
console per video game e VCR per comunicazioni.
• OAK fu impiegato per la TV via cavo, per ordinare i
programmi da vedere.
• Mentre quel tipo di spettacolo on-demand tramontava, il
World Wide Web, invece, riscontrava sempre più interesse.
A quel punto i tecnici sviluppatori di OAK ci si buttarono a
capofitto, trasformando il programma OAK nel nuovo Java.
Java
• J. Gosling e A. Van Hoof si trovavano spesso ad un caffè
presso il quale discutevano del linguaggio stesso. E così il
linguaggio prese il nome da tale abitudine (Java è una
qualità di caffè dell'omonima isola dell'Indonesia).
• Il magic number che identifica un file .class è 0xCAFEBABE
(probabilmente riferendosi alla cameriera che li serviva).
C#
• La Microsoft propose alla Sun un accordo per apportare
modifiche al linguaggio, la Sun rifiuta, allora Microsoft
dichiara guerra alla Sun sviluppando il linguaggio C#
(siamo nel 2000), sviluppato sulla base di JAVA (ovvero
java con le modifiche che Microsoft aveva proposto alla
Sun che rifiutò)
Linguaggi di scripting
• Sono dei linguaggi di programmazione interpretati,
destinati in genere a compiti di automazione del sistema
operativo, lavori batch o usato per programmazione web
• La vera evoluzione si ebbe con l'introduzione del Common
Gateway Interface (CGI)
• Il CGI permise ai linguaggi di scripting di controllare i web
server per generare web dinamico
• Linguaggi famosi per questi scopi sono PHP, JSP e ASP,
Ruby e Python
• Perl iniziò come linguaggio di script ma poi si evolse in un
linguaggio adatto a coprire problematiche più ampie
Conclusioni unità
• In questa unità abbiamo visto rapidamente la storia della
programmazione fino quasi ai giorni nostri
• Abbiamo ripercorso una strada già vista nelle scorse
lezioni attraverso l'approccio evoluzionistico adottato nel
corso
• Da notare come concetti ad oggi affermati siano nati
molto tempo prima ma abbiano richiesto molto tempo per
concretizzarsi in un linguaggio effettivamente utilizzato
dalla massa dei programmatori
• L'evoluzione è un processo lento ma inesorabile e pilotato
dalle necessità
Lezione 1 - Introduzione
Corso — Programmazione
Linguaggi di programmazione— Compilatori ed interpreti
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Traduttori(1)
• La macchina astratta per la quale è scritto un programma
ad alto livello viene implementata sulla macchina reale
attraverso un traduttore
• Esistono 3 tipologie di traduttori: Compilatori, Interpreti,
Traduttori ibridi
• Compilatore: È un programma che traduce un
programma scritto in linguaggio ad alto livello in un
programma equivalente nel linguaggio macchina (della
macchina dove verrà eseguito)
Traduttori(2)
• Interprete: È un programma che simula direttamente la
macchina astratta sulla macchina concreta attraverso i
seguenti passi alcuni dei quali in comune con un
compilatore:
1. Verifica correttezza sintattica
2. Effettua la traduzione
3. Esegue il codice tradotto
Libro consigliato per approfondimenti: Compilers Principles, Techniques, and tools
Alfred V. Aho, Ravi Sethi, Jeffrey D. Ullman
Discende dal famosissimo libro chiamato Dragon book: Principles of Compiler Design
(difficile da reperire)
Compilatori (1)
• Genericamente traducono da un linguaggio ad un altro e
si occupano di controllare eventuali errori nel linguaggio
sorgente rispetto alla sua grammatica
• Quasi sempre traducono i programmi (sorgente) in
codice macchina specifico per una determinata
architettura hardware (oggetto)
• L'oggetto viene poi assemblato con altre funzioni di
libreria, o altri programmi, utilizzate dal programma
stesso tramite un linker formando l' eseguibile
Compilatori (2)
• Un programma per essere eseguito deve essere caricato
in memoria, il loader, si occupa del caricamento
• Abbiamo visto come è definito lo spazio di memoria
allocato al programma nel momento che viene eseguito
(dipende dal S.O.)
• La compilazione non genera obbligatoriamente il
linguaggio macchina della macchina ospite
(cross-compilatori)
• La cross-compilazione permette di creare eseguibili per
una piattaforma non dotata di un compilatore installato
• Esistono moltissimi tipi di compilatori (singolo passo, multi
passo...) nonostante questo i mattoni base son sempre gli
stessi
Compilatori (3)
Interpreti (1)
• Gli interpreti devono essere sempre attivi durante
l'esecuzione del programma principale
• Precisamente l'interprete è l'unico programma in
esecuzione, ed esegue il programma interpretato
• Esistono due tipologie di interpreti:
Machine Interpreters: simulano l'esecuzione di un
programma compilato per una particolare architettura es
Java usa un interprete bytecode e la Java Virtual Machine
(JVM)
Language Interpreters: simulano l'effetto
dell'esecuzione di un programma (senza compilarlo) scritto
per un particolare set di istruzioni. Una forma di
Intermediate Representation (IR), per esempio un AST
viene utilizzato per l'esecuzione es Ruby
Interpreti (2)
Vantaggi:
• Fase di debug (interattivo) facilitata permettendo
l'aggiunta o modifica di codice durante l'esecuzione
• Gli interpreti supportano a pieno l'indipendenza dalla
macchina
Svantaggi:
• Non si può ottimizzare il codice
• Esecuzione molto lenta
• Il tempo di startup ingombrante soprattutto per piccoli
programmi
• Sostanziale overhead di spazio
• Gli interpreti sono sfruttati prevalentemente per il debug e
lo sviluppo del programma, mentre e i compilatori per la
produzione dell'applicazione.
Interpreti (3)
• Le fasi di un interprete possono essere mappate sulle fasi
relative ad un parser che produca un output in formato
intermedio eseguibile dall'interprete
• Parsing: Analisi lessicale, sintattica e trasformazione in
rappresentazione intermedia spesso come albero AST.
• Esecuzione: La rappresentazione intermedia viene
eseguita in accordo con la semantica del linguaggio
• Esistono interpreti per un linguaggio scritti in un altro
linguaggio es Lispy (lisp interpretato con Python)
Traduttori ibridi
• Alcune versioni di Lisp permettono l'esecuzione di
programmi parzialmente interpretati e compilati
• Un approccio ancora più interessante è quello che sfrutta
il bytecode es. Java.
• E' un linguaggio macchina che però non è fruibile
direttamente dal processore, ma deve essere interpretato
dalla Java Virtual Machine (JVM), la quale non è altro che
un ulteriore strato di software che si interpone tra la
macchina reale ed il programma.
• Questo rende quindi il programma indipendente dal
processore (molto utile per il deploy su cellulari purchè
dotati di una JVM compatibile)
Compilazione ed interpretazione in
RAPTOR(1)
• RAPTOR permette di eseguire il flow chart del progetto in
due modalità
• Interpretazione: modalità nella quale le singole istruzioni
vengono interpretate blocco per blocco. Utile per il debug
e per i primi programmi semplici
• Compilazione: il flow chart viene pseudo-compilato e può
essere eseguito all'interno di raptor in maniera più
performante. Le performance derivano soprattutto dal
fatto che non viene più gestita la visualizzazione del flusso
del flow chart, ma viene direttamente eseguito
Compilazione ed interpretazione in
RAPTOR(2)
• RAPTOR permette anche di fare il packaging delle
applicazioni nella modalità standalone. In tale modalità
viene generato un eseguibile del programma associato
alle librerie di raptor basilari per la sua esecuzione.
Conclusioni
• Un programmatore deve sapere bene come funziona il
traduttore del linguaggio che utilizza
• Agli albori era fondamentale per poter scrivere codice
ottimizzato
• Ad oggi meno determinante per l'ottimizzazione dato che i
traduttori possono ottimizzare il codice
• Fondamentale comunque per capire il meccanismo delle
librerie, la portabilità del codice
• Interessante applicazione di tecniche di programmazione
evolute
• Steve Yegge: <<If you don't know how compilers work,
then you don't know how computers work>>
Lezione 2 - Compilatori parte I
Corso — Programmazione
Linguaggi di programmazione— Compilatori ed interpreti
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Compilatori
• Il compilatore è esso stesso un programma (i primi furono
scritti in assembler)
• I compilatori Pascal e C sono detti auto-compilanti perchè
furono scritti negli stessi linguaggi (Il primo compilatore
auto-compilato, fu creato per il linguaggio Lisp da Hart e
Levin 1962)
• Ovviamente il primo compilatore di quel linguaggio deve
essere per forza scritto in un altro linguaggio (problema
del bootstrapping) oppure compilato facendo operare il
compilatore come un interprete
• Storicamente furono scritti con grandi ``ottimizzazioni''
date le limitate capacità dei calcolatori
• I compilatori consentono ai programmatori di ignorare i
dettagli machine-dependent della programmazione
(compilatori visti come delle black-box)
Compilatori: obiettivi
• Correttezza (errori ortografici e logici) e Sicurezza (Java
Bytecode Verifier)
• Protezione della proprietà intellettuale (parziale se non
espressamente offuscati)
• Efficienza
• Supportare l'espressività del linguaggio
• Offrire un ``ambiente di programmazione''
• Consentono indirettamente di sfruttare le opportunità
offerte dai dettagli architetturali di basso livello: Scelta
delle istruzioni, Metodi di indirizzamento, Pipelines, Uso
della cache, Parallelismo a livello di istruzione
I compilatori sono necessari per coprire il gap tra i linguaggi di alto livello e quelli di
basso
Sistema di processazione del linguaggio
Struttura di un compilatore(1)
• Ci sono due fasi fondamentali in un compilatore: Analisi e
Sintesi
• Analisi: viene spezzato il sorgente nei suoi pezzi
costituenti e creata una rappresentazione intermedia del
programma sorgente attraverso analisi Lessicale,
Sintattica, Semantica ed un
Generatore di codice intermedio.
• Sintesi: viene creato, partendo dalla rappresentazione
intermedia, il programma target equivalente attraverso il
generatore di codice e l' ottimizzatore.
Struttura di un compilatore(2)
Struttura di un compilatore(3)
• Due attività vengono utilizzate in quasi tutte le fasi
appena viste e questi sono:
• Symbol table: Una funzione essenziale di un compilatore
è quella di registrare gli identificatori usati e i loro
attributi. Si tratta di una struttura dati contenente un
record per ogni identificatore con i relativi attributi. La
fase lessicale individua le entry della tabella ma non gli
attributi che vengono definiti nelle fasi successive. Gli
attributi vengono usati in fasi come l'analisi semantica e la
generaione del codice intermedio.
• Gli attributi della symble table vengono aggiornati durante
i vari passaggi
Struttura di un compilatore(4)
• Error Handler: In ogni fase possono capitare errori che
devono essere gestiti per evitare che ad esempio si
termini la fase di compilazione troppo frettolosamente. Gli
errori sono soprattutto gestiti dalle fasi sintattiche e
semantiche.
Lessicale: valuta se i token appartengono al linguaggio.
Sintattica valuta se le stringhe di token validi violano le
regole strutturali del linguaggio.
Semantica valuta se le strutture sintatticamente corrette
hanno un significato valido per gli operatori coinvolti
Programmi a supporto (1)
• Preprocessore: Genera l'input per il compilatore
Processa le macro
Inclusioni di file esterni
Preprocessatori razionali che aggiungono a vecchi linguaggi
non ben strutturati, costrutti per il controllo di flusso più
attuali attraverso macro specifiche non appatenenti al
linguaggio
Estensioni al linguaggio che permettono di aggiungere
capacità al linguaggio attraverso macro
Programmi a supporto (2)
• Assemblatore: Alcuni compilatori generano codice
assembler che viene quindi passato ad un assemblatore
per la generazione di codice macchina rilocabile da
passare al linker/loader
Primo passo: trovo tutti gli identificatori che indicano una
locazione di storage e li inserisco in una symble table (non
la stessa del compilatore) indicando anche la locazione
Secondo passo: rifaccio la scansione e trasformo le
operazioni nella sequenza di bit relativa che rappresenta
l'operazione nel linguaggio macchina usando anche le
locazioni della symble table trasformate in indirizzi
Programmi a supporto (3)
• Loader e linker: Agisce sul codice rilocabile associandolo
ad un area di memoria usando un indirizzo di base o
modificando gli indirizzi relativi nel codice macchina.
• Il linker permette di associare più codici macchina in un
unico programma. Per far questo occorre tener traccia dei
riferimenti esterni
• I riferimenti esterni vengono risolti nelle chiamate corrette
Front end Back end
• Le fasi possono anche essere logicamente raggruppate nel
momento in cui si vuole sviluppare un compilatore:
• Front end: include fasi lessicale, sintattica, creazione
della symble table, semantica, generazione del codice
intermedio (anche una parziale ottimizzazione a volte),
error handling che riguarda queste fasi
• Back end: tutta la parte specifica della macchina target e
che non dipende dal linguaggio di programmazione ma dal
linguaggio intermedio. Ottimizzazione specifica,
generazione del codice, symble table e error handling di
queste fasi
• Cross compilazione: stesso front end ma back end
specifici
• Front end multipli per la stessa macchina (non molto
successo date le differenze tra linguaggi)
Classificazione di un compilatore (1)
• Numero di passi: compilatori a singolo passo compilatori a più passi
• Ottimizzazione: di tempo spazio e potenza dissipata
• Linguaggio oggetto prodotto
Pure machine code: generato senza assumere la
presenza di un particolare sistema operativo o libreria di
funzioni
Classificazione di un compilatore (2)
• Augmented machine code: generato per un particolare
set di istruzioni macchina arricchito considerando la
presenza di un sistema operativo o di una collezione di
routine di supporto ad esempio all' I/O e per l' allocazione
di memoria. Differenza tra codice virtuale generato e
hardware
• Virtual machine code: composto esclusivamente da
codice virtuale, permette di generare codice eseguibile
indipendente dall'hardware.
Un compilatore ``Just in Time'' (JIT) può tradurre porzioni di virtual code in codice
nativo per velocizzare l'esecuzione.
Classificazione di un compilatore (3)
• Formato target prodotto:
Assembly Language: viene prodotto un file di testo
contenente il codice sorgente assembler. Alcune decisioni
di generazione vengono lasciate all'assemblatore (symbolic
format). Il fatto che si generi codice assemply semplifica il
dubug e la comprendione di come funziona un copilatore
(approccio didattico)
Relocatable Binary Format: il codice può essere
generato in un formato binario con riferimenti esterni e con
gli indirizzi dei dati non ancora soggetti a vincoli. La
determinazione degli indirizzi avviene rispetto all'indirizzo
di base dell'oggetto o rispetto ad una unità denominata
simbolicamente. Il linker consente di aggiungere le librerie
di supporto e altre routine compilate separatamente
producendo un formato binario assoluto ed eseguibile del
programma.
Classificazione di un compilatore (4)
• Memory-Image: il codice compilato può essere caricato
in memoria ed immediatamente eseguito. La possibilità di
utilizzo di librerie può essere limitata. Il programma deve
essere ricompilato per ogni esecuzione (Absolute Binary)
Compilatori a due passi
• Sfrutta l'aggregazione front end, back end
• Front end: il compilatore traduce il sorgente in un
linguaggio intermedio dipende dal linguaggio sorgente,
ma è indipendente dalla macchina target
• Back end: generazione del codice oggetto e
l'ottimizzazione, indipendente dal linguaggio sorgente, ma
dipende dalla macchina target
Implicazione della compilazione a due passi : rende più semplice la costruzione di un
compilatore per un nuovo processore (retargeting), in aggiunta consente di progettare
compilatori con multipli front-end.
Lezione 3 - Compilatori parte II
Corso — Programmazione
Linguaggi di programmazione— Compilatori ed interpreti
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Analisi Lessicale
• Legge il programma sorgente carattere per carattere e
ritorna i token del programma sorgente. I token sono gli
elementi minimi di un linguaggio (parole chiave, nomi di
variabili, operatori).
• Implementato come automa a stati finiti deterministico
• Programma di scan o scanner
• Identificatori memorizzati nella symble table assieme agli
attributi rilevabili
Esempio: 32+29 +10 diventa <num,32>
<+,><num,29><+,><num,10> con num il token che
rappresenta gli interi
L'attributo non ha ruolo nel parsing ma serve
successivamente
Fase di analisi Lessicale(1)
• Vengono eliminate le informazioni non necessarie presenti
nel codice sorgente (commenti)
• Vengono processate le direttive di compilazione (include,
define, etc)
• Vengono scoperti eventuali errori nel lessico
• Si tiene traccia nell'error handling della riga in cui è stato
rilevato l'errore
a = b ∗ 10
token:
a identificatore
:= assegnamento
b identificatore
* operatore moltiplicazione
10 numero
Fase di analisi Lessicale(2)
• Indentificatori: Utilizzati come nomi per variabili
funzioni ecc
Per una grammatica un identificatore è un token
contatore := contatore + incremento per la grammatica è
una cosa del tipo id := id + id
I lessemi (contatore e incremento) servono per capire a
che istanza è associato il token e vengono inseriti nella
symble table
Un lessema è una sequenza di caratteri che genera un
match con un pattern per le generazione di token
I lessemi vengono scritti nella symble table e un puntatore
ai lessemi viene associato al token id come attributo
• Keyword: identificano i costrutti, sono costruiti secondo
le regole che generano un identificatore
Problema: capire se un lessema è un identificatore o una
keyword
Si risolve con le keyword riservate
Una keyword è generata da un pattern unico per ogni
keyword
• Pattern: Un token tipo relazione è espresso dall'elenco
Fase di analisi Lessicale(3)
• L'analizzatore lessicale quindi legge i caratteri li associa in
lessemi e passa i token formati dai lessemi con i relativi
attributi allo stage successivo del compilatore
• A volte per farlo deve leggere avanti. Esempio se legge <
deve leggere il prossimo carattere per capire se si tratta di
<=
• A livello lessicale solo pochi errori posono essere
identificati, data la visione molto localizzata
dell'analizzatore lessicale
• Esempio fi (a==f(x))... è un if scritto male o un
identificativo di funzione?
Fase di analisi Lessicale(4)
• Grammatica:
stmt → if expr then stmt | if expr then stmt
else stmt | expr → term relop term | term
term → id | num
• I terminali in grassetto sono generati da espressioni
regolari
if → if; then → then; else → else
relop → <|>|<=|>=|!=|=
letter → A|B|· · · |Z|a|· · · |z
digit → 0|1|· · · |9
id → letter(letter|digit)∗
num → digit + (. digit + )?(E(+|-)?digit + )?
• L'operatore ? indica zero o una istanza
• Notazione esponenziale 6.44E-5
• Questo num rappresenza interi senza segno e valori reali
con notazione esponenziale stile Pascal
Fase di analisi Lessicale(5)
• Considerando i lessemi separati da spazi bianchi allora
servirebbero anche le definizioni di questi spazi
delim → blank | tab | newline
ws → delim+
• Se l'analizzatore lessicale trova un ws non torna token
Fase di analisi Lessicale(6)
• Dato che si usano le espressini regolari lo strumento che
serve per riconoscerle è la ASFD a volte uno strumento
analogo chiamato transition diagram
• Il transition diagram permette di ritornare in modo
esplicito anche l'attributo associato al token che in questa
fase potrebbe essere:
Un puntatore alla symbte table per identificatori (id) e
numeri (num)
Una costante simbolica che dice cosa fa il simbolo letto es:
LT per il simbolo < con token relop
Fase di analisi Lessicale(7)
• Le tecniche usate per la scrittura di un analizzatore
lessicale possono essere usate in molti altri ambiti
• Il problema è quello di specificare e progettare programmi
che eseguono azioni scatenate da pattern (linguaggi
specifici pattern programming come lex)
• Descrizione di pattern tramite espressioni regolari
• Tool per la generazione di un analizzatore lessicale
Fase di analisi Lessicale:tool(1)
• Un tool per la generazione di analizzatori lessicali molto
famoso è il Lex
• Si usa il linguaggio lex per definire le specifiche
dell'analizzatore lessicale
• Tali specifiche vengono compilate dal compilatore lex che
genera un programma c che compilato a sua volta
produce il programma che fa da analizzatore lessicale
Fase di analisi Lessicale:tool(2)
• Il linguaggio Lex prevede:
Parte dichiarativa: con variabili costanti e espressioni
regolari
Regole di traduzione: che consistono in una espressione
regolare ed una azione (in lex scritta in C) associata che
l'analizzatore deve compiere nel momento che il pattern
regolare è riconosciuto
Procedure ausiliarie: procedure richieste dalle azioni
• Nota: l'analizzatore lessicale se pur trattato come
elemento separato dall'analizzatore sintattico coopera
fortemente tanto che a volte cede il controllo al parser
subito dopo aver compiuto l'azione relativa ad un token
riconosciuto
Lezione 4 - Compilatore parte III
Corso — Programmazione
Linguaggi di programmazione— Compilatori ed interpreti
Marco Anisetti
e-mail: marco.anisetti@unimi.it
web: http://homes.di.unimi.it/anisetti/
Università degli Studi di Milano — Dipartimento di informatica
Struttura di un compilatore
Fase di analisi sintattica (1)
• Si tratta del procedimento di costruzione della derivazione
di una frase rispetto ad una data grammatica. Usa i token
ed esegue il controllo sintattico attraverso una CFG
(Context Free Grammar), spesso nella forma di BNF. Il
risultato di questa fase è un albero sintattico
• Cerca errori sintattici e raggruppa i token in frasi
grammaticali
• Implementata come un parser che riceve i token dallo
scanner (analisi lessicale)
Fase di analisi sintattica (2)
• Le regole di una CFG, come la BNF vista nelle precedenti
lezioni, sono ricorsive.
• Ecco le regole BNF che stanno dietro il parse tree della
slide precedente
< assegnamento > ::= < identificativo > ``←''
< espressione >
< espressione > ::= < identificativo > | < numero > |
< expressione > < operazione > < expressione >
< operazione > ::= ``*''
< identificativo > ::= ``a'' | ``b''
< numero > ::= ``10''
Fase di analisi sintattica (3)
• In relazione a come viene creato il parse tree,ci sono
differenti tecniche, che possono essere divise in due
gruppi:
• Top-Down Parsing: analisi sintattica discendente, viene
anche definita ``predittiva'' dato che la costruzione del
parse tree inizia dalla radice e procede verso le foglie.
Recursive Predictive Parsing, Non-Recursive
Predictive Parsing (LL Parsing: Left to right, Left most).
Si parte dal simbolo iniziale e si procede applicando
produzioni successive per arrivare alla stringa target
Fase di analisi sintattica (4)
• Bottom-Up Parsing: analisi sintattica ascendente, viene
anche definita ``shift-reduce parsing'' dato che la
costruzione del parse tree inizia dalle foglie e procede
verso la radice. Operator-Precedence Parsing (LR
Parsing: Left to right, Right most). Si parte dalla stringa
target e si procede a ritroso per riduzioni verso il simbolo
iniziale. Durante il parsing è fattore chiave riuscire a
determinare quando effetturare una riduzione e quale
produzione applicare affinchè il parsing possa proseguire
Backtracking
• Tecnica che prevede di enumerare tutte le soluzioni in
ricerca di quella che soddisfa dei vincoli
• Navigazione in strutture ad albero tenendo traccia delle
visite effettuate
• Molto complesso e lento, a volte integra euristiche per
velocizzarlo
Recursive descent parsing
• Nel caso di recursive descent parsing può capitare di
dover tornare su una decisione presa (una derivazione
scelta) perchè non porta ad un risultato
• Questa azione è il backtracking, che nel caso dei parser
non è poi così frequente, o meglio si può evitare
• Bisogna star attenti a come è definita la grammatica se
esiste una left-recursion allora potrebbe innestarsi un
ciclo infinito
• Grammatica left-recursive: A → Aα|β esiste anche la
left-recursive indiretta
Predictive parsing
• La predizione serve per cercare di evitare il backtracking
• La predizione si basa su un lookahead del simbolo
seguente che disambigua le scelte possibili
• A volte continuano ad esistere delle ambiguità anche con
il lookahead
• Esempio: stmt → if expr then stmt else stmt | if expr
then stmt
• Se leggo il simbolo lookahead if per in non terminale stmt
comunque ho due alternative
• La soluzione è l'utilizzo della fattorizzazione sinistra
• In un linguaggio di programmazione le keyword aiutano la
predizione
LL parsing
• Derivazione LL Parsing (derivazione canonica sinistra) =
derivazione in cui ad ogni passo si espande il simbolo non
terminale più a sinistra della forma di frase corrente
[ESEMPIO]
Grammatica G con regole di produzione
F = S → AB|cSc,A → a,B → bB|b
Derivazione canonica sinistra della stringa cabbc:
S => cSc => cABc => caBc => cabBc => cabbc
• Al terzo passo di derivazione si espande il simbolo non
terminale A invece del non terminale B
Top-down Parsing: non ricorsivo(1)
• Come si potrebbe fare a sviluppare un algoritmo non
ricorsivo quando il problema sembra inerentemente
ricorsivo?
• L'algoritmo di parsing non ricorsivo mantiene esplicito lo
stack contenente i simboli della grammatica
• Si basa anche su una tabella di parsing
Top-down Parsing: non ricorsivo(2)
• Parsing predittivo: l'alternativa corretta deve essere
rilevabile guardando soltanto al primo simbolo che deriva
• Considero X il primo simbolo nello stack e a il primo
simbolo da parsare
• Questi due simboli determinano quello che il parser farà
1. Se X=a=# allora ho terminato
2. Se X=a!=# allora X viene tolta dallo stack e mi sposto sul
prossimo simbolo
3. Se X è un non terminale allora controllo la tabella nella
entry M[X ,a], la quale contiene le produzioni da usare o un
simbolo di errore
4. Se in M[X ,a] ho la produzione X → UVW allora rimpiazzo X
nello stack con WVU (ovvero U per ultimo)
• Come output indico le produzioni usate
Top-down Parsing: non ricorsivo(3)
• Esempio tratto da Compilers: principles, techniques and
tools
Bottom-Up Parsing
• Shift-reduce parsing: la costruzione del parse tree
inizia dalle foglie e procede verso la radice. Si parte dalla
stringa target e si procede a ritroso per riduzioni verso il
simbolo iniziale
• Ad ogni riduzione una particolare sottostringa che fa
match con la parte destra di una produzione è rimpiazzata
dal simbolo sinistro della produzione
• La sottostringa deve essere scelta bene tra le possibili
• L'algoritmo di parsing più famosi di questa categoria è l'LR
(left to right scanning of the input, rightmost reduction)
• Gestisce una più amplia classe di grammatiche rispetto ai
predictive parser
• Difficile da costruire a mano ma si possono usare i tool di
generazione
Bottom-Up Parsing: riduzione
Per definizione una riduzione è il passo inverso della
procedura di derivazione (attraverso la quale un non terminale
era sostituito dal corpo di una produzione, durante la
generazione di una stringa).
< exp > ::= < exp > ``*'' < G > | < G >
< G > ::= < G > ``+'' < F > | < F >
< F > ::= ``(''< exp > ``)'' | ``a''
Riduzione vs Derivazione
• Si consideri la grammatica BNF
S ::= 'a'< A >< B >'e'
A ::= < A >'b'c' |'b'
B ::= 'd'
• Data la stringa: abbcde
• La riduzione si ottiene:
abbcde (A→b A→ < A >bc B→d S→aABe)
abbcde, aAbcde, aAde, aABe, S
• La derivazione si ottiene:
S ⇒ aABe ⇒ aAde ⇒ aAbcde ⇒ abbcde
Fase di analisi semantica(1)
• Si occupa di controllare il significato delle istruzioni
presenti nel codice in ingresso. Il type checking ad
esempio dipendente solamente dalle regole semantiche
del linguaggio sorgente mentre è indipendente dal
linguaggio target.
• L'analisi semantica integra l'analisi sintattica o traduce
alberi sintattici in strutture utili alle elaborazioni
successive es AST
• Si appoggia sulla tabella dei simboli e i relativi attributi
• Generalmente vengono effettuati controlli statici: Divisioni
per 0, Controlli sul flusso, Controlli di unicità es. verificare
dichiarazioni multiple delle variabili in uno scope
[ESEMPIO]
a := b + 10
Il tipo dell'identificatore a deve corrispondere con il tipo
dell'espressione b + 10
Fase di analisi semantica(2)
• Le informazioni semantiche non possono essere
rappresentate con un semplice parse tree, ma serve
associarvi degli attributi
• Le produzioni vengono integrate, come già visto con
annotazioni di regole ( a volte frammenti di codice)
• Tali regole o frammenti sono eseguiti quando la
produzione viene utilizzata durante l'analisi sintattica
• Le regole servono per il calcolo degli attributi dei nodi
coinvolti
• Syntax-directed Translation: L'esecuzione dei
frammenti di codice, nell'ordine determinato dall'analisi
sintattica
Generatore codice intermedio(1)
• L' AST rappresenta la prima forma di Intermediate
Representation (IR) del programma sorgente.
• In generatore di codice traduce ciò che è semanticamente
corretto catturandone il significato a run-time
[ESEMPIO]
L'AST di un ciclo contiene due sotto-alberi, uno per
controllare l'espressione di controllo, e l'altro per il corpo
del ciclo. Nulla nell'AST dimostra che un ciclo ``itera'',
solo la sua traduzione lo palesa
• La Intermediate Representation esplicita la nozione di
verifica del valore dell'espressione di controllo e
dell'esecuzione del corpo del ciclo
Generatore codice intermedio(2)
• Three-address code(TAC o 3AC): Codice di basso livello
simile al linguaggio macchina che si può generare da un
AST
• Ogni istruzione nella forma 3AC può essere descritta dalla
quadrupla (operatore, operando1, operando2, risultato),
nella forma y = x op z
• Se ho più di una operazione fondamentale op in una
espressione allora la scompongo
• Si parla solo di una sola operazione di calcolo, un
confronto oppure un salto.
Generatore codice intermedio(3)
Generatore codice intermedio(4)
• Alcuni compilatori prevedono una IR di alto livello (source
oriented) e una IR a basso livello (target oriented)
• Chiara separazione fra dipendenze derivanti dal sorgente
e dal target
1.
2.
3.
4.
5.
a := b ∗ c + 2
id1 := id2 ∗ id3 + 2
MULT id2,id3,temp1
ADD temp1,#2,temp2
MOV temp2,id1
Compilatori: fase di sintesi
• Generatore codice: Mappa il codice IR prodotto dal
traduttore nel codice macchina target (di una specifica
architettura)
• Il codice target è un codice oggetto rilocabile contenente
codice macchina
• Si basa sulla definizione di template che mettano in
corrispondenza le istruzioni low-level IR con le istruzioni
target
• Ottimizzatore: cerca di migliorare il codice per limitare il
tempo di esecuzione e la memoria necessaria
• Esempio per l' IR precedente:
1.
2.
3.
4.
a := b ∗ c + 2
id1 := id2 ∗ id3 + 2
MULT id2,id3,temp1
ADD temp1,#2,id1