Colloquio di informatica (5 crediti) - Università degli studi della Tuscia Dipartimento di Scienze Ecologiche e Biologiche Corso di laurea in ...
←
→
Trascrizione del contenuto della pagina
Se il tuo browser non visualizza correttamente la pagina, ti preghiamo di leggere il contenuto della pagina quaggiù
Università degli studi della Tuscia Dipartimento di Scienze Ecologiche e Biologiche Corso di laurea in Scienze Ambientali A.A. 2013-2014 - II semestre Colloquio di informatica (5 crediti) Prof. Pier Giorgio Galli (pggalli@unitus.it)
Legge di Moore (1) « Le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi. »
Legge di Moore (2) Nel 1965, Moore ipotizzò che le prestazioni dei microprocessori sarebbero raddoppiate ogni 12 mesi circa. Nel 1975 questa previsione si rivelò corretta e prima della fine del decennio i tempi si allungarono a 2 anni, periodo che rimarrà valido per tutti gli anni ottanta. La legge, che verrà estesa per tutti gli anni novanta e resterà valida fino ai nostri giorni, viene riformulata alla fine degli anni ottanta ed elaborata nella sua forma definitiva, ovvero che le prestazioni dei processori raddoppiano ogni 18 mesi. I limiti della prima legge di Moore starebbero solo nel raggiungimento dei limiti fisici imposti per la riduzione delle dimensioni dei transistor, e quindi della scala di integrazione, al di sotto dei quali si genererebbero effetti 'parassiti' indesiderati di natura quantistica nei circuiti elettronici. Tali limiti sarebbero peraltro già stati raggiunti con la generazione dei processori Pentium al di sopra del quale l'unico modo possibile e praticabile per aumentare le prestazioni di calcolo e processamento dati è rappresentato dalla tecnologia multicore ovvero dall'accoppiamento in parallelo di più processori come avviene peraltro nei supercalcolatori dei centri di calcolo. Da Wikipedia, l'enciclopedia libera.
Computer: tipologie • Personal computer • Tablet Uso personale • Smarphone • Mainframe Offrono risorse • Midrange systems ad una molteplicità • Supercomputer di utenti
lean back / lean forward La fruizione lean forward è quella che si ha quando siamo 'protesi in avanti' verso l'informazione, come facciamo scrivendo, studiando un libro seduti alla scrivania (contemporaneamente sottolineiamo, prendiamo appunti...), o lavorando al computer. In genere è caratterizzata da un uso attivo dell'informazione: non ci limitiamo ad assorbire informazione ma la elaboriamo e modifichiamo. Ci aspettiamo dunque contenuti informativi che si prestino a un lavoro di selezione e di elaborazione attiva, in una situazione di fruizione che assorbe completamente la nostra attenzione. Una situazione di questo genere permette di lavorare bene con informazione fortemente interattiva (ad esempio ipertestuale), come facciamo quando navighiamo in rete, e non è un caso che la modalità di fruizione dei videogiochi sia anch'essa lean forward. Perfino quando usiamo, magari seduti sul divano, un videogioco collegato allo schermo del televisore, la nostra fruizione non è distesa e rilassata: a dispetto del divano, siamo protesi in avanti verso lo schermo, e pienamente attivi. La modalità lean back è invece caratterizzata da una fruizione rilassata, 'appoggiati all'indietro' (ad esempio, in poltrona), di una informazione che ci assorbe ma da cui possiamo lasciarci trasportare senza la necessità di interventi attivi di elaborazione e manipolazione. È il modo in cui in genere leggiamo un romanzo, o guardiamo un film. La nostra attenzione è anche in questo caso completamente catturata da quel che vediamo o leggiamo, ma – finché essa resta viva – non ci è richiesto di agire o interagire con l'informazione stessa se non a livello mentale. È solo quando l'attenzione cala – magari perché quel che stiamo guardando non ci piace o non ci interessa – che subentra un intervento attivo per modificare il contenuto del flusso informativo (ad esempio cambiamo canale, e nel farlo spesso, significativamente, ci protendiamo in avanti). La fruizione lean back è quella tipica della televisione e del cinema, almeno quando stiamo guardando qualcosa che ci interessa e che assorbe tutta la nostra attenzione. G. Roncaglia, "La quarta rivoluzione"
Computer: tipologie • Personal computer Uso personale lean forward: • desktop (da scrivania) • Tablet • workstation (professionale) • Smarphone • notebook (portatile) • Mainframe • ultrabook (mobilità) • netbook (mobilità) • Midrange systems • Supercomputer
Computer: tipologie Uso personale lean back • Personal computer • Tablet • Smarphone • Mainframe • Midrange systems • Supercomputer
Computer: tipologie • Personal computer È un dispositivo portatile che • Tablet abbina funzionalità di telefono cellulare a quello di computer • Smarphone palmare • Mainframe • Midrange systems • Supercomputer
Computer: tipologie Funzioni centralizzate di • Personal computer elaborazione dati, usati da compagnie telefoniche, • Tablet banche, uffici governativi, ecc. • Smarphone • Mainframe • Midrange systems • Supercomputer
Computer: tipologie • Personal computer Detti anche: minicomputer, midrange computer… • Tablet Come i mainframe ma meno • Smarphone potenti. • Mainframe • Midrange systems • Supercomputer
Computer: tipologie Massima potenza di calcolo, • Personal computer usati per affrontare problemi con elevata complessità • Tablet computazionale come ad esempio nella modellazione dei • Smarphone sistemi caotici (http://goo.gl/w8zYjP) o nella • Mainframe fattorizzazione dei numeri primi. • Minicomputer • Supercomputer
Algoritmi di fattorizzazione • Un programma che ha lo scopo di individuare i fattori primi di un numero è detto algoritmo di fattorizzazione; gli algoritmi di questo tipo possono funzionare anche da test di primalità, ma sono quasi sempre più lenti da eseguire rispetto a programmi ideati solo per quest'ultimo scopo. Dopo il metodo di divisione per tentativi, i più antichi algoritmi di questo tipo sono il metodo di Fermat, che si basa sulle differenze tra il numero da fattorizzare N ed alcuni quadrati, efficace in particolare quando N è il prodotto di due numeri primi vicini tra loro, e il metodo di Eulero, che si basa invece sulla rappresentazione di N come somma di due quadrati in due modi diversi. • Più recentemente, gli algoritmi per la fattorizzazione sono stati basati su una gran varietà di tecniche diverse, come le frazioni continue o le curve ellittiche, mentre altri, come ad esempio il crivello quadratico, sono basati su miglioramenti del metodo di Fermat. Altri ancora, come il metodo rho di Pollard, sono probabilistici, e non offrono la garanzia che, dato un numero non primo, ne trovino i divisori. • Ad oggi il più veloce algoritmo deterministico di impiego generale, ovvero senza necessità di numeri in forma particolare, è il general number field sieve, che ha complessità esponenziale sul numero di cifre di N; è stato proposto un algoritmo che ha tempo di esecuzione polinomiale nel numero di cifre di N (algoritmo di Shor), ma esso richiede di essere eseguito su un computer quantistico, la cui simulazione su un normale calcolatore richiede un tempo esponenziale. Da Wikipedia, l'enciclopedia libera.
Puoi anche leggere