Web Analytics

Static Wikipedia: Italiano -Inglese (ridotta) - Francese - Spagnolo - Tedesco - Portoghese
 
Esperanto - Napoletano - Siciliano - Estone - Quality - New - Chinese Standard  - Simple English - Catalan - Gallego - Euskera
Wikipedia for Schools: English - French - Spanish - Portuguese
101 free audiobooks - Stampa Alternativa - The Open DVD - Open Bach Project  - Libretti d'opera - Audiobook PG

Informazione

Da Wikipedia, l'enciclopedia libera.

Stub Questa voce di informatica è solo un abbozzo: contribuisci a migliorarla secondo le convenzioni di Wikipedia.

Il concetto di informazione è quanto mai vasto e differenziato: informazione è in generale qualunque notizia o racconto, qualunque comunicazione scritta o orale contiene informazione. I dati in un archivio sono informazioni, così anche la configurazione degli atomi di un gas può venire considerata informazione. L’informazione può essere quindi misurata come le altre entità fisiche ed è sempre esistita, anche se la sua importanza è stata riconosciuta solo nel secolo scorso.

Per esempio, la fondamentale scoperta della “doppia elica” del DNA nel 1953 da parte di James Watson e Francis Crick ha posto le basi biologiche per la comprensione della struttura degli esseri viventi da un punto di vista informativo. La doppia elica è costituita da due filamenti accoppiati e avvolti su se stessi, a formare una struttura elicoidale tridimensionale. Ciascun filamento può essere ricondotto a una sequenza di acidi nucleici (adenina, citosina, guanina, timina). Per rappresentarlo, si usa un alfabeto finito come nei calcolatori, quaternario invece che binario, dove le lettere sono scelte tra A,C,G e T, le iniziali delle quattro componenti fondamentali. Il DNA rappresenta quindi il contenuto informativo delle funzionalità e della struttura degli esseri viventi, ed è sempre esistito in essi, al pari degli atomi e dell’energia.

L’informazione e la sua elaborazione attraverso i computer hanno certamente un impatto notevole nella vita quotidiana. L’importanza è testimoniata, per esempio, dai sistemi di protezione escogitati mediante la crittografia e dal valore commerciale della borsa tecnologica. L’uso appropriato dell’informazione pone problemi etici di rilievo, come nel caso della privacy riguardo le informazioni cliniche che potrebbero altrimenti avvantaggiare le compagnie di assicurazioni mediche e danneggiare i pazienti.

[modifica] Misura dell'informazione

In una comunicazione, che avviene attraverso un dato alfabeto di simboli, l'informazione viene associata a ciascun simbolo trasmesso e viene definita come la riduzione di incertezza che si poteva avere a priori sul simbolo trasmesso.

In particolare, l'informazione collegata ad un simbolo è definita come - log(2)Pi dove Pi è la probabilità di trasmissione di quel simbolo. La quantità di informazione associata ad un simbolo è misurata in bit. La quantità di informazione così definita è una variabile aleatoria discreta, il cui valor medio, tipicamente riferito alla sorgente di simboli, è detto entropia della sorgente, misurata in bit/simbolo. La velocità di informazione di una sorgente, che non coincide con la frequenza di emissione dei simboli, dato che non è detto che ogni simbolo trasporti un bit di informazione "utile", è il prodotto dell'entropia dei simboli emessi dalla sorgente per la frequenza di emissione di tali simboli (velocità di segnalazione). Quanto sopra può essere generalizzato considerando che non è assolutamente obbligatorio che ogni simbolo sia codificato in maniera binaria (anche se questo è ciò che accade più spesso). Quindi l'informazione collegata ad un simbolo codificato in base a è per definizione pari a log(a)Pi con Pi probabilità di trasmissione associata a quel simbolo. L'entropia della sorgente è per definizione pari alla sommatoria, estesa a tutti i simboli della sorgente, dei prodotti tra la probabilità di ciascun simbolo e il suo contenuto informativo. Nei casi particolari in cui a sia 10 l'entropia della sorgente è misurata in hartley, se invece a è pari al Numero di Eulero e si misura in nat.

[modifica] Codifica dell'informazione

La codifica dell'informazione consiste nel trasformare una informazione generica in una informazione comprensibile da un dispositivo o che sia adatta alla successiva elaborazione.

Il primo problema da affrontare nei processi di elaborazione dell'informazione è la rappresentazione dell'informazione. L'informazione consiste nella ricezione di un messaggio tra un insieme di possibili messaggi. La definizione esatta è che l'informazione si rappresenta usando un numero finito di simboli affidabili e facilmente distinguibili.

All'interno delle apparecchiature digitali l'informazione è rappresentata mediante livelli di tensione o mediante magnetizzazione di dispositivi appropriati. Le richieste di affidabilità ci impongono che tali simboli per una maggiore efficienza siano due o al massimo tre: nel primo caso si hanno solo 0 e 1, corrispondenti a 2 livelli di tensione (standard TTL: 0/5 V; standard RS-232: +12 / -12 V) che vanno a formare la numerazione binaria; nel secondo caso si ha un terzo stadio che è indicato come HZ (alta impedenza) che non è altro che un livello indeterminato causato dal filo "scollegato".

[modifica] Voci correlate