La teoria dell'informazione ha avuto e continua ad avere un'importanza fondamentale in moltissimi ambiti.
Applicazioni notevoli dei concetti della teoria includono: la compressione dei dati e le modulazioni digitali.
Il suo contributo ha reso possibile missioni spaziali, l'invenzione del CD, dei telefonini, di Internet, lo studio di nuovi fenomeni linguistici e innumerevoli altre cose.
L'evento decisivo che determinò la nascita della teoria dell'informazione e la portò immediatamente all'attenzione mondiale fu la pubblicazione dell'articolo "A Mathematical Theory of Communication", da parte di Claude Shannon sul Bell System Technical Journal nel luglio e nell'ottobre del 1948.[2]
Prima di questo articolo, sempre nei Bell Labs, erano stati sviluppati pochi concetti teorici sull'informazione ed era sempre stata assunta implicitamente l'ipotesi di trattare eventi equiprobabili.
L'articolo del 1924 di Harry Nyquist, Certain factors affecting telegraph speed (lett. "Alcuni fattori che influenzano la velocità del telegrafo" in italiano), contiene alcune sezioni teoriche in cui si quantificano l'"intelligenza" e la "velocità" a cui si può trasmettere su un sistema di comunicazione, dando la relazione , dove W è la velocità della trasmissione di intelligenza, m è il numero di differenti livelli di tensione su cui si può scegliere ad ogni passo e K è una costante.[4]
L'articolo del 1928, ad opera di Ralph Hartley, Transmission of information (lett. "Trasmissione dell'informazione" in italiano), usa la parola informazione per indicare una quantità misurabile, che riflette la capacità del ricevitore di distinguere una sequenza di simboli da un'altra; l'informazione nel testo viene definita come , dove è il numero di simboli possibili, il numero di simboli trasmessi.[5]
La naturale unità di misura dell'informazione era quindi la cifra decimale, rinominata più tardi Hartley in suo onore. Alan Turing nel 1940 usò un'idea simile in una parte dell'analisi statistica sulla decifrazione dei codici crittografici Enigma usati dai tedeschi nella seconda guerra mondiale.
Gran parte della matematica che sta dietro alla teoria dell'informazione nel caso di eventi a diversa probabilità fu sviluppata nel campo della termodinamica da Ludwig Boltzmann e Willard Gibbs. I legami tra l'entropia definita in teoria dell'informazione e quella definita in termodinamica, compresi gli importanti contributi di Rolf Landauer degli anni '60, sono esplorati nell'opera Entropy in thermodynamics and information theory.
Nel rivoluzionario articolo di Shannon, questi per la prima volta introdusse i modelli quantitativi e qualitativi della comunicazione, pensata come un processo statistico, alla base della teoria dell'informazione. L'articolo si apre con l'affermazione che:
«Il problema fondamentale della comunicazione è quello di riprodurre in un certo punto, o esattamente o approssimativamente, un messaggio selezionato in un altro punto»
il bit, ossia un nuovo modo di intendere l'unità fondamentale dell'informazione.[8]
Generalità
I concetti principali alla base della teoria dell'informazione possono essere colti facendo riferimento ad un semplice esempio: il linguaggio umano. In genere, in un linguaggio, le parole più usate sono più corte di quelle meno usate. Ad esempio, "ciao" è più breve di "sostanzioso"; inoltre, anche se a volte non si riescono a cogliere tutte le parole di un discorso, il senso rimane chiaro. Lo scopo della teoria dell'informazione è proprio quello di fornire metodi per comprimere al massimo l'informazione prodotta da una sorgente eliminando tutta la ridondanza (si parla di codifica di sorgente), prima di aggiungere un certo livello di ridondanza in modo mirato, allo scopo di rendere la comunicazione (o l'archiviazione) più protetta dal rumore (si parla in questo caso di codifica di canale).
Lo studio di questa teoria, i cui principi sono già presenti nelle forme di comunicazione umane, ha consentito a partire dagli anni '40 un eccezionale sviluppo della trasmissione e dell'archiviazione dell'informazione.
In generale, si considera come nascita della teoria dell'informazione la pubblicazione del lavoro "A Mathematical Theory of Communication" (Una teoria matematica della comunicazione) da parte di Claude Shannon; i risultati fondamentali presenti nello scritto sono due: l'enunciazione del Primo teorema di Shannon (o Teorema della codifica di sorgente), che stabilisce che, in media, il numero di bit necessari a rappresentare il risultato di un evento stocastico è pari alla sua entropia, fornendo così un limite superiore alla possibilità di comprimere dati; il secondo risultato, noto come Secondo teorema di Shannon o Teorema della codifica di canale, stabilisce invece che il massimo tasso di informazione trasferibile in modo affidabile su un canale affetto da rumore sta sotto una certa soglia che prende il nome di capacità di canale. La capacità può essere avvicinata a piacere, utilizzando sistemi di codifica e decodifica opportuni.
La teoria dei codici riguarda lo studio di metodi pratici, chiamati codici, per aumentare l'efficienza di una trasmissione e ridurre la probabilità di errore il più possibile, nei limiti stabiliti e dimostrati da Shannon per un dato canale; questi codici possono essere divisi in tecniche di compressione dei dati (codifica di sorgente) e correzione d'errore (codifica di canale). Nel secondo caso, sono stati necessari molti anni prima che fosse possibile ottenere risultati vicini ai limiti forniti da Shannon. Una terza classe di codici sono gli algoritmi di crittografia. Concetti e metodi della teoria dell'informazione sono infatti utilizzati ampiamente in crittografia e crittoanalisi.
La teoria dell'informazione è basata sulla teoria della probabilità e sulla statistica. Le principali grandezze dell'informazione sono l'entropia, ossia l'informazione contenuta in una variabile aleatoria, e l'informazione mutua, ossia la quantità di informazione in comune tra due variabili aleatorie. La prima indica quanto sia possibile comprimere un messaggio, mentre la seconda è utile per trovare il tasso di comunicazione possibile su un canale.
La scelta della base logaritmica usata nelle formule che seguono determina l'unità di misura usata per l'entropia. L'unità di misura più comune è senza dubbio il bit, che si usa nel caso in cui si scelga di utilizzare logaritmi in base 2. Altre unità di misura includono il nat, nel caso si usi il logaritmo naturale e l'hartley, che si basa sul logaritmo in base 10.
Nel seguito, un'espressione nella forma è considerata per convenzione pari a 0 quando è nulla p. Questo è giustificabile con il fatto che per qualunque base logaritmica.
Le due interpretazioni sono duali.
Per esempio assumiamo di avere un dato la cui entropia è pari a bit:
Se il valore del dato non è conosciuto allora è ragionevole interpretare l'entropia come misura di incertezza: ovvero il valore del dato potrebbe essere uno qualsiasi in un set di dimensione .[12]
Per rimuovere completamente questa incertezza sarà necessario accertarsi del valore effettivo del dato, e cioè equivalentemente scegliere un singolo valore tra quelli possibili.[12]
Questa operazione implica ricevere bit di informazione.
Alternativamente si può dire che il valore esatto "trasporta" ( o "possiede", o "rappresenta" ) bit di informazione.
La velocità di segnalazione, detta anche frequenza di simbolo, symbol rate o baud rate indica la quantità di variazione per unità di tempo dei simboli, della forma d'onda o in generale del segnale su un canale trasmissivo che utilizzi una modulazione o una codifica di linea. La velocità di segnalazione si misura in Baud (simboli al secondo).
Lo studio della comunicazione su un canale, come ad esempio un cavo Ethernet, è la motivazione prima della nascita della teoria dell'informazione. Come sa chiunque abbia usato un telefono, può accadere che il canale non sia in grado di trasportare il segnale senza "danneggiarlo"; distorsioni, echi o rumore sono solo alcuni esempi di corruzione di un segnale che portano ad un degrado nella qualità della comunicazione. La domanda che sorge spontanea è dunque quale sia il massimo tasso (o bitrate) a cui posso sperare di comunicare su un canale "rumoroso" (ossia che degrada la comunicazione)?
Consideriamo il processo di comunicare su un canale discreto. Un semplice modello del processo è mostrato in figura
Qui X rappresenta lo spazio dei messaggi trasmessi, ed Y lo spazio dei messaggi ricevuti durante un'unità di tempo sul nostro canale. Sia la distribuzione di probabilità condizionata di Y data X. Considereremo una proprietà del canale, che non cambia e che in sostanza rappresenta il rumore da cui è affetto il canale. Allora la distribuzione congiunta di X e Y è completamente determinata dal canale e dalla scelta di , ossia la distribuzione marginale del messaggio che decidiamo di inviare sul canale. Dati questi vincoli, desideriamo massimizzare la quantità di informazione, o il segnale, che vogliamo comunicare sul canale. La misura appropriata per questa quantità è l'informazione mutua e il massimo dell'informazione mutua è chiamato capacità di canale, che è data da:
Questa capacità ha la seguente proprietà, legata al tasso di informazione trasmesso R (dove R è solitamente in bit per simbolo). Per ogni tasso di informazione R < C ed errore di codifica ε > 0, per N grande abbastanza, esistono un codice di lunghezza N e tasso R ed un algoritmo di codifica tali che la massima probabilità di errore sia minore uguale a ε; in altre parole, è sempre possibile trasmettere con un tasso di errore basso a piacere. In più, per ogni tasso R > C, non è possibile trasmettere con un tasso di errore basso a piacere.
Il tasso di informazione è l'entropia media per simbolo. Per le sorgenti senza memoria, questa è semplicemente l'entropia di ciascun simbolo, mentre, nel caso più generale
Precisamente, questa è l'entropia condizionale prevista per messaggio (vale a dire per unità di tempo) dati tutti i messaggi precedentemente generati. È comune nella teoria dell'informazione parlare di "tasso" o "entropia" di una lingua. Questo è appropriato, ad esempio, quando la fonte delle informazioni è la prosa inglese. La velocità di una sorgente senza memoria è semplicemente , poiché per definizione non esiste alcuna interdipendenza tra i messaggi successivi di una sorgente senza memoria. Il tasso di una fonte di informazioni è correlato alla sua ridondanza e a quanto bene può essere compresso.
La teoria dei codici è la più importante e diretta applicazione della teoria dell'informazione. Può essere suddivisa in codifica dei codici sorgenti e codifica di canale. Usando una descrizione statistica dei dati, la teoria dell'informazione quantifica il numero dei bit necessari a descrivere i dati, tale quantità è l'entropia informativa della sorgente.
Compressione dati (codifica sorgente): ci sono due formulazioni per questo problema:
compressione senza perdita, quando i dati devono essere ricostruiti in modo esatto
compressione con perdita allocando i bit necessari a ricostruire i dati all'interno di un intervallo di fedeltà misurato dalla funzione di distorsione. Questo ramo della teoria dell'informazione è detto rate–distortion theory.
Codici di correzione errori (codifica di canale): mentre la compressione dati ha lo scopo di rimuovere la maggior ridondanza possibile, un codice di correzione per gli errori aggiunge il giusto tipo di ridondanza necessario a trasmettere i dati in modo efficiente ed affidabile su un canale rumoroso.
La suddivisione della teoria dei codici tra compressione e trasmissione è giustificata dai teoremi di trasmissione di informazione, che giustificano l'uso dei bit come misura universale dell'informazione in molti contesti. Comunque, questi teoremi valgono unicamente nella situazione in cui un utente che trasmette vuole comunicare ad un utente che riceve. In scenari con più di un mittente o più di un destinatario, la compressione seguita dalla trasmissione potrebbe non essere ottimale.
Usi da parte dei servizi segreti ed applicazioni alla sicurezza
I concetti della teoria dell'informazione sono largamente usati in crittografia e criptoanalisi. Per un esempio storico interessante, vedere il deciban. Shannon stesso ha definito un concetto importante ora chiamato distanza di unicità. Basato sulla ridondanza del testo, cerca di dare la minima quantità di testo cifrato necessario ad assicurare una decifrabilità unica.
La teoria dell'informazione di Shannon è estremamente importante al lavoro, molto più di quanto il suo uso in crittografia indichi. I servizi segreti usano la teoria dell'informazione per mantenere segrete le informazioni riservate e per scoprire il numero massimo possibile di informazioni su di un avversario in un modo sicuro. Il teorema di Shannon-Hartley ci fa credere che mantenere dei segreti è molto più difficile di quanto si possa credere inizialmente. In generale, non è possibile fermare la fuoriuscita di informazioni riservate, ma solo rallentarla. Inoltre, al crescere delle persone che hanno accesso all'informazione ed al crescere del tempo che queste persone devono dedicare al lavoro ed alla revisione di tale informazione, cresce la ridondanza che tale informazione acquisisce. È estremamente difficile contenere il flusso di informazioni che hanno alta ridondanza. L'inevitabile fuoriuscita di informazioni riservate è dovuta al fatto psicologico che ciò che le persone sanno influenza il loro comportamento, anche in modo molto subdolo.
Generazione di numeri pseudo-casuali
Un buon esempio di applicazione della teoria dell'informazione alle comunicazioni nascoste è la progettazione della codifica dei segnali del Sistema di Posizionamento Globale. Il sistema usa un generatore di numeri pseudocasuali che mette il segnale radio sotto la soglia del rumore. Quindi un ascoltatore radio non sarebbe nemmeno in grado di capire che c'è un segnale presente, perché rimarrebbe affogato da varie sorgenti di rumore (rumore atmosferico o di antenna). Comunque facendo l'integrale su un lungo periodo di tempo, usando la sequenza pseudorandomica "segreta" (ma nota al destinatario), è possibile rilevare il segnale e capirne le modulazioni. Nel sistema di posizionamento globale, il segnale C/A è stato pubblicato come sequenza di 1023 bit, ma la sequenza pseudorandomica usata nel P(Y) rimane segreta. La stessa tecnica può essere usata per trasmettere informazioni nascoste usando sistemi a breve raggio ed aventi bassissima potenza, senza che un nemico si accorga dell'esistenza del segnale radio. È analogo alla steganografia. Vedi anche comunicazioni spread spectrum.
Il modello di Shannon-Weaver è un modello matematico sulla comunicazione attraverso cui, con una concezione strettamente fisica dell'informazione, trovare la codificazione più efficiente di un messaggio telegrafico; questo modello è unicamente basato sul canale.
La teoria che sta alla base del modello – che mostra le varie fasi del processo comunicativo – è stata formulata nel 1949 da Claude Elwood Shannon e Warren Weaver, due matematicistatunitensi.
Il modello si può applicare anche ai campi degli studi sociologici e culturali della comunicazione e i media, ma in questo caso presenta dei limiti.
Così come la teoria ipodermica (fase dei media potenti e manipolatori, secondo Noelle-Neumann) anche questo modello applicato ai media, tralascia di analizzare il destinatario, concentrandosi unicamente su come viaggia il segnale.
^
"Grandezze della forma [...] giocano un ruolo centrale nella teoria dell'informazione come misure di informazione, scelta e incertezza".
(Shannon 2001, p. 10);
Scelta ed incertezza sono misure equivalenti.
^Bit, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.
(EN) Tom Siegfried, The Bit and the Pendulum, Wiley, 2000. ISBN 0-471-32174-5
(EN) Charles Seife, Decoding The Universe, Viking, 2006. ISBN 0-670-03441-X
(EN) E. M. Rogers, T. W. Valente, A History of information theory in communication research in: J. R. Schement, B. D. Ruben (a cura di), Information and behavior volume 4: Between communication and information, Transaction Publishers, New Brunswick (NJ), 1993.
Lambang Kalimantan TimurDetailPerisaiBerbentuk perisai bersudut lima. Di dalam perisai terdapat simbol bintang, perisai segi enam, mandau, sumpit, tetesan minyak, dan damar.MottoRuhui Rahayu Prangko Lambang Provinsi Kalimantan Timur Lambang Kalimantan Timur berbentuk perisai bersudut lima. Di dalam perisai terdapat simbol bintang, perisai segi enam, mandau, sumpit, tetesan minyak, dan damar. Simbol bintang melambangkan kepercayaan terhadap Tuhan YME. Perisai melambangkan perdamaian. Sumpit da...
Revolutions during the 1820s Revolutions during the 1820s included revolutions in Russia (Decembrist revolt), Spain, Portugal, and the Italian states for constitutional monarchies, and for independence from Ottoman rule in Greece. Unlike the revolutionary wave in the 1830s, these tended to take place in the peripheries of Europe.[1] Timeline 1820: The Trienio Liberal in Spain 1820: the Liberal Revolution in Portugal 1820: the Kingdom of the Two Sicilies 1821 – 1829: Gre...
artikel ini tidak memiliki pranala ke artikel lain. Tidak ada alasan yang diberikan. Bantu kami untuk mengembangkannya dengan memberikan pranala ke artikel lain secukupnya. (Pelajari cara dan kapan saatnya untuk menghapus pesan templat ini) Tanah Padas. Tanah Padas merupakan salah satu dari jenis tanah yang amat padat di karenakan mineral di dalamnya dikeluarkan oleh air yang terdapat di lapisan tanah atasnya sehingga kandungan tanah telah hilang dan sisanya terdiri dari lapukan batuan induk....
Nashik Metropolitan Region Development Authority (NMRDA)Agency overviewFormed12 January 2018[1]TypeUrban Planning AgencyJurisdictionGovernment of MaharashtraHeadquartersSecond Floor, Divisional Commissioner Office Campus, Nashik Road, Nashik-422101Minister responsibleEknath Shinde, Chief Minister, Minister for Urban DevelopmentAgency executiveRadhakrishna Game[2], Metropolitan CommissionerWebsitehttps://nashikmrda.in/ Nashik Metropolitan Region Development Authority (NMRDA) is...
يوسف ناصر معلومات شخصية الاسم الكامل يوسف ناصر السليمان الميلاد 9 أكتوبر 1990 (العمر 33 سنة)مدينة الكويت الطول 1.86 م (6 قدم 1 بوصة) مركز اللعب مهاجم الجنسية الكويت أبناء ليان، يعقوب معلومات النادي النادي الحالي الكويت الرقم 11 مسيرة الشباب سنوات فريق 2008–2009 كاظمة المسي...
SchoolChinese Immersion Schoolat De AvilaLocationSan Francisco, CAInformationOpened2009School districtSan Francisco Unified School DistrictPrincipalWendy CheongLanguageCantonese, Mandarin Chinese, EnglishWebsitewdaes-sfusd-ca.schoolloop.com The Chinese Immersion School at De Avila is the latest incarnation of the historic Dudley Stone School, founded in San Francisco, California, in 1896 and surviving the San Francisco Earthquake and Fire of 1906. The kindergarten-through-fifth-grade school p...
Baruch MarzelLahir23 April 1959Boston, Massachusetts, ASTempat tinggalHebron, Tepi BaratWarga negaraIsraelDikenal atasAktivitas KahanisPartai politikKach (dulu)Front Nasional Yahudi (2004–2012)Otzma Yehudit (current) Baruch Meir Marzel (Ibrani: ברוך מאיר מרזל, lahir 23 April 1959) adalah seorang politikus dan aktivis Israel.[1][2] Ia adalah seorang Yahudi Ortodoks yang berasal dari Boston[3] yang sekarang menetap di komunitas Yahudi Hebron di Tel Rumeida ...
DespacitoSingel oleh Luis Fonsi featuring Daddy YankeeDirilis12 Januari 2017 (2017-01-12)Direkam2016GenreReggaeton-popDurasi3:47LabelUniversal LatinPencipta Luis Rodríguezs Erika Ender Ramón Ayala Produser Andrés Torres Mauricio Rengifo Kronologi singel Tentación(2015) Despacito Wave Your Flag(2017) Shaky Shaky(2016) Despacito(2017) Hula Hoop(2017) Video musikDespacito di YouTube Despacito (pengucapan bahasa Spanyol: [despa'sito]; bahasa Inggris: Slowly; bahasa Indonesia:...
1994 film by Andrew Bergman For the 1954 film of similar title, see It Should Happen To You. It Could Happen to YouTheatrical release posterDirected byAndrew BergmanWritten byJane AndersonProduced byMike Lobell Gary AdelsonStarring Nicolas Cage Bridget Fonda Rosie Perez Isaac Hayes Seymour Cassel Stanley Tucci J.E. Freeman CinematographyCaleb DeschanelEdited byBarry MalkinMusic byCarter BurwellJoe MulherinDistributed byTriStar PicturesRelease date July 29, 1994 (1994-07-29) Run...
Steven Universe character Fictional character AmethystSteven Universe characterAmethyst as she appears in Change Your MindFirst appearanceThe Time Thing (2013)Last appearanceThe Future (2020)Created byRebecca SugarVoiced byMichaela DietzIn-universe informationSpeciesGemGenderSexless[1][2] / woman[3] (she/her pronouns used)WeaponWhip Amethyst is a fictional character from the animated television series Steven Universe, created by Rebecca Sugar. She is voiced by Michaela...
Italian football club Football clubSuzzaraFull nameSuzzara Sport ClubFounded19192000 (refounded)GroundStadio Italo Allodi,Suzzara, ItalyChairmanLuca RossiLeaguePromotion Lombardy/D2019–20Promotion Lombardy – B, 4th Home colours Away colours Suzzara Sport Club[1] is an Italian association football club located in Suzzara, Lombardy. It currently plays in Promozione. Its colors are white and black. The club was founded in 1919 and spend 2 seasons in Serie B. References ^ SUZZARA...
Indonesian actress and singer This article has multiple issues. Please help improve it or discuss these issues on the talk page. (Learn how and when to remove these template messages) Some of this article's listed sources may not be reliable. Please help this article by looking for better, more reliable sources. Unreliable citations may be challenged or deleted. (January 2022) (Learn how and when to remove this template message) This article needs attention from an expert in Indonesia. The sp...
Ukiran kayu Canterbury Tales dari tahun 1484 The Canterbury Tales (Cerita-cerita Canterbury) adalah sebuah koleksi cerita yang ditulis oleh Geoffrey Chaucer pada abad ke-14 (dua dalam bentuk prosa atau gancaran dan yang lainnya dalam bentuk puisi atau syair). Cerita-cerita ini yang beberapa di antaranya adalah cerita asli dan yang lain tidak, terkandung dalam sebuah cerita bingkai dan diceritakan oleh para peziarah yang berada dalam perjalanan dari Southwark ke Canterbury untuk mengunjungi mo...
Wappen der Stadt Ingolstadt Die Liste der Museen in Ingolstadt gibt einen Überblick über aktuelle und ehemalige Museen in der kreisfreien Stadt Ingolstadt in Bayern. Inhaltsverzeichnis 1 Aktuelle Museen 2 Ehemalige Museen 3 Weblinks 4 Einzelnachweise Aktuelle Museen Name Kurzbeschreibung gegründet/eröffnet Träger Standort Bild Link Audi museum mobile Das Museum führt durch die Unternehmensgeschichte seit der Firmengründung durch August Horch im Jahr 1899. Die Ausstellung zeigt über 10...
Sports venue in Ankara, Turkey Ankara ArenaAnkara Spor SalonuLocationAnkara, TurkeyCoordinates39°56′16″N 32°50′38″E / 39.937847°N 32.843896°E / 39.937847; 32.843896OwnerAnkara Metropolitan MunicipalityCapacity10,400ConstructionBroke groundJune 17, 2009OpenedApril 23, 2010; 13 years ago (2010-04-23)Construction costTRY ₺ 47.1 million (approx. € 20 million)ArchitectYazgan Tasarım MimarlıkMain contractorsTürkerler İnşaatTenantsHacett...
Former governing body of darts in Great Britain This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: British Darts Organisation – news · newspapers · books · scholar · JSTOR (March 2013) (Learn how and when to remove this template message) British Darts OrganisationAbbreviationBDOFormation7 January 1973;...
Australian RL coach and former Australia international dual-code rugby footballer Bob Graves redirects here. For the English footballer, see Bob Graves (footballer). Robert GravesPersonal informationBornRobert Henderson Graves[1](1883-09-01)1 September 1883[1]Sydney, New South Wales[1]Died15 February 1958(1958-02-15) (aged 74)[1]Hurstville, New South Wales[1]Playing informationRugby unionPositionProp Forward Club Years Team Pld T G FG P 1901–02 G...
خلفية المقالات الرئيسية: غزو العراق وحرب العراق دبابات أمريكية تمر تحت قوس النصر في بغداد لدى دخولها بغداد عام 2003 بدأت عملية غزو العراق في 20 مارس 2003م وأستمرت لنحو 3 أسابيع، من قبل قوات الائتلاف بقيادة الولايات المتحدة الأمريكية وأطلقت عليه تسمية أئتلاف الراغبين وكان هذا ا...