Pour les articles homonymes, voir Canal.
En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire.
La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
On peut décomposer simplement un système de communication en trois grandes parties[S 1] : une source d'information (associée à un transmetteur), un destinataire (associé à un récepteur), et le canal de communication, qui assure la liaison entre les deux. Selon les modèles de canaux, l'information transmise peut être discrète ou continue.
Souvent, le canal est équipé d'un modèle probabiliste qui décrit le signal sortant en fonction du signal entrant. Cela correspond à des situations réelles comme la transmission d'un signal logique sur un fil ou d'un message sur l'Internet, car les canaux réels ne sont pas entièrement fiables et les erreurs ne se produisent pas de façon systématique.
L'objectif du destinataire est donc de reconstituer le message original à partir de l'information transmise par le canal, ce qui donne lieu à l'usage de codes et plus spécifiquement de codes correcteurs d'erreurs.
Canal discret (Définition) — Un canal de communication est dit discret[S 2] lorsqu'il transmet une séquence de symboles s 1 . . . s n {\displaystyle s_{1}...s_{n}} où n ∈ N {\displaystyle n\in N} .
L'ensemble fini S {\displaystyle S} des valeurs possibles des s i {\displaystyle s_{i}} est appelé alphabet.
Le télégraphe est un exemple de système dans lequel le canal de communication est dit discret : on transmet une suite de symboles élémentaires (code Morse). Les signaux logiques comme le binaire sont également discrets.
Le débit d'information D {\displaystyle D} est défini en fonction du nombre de signaux N ( T ) {\displaystyle N(T)} pouvant circuler pendant une durée T {\displaystyle T} .
La capacité d'un canal de communication constitue une limitation de la quantité d'information que la source peut transmettre vers le récepteur. Elle est définie comme le maximum du débit.
Débit (Définition) — Le débit est donné par :
D = log N ( T ) T {\displaystyle D={\frac {\log N(T)}{T}}}
Capacité (Définition) — La capacité est définie par :
C = lim T → + ∞ log N ( T ) T {\displaystyle C=\lim _{T\rightarrow +\infty }{\frac {\log N(T)}{T}}}
On considère un canal W {\displaystyle W} dont l'alphabet d'entrée est S {\displaystyle S} et l'alphabet de sortie est S ′ {\displaystyle S'} . Cela signifie que les symboles du message émis sont des lettres de S {\displaystyle S} et que ceux du message reçu sont des lettres de S ′ {\displaystyle S'} . Le canal est défini par une loi de probabilité décrivant la probabilité de la sortie en fonction de l'entrée.
Supposons que l'on envoie un symbole s ∈ S {\displaystyle s\in S} dans le canal ; la probabilité que le symbole sortant soit s ′ ∈ S ′ {\displaystyle s'\in S'} est notée W ( s ′ | s ) {\displaystyle W(s'|s)} . Si les deux alphabets sont identiques, la probabilité que le symbole soit transmis de façon fidèle est W ( s | s ) {\displaystyle W(s|s)} .
Dans le cas général, on modélise le symbole transmis par une variable aléatoire X {\displaystyle X} de loi P ( X = s i ) = p i {\displaystyle P(X=s_{i})=p_{i}} (avec ∑ S p i = 1 {\textstyle \sum _{S}p_{i}=1} ). Différents choix existent pour cette loi, notamment :
Dans cette situation, le symbole en sortie du canal est aussi une variable aléatoire, Y {\displaystyle Y} , dont la loi dépend de celle de X {\displaystyle X} :
P ( Y = s ′ ) = ∑ s ∈ S P ( X = s ) × W ( s ′ | s ) {\displaystyle P(Y=s')=\sum _{s\in S}P(X=s)\times W(s'|s)}
On retrouve alors la capacité du canal en observant l'information mutuelle I ( X ; Y ) {\displaystyle I(X;Y)} entre l'entrée et la sortie. L'information mutuelle représente informellement la quantité d'information de X {\displaystyle X} qui a été préservée par le passage dans le canal. La capacité du canal de communication est alors définie par :
C = sup p X I ( X ; Y ) {\displaystyle C=\sup _{p_{X}}I(X;Y)}
La borne supérieure porte sur la distribution de probabilité de X {\displaystyle X} . Pour exploiter toute la capacité du canal, il faut donc choisir judicieusement les symboles que l'on y envoie, car tous ne sont pas traités également.
Lorsque W {\displaystyle W} est un canal d'entrée S {\displaystyle S} et de sortie S ′ {\displaystyle S'} , on définit pour tout n ≥ 1 {\displaystyle n\geq 1} le canal W × n {\displaystyle W^{\times n}} qui représente n {\displaystyle n} copies indépendantes et parallèles de W {\displaystyle W} . Il prend son entrée dans S n {\displaystyle S^{n}} et produit une sortie dans S ′ n {\displaystyle S'^{n}} selon la distribution de probabilité :
W × n ( y 1 … y n | x 1 … x n ) = W ( y 1 | x 1 ) × ⋯ × W ( y n | x n ) {\displaystyle W^{\times n}(y_{1}\dots y_{n}|x_{1}\dots x_{n})=W(y_{1}|x_{1})\times \dots \times W(y_{n}|x_{n})}
Lorsqu'on veut transmettre par un canal un message m ∈ { 1 … M } {\displaystyle m\in \{1\dots M\}} parmi M {\displaystyle M} messages possibles, on choisit un code représenté par deux fonctions :
Le message est transmis par le canal puis réinterprété à l'aide du décodeur pour donner une estimation m ^ {\displaystyle {\hat {m}}} du message original. Plusieurs mesures peuvent être utilisées pour interpréter la performance du canal, notamment :
P e r r = 1 − 1 M ∑ m = 1 M ∑ s ′ ∈ S W ( s ′ | E ( m ) ) 1 { D ( s ′ ) = m } {\displaystyle P_{err}=1-{\frac {1}{M}}\sum _{m=1}^{M}\sum _{s'\in S}W(s'|E(m))\mathbf {1} _{\{D(s')=m\}}}
P e r r , m a x = max m 0 ∈ { 1 … M } P ( m ^ ≠ m 0 | m = m 0 ) {\displaystyle P_{err,max}=\max _{m_{0}\in \{1\dots M\}}\mathbb {P} ({\hat {m}}\neq m_{0}|m=m_{0})}
Il y a un compromis naturel entre le nombre M {\displaystyle M} de messages différents transmis et la probabilité d'erreur de transmission P e r r {\displaystyle P_{err}} . On s'intéresse souvent au meilleur M {\displaystyle M} que l'on peut obtenir pour une certaine valeur maximale de P e r r > 0 {\displaystyle P_{err}>0} , noté M o p t ( W , P e r r ) {\displaystyle M_{opt}(W,P_{err})} .
La valeur particulière M o p t ( W , 0 ) {\displaystyle M_{opt}(W,0)} est appelée capacité à zéro-erreur de W {\displaystyle W} et est définie en faisant tendre P e r r > 0 {\displaystyle P_{err}>0} vers la limite :
C 0 ( W ) = M o p t ( W , 0 ) = lim ϵ → 0 ( lim n → ∞ 1 n log M o p t ( W × n , ϵ ) ) {\displaystyle C_{0}(W)=M_{opt}(W,0)=\lim _{\epsilon \to 0}\left(\lim _{n\to \infty }{\frac {1}{n}}\log M_{opt}(W^{\times n},\epsilon )\right)}