Blockcode

Systematischer Blockcode aus voneinander getrennten Informations- und Prüfsymbolen

Blockcodes sind eine Art der Kanalkodierung der Familie der (fehlererkennenden und) fehlerkorrigierenden Codes. Sie zeichnen sich durch eine feste Blockgröße aus n Symbolen eines festen Alphabets \Sigma (bei Binärcodes \Sigma =\{0,1\}) aus. Einzelne Blocks werden im Gegensatz zu Faltungscodes unabhängig voneinander kodiert und dekodiert.

Wichtige Eigenschaften eines Blockcodes sind die Informationsrate (das Verhältnis aus enthaltener Informationsmenge k zur Gesamt-Datenmenge n) sowie seine Korrekturrate (d.h. die Fähigkeit Fehler zu erkennen und/oder zu korrigieren). Beide Eigenschaften beeinflussen einander gegenseitig und spannen eine gemeinsame, unüberwindbare Schranke auf. Durch Optimierung kann man sich der Schranke nähern, erhält aber lange und aufwändig zu dekodierende Codes. Hier hat sich das Kaskadieren von Codes als praktikablere Lösung erwiesen.

Obwohl Blockcodes häufig nicht optimal im Sinne einer minimalen mittleren Codewortlänge sind, schränkt man sich oft auf Blockcodes ein. Eine weitere Spezialisierung stellen lineare Codes und systematische Codes dar.

Aufbau

Aus dem Alphabet \Sigma und der Blockgröße n ergeben sich \Sigma ^{n} mögliche Worte, von denen eine Teilmenge {\displaystyle {\mathcal {C}}\subseteq \Sigma ^{n}} die gültigen Codeworte darstellt. Die Mächtigkeit des Alphabets \Sigma wird mit {\displaystyle q=|\Sigma |} bezeichnet, sie beträgt im Falle von Binärcodes {\displaystyle q=|\Sigma |=2}. Die Mächtigkeit des Codes {\displaystyle |{\mathcal {C}}|} kann bei vielen Codes (bei linearen Codes immer) als {\displaystyle |{\mathcal {C}}|=q^{k}} mit {\displaystyle k\in \mathbb {N} ^{+}} geschrieben werden. Diese Codes können bei einer Blockgröße von n Symbolen eine Nutzlast k \leq n tragen.

Die Informationrate beträgt {\displaystyle k/n\leq 1}, die Korrekturrate wird durch den (minimalen) Hamming-Abstand des Codes {\mathcal {C}} limitiert. Der Hamming-Abstand zweier Codeworte c_{i} und c_{j} ist hierbei die Anzahl unterschiedlicher Symbole dieser Codeworte {\displaystyle \Delta (c_{i},c_{j})}, der (minimale) Hamming-Abstand d eines (ganzen) Codes {\mathcal {C}} ist der minimale Hamming-Abstand aller (disjunkten) Codewort-Paare, d.h. {\displaystyle d=\Delta ({\mathcal {C}})\,\,{\overset {\underset {\mathrm {def} }{}}{=}}\,\min _{i\neq j}\,\Delta (c_{i},c_{j})}. Letztere beschränkt die maximale (zuverlässige) Korrekturleistung auf t Symbolfehlern mit {\displaystyle t=\left\lfloor (d-1)/2\right\rfloor } ein. Bei kaskadierten Korrekturverfahren spielt neben der Fehlerkorrektur auch die Fehlererkennung eine Rolle. Zum einen erkennen Nicht-perfekte Codes eine gewisse Menge an Mehrbit-Fehler mit {\displaystyle t_{\mathrm {Mehrbit} }>t}, die sie selbst nicht mehr korrigieren können, zum anderen kann man Fehlerkorrektur-Fähigkeiten gegen weitere (garantierte) Fehlererkennungs-Fähigkeiten r eintauschen und damit folgende Korrektur-Stufen unterstützen: {\displaystyle r=d-1-t_{\mathrm {benutzt} }}.

Für Codes haben sich in der Literatur unterschiedliche Notationen etabliert:

Im Weiteren wird versucht, dies wie auch die Nutzung von Variablennamen sowohl in diesem Artikel wie auch in verwandten Artikeln konsistent zu halten.

Man bezeichnet allgemein {\mathcal {C}} als einen {\displaystyle (n,{\mathcal {C}};d,q)}-Code, falls

Betrachtet man lineare Codes, so spricht man von {\displaystyle [n,k;d,q]}-Codes bzw. {\displaystyle [n,k;d]_{q}}-Codes, wobei k hier die Dimension von {\mathcal {C}} über dem Körper \mathbb {F} _{q} ist. n und d haben dabei die gleiche Bedeutung wie bei den allgemeinen Blockcodes.

Es gibt zwar theoretische Grenzen (wie die Hamming-Grenze), aber eine andere Frage ist, welche Codes tatsächlich konstruiert werden können. Es ist, als würde man Kugeln in einem eckigen Karton verpacken … Dieses Diagramm zeigt die konstruierbaren Codes die linear und binär sind. Die x-Achse zeigt die Anzahl der geschützten Symbole k und die y-Achse die Anzahl der benötigten Prüfsymbole n-k. Es sind die Grenzen für verschiedene Hamming-Distanzen dargestellt: Von 1 (ungeschützt) bis 34.
Mit Punkten markiert sind perfekte Codes:
  • hellorange auf der x-Achse: trivial ungeschützte Codes
  • orange, auf der y-Achse: trivial Wiederholungs-Codes
  • dunkelorange, auf der Linie für d=3: klassische, perfekte Hamming-Codes
  • dunkelrot und groß: der einzige perfekte binäre Golay-Code

Man interessiert sich bei gegebenem n, d und q für eine Maximierung der Mächtigkeit des Codes, d.h. für {\displaystyle \max\{|{\mathcal {C}}|:{\mathcal {C}}\,\,{\mathrm {mit} }\,\,\Delta ({\mathcal {C}})\geq d\}}, da hierbei eine optimale Informationsrate für diese Parameter erzielt wird. Allerdings gibt es günstige Parameter, die zu effizienteren Codes als ihre Nachbarparameter führen. So fordert ein {\displaystyle [23,12;7,2]}-Code 11 Schutzbits, ein {\displaystyle [27,13;7,2]}-Code allerdings schon 14. Ein {\displaystyle [41,24;7,2]}- kommt wie ein {\displaystyle [55,38;7,2]}-Code mit 17 Schutzbits aus.

Es gibt Abschätzungen, ob Codes möglich sein könnten oder gegen gewisse Prinzipien verstoßen:

Schranken weisen darauf hin, ob Codes existieren können, nicht ob sie konstruierbar sind und wirklich existieren.

Typen von Blockcodes

Formal heißt der Code {\displaystyle {\mathcal {C}}\subseteq \Sigma ^{n}} Blockcode, wobei \Sigma als Alphabet bezeichnet wird und n die Länge jedes Codewortes c \in \mathcal C ist.

Triviale Blockcodes sind Codes

Bemerkungen:
  • Der erste Code lässt sich als {\displaystyle [n,0;2n+1,q]}-Code schreiben. Er hat im klassischen Sinne keine Hamming-Distanz, da es keine Codepaare gibt. Es lassen sich bis zu maximal {\displaystyle t=n} Symbolfehler im übertragenen Wort w korrigieren (das übertragene Codewort ist bekannt), was eine typische Eigenschaft für Codes mit {\displaystyle d=2t+1=2n+1} ist. Das gleiche gilt für die Anzahl von Codes, die sich eindeutig dekodieren lassen. Die Gleichung {\displaystyle q^{n}={\sum _{i=0}^{\lfloor (d-1)/2\rfloor }(q-1)^{i}{\binom {n}{i}}}} liefert für {\displaystyle d\geq 2n+1} das richtige Ergebnis.
  • Der zweite Code lässt sich als {\displaystyle [n,n;1,2]}-Code schreiben. Er hat eine Hamming-Distanz von 1.

Lineare Blockcodes sind Codes,
wenn {\mathcal {C}} ein k-dimensionaler Untervektorraum von \Sigma ^{n} ist. Es existiert dann eine Basis g_1, \dots, g_k von {\mathcal {C}}. Fasst man diese Basis zu einer Matrix

{\displaystyle G={\begin{pmatrix}g_{1}\\g_{2}\\\vdots \\g_{k-1}\\g_{k}\end{pmatrix}}}

zusammen, erhält man eine Generatormatrix dieses linearen Blockcodes. Die Codeworte erhält man durch Multiplizieren des Eingangssignals x mit der Generatormatrix

{\displaystyle c(x)=x\cdot G}

Der Hauptvorteil linearer Code ist die einfache Codierbarkeit und die einfache Decodierbarkeit.

Bemerkungen:
Zur Kodierung eines Codes mit {\displaystyle q^{k}} Codeworten muss man nur noch k Codeworte vorrätig halten. Gleiches gilt für die Dekodierung mit q^n vs. n.

Systematische Blockcodes sind Codes,
bei denen die k Informationssymbole direkt im Block ablesbar sind (meist am Blockanfang, siehe Abbildung am Anfang des Artikels). Sie können gleichzeitig lineare Blockcodes sein, müssen es aber nicht. Sie sind lineare Blockcodes, wenn neben den Informationssymbolen (die immer linear sind) auch die Prüfsymbole linear sind.

Perfekte Blockcodes sind Codes,
in denen jedes Wort {\displaystyle w\in \Sigma ^{n}} nur zu genau einem Codewort c \in \mathcal C (und nicht zu mehreren) einen geringsten Hamming-Abstand {\displaystyle d_{w}} hat. Jedes Wort lässt sich damit eindeutig decodieren. Der Hamming-Code ist ein Beispiel für einen perfekten Code.

Maximum-Distanz-Codes (MDS Codes) sind Blockcodes,

deren Codeworte den größtmöglichen Hamming-Abstand voneinander haben. Beispiele für MDS Codes sind Wiederholungscodes, Paritätscodes und Reed-Solomon-Codes.

Informationsrate von Blockcodes

Die Informationsrate (auch Coderate) R gibt an, wie viel Information pro Codewortsymbol im Mittel übertragen wird, sie ist also das Verhältnis von Nachrichtensymbolen zu Codewortsymbolen. Da ein Code Redundanz hinzufügt, gilt allgemein {\displaystyle 0\leq R\leq 1}.

Sei {\displaystyle {\mathcal {C}}\subseteq \Sigma ^{n}} ein Blockcode und es gelte {\displaystyle q=|\Sigma |}, das Alphabet habe also q verschiedene Elemente. Dann lautet für {\mathcal {C}} die Definition der Informationsrate:

{\displaystyle R={\frac {\log _{q}(|{\mathcal {C}}|)}{\log _{q}(|\Sigma |^{n})}}={\frac {\log _{q}(|{\mathcal {C}}|)}{n}}}.

Ist z.B. {\mathcal {C}} ein binärer Code mit s verschiedenen Codeworten, dann benötigt man {\displaystyle \lceil \log _{2}s\rceil } Bits, um diese eindeutig zu unterscheiden.

Handelt es sich um einen linearen Code, so ist die Informationsrate:

{\displaystyle R={\frac {\log _{q}(q^{k})}{n}}={\frac {k}{n}}}.

Beispiele für Blockcodes

Wiederholungscode

Wiederholungscodes sind lineare, systematische {\displaystyle [n,1;n]}-Blockcodes über einem beliebigen Alphabet, bei denen jedes Nachrichtensymbol n-mal wiederholt wird. Damit hat ein Wiederholungscode die Generatormatrix

{\displaystyle G={\begin{pmatrix}1\cdots 1\end{pmatrix}}}

und eine Informationsrate von {\displaystyle R={\frac {1}{n}}}.

Paritätscode

Paritätscodes (engl. Single Parity Check (SPC) codes) sind lineare, systematische und binäre Codes, bei denen der Nachricht ein einziges Prüfbit angefügt wird, das sich als XOR-Verknüpfung aller Nachrichtenbits ergibt. Somit hat jedes Codewort eine gerade Anzahl an „1“-Bits. Die Generatormatrix hat folgende Form:

{\displaystyle G={\begin{pmatrix}10\dots 00\,\,1\\01\dots 00\,\,1\\\,\,\,\,\vdots \ddots \vdots \,\,\,\,\,\,\vdots \\00\dots 10\,\,1\\00\dots 01\,\,1\\\end{pmatrix}}}

Sie haben eine Hamming-Distanz von 2 und stellen -{\displaystyle [n,n-1;2,2]}Blockcodes dar. Sie können einen Fehler erkennen, aber keine Fehler korrigieren. Lineare binäre Blockcodes mit ungeradem Hamming-Abstand {\displaystyle [n,k;2m+1,2]} lassen sich mit einem zusätzlichen Paritätscode zu einem {\displaystyle [n+1,k;2m+2,2]}-Code erweitern.

Hadamard-Code

Hadamard Codes sind lineare nicht-systematische Blockcodes {\displaystyle [2^{k},k+1;2^{k-1}]}. Die Generatormatrix hat eine sehr auffällige Form

{\displaystyle G={\begin{pmatrix}01010101\cdots 10\cdots 01010101\\00110011\cdots 10\cdots 00110011\\00001111\cdots 10\cdots 00001111\\\vdots \\00000000\cdots 01\cdots 11111111\\11111111\cdots 10\cdots 00000000\\\end{pmatrix}}}

Sie haben eine geringe Coderate von {\displaystyle R={\frac {k+1}{2^{k}}}}, können aber noch Daten aus sehr fehlerbehafteten Signal dekodieren. Daher fanden sie unter anderem in der Mariner 9 Mission Anwendung.

Weitere Beispiele für Blockcodes

Beispiel 1

{\displaystyle (9,\{0,31,227,364,437,474\};5,2)}

Die c lauten in der Binärdarstellung:

.........
....#####
.###...##
#.##.##..
##.##.#.#
###.##.#.

Es existiert kein linearer Code dieser Mächtigkeit. Zum einen ist {\displaystyle {\text{log}}_{q}6\not \in \mathbb {N} ^{+}}, zum anderen sind die größten lineare Code dieser Art ein {\displaystyle [8,2;5,2]}- und ein {\displaystyle [10,3;5,2]}-Code. Der Code lässt sich nicht in einen linearen Code umwandeln.

Beispiel 2

{\displaystyle (11,\{0,143,307,444,597,730,870,1001,1130,1253,1369,1494,1599,1712,1804,1923\};5,2)}

Die {\displaystyle |{\mathcal {C}}|=16} Codeworte c lauten in der Binärdarstellung (MSB links):

...........
...#...####
..#..##..##
..##.####..
.#..#.#.#.#
.#.##.##.#.
.##.##..##.
.#####.#..#
#...##.#.#.
#..###..#.#
#.#.#.##..#
#.###.#.##.
##...######
##.#.##....
###....##..
####.....##

Es handelt sich um einen linearen systematischen Code mit der Basis

...#...####
..#..##..##
.#..#.#.#.#
#...##.#.#.

Die 16 Codeworte lassen sich durch eine XOR-Verknüpfung der Basisvektoren erzeugen, deren Informationsbits gesetzt sind (daher linearer Code). Die Informationsbits stellen die linken 4 Bit dar (Bit 10 bis 7), die Schutzbits die rechten 7 Bit (Bit 6 bis 0) (daher systematischer Code).

Beispiel 3

{\displaystyle (8,\{0,7,25,30,42,53,75,84,97,108,114,127,140,147,166,169,176,194,197,216\};3,2)}

Die {\displaystyle |{\mathcal {C}}|=20} Codeworte c lauten in der Binärdarstellung:

........
.....###
...##..#
...####.
..#.#.#.
..##.#.#
.#..#.##
.#.#.#..
.##....#
.##.##..
.###..#.
.#######
#...##..
#..#..##
#.#..##.
#.#.#..#
#.##....
##....#.
##...#.#
##.##...

Es existiert kein linearer Code dieser Mächtigkeit. Auch hier ist zum einen {\displaystyle {\text{log}}_{q}20\not \in \mathbb {N} ^{+}}, zum anderen sind die größten lineare Code dieser Art ein {\displaystyle [7,4;3,2]}- und ein {\displaystyle [9,5;3,2]}-Code. Der Code lässt sich nicht in einen linearen Code umwandeln.

Fehlerkorrektur

Blockcodes können zur Fehlererkennung und Fehlerkorrektur bei der Übertragung von Daten über fehlerbehaftete Kanäle verwendet werden. Dabei ordnet der Sender dem zu übertragenen Informationswort der Länge k ein Codewort der Länge n zu, wobei {\displaystyle n>k}. Durch das Hinzufügen der n-k zusätzlichen Symbole entsteht Redundanz und die Informationsrate sinkt; jedoch kann der Empfänger die redundante Information nun dazu nutzen Übertragungsfehler zu erkennen und zu korrigieren.

Verwendet man beispielsweise, im Fall der Binärkodierung, die Zuordnung

Informationswort Codewort
0 000
1 111

so können empfangene Codewörter mit genau einem Bitfehler korrigiert werden, indem man mit Hilfe einer Mehrheitsfunktion das abweichende Bit umkehrt:

Fehlerhaftes
Codewort
Korrigiertes
Codewort
Zugeordnetes
Informationswort
001 000 0
010 000 0
011 111 1
100 000 0
101 111 1
110 111 1

Sind in diesem Falle jedoch zwei Bits falsch, so wird zwar ein Fehler erkannt, aber fehlerhaft korrigiert. Sind gar drei Bits falsch, so kann nicht einmal mehr ein Fehler erkannt werden.

Schranken

Singleton-Schranke

Die Singleton-Schranke bezeichnet eine obere Schranke für die Mindestdistanz d eines Blockcodes der Länge n bei Informationswörtern der Länge k über einem einheitlichen Alphabet \Sigma .

Sie lautet:

{\displaystyle d\leq n-k+1}

Die Schranke kann auf folgende Art intuitiv klargemacht werden:

Streicht man nun in den Codewörtern jeweils die letzten (d-1) der n Stellen, so haben die übrigen Codewörter zueinander immer noch mindestens den Hamming-Abstand 1. Bei d Streichungen wäre dies nicht mehr gewährleistet. Damit sind immer noch alle Codewörter unterschiedlich, also

{\displaystyle |{\mathcal {C}}'|=|{\mathcal {C}}|=q^{k}}

Deswegen muss auch die Anzahl der durch die Länge {\displaystyle n-(d-1)} erzeugbaren Wörter {\displaystyle q^{n-d+1}\geq q^{k}} sein. Stellt man diese Gleichung um, ergibt sich daraus die Singleton-Schranke

{\displaystyle n-d+1\geq k\Leftrightarrow d\leq n-k+1}

Für nicht-lineare Codes gilt entsprechend

{\displaystyle M\leq q^{n-d+1}},

wobei {\displaystyle M=|{\mathcal {C}}|}.

Codes, die die Singleton-Schranke mit Gleichheit erfüllen, nennt man auch MDS-Codes.

Im Falle der Hamming-Schranke ist {\displaystyle t=\lfloor (d-1)/2\rfloor } die Anzahl der maximal korrigierbaren Fehler eines Codes mit der Hamming-Distanz d.

Die Hamming-Schranke sagt aus, dass

{\displaystyle q^{n}\geq q^{k}{\sum _{i=0}^{t}(q-1)^{i}{\binom {n}{i}}}},

beziehungsweise

{\displaystyle n\geq k+\log _{q}{\sum _{i=0}^{t}(q-1)^{i}{\binom {n}{i}}}}

erfüllt sein muss für einen Code, der mittels n Symbolen eines Alphabets \Sigma der Größe q eine Nachricht mit der Länge k transportiert.

Die Singleton-Schranke ist eine ungenauere Abschätzung als die Hamming-Schranke, die die Größe des Alphabets nicht berücksichtigt. Weiterhin gibt es Unterschiede in der Beziehung zwischen t und d.

Plotkin-Grenze

In der Kanalcodierung verwendet man Blockcodes, um Fehler in Datenströmen erkennen und korrigieren zu können. Ein Blockcode C der Länge n über einem q-nären Alphabet mit einem Minimalabstand d erfüllt die Plotkin-Grenze, auch als Plotkin-Schranke bezeichnet,

{\displaystyle |C|\leq {\frac {d}{d-({\frac {q-1}{q}})\cdot n}}}

dann, wenn der Nenner positiv ist. Somit liefert die Plotkin-Grenze nur dann ein Resultat, wenn d hinreichend nahe bei n liegt.

Nimmt ein Code C die Plotkin-Schranke an, so gilt insbesondere, dass der Abstand zweier beliebiger Codewörter genau d ist.

Ist {\displaystyle q\geq 3} und {\displaystyle |C|=a\cdot q+b} mit {\displaystyle b<q}, so gilt sogar die schärfere Beziehung:

{\displaystyle d{|C| \choose 2}\leq n\left({|C| \choose 2}-b{a+1 \choose 2}-(q-b){a \choose 2}\right)}

Beispielsweise liefert die Plotkin-Grenze für q=3, n=9 und {\displaystyle d=7} nur {\displaystyle |C|\leq 7}, die Verschärfung jedoch {\displaystyle |C|\leq 6}, da sich für a=2 und b=1 ein Widerspruch ergibt.

Sie wurde 1960 von Morris Plotkin veröffentlicht.

Literatur

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 01.03. 2023