ÜbungzurVorlesung InformationstheorieundCodierung Prof.Dr.LiliaLajmi Juni2015 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str. 46/48 • 38302 Wolfenbüttel Besucheranschrift: Salzdahlumer Str. 46/48 • 38302 Wolfenbüttel ÜbungInformationstheorieundCodierung2015 1 Aufgaben AlphabetundWörter Aufgabe1 1. EsseidasAlphabet 0, 1, 2 und 3gegeben. a. BestimmenSie: , , , und ∗ b. Wiegroßist| |? 2. EinAlphabetA,bestehendaus26Buchstaben,3UmlautensowiedemLeerzeichen unddenneunSatzzeichen.,;:?!„“und–sollBinärundhexadezimaldargestellt werden. Wievielebinärebzw.hexadezimaleStellensindfürdieDarstellungeinesSymbols mindestenserforderlich? CodierungundDecodierung Aufgabe2 EinSenderkannvierCodierteNachrichtenaussenden(Eshandeltsichhierumeinerbi‐ närenBlockcodierungderLänge2): 00DieBörseistsehrfest. 11Sollenwirverkaufen? 01DieKursefallen. 10Helftunsgegensteuern! EinesTageswirddieSymbolfolge…00110011001…empfangen.Dabeihatmandaserste Symbolverpasstunderstdaszweiteempfangen. Zusätzlichweißmannicht,wodieMitteilungaufhört,daderSenderimmerweitersendet. RekonstruierenSiediegesendeteBotschaftunterderAnnahme,dassderSenderetwas Sinnvollesübertragenhat. Aufgabe3:PräfixfreierCode GegebenseidasAlphabet IstdieMenge 0, 1 . 1, 011, 01110, 1110,10011 einsinnvollerCodefürfünfNachrichten? Aufgabe4: BestimmenSiefürjedenderfolgendenCodes,obdiesereindeutigdecodierbaristundob essichumeinenpräfixfreienCodehandelt. IstderCodenichteindeutigdecodierbar,danngebenSieeineCodesequenzan,fürwelche zweiunterschiedlicheInterpretationenalsSequenzausCodewörternexistieren.Sonstre‐ präsentierenSiedenCodemiteinemCodebaum. 5.Juni2015 Seite1von56 ÜbungInformationstheorieundCodierung2015 1. 00, 10, 01, 11 2. 0, 10, 11 3. 0, 01, 11 4. 1, 101 5. 0, 1, 01 Bemerkung: ExistierteineindeutigdecodierbarerCode,dannexistiertaucheinpräfix‐ freierCodemitdenselbenCodewortlängen.Deshalbwerdenfüreindeutig decodierbareCodesüblicherweisePräfixfreieCodesVerwendet. Aufgabe5:UngleichungvonKraft EinbinärerBaumhabe 7Endknoten,derenAbstände vonderWurzelsind: 2; 3; 4 1. ExistiertdieserBaum? 2. Wennja,stellenSiediesenBaumdar. Aufgabe6:UngleichungvonKraft 1. ExistiertfürfolgendeCodewortlängeneinbinärerPräfixfreierCode?Wennja,dann konstruierenSieeinenentsprechendenCode a. 1, 2, 3, 4, 5, 5 b. 1, 2, 3, 4, 4, 5 c. 2, 2, 2, 3, 4 2. ExistiertfürfolgendeCodewortlängeneinternärerPräfixfreierCode?Wennja,dann konstruierenSieeinenentsprechendenCode a. 1,2,3,1,2,3,2 b. 1,2,3,4,1,2,3,4 c. 3,3,3,3,3,3,2,1,1 Aufgabe7:ASCII‐Codierung 1. WielautetderASCII‐CodevomSymbol„A“(Hexadezimalzahl=41) 2. VervollständigenSiediefolgendeTabellezurUmrechnungvonDezimal‐,Hexadezi‐ mal‐undBinärzahl 5.Juni2015 Seite2von56 ÜbungInformationstheorieundCodierung2015 Dezimalzahl Hexadezimalzahl Binärzahl 715 19 B3 125 1010101 Quellencodierung Aufgabe8 GegebenseieineQuelleQmit4Symbolen(A,B,CundD). DieAuftrittswahrscheinlichkeitenderSymboleseien: 0,8 0,1 0,08 0,02 1. WiegroßistdieInformationeineseinzelnenSymbols? 2. WiegroßistdieEntropiederQuelle? 3. WiegroßwäredieEntropiebeigleicherAuftrittswahrscheinlichkeitder4Symbole? Aufgabe9 EineQuelleenthält4Symbole:Q A B C D 1. BerechnenSie: a. DenEntscheidungsgehaltH . b. DieEntropieH Q c. DieRedundanzderQuelleR . 2. DieQuellewirdmiteineroptimalenCodewortlängecodiert(angepasstandenInfor‐ mationsgehaltdereinzelnenSymbole). a. BerechnenSiediemittlereCodewortlängeproSymbolL x b. WielautendieCodewörterdereinzelnenSymbole? c. BerechnenSiediemittlereCodewortlängeL d. BerechnenSiedieRedundanzdesCodesR Aufgabe10:FanoCodierung QuelleQistgegebendurchAlphabetundabsoluteHäufigkeiten: 15 7 6 6 5 1. CodierenSiedieQuellenachFano(CodierungstabelleundCode‐Baum) 2. WiegroßistdiemittlereCodewortlänge? 5.Juni2015 Seite3von56 ÜbungInformationstheorieundCodierung2015 Aufgabe11:FanoCodierung ErstellenSiejeweilsdenCodebaumundCode‐Tabelle.GebenSiefürjedesZeichendieCo‐ dierunganundberechnenSiediemittlereCodewortlänge 1. 2. ZeigenSie,dasseshiernachdemFanodreiunterschiedlichemöglicheCodierungengibt unddassdieFano‐Codierungnichtimmeroptimalist Aufgabe12: GegebenistdieQuelle 0,4 0,1 0,2 0,3 1. WiegroßistdieEntropiederQuelle? 2. Fano‐Codierung a. CodierenSiedieQuellemitdemFano‐Algorithmus b. BerechnenSiediemittlereCodewortlängeunddieRedundanzdesCodes 3. Shannon‐Codierung a. CodierenSiedieQuellemitdemShannon‐Algorithmus b. BerechnenSiediemittlereCodewortlängeunddieRedundanzdesCodes 4. Huffman‐Codierung a. CodierenSiedieQuellemitdemHuffmann‐Algorithmus b. BerechnenSiediemittlereCodewortlängeunddieRedundanzdesCodes 5. VergleichenSiedieErgebnissederdreiAlgorithmen. Aufgabe13:Shannon‐Codierung EineQuelleenthälteinZeichenvorratvon4Zeichen(A,B,C,D).DieAuftrittswahrschein‐ lichkeitendereinzelnenZeichenseien: PA=0,8; PB=0,1; PC=0,08; PD=0,02. 1. WiegroßsinddieInformationsgehaltedereinzelnenZeichen? 2. WiegroßistdieEntropiederQuelle?WiegroßwäredieEntropiederQuellebeiglei‐ cherAuftrittswahrscheinlichkeitdervierZeichen? 3. Für die Übertragung soll ein Binärcode nach Shannon entwickelt werden. Welche mittlereCodewortlängeergibtsichausdemerstelltenCode. Aufgabe14:HuffmanCodierung GegebenseidiefolgendeNachricht: RZROZPZZ 1. GebenSiediezugehörigeHuffman‐Codierungan. 2. ErmittelnSiedurchRechnung,obessichdabeiumeinenoptimalenCodehandeltund begründenSiedasErgebnis.WelcheRegeltriffthierzu? 5.Juni2015 Seite4von56 ÜbungInformationstheorieundCodierung2015 Aufgabe15:HuffmanCodierung FüreinenZeichenvorratsindfolgendeAuftrittswahrscheinlichkeitengegeben: Zeichen R E Häufigkeit 0,09 0,01 H K P A S 0,4 0,05 0,12 0,13 0,2 1. LeitenSiediezugehörigeHuffman‐Codierungher 2. BerechnenSiedieRedundanzdesCodes 3. CodierenSiedieZeichenfolgen a. KEKSE b. HARKE 4. IstderCodeoptimal?WannliefertderHuffman‐AlgorithmuseinenoptimalenCode? Aufgabe16: GegebenseidieQuelle 0,7 0,2 0,1 1. CodierenSiedieSymbolevon undberechnenSiediemittlereCodewortlänge 2. CodierenSieSymbolpaarevon undbestimmenSiediemittlereCodewortlängepro Symbol.VergleichenSiebeideErgebnissemitderEntropiederQuelle Aufgabe17: GegebenistfolgendeBinärsequenz: 0001 0000 1010 0000 1000 0011 0010 0010 1. BerechnenSiefürdieobigeNachricht: a. DenEntscheidungsgehalt b. DieEntropie c. DieRedundanzproSymbolunddiegesamteRedundanzderNachricht. 2. Es sind jeweils zwei benachbarte Bits zu einem Symbol zusammenzufassen. Beant‐ wortenSiefürdiesichdarausergebendeSymbolfolgealleFragengemäß1a‐c. 3. CodierenSiedieSymbolfolgemitShannon.WelcheRedundanzergibtsich? 4. CodierenSiedieSymbolfolgemitHuffman.WelcheRedundanzergibtsichjetzt? Aufgabe18: GegebenistfolgendeNachricht: AACDABCAAADBACAC 1. Wiegroßsind a. derEntscheidungsgehaltderNachrichtenquelle, b. derInformationsgehaltdereinzelnenZeichen, c. dieEntropieundRedundanzderNachricht. 2. DieZeichensollenbinärcodiertunddannübertragenwerden.DerCodelautet: A=00 B=01 C=10 D=11 5.Juni2015 Seite5von56 ÜbungInformationstheorieundCodierung2015 a. GebenSiedenInformationsgehaltderbinärenZeichen0und1an b. WelcheRedundanzergibtsichjetzt? c. MachenSieeinenVorschlag,wiedieRedundanzdurcheineoptimierteCodierung verringertwerdenkann. Aufgabe19: EinefarbigeGrafikbestehtaus1MillionBildpunkten,dieROT,GRÜN,BLAU,WEISSund SCHWARZ aussehen können. Das gesamte Bild wird in 1 Sekunde übertragen. Alle ge‐ nanntenFarben/HelligkeitentreteninderGrafikgleichhäufigauf. 1. BerechnenSiedenEntscheidungsgehaltderQuelle„farbigeGrafik“undgebenSieden InformationsgehaltfürjedesdermöglichenZeichen(Farbenbzw.Helligkeitswerte) an. 2. Die Zustände der Bildpunkte sollen binär codiert werden (gleiche Codewortlänge). WelcherDatenflussergibtsichhierbei?WelcheRedundanzliegtjetztvor? 3. StellenSiedieZeichenmitdemHuffman‐Codedar.WelchemittlereCodewortlänge ergibtsich?WelcheRedundanzresultiert? DiskreteQuellemitGedächtnis Aufgabe20: GegebenSeieineQuelle , , mitGedächtnis.FürdieQuellensymbolegeltendie folgendenbedingtenWahrscheinlichkeiten: | 1 3 1 3 1 3 1 4 1 2 1 4 1 4 1 4 1 2 1. StellenSiedieQuelleanschaulichmitHilfeeinesMarkov‐Diagramms1.Ordnung dar. 2. BestimmenSiedieSymbolwahrscheinlichkeiten , und 3. BerechnenSiedieVerbundwahrscheinlichkeiten , 4. Berechnen Sie die Entropie der Quelle, die bedingte Entropie und die Verbun‐ dentropie Aufgabe21:Markov‐Quelle EinediskreteQuelle Abbildung. 5.Juni2015 , mitGedächtnishabedenZustandsgrafausderfolgenden Seite6von56 ÜbungInformationstheorieundCodierung2015 3/4 ? B A ? 1. GebenSiedieÜbergangswahrscheinlichkeitenan. 2. BerechnenSiedieAuftrittswahrscheinlichkeitendereinzelnenZustände. 3. GebenSiedieEntropiederQuelleanunterBerücksichtigungderÜbergangswahr‐ scheinlichkeiten. 4. Fassen Sie jeweils drei Zeichen zu einem Symbol zusammen. Berechnen Sie die WahrscheinlichkeitendermöglichenSymbole. 5. FührenSieeineHuffman‐CodierungdurchundgebenSiediemittlereCodewort‐ längedesCodes. Kanalcodierung Aufgabe22:(A32Dr.Jäger) GegebenseieinsymmetrischerbinärerKanal(BSC),dessenEingangszeichen und 0,4 und 0,6 haben und dessen Bit‐ die Auftrittswahrscheinlichkeiten fehlerwahrscheinlichkeit 0,05beträgt. 1. BestimmenSiedieEntropiederKanalausgabe 2. dieEntropiederIrrelevanz | , 3. dieTransinformation , . , Aufgabe23:(A31 Dr. Jäger) GegebenseiderskizzierteKanal WiegroßistdieKanalkapazität ,wenndieEingangs‐undAusgangszeichengleichverteilt sind? 5.Juni2015 Seite7von56 ÜbungInformationstheorieundCodierung2015 Aufgabe24:(A30 Dr. Jäger) GegebenseieinBSC‐KanalmiteinerÜbertragungsrate wahrscheinlichkeitvon 0,1 1 / undeinerBitfehler‐ DieDaten,dieüberdiesenKanalübertragenwerdensollen,stammenvoneinerbinären Quelle( und )mitdenAuftrittswahrscheinlichkeiten und .DieSymbole derQuellewerdenstatistischunabhängigvoneinanderausgewählt. 1. WiegroßistdieKanalkapazität ? 2. WiegroßistdieEntropiederQuellemit 0,3und 0,7? 3. WelchemaximaleSymbolrate kannimPrinzipfehlerfreiübertragenwerden? Aufgabe25:(A34 Dr. Jäger) Es sei ein fehlererkennender und fehlerkorrigierender Code über dem Alphabet 0, 1 miteinerCodewortlänge 20gegeben. 1. WievieleNachrichtenstellenkönnenmitdiesemCodeübertragenwerden,wennbis zu3Fehlerkorrigiertwerdensollen? 2. WievieleverschiedeneNachrichtenkönnendannmaximalcodiertwerden? 3. WiegroßistdieMinimaldistanzdesCodes? 4. WievieleFehlerkönnen(ggf.ohneKorrekturmöglichkeit)erkanntwerden? Aufgabe26 EinHamming‐CodederLänge Bestätigungeingesetztwerden. sollzurreinenFehlererkennungmitanschließender DieBitfehlerwahrscheinlichkeiteinessymmetrischenBinärkanalsbeträgt 5 ∙ 10 1. WiegroßistdieWahrscheinlichkeit,dasseinCodewortfehlerhaftempfangenwird? 2. WiegroßistdieWahrscheinlichkeit,dasseinfehlerbehaftetesEmpfangswortnichter‐ kanntwird? Aufgabe27:(A33Dr.Jäger) Gegeben sei ein linearer Blockcode über dem Alphabet matrix 0 1 1 1 0 1 0 1 0 1 0 0 1 1 0, 1 mit der Generator‐ 0 1 0 0 1 1 1 1. StellenSiedenvollständigenCodeauf(ListederNachrichtenwörtermitdenzuge‐ hörigenCodewörtern). 2. BerechnenSie , und desCodes. 3. Geben Sie alle möglichen Vektoren an, die in der Korrigierkugel um 0111010 liegen. 5.Juni2015 Seite8von56 ÜbungInformationstheorieundCodierung2015 4. WielautetdieGeneratormatrix ´ deszugehörigenseparierbarenCodes? 5. StellenSiedieKontrollmatrix fürdenseparierbarenCodeauf. 6. GebenSiedieGleichungenzurErmittlungderKontrollstellenan(Ablesenausder Kontrollmatrix). 7. WielautendanndiezugehörigenPrüfgleichungen? 8. ErstellenSieausderKontrollmatrix dievollständigeSyndromtabelle(fürEin‐ zelfehler).KönnenalleEinzelfehlerkorrigiertwerden? 9. ZeigenSiedann(durchBerechnungdermöglichenSyndrome),dasssichauchalle BündelfehlerderLänge2korrigierenlassen. 10. Wielautendiezudenfolgenden(verfälschten)Empfangsvektoren gehörenden (korrigierten)Codewörter 0001101 ; 0010100 ; 1111110 Aufgabe28: (A37Dr.Jäger) GegebenseieinzyklischerCodeCüber 0,1 mitdemGeneratorpolynom 1,derCodewörterderLänge 7erzeugt. 1. WievieleKontroll‐undNachrichtenstellenhatderCode? 2. GebenSiediezugehörigeGeneratormatrix desCodesan. 111 und 101 invektorieller 3. CodierenSiedieNachrichtenvektoren undinpolynomialerDarstellung. 4. KonstruierenSiedieCodewortpolynomedeszugehörigenseparierbarenCodeszuden Nachrichtenwörtern 1und . 5. ErstellenSieeineSyndromtabellefüralleEinzelfehler. 6. EswerdendasWort 1001001 unddasWort 0100111 empfan‐ gen.PrüfenSie,obessichumgültigeCodewörterhandeltundkorrigierenSiegegebe‐ nenfallsdieEmpfangswörter. Faltungscodierung Aufgabe29: GegebenisteinCodiererfüreinenFaltungscodederrate länge2. mitderSchieberegister‐ 1. ZeichnenSiedasTrellis‐unddasZustandsdiagramm. 2. DecodierenSiedieEmpfangssequenz100101.Handeltessichumeinerfehlerfreien oderfehlerbehaftetenÜbertragung? 3. DecodierenSiedieEmpfangssequenz110101.Handeltessichumeinerfehlerfreien oderfehlerbehaftetenÜbertragung? 5.Juni2015 Seite9von56 ÜbungInformationstheorieundCodierung2015 Aufgabe30: GegebenistderfolgendeFaltungscodierer: + Ausgabebits c2c1c0 c2 q1i-1 q0i-1 q1i q0i Eingabebits c1 c0 + + 1. WelcheCoderatehatdieserCodierer? 2. GebenSiedieAusgangsbitsequenzamAusgangdesCodierers,wennamEingangdie Sequenz011010vorliegt. 3. VervollständigenSiedasfolgendeTrellisdiagramm. t -- -- -- -- Zustände 4. DecodierenSiedieEmpfangsfolge111011.Handeltessichumeinerfehlerfreienoder FehlerbehaftetenÜbertragung?WievieleFehlerwurdenerkanntbzw.korrigiert? 5.Juni2015 Seite10von56 ÜbungInformationstheorieundCodierung2015 2 Lösungen AlphabetundWörter Aufgabe1 1. EsseidasAlphabet a. BestimmenSie: , , , und , , und ∗ gegeben. :MengeallerWörterderLänge über . ∗ :MengeallerWörtermiteinermaximalenLänge über . ∅ 0, 1, 2 00, 01, 02, 10, 11, 12, 20, 21, 22 000, 001, 002 010, 011, 012 020, 021, 022 100, 101, 102 100, 111, 112 120, 121, 121 200, 201, 202 210, 211, 212 220, 221, 222 b. Wiegroßist ? | | | | 3 27 | ∗ | 0 3 9 27 39 2. EinAlphabet ,bestehendaus26Buchstaben,3UmlautensowiedemLeerzei‐ chenunddenneunSatzzeichen.,;:?!„“und–sollBinärundhexadezimaldar‐ gestelltwerden. Wievielebinärebzw.hexadezimaleStellensindfürdieDarstellungeinesSym‐ bolsmindestenserforderlich? Alphabet hatinsgesamt:| | Binär:2 26 32zuwenig;2 3 1 9 39Symbole 64OK Binär:Essind6Stellenerforderlich. Hexadezimal: 1.Stelle16 15Zeichenzuwenig 2.Stelle16 16 bismax. 15 ∙ 16 15 255OK Hexadezimal:Essind2Stellenerforderlich. 5.Juni2015 Seite11von56 ÜbungInformationstheorieundCodierung2015 CodierungundDecodierung Aufgabe2 EinSenderkannvierCodierteNachrichtenaussenden(Eshandeltsichhierumeinerbi‐ närenBlockcodierungderLänge2): 00DieBörseistsehrfest. 11Sollenwirverkaufen? 01DieKursefallen. 10Helftunsgegensteuern! EinesTageswirddieSymbolfolge…00110011001…empfangen.Dabeihatmandaserste Symbolverpasstunderstdaszweiteempfangen. Zusätzlichweißmannicht,wodieMitteilungaufhört,daderSenderimmerweitersendet. RekonstruierenSiediegesendeteBotschaftunterderAnnahme,dassderSenderetwas Sinnvollesübertragenhat. Lösung: Möglichkeit1:DasersteSymbolist0dieNachrichtlautet:DieBörseistsehrfest.Die Kursefallen.Helftunsgegensteuern! Möglichkeit2:DasersteSymbolist1dieNachrichtlautet:Helftunsgegensteuern!Die Kursefallen. DasersteZeichenwar„1“. Aufgabe3:PräfixfreierCode GegebenseidasAlphabet IstdieMenge 0, 1 . 1, 011, 01110, 1110,10011 einsinnvollerCodefürfünfNachrichten? Lösung: Codewort2(011)istauchinCodewort3(01110)enthaltenkeinPräfixfreierCode Codeungünstig Aufgabe4: BestimmenSiefürjedenderfolgendenCodes,obdiesereindeutigdecodierbaristundob essichumeinenpräfixfreienCodehandelt. IstderCodenichteindeutigdecodierbar,danngebenSieeineCodesequenzan,fürwelche zweiunterschiedlicheInterpretationenalsSequenzausCodewörternexistieren.Sonstre‐ präsentierenSiedenCodemiteinemCodebaum. 1. 00, 10, 01, 11 5.Juni2015 Seite12von56 ÜbungInformationstheorieundCodierung2015 2. 0, 10, 11 3. 0, 01, 11 4. 1, 101 5. 0, 1, 01 Bemerkung: ExistierteineindeutigdecodierbarerCode,dannexistiertaucheinpräfix‐ freierCodemitdenselbenCodewortlängen.Deshalbwerdenfüreindeutig decodierbareCodesüblicherweisePräfixfreieCodesVerwendet. Lösung: 1. , , , IsteinBlockcodeundPräfixfreiwiealle Blockcodes. DaalleCodewortediegleicheLängeha‐ ben,kanneinCodenurdannPräfixeines anderen Codewortes sein, wenn diese identischsind. 00 0 0 1 1 0 01 10 1 11 2. , , Ist präfixfrei alle Codeworte sind BlättereinesBaums 0 1 0 0 1 10 11 3. , , Istnichtpräfixfrei,denn0istPräfixvon01.DennochistdieserCodeeindeutigdeco‐ dierbar,dennkeinCodewortSuffixeinesanderesist.EinsuffixfreierCodekannim‐ mervomEndeeinerSequenzbeginnendeindeutigdecodiertwerden. 4. , Istnichtpräfixfrei,denn1istPräfixvon101.Trotzdemeindeutigdecodierbar,daim‐ mereine0inderSequenzeindeutigerkanntwerdenkann. 5.Juni2015 Seite13von56 ÜbungInformationstheorieundCodierung2015 5. , , KeinPräfixfreierCodeundnichteindeutigdecodierbar. Beispiel:01und0,1sindzweiInterpretationenderselbenSequenz. Aufgabe5:UngleichungvonKraft EinbinärerBaumhabe 7Endknoten,derenAbstände vonderWurzelsind: 2; 3; 4 1. ExistiertdieserBaum? 2. Wennja,stellenSiediesenBaumdar. Lösung: 1. UngleichungvonKraft: 2 2 4∙2 2∙2 0,875 1 Baumexistiert 2. Baum l=2 l=3 l=3 l=3 l=3 l=4 l=4 Aufgabe6:UngleichungvonKraft 2. ExistiertfürfolgendeCodewortlängeneinbinärerPräfixfreierCode?Wennja,dann konstruierenSieeinenentsprechendenCode a. , , , , , UngleichungvonKraft: 2 2 2 2 2 2 2 1 Codeexistiert 5.Juni2015 Seite14von56 ÜbungInformationstheorieundCodierung2015 l=1 l=2 l=3 l=4 l=5 b. , , , , , UngleichungvonKraft: 2 2 2 2 2 2 33 32 2 1 Baum(undsomitCode)existiertnicht c. , , , , 2 2 2 2 2 15 16 2 1 Codeexistiert l=2 l=2 l=2 l=3 l=4 3. ExistiertfürfolgendeCodewortlängeneinternärerPräfixfreierCode?Wennja,dann konstruierenSieeinenentsprechendenCode a. , , , , , , 2∙3 3∙3 3 5.Juni2015 2∙3 29 27 1 Seite15von56 ÜbungInformationstheorieundCodierung2015 Codeexistiertnicht b. , , , , , , , 3 2∙3 3∙3 2∙3 80 81 2∙3 1 l=1 l=1 l=2 l=2 Codeexistiert l=3 l=3 l=4l=4 c. 3,3,3,3,3,3,2,1,1 3 2∙3 6∙3 3 1 l=1 l=1 l=2 Codeexistiert l=3 l=3 Aufgabe7:ASCII‐Codierung 1. WielautetderASCII‐CodevomSymbol„A“(Hexadezimalzahl=41) 41 4 ∙ ∙ ∙ 1 ∙ ∙ 1000001 ∙ ∙ ASCII‐CodemitParitätsbit:01000001 2. VervollständigenSiediefolgendeTabellezurUmrechnungvonDezimal‐,Hexadezi‐ mal‐undBinärzahl Dezimalzahl Hexadezimalzahl Binärzahl 715 2CB 1011001011 19 13 10111 179 B3 10110011 5.Juni2015 Seite16von56 ÜbungInformationstheorieundCodierung2015 293 125 85 55 1010101 Lösung: DezimalHexadezimal 715| 2 ∙ 256 715| 2 | 12 ∙ 16 11 2 ∙ 16 12 ∙ 16 11 ∙ 16 DezimalBinär 715| 1∙2 715| 512 0 128 0∙2 64 1∙2 8 1∙2 1011001011| ä 2 1 0∙2 0∙2 1∙2 0∙2 1∙2 1∙2 Aufgabe8 GegebenseieineQuelleQmit4Symbolen(A,B,CundD). DieAuftrittswahrscheinlichkeitenderSymboleseien: 0,8 0,1 0,08 0,02 1. WiegroßistdieInformationeineseinzelnenSymbols? 1 0,8 0,322 0,1 0,08 0,02 3,322 3,643 5,643 2. WiegroßistdieEntropiederQuelle? ∙ ∙ 0,8 ∙ 0,322 0,9941 0,1 ∙ 3,322 / ∙ 0,08 ∙ 3,643 ∙ ∙ 0,02 ∙ 5,643 3. Wie groß wäre die Entropie beigleicher Auftrittswahrscheinlichkeitder 4 Symbole? 4 5.Juni2015 2 / Seite17von56 ÜbungInformationstheorieundCodierung2015 Aufgabe9 A B C D EineQuelleenthält4Symbole:Q 1. BerechnenSie: a. DenEntscheidungsgehalt . DerEntscheidungsgehalt=NachrichtenmengeproSymbol H 0 m ld N ld 4 2 H0 2 Bit Symbol Bit Symbol b. DieEntropie =mittlererInformationsgehalt Entropie H p(xi ) I(xi ) ‐ p(xi ) ldp(xi ) H pA ld pA pB ld pB pC ld pC pD ld pD 1 1 1 1 ld 2 ld 4 ld 8 ld 8 8 2 4 8 1 1 3 3 bit 1,75 2 2 8 8 Symbol H 1,75 Bit Symbol c. DieRedundanzderQuelle R H 0 H 2 1,75 0 ,25 R 0 ,25 . Bit Symbol Bit Symbol 2. DieQuellewirdmiteineroptimalenCodewortlängecodiert(angepasstanden InformationsgehaltdereinzelnenSymbole). a. BerechnenSiediemittlereCodewortlängeproSymbol b. WielautendieCodewörterdereinzelnenSymbole? 5.Juni2015 Seite18von56 ÜbungInformationstheorieundCodierung2015 Code A 1 2 1 1 0 B 1 4 2 2 10 C 1 8 3 3 110 D 1 8 3 3 111 c. BerechnenSiediemittlereCodewortlänge L pi mi pA mA pB mB pC mC pD mD 1 1 1 1 bit 1 2 3 3 1,75 2 4 8 8 Symbol 1,75 d. BerechnenSiedieRedundanzdesCodes R H c H 1,75 R0 Bit Bit 1,75 Symbol Symbol Bit Symbol Aufgabe10:FanoCodierung QuelleQistgegebendurchAlphabetundabsoluteHäufigkeiten: 15 7 6 6 5 1. CodierenSiedieQuellenachFano(CodierungstabelleundCode‐Baum) 5.Juni2015 Seite19von56 ÜbungInformationstheorieundCodierung2015 Symbol A 15 B 7 C 6 D 6 E 5 0 1 0 A00 1 B01 0 C10 1 0 D110 1 E111 ZugehörigerBaum: 2. WiegroßistdiemittlereCodewortlänge? 2 ∙ 15 2,28 7 / 6 39 3∙ 6 5 / Aufgabe11:FanoCodierung ErstellenSiejeweilsdenCodebaumundCode‐Tabelle.GebenSiefürjedesZeichendieCo‐ dierunganundberechnenSiediemittlereCodewortlänge 1. 2. ZeigenSie,dasseshiernachdemFanodreiunterschiedlichemöglicheCodierungengibt unddassdieFano‐Codierungnichtimmeroptimalist Lösung 1. 5.Juni2015 Seite20von56 ÜbungInformationstheorieundCodierung2015 Symbol C 0,33 A 0,25 B 0,25 D 0,16 0 1 0 C00 1 A01 0 B10 1 D11 AlternativeLösungAundBvertauschen 2 / 2. Möglichkeit1: Symbol A 0,4 B 0,2 C 0,2 D 0,2 A0 0 2 0 1 1 B10 0 C110 1 D111 / 5.Juni2015 Seite21von56 ÜbungInformationstheorieundCodierung2015 Möglichkeit2: Symbol A 0,4 B 0,2 C 0,2 D 0,2 0 1 0 A00 1 B01 0 C10 1 D11 2 / Möglichkeit3: Symbol A 0,4 B 0,2 C 0,2 D 0,2 1 ∙ 0,4 2 Entropie: A0 0 0 1 0 B100 1 C101 1 3 ∙ 0,2 / 3 ∙ 0,2 D11 2 ∙ 0,2 0,4 ∙ 0,4 3 ∙ 0,2 ∙ 0,2 1,92 / DieFano‐Codierungistleidernichtoptimal. Aufgabe12: GegebenistdieQuelle 0,4 0,1 0,2 0,3 1. WiegroßistdieEntropiederQuelle? ∙ 0,4 ∙ , 0,4 0,1 ∙ 0,1 0,2 ∙ 0,2 0,3 ∙ 0,3 2. Fano‐Codierung a. CodierenSiedieQuellemitdemFano‐Algorithmus 5.Juni2015 Seite22von56 ÜbungInformationstheorieundCodierung2015 A D 0,4 0,3 C 0,2 B 0,1 0 0A 0 10D 1 1 0 110C 1 111B b. BerechnenSiediemittlereCodewortlängeunddieRedundanzdesCodes 1 ∙ 0,4 1,9 3 ∙ 0,1 / 3 ∙ 0,2 2 ∙ 0,3 3. Shannon‐Codierung a. CodierenSiedieQuellemitdemShannon‐Algorithmus Symbol Binär Code A 0,4 1,32 2 0 0,000 00 D 0,3 1,73 2 0,4 0,011.. 01 C 0,2 2,32 3 0,7 0,1011 101 B 0,1 3,32 4 0,9 0,1110 1110 b. BerechnenSiediemittlereCodewortlängeunddieRedundanzdesCodes 2 ∙ 0,4 2,4 2 ∙ 0,3 / 3 ∙ 0,2 4 ∙ 0,1 2,4 1,8463 0,5537Bit/Symbol 4. Huffman‐Codierung a. CodierenSiedieQuellemitdemHuffmann‐Algorithmus Sortierung:A>D>C>B 5.Juni2015 Seite23von56 ÜbungInformationstheorieundCodierung2015 W 0 0 1 1 0,6 A A1 0,4 B011 D C010 0 0,3 1 0,3 D00 C B 0,2 0,1 b. BerechnenSiediemittlereCodewortlängeunddieRedundanzdesCodes 1 ∙ 0,4 1,9 3 ∙ 0,1 / 3 ∙ 0,2 2 ∙ 0,3 5. VergleichenSiedieErgebnissederdreiAlgorithmen. Esgilt und , DieShannonCodierungistalsonichtoptimal Aufgabe13:Shannon‐Codierung EineQuelleenthälteinZeichenvorratvon4Zeichen(A,B,C,D).DieAuftrittswahrschein‐ lichkeitendereinzelnenZeichenseien: , ; , ; , ; , . 1. WiegroßsinddieInformationsgehaltedereinzelnenZeichen? 1 ld ( px Def:Informationsgehalt: I ( x) ld p ( x) Symbol Wahrscheinlichkeit Informationsgehalt A 0,8 0,8 0,32 B 0,1 0,1 3,321 C 0,08 0,08 3,64 D 0,02 0,02 5,64 5.Juni2015 Seite24von56 ÜbungInformationstheorieundCodierung2015 2. WiegroßistdieEntropiederQuelle? EntropiederQuelle? H p( xi ) I ( xi ) p( x) ld p( xi ) H p( A) I( x A ) p(B) I( xB ) p(C ) I( xC ) p(D) I( xD ) H 0,8 ld(0,8) 0,1 ld(0,1) 0,08 ld(0 ,08 ) 0,02 ld(0,02) H 0,994 Bit / Symbol WiegroßwäredieEntropiederQuellebeigleicherAuftrittswahrscheinlichkeit dervierZeichen? p( A) p(B) p(C ) p(D) H H0 ld(4) H Ho 2Bit/Symbol 3. FürdieÜbertragungsolleinBinärcodenachShannonentwickeltwerden. Symbol Binär Code 0,00 0 A 0,8 0,321 1 0 B 0,1 3,321 4 0,8 0,11001… 1100 C 0,08 3,64 4 0,9 0,11100… 1110 D 0,02 5,64 6 0,98 0,111110… 111110 WelchemittlereCodewortlängeergibtsichausdemerstelltenCode. 1 ∙ 0,8 1,64 4 ∙ 0,1 / 4 ∙ 0,08 6 ∙ 0,02 Aufgabe14:HuffmanCodierung GegebenseidiefolgendeNachricht: RZROZPZZ 1. GebenSiediezugehörigeHuffman‐Codierungan. 2. Symbol R Z 1 4 5.Juni2015 1 2 O P 1 8 1 8 Seite25von56 ÜbungInformationstheorieundCodierung2015 01 Huffman-Code 1 1 S 1 Z 000 0 1 1 4 001 R 1 4 0 1 2 1 O 1 4 0 P 1 8 1 8 3. ErmittelnSiedurchRechnung,obessichdabeiumeinenoptimalenCodehan‐ deltundbegründenSiedasErgebnis.WelcheRegeltriffthierzu? 1 14 1 1 1 L 2 1 3 3 1,75 4 2 8 8 8 R Z O P L 1,75 Bit / Symbol H:Entropie; H 1 1 1 1 ld (4) ld (2) ld (8) ld (8) 1,75 bit / Symbol 4 2 8 8 H 1,75 Bit / Symbol 0optimalerCode Aufgabe15:HuffmanCodierung FüreinenZeichenvorratsindfolgendeAuftrittswahrscheinlichkeitengegeben: Zeichen R Häufigkeit 0,09 0,01 5.Juni2015 E H K P A S 0,4 0,05 0,12 0,13 0,2 Seite26von56 ÜbungInformationstheorieundCodierung2015 1. LeitenSiediezugehörigeHuffman‐Codierungher Code: 1 0 H0 1 1 0,6 1 0,35 1 P100 0,4 A101 S111 0 1 S 0,2 H 0 0 0,25 R1101 A P K11001 0,12 E11000 0,15 0 0,13 1 0,06 0 R 0,09 K E 0,05 0,01 2. BerechnenSiedieRedundanzdesCodes R LH 1 H p( xi ) ld p( xi ) L p( xi ) mi L 0,09 4 0,01 5 0,04 1 0,05 5 0,12 3 0,13 3 0,2 3 L 2,05 Bit / Symbol 0,09 ld 0,09 0,01 ld 0,01 0,04 ld 0,04 0,05 ld 0,05 0,12 ld 0,12 H 0,13 ld 0,13 0,2 ld(0,2) H 1,995 Bit / Symbol R L H 2,05 1,995 Bit / Symbol 0,055 Bit / Symbol 3. CodierenSiedieZeichenfolgen a. KEKSE K E K 11001 5.Juni2015 11000 11001 S E 111 11000 Seite27von56 ÜbungInformationstheorieundCodierung2015 b. HARKE H A R 0 101 1101 K 11001 E 11000 4. IstderCodeoptimal?WannliefertderHuffman‐Algorithmuseinenoptimalen Code? Nein,daR0 WenndieWahrscheinlichkeit=1/(2i)ist Aufgabe16: GegebenseidieQuelle , , , 1. Codieren Sie dieSymbolevon mit Huffman und berechnen Sie die mittlere Codewortlänge 1 ∙ 0,7 2 ∙ 0,2 2 ∙ 0,1 1,3 / 2. CodierenSieSymbolpaarevon mitHuffmanundbestimmenSiediemittlere CodewortlängeproSymbol.VergleichenSiebeideErgebnissemitderEntropie derQuelle Symbol Codierung ∙ AA 0,49 0 1 0,49 AB 0,14 110 3 0,42 AC 0,07 1011 4 0,26 BA 0,14 111 3 0,42 BB 0,04 1000 4 0,16 BC 0,02 10010 5 0,1 CA 0,07 1010 4 0,28 CB 0,02 100111 6 0,12 5.Juni2015 Seite28von56 ÜbungInformationstheorieundCodierung2015 CC 0,01 100110 6 0,06 2,33 1,165 1,3 Aufgabe17: GegebenistfolgendeBinärsequenz: 0001 0000 1010 0000 1000 0011 0010 0010 1. BerechnenSiefürdieobigeNachricht: a. DenEntscheidungsgehalt Symbole0und12Symbole: 2 1 b. DieEntropie Insgesamt32ZeichenmitdenSymbol‐Wahrscheinlichkeiten: 5.Juni2015 Seite29von56 ÜbungInformationstheorieundCodierung2015 Symbol Wahrscheinlichkeit 0 24 32 3 4 1 8 32 1 4 1 H p(x i ) I(x i ) p(x i ) ld p(x i ) 3 4 1 ld ld 4 4 3 4 0 ,81 Bit H 0,81bit / Symbol c. DieRedundanzproSymbolunddiegesamteRedundanzderNachricht. RedundanzproSymbol – 1 0,81 0,19 / R 0,19 Bit / Symbol Gesamt‐Redundanz 32 R ges 6 ,08 Bit 2. EssindjeweilszweibenachbarteBitszueinemSymbolzusammenzufassen.Be‐ antwortenSiefürdiesichdarausergebendeSymbolfolgealleFragengemäß1a‐ c. ZweibenachbarteBitszueinemSymbolzusammenfassenEsentstehen4neueSym‐ bolemitfolgendenWahrscheinlichkeiten: Symbol Wahrscheinlichkeit A=00 9 16 B=01 1 16 C=10 5 16 D=11 1 16 5.Juni2015 Seite30von56 ÜbungInformationstheorieundCodierung2015 a. DerEntscheidungsgehalt 4 2 b. DieEntropie 1 H p(x i ) I(x i ) p(x i ) ld p(x i ) 9 16 1 5 16 1 ld ld 16 ld ld 16 16 9 16 16 5 16 1,49 Bit / Symbol H 1,49 Bit / Symbol c. DieRedundanzproSymbolunddiegesamteRedundanzderNachricht. RedundanzproSymbolR=H–H0=2–1,49=0,51Bit/Symbol R 0,51 Bit / Symbol Gesamt‐Redundanz 16 ∙ 16 ∙ 0,51 8,16 Rges 8,16 Bit 3. CodierenSiedieSymbolfolgemitShannon. Symbol Binär Code A 0,83 9 0,5625 16 1 0 0,00 0 C 1,678 5 0,3125 16 2 0,5625 0,1001 10 B 4 1 0,0625 16 4 0,875 0,1110 1110 D 4 1 0,0625 16 4 0,9375 0,1111 1111 WelcheRedundanzergibtsich? 1∙ 9 16 5.Juni2015 4∙ 1 16 2∙ 5 16 4∙ 1 16 27 16 1,6875 Seite31von56 ÜbungInformationstheorieundCodierung2015 1,6875 L H 0,1975 4. CodierenSiedieSymbolfolgemitHuffman.WelcheRedundanzergibtsichjetzt? Code: 1 A1 0 1 B000 A 9/16 C01 7/16 1 0 D001 C 5/16 1 2/16 0 D B 1/16 1/16 RedundanzdesCodes: 1∙ 9 16 1,5625 L H 3∙ 1 16 2∙ 5 16 3∙ 1 16 1,5625 0,0725 Aufgabe18: GegebenistfolgendeNachricht: AACDABCAAADBACAC 1. Wiegroßsind a. derEntscheidungsgehaltderNachrichtenquelle, Insgesamt16Zeichen 5.Juni2015 Seite32von56 ÜbungInformationstheorieundCodierung2015 8 1 16 2 4 1 p(C ) 16 4 2 1 16 8 2 1 p(D) 16 8 p( A) Wahrscheinlichkeiten p(B ) H0 ld4 2 Bit b. derInformationsgehaltdereinzelnenSymbole, Symbol 1 I x i ld px i A ld2 1 Bit B ld8 3 Bit C ld4 2 Bit D ld8 3 Bit c. dieEntropieundRedundanzderNachricht. 1 Entropie: H pxi ld p x i H 2 28 8 2 4 1 3 2 3 1,75 16 16 16 16 16 H 1,75 Bit / Symbol Redundanz: 2 1,75 R 0,25 Bit / Symbol 2. DieSymbolesollenbinärcodiertunddannübertragenwerden.DerCodelautet: A=00 B=01 C=10 D=11 a. GebenSiedenInformationsgehaltderbinärenZeichen0und1an A,B,C,DersetzendurchBinärzeichenundneudurchzählen:22x LOW und 10x HIGH Informationsgehalt: 22 32 5.Juni2015 11 ⟹ 16 16 11 0,54 Seite33von56 ÜbungInformationstheorieundCodierung2015 10 32 5 ⟹ 16 16 5 1,68 b. WelcheRedundanzergibtsichjetzt? Entropie: H p0 I0 p1 I1 0,896 Bit H 0,896 Bit Redundanz: R H0 H 1 0,896 0,104Bit R 0,104 Bit c. MachenSieeinenVorschlag,wiedieRedundanzdurcheineoptimierteCo‐ dierungverringertwerdenkann. RedundanzreduktiondurchangepassteCodewortlängederZeichen.HäufigeZei‐ chen mit kurzer Codewortlänge, seltene Zeichen mit längerer Codewortlänge (Code erstellen über Huffman‐Code). Mittlere Codewortlänge wird minimiert. Redundanz:R=L‐H Aufgabe19: EinefarbigeGrafikbestehtaus1MillionBildpunkten,dieROT,GRÜN,BLAU,WEISSund SCHWARZ aussehen können. Das gesamte Bild wird in 1 Sekunde übertragen. Alle ge‐ nanntenFarben/HelligkeitentreteninderGrafikgleichhäufigauf. 1. BerechnenSiedenEntscheidungsgehaltderQuelle„farbigeGrafik“undgeben SiedenInformationsgehaltfürjedesdermöglichenZeichen(Farbenbzw.Hel‐ ligkeitswerte)an. Entscheidungsgehalt N=5Zeichen 5 Informationsgehalt 2,32 1 I( xi ) ld p( xi ) 1 Alle5Zeichentretengleichwahrscheinlichauf pxi 5 1 ld(5) 2,32Bit / Symbol I( xi ) ld p( xi ) I(xi ) 2,32 bit/Symbol Entropie p(xi ) I(xi ) BeigleicherWahrscheinlichkeit H H0 2,32 bit/Symbol 5.Juni2015 Seite34von56 ÜbungInformationstheorieundCodierung2015 H bit Symbol Nachrichtenfluss H ' sec Symbol 106Bildpunkte/sec =ZeitindereinQuellzeichenausgewähltundübertragenwird= H' 2,32 Bit / Zeichen 106 sec/ Zeichen 1sec 10 6 sec 106 pkt H' 2,32MBit/sec Redundanz R H0 H 0 daGleichverteilung 2. Die Zustände der Bildpunkte sollen binär codiert werden (gleiche Codewort‐ länge). Welcher Datenfluss ergibt sich hierbei? Welche Redundanz liegt jetzt vor? BinäreCodierungderBildpunkte.GleicheCodewortlängebenutzen. 5Zeichen=> H0 2,32 bit/Symbol FürdieCodierungwerden3Bit/Zeichenverwendet. z.B.: Rot => 000 Grün => 001 Blau => 010 Weiß => 011 Schwarz => 100 Datenfluss=?Bit/sec 106 Bildpunkte/sec übertragen Eswerden pro Bildpunkt : 3 Bit/Bildpu nkte H' 3 MBit/sec Redundanz 3 5.Juni2015 2,32 Seite35von56 ÜbungInformationstheorieundCodierung2015 0,68 3. StellenSiedieZeichenmitdemHuffman‐Codedar.WelchemittlereCodewort‐ längeergibtsich?WelcheRedundanzresultiert? 1 1 0 3/5 1 0 2/5 2/5 1 1 0 0 1/5 1/5 1/5 1/5 1/5 Schwarz Weiss Blau Grün Rot Rot => 10 Grün => 110 Blau => 111 Weiß => 00 Schwarz => 01 L 1 2 3 3 2 2 2,4 bit 5 Symbol R L H 2,4 0,08 5.Juni2015 bit bit 2,32 Symbol Symbol Seite36von56 ÜbungInformationstheorieundCodierung2015 DiskreteQuellemitGedächtnis Aufgabe20: GegebenSeieineQuelle , , mitGedächtnis.FürdieQuellensymbolegeltendie folgendenbedingtenWahrscheinlichkeiten: | 1 3 1 3 1 3 1 4 1 2 1 4 1 4 1 4 1 2 1. StellenSiedieQuelleanschaulichmitHilfeeinesMarkov‐Diagramms1.Ordnung dar. 2. BestimmenSiedieSymbolwahrscheinlichkeiten ∙ ∙ / 1 3 3 ∙ 8 ∙ 1 4 3 ∙ 8 ∙ ∙ 2 ∙ 3 1 3 ∙ / ∙ / ∙ / 1 ∙ 4 ∙ ∙ / / und 1 / 1 ∙ 2 ∙ 5.Juni2015 ∙ , 1 2 / 1 ∙ 4 2 ∙ / Seite37von56 ÜbungInformationstheorieundCodierung2015 2 ∙ 3 1 ∙ 2 3 AusdenGleichungen(2)und(3)folgt EingesetztinGleichung(1) 3 ∙ 8 ⟹ 3 ∙ 8 6 ∙ 8 3 ∙ 4 Esgiltdennoch: 4 ∙ 3 1⟹ 4 ∙ 3 3 11 11 ∙ 3 4 11 4 11 3. BerechnenSiedieVerbundwahrscheinlichkeiten Esgilt: , ∙ , z.B. / 1 , 1 11 1 11 1 11 1 11 2 11 1 11 1 11 1 11 2 11 , ∙ / ∙ 4. Berechnen Sie dieEntropie der Quelle,diebedingte Entropie unddie Verbun‐ dentropie EntropiederQuelleX: 3 ∙ 11 3 11 1,0412 BedingteEntropie: 5.Juni2015 4 ∙ 11 ∑ ∙ 4 11 4 ∙ 11 4 11 1,0412 / ∑ ∑ , ∙ / Seite38von56 ÜbungInformationstheorieundCodierung2015 / , ∙ / , ∙ / , ∙ / , ∙ / , ∙ / , ∙ / , / ∙ , 1,0412 , 2,564 , , ∙ / , ∙ / 1,5228 Verbundentropie: 1 2 / , / 1,5228 2,564 1,282 Aufgabe21:Markov‐Quelle EinediskreteQuelle Abbildung. , mitGedächtnishabedenZustandsgrafausderfolgenden 3/4 B A ? ? 1. GebenSiedieÜbergangswahrscheinlichkeitenan. / 1 , 4 / 1 / 3 , 4 / 0 2. BerechnenSiedieAuftrittswahrscheinlichkeitendereinzelnenZustände. ∙ ∙ 4 , 7 5.Juni2015 / 1 4 1 ∙ / ∙ 1 1 3 ∙ 4 3 7 Seite39von56 ÜbungInformationstheorieundCodierung2015 3. GebenSiedieEntropiederQuelleanunterBerücksichtigungderÜbergangs‐ wahrscheinlichkeiten. BedingteEntropie: , / ∙ / / / / / / / / / ∙ / ∙ / / ∙ / / 0 ∙ ∙ 1∙ / ∙ / 0,81 / ∙ 1 0 0∙ 4 ∙ 0,81 7 ∙ 0,4629 0,4629 4. FassenSiejeweilsdreiZeichenzueinemSymbolzusammen.BerechnenSie dieWahrscheinlichkeitendermöglichenSymbole. Symbol Wahrscheinlichkeit ∙ / ∙ / 4 1 1 ∙ ∙ 7 4 4 1 28 ∙ / ∙ / 4 1 3 ∙ ∙ 7 4 4 3 28 ∙ / ∙ / 4 3 ∙ ∙1 7 4 12 28 ∙ / ∙ / 0 ∙ / ∙ / 3 1 ∙1∙ 7 4 3 28 ∙ / ∙ / 3 3 ∙1∙ 7 4 9 28 BBA ∙ / ∙ / 0 BBB ∙ / ∙ / 0 AAA AAB ABA ABB BAA BAB 5.Juni2015 Seite40von56 ÜbungInformationstheorieundCodierung2015 5. FührenSieeineHuffman‐CodierungdurchundgebenSiediemittlereCode‐ wortlängedesCodes. Codierung: AAA1010 AAB100 ABA0 BAA1011 BAB11 MittlereCodewortlänge : 4∙ 1 28 3∙ 3 28 1∙ 4∙ 3 28 2∙ 9 28 55 28 1,964 0,654 3 12 28 Kanalcodierung Aufgabe22:(A32Dr.Jäger) GegebenseieinsymmetrischerbinärerKanal(BSC),dessenEingangszeichen und die Auftrittswahrscheinlichkeiten 0,4 und 0,6 haben und dessen Bit‐ fehlerwahrscheinlichkeit 0,05beträgt. 1. BestimmenSiedieEntropiederKanalausgabe ∙ ∙ ∙ 5.Juni2015 , ∙ / ∙ / Seite41von56 ÜbungInformationstheorieundCodierung2015 0,4 ∙ 1 0,05 0,41 0,6 ∙ 0,05 0,41 ∙ ∙ 0,4 ∙ 0,05 1 0,59 0,6 ∙ 0,95 0,59 Oder 1 0,41 ∙ 0,41 0,59 ∙ 0,59 0,976 0,976 2. dieEntropiederIrrelevanz / | / ∙ , / ∙ / ∙ / ∙ / ∙ / ∙ / ∙ / ∙ / ∙ / ∙ / ∙ 1 ∙ 1 ∙ ∙ ∙ 1 ∙ 1 ∙ ∙ / / 1 0,95 ∙ / ∙ 1 0,95 0,05 ∙ 3. dieTransinformation / , 0,976 , 0,69 5.Juni2015 0,29 0,05 0,29 , :Shannon‐Gleichung ∙ , . 0,69 Seite42von56 ÜbungInformationstheorieundCodierung2015 Aufgabe23: (A31 Dr. Jäger) GegebenseiderskizzierteKanal WiegroßistdieKanalkapazität ,wenndieEingangs‐undAusgangszeichengleich‐ verteiltsind? ∙ 1 ∙ 1 Beweis: , / GleichverteilteSymboleamKanalausgang / , , ∙ ∙ 1 ∙ 3 / , , / 1 ∙ 3 / 1 3 1 ∙ 3 / 0 1 ∙ 3 / / , ∙ / ∙ , ∙ 1 ∙ 1 3 ∙ 5.Juni2015 / 3 3 3 3 , , ∙ 1 1 ∙ 3 ∙ 3 1 3 ∙ ∙ / / , , 0 , ∙ 0 1 / , , ∙ 1 ∙ ∙ 3 1 ∙ 1 3 , , / ∙ ∙ , , 1 ∙ 1 3 ∙ 1 ∙ 1 1 ∙ 3 Seite43von56 ÜbungInformationstheorieundCodierung2015 / 3 Aufgabe24:(A30 Dr. Jäger) GegebenseieinBSC‐KanalmiteinerÜbertragungsrate wahrscheinlichkeitvon 0,1. / undeinerBitfehler‐ 1 DieDaten,dieüberdiesenKanalübertragenwerdensollen,stammenvoneinerbinären Quelle( und )mitdenAuftrittswahrscheinlichkeiten und .DieSymbole derQuellewerdenstatistischunabhängigvoneinanderausgewählt. 1. WiegroßistdieKanalkapazität ? 1 ∙ max ∙ max , ∙ 1 1 ∙ 1 ∙ 1 533 0,1 ∙ 0,1 , ∙ 1 1 0,1 ∙ 1 ∙ 1 0,1 / 2. WiegroßistdieEntropiederQuellemit 0,3 ⟹ 0,881 , und ∙ 0,3 ∙ 0,3 , ? 0,7 ∙ 0,7 / 3. WelchemaximaleSymbolrate den? kannimPrinzipfehlerfreiübertragenwer‐ SatzderKanalkapazität: / / Symbolrate Bitrate / 1 604 533 / 0,881 / / 604 / Aufgabe25: Es sei ein fehlererkennender und fehlerkorrigierender Code über dem Alphabet 0, 1 miteinerCodewortlänge 20gegeben. 5.Juni2015 Seite44von56 ÜbungInformationstheorieundCodierung2015 1. Wie viele Nachrichtenstellen können mit diesem Code übertragen werden, wennbiszu3Fehlerkorrigiertwerdensollen? 3und 20.Esgilt: 0 1 3 2 1 1 5 9 11 2 2! ! 2 ! 3! 3 ! 11 10,4 ⟹ 20 ! 1 ! 1 6 2 1351 ! 1 9 2. WievieleverschiedeneNachrichtenkönnendannmaximalcodiertwerden? Eskönnenmaximal2 512Nachrichtencodiertwerden 2 3. WiegroßistdieMinimaldistanzdesCodes? 2 2 2 1 Hiergilt: 2 1 2∙3 1 7 7 4. WievieleFehler können(ggf.ohneKorrekturmöglichkeit)erkanntwerden? 1 1 6 6 Aufgabe26: EinHamming‐CodederLänge Bestätigungeingesetztwerden. sollzurreinenFehlererkennungmitanschließender DieBitfehlerwahrscheinlichkeiteinessymmetrischenBinärkanalsbeträgt 5 ∙ 10 1. WiegroßistdieWahrscheinlichkeit,dasseinCodewortfehlerhaftempfangen wird? 1 1 1 1 1 0,0345 0,0345 5.Juni2015 Seite45von56 ÜbungInformationstheorieundCodierung2015 2. Wie groß ist die Wahrscheinlichkeit, dass ein fehlerbehaftetes Empfangswort nichterkanntwird? Essollen3oder6Fehlersein. 7 3 7 6 1 4,288 ∙ 10 1 4,288 ∙ 10 Aufgabe27: Gegeben sei ein linearer Blockcode über dem Alphabet matrix 0 1 1 1 0 1 0 1 0 1 0 0 1 1 0, 1 mit der Generator‐ 0 1 0 0 1 1 1 1. StellenSiedenvollständigenCodeauf(ListederNachrichtenwörtermitdenzu‐ gehörigenCodewörtern). 0 1 1 1 0 1 0 1 0 1 0 0 1 1 0 1 0 0 1 1 1 0 0 0 0 0 1 0 1 0 0 1 1 1 0 0 1 0 1 1 1 0 1 1 1 0 0 0 0 0 0 0 0 1 0 0 1 1 1 1 0 1 0 0 1 1 1 1 1 0 1 0 0 0 1 1 1 0 1 0 0 0 1 1 1 0 1 1 1 0 1 0 0 1 1 0 0 1 1 1 0 0 4 4 4 4 4 4 4 2. BerechnenSie , und desCodes. 4 3 1⟹ 2 2 4; 5.Juni2015 1 3; 1 Seite46von56 ÜbungInformationstheorieundCodierung2015 3. GebenSieallemöglichenVektoren an,dieinderKorrigierkugel liegen. um VektoreninderKugelhabeneinenBitunterschiedzumgültigenCodewortc,da ist. 0111010 ; 111010 ; 4. WielautetdieGeneratormatrix → → → 0 1 1 1 0 1 0 1 0 1 0 0 1 1 0 1 0 0 1 1 1 0 11010 ⋯ ´ deszugehörigenseparierbarenCodes? ′ ⨁ ′ ′ ⨁ 5. StellenSiedieKontrollmatrix 1 0 0 1 ; 1 1 0 ⨁ ′ 1 0 0 1 1 1 0 1 1 1 0 1 1 1 0 0 1 1 1 ′ 0 1 0 0 ; 1 1 1 ′ 0 0 1 1 1 0 1 0 0 0 1 1 0 1 fürdenseparierbarenCodeauf. 0 1 1 1 1 1 0 1 | | | | 0 0 0 0 0 0 0 0 0 0 0 0 6. GebenSiedieGleichungenzurErmittlungderKontrollstellenan(Ablesenaus derKontrollmatrix). ⨁ ⨁ ⨁ ⨁ ⨁ 7. WielautendanndiezugehörigenPrüfgleichungen? ⨁ ⨁ ⨁ ⨁ ⨁ ⨁ ⨁ 5.Juni2015 Seite47von56 ÜbungInformationstheorieundCodierung2015 ⨁ ⨁ 8. Erstellen Sie aus der Kontrollmatrix die vollständige Syndromtabelle (für Einzelfehler).KönnenalleEinzelfehlerkorrigiertwerden? ∙ ∙ da ∙ ∙ 0(Orthogonal) ∙ :IsteinFehlervektormit1Bitfehler 1 0 ; 0 ⋮ 0 1 ; 0 ⋮ 0 0 1 ⋮ ∙ ,wobei eineEinheitsmatrixist. DieVollständigeSyndromtabelle: ⋯ SyndromTabelle: Ja Es können Einzelfehler korrigiert werden (Durch Vergleich mit den Spalten der Kontrollmatrix .). Z.B.FehleranBit3Ergebnis =dritteSpaltevon . 9. ZeigenSiedann(durchBerechnungdermöglichenSyndrome),dasssichauch alleBündelfehlerderLänge2korrigierenlassen. 1 1 1 0 Prüfmatrix: Fehlermatrix ∙ 5.Juni2015 1 1 0 0 0 0 0 0 1 1 1 1 1 0 1 0 1 1 0 0 0 0 | | | | 0 0 1 1 0 0 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 1 1 :Syndromtabelle Seite48von56 ÜbungInformationstheorieundCodierung2015 1 1 1 0 0 1 1 1 1 1 0 1 | | | | 0 0 0 0 0 0 0 0 0 1 0 1 0 0 ∙ 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 1 0 0 1 1 0 1 0 0 1 0 1 1 1 0 0 0 1 1 0 0 0 1 1 AlleSpaltenvektorenderSyndromtabellesindverschiedenMankannalsoBündelfeh‐ lererkennenundkorrigieren. 10. Wielautendiezudenfolgenden(verfälschten)Empfangsvektoren gehören‐ den(korrigierten)Codewörter ; ; 1 1 1 0 ∙ 0 1 1 1 1 1 0 1 FehlerinBit3. 1 1 1 0 ∙ | | | | 0 0 0 0 0 0 0 0 0 0011101 0 1 1 1 1 1 0 1 | | | | 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ∙ 1 0 1 0 1 1 1 dritte Spalte aus 0 1 0 0 0 1 0 ∙ 0 0 1 0 0 1 0 0 1 ErsteSpalteausderSyndromtabellefürBündelfehlerFehlerinBit1undinBit2. 1110100 1 1 1 0 ∙ 0 1 1 1 1 1 0 1 | | | | 0 0 0 0 0 0 0 0 0 1 1 0 1 0 ∙ 1 0 1 1 0 1 0 1 0 ZweiteSpalteausderSyndromtabellefürBündelfehlerFehlerinBit2undinBit3. 1001110 Aufgabe28: GegebenseieinzyklischerCodeCüber 5.Juni2015 0,1 mitdemGeneratorpolynom 1,derCodewörterderLänge 7erzeugt. Seite49von56 ÜbungInformationstheorieundCodierung2015 1. WievieleKontroll‐undNachrichtenstellenhatderCode? 1 4:HöchsteOrdnungimGeneratorpolynom. Kontrollstellen: Nachrichtenstellen: 7 4 3 2. GebenSiediezugehörigeGeneratormatrix 1 desCodesan. 1 1 1 0 1 0 0 00 3. CodierenSiedieNachrichtenvektoren riellerundinpolynomialerDarstellung. 0 1 1 1 0 1 0 und 0 0 1 1 1 0 1 invekto‐ Vektoriell: ∙ 1010011 ∙ 1101001 Polynomial: ∙ z 1⊕1 1⊕1⊕1 1 z 1 ∙ 1⊕1 1 z 1 1⊕1 z 1 1010011 ∙ 1⊕1 1 1 ∙ 1 1 1⊕1 1 1101001 4. KonstruierenSiedieCodewortpolynomedeszugehörigenseparierbarenCodes zudenNachrichtenwörtern und . Schritt1: ∙ ∙ ∙ 5.Juni2015 1 ∙ ∙ Seite50von56 ÜbungInformationstheorieundCodierung2015 Schritt2:DivisiondesPolynoms ∙ : ∙ durch 1 : 1 ∙ : : 1 1 : 1 Schritt3: 1 : 1 1 ∙ 1 ∙ 1 ∙ 1010011 0100111 5. ErstellenSieeineSyndromtabellefüralleEinzelfehler. istohneRestdurch teilbar. ⟹ ⟹PolynomdivisiondurchführenundRestalsSyndromverwenden. : 1 ; : 1 1 1; : 5.Juni2015 1 1 ⟹ Seite51von56 ÜbungInformationstheorieundCodierung2015 : 1 ⟹ : 1 ⟹ : 1 ⟹ 1: 1 ⟹ 1 6. Es werden das Wort und das Wort empfangen.PrüfenSie,obessichumgültigeCodewörterhandeltundkorrigie‐ renSiegegebenenfallsdieEmpfangswörter. berechnenunddannmitSyndromvergleichen 1001001 1 ⟹ : 1 1 ∶ 1 ∶ 1 LautSyndromtabellegilt: 1 ; FehlerinBit2 istkeingültigesEmpfangswort. wirdkorrigiertzu 0100111 1 ⟹ : 1 01001 1 ∶ 1 0 1; isteingültigesEmpfangswort.Esgiltalso 0100111 Faltungscodierung Aufgabe29: GegebenisteinCodiererfüreinenFaltungscodederrate länge2. mitderSchieberegister‐ 5.Juni2015 Seite52von56 ÜbungInformationstheorieundCodierung2015 1. ZeichnenSiedasTrellis‐unddasZustandsdiagramm. p 1 Eingabebits p(k 1) 2 Zustände(Zust.0,Zust.1) Es existieren2 k 2 Zellengruppen Zustandsdiagramm Ausgang=C1C0 Trellisdiagramm 2. DecodierenSiedieEmpfangssequenz100101. Handeltessichumeinerfehlerfreien oderfehlerbehaftetenÜbertragung? 0 01 01 1 1 1 1 0 10 1 0 01 1 0 11 0 00 0 11 10 0 01 1 0 111istdiegesendeteFolge.fehlerfreiÜbertragung 3. DecodierenSiedieEmpfangssequenz110101. Handeltessichumeinerfehlerfreien oderfehlerbehaftetenÜbertragung? 111istdiegesendeteFolge.FehlerbehafteteÜbertragung 5.Juni2015 Seite53von56 ÜbungInformationstheorieundCodierung2015 Aufgabe30: GegebenistderfolgendeFaltungscodierer: WelcheCoderatehatdieserCodierer? 2 3 5. GebenSiedieAusgangsbitsequenzamAusgangdesCodierers,wennamEingangdie Sequenz011010vorliegt. ⨁ ⨁ ⨁ ⨁ ⨁ 0 1 0 0 0 0 1 1 0 0 1 1 0 0 1 0 1 0 0 0 1 Ausgabebitsequenz:001100001 5.Juni2015 Seite54von56 ÜbungInformationstheorieundCodierung2015 6. VervollständigenSiedasfolgendeTrellisdiagramm. t 000 00 00 000 00 01 010 01 10 011 10 11 011 11 Zustände 7. DecodierenSiedieEmpfangsfolge111011.Handeltessichumeinerfehlerfreienoder FehlerbehaftetenÜbertragung?WievieleFehlerwurdenerkanntbzw.korrigiert? 111 0 011 3 2 2 2 0 10 1 0 1 5.Juni2015 Seite55von56 ÜbungInformationstheorieundCodierung2015 FehlerfreieÜbertragung0Fehler DecodierteSequenz1010 5.Juni2015 Seite56von56
© Copyright 2024 ExpyDoc