• Keine Ergebnisse gefunden

theorie Codierung

N/A
N/A
Protected

Academic year: 2022

Aktie "theorie Codierung"

Copied!
54
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Codierung

s

theorie

Steffen Reith

(2)

1

Vorlesung Kodierung

stheorie

1.

Einleitung

Literatur :

. Dirk W.

Hoffman

,

Einführung

in die

Informations

- und Codierung. theorie ,

Springer

-

Vieweg

, 2014

.

Juergen Bierbrauer

, Introduction to

CodingTheory

, CRC - Press , 2016

Ziele :

. Verbessertes Verständnis des

Informations begriffs

Grundlagen

, Ideen und Anwendungen

von Kanal - und Quellen

Kodierungen

. Mathematische

Grundlagen

( Algebra,

Vehtorräume

, etc

)

werden bei

Bedarf

(3)

eingeführt

2

. Modus : wöchentliche

Vorlesung

t

Übungsbahn

Def

: Seien!

)

,Z dann

endlich

und IT

heißt Alphabete

eine

injehtive (

Abbildung

c :

Et

IT "

Codierung

.

Z

nennt man Quell

alphabet

und

IT Code alphabet loon c)

.

Benin

. E' bzw IT " enthalten alle Worte

bet

. aber endlicher

Länge

.

In der Praxis wird

oft

IT = 20,1G verwendet

(4)

3

Ist c nicht

injehtiv

, dann

spricht

man von einer verlust behafteten Codierung

(

warum ?

)

Bsg

:

Lauf längen

Codierung

CRLE - Run Length

Encoding )

Idee Wird ein

Buchstabe mehrfach

verwendet

, dann ersetzt man diese durch den Buchstaben und seine Anzahl

KAFFEE

Htkt

AZFZE

TARDIS

HAT 1A 1 RAD 1115

Alternativ kann man markieren , ob

ein Zeichen

mehrfach

vorkommt

Ü = def T ' u 2 # b und #

¢

IT ',

dann KAFFEE H KA # ZF # ZE

(5)

4

Diese Art

der

Kodierung

ist

besonders bei Schwarz

/

Weiß - Bildern

effektiv

.

Defmi Sei c eine

Codierung

, dann ist der von c erzeugte Code

C = aef c

(2)

=

{

clr ) / OEE

}

Die Wörter ccr ) heißen

Codeword

von o ,

Viele

Codierung

eu ersetzen ein lTeil ) wort des

Quell alphabets durch das

gleiche

Codewort :

Defni

Sei c : Zt IT " eine

Codierung

und

U = none . .. Un .e E

Zt

mit nie Et

, Oficn .

Gilt cln ) = cluoue.n.nu . e) = Cluo ) . . . cluuu

)

,

dann heißt c zeichen weise

Codierung

.

(6)

Benn

; . Gilt Inikt , 0 Eicn , dann

5

kann man c als Tabelle

5 ccr )

A 0

] 10

Z 11

oder

Baum darstellen

÷ Ig .

] Z

In diesem Fall kann man c als

(Halbgroppen

)

Homomorpkismus auffassen.

Defmi Sei c : El IT " eine Codierung , so

daß T.ie

2 ex . mit 1 clr )

1

cloth

,

so heißt c längen

variabel

.

(7)

6

Längen

variable

Codierung

en

spielen

z.B. bei der

Datenkompression

eine

wichtige

Rolle

.

Problem

: Am 0 , In 1 Z ts 10 ZZZ # 10

:p öilo

JAZZ

0:10:10 ii.

ZJAZH 10 : 0:10ii.

Ohne Treuen zücken

entstehen

Mehrdeutigkeiten

, die eine

Decoding unmöglich

machen

,

Idee

: Sorge

dafür

, dass kein

Codewort

Pnräfixn eines anderen Codeworts

ist

,

(8)

7

Def

: Sei c : It IT eine Kodierung, dann

heißt

c

präfix erfüllt

Mankein

sagt

. weit, dassex

frei

. cmit, diewenncloFano)

f.

=-

Bedingung

a.Präfix

CII o.ie

w -2

Bend

. Ist ein Code

präfix

frei

, dann ist

kein innerer Knoten der

Baum darstellung

mit einem

Buchstaben

des Quell

alphabets

markiert .

Ist ein Code nicht

präfix frei

so braucht

man ein

spezielles

Treuen

symbol

(

vgl

"

Pause

" im Morse code

)

(9)

Die Baum

darstellung

einer

Codierung

kann

8

man als Wahrscheinlichkeit

experiment

auffassen

:

112 0 Z

0-1 Been -1

.

Wahrscheinlichkeit 0A

Hatdann112

µ

0

#

ein" erwischtCodewort]

Yze

" man.. die

plz

p((A)es

Länge

binäres)

=p

=mit1k

A)

Alphabetl= ,14

)

Im allgemeinen Fall

ergibt

sich 1

#

e

. Im

obigen

Fall hat

jeder

innere

Knoten

genau

zwei Kinder

eine Folge von Münz würfen

führt

zu einem Buchstaben aus Z

, d.h.

für

die Wahrscheinlichkeit

gilt

:

(10)

9

[ #

= 1 . Sollte es inner Knoten geben, OEZ

Ich =L

die

nicht den maximalen Grad haben ,

dann

muß

" = l

"

durch

" El "

ersetzt

werden.

Dies führt

zur ,,

Kraft

sehen

Ungleich

ung " :

Satz

(

Leon G.

Kraft

, 1948

)

:

Für

jede Folge llihsi.nu

von

natürlichen

Zahlen ex . ein

präfix freier

Code mit

Code

alphabet IT

und den Codewort

längen

ln

. ..

.lu gdw Fifa NTIFEI

tl

Beweisen

" " Dies ist eine direkte

Folge

aus

obigo Beobachtung

" "

konstruieren

geeigneten Code

für

#

T.tn

(11)

absteigende- "

8

(

andere Fälle analog

)

. 0.B.d.tt

gilt

bis , hin ,

dann sei S, = eng O und Sinn = Sit 2- li " # .

Sei

binlsiye

,

die Binär

darstellung

der

ersten

li

Nach komma stellen , so entstehen Codewörter ,

BEI Dieser

Code ist

präfix frei

und

erfüllt

die

Kraft

sehe

Ungleich uug

.

Aus ht )

folgt für

1k

je

n - i

Sitj

= Siegen. +

2- litt

' ys ; + z

- litj

Sieg. - Sieg 2-

litt (

* *

)

Ann : Der Code ist nicht

präfixfrei

Die Werte li sind es le Summen Si und si +j die

absteigend sortiert

auf

den ersten

li

+ Nach komma stellen

" kleine Indices " ! j

" langen Wörtern

"

mit si übereinstimmen.

(12)

1

Die Binär

darstellungen

haben immer

die Form 0

, ... , da

ja sogar ? #

± 1

gilt

.

Also ist die Differenz

Sinj

- si sehr

klein und es

gilt sogar

Sitj

- Si c

2- litj

,

denn

die Binär

darstellungen

von si bzw

sie j unterscheiden frühestens in der

lifte

Stelle.

Zu Ungleichuug ( * *

)

Code muß

präfix frei

sein

#

Bend Diese

Konstruktion

funktioniert

auch

für

#

Ü > 2

, dann

muß

statt der

Binär darstellung

(13)

120 die

# Kadisch

Darstellung gewählt

werden.

DI

Sei c : -2 + IT + eine Codierung wobei -2 =

Lon

, ... , out . Gilt lccr.lt = . . . =

1 Clou ) 1 , so

heißt

c Block

codierung

.

BST

" . Asch

, Unicode

, 1508859

Die DNA verwendet einen Blockade

, der

sogar

redundant ist .

Defni Sei K " , mit ein K- Vehtorraum über einem

endlichen Körper k . Die Menge CEK "

heißt

linearer [ n , k] - Code , wenn

C ein Untvvehtorraum der

Dimension

k ist .

(14)

Bekannt

: . Ein Bit

string

b = b. ... bn hat

5

gerade

Parität

, wenn 21 #el b) .

i. Anzahlder Einsen ist gerade"

Ein Uutervehtorraum wird durch

eine geeignete Generator matrix

erzeugt

1 beschrieben ,

Also Vehtoren der Basis zeitenweise

aufschreiben

und man erhält eine Matrix

mit k Zeiten und u

Spalten

. Es

gilt

C =

{ (

uo , ... , um ,

)

- G /

(

no , ... ,

und Ekk }

1

Zeiten vehtor

Ganz natürlich wird so auch eine

Codierung

definiert

:

(

no ,. . . , um . ) Ins ( no , - , un .e)'G

(15)

Bsfi

Sei B'

:{ (

tg

)

,

(f) }

4

:

01

. "

Damit

ist

Sno

oroo 0101

000Alle

(

( 0,10,0

Codewörkrhabeugerade

)

)

0001.' GGz1000= ((

0,1

0,0,

.

,

1)

01.)Prüfbit

:(

G-

(

(1.

(10%1)

1,0Parität

1)

).. GG, > (1.1. 0,1

1,0)

)

Ben

: Ein Linearer Code enthält innern Ö als Codewort.

Def

:

Einkinearerlcode

heißt Parität

.

code , wenn alle Codewörkr

gerade

Parität

haben

(16)

150

Beni . Der obige Code

verlängert

die

Nachricht nur

, solche Codes nennt

man systematischer Code

. Es

gibt

weitere [ 3,2J - Codes z.B.

mit Generator matrix

G.

=

( Gfk )

2.

Kanalkapazität

und der

Informations begriff

Für diesen Abschnitt ist besonders die Arbeit

von C. E. Shannon ,

" A Mathematical Theory

of

Communication " , 1948 zu nennen . Shannon

gilt

als

Begründer

der

Informations

theorie .

VEIT'

UEE' UEE'

Quelle o Sender o . oEmpfänger o Senke

c :[ Hut c-1 :# [ t

Rausch.

quelle Quelle

: Wikipedia

kommunikations moddl nach Shannon Foto:Yocnrßayd.IS?fozbIde

(17)

4

Been Der

Einfachheit

halber sei -2=20,13 ,

Versorgt

man den Sender in einem

Zeitraum

von T Einheiten mit einem Bit -

string

d.

Längen

, so kann der Sender

diese

übertragen

, wenn er 2 " verschiedene

Signale auf

dem Übertragungs kanal im Zeitraum T verschicken kann .

Dmefi Kommunikations

Mit T Zeiteinheitenkanal :

gilt für

einen

) =

eng , , Anzahl der erlaubten / möglichen

Signale

in T Zeiteinheiten "

Also werden

Bits pro Zeiteinheit

übertragen

.

(18)

7

In der Praxis stabilisiert sich dieser Quotient

über "

lange

Zeit

"

:

Def

: "

Kanalkapazität

"

Ein diskreter Übertragungs kanal besitzt logz NLT)

die Kanalkapazität

C =

him

-

Tv T

Benin

Wir

geben

die

Kanalkapazität

in Bits

pro

Zeiteinheit an

, aber es ist noch

gar

nicht

geklärt

, was der

Informations

.

begriff

und die Einheit

Bit bedeutet

!

Ideen Information

ist die Verringerung 1Beseitigung

von Ungewissheit.

(19)

180

Bsg Wir

sollen aus allen

Bitstrings

der Länge 3

einen bestimmten

herausfinden

.

Dazu können wir

übergeordnete einer

Instanz

Fragen

der Form " Ist das i. te Zeichen 1 ? "

stellen, die wahrheitsgemäß

beantwortet

werden . Eine solche

Instanz heißt

in der

Theoretischen Informatik

Orakel .

111 soo Ist das erste "

000 Ono u

Zeichen 1 ? ooo

° 01

101

,, µ ein "

3 001 010

110 Orr 011

Ungewiss heit verringert sich

Also :

. 8 Möglichkeiten

auf

4 eingrenzen : 1 Bit

. 8 - " - 2 - " - : 2 Bit

(20)

Allgemein:

2k

Möglichkeiten

auf

2.

eingrenzen

5

bedeutet

k . l Bit Information .

Deff

Sei nun . Die Eingrenzung von

n Möglichkeiten auf m Möglichkeiten

entspricht

logzkt

Bits

Bsg

. Gesucht ist ein

Bitstring

aus der Menge

{

00 ,

01,100,101,1100

, 1101

, 1110,1111 }

{00,01g

0200 Mio

}

° 1Bit

0 1

0201

zpit }

:

Mit

02100cg

% ,%1 i

Orff

o 1B.it10

02101

{

1001101,1100 00

'EsAg,

1100 Mit

µ O }nßit1B.it { }

,

1101,0 qffj

0 0

10 21101

}

1110,1111 }

113%1

Bit

np.IO

21110

}

21110,0

1B.it

1111 } 1

02

1111 }

(21)

20

Auf

jedem

Pfad

wird von 8

auf

eine

Möglichkeit

eingeschränkt, d.h.

auf gi

dem

Pfad

von Wurzel zu Blatt muss die Summe 3 Bits

betragen

l

überprüfen

!

)

BEI

Man kann die Informationsgewinnung

mit der Eintrittswahrscheinlichkeit l eines Ereignisses

)

vergleichen:

100,01g

Piok 0200

}

0 Pay

°

µ" 1

0201

}

µ

021003

0

Ofb

"%1 ' 0 0

102101300

{

1100

T p-112 O Puk }

{

1001101,1100

,

1101,0

^

0 °

1%21101

P

}

1110,1111 } F- % Pa , 1 0 0

21110

}

= puk

21110,0

1111 } 1Ag

02

1111 }

(22)

Also macht

folgende Definition

Sinn :

7

Der Informationsgehalt

eines

Ereignisses

,

das mit Wahrscheinlichkeit p so eintritt ist

Ilp )

=auf

dogz f-

= -

logzp

BEI

Die Fht I hat vier

Eigenschaften

, die

mit dem intuitiven

Informations begriff gut

übereinstimmt :

i,

Ilp

) 7,0 , wenn

PEI

0,1

In

ii ,

Ilp

) ist

stetig

, d. h . kleine Änderungen der W ' heit bewirken nur kleine Änderungen des

Informationsgehalt

s

(23)

220

iii. Icp

) ist monoton , d. h.

pecpz

Ilp

.) >

Ilpz

)

iy Icp

) ist additiv

Ilpipz )

=

IP.lt Ilpz

) , wenn pe und

pzstochastisch

unabhängig sind .

" Gesamt

information

= Summe der

Einzel

informationen

"

3. Quell

Codierung

Quelle u. Sender

II

" oEmpfänger"

EÜO

Senke

Wie

definiert

man @ azesut it :# El

Rausch

eine

Informationsquelle

mathe . quelle

matisoh ?

(24)

230

Defm: Diskrete Quelle

Eine diskrete Quelle X mit dem Quell

alphabet

Z =

term

. .ru } emittiert

einen unendlich

langes

Wort über -2. Jeder Buchstabe oi kommt mit einer

Wahrscheinlichkeit > 0 vor ,

Deff

Eine Quelle mit

Alphabet

[ = La, _

rntö

heißt gedächtnis

, wenn sie

i, an ... .ru statistisch unabhängig

ii , mit den Wahrscheinlichkeiten

ploi

),. ..

- - .

plrn

)

emitiot . Ist -2=20,1 } so heißt sie Bernoulli - Quelle .

(25)

21

Bend

Offensichtlich

gibt

es auch nicht

gedächtnis

lose Quellen

, dh . z . B.

folgt

in d. deutschen

Schrift auf

, g

'

fast

immer , u ' und

Paare

, au ', .ci ' oder , ss

' sind

häufiger

als ,

yj

.

Def

" i

, Die Wahrscheinlichkeit , das

auf

r der Buchstabe T

folgt

( kurz :

polt

)

)

heißt Transitions

wahrscheinlichkeit .

ii, Die

Bigramm

wahrscheinlichkeit

(

kurz :

plo

, i )

)

ist die

Wahrscheinlichkeit

, dass die beiden

Buchstaben

OT

emittiert werden .

(26)

250

Proposition

Sei Z ein

Alphabet

einer

Quelle

, dann

gilt

Poule plot

=

Plo

, T )

(

bedingte Wahrscheinlichkeit )

Been

kennt man alle Bigramm

wahrscheinlichkeiten

, dann kann man

plo

) ausrechnen

plr

) =

¥

,

plo.tl

=

Fez pur )

Also prlt

) -

ftp.plr.T

) =

Plo

,T

)

Transitions Wahrscheinlichkeiten kann

man aus Bigramm Wahrscheinlichkeiten

gewinnen

.

(27)

Deff

Eine Quelle

heißt

Markov

4

- Quelle

,

wenn ihr Emissions verhalten von einen

Zustands

diagramm

beschrieben wird ,

dessen Knoten Buchstaben und dessen

Andrei Markov

* 14.6.1856 Ryazan

+ zotieszzst .Petersburg Kaufen mit Transitions Wahrscheinlichkeiten

Quelle: Mactutor History

of Mathematics

History markiert sind .

Die Quelle hat

Ordnung

n , wenn die Transitions . Wahrscheinlichkeiten von n vorhergehenden Buchstaben

( ± " Vorgeschichte"

) abhängen

.

OYPOOLO)

7

11Pooh)

OIPLD

02

Ofpolo) 00 - 01

A

olpdol

[

211pm

)

olp.io/oiI%d1ufp1lporlD

#

1)

13 KÄM

so

11PM)

Welp

.eu )

Ordnung 0 Ordnung1 Ordnung 2

Lgedächtnislos

)

(28)

7

3. 1.

Datenkompression

Beo: Ziel der Quell Codierung ist es einen

möglichst kompakten Code zu

finden

,

um den

Übertragungskabel

auszulasten .

möglichst hoher

Informationsgehalt

Bekannte Verfahren

- Entropie Kodierungen

(

Shannon , Fano , Huffman

)

- Arithmetisch Kodierung

- Substitutions verfahren ( LZ77, LZW

)

Def

: Sie c :[ t Ü + eine Kodierung , dann

heißt

intim .tt#k

Kompression

rate

(

von c) .

(29)

20

Deff

Sei c : Zt Tt eine Codierung und E-

2h

, ... .ru } , dann

heißt

holt plo

)

die mittlere Codewort länge , wenn

plo

) die Auftretens wahrscheinlichkeit von rüt

3. 1.1 Shannon -

Codierung

,,

Die

grundlegende

Idee ist "

häufige

Buchstaben

durch kurze Code wörter zu

repräsentieren

und

seltene " durch lange Code wörter .

Shannon

schlägt folgendes Verfahren

vor , wobei

(30)

wir kurz

pi für pcri

) schreiben :

5

i, Sei Z = 2h , ...

, rub das Quell alphabet, wobei

pik pits

, 1k itn . 1 .

(

Wahrscheinlichkeiten absteigende sortieren

)

ii, Berechne Kumulierte Summen

(

IA

) P

, = 0

( Is )

Pin

=

Pit pi

iii,

Die

Shannon

codierung

c ist dann

wie

folgt definiert

:C

( Ti

)

= aeg ,, Die ersten mi Nachkommen -

bits von

Pi

" , wobei

mi = eng

Flog

.

#

(31)

30

Bsfi

Sei E- la ,b. c , die } mit

pla

) = 42 ,

pl

b) =

plc

) =p (d) =

ple

) - 48

"

wirf .ir?.::i:ni:iII::::I:.z.. :O :c

Buchstaben

und

, mr = 1 und mz = mg = my = m 5 = 3

bekommen

Somit da

)

= 0 , cl b) = 100 , clc ) = 101 ,

h.us?:r:.e4:!;.:..Id.g::iiaFi.risst

das immer so ?

satz.im

Das Verfahren

von Shannon Konstruiert

einen präfix freien

Code .

Beweis

: Ein ähnliches

Argument

wie bei

der Ungleich

ung von

Kraft führt

zum Ziel ,

(32)

31

Sei c : Z 20,13 . die konstruierte Codierung .

Wir wissen Pi = 0, an azas .. .. =

It

GZT +

¥

t .. .

und

log ptikmi

.

Somit

gilt für gidesjyi.it

Pj

-

Pink

Pinie -

Pi

= pi 7

# (

*

)

Angenommen der Code wäre nicht

präfix frei

, dann

ex . i und

j

mit

ihj

, cloi

)

= an az .. . ami

clrj

) = b. b. . . .

bmj

, wobei mit mj .

Dies gilt

, da

für piipzs

, ... auch mit mzs.ee

erfüllt

ist ,

Weiterhin

ist

ai.be

, az = bz , .. - , ami =

bmi

und

somit

gilt

(33)

320

OLPJ

- Pi

=

( Ge

... + aznn.in + bmzintf.me .

)

-

# t.n.io#ctanzinI.mt.... )

<

2-

mi =

Widerspruch

zu ( *

)

, d.hn der Code von

c ist

präfix frei

,

#

3. 1. 2. Arithmetischen

Kompression

Bisher : Entropie Kodierungen koalieren

häufige

Symbole

kurz und seltene

lang

.

Aber : Jedes Codewort hat eine

ganz

zahlige

Länge

es kommt zu

" Verschnitt ",

(34)

Fragen

: . Geht es auch besser ?

330

.

Gibt

es eine untere Schranke . die

nicht unterschritten werden kann ?

Idee : Codioe eine Nachricht nicht zeichen . weise

, sondern die

ganze

Nachricht

Wir ordnen einer Nachricht MEZ * ein Intervall

[

a. b [

RE

[ 0,1 ER zu .

Die Kodierung

ist

dann ein a E [ a , b [ oz mit der kürzesten

Binäre darstellung

.

Häufige

Nachrichten bekommen " große" Intervalle,

damit

ist die Wahrscheinlichkeit

groß

, dass

man eine kurze Binär

darstellung findet

.

Größen verhältnis der Intervalle

entspricht

der

Auftretens

wahrscheinlichkeiten der

Nachrichten

.

(35)

340

Für eine

gedächtnis

lose Quelle mit

Alphabet

E

=

la

, . . .ru }

funktioniert folgendes

Vorgehen.

Sei m =

ri

, ... . Tim die Nachricht

i, setze a- 0 , b -1 und

j

= 1

ii , Teile das Intervall in n Teile t , , . . . .tn , wobei

tn

die Breite von , 1 Eken

proportional plrij

zu

)

ist

iii. jnjtt

iv , Wenn

j

Em dann gehe zu ii ,

Bspmi

E- La,b. cb

pla

) = % und

pcb )

=

plc

) = 114.

Nachricht m = abae

(36)

350

a b c

. e -

±

¥

' " . ?, 4T

4 i.

: ' .

! '

n

; . .

1 in

I

.

.l

1.

. " ' I

Es ,' 2 3 '..

8 ,

. '

' T -8 i. 4J

.

' i.

.

'

: .

'

; ,, '

'

T I.

. 1

sei

± " .

.SE

32I:!i. I e. i.I ' in . .. " "

II

1

IF ÷

,

¥

64

Intervall

:(

IST ,

¥ )

Bekannt : Sei [ a. b [ R E [

0,14

, dann

ex . ein re Q mit RE [ a. b [ uz

(

Stichwort : 0

liegt

dicht in R

)

Im

obigen Spezialfall ergibt

sich 0,010011 , d.h.

die

Codierung

von m ist 010011 .

(37)

34

Frage

: Wie lang

muß

ein Codewort

für

ein Intervall sein ?

Oder. Wie eng müssen die Binär zahlen

gewählt

werden um ein Intervall zu

"

treffen

"

Sei E-

2h

, . i. rnb und me -2 k eine " typische"

Nachricht der Länge

keiner

gedächtnis

losen Quelle. Für

große

k tritt

pik

das Zeichen ri

auf

,

d.h. für

das Intervall [ a. b [

ergibt

sich eine

Breite

b- a =

pi

.. . pnipziipzi .. . '

Pn

: . i Pu

- - mm

pik

- mal

pik

= pnpi

!

. . . - mal pn. k - mal

pink

=

ftp.Pik

(38)

7

Sei 0, bei . .

bedie

Binär darstellung einer rationalen

Zahl r

, dann rs , 2- l,

Soll also r sicher im Intervall

liegen

, dann

muß

gelten:

2-

es ftp.cpik

- l E

? pikelogzpi

ls , k

? pilogzphi

Da le IN wählen wir

1- k .

? pilogzphü 7

, d. h.

k .

? pilogzphitlkttkT.cn pilogzpti

Da mittlere Codewort

länge

ist L =

%

, also

Referenzen

ÄHNLICHE DOKUMENTE

Muster lösung - Codierung theorie. Steffen

Inhalt: Eine Einführung der mittleren Änderungs- rate anhand von Höhenproilen zu den einzelnen Etappen einer Radtour durch die Pyrenäen..

Boolean bln blnGefunden Byte byt bytRasterDaten Collection col colMitglieder Date (Time) dtm dtmStart Double dbl dblToleranz Error err errBestellNr Integer int intAnzahl Long

(94*)], welche der Kürze wegen mit 1) bezeichnet wer- den mag, auf der Ekliptik zurück-, also der Sonne entgegengeht, so muss das tropische Jahr kürzer sein als das siderische, und

Um den mittleren Ort eines Sternes aus einem Cataloge, dessen Epoche =!„ ist, für irgend eine andere Zeit t bequemer zu finden, wird in den Catalogen nebst der Eigenbewegung

2.) Stellen Sie die Reaktionsgleichung für die Verbrennung von Heptan auf. Berechnen Sie dann mit Hilfe des Satz von Hess die Standard-Bildungsenthalpie von Heptan, wenn die

Trifft die Herleitung der neuägyptischen Präfixpartizipien zu, so läßt sich der Vokal des /­Präfixes der Partizipien als das zu erwartende *a bestätigen, und zwar aus

Le Conseil fédéral est d’ores et déjà désireux d’instaurer un «Centre national pour la qualité» dans le domaine de la santé. Cette nouvelle institution procédera à