• Keine Ergebnisse gefunden

.RGLHUXQJYRQ0XOWLPHGLDLQIRUPDWLRQ

Im Dokument Dynamische elektronische Bücher (Seite 194-200)

.RGLHUXQJYRQ0XOWLPHGLDLQIRUPDWLRQ

Die voranstehenden Kapitel haben sich mit der Strukturierung und Darstellung von In-formation befasst. Die Problematik multimedialer Daten wurde dabei ausgespart. Unter einer Multimediakomponente sei ein Informationsbestand verstanden, der kontinuierliche, zeitabhängige Medien beinhaltet und interaktiv nutzbar ist (vgl. STEINMETZ 1999: 7 ff., 815 ff., SCHULMEISTER 1997: 39 ff.). In der Regel wird die Verwendung zeitabhängiger Medien als das konstituierende Merkmal multimedialer Anwendungen verstanden; für dynamische elektronische Bücher ist aber auch der Aspekt der Interaktivität wesentlich.

Unter die allgemeine Definition eines multimedia document nach HyTime (ISO 10744),

„a collection of information that is identified as a unit and that is intended for human perception“ fallen grundsätzlich sowohl diskrete/zeitunabhängige als auch kontinuierliche bzw. zeitabhängige Medien. In den oben diskutierten (Meta-)Sprachen XML und SGML bzw. HTML und ihren Präsentationsspezifikationen lassen sich multimediale Elemente (Filme, Animationen, Simulationen, Audiodateien) allenfalls als in ihrer Struktur nicht transparente Komponenten einbinden, d. h. durch Verwendung geeigneter plug-ins kön-nen in gängigen Webbrowsern Multimediadateien integriert und abgespielt werden; ihre Binnenstruktur ist aber nicht oder nur bedingt deklarativ kodiert. Dies gilt auch für die Autoren- bzw. Produktionsseite: Autorensysteme für Multimediaanwendungen wie Macromedia Director oder Asymetrix ToolBook verwenden proprietäre Datenformate ohne deklarative Informationsstrukturierung. Für die Verwendung deklarativer Informati-onsstrukturierung in Multimediaanwendungen sprechen aber eine Reihe von Gründen:

• Ein deklaratives Auszeichnungsformat kann als Austauschformat zwischen verschie-denen Multimediaanwendungen dienen und die Wiederverwendbarkeit der in der Re-gel mit beträchtlichem Kosten- und Ressourcenaufwand entwickelten Multimedia-komponenten unterstützen.

• Durch ein deklaratives Format ergeben sich neue Anwendungsmöglichkeiten im Be-reich des dynamischen Verhaltens solcher Komponenten, da ihre innere Struktur zur Laufzeit analysiert und ggf. beeinflusst werden kann.

• Die Integration über die einfache Einbindung als Komponenten kann verbessert wer-den, z. B. hinsichtlich der Einbindung von Hypertextverknüpfungen oder der standar-disierten Anbindung zusätzlicher Anwendungen.

Für die einheitliche Kodierung und Darstellung von Multimediaanwendungen haben sich eine Reihe von Standards entwickelt; es geht nachfolgend aber nicht um die Kodierung von Einzelformaten, d. h. um Standards für die Kodierung von Videoanwendungen (z. B.

MPEG, AVI, QuickTime) oder Audiodateien (MP3, RealAudio), sondern nur um den Aspekt der Integration generischer Medienelemente in interaktiven Multimediaanwen-dungen.96 Zu diesen Standards gehören u. a.

MHEG (Multimedia and Hypermedia information coding Expert Group, ISO/IEC 13522, vgl. MEYER-BOUDNIK & EFFELSBERG 1995)

96 Eine umfassende Übersicht zu den verschiedenen Standards und Formaten für einzelne Me-dientypen gibt STEINMETZ 1999.

&DVFDGLQJ6W\OH6KHHWV

die Hypermedia/Time-Based Structuring Language (HyTime, vgl. NEWCOMB &

NEWCOMB 1992, NEWCOMB 1995A, 1995B) sowie

die Synchronized Multimedia Integration Language (SMIL, vgl. BOUTHILLIER 1998, HOSCHKA et al. 1998, AYARS et al. 2000).97

Die beiden letzteren Standards basieren auf SGML und lassen sich somit in die in den vorangegangenen Kapiteln erörterte Infrastruktur für die deklarative Informationsstruktu-rierung integrieren. Die nachfolgende Darstellung beschränkt sich auf HyTime und SMIL. Es ist eine Entwicklung zu beobachten, die analog zur Ausbildung von Präsentati-onsstandards im SGML-Bereich verläuft: HyTime ist ein seit längerem verfügbarer inter-nationaler Standard, für den aber nur wenige Anwendungen und Softwaresysteme existie-ren,98 während sich SMIL aufbauend auf HyTime-Konzepten als Standardisierungsvor-schlag des W3C in kurzer Zeit zu einem anwendungsnahen Standard entwickelt hat.

Das zentrale Problem beider Standards ist die Verarbeitung temporaler Constraints in Multimediasystemen. Ein Multimediadokument wird allgemein als eine Informations-sammlung (collection of information) verstanden, die sich logisch in einzelne media items gliedert. Im Gegensatz dazu verwendet der klassische Dokumentbegriff keine Zeitabhän-gigkeit und sieht keine Präsentationsdauer vor, da nur diskrete Medien (Text, Bild etc.) im Dokument enthalten sind. Bei der deklarativen Strukturierung der Medienelemente stellen sich folgende Fragen:

Wie lassen sich die media items durch den Einsatz temporaler Beschränkungen (tem-poral constraints) ausrichten bzw. anordnen (alignment) ?

• Wie können zeitabhängige Medien adressiert werden, um z. B. interaktive Hypertext-verknüpfungen in zeitabhängigen Medien verwenden zu können ?

Sowohl in HyTime als auch in SMIL werden Zeitachsen eingeführt (Zeitstrahl, timeline), entlang derer sich Medienelemente ausrichten und adressieren lassen. Ihre zeitliche Er-streckung wird durch

• die Startzeit des Abspielens,

• ihre Abspieldauer und

• die Endzeit des Abspielens

kodiert. Die Abspieldauer (duration) ergibt sich entweder aus

• der Festlegung durch den Autor oder

• auf Präsentationsebene durch direkte Interaktion des Benutzers bzw. durch Abhängig-keit von anderen media items.

Prinzipiell können zwischen verschiedenen media items unterschiedliche Relationen be-stehen:

Bezug der Startpunkte zweier media items,

• Beziehungen zwischen Start und Ende,

• Beziehungen zwischen zwei Endpositionen,

• Beziehung zwischen den Abspiellängen.

97 Zu weiteren Multimediastandards vgl. ERFLE 1994: 451 ff., BOLL, KLAS & WESTERMANN 1999A, 1999B. ERFLE 1993: 399 ff. gibt einen ausführlichen Vergleich verschiedener Stan-dards hinsichtlich der Kodierung zeitbezogener Information.

98 Vgl. NEWCOMB 1995B und die Liste verfügbarer Werkzeuge unter http://www.hytime.org/tools.

.DSLWHO¥.RGLHUXQJYRQ0XOWLPHGLDLQIRUPDWLRQ

Bei Kombination der verschiedenen Relationen ergeben sich 13 unterschiedliche tempo-rale Bezüge zwischen zwei media items. Die Platzierung auf einem absoluten Zeitstrahl ist ungeeignet zur Erfassung der Benutzerinteraktion, da in diesem Fall die absoluten Ereigniszeitpunkte nicht a priori bekannt sind. Ein einfaches Beispiel eines durch HyTi-me bzw. SMIL deklarativ zu beschreibenden Kodierungsproblems könnte z. B. folgende Situation sein: Starte Videosequenz A 10 sec. nach Ende der Audiosequenz B.

+\SHUPHGLD7LPH%DVHG6WUXFWXULQJ/DQJXDJH

Ähnlich wie der Präsentations- und Transformationsstandard DSSSL hat HyTime eine Doppelfunktion als Sprache für die Kodierung multimedialer Information sowie als eine Art konzeptueller Überbau zu SGML. Die Hypermedia/Time-based structuring Language ist als ISO/IEC 10744 seit 1992 ein internationaler Standard; sie wurde seit 1984 durch Charles GOLDFARB als „Überbau“ zu SGML und parallel zur Standard Music Description Language (SDML) entwickelt (vgl. NEWCOMB & NEWCOMB 1992: 459). NEWCOMB et al. 1991: 68 definieren HyTime wie folgt:

HyTime is a standard neutral markup Language for representing hypertext, multimedia, hy-permedia, and time- and space-based documents in terms of their logical structure. Its pur-pose is to make hyperdocuments interoperable and maintainable over the long term.

HyTime can be used to represent documents containing any combination of digital nota-tions. HyTime is parsable as Standard Generalized Markup Language (ISO 8879:1986).

HyTime provides standardized means of expressing

(1) intra- and extra-document locations, and arbitrary links between them, (2) the scheduling of multimedia objects in ’finite coordinate spaces’, and

(3) rendering instructions for arbitrarily projecting such objects onto other finite coordinate spaces, and other constructs.

Wie SGML definiert HyTime vor allem die logische Struktur unabhängig von der Kodie-rung einzelner Medienelemente und verwendet dazu die syntaktischen Konventionen von SGML. Es werden die bereits in Kap. 5.1.2 angesprochenen architectural forms als

„Oberklassen“ für SGML-DTDs als („Meta-DTDs“) eingeführt. Der HyTime-Standard besteht aus fünf Modulen (vgl. GOLDFARB et al. 1997, ISO/IEC 10744:1997):

1. Basismodul: Enthält einige architectural forms und SGML.

2. Das location address module, das die Syntax für die Adressierung von Informations-einheiten definiert.

3. Das hyperlinks module instantiiert das location address module und definiert Typen von Verknüpfungen zwischen Informationseinheiten.

4. Das scheduling module beschreibt finite Koordinatenräume (finite coordinate spaces, FCS) beliebiger Dimensionalität, in denen die Medienelemente angeordnet werden können und Ereignisse (events) als Teile solcher Räume, die Medienelemente enthal-ten können.

5. Das rendition module beschreibt Verfahren zur Projektion und Modifikation von Er-eignissen in unterschiedlichen Räumen.

HyTime bietet somit Lösungsansätze für

linking: Aufbau von Verbindungen zwischen einzelnen Medienelementen,

scheduling/rendition/alignment: Ereigniskonzept mit bounding boxes, darin jeweils Referenzen auf media items.

+\SHUPHGLD7LPH%DVHG6WUXFWXULQJ/DQJXDJH

Für die Adressierung und Referenzierung von Medienelementen verwendet HyTime ver-schiedene Verknüpfungstypen und Adressierungsarten. HyTime unterscheidet zwischen

contextual links (FOLQN), bei denen sich der Anker der Verknüpfung innerhalb des Do-kuments befindet, von dem die Verknüpfung ausgeht (inline-Links, vgl. oben Kap.

5.2.4) und

independent links (LOLQN), die außerhalb der miteinander verknüpften Ressourcen ko-diert und verwaltet werden können und somit die Möglichkeit von out-of-line-links de-finieren.

Die letztere Möglichkeit der externen Linkverwaltung ist bei multimedialer Information erforderlich, da man bei binär kodierten Multimediaformaten nicht die Möglichkeit hat, in den Medienelementen selbst deklarativ Verknüpfungen einzufügen und die Links out-of-line verwaltet werden müssen.

Neben diesen Linktypen definiert HyTime unterschiedliche Arten der Adressierung, sowohl eine absolute Adressierung über ID-Attribute von SGML-Elementen (QDPHORF) als auch eine relative Adressierung über Positionen im SGML-Elementbaum (WUHHORF).

Eine dritte Möglichkeit ist die datenbezogene Adressierung (GDWDORF), bei der die Adres-sierung über einen Zähler primitiver Datenelemente (Wörter, Frames etc.) erfolgt. Zu-sätzlich definiert HyTime die Abfragesprache HyQ, ein Vorläufer der SDQL von DSSSL (vgl. oben Kap. 7.1.1) und der in XPath und XPointer definierten Adressierungsmöglich-keiten.

Die physische Strukturierung eines HyTime-Dokuments erschließt die einzelnen Me-dienelemente durch Referenzierung, d. h. sie sind nicht Teil des Dokuments selbst und werden vom HyTime-System zur Laufzeit durch die entsprechenden Referenzen identifi-ziert und eingebunden. Grundlage für das alignment bzw. die Präsentation zeitabhängiger Daten ist in HyTime das Event-Konzept, das für jedes media item eine bounding box ko-diert, in der das Element logisch, d. h. durch eine Referenz auf die Binärdaten z. B. eines Films, enthalten ist und die zur Präsentationsplanung verwendet wird (event scheduling).

Die bounding boxes der Medienereignisse sind in finiten Koordinatenräumen (finite coordinate space) platziert und erhalten durch Angabe des extent eines media items bezo-gen auf die dimension jeder Achse eine adressierbare Struktur, wobei sich die logische Gliederung in kleinste Einheiten (quantum) aus der Definition des Koordinatenraums ergibt.

Bei relativer Adressierung bezogen auf andere media items müssen zwischen den Me-dienelementen event references eingeführt werden, die durch dimension references auf

first quantum,

quantum count oder

last quantum.

eines Ereignisses verweisen. Mit dem Referenzmechanismus können alle genannten Re-lationstypen kodiert werden (Beispiele im Annex C der Norm, jeweils mit Kodierungsal-ternativen). In einem Dokument können absolute Anordnung und Referenzen gemischt kodiert werden. Zusätzlich bietet HyTime durch Funktionen und Operatoren (HyFunk, HyOp) die Möglichkeit, Medienreferenzen dynamisch zu spezifizieren bzw. zur Laufzeit zu errechnen. vgl. dazu Beispiele bei ERFLE 1993, 1994.

Besteht zwischen den Medienelementen und der angestrebten Darstellungsplattform ein Unterschied bezüglich der Granularität der Strukturierung (verschiedene Skalen und/oder Einheiten), so kann man durch Einführung von Projektionsmechanismen ver-schiedene Koordinatenräume aufeinander abbilden. Dazu führt HyTime das Konzept

.DSLWHO¥.RGLHUXQJYRQ0XOWLPHGLDLQIRUPDWLRQ

eines projector ein, dem ein projector scope zugeordnet ist und der verwendet werden kann, um ein Medienelement von einem Ausgangs- in einen Zielkoordinatenraum abzu-bilden. Ein Beispiel für einen solchen Vorgang ist die Abbildung einer in einzelne (logi-sche) frames aufgeteilten Multimediaanimation auf einen Zeitstrahl, bei dem eine physi-sche Einheit und nicht eine logiphysi-sche Einteilung die Gliederungseinheit darstellt.

Aufgrund seiner großen Komplexität hat HyTime bisher vor allem im Bereich der technischen Dokumentation bzw. der öffentlichen Verwaltung Anwendung gefunden, so im Rahmen der Interactive Technical Manuals-Initiative (IETM) des US-Verteidigungs-ministeriums (vgl. NEWCOMB 1995B mit weiteren Beispielen). Obwohl viele HyTime-Anwendungen naheliegend erscheinen, vor allem für die Kodierung und Verwaltung komplexer Multimediaanwendungen, hat HyTime bisher keine Auswirkungen auf Multi-media-Autorensysteme gehabt und – trotz seines Status als SGML-Schwesterstandard – im Bereich des World Wide Web kaum Beachtung gefunden. Dies gilt allerdings nicht für die konzeptuelle Ebene der Weiterentwicklung von Spezifikationen für das World Wide Web, da in zahlreichen Standards Ideen aus HyTime aufgegriffen worden sind (XPath, XPointer). Am deutlichsten erscheint dies bei SMIL, einer für das World Wide Web spe-zifizierten Multimediasprache, die wie HyTime die Problematik der Kodierung zeitab-hängiger Information lösen soll.

6\QFKURQL]HG0XOWLPHGLD,QWHJUDWLRQ/DQJXDJH

Wie HyTime ist die vom W3C als Standard vorgeschlagene Synchronized Multimedia Integration Language eine deklarative Sprache für die Kodierung von Multimediainfor-mation. Sie ist formal als XML-DTD definiert und kann von XML-basierten Werkzeugen verarbeitet werden, wenigstens insofern die Manipulation der in einerm SMIL-Dokument definierten Strukturen im Vorfeld der eigentlichen Präsentation erforderlich ist. Für die Präsentation von bzw. die Interaktion mit SMIL-Dokumenten sind allerdings spezifisch für SMIL entwickelte Viewer oder plug-ins erforderlich.

Das Ziel von SMIL ist es, dem Entwickler einen Standard an die Hand zu geben, mit dem interaktive, zeitabhängige Multimediapräsentationen kodiert werden können; die Komplexität ist im Vergleich mit HyTime deutlich reduziert; SMIL beschränkt sich auf die Aspekte der Multimediakodierung im engeren Sinn und enthält anders als HyTime keine metasprachlichen Konstrukte. Es beschreibt folgende Aspekte einer Multimediaprä-sentation: Das Zeitverhalten einer Multimediapräsentation, ihr Layout am Bildschirm und die Verlinkung der Medienobjekte bzw. ihre interaktive Nutzung.

$XIEDXYRQ60,/'RNXPHQWHQ

Analog zu HTML ist ein SMIL-Dokument in Kopf und Körper eingeteilt, d. h. ein einfa-ches SMIL-Dokument weist folgende Struktur auf:

VPLO! KHDG!¦]%/D\RXWLQIRUPDWLRQ!KHDG!

ERG\!¦]%'HILQLWLRQYRQ$EODXIVHTXHQ]HQ!ERG\!

VPLO!

&RGHEHLVSLHO *UXQGVWUXNWXUHLQHV60,/'RNXPHQWV

Das KHDG!-Element kann folgende top-level-Elemente von SMIL enthalten:

‡ OD\RXW! Angabe von Layoutinformation,

‡ PHWD! Angabe von Metainformation,

‡ VZLWFK! Auswahlsteuerung, z. B. für alternative Layouts.

6\QFKURQL]HG0XOWLPHGLD,QWHJUDWLRQ/DQJXDJH

Innerhalb des Dokumentkopfs wird das grundlegende Layout einer Präsentation angege-ben. Das OD\RXW-Element hat selbst eine Reihe von Kindern, die die Spezifika des räumli-chen und zeitliräumli-chen Layouts präzisieren (UHJLRQ-Element). Die Layoutkodierung arbeitet mit dem Konzept einer abstrakten Darstellungsfläche (abstract rendering surface), die sich dann je nach Art der Medienelemente als visuell oder auditiv (oder beides) konkreti-siert. Dazu können unter Verwendung von VZLWFK-Konstrukten (Auswahlanweisungen) verschiedene Layoutvarianten kodiert werden (z. B. mit Hilfe alternativer Layoutsprachen wie CSS2). Eine solche Layoutalternative zeigt das nachfolgende Beispiel, in dem eine UHJLRQ U durch zwei verschiedene Kodierungsstandards definiert wird (CSS und SMIL).

Im Rumpf des Dokuments wird in der Teilfläche ein Bild zehn Sekunden lang angezeigt.

VPLO!

KHDG!

VZLWFK!

OD\RXW W\SH WH[WFVV!>UHJLRQ U@ ^ WRS S[ OHIW S[ ` OD\RXW!

OD\RXW!UHJLRQ LG U WRS OHIW ! OD\RXW!

VZLWFK!

KHDG!

ERG\!

VHT! LPJUHJLRQ UVUF ¨KWWSZZZZRUJWHVW¨GXU V !VHT!

ERG\!

VPLO!

&RGHEHLVSLHO /D\RXWDOWHUQDWLYHQLQ60,/

Layoutangaben können sowohl in der SMIL-Syntax als auch in dem in CSS2 vorhande-nen Verfahren angegeben werden. Die nachfolgende Tabelle zeigt die wesentlichen Ele-mente von SMIL und gibt an, welchem Layouttypus sie entsprechen (absatz- oder block-basiert bzw. ohne Darstellung bei Kontrollflusselementen).

SMIL-Element Erläuterung Darstellungsanweisung (CSS2)

$ Startpunkt einer Verknüpfung ^GLVSOD\EORFN`

$1&+25 Anker einer Verknüpfung ^GLVSOD\EORFN`

$1,0$7,21 Element für die Einbindung einer Animation ^GLVSOD\EORFNSRVLWLRQDEVROXWH`

%2'< Beinhaltet den Dokumentrumpf ^GLVSOD\EORFN`

+($' Beinhaltet den Dokumentkopf ^GLVSOD\QRQH`

,0* Bindet ein Bild (Bitmap) ein ^GLVSOD\EORFNSRVLWLRQDEVROXWH`

/$<287 Definiert die Positionierung von Flächen in der Dar-stellungsfläche

^GLVSOD\QRQH`

0(7$ Kodiert Metainformation zu einem SMIL-Dokument ^GLVSOD\QRQH`

3$5 Kodiert die synchrone (parallele) Ausführung zweier Medienelemente

^GLVSOD\EORFN`

5(*,21 Definiert einen Darstellungsbereich ^GLVSOD\QRQH`

5() Generisches Element bei nicht eindeutiger Kategorisie-rung eines Medienelements

^GLVSOD\EORFNSRVLWLRQDEVROXWH`

5227/$<287 Wurzelelement der Layoutspezifikation ^GLVSOD\QRQH`

6(4 Steuerungselement für die sequentielle Wiedergabe von Medienelementen

^GLVSOD\EORFN`

60,/ Wurzelelement von SMIL-Dokumenten ^GLVSOD\EORFN`

6:,7&+ Steuerelement für Auswahlanweisungen ^GLVSOD\EORFN`

7(;7 Kodiert ein Medienelement vom Typ Text ^GLVSOD\EORFNSRVLWLRQDEVROXWH`

7(;7675($0 Kodiert ein Medienelement vom Typ Textstrom ^GLVSOD\EORFNSRVLWLRQDEVROXWH`

9,'(2 Kodiert ein Medienelement vom Typ Video ^GLVSOD\EORFNSRVLWLRQDEVROXWH`

7DEHOOH 60,/(OHPHQWHXQGLKUH'DUVWHOOXQJ

.DSLWHO¥.RGLHUXQJYRQ0XOWLPHGLDLQIRUPDWLRQ

Der Dokumentrumpf enthält die Spezifikation der eigentlichen Inhalte der Präsentation und ihres logischen Zusammenhangs, d. h. hier wird angegeben, welche Elemente (z. B.

Videos, Text etc.) auftreten sollen, wie ihr zeitlicher Ablauf ist und welche Verknüpfun-gen vorhanden sein sollen.

Die in SMIL 1.0 vordefinierten Medientypen sind $1,0$7,21$8',2,0*5()7(;7 7(;7675($0und 9,'(2. Über die Interpretation der Elemente ist in der DTD nichts spe-zifiziert, d. h. die Semantik der Präsentation eines Animationselements bleibt der Imple-mentierung des Viewers vorbehalten. Es gelten folgende syntaktische Konventionen:

• Alle Medienelemente werden durch einen Hyperlink auf der Basis des URI-Schemas in das Dokument eingebunden.

Es gilt die Unterscheidung von diskreten Medienelementen (without intrinsic durati-on): 7(;7 ,0* und kontinuierliche Medienelemente (with intrinsic duration):

$1,0$7,21$8',27(;7675(05()9,'(2

Nur die kontinuierlichen Medienelemente können zusätzlich FOLS-Attribute tragen, die das Zeitverhalten des je abgespielten Clips steuern. 7DEHOOH zeigt einige der möglichen At-tribute von SMIL-Elementen.

Attribut Interpretation

EHJLQ Startzeitpunkt eines Medienelements

FOLSEHJLQ Startzeitpunkt eines Unterbereichs (clip) eines Medienelements FOLSHQG Endzeitpunkt eines Unterbereichs (clip) eines Medienelements GXU Abspieldauer eines Medienelements

HQG Endzeitpunkt eines Medienelements

VUF Verweis auf die Datenquelle eines Medienelements V\VWHPVFUHHQVL]H Spezifikation der Bildschirmgröße

7DEHOOH $XVJHZlKOWH$WWULEXWW\SHQLQ60,/

6\QFKURQLVDWLRQVVWHXHUXQJLQ60,/

SMIL enthält zwei Grundtypen der Mediensynchronisation: Sequentieller und paralleler Ablauf. Das SDUElement dient der zeitlichen Steuerung der Parallelführung und Überlap-pung von Multimediaelementen. Das erste Beispiel zeigt den zeitverzögerten Beginn des Abspielens eines Elements:

SDU!DXGLRLG DEHJLQ VVUF DXGLR!

SDU!_SDU_

V!_D_

&RGHEHLVSLHO =HLWYHU]|JHUWHU%HJLQQGHV$EVSLHOHQV

Das zweite Beispiel zeigt die Synchronisation durch eine Referenzierung zwischen Me-dienelementen mit Hilfe von ID-Attributen:

• Während der ersten sechs Sekunden geschieht nichts,

• dann startet eine Audiodatei,

• nach weiteren vier Sekunden (also nach insgesamt 10 Sekunden) wird ein Bild einge-blendet:

SDU! DXGLRLG DEHJLQ V ! LPJEHJLQ LGDV ! SDU!

Im Dokument Dynamische elektronische Bücher (Seite 194-200)