next up previous contents
Next: Navigation Up: Navigation in Hypertexten Previous: Hypertexte

Textverständnis

Für das Verständnis von Texten lassen sich eine Reihe verschiedener Faktoren finden, Foltz (1996) nennt beispielsweise folgende: Innerer Zusammenhalt des Textes, Hintergrundwissen des Lesers, Erzählschemata im Text, kognitive Fähigkeit des Lesers sowie dessen Lesestrategie. Bei Lesen sollte der Leser die relevante Information aus dem Text extrahieren, die den Zielen von Autor bzw. Leser entspricht.

Nach Anderson (1990) lassen sich Sätze, aber auch ganze Texte, nach bestimmten immer wiederkehrenden Mustern strukturieren, die dazu dienen, die Sätze innerhalb größerer Textstrukturen zu organisieren. Anderson nennt dabei folgende mögliche Beziehungen: Antwort, Spezifizierung, Erklärung, Evidenz, Abfolge, Grund, Ziel, Ansammlung. Diese Beziehungen können auf jeder Stufe des Textes auftreten.

Die psychologische Bedeutung der (hierarchischen) Textstruktur zeigt sich darin, daß sich deren Einfluß auf das Verständnis von Texten und insbesondere auf deren Behalten nachweisen läßt. Diejenigen Leser, die die Aussagen auf der höchsten hierarchischen Ebene am besten identifizieren können, behalten die Texte auch am besten.

Neben der hierarchischen Struktur hält auch die logische Struktur einen Text zusammen. Je enger der kausale Zusammenhang zwischen zwei Sätzen ist, desto schneller wird der zweite Satz gelesen. Diejenigen Teile einer Geschichte, die besonders wichtig für deren kausale Struktur sind, werden auch am besten erinnert. Das Behaltensvermögen für Texte, die nicht dem ``natürlichen'' Aufbau (Schema?) entsprechen, ist deutlich geringer.

Wahrnehmungsprozesse beim Lesen

Nach Wickens (1984) kann man sich Bedeutung als Ergebnis der Aktivierung von Assoziationen oder Knoten im Langzeitgedächtnis vorstellen, die durch charakteristische Kombinationen von Merkmalen (features) ausgelöst werden. Die Erfassung und Verarbeitung von verbalem Material erfolgt eher in der linken Gehirnhälfte, die Verarbeitung von räumlichem Material eher in der rechten Hemisphäre. Nach dem Prinzip des direkten Zugriffs wird entsprechendes Material effizienter verarbeitet, wenn es über die kontralaterale Körperseite wahrgenommen wird. Deshalb wäre es empfehlenswert, grafische Browser links von den durch sie angewählten Textfenstern zu plazieren (eine ähnliche Untersuchung an komplexen Displays von Wickens zeigt dies). Nach dem Prinzip des Ressourcen-Wettstreits interferieren zwei Aufgaben stärker, wenn deren Verarbeitung in der selben Hemisphäre stattfindet. Die Effekte der beiden genannten Prinzipien sind jedoch relativ schwach ausgeprägt und es handelt sich eher um ein Kontinuum als um eine Dichotomie.

Wahrnehmung von Schrift

Die Wahrnehmung von gedruckter Schrift erfolgt hierarchisch. Nach dem Modell von Neisser (dargestellt z.B. von Wickens, 1984) sind daran folgende Stufen beteiligt:

Merkmalsanalyse: Buchstaben setzen sich aus verschiedenen Linien und Kreissegmenten unterschiedlicher Orientierung zusammen, die als kleinste Merkmale betrachtet werden können. Die Identifikation eines Buchstabens erfolgt mittels dieser Merkmale: Je mehr solcher Merkmale zwei Buchstaben gemeinsam haben, desto schwieriger (und langsamer) können sie unterschieden werden. Nach gewisser Übung können Versuchspersonen auch nach zwei oder mehr Zielbuchstaben parallel suchen.

Buchstabenanalyse: Es liegen deutliche Hinweise vor, daß Buchstaben mehr sind als ein Bündel bestimmter Merkmale, da sie sehr gut erlernt sind. Dies zeigt sich in der Überlegenheit der Erkennung von Buchstaben gegenüber anderen Symbolen, wenn dieses als Sekundäraufgabe ausgeführt wird.

Wortanalyse: Wörter können durch Analyse der einzelnen Buchstaben erkannt werden, vertraute Wörtern werden aber bereits an ihrer Gestalt (typische Ober- und Unterlängen) identifiziert. Letzteres zeigt sich beispielsweise daran, daß beim Korrekturlesen Fehler, die gleiche Ober- und Unterlängen aufweisen, seltener identifiziert werden (das selbe gilt allerdings auch für sinnvolle, aber falsche Wörter).

Satzanalyse: Wie in dem Abschnitt zur Diskursanalyse zu sehen sein wird, kann auch die Struktur eines Satzes zur Identifiktaion der einzelnen Wörter beitragen, ebenso wie die Makrostruktur bzw. das daraus abgeleitete Situations-Modell.

Die genannten Prozesse beim Wahrnehmen von Schrift laufen nicht nur von den Merkmalen zu den Wörtern, sondern auch in umgekehrter Richtung: Ein geeigneter Kontext erlaubt dem Leser bereits auf der Grundlage weniger Informationen, das richtige Wort zu erraten. Eine derartige Top-Down-Verarbeitung ist möglich, weil die Sprache so strukturiert ist, daß Constraints vorliegen, die nur bestimmte Kombinationen von Merkmalen, Buchstaben, Wörtern oder Sätzen zulassen. Dadurch wird außerdem eine gewisse Redundanz in der Sprache bewirkt, die die Top-Down-Verarbeitung ebenfalls fördert.

Der Wortüberlegenheitseffekt besteht darin, daß Buchstaben innerhalb eines Wortes schneller korrekt identifiziert werden, da durch den (Wort-)Kontext die Anzahl möglicher Alternativen deutlich reduziert wird. Dieser Effekt deutet darauf hin, daß die Verarbeitung von Buchstaben parallel stattfindet

Wahrnehmung beim Lesen

Marks und Dulaney (1998) fassen die wichtigsten Befunde zur Lese-Forschung folgendermaßen zusammen: Die Aufnahme von Informationen beim Lesen erfolgt während der Fixationen, die etwa 200 bis 250 Millisekunden dauern und zwischen denen Sakkaden stattfinden, bei denen der Blickpunkt etwas weiter gerückt wird (üblicherweise etwa sieben bis neun Buchstaben weit). Bei schwierigen Texten oder langen Wörtern finden auch häufiger rückwärts gerichtete Sakkaden statt. Während einer Fixierung werden etwa drei Buchstaben links vom Blickpunkt und 14 Buchstaben rechts davon wahrgenommen (bei Personen, die von links nach rechts schreiben, ist es genau andersherum), wobei vor allem das Erscheinungsbild der Buchstaben - deren Ober- und Unterlängen - eine große Rolle spielen. Dies läßt sich empirisch nachweisen, indem die Sätze am Computerbildschirm dargeboten werden und die genauen Blickbewegungen der Leser registriert werden. Man kann dann feststellen, ab welcher Buchstabenposition (vom Fokus aus) Veränderungen wahrgenommen werden (indem man die Buchstaben verändert, wenn sie von der Peripherie in den Fokus wandern).

Die Dauer von Fixationen am Ende von Sätzen ist besonders lange, vermutlich weil dort eine Integration der aufgenommenen Information stattfindet. Läßt sich ein Wort aufgrund des Kontextes mit hoher Wahrscheinlichkeit vorhersagen, dann sind die Fixationen besonders kurz. Bei besonders seltenen Wörtern finden hingegen längere Fixationen statt.

Anwendungen

Diese Erkenntnisse können nach Wickens (1984) dazu eingesetzt werden, schnelle und genaue Lesbarkeit von Texten sicherzustellen, die auf einem Computerbildschirm dargestellt werden. Dazu müssen zuerst die kritischen Signale herausgefunden werden, die einen bestimmten Kontext signalisieren. Es ist sinnvoll, durch Training sicherzustellen, daß solche Signale automatisch beachtet werden. Alternativ dazu könnte die Intensität der Signale so weit erhöht werden, daß sich nicht ignoriert werden.

Die Genauigkeit und Geschwindigkeit des Erkennens ist dann am höchsten, wenn die dargestellten Reize in einem physikalischen Format präsentiert werden, das maximal kompatibel zu der visuellen Repräsentation des Items im Gedächtnis ist (z.B. Buchstaben oder Zahlen nicht durch nur aus Strichen bestehende Digitalanzeige darstellen). Bei Darstellung nur durch Großbuchstaben werden Wörter nicht mehr so gut erkannt, da das typische Muster der Ober- und Unterlängen fehlt. Aus diesem Grund sollten Abkürzungen aus den Anfangsbuchstaben bestehen und nicht aus einer komprimierten Version des ganzen Wortes. Wichtig ist auch, die Bildschirmanzeige durch Leerstellen geeignet zu strukturieren.

Man kann aber nicht immer eine optimale Informationsdarstellung realisieren, da oft einander widersprechende Anforderungen (trade-offs) vorliegen:

Wickens (1984) betont außerdem, daß durch einen geeigneten Kontext das Verständnis deutlich erleichtert werden kann, weil dem Lesenden durch den Kontext nahegelegt wird, das Material so zu enkodieren, wie es vom Autor gewünscht ist. Außerdem bietet der Kontext einen Rahmen, in den die aufzunehmende Information integriert werden kann. Sowohl Abruf als auch Verständnis verbessern sich dadurch. Am effizientesten sind Kontexte, die bereits vor der Darbietung des Materials anwesend sind.

Negationen sind besonders schwierig zu verarbeiten, ebenso wie logische Umkehrungen und Falsifizierungen. Nach dem Prinzip der Kongruenz werden positive Statements schneller verifiziert und negative Statements schneller falsifiziert. Die Reihenfolge, in der Informationen dargeboten werden, sollte auch der Reihenfolge entsprechen, in der sie abgerufen werden bzw. in der sie relevant sind. Dies kann bei Hypertexten nur schwer sichergestellt werden; es ist fraglich, ob in diesem Fall eine Linearisierung des entsprechenden Textteiles erzwungen werden soll. Problematisch ist es auch, wenn bestimmte Systemzustände durch die Abwesenheit von Hinweisreizen signalisiert werden.

Textverständnis

Für das Verständnis geschriebener oder gesprochener Sprache spielen auch der Kontext des Autors und des Rezipienten eine wichtige Rolle, entscheidend ist aber die Rolle der Texte für den Kommunikationsprozeß. Nach Kintsch (1994) ist dabei Kommunikation nicht nur als Transaktion (Vermitteln von Information), sondern auch als Interaktion in sozialen Situationen zu betrachten: Der Text ist ein Werkzeug für die Bildung sozialer Beziehungen bzw. für die Verhandlung sozialer Rollen und das Ziel eines Textes ist Überzeugen, Unterhalten oder Zerstreuen des Lesers.

Kintsch (1994) diskutiert die Erklärungskraft streng formaler Theorien (formale semantische Systeme) und von Theorien, die die Reichhaltigkeit der Sprache erfassen wollen. Er unterscheidet folgende Ansätze:

Während des Verstehens von Texten folgern die Leser auch selbstständig neue Information, beispielsweise über Ziele oder Pläne von Protagonisten in einem Roman. Graesser et al. (1997) unterscheiden dabei fünf Arten von Inferenzen:

Nach Ansicht der konstruktionistischen Theorie werden während des Lesens (online) nur übergeordnete Ziele inferiert. In diesem Bereich liegen aber noch keine eindeutigen Forschungsergebnisse vor (siehe Graesser et al., 1998).

Graesser et a. (1996) betonen die wichtige Rolle von Fragen für das Verständnis von Texten. ``Gute'' Fragen, die sich auf die Identifikation von Lücken, Widersprüchen, Anomalien und Ambiguitäten in der Wissensbasis des Lesers beziehen, werden von Personen gestellt, die versuchen, bestehendes Wissen zu vertiefen. Mit Fragen sind aber oft soziale Barrieren bzw. Kosten verbunden, so daß weniger Fragen gestellt werden. Greasser et al. (1996) beschreiben die Möglichkeit, durch gezieltes Einbauen von Widersprüchen, (auffälligerweise oder unauffälligerweise) irrelavanten Items und Auslassungen in Texte die Wahrtscheinlichkeit zu erhöhen, daß vom Leser Verständnisfragen gestellt werden. Diese Technik läßt sich aber für Hypertexte kaum nutzen, da eine natürliche Sprachverarbeitung für das Parsing der Benutzerfragen erforderlich wäre.

Propositionen

Ein zentraler Bestandteil psychologischer Theorien zu Textverständnis sind Propositionen, die wiederum aus einem Prädikat oder einer Relation (eventuell mit mehreren Argumenten) bestehen kann, wobei deren Argumente Konzepte oder andere Propositionen sein können. Beim Lesen von Texten werden diese Propositionen aus dem Text mit Hilfe von lexikalischer Information im Langzeitgedächtnis gebildet (cf. Kintsch, 1994). Sie werden dabei in eine hierarchische Struktur gebracht, wobei die hierarchische Struktur eines Absatzes als Mikrostruktur und die hierarchische Struktur des gesamten Textes als Makrostruktur bezeichnet wird. Den Makrostrukturen kommt eine besondere Bedeutung für das Verständnis und Behalten von Texten zu; sie werden wesentlich von Titeln, Zusammenfassungen, ersten Sätzen und der Häufigkeit des Erwähnens einzelner Punkte bestimmt.

Letztlich setzt sich also die Textbasis aus einer strukturierten Menge an Propositionen zusammen, die durch semantische Kohärenzrelationen miteinander verbunden sind (siehe Abschnitt 2.2.3). Die propositionale Textbasis enthält (normalerweise) nicht alle Oberflächenmerkmale des Textes (z.B. geht die Zeitform bei Verben verloren). Die Propositionen lassen sich in Form von Listen (ähnlich wie PROLOG-Statements) formulieren oder - zumindest für einzelne Sätze - auch als Graphen. Es lassen sich empirische Belege dafür finden, daß das Verstehen von Texten auf solchen Propositionen beruht (freier Abruf, Wiedererkennen, Zusammenfassungen, Lesezeiten, Priming-Studien usw.).

Die rhetorische Struktur eines Textes wurde meist im Zusammenhang mit Erzählungen untersucht, bei denen sie die Form einer story grammer annimmt. Die Struktur eines Diskurses hängt aber nicht nur von dessen rhetorischer Struktur ab, sondern auch vom Domänenwissen des Lesers, das wiederum in Form von Skripten oder Schemata organisiert ist.

Diskurs-Verarbeitung

Nach Graesser, Millis und Zwaan (1997) liefert ein Diskurs den nötigen Kontext, um Sätze (in den allermeisten Fällen) eindeutig interpretieren zu können. Magliano, Schleich und Millis (1998) stellen einen informativen Überblick über die Informationsverarbeitungs-Mechanismen dar, die beim Verständnis von Diskursen eingesetzt werden. Nach Ansicht dieser Autoren beschäftigt sich discourse processing mit der Frage, wie zusammengehörige Botschaften übermittelt werden und wie ganze Texte produziert, verstanden und erinnert werden. Sie unterscheiden erzählende Texte (Belletristik, bei deren Rezeption der Leser sein Weltwissen einsetzen kann) und erläuternde (expository) Texte, die überzeugende oder logische Argumente, Beschreibungen oder Handlungsanweisungen enthalten können. Graesser et al. (1997) klassifizieren verschiedene Texte außerdem danach, wie natürlich sie sind: Man kann einerseits natürliche Texte untersuchen, andererseits aber auch künstlich erstellte Textoide, die so konstruiert sind, daß bestimmte unabhängige Variablen systematisch variiert werden.

Bei Erstellen von Texten - auch von solchen für das WWW - sollen das Vorwissen und die Ziele der Leser berücksichtigt werden. Eventuell sollte vor dem Zugang zum eigentlichen Text die entsprechende Information von den Benutzern erfragt werden oder die Benutzer sollten die Möglichkeit haben, die Darstellung an ihr Vorwissen anzupassen. Beim Verständnis von Texten bilden die Leser unterschiedliche mentale Repräsentationen, deren Bedeutung von der Art des Textes (bei Literatur ist auch die Textbasis und die Oberfläche wichtig, bei wissenschaftlichen Texten eher das Verständnis) und dem Ziel des Lesers (Auswendiglernen oder Verständnis) abhängt (siehe Kintsch, 1994; Magliano et al., 1998; die letzten beiden Punkte werden von Graesser et al. zusätzlich angegeben):

Oberflächen-Repräsentation (exakte Formulierungen, Font, Syntax usw.; diese Repräsentation ist nur sehr kurzlebig);

Textbasis, die mentale Repräsentation des Textes und der vom Leser daraus abgeleiteten Struktur (propositionales Netzwerk der Inhalte des Textes, wobei nach dem Prinzip der Überlappung von Argumenten eine Vernetzung der einzelnen Propositionen stattfindet);

Situations-Modell, die mentale Repräsentation der im Text beschriebenen Situation (Repräsentation der Charaktere, Ereignisse, Handlungen usw. sowie der Inferenzen des Lesers aufgrund von dessen Weltwissen; also das eigentliche Verständnis des Textes). Kintsch (1994) weist auf die Ähnlichkeit zu mentalen Modellen hin.

Kommunikationsebene, der pragmatische kommunikative Kontext, in den der Text eingebettet ist (Geschichten-Erzählen, ...).

Textart, die bestimmte strukturelle Komponenten und pragmatische Regeln festlegt, z.B. Erzählung, Darstellung, Beschreibung, Überzeugung, Witz usw. Bei literarischen Texten beachten die Leser besonders den Oberflächencode, bei einem Zeitungsartikel eher das Situationsmodell.

Die verschiedenen Ebenen des Textverständnisses lassen sich empirisch mit den im folgenden Absatz genannten Methoden nachweisen (siehe hierzu Graesser et al., 1997), beispielsweise auf die folgende Art: Bei einem Wiedererkennenstest lassen sich Reaktionszeiten erheben für
(a) Wiedererkennen des wörtlich dargebotenen ursprünglichen Satzes;
(b) Wiedererkennen einer Paraphrase des ursprünglichen Satzes;
(c) plausible Inferenzen bezüglich des Situationsmodells;
(d) falsche Behauptungen.

Der Oberflächencode läßt sich aus (a minus b) ableiten, die Textbasis aus (b minus c) und das Situationsmodell aus (c minus d). Das Textverständnis auf den verschiedenen Ebenen läßt sich auch durch unterschiedliche abhängige Variablen erheben, wie z.B. Behaltensleistung, Zusammenfassungen, Beantwortung verschiedener Fragen usw. Man kann aber auch durchschnittliche Lesezeiten und die Dauer einzelner Blick-Fixationen untersuchen. Schließlich werden auch Verbalprotokolle, lexikalische Entscheidungsaufgaben usw. eingesetzt. Im Idealfall sucht man nach Graesser et al. (1997) konvergierende Evidenz aus folgenden Bereichen:

Beabsichtigte Bedeutungen (Ironie, Metaphern, indirekte Anfragen wie Kannst du mal das Fenster öffnen?) können genauso schnell aus einem Text extrahiert werden wie wörtliche Bedeutungen und sie hängen auch nicht davon ab, ob die wörtliche Bedeutung plausibel ist. Die Verarbeitung von Texten geschieht einerseits während des Lesens (online, andererseits aber auch im Anschluß an das Lesen (offline). Während des Lesens kann das Arbeitsgedächtnis mehr oder weniger ausgelastet werden durch Abruf von Wortbedeutungen, Verknüpfung von Propositionen, syntaktisches Parsing, logisches Folgern sowie durch Speichern von ``Zwischenergebnissen''. Erfahrene Leser können komplexere Repräsentationen im Arbeitsgedächtnis halten. Das Verständnis eines Textes wird durch vollständig spezifizierte und reichhaltige Schemata beim Leser erleichtert: Sie ermöglichen ein vom Weltwissen gesteuertes (top-down) Verständnis des Textes.

Nach der Modularitäts-Theorie handelt es sich bei den genanten Stufen um autonome Module, nach der Interaktivitäts-Theorie beeinflussen sich die Stufen dagegen wechselseitig.

Zusammenhalt im Text

 

Wichtig für das Verständnis von Texten ist auch, daß sie als zusammengehörige Einheit wahrgenommen werden. Bei der Konstruktion der Textbasis werden die einzelnen Propositionen in die Gesamtstruktur integriert. Dadurch wird ein hoher innerer Zusammenhalt des Textes erreicht, wobei sowohl der Text selbst als auch das Situations-Modell des Lesers dazu beitragen können. Kohäsion wird meist dadurch erreicht, daß aufeinanderfolgende Sätze Worte oder Phrasen gemeinsam haben (argument overlap); Kohärenz, die zur Bildung des Situations-Modells führt, kann auf verschiedenen Ebenen erzielt werden (cf. Magliano et al., 1998):

Zeitliche Kontinuität (zeitliches Aufeinanderfolgen);

Räumliche Kontinuität (Handlungen spielen sich am gleichen Ort ab);

Kausalität (ein Ereignis ist Ursache oder Erklärung für ein anderes);

Intentionalität (Handlungen entsprechen einem vorgegebenem oder leicht erschließbarem Plan);
Kontinuität des Protagonisten.

Diese Arten der konzeptuellen Kontinuität werden dem Leser, der diese Dimensionen aktiv überwacht, im wesentlichen vom Oberflächen-Code vermittelt. Diskontinuitäten müssen durch geeignete Übergangs-Phrasen signalisiert werden.

Graesser et al. (1997) unterscheiden außerdem zwischen lokaler Kohärenz (eine neue Information kann in den vorherigen Satz oder in das Arbeitsgedächtnis integriert werden) und globaler Kohärenz (neue Information kann in die Makrostruktur oder schon länger im Arbeitsgedächtnis befindliche Inhalte integriert werden). Bei unmotivierten Lesern wird sich die globale Kohärenz verringern, ebenso bei Lesern mit geringer Gedächtnisspanne.

Insbesondere das Verfolgen der Ziele der Handelnden ist nach Magliano et al. (1998) eine wichtige Voraussetzung für Textverständnis. Sätze, die konsistent mit dem vorangegangenem Kontext sind, werden besser verarbeitet und erinnert. Die Struktur eines Textes kann auch durch organisierende (organizational) Signale betont werden, wie beispielsweise Zusammenfassungen, Übersichten oder Überschriften. Auf diese Weise kann dem Benutzer signalisiert werden, welche Informationen besonders wichtig sind. Zwar werden solche Informationen dann auch besser erinnert, nicht hervorgehobene dagegen aber schlechter. Anfänger auf einem Gebiet profitieren von stark zusammenhängenden Texten, bei Experten verschlechtert sich dagegen die Behaltensleistung (vermutlich, weil ihnen der Text zu einfach erscheint und sie ihn deshalb nur sehr oberflächlich lesen).

Innerhalb eines Textes können unterschiedliche Arten von Verweisen auftreten, die sich auf Propositionen in der Textbasis, im Situationsmodell oder in der Welt beziehen können. Graesser et al. (1997) unterscheiden dabei

Anaphorische Verweise (Verweise auf vorher im Text erwähnte Propositionen);

Kataphorische Verweise (Verweise auf später im Text folgende Propositionen);

Deiktische Ausdrücke (Verweise auf Sachverhalte in der Welt).

Nach dem structure building framework von Gernsbacher (dargestellt in Graesser et al., 1997) wird beim Auftreten neuer Informationen ein entsprechender Gedächtnis-Knoten gebildet. Taucht später eine dafür relevante Information auf (auch eine Art anaphorischen Verweises), wird jener Knoten entsprechend angereichert, ansonsten werden neue Knoten oder Subknoten gebildet.

Enthält ein Texte viele nicht aufgelöste Verweise (unklare Pronomina etc.), wird dessen Verständnis erschwert. Nach Kintsch und van Djik (dargestellt in Anderson, 1990, S. 396) beträgt die maximale Anzahl solcher nicht aufgelöster Propositionen im Arbeitsgedächtnis vier, sind es mehr, können neue Propositionen nicht mehr auf die bestehende Textbasis bezogen werden. Werden die Beziehungen dagegen explizit gemacht, kann das Textverständnis verbessert werden. Beim Entwurf von Hypertexten ist aber zu beachten, daß nicht zu viele Verbindungen eingefügt werden, da sonst Experten eher Schwierigkeiten beim Textverständnis bekommen.

Das Verständnis eines Textes wird durch dessen Kohärenz bestimmt (cf. Foltz, 1996). Diese Kohärenz läßt sich bestimmen, indem der Text in seine propositionale Darstellung umgewandelt wird und dann die Anzahl der Argumentenüberlappungen zwischen aufeinanderfolgenden Propositionen bestimmt wird. Diese Zahl sollte das Textverständnis vorhersagen. Es läßt sich auch empirisch zeigen, daß das Hinzufügen von Kohärenz die Behaltensleistung nach dem Lesen dieses Textes erhöht.

Metaphern

Gibbs (1996) nennt einige Belege für das häufige Vorkommen von Metaphern sowohl in gesprochener als auch in geschriebener Sprache. In der wissenschaftlichen Literatur spiegelt sich beispielsweise das jeweils aktuelle Menschenbild bzw. Forschungsparadigma in der Wahl der Metaphern bei Veröffentlichungen wieder. Gibbs (1996) vertritt die These, daß Metaphern auch wesentliche Grundlagen des Denkens, Urteilens und Verstehens sind, und nennt drei Gründe für den Einsatz von Metaphern:

inexpressibility hypothesis: Manche Ideen lassen sich in wörtlicher Sprache nur schwer vermitteln;

compactness hypothesis: Metaphern fassen komplexe Sachverhalte knapp zusammen;

vividness hypothesis: Metaphern können an die Lebendigkeit unserer phänomenologischen Erfahrungen anknüpfen.

Metaphern erleichtern auch das Verstehen und Behalten von Texten, indem sie deren Encodierung anreichern (mnemonic function), sie aktivieren jeweils ein geeignetes semantisches Netz und sie können aktives hypothesengeleitetes Lernen auslösen, da die Inkongruenz zwischen der wörtlichen und der übertragenen Bedeutung gedankliche Experimente beim Leser fördert.

Das Verstehen von Metaphern kann gewisse kognitive Ressourcen in Anspruch nehmen, wenn diese isoliert dargeboten werden. Werden die Metaphern aber vor einem ausreichenden Kontext präsentiert, so erfolgt ihr Verstehen automatisch (cf. Gibbs, 1996). Metaphorische Konzepte dienen außerdem nicht nur zum Verständnis von Texten (dort spielen sie eine ähnliche Rolle wie Schemata), sondern auch allgemein zur Strukturierung unserer Wahrnehmung. Mit diesem Aspekt beschäftigt sich die kognitive Linguistik: Metaphorische Schemata erlauben es, das Wissen aus einer bestimmten Domäne auch für einen anderen Gegenstandsbereich nutzbar zu machen, so daß sich dort ebenfalls bedeutsame Interpretationen bilden lassen. Gibbs (1996) nennt auch empirische Belege - insbesondere Priming-Studien - dafür, daß die Verwendung von Metaphern die dazugehörigen Schemata aktivieren kann. Eine ähnliche Rolle spielen Idiome (Redewendungen, deren Bedeutung sich nicht aus der Bedeutung der einzelnen Wörter erschließen läßt) und Metonymien (Gebrauch eines Wortes anstelle eines verwandten Begriffes, z.B. ``die Kirche fordert,...'').

Mentale Modelle

Eine wichtige Voraussetzung für Theorien zum Textverständnis ist nach Garnham und Oakhill (1996) eine entsprechende Aufgabenanalyse: Es sollte eine Aufgabenanalyse des Textverständnisses unter Berücksichtigung des Weltwissens des Lesers und von dessen Zielen durchgeführt werden. Außerdem sollte zwischen verschiedenen Texttypen unterschieden werden, beispielsweise zwischen fiktionalen Texten, argumentativen Texten, Texten über abstrakte Sachverhalte usw.

Ganz wesentlich für das Verständnis von Texten ist es nach Garnham und Oakhill (1996) , daß sich die Leser ein geeignetes mentales Modell aus den im Text enthaltenen Informationen zusammen mit ihrem Weltwissen konstruieren. Dazu greifen sie auf das Textverständnis-Modell von Bransford zurück, das folgende drei wesentlichen Bestandteile enthält:

  1. Die mentale Repräsentation eines Textes muß in keiner Weise der linguistischen Repräsentation entsprechen.
  2. Verständnis ist ein integrativer Prozeß (Kombination der Elemente der Textbasis).
  3. Verständnis ist ein konstruktiver Prozeß (Kombination mit Weltwissen).
Dieses Konzept ähnelt dem Modell des Textverständnisses von Kintsch (1994) sehr stark, wobei die mentalen Modelle dort als Situations-Modelle bezeichnet werden. Im Unterschied zu Kintsch (1994) abstrahieren Garnham und Oakhill (1996) aber ganz von der Syntax. Sie nennen sogar Untersuchungen, in denen das Verständnis einzelner Sätze mehr vom Weltwissen des Lesers als von der Grammatik des Satzes (bzw. dessen Syntax) bestimmt wird, beispielsweise
Dieses Buch füllt eine dringend benötigte Lücke.
Nach dem Absturz des Flugzeuges auf der Grenze zwischen den beiden Ländern stellte sich die Frage, wo die Überlebenden zu beerdigen seien.

Auch bei mentalen Modellen ist die Integration verschiedener Informationen und das eigenständige Ziehen von Schlüssen (Inferenzen, siehe unten) sehr wichtig. Eine Kohärenz im Text kann nicht nur durch syntaktische Verweise sichergestellt werden, sondern auch durch die konkreten Inhalte des Textes (wobei eventuell sogar das Weltwissen des Lesers erst die Kohärenz ermöglicht, wenn die Verbindungsstücke im Text nicht explizit enthalten sind).

Inferenzen

Das Hintergrundwissen des Lesers erlaubt es, die beim Lesen aufgenommene Information in bereits vorhandene Wissensstrukturen zu integrieren. Auf diese Weise kann auch die Kohäerenz des Textes erhöht werden, indem nicht-kohärente Übergänge durch das Weltwissen des Lesers kohärent gemacht werden. Zusätliches Weltwissen erleichtert auch die Bildung relevanter Makrostrukturen (cf. Foltz, 1996).

Leser füllen unklare Stellen im Text mit ihrem Weltwissen auf, indem sie eigene Inferenzen ziehen. Dabei lassen sich nach Magliano et al. (1998) verschiedene Arten von Inferenzen unterscheiden:

Anaphorische Inferenzen, wenn der Bezugspunkt von Verweisen gefunden werden muß (beispielsweise bei einem Pronomen, das sich auf ein Substantiv bezieht); auf diese Weise werden kohäsive Beziehungen zwischen Sätzen hergestellt.

Erklärungen (von Handlungsursachen, Motiven, Ideen, Ereignissen, Zuständen usw.) basieren auf vorangegangenen Informationen im Text oder auf dem Weltwissen des Lesers und bilden die Grundlage für das Textverständnis.

Assoziationen stellen Zusammenhänge zwischen Handelnden, Objekten, Orten usw. her. Sie sollen das Situations-Modell ausfüllen und anreichern. Empirische Befunde deuten darauf hin, daß solche Assoziationen erst nach der Lektüre gebildet werden.

Vorhersagen betreffen kausale Folgen eines Ereignisses, die vom Leser erwartet werden. Erfüllen sich solche Vorhersagen im Verlauf des Textes, wird dadurch dessen Zusammenhalt erhöht.

Graesser et al. (1996) befassen sich mit wissensbasierten Inferenzen während des Lesens von Geschichten. Sie betonen, daß insbesondere bei Erzählungen eine größere Entsprechung zu den täglichen Erfahrungen des Lesers vorliegt als bei erklärenden Texten, so daß bei Erzählungen auch bereits während des Lesens mehr Inferenzen gezogen werden während das Situationsmodell gebildet wird. Das hierzu eingesetzte Wissen kann entweder generischer Art (allgemeines Weltwissen wie Skripten, Frames, Stereotypen oder Schemata) oder spezifischer Art (vorangegange Erfahrungen, bereits verstandene Textfragmente) sein. Daraus werden dann wissensbasierte Inferenzen gezogen, die sich nach Graesser et al. (1996) folgendermaßen klassifizieren lassen:

Durch Analyse von Verbalprotokollen, Fragen zum Textverständnis und Reaktionszeiten (Wort-Lese-Zeiten, Zeiten für lexikalische Entscheidungen) wurde von Greasser et al. (1996) untersucht, welches theoretische Modell diese Inferenzen am besten vorhersagen kann. Diese Daten werden am besten vom konstruktionistischen Modell erklärt, das nach dem effort-after-meaning-Prinzip funktioniert, wonach die Leser immer versuchen, ihren Wahrnehmungen Bedeutung zuzuschreiben, indem sie diejenige Bedeutungsrepräsentation konstruieren, die vom Text auf einer möglichst globalen Ebene unterstützt wird und die den Zielen und dem Weltwissen des Lesers entspricht. Dieses Modell sagt vorher, daß vor allem Inferenzen zu übergeordneten Zielen, kausalen Voraussetzungen und Emotionen der Protagonisten online erstellt werden.

Pragmatik

Eine besondere Bedeutung kommt auch der Pragmatik zu, also dem Wissen um die sozialen Regeln, die mündlicher oder schriftlicher Kommunikation zugrunde liegen. Werden diese Regeln befolgt, wird die Kommunikation erleichtert, bei Verletzungen wird sie hingegen erschwert. Ein wichtiger Grundsatz ist, die gemeinsame Basis (common ground) zwischen Leser und Autor zu beachten. Eine Anwendung besteht darin, bei der Präsentation neuer Inhalte immer vom (gegebenen) Vorwissen des Lesers auszugehen. Die Grice'schen Maximen stellen Richtlinien für eine kooperative Kommunikation dar:

Maxime der Qualität: Sei informativ (so viel Information wie nötig, nicht mehr);
Maxime der Quantität: Sei ehrlich (keine unwahren oder unbegründbaren Aussagen);
Maxime der Relevanz: Sei relevant (nur relevante Inhalte; wenn verschiedene Themen, dann deutliches Signalisieren das jeweiligen Themenbereichs/Kontextes
Maxime der Umgangsformen: Sei deutlich (keine Undeutlichkeiten oder Zweideutigkeiten).

Graesser et al. (1997) nennen folgende Grundregeln, die die Kommunikation zwischen verschiedenen Kommunikationspartnern erleichtern sollen:
  1. Beachte die gemeinsame Basis und den jeweiligen Wissensstand der Gesprächspartner.
  2. Strukturiere den Diskurs so, daß zwischen gegebener und neuer Information unterschieden werden kann (Gegebenes als Subjekt, Neues als Verbphrase oder Nebensatz).
  3. Signalisiere wichtige Information (durch entsprechende diskursive Elemente).
  4. Mache nur wahre Behauptungen zum Situations-Modell.
  5. Die einzelnen Sätze sollen bezüglich der vorangegangenen relevant sein.
  6. Die Reihenfolge, in der Ereignisse erwähnt werden, sollte chronologisch angeordnet sein.
  7. Behauptungen sollten sich nicht widersprechen.

Psychologische Mechanismen und Modelle

Graesser et al. (1997) zählen verschiedene psychologische Modelle auf, die sich im Rahmen des Text- bzw. Diskursverständnisses einsetzen lassen:

Graesser et al. (1997) beschreiben zwei Modelle, die verschiedene dieser Mechanismen einsetzen. Das Konstruktions-Integrations-Modell von Kintsch (1994) ist im nächsten Abschnitt ausführlich dargestellt. Das CAPS/READER-Modell von Just und Carpenter basiert auf empirischen Beobachtungen der Blickbewegungen beim Lesen und es implementiert ein Produktionssystem, das Knoten im Arbeitsgedächtnis erzeugen, updaten und löschen kann. Für die einzelnen Produktionsregeln lassen sich Schwellenwerte angeben, ab denen sie feuern. Die Menge der Produktionsregeln wird in jedem Bearbeitungszyklus parallel abgearbeitet.

Graesser et al. (1996) stellen zwei Modelle zur Vorhersage bestimmter Arten von Sprechakten innerhalb eines Diskurses vor: Sie unterscheiden zwischen Fragen, Antworten auf Fragen, Anweisungen, indirekten Anweisungen, Behauptungen, Beurteilungen, verbalen und nonverbalen Reaktionen als mögliche Sprechakte, die während eines Dialogs beobachtbar sein können. Mit den folgenden Modellen wollen die Autoren die Art eines Dialogschrittes aus der Art des vorangegangenen Dialogschrittes vorhersagen:

Konnektionistisches Modell: Bei dem neuronalen Netzwerk entspricht die Input-Schicht dem Dialogschritt zum Zeitpunkt tex2html_wrap_inline848 , die Outputschicht der Art des Dialogschrittes zum Zeitpunkt tex2html_wrap_inline850 ; die dazwischen liegende versteckte Schicht erfaßt Merkmale höherer Ordnung, die vom Sprechakt zum Zeitpunkt tex2html_wrap_inline848 aktiviert worden sind. Eine Kontextschicht, die direkt mit der versteckten Schicht verbunden ist, erlaubt schließlich die Berücksichtigung einer ganzen Sequenz von Dialogschritten.

Symbolisches Modell: Dieses Modell basiert auf einem recursive transition network, das es im Gegensatz zu dem konnektionistischen Modell auch erlaubt, das Zustandekommen der Dialogmuster zu verfolgen. Grundlage des Modells ist die Zustands-Übergangs-Matrix zwischen allen möglichen Arten von Dialogschritten. Auf diese Weise läßt sich für einen gegebenen Dialogschritt eine Menge an legalen Konversationsschritten definieren. Dieses Modell kann etwa 74% der Systematik vorhersagen, die von dem neuronalen Netzwerk gefunden wird.

Das Konstruktions-Integrations-Modell von Kintsch

Das Konstruktions-Integrations-Modell von Kintsch (1994) läßt sich durch sechs Apekte beschreiben:

Abfolge kognitiver Zustände beim Erfassen des Textes: Kognition wird als Abfolge kognitiver Zustände betrachtet, die durch die Inhalte des Arbeitsgedächtnisses festgelegt sind (auch Wahrnehmungen und Inhalte des Langzeitgedächtnisses). Meist legen einzelne Sätze einen kognitiven Zustand fest, manchmal aber auch einzelne Phrasen oder ganze Abschnitte. Man kann die kognitiven Zustände als Fokus der Aufmerksamkeit oder als Inhalt des Bewußtseins bezeichnen. Durch Aktivierung von Konzepten aus dem Langzeitgedächtnis können die darin enthaltenen Inhalte weiterverarbeitet werden. Dadurch, daß manche Elemente von einem Verarbeitungszyklus zum nächsten konstant (aktiviert) bleiben, wird der Zusammenhalt der mentalen Repräsentation ermöglicht.

Mentale Repräsentation des Textes findet auf drei Ebenen statt:
  1. Oberflächen-Ebene (syntaktische Ebene bzw. Ebene der Worte);
  2. propositionale Ebene (konzeptuelle bzw. semantische Ebene, kann als Graph oder als Matrix repräsentiert werden);
  3. Situations-Modell (kann propositional vorliegen, aber auch als mentales Bild, als prozedurale Information oder abstrakt).
Je nach Textart sind diese Ebenen unterschiedlich wichtig (bei Gedichten z.B. vor allem die Oberflächen-Ebene). Für die Ableitung der propositionalen Ebene aus der Oberflächen-Ebene sind derzeit noch keine Algorithmen verfügbar. In dem Modell von Kintsch (1994) sind die Propositionen untereinander vernetzt, wobei Verbindungen zwischen einzelnen Knoten dadurch zustande kommen, daß sie gemeinsame Elemente besitzen (z.B. Argumenten-Überlappung). Dieses so kontruierte Netz kann aber noch Ambiguitäten und Widersprüche enthalten. Deshalb findet nach dessen Konstruktion eine kontextabhängige Integration statt: Durch das Netzwerk breitet sich so lange Aktivierung aus (spreading activation wie bei neuronalen Netzen), bis ein stabiler Zustand erreicht wird. Auf diese Weise läßt sich eine kohärente mentale Repräsentation des Netzwerkes erzielen, obwohl keine strengen Regeln zu dessen Konfiguration eingesetzt wurden. Der Kontext wirkt sich dabei nur auf die Integration aus.

Verarbeitungszyklen: Wenn ein neuer Satz verarbeitet wird, nehmen Teile des alten Netzwerks auch am neuen Integrationsprozeß teil: Die am stärksten aktivierten Propositionen des letzten Satzes wird auch bei der Verarbeitung des folgenden Satzes im Fokus der Aufmerksamkeit gehalten. Dadurch wird die Kohärenz des Netzwerks sichergestellt.

Wissenselaboration: Die mentale Repräsentation des Textes enthält nicht nur Information aus diesem Text, sondern auch welche aus dem Langzeitgedächtnis; die dabei auftretenden irrelevanten Erinnerungen (die sich durch Priming nachweisen lassen) gehen aber im Verlauf der Integration wieder unter.

Makroprozesse sind zum Verständnis des Textes ebenso wichtig wie das Verständnis einzelner Phrasen. Die globale Struktur des Textes muß dabei nicht unbedingt mit der globalen Struktur des daraus resultierenden propositionalen Netzes (bzw. des daraus konstruierten mentalen Modells) übereinstimmen. Bei der Kontruktion von Makrostrukturen werden folgende drei Operatoren (Inferenzprozesse) zur Informationsreduktion eingesetzt: Löschen, Generalisieren und Konstruktion. Dabei gehen die Leser strategisch vor, d.h. sie reagieren auf Hinweise darauf, welche Textteile wahrscheinlich besonders relevant sind, indem sie diese besonders stark gewichten.

Inferenzen fügen den vorliegenden Informationen neue hinzu. Dabei kann entweder automatisch oder willentlich kontrolliert relevantes Wissen aus dem Langzeitgedächtnis abgerufen werden oder es kann - entsprechend bestimmten Folgerungsregeln - neue Information generiert werden (reasoning).

Bei dem Integrationsprozeß handelt es sich um einen datengesteuerten (bottom-up) Prozeß, der nur durch die Aktivierung der Verbindungen gesteuert wird und somit keiner expliziten Kontrolle unterliegt (wie dies beispielsweise bei den Schema-Theorien postuliert wird, die von einer gesteuerten Ausfilterung von ungeeignetem Wissen ausgehen).

Textverständnis in Hypertexten

In einem Hypertext läßt sich Information direkt so, wie sie in der propositionalen Textbasis vorliegt, repräsentieren. Der Leser erhält zusätzliche Kontrolle darüber, in welcher Reihenfolge der Text gelesen wird und er kann den Text so lesen, wie wenn dieser speziell auf seinen Wissensstand und seine Fähigkeiten abgestimmt wäre. Dadurch, daß die assoziativen Abrufpfade dem Gedächtnisabruf ähneln, sollte ein leichtes Auffinden gesuchter Information möglich sein. Allerdings existieren bisher noch keine Standards für den Aufbau und den Einsatz effizienter Hypertextsysteme.

Die Evaluation von Hypertexten zeigt nach Foltz (1996) sehr große Unterschiede aufgrund der Textart des Hypertextes, der Fertigkeiten und Ziele der Benutzer und der Aufgabenstellung. Daraus folgt, daß verschiedene Faktoren berücksichtigt werden müssen, wenn beurteilt werden soll, wann Hypertexte linearen Texten überlegen sind. Ein wichtiger Befund ist, daß das Lesen am Bildschirm nur dann genauso schnell wie auf Papier erfolgt, wenn die Auflösung hoch genug ist und wenn Antialiasing eingesetzt wird.

In einem Experiment von Foltz (1996) ergeben sich nur sehr geringe Performanzunterschiede zwischen linearem Text, Hypertext und besonders kohärentem Hypertext. Benutzer von Hypertexten scheinen allerdings eine bessere Wissensstruktur aufzubauen. Die zusätzliche Kohärenzinformation führt zu keinem Effekt, möglicherweise, weil diese Information von den Lesern nicht bemerkt wurde. Die Leser, die den Hypertext kohärent rezipierten (depth-first: erst jedes Kapitel ganz), entwickelten bessere Wissensstrukturen. Durch Verbalprotokolle konnte auch gezeigt werden, daß das Lesen von Hypertexten eine Art Problemlöseprozeß in einer unbekannten Domäne darstellt. Insbesondere die Verfügbarkeit einer Landkarte bestimmt die Lesestrategien. Die Versuchspersonen entwickelten Heuristiken zum Aufrechterhalten der Kohärenz auch bei nicht vertrauten Textformaten. Foltz (1996) folgert aus seinen Ergebnissen, daß bei der Entwicklung von Hypertexten auch die Strategien der Leser berücksichtigt werden sollten, die wiederum von deren Zielen und Hintergrundwissen abhängen. Insbesondere Anfänger sind auch die strukturierende Wirkung eines Kontextes angewiesen.

Um das Textverständnis von Hypertexten möglichst zu erhöhen, wurden auch verschiedene Guidelines entwickelt, die sich jedoch darauf beschränken, wieviel Text in einem Knoten enthalten sein soll, wie die Information zu strukturieren sei und welche Merkmale sinnvoll sind. Foltz (1996) beklagt aber, daß derartige Guidelines nicht theoriegeleitet sind, sondern entweder auf abstrakten Regeln oder auf dem gesunden Menschenverstand basieren. Die wenigen theoretisch begründeten Ansätze gehen von einer Analyse des Benutzers und der Aufgabe aus und versuchen, die Effizienz verschiedener Merkmale vorherzusagen. Ein anderer Ansatz besteht in der formativen Evaluation, bei der zuerst aufgrund psychologischer Prinzipien bestimmte Merkmale implementiert werden, die dann in iterativen Benutzertests optimiert werden. Schließlich kann auch versucht werden, Theorien zum Information Retrieval für Hypertexte anwendbar zu machen.

In linearen Texten läßt sich vom Autor relativ leicht Kohärenz realisieren, die dem Leser beim Strukturieren der aufzunehmenden Information helfen kann. Bei Hypertexten kann ein bestimmtes Textsegment aber aus vielen verschiedenen Richtungen erreicht werden. Dadurch ist es schwierig, immer einen kohärenten Übergang (z.B. durch Argumentenüberlappung) zu ermöglichen. Foltz (1996) implementiert dazu einen Hypertext, der erst beim Öffnen eines Knotens einen Überleitungstext generiert, der an den Anfang der Texteinheit gesetzt wird und vom zuvor besuchten Knoten abhängt.

Wegen der Flexibilität von Hypertexten haben insbesondere Anfänger Schwierigkeiten, ihr Weltwissen zur Navigation im Hypertext einzusetzen; Experten können dies dagegen erfolgreich tun, da sie die richtige konzeptuelle Struktur für den Gegenstandsbereich besitzen. Erfahrene Leser stützen sich auch auf Erzählschemata, die beim Erkennen der Makrostruktur des Textes helfen. Solche Schemata hängen aber wesentlich von der Vertrautheit der Präsentationsform ab. Diese ist bei Hypertexten (noch) nicht gegeben, da bisher noch keine Standardisierung erfolgte.

Auch die Lesefertigkeit kann eine bedeutende Rolle für das Textverständnis spielen: Erfahrene Leser sind geübt darin, Hinweise aus dem Kontext und andere textuelle Constraints für das Textverständnis einzusetzen; sie bilden bessere Hypothesen über die Bedeutung von Wörtern und sie reagieren angemessener auf die rhetorische Struktur des Textes. Ungeübte Leser kompensieren ihre mangelnde Fertigkeit dagegen nach Foltz (1996) dadurch, daß sie kontextabhängiges Hypothesentesten praktizieren. Sie benötigen also den Kontext als Hilfe für das Textverständnis; Hypertexte enthalten aber oft weniger kontextuelle Hinweisreize als lineare Texte. Andererseits können gut strukturierte Hypertexte (die z.B. eine graphische Veranschaulichung ihrer Struktur beinhalten) zusätzliche kontextuelle Hinweisreize beinhalten, die für weniger geübte Leser von Vorteil sind.

Auch die Lesestrategie wirkt sich auf die Behaltensleistung aus. Strukturelle, syntaktische und semantische Hinweise können die unterschiedliche Relevanz eines Textteils für die Makrostruktur des Textes signalisieren. Derartige Signale bestimmen, welche Textteile besonders aufmerksam gelesen werden und welche gegebenenfalls vom Leser ignoriert werden. Daher werden auch lineare Texte nicht immer strikt linear rezipiert: Texte müssen nicht von vorne nach hinten komplett gelesen werden, sondern es können auch Rückgriffe zu bereits gelesenen Teilen innerhalb des selben Abschnitts oder auch innerhalb eines anderen Abschnittes stattfinden. Solche Lesestrategien hängen vom Domänenwissen des Lesers, dessen Zielen und Fertigkeiten sowie von Textmerkmalen ab. Hypertexte erlauben besonders flexible Lesestrategien. Wird die Struktur des Textes veranschaulicht, ist es für den Leser auch leichter, bestimmte Informationen im Text zu finden.

Abschließend überlegt Foltz (1996), in welchen Bereichen Hypertexte überlegen sind. Als besonderer Vorzug von Hypertexten gilt dabei die Möglichkeit, diese mit Suchmaschinen zu kombinieren. Hypertexte eignen sich besonders für Textformen, die sich nur schwer linear präsentieren lassen, wie beispielsweise Gesetzestexte. Auch durch die Möglichkeit, dynamisch Kohärenz herzustellen, lassen sich Hypertexte verbessern: Auf diese Weise können Wissen, Ziele und Fertigkeiten des Benutzers bei der Darstellung von Information in einem Hypertext berücksichtigt werden (Benutzermodellierung), was bei gedruckten Medien nicht möglich ist. Foltz (1996) sieht also den wesentlichen Vorzug von Hypertexten gegenüber linearen Texten darin, daß die Möglichkeiten des Autors und des Computers dazu genutzt werden können, besser personalisierte Texte zu verfassen.


next up previous contents
Next: Navigation Up: Navigation in Hypertexten Previous: Hypertexte

rainer@zwisler.de

Last modified 10-29-98