• Keine Ergebnisse gefunden

Raskins Propagierung methodischer Systematisierungen von

Im Dokument Ideengeschichte der Computernutzung (Seite 191-195)

2.2 Computermetaphern und korrespondierende Qualitätssicherungsstrategien

2.2.3 Qualitätssicherung bei Computer-Werkzeugen

2.2.3.6 Raskins Propagierung methodischer Systematisierungen von

Merkmale der Benutzungsschnittstelle der LISA waren zwar, besser noch als jene des Xerox Star, an die motorischen und kognitiven Fähigkeiten des Menschen im Sinn eines beliebigen Nutzers angepasst, nicht aber an die Nutzung im Aufgabenzusammenhang: Die LISA war be-nutzbar, jedoch nicht gebrauchstauglich. Man hatte sie partiell optimiert, ohne genau zu wis-sen, für wen und wofür man sie im Detail gebaut hatte.

2.2.3.6 Raskins Propagierung methodischer Systematisierungen von

Wie schon bezüglich der Anstrengungen, die im Training Department von Apple zur Sicher-stellung der Qualität Benutzbarkeit ihrer Computer angestrengt wurden, muss die Bewertung der Bemühungen Raskins zweischneidig ausfallen:

Einerseits kann man Raskin zugute halten, mit Anwendung und Propagierung der GOMS-Methode einen Beitrag zur Standardisierung und Systematisierung der Qualitätssicherung von Computersystemen oder zumindest der Verbreitung des Wissens über diese Methode beige-tragen zu haben. Es ist als Fortschritt zu werten, dass Raskin jede seiner technischen Entwick-lungen als Hypothese begriff, die behauptete, ein Nutzer könne das entwickelte Artefakt schneller erlernen und problemloser benutzen133. Dieser Ansatz führte Raskin dazu, seine Hypothese im Entwicklungsprozess regelmäßig empirisch zu überprüfen, indem er mit Rück-griff auf die standardisierte Methode Messungen anstrengte und die Ergebnisse dieser Mes-sungen zum Ausgangspunkt für den weiteren Entwicklungsprozess machte. Auf diese Weise propagierte und realisierte auch Raskin zwei Prinzipien, die heute als Credo der Qualitätssi-cherer gelten und damit zum festen Bestandteil aktueller Prozessmodelle der Computer- und Softwareentwicklung134 gehören: Einbeziehung der Nutzer in den Entwicklungsprozess (par-tizipatorisches Design) und stufenweise Verbesserung des Produkts (iteratives Design).

Auf der anderen Seite hingegen muss kritisch angemerkt werden, dass Raskin, genau wie die Entwickler von Apple, die für Computer-Werkzeuge neu erkannte Qualität Usability einseitig spezifizierte und darunter lediglich die Anpassung des Artefakts an die motorischen und kog-nitiven Fähigkeiten des Nutzers, nicht die Anpassung an dessen Arbeitsumfeld, den Nut-zungskontext, verstand. Wie auch die Entwickler bei Apple reduzierte Raskin das Konzept der Usability auf die Dimension der Benutzbarkeit und vernachlässigte die Dimension der Gebrauchstauglichkeit. Er reduzierte die Sicherung der Nutzungsqualität auf eine Evaluierung der Benutzungsschnittstelle. Bei einer derartigen Spezifizierung von Usability läuft der Ent-wickler immer Gefahr, unvalide Kriterien bei der Beurteilung eines Artefakts festzusetzen und dem Problem, das in 1.4.3 als Immunisierungsfalle beschrieben wurde, zu erliegen.

2.2.3.7 Renaissance der Gebrauchstauglichkeit durch die Tendenz der Verflüchtigung Nachdem in den vorangegangenen Abschnitten gezeigt wurde, wie die Verbreitung der Werk-zeug-Idee der Computernutzung im oben definierten Sinn die Bedeutung der Qualität

133 Die diesen Fragen zugrundeliegende Hypothese untersuchte Raskin leider nicht: Ist die Nutzung des Compu-ters für die definierte Aufgabe X des konkreten Nutzers Y in der Situation Z wirklich sinnvoll und anderen Ar-beitsweisen oder –techniken vorzuziehen?

134 Als Beispiele seien STEPS-Modell von Floyd (1994: 38) oder der DATech-Prüfbaustein zur Bewertung der Qualität von Entwicklungsprozessen (DATech 2002) erwähnt.

ty zum Vorschein brachte, wie sich in verschiedenen Institutionen und in verschiedenen Ent-wicklungsprozessen langsam Methoden zur Messung und Sicherstellung dieser Qualität etab-lierten und wie es zu einer sehr einseitigen Spezifizierung des Konzeptes der Usability kam, wird in diesem Abschnitt gezeigt, warum die lange vernachlässigte Dimension der Gebrauchstauglichkeit in den vergangenen Jahren wieder an Bedeutung gewonnen hat. Dieser Bedeutungsgewinn kann nicht nur in der Tatsache erkannt werden, dass der Begriff der Gebrauchstauglichkeit international genormt wurde (DIN 66050 & ISO 9241 Teile 10 & 11), sondern auch darin, dass in der Literatur zum Thema Usability die Anzahl der Publikationen anstieg, die sich nicht nur auf die Verarbeitung der am Bildschirm dargebotenen Informatio-nen durch den menschlichen Nutzer, sondern darüber hinaus auch auf die Einbettung des Computers in den Arbeitsalltag, den situativen und sozialen Kontext des Nutzers, konzentrier-ten135. Gerade neuere Lehrbücher des Usability-Engineering wie etwa jenes von Rosson und Carroll betonen, dass der mittlerweile gut erforschte Bereich der menschlichen Wahrnehmung und Kognition nicht mehr die zentralen Fragen des Usability-Engineering aufwerfe (Rosson

& Carroll 2002: XVII). Kognitionspsychologische Fragen würden im Bereich des Usability-Engineering zunehmend durch arbeitswissenschaftliche Fragestellungen verdrängt. Analog zum IFIP-Modell von Dzida (1997) wird ein bezüglich seiner Usability zu bewertendes Arte-fakt zunehmend nicht isoliert, sondern in Abhängigkeit zum Kontext betrachtet, in dem es eingesetzt wird. Usability wird nicht länger nur als Merkmal des Artefakts, sondern zuneh-mend als Merkmal der Artefaktnutzung verstanden. Die Analyse von Aufgaben und Tätigkei-ten des Nutzers im realen Arbeitskontext (Task Analysis, Claims Analysis, Context Analysis) und die Frage, ob diese Aufgabe durch ein Artefakt effizienter gestaltet werden können, rückt in den Mittelpunkt.

Wie ist diese Renaissance der zweiten Dimension des Konzepts Usability, der Gebrauchstaug-lichkeit, zu erklären? Auch wenn hierfür nicht eine einzige Ursache verantwortlich gemacht werden kann, soll dennoch eine mögliche Ursache vorgestellt werden:

In 2.1.3.9 wurde im Zusammenhang mit neueren Visionen und Entwicklungen der Computer-technologie die sogenannte Tendenz der Verflüchtigung angesprochen. Dabei war mit Ver-flüchtigung die Miniaturisierung der Artefakte und das Verschwinden der Benutzungsschnitt-stelle gemeint, bis hin zur Integration etwa medizinischer Computer in den menschlichen

135 Als Beispiele hierfür seien für den englischsprachigen Raum etwa das Lehrbuch zur Task und User Analysis von Hackos und Redish (1998) oder das von Rosson und Carroll (2002) veröffentlichte Lehrbuch zum Usability-Engineering erwähnt. Für den deutschsprachigen Bereich sei das DATech-Prüfhandbuch Gebrauchstauglichkeit (Datech 2001) genannt.

Körper. Weiser hat dieses Phänomen der in die Welt integrierten Computer, die den Men-schen bei der Erledigung alltäglicher Aufgaben unterstützen mit dem Begriff des „ubiquitous computing“ beschrieben (Weiser 1991). Bilder und Begriffe, die von Entwicklern geprägt wurden und die Tendenz der Verflüchtigung besonders hervorkehren sind etwa jene von der First-Person Interaction oder dem Computer ohne Benutzungsschnittstelle, die bereits oben in ihrem historischen Kontext detaillierter vorgestellt wurden. Erste Realisierungen dieser Ideen sind die in Mobiltelefone, Automobile, Herzschrittmacher etc. eingebauten Minicomputer, die aufgrund ihrer Mobilität nicht mehr allein im Büro oder Arbeitszimmer benutzt werden.

Bereits das Bild des Computers ohne Benutzungsschnittstelle macht deutlich, dass die Usabi-lity eines solchen Computers nicht in erster Linie durch eine Anpassung der Benutzungs-schnittstelle an den Nutzer gewährleistet ist, denn gerade eine solche BenutzungsBenutzungs-schnittstelle zu vermeiden ist das Ziel. Diese mobilen Computer stellen eine Herausforderung für das Usa-bility-Engineering dar, weil Ein- und Ausgabevorrichtungen kleiner, einfacher oder schlicht-weg anders als bei herkömmlichen Arbeitsplatzcomputern sind und weil außerdem Steue-rungs- und Nutzungsstrategien variieren (Rosson & Carroll 2002: 314)136. Für derartige mobi-le Computer scheint die Frage nach der Nutzungsqualität weniger davon abhängig zu sein, wie, sondern mehr wo sie wie benutzt werden. Indem Computer aus der jahrzehntelang domi-nierenden Arbeitsumgebung Büro- und Arbeitszimmer herausgelöst werden und der Nutzer diese mobilen Computer in einer Vielzahl weiterer Arbeitsumgebungen benutzen möchte, explodiert die Anzahl der möglichen Nutzungskontexte förmlich. Dies stellt die Entwickler derartiger Artefakte vor völlig neue Probleme. Um ein für den Nutzer tatsächlich benutzbares Artefakt zu entwickeln, sind sie gezwungen, die verschiedenen Kontexte, in denen dieser es nutzen möchte, zu antizipieren und dezidiert zu analysieren. Es reicht nicht aus, von einem Standardkontext wie etwa dem Büro auszugehen, sondern die Entwickler sind gezwungen zu verstehen, in welchen Situationen ein Nutzer ihr Artefakt einsetzen will und welche Störun-gen in diesen Situationen auftreten können. Die Benutzungsschnittstelle kann noch so gut an die kognitiven Fähigkeiten eines Nutzers angepasst sein und in einer neutralen Nutzungssitua-tion, etwa einem Usability-Labor, sogar hinsichtlich seiner Benutzbarkeit gut abgeschnitten haben: Wenn das Artefakt nicht in den Nutzungskontext passt, in dem der Nutzer es tatsäch-lich einsetzen möchte oder muss, ist es für diesen wertlos. Aus der Erkenntnis, dass die Nut-zungsqualität eines Artefakts nicht unabhängig vom Kontext der Nutzung ist, folgt auch, dass

136 Dieser Punkt ergibt sich nicht zuletzt aus der Tatsache, dass mobile Computer in vielen verschiedenen Kon-texten genutzt werden, während der Kontext des Arbeitsplatzrechners üblicherweise das Büro oder Arbeitszim-mer darstellte.

die Entwicklung eines Artefakts nicht länger ausschließlich in der Werkstatt des Entwicklers stattfinden kann. Solange Nutzungsqualität mit Schnittstellengestaltung gleichgesetzt wurde, war es möglich, Nutzungssituationen in Usability-Laboren zu simulieren, um die Güte eines Artefakts zu testen. Da sich jedoch unterschiedliche Nutzungskontexte nur bedingt in Laboren simulieren lassen, heißt dies für den Entwickler, dass er, sofern er auf die Gebrauchstauglich-keit seines Artefakts Wert legt, gezwungen ist, Teile des Entwicklungsprozesses aus der Werkstatt auszulagern und in den Kontext der Nutzung zu integrieren.

Ob ein Artefakt für den Gebrauch tauglich ist, kann nur im realen Kontext der Nutzung dieses Artefakts überprüft und sichergestellt werden. Qualitätssicherung für Computer-Werkzeuge, die neben den technischen auch immer die ergonomischen (Nutzungs-) Qualitäten eines Arte-fakts zu sichern hat, muss zumindest teilweise außerhalb der Herstellerwerkstatt stattfinden, worin sie sich von jener auf technische Qualitäten beschränkte Qualitätssicherung für Compu-ter-Maschinen unterscheidet.

Gerade durch die vielen mobilen Minicomputer, die in den letzten Jahren entwickelt wurden, wurde besonders deutlich, wie stark die Qualität eines Artefakts für den Nutzer vom Nut-zungskontext abhängt. In diesem Zusammenhang gewannen Verfahren an Bedeutung, die Usability nicht einseitig mit Benutzbarkeit übersetzen, sondern auch im Sinn von Gebrauchs-tauglichkeit verstehen. Diese Verfahren stellen nicht bloß die kognitiven Fähigkeiten des Nut-zers in den Mittelpunkt, sondern verstehen diese in Abhängigkeit eines konkreten Nutzungs-kontextes, den es detailliert zu analysieren gilt. In diesem Sinn können beispielhaft das deut-sche DATech-Verfahren, das dem Verstehen des Nutzungskontextes oberste Priorität einräumt, oder das von Rosson und Carroll vorgeschlagene Scenario-Based Usability-Engineering, als derzeitige Verfahren der Wahl in Sachen Usability-Engineering betrachtet werden.

2.2.3.8 Qualitätssicherungsstrategien für Computer-Werkzeuge aus dem akademischen

Im Dokument Ideengeschichte der Computernutzung (Seite 191-195)