• Keine Ergebnisse gefunden

Schwächephase nach den ersten Datenschutzgesetzen

Im Dokument Datenschutz und Technikgestaltung (Seite 133-154)

2.4 Zwischen Kontinuitäten und Umbrüchen

2.4.1 Schwächephase nach den ersten Datenschutzgesetzen

Während die Datenschutzdiskussion in der Bundesrepublik – von Ausnahmen abgesehen – ver-flachte und verstärkt zur Rechtsdiskussion, und dort vor allem zur Auslegungsdiskussion, mu-tierte, behielt sie insbesondere in den USA ihre vorherige Breite bei, wahrscheinlich bedingt durch das Fehlen eines allgemeinen Datenschutzgesetzes.

Auf der einen Seite standen dabei sehr eingeschränkte Konzeptionen wie die von Richard A.

Posner und George J. Stigler.1094 Posner definiert „privacy“ einfach als instrumentelles Interesse an Geheimhaltung von Informationen, vor allem „discreditable informationen, often information concerning past or present criminal activity or moral conduct at variance with a person’s confes-sed moral standards“1095 mit dem vorherrschenden Ziel „to mislead others“.1096 Unter Verweis das Problem falscher Angaben über Waren im Kaufvertragsrecht1097 schlussfolgert Posner, dass es „generally no protection for facts about people“ geben sollte.1098Gleichwohl – und das ist vor dem Hintergrund von Posners Argumentation zu Ablehnung von privacy für Individuen schein-bar überraschend – fordert er „the protection of trade and business secrets by which businessmen exploit their superior knowledge or skills“.1099 Es ist jedoch nur scheinbar überraschend: Zwar will er mit seinen Arbeiten eine ökonomische Analyse vorlegen, beschränkt sich jedoch zugleich auf „personal rather than business contexts“,1100 um dann eine rein ökonomisierte Form des instrumentellenprivacy-Interesses zu unterstellen – „not to desire or value privacy [. . . in itself]

but to use these goods as input in the production of income or some other broad measure of utility or welfare“1101 –, um dann doch vor allem auf die große Bedeutung zu verweisen, die Infor-mationsverarbeitung im Wirtschaftsbereich habe.1102 Kurz: Posners „Analyse“ ist verkürzt,1103 geprägt von seiner Ergebnisorientierung, Folge seiner unbegründeten Annahmen und zugleich in

1091Liedtke (1980, S. 257).

1092Siehe auch Bieber (1978).

1093Siehe etwa die Auflösung des Erforderlichkeitsprinzips und seine Ersetzung durch die „Wünsche“ nach Da-tenvermeidung und Datensparsamkeit, Pohle (2014b, Rn. 14, vor allem Fn. 25., Rn. 28 und Fn. 37), oder die Umdefinition einer „Datenschutz-by-Design“-Regelung in eine Datensicherheitsregelung, Pohle (2015a).

1094Siehe Posner (1978a), Posner (1978b), Posner (1981) und Stigler (1980). Siehe auch die Kritik von Hirshleifer (1980).

1095Posner (1978a, S. 21 f.), Posner (1978b, S. 399).

1096Posner (1978a, S. 22).

1097Siehe Posner (1978b, S. 399 f.) oder „fraud in the sale of goods“, S. 401.

1098Siehe Posner (1978b, S. 404).

1099Posner (1978b, S. 404).

1100Siehe Posner (1978a, S. 19), Posner (1978b, S. 393).

1101Posner (1978b, S. 394).

1102Siehe etwa Posner (1978b, S. 394 f., 400, passim).

1103Seine Ausführungen legen nahe, dass er sich privacy rightsgar nicht anders vorstellen kann denn alsproperty rights, siehe etwa Posner (1978b, S. 399).

sich widersprüchlich – das einzig verwunderliche ist, dass Posner bis heute als einer der Ahnen der wirtschaftswissenschaftlichen Beschäftigung mit privacy gilt. Wie Posner imaginiert auch Stigler jeden Datenverarbeiter als Person, vor allem wenn es darum geht, die negativen „Folgen“

von privacy zu beschreiben,1104 während er sonst ganz selbstverständlich davon spricht, dass es sich in erster Linie um Organisationen wie den Staat oder Unternehmen handelt.1105 Und auch Stigler kann nur in Kategorien von property rights und ownership denken.1106

Auf der anderen Seite stehen die – wenn auch nicht unbedingt besseren, so doch nicht nur beschränkt ökonomistisch argumentierenden – allgemeineren privacy-Theorien und -Konzepte.

Ein großer Teil davon betracht auch nur interpersonale Verhältnisse oder basiert auf zugrunde gelegten Theorien, deren Gegenstandsbereich nur interpersonale Verhältnisse umfasst. William H. Foddy und William R. J. Finighan versuchen, privacy aus der soziologischen Theorie des symbolischen Interaktionismus heraus zu konzeptionalisieren.1107 Sie bauen dabei sowohl Ver-satzstücke von Goffman wie von Altman ein, ohne sich gleichzeitig explizit zu Goffmans Rol-lentheorie zu bekennen – die selbst aus dem symbolischen Interaktionismus abgeleitet wurde –, oder Altmans Konzept einer „boundary“ des Selbst übernehmen zu wollen. Während Müller mit Parsons und Merton das Agieren in einer durch Rollenspiel geprägten Welt als Bezugspunkt nimmt, fokussieren die Autoren auf die Identitätskonstruktion und -aufrechterhaltung „within a specific role relationship“,1108 zitieren zugleich jedoch Müller und Kuhlmann zum Problem des rollengrenzenübergreifenden Informationsflusses.1109

Mit dem Ziel, Forderungen nach privacy sinnvoll zu kategorisieren und zu gruppieren sowie ihren rechtlichen Schutz zu begründen, versucht Ruth Gavison, zwischen einem neutralen Kon-zept von privacy und dem Wert von privacy zu unterscheiden.1110 Sie unterscheidet zwischen dem Status – ob es sich beiprivacyum eine Situation, ein Recht, einen Anspruch, eine Form von Kontrolle oder einen Wert handelt – und den Eigenschaften – obprivacysich auf Informationen, Autonomy, Identität, physischem Zugang bezieht1111 – und entscheidet sich dann, privacy als

„a situation of an individual vis-à-vis others, or as a condition of life“ zu definieren1112 und zu charakterisieren als „our accessibility to others“ – physisch, informationell und als Objekt fremder Aufmerksamkeit.1113 Die Funktionen vonprivacy seien „the promotion of liberty, auto-nomy, selfhood, and human relations, and furthering the existence of a free society.“1114 Perfekte privacy habe, wer „completely inaccessible to others“ sei: „no one has any information about X, no one pays attention to X, and no one has physical access to X.“1115 Auf dieser Basis de-finiert sie dann das Konzept des Verlusts von privacy: „as others obtain information about an

1104Siehe etwa „a public official“ Stigler (1980, S. 623) oder „other persons“ (S. 628). Siehe zu seinen Annahmen S. 641 ff.

1105Siehe der Verweis auf Banken, das Bureau of the Census und „other governmental agencies“, Stigler (1980, S. 624).

1106Siehe Stigler (1980, S. 625 und 625 ff., passim).

1107Siehe Foddy und Finighan (1980). Die auf George Herbert Mead gründende Handlungstheorie des symboli-schen Interaktionismus beschreibt unter anderem, wie sich Mensymboli-schen im symbolisch vermittelten Prozess der Interaktion mit anderen Menschen eine Identität bilden und aufrechterhalten, siehe Mead (1934).

1108Siehe ihreprivacy-Definition Foddy und Finighan (1980, S. 6).

1109Siehe Foddy und Finighan (1980, S. 9) mit Verweis auf Müller und Kuhlmann (1972).

1110Gavison (1980). An diesem Beispiel nachträglicher Systembildung – im deutschen Recht: Dogmatik – zeigen sich alle Probleme dieses Vorgehens.

1111Siehe Gavison (1980, S. 424).

1112Gavison (1980, S. 425).

1113Siehe Gavison (1980, S. 423).

1114Gavison (1980, S. 423), siehe auch S. 442.

1115Gavison (1980, S. 428).Privacysei, so Gavison, das Gegenteil zu Interaktion, S. 440.

individual, pay attention to him, or gain access to him.“1116 Indem sie „accountability“ und

„interference“ explizit aus dem Gegenstandsbereich ihrer Betrachtung ausschließt,1117 kann sie privacyals Komplex aus den an sich distinkten und unabhängigen, jedoch verbundenen Konzep-ten „secrecy“, „anonymity“ und „solitude“ konstruieren.1118 Ihre weiteren Ausführungen folgen dann dieser Selbstbeschränkung, die dabei an einigen Stellen noch verstärkt wird, und sind zu-gleich deren Ergebnis: So schließt sie etwa kategorisch aus, dass es zu einem privacy-Verlust kommen könne, wenn die Informationen nicht geheim seien.1119 Anschließend folgen seitenlange Ausführungen über die Funktionen vonprivacy, die Gavison aus allen möglichen Quellen zusam-menträgt, vor allem aus anderenprivacy-Theorien. Aus der Tatsache, dass sie so viele Konzepte und Theorien aufzählen kann, schlussfolgert sie dann – ohne jede Begründung, warum dafür die Aufzählung der Theorien und Konzepte ausreichen soll –, dass „some privacy is necessary“

für Menschen, „may [. . . ] contribute to a more pluralistic society“und sogar „privacy is also es-sential to democratic government because it fosters and encourages the moral autonomy of the citizen“.1120 Abschließend kommt Gavison – nachdem sie noch einmal darauf verwiesen hat, wo-herprivacy-Verletzungennur kommen können: von „journalists, doctors, detectives, policemen, and therapists“, also Personen1121 – zum Ergebnis, dass das Recht zwar eigentlich das falsche Mittel sei, umprivacy zu schützen, aber „a commitment to privacy as a legal value may help to raise awareness of its importance and thus deter reckless invasions.“1122

Als reines Geheimhaltungsinteresse definiert auch W. A. Parent privacy, jedoch noch einge-schränkt auf „undocumented“ personenbezogene Informationen.1123 Dazu grenzt sie ihr Konzept von anderen, wohl eher zufällig ausgewählten Konzepten ab – vom „right to be let alone“, von

„autonomy or control over significant personal matters“ sowie von der „limitation on access to the self“ –, indem sie alle diese Konzepte erst sehr eng versteht, d. h. sie nimmt die Kurz-fassung einfach wörtlich, und dann „widerlegt“.1124 Sie geht diesen Weg offensichtlich, weil sie das Ziel verfolgt, „the mistaking of privacy for a part of liberty“ zu verhindern1125 und privacy von solitude, „the condition of being physically alone“, abzugrenzen.1126 Wo sie dann über die Funktionen vonprivacy„reflektiert“, vermischt sie dann die Konzepte doch wieder:Privacy

ver-1116Gavison (1980, S. 428).

1117Siehe Gavison (1980, S. 429).

1118Siehe Gavison (1980, S. 428 f.).

1119Siehe Gavison (1980, S. 429): Die drei angeführten Fälle lassen sich, etwa unter Rückgriff auf Kohler (1880) oder Warren und Brandeis (1890) oder auf Müller und Kuhlmann (1972) sehr wohl als Verletzungen derprivacy klassifizieren, aber Gavison schließt das aus, weil ihr „Filter“, den sie an der Stelle plötzlich offenlegt, das ausfiltert: „In none of these cases is there any intrusion, trespass, falsification, appropriation, or exposure of the individual to direct observation.“ Gavison unterlässt es hier, eine Begründung für die Beschränkung auf diese – wahrscheinlich von Prosser übernommenen – Verletzungshandlungen vorzunehmen. Gleichzeitig wird deutlich, dass ihr Konzept selbst widersprüchlich ist: Einerseits soll es eine privacy-Verletzung sein, wenn Informationen über Individuen anderen bekannt werden (S. 428), andererseits stelle es keine Verletzung dar, wenn diese Informationen in einer „unbenutzten Datenbank“ liegen (S. 429, Fn. 27) – aber wie sind die da wohl hineingekommen? Ähnlich stellt sich die Lage dar, wenn Gavison versucht, Bloustein zu widerlegen: „Having to beg or sell one’s body in order to survive are serious affronts to dignity, but do not appear to involve loss of privacy“, so Gavison (S. 438), während gleichzeitig beide Handlungen offensichtlich unter „physical access“

fallen – was wäre denn mehr physischer Zugang zu einem Menschen als Sex mit ihr?

1120Siehe Gavison (1980, S. 455).

1121Siehe Gavison (1980, S. 470).

1122Gavison (1980, S. 471).

1123Siehe Parent (1983).

1124Siehe Parent (1983, S. 271 ff.).

1125Siehe Parent (1983, S. 273).

1126Siehe Parent (1983, S. 275).

hindere die Ausübung von Macht über Personen auf der Basis von „sensitive personal knowledge about us“1127 – ein klarer und von der Autorin unreflektierter Freiheitsbezug –,privacy schütze Scham in „a society where individuals are generally intolerant of life styles, habits, and ways of thinking that differ significantly from their own“1128 und privacy– Geheimhaltung von „certain facts about us“ – sei ein Selbstzweck in der „liberal ideology“.1129 Sie schlussfolgert, privacy schütze „the distinctively liberal, moral principle of respect for persons“1130 und sei „a moral value for persons who also prize freedom and individuality.“1131 Parent versucht dann, Kriteri-en zu Kriteri-entwickeln, um gerechtfertigte von ungerechtfertigtKriteri-en privacy invasions unterscheiden zu können und wiederholt dabei die damals schon allgemein anerkannten, wenn auch auf niedri-gem Niveau: legitimer Zweck, Relevanz der Informationen für den Zweck, mit den am wenigsten eingreifenden Mitteln, mit prozeduralen Schutzmaßnahmen und Datensicherheit.1132

Alle diese Konzeptionen gehen davon aus, dass nur Menschen mögliche Angreiferinnen sein können – Organisationen werden schlicht ignoriert.1133 Im Grunde handelt es sich um nichts anderes als Befindlichkeiten, was hier jeweils geschützt werden soll – oder wie bei Posner, abge-schafft werden soll.

Auf einer dritten Seite stehen Arbeiten, die das Problem der modernen Informationsverarbei-tung aus strukturalistischer – oder zumindest aus gesamtgesellschaftlicher – Sicht untersuchen.

Sie stellen jedoch eine Minderheit dar, können damit jedoch zugleich Aspekte in den Blick neh-men, die den individualistischen und interpersonalen Theorien verschlossen bleiben müssen, wie etwa die Verstetigung spezifischer gesellschaftlicher Machtstrukturen im Zuge der weltweiten Vernetzung von informationstechnischen Systemen1134 oder das Problem von Verantwortungs-zuweisung und Verantwortlichkeit, Aufsicht und Kontrolle bei komplexen Informationssystemen, die selbst wieder in komplexe soziale und politische Umgebungen eingebettet sind.1135

1127Parent (1983, S. 276).

1128Parent (1983, S. 276).

1129Siehe Parent (1983, S. 276 f.).

1130Parent (1983, S. 277).

1131Parent (1983, S. 278).

1132Siehe Parent (1983, S. 280).

1133Am deutlichsten hat Posner das gezeigt, als er 2005 behauptete, es könne sich nicht umprivacy-Verletzungen handeln, solange nur Computer personenbezogene Informationen verarbeiten würden: „The collection, mainly through electronic means, of vast amounts of personal data is said to invade privacy. But machine collection and processing of data cannot, as such, invade privacy. Because of their volume, the data are first sifted by computers, which search for names, addresses, phone numbers, etc., that may have intelligence value. This initial sifting, far from invading privacy (a computer is not a sentient being), keeps most private data from being read by any intelligence officer.“, Posner (2005).

1134Siehe dazu etwa Schiller (1978), der nicht nur zu Beginn fragt: „Is what’s good for IBM good for the world“

und darauf antwortet: „The answer may depend on the kind of world that’s envisaged.“, sondern auch J.

Hugh Faulkner, den damaligen kanadischen Minister für Wissenschaft und Technik, mit der Warnung zitiert, dass in Zukunft der Zugriff auf lebenswichtige Informationen von den Entscheidungen von Interessengruppen abhängen könnte, die außerhalb jeder Kontrolle situierten – eine Problembeschreibung, die auch sehr direkt auf Googles oder Facebooks heutige Rolle bei der globalen Kontrolle von Informationen, etwa zu politischen Entscheidungen, zutrifft.

1135Siehe dazu etwa Laudon (1980): Solche Informationssysteme dürften nur errichtet werden, wenn Verantwortlich-keiten klar geregelt seien, eine unabhängige Aufsicht existiere und deren Datenqualität sichergestellt werden, andernfalls seien deren „social and legal consequences [. . . ] unpredictable“ (S. 56) und damit diese Systeme gesellschaftlich inakzeptabel. Siehe dazu auch Laudons spätere Arbeit zur Frage, inwieweit Organisationen überhaupt rechtsstaatlich und fair – „due process“ – über Individuen Entscheidungen treffen könne, wenn die Qualität der Informationen, die diese Organisationen gespeichert haben, nicht sichergestellt werden kann, am Beispiel von Datenbanken mit Strafeinträgen bei Strafverfolgungsbehörden in den USA – die Qualität

Die zweite große Untersuchung zur Frühphase der privacy- und Datenschutzdiskussion und deren Verwirklichung im Recht stammt von James Rule, Douglas McAdam, Linda Stearns und David Uglow.1136 Im Gegensatz zu Liedtke analysieren sie allerdings weniger die Aushandlungs-prozesse, die zur Verrechtlichung geführt haben, als vielmehr die Problemanalysen und die „Lö-sungen“ für die Probleme im Recht. Sie gehen dabei von einer sehr breiten privacy-Definition – „the restriction of others’ access to information about oneself“1137 – und einer ebenso breiten surveillance-Definition – „the systematic monitoring of personal data“1138– aus. Der Zweck von

„surveillance“ sei „social control“, „any means of influence by which a person or an organization seeks to render other people’s behavior or circumstances more predictable and more accepta-ble.“1139Aus dieser Konstruktion der Begriffe ergibt sich offenkundig, dass es keine „surveillance“

geben kann, die nicht zugleich eineprivacy-verletzung darstellt.1140 Die Beschreibung der gesell-schaftlichen Realität erinnert – trotz der gegenteiligen Behauptung der Autorinnen, alle anderen in der Welt würden nur durch die amerikanische Diskussion beeinflusst sein und dabei „heavily“

Alan Westin folgen1141 – stark an die deutsche Datenschutzdebatte der 1970er: Moderne (S. 25), spezialisierte (S. 26) und rationale (S. 27) Bürokratien (S. 28) – formale Organisationen (S. 27), Maschinen, „whose overall output is made predictable through the predictable interrelations of each part within them“ (S. 28) – in hochgradig arbeitsteiligen (S. 26) Gesellschaften – „an »or-ganized« world“ (S. 29) –, deren Folge die zunehmende gegenseitige Abhängigkeit der sozialen Teilsysteme sei (S. 26), die mit Individuen nur noch in deren hochgradig beschränkten Rollen interagieren (S. 27), die die Organisationen den Menschen zusammen mit den zugehörigen Rol-lenerwartungen aufnötigen (S. 28), benötigten Informationen über diese Menschen, um unter Unsicherheitsbedingungen (S. 44) Entscheidungen über sie zu treffen (S. 49):1142

“It is no exaggeration to describe modern organizations as engaged in the »producti-on« of authoritative decisions about people, or to characterize personal information as the »raw material« for this production.„1143

Auch für die Rolle der Technik im Gebrauch durch Organisationen und die Beschreibung der Folgen sind die Parallelen unübersehbar:

sei mies, so Laudon, die Daten seien „fundamentally incomplete, ambiguous, and inaccurate“, siehe Laudon (1986a, S. 10).

1136Rule et al. (1980).

1137Rule et al. (1980, S. 23). Sie definieren zwei Unterfälle: „aestheticprivacy“ als Selbstzweck und „strategicprivacy“

als Mittel für einen anderen Zweck, S. 22.

1138Rule et al. (1980, S. 47).

1139Rule et al. (1980, S. 47). Beide Termini – „surveillance“ und „social control“ – seien in einem neutralen Sinne ge-meint und wertfrei, so die Autorinnen, ibid. Rule wird darauf aufbauend später den Begriff „mass surveillance“

prägen: „the monitoring by large organizations of large numbers of ordinary people“, Rule (1983, S. 176).

1140Dieses Problem haben die Surveillance Studies geerbt, die sich unter anderem auf Rules Arbeiten beziehen – natürlich neben dem Übervater Foucault –: Mit demsurveillance-Begriff wird eine allgemeine (gesellschaftliche) Praxis von organisierten Sozialsystemen in modernen Gesellschaften als gesellschaftliches Problem aufgeworfen, das dann mit demprivacy-Begriff wieder individualisiert wird.

1141Siehe Rule et al. (1980, S. 112).

1142Diese Beschreibung kommt fast ohne Quellenangaben aus, aber schon in seinem erstem Werk zu diesem The-menbereich, Rule (1973), auf das immer wieder verwiesen wird, bezieht sich Rule vor allem auf Arbeiten Talcott Parsons und seiner Schülerinnen. Und Luhmanns Frühwerk, das in der deutschen Debatte breit rezipiert wur-de, ist eine – aus Luhmanns Sicht – Weiterentwicklung der Theorie Parsons’. Die Ähnlichkeit zwischen Rule et al.’s Beschreibung und der in der deutschen Datenschutzdebatte überrascht daher nicht.

1143Rule et al. (1980, S. 49).

„[P]ersonal-data systems [. . . ] confer unprecedented power upon bureaucracies to pursue their ends efficiently; but the existence of these powers poses risks which must at some point be counted unacceptable.“1144

Allein in der Selbstbeschränkung auf personenbezogene Informationen – die Autorinnen unter-scheiden nicht zwischen „data“ und „information“ – findet sich ein Unterschied zu den Ergeb-nissen der deutschen Debatte im Jahrzehnt zuvor.

Im Rahmen der Arbeit werden anschließend die „Antworten“ auf das privacy-Problem, also sowohl die Problembeschreibungen wie die „Lösungen“ und deren Umsetzung im (US-amerika-nischen) Recht, analysiert – „Privacy and Freedom“ (1967), „The Assault on Privacy“ (1971), der Fair Credit Reporting Act (1970), „Records, Computers, and the Rights of Citizens“ (1973), der Privacy Act of 1974, der „Personal Privacy in an Information Society“ (1977) sowie „Da-tabanks in a Free Society: Computers, Record-Keeping and Privacy“ (1972).1145 Die Autorinnen kritisieren, dass alle Studien sich vor allem auf die vielzähligen „abuses“ und „abusive practices“

konzentrieren würden und dabei und damit die großen Fragen ausklammerten:1146

„How much surveillance do we really want? How far into previously private areas of life ought these systems to extend? At what point does even just, efficient monitoring of private affairs become excessive?“1147

Entsprechend würden dann auch die „Lösungen“ aussehen: Surveillance sei akzeptabel, wenn die Informationen korrekt, vollständig und aktuell seien, wennsurveillanceund Entscheidungen auf der Basis von „openly promulgated rules of »due process«“ getroffen würden, wenn Organi-sationen nur die für legitime Zwecke erforderlichen Informationen erheben und nutzen würden und wenn es umfassende Betroffenenrechte gebe.1148 Organisationen, die sich an diese Regeln hielten, könnten dann „claim to protect the privacy“ der Betroffenen:

„From the standpoint of surveillance organizations, this is a most opportune inter-pretation of »privacy protection.«“1149

Als Gegenmodell schlagen die Autorinnen Datensparsamkeit vor, müssen aber zugleich eingeste-hen, dass diese Alternative bislang ignoriert worden sei. Stattdessen würden alle Beteiligten dem Effizienzkriterium huldigen und damit auch die privacy-Verteidigerinnen in eine Falle laufen:

„The beguiling thing about the emergent reform consensus is that it seems to offer something for everybody. For the general public, beset by demands for personal data, it offers assurance that »privacy« is being »protected,« even as organizations amass more and more personal information. Yet such protection is to be achieved without disturbing any of the conveniences associated in the public mind with organizational surveillance. From the institutional point of view, the picture is even brighter. In exchange for acceptance of procedural reforms, surveillance organizations achieve legitimacy and public support for their activities.

1144Rule et al. (1980, S. 9).

1145Siehe Westin (1967), Miller (1971), U.S. Department of Health, Education, and Welfare (1973), Privacy Pro-tection Study Commission (1977), Westin und Baker (1972). Die Arbeiten und Gesetze werden in dieser Reihenfolge, nicht in der Reihenfolge ihrer Entstehung oder ihres Erscheinens, analysiert.

1146Siehe Rule et al. (1980, S. 70 f.).

1147Rule et al. (1980, S. 71).

1148Siehe Rule et al. (1980, S. 71).

1149Rule et al. (1980, S. 71).

Perhaps most important of all, acceptance of the »efficiency criterion« undercuts potential public opposition to more and more sweeping surveillance: It becomes im-possible to object to any surveillance practice, provided that data are used efficiently for the ends of some established organization—and provided this use occurs with fairness, accuracy, thoroughness, due process, and provision for participation by the individual concerned. Having agreed to play the game, those speaking for the inte-rests of the public can hardly complain as the stakes are raised. And these stakes, in terms of the shifting balance of power between mass publics and centralized

Perhaps most important of all, acceptance of the »efficiency criterion« undercuts potential public opposition to more and more sweeping surveillance: It becomes im-possible to object to any surveillance practice, provided that data are used efficiently for the ends of some established organization—and provided this use occurs with fairness, accuracy, thoroughness, due process, and provision for participation by the individual concerned. Having agreed to play the game, those speaking for the inte-rests of the public can hardly complain as the stakes are raised. And these stakes, in terms of the shifting balance of power between mass publics and centralized

Im Dokument Datenschutz und Technikgestaltung (Seite 133-154)