Inhaltsverzeichnis:
- Datenschutz und Informationstechnologie
- 1. Vorstellungen von Privatsphäre und dem Wert der Privatsphäre
- 2. Die Auswirkungen der Informationstechnologie auf den Datenschutz
- Andere Internetquellen

Video: Datenschutz Und Informationstechnologie

Eintragsnavigation
- Eintragsinhalt
- Literaturverzeichnis
- Akademische Werkzeuge
- Freunde PDF Vorschau
- Autor und Zitierinfo
- Zurück nach oben
Datenschutz und Informationstechnologie
Erstveröffentlichung Do 20.11.2014; inhaltliche Überarbeitung Mi 30.10.2019
Menschen schätzen ihre Privatsphäre und den Schutz ihres persönlichen Lebensbereichs. Sie schätzen eine gewisse Kontrolle darüber, wer was über sie weiß. Sie möchten sicher nicht, dass ihre persönlichen Daten jederzeit für jedermann zugänglich sind. Die jüngsten Fortschritte in der Informationstechnologie bedrohen jedoch die Privatsphäre und haben die Kontrolle über personenbezogene Daten verringert und die Möglichkeit einer Reihe negativer Konsequenzen aufgrund des Zugriffs auf personenbezogene Daten eröffnet. In der zweiten Hälfte der 20. - ten Jahrhunderts Datenschutzregelungen an Ort und Stelle als Reaktion wurden Ebene der Verarbeitung personenbezogener Daten zur Erhöhung setzen. Die 21 stJahrhundert ist das Jahrhundert der Big Data und fortschrittlichen Informationstechnologie (z. B. Formen des Deep Learning), des Aufstiegs der Big Tech-Unternehmen und der Plattformökonomie, die mit der Speicherung und Verarbeitung von Exabyte an Daten einhergeht.
Die Enthüllungen von Edward Snowden und in jüngerer Zeit der Fall Cambridge Analytica (Cadwalladr & Graham-Harrison 2018) haben gezeigt, dass die Sorge um negative Folgen real ist. Die technischen Möglichkeiten zum Sammeln, Speichern und Durchsuchen großer Datenmengen in Bezug auf Telefongespräche, Internetsuchen und elektronisches Bezahlen sind jetzt vorhanden und werden routinemäßig von Regierungsbehörden und Unternehmensakteuren gleichermaßen genutzt. Der Aufstieg Chinas und die weit verbreitete Nutzung und Verbreitung fortschrittlicher digitaler Technologien zur Überwachung und Kontrolle haben die Besorgnis vieler nur noch verstärkt. Für Unternehmen sind nun auch personenbezogene Daten über Kunden und potenzielle Kunden von zentraler Bedeutung. Umfang und Zweck der auf personenbezogenen Daten ausgerichteten Geschäftsmodelle von Big Tech (Google, Amazon, Facebook, Microsoft,Apple) wurde von Shoshana Zuboff (2018) unter dem Label „Überwachungskapitalismus“ausführlich beschrieben.
Gleichzeitig bleibt die Bedeutung und der Wert der Privatsphäre Gegenstand erheblicher Kontroversen. Die Kombination aus zunehmender Macht neuer Technologien und abnehmender Klarheit und Übereinstimmung in Bezug auf den Datenschutz führt zu Problemen in Bezug auf Recht, Politik und Ethik. Viele dieser konzeptionellen Debatten und Fragen stehen im Zusammenhang mit der Auslegung und Analyse der Allgemeinen Datenschutzverordnung (DSGVO), die die EU im Frühjahr 2018 als Nachfolger der EU-Richtlinien von 1995 verabschiedet hat und deren Anwendung weit über die Grenzen von die Europäische Union.
Der Schwerpunkt dieses Artikels liegt auf der Untersuchung der Beziehung zwischen Informationstechnologie und Datenschutz. Wir werden sowohl die spezifischen Bedrohungen veranschaulichen, die die IT und Innovationen in der IT für den Datenschutz darstellen, als auch zeigen, wie die IT selbst diese Datenschutzbedenken überwinden kann, indem sie auf eine Weise entwickelt wird, die als "datenschutzsensitiv", "datenschutzverbessernd" oder "datenschutzrelevant" bezeichnet werden kann Datenschutz respektieren “. Wir werden auch die Rolle aufkommender Technologien in der Debatte diskutieren und die Art und Weise berücksichtigen, in der moralische Debatten selbst von der IT beeinflusst werden.
-
1. Vorstellungen von Privatsphäre und dem Wert der Privatsphäre
- 1.1 Konstitutioneller oder informativer Datenschutz
- 1.2 Berichte über den Wert der Privatsphäre
- 1.3 Personenbezogene Daten
- 1.4 Moralische Gründe für den Schutz personenbezogener Daten
- 1.5 Gesetze, Vorschriften und indirekte Kontrolle über den Zugang
-
2. Die Auswirkungen der Informationstechnologie auf den Datenschutz
- 2.1 Entwicklungen in der Informationstechnologie
- 2.2 Internet
- 2.3 Soziale Medien
- 2.4 Big Data
- 2.5 Mobile Geräte
- 2.6 Das Internet der Dinge
- 2.7 E-Government
- 2.8 Überwachung
-
3. Wie kann die Informationstechnologie selbst Datenschutzbedenken lösen?
- 3.1 Entwurfsmethoden
- 3.2 Technologien zur Verbesserung der Privatsphäre
- 3.3 Kryptographie
- 3.4 Identitätsmanagement
- 4. Neue Technologien und unser Verständnis der Privatsphäre
- Literaturverzeichnis
- Akademische Werkzeuge
- Andere Internetquellen
- Verwandte Einträge
1. Vorstellungen von Privatsphäre und dem Wert der Privatsphäre
Diskussionen über den Datenschutz sind mit dem Einsatz von Technologie verknüpft. Die Veröffentlichung, mit der die Debatte über die Privatsphäre in der westlichen Welt begann, wurde durch die Einführung der Zeitungsdruckmaschine und der Fotografie ausgelöst. Samuel D. Warren und Louis Brandeis schrieben ihren Artikel über Datenschutz in der Harvard Law Review (Warren & Brandeis 1890) teilweise aus Protest gegen die aufdringlichen Aktivitäten der damaligen Journalisten. Sie argumentierten, dass es ein „Recht, allein gelassen zu werden“gibt, das auf dem Prinzip der „unantastbaren Persönlichkeit“beruht. Seit der Veröffentlichung dieses Artikels wurde die Debatte über die Privatsphäre durch Ansprüche bezüglich des Rechts des Einzelnen, zu bestimmen, inwieweit andere Zugang zu ihnen haben (Westin 1967), und Ansprüche bezüglich des Rechts der Gesellschaft, über den Einzelnen Bescheid zu wissen, angeheizt. Da Informationen ein Eckpfeiler für den Zugang zu Einzelpersonen sind, hat sich die Datenschutzdebatte gemeinsam mit der Entwicklung der Informationstechnologie und als Reaktion darauf entwickelt. Es ist daher schwierig, sich die Begriffe Datenschutz und Diskussionen über Datenschutz getrennt von der Entwicklung von Computern, Internet, Mobile Computing und den vielen Anwendungen dieser Basistechnologien vorzustellen.
1.1 Konstitutioneller oder informativer Datenschutz
Inspiriert von späteren Entwicklungen im US-Recht kann zwischen (1) verfassungsmäßiger (oder entscheidender) Privatsphäre und (2) unerlaubter (oder informativer) Privatsphäre unterschieden werden (DeCew 1997). Der erste bezieht sich auf die Freiheit, eigene Entscheidungen zu treffen, ohne dass andere in Bezug auf Angelegenheiten, die als intim und persönlich angesehen werden, wie die Entscheidung, Verhütungsmittel zu verwenden oder eine Abtreibung vorzunehmen, eingreifen. Die zweite befasst sich mit dem Interesse von Einzelpersonen, die Kontrolle über den Zugang zu Informationen über sich selbst auszuüben, und wird am häufigsten als „Datenschutz“bezeichnet. Denken Sie hier beispielsweise an Informationen, die auf Facebook oder anderen sozialen Medien veröffentlicht wurden. Allzu leicht können solche Informationen außerhalb der Kontrolle des Einzelnen liegen.
Aussagen zum Datenschutz können entweder beschreibend oder normativ sein, je nachdem, ob sie verwendet werden, um die Art und Weise zu beschreiben, wie Menschen Situationen und Bedingungen des Datenschutzes definieren und wie sie sie schätzen, oder um anzuzeigen, dass die Verwendung von Informationen eingeschränkt werden sollte oder Informationsverarbeitung. Diese Bedingungen oder Einschränkungen betreffen typischerweise persönliche Informationen über Personen oder Arten der Informationsverarbeitung, die sich auf Einzelpersonen auswirken können. Informationsschutz im normativen Sinne bezieht sich typischerweise auf ein nicht absolutes moralisches Recht von Personen auf direkte oder indirekte Kontrolle über den Zugang zu (1) Informationen über sich selbst, (2) Situationen, in denen andere Informationen über sich selbst erhalten könnten, und (3) Technologie, mit der Informationen über sich selbst generiert, verarbeitet oder verbreitet werden können.
1.2 Berichte über den Wert der Privatsphäre
Die Debatten über den Datenschutz drehen sich fast immer um neue Technologien, angefangen von der Genetik über die umfassende Untersuchung von Bio-Markern, Bildgebung des Gehirns, Drohnen, tragbaren Sensoren und Sensornetzwerken, sozialen Medien, Smartphones, Videoüberwachungsprogrammen bis hin zu staatlichen Cybersicherheitsprogrammen. Direktmarketing, RFID-Tags, Big Data, Head-Mounted-Displays und Suchmaschinen. Grundsätzlich gibt es zwei Reaktionen auf die Flut neuer Technologien und ihre Auswirkungen auf personenbezogene Daten und Datenschutz: Die erste Reaktion, die von vielen Menschen in der IT-Branche und in der Forschung und Entwicklung vertreten wird, ist, dass wir im digitalen Zeitalter keinen Datenschutz haben und dass es keinen gibt So können wir es schützen, also sollten wir uns an die neue Welt gewöhnen und darüber hinwegkommen (Sprenger 1999). Die andere Reaktion ist, dass unsere Privatsphäre wichtiger denn je ist und dass wir versuchen können und müssen, sie zu schützen.
In der Literatur zum Datenschutz gibt es viele konkurrierende Berichte über die Art und den Wert des Datenschutzes (Negley 1966, Rössler 2005). An einem Ende des Spektrums argumentieren reduktionistische Berichte, dass es bei Datenschutzansprüchen wirklich um andere Werte und andere Dinge geht, die aus moralischer Sicht wichtig sind. Nach diesen Ansichten ist der Wert der Privatsphäre auf diese anderen Werte oder Wertquellen reduzierbar (Thomson 1975). Vorschläge, die in diesem Sinne verteidigt wurden, erwähnen Eigentumsrechte, Sicherheit, Autonomie, Intimität oder Freundschaft, Demokratie, Freiheit, Würde oder Nutzen und wirtschaftlichen Wert. Nach Ansicht von Reduktionisten sollte die Bedeutung der Privatsphäre erklärt und ihre Bedeutung im Hinblick auf diese anderen Werte und Wertquellen geklärt werden (Westin 1967). Die gegenteilige Ansicht ist, dass Datenschutz an sich wertvoll ist und sein Wert und seine Bedeutung nicht aus anderen Überlegungen abgeleitet werden (siehe für eine Diskussion Rössler 2004). Ein Beispiel für diese nicht-reduktionistische Konzeption wären Ansichten, die Privatsphäre und den persönlichen Lebensbereich als Menschenrecht interpretieren.
In jüngerer Zeit wurde eine Art Datenschutzkonto in Bezug auf neue Informationstechnologien vorgeschlagen, das anerkennt, dass es eine Reihe verwandter moralischer Ansprüche gibt, die Appellen an den Datenschutz zugrunde liegen, aber behauptet, dass es keinen einzigen wesentlichen Kern von Datenschutzbedenken gibt. Dieser Ansatz wird als Clusterkonten bezeichnet (DeCew 1997; Solove 2006; van den Hoven 1999; Allen 2011; Nissenbaum 2004).
Aus einer beschreibenden Perspektive sind epistemische Konten, bei denen der Begriff der Privatsphäre in erster Linie im Hinblick auf Wissen oder andere epistemische Zustände analysiert wird, eine weitere Neuerung in der Reihe der Datenschutzkonten. Privatsphäre bedeutet, dass andere bestimmte private Vorschläge nicht kennen. Mangelnde Privatsphäre bedeutet, dass andere bestimmte private Vorschläge kennen (Blaauw 2013). Ein wichtiger Aspekt dieser Auffassung von Privatsphäre ist, dass sie als Beziehung (Rubel 2011; Matheson 2007; Blaauw 2013) zu drei Argumentationsstellen gesehen wird: einem Subjekt (S), einer Reihe von Aussagen (P) und einer Reihe von Individuen (ICH). Hier ist S das Thema, das (ein gewisses Maß an) Privatsphäre hat. P setzt sich aus den Sätzen zusammen, die das Subjekt privat halten möchte (nennen Sie die Sätze in dieser Menge "persönliche Sätze").und ich setze mich aus jenen Personen zusammen, in Bezug auf die S die persönlichen Vorschläge privat halten will.
Eine weitere nützliche Unterscheidung ist die zwischen einem europäischen und einem US-amerikanischen Ansatz. Eine bibliometrische Studie legt nahe, dass die beiden Ansätze in der Literatur getrennt sind. Der erste konzeptualisiert Fragen des Datenschutzes in Bezug auf den Datenschutz, der zweite in Bezug auf den Datenschutz (Heersmink et al. 2011). Bei der Erörterung des Verhältnisses von Datenschutzfragen zur Technologie ist der Begriff des Datenschutzes am hilfreichsten, da er zu einem relativ klaren Bild darüber führt, was der Schutzgegenstand ist und mit welchen technischen Mitteln die Daten geschützt werden können. Gleichzeitig werden Antworten auf die Frage gefordert, warum die Daten geschützt werden sollten, und auf eine Reihe unterschiedlicher moralischer Gründe hingewiesen, auf deren Grundlage der technische, rechtliche und institutionelle Schutz personenbezogener Daten gerechtfertigt werden kann. Der Datenschutz wird daher im Hinblick auf den Schutz personenbezogener Daten neu formuliert (van den Hoven 2008). Dieses Konto zeigt, wie Datenschutz, Technologie und Datenschutz zusammenhängen, ohne Datenschutz und Datenschutz miteinander zu verbinden.
1.3 Personenbezogene Daten
Persönliche Informationen oder Daten sind Informationen oder Daten, die mit einzelnen Personen verknüpft sind oder verknüpft werden können. Beispiele hierfür sind explizit angegebene Merkmale wie das Geburtsdatum einer Person, die sexuelle Präferenz, der Aufenthaltsort, die Religion, aber auch die IP-Adresse Ihres Computers oder Metadaten, die sich auf diese Art von Informationen beziehen. Darüber hinaus können personenbezogene Daten auch impliziter in Form von Verhaltensdaten sein, beispielsweise aus sozialen Medien, die mit Personen verknüpft werden können. Personenbezogene Daten können Daten gegenübergestellt werden, die aus anderen Gründen als vertraulich, wertvoll oder wichtig angesehen werden, z. B. geheime Rezepte, Finanzdaten oder militärische Informationen. Daten, die zum Sichern anderer Informationen verwendet werden, wie z. B. Passwörter, werden hier nicht berücksichtigt. Obwohl solche Sicherheitsmaßnahmen (Passwörter) zum Datenschutz beitragen können,Ihr Schutz trägt nur zum Schutz anderer (privaterer) Informationen bei, und die Qualität solcher Sicherheitsmaßnahmen liegt daher außerhalb des Rahmens unserer Überlegungen.
Eine relevante Unterscheidung, die in der philosophischen Semantik getroffen wurde, ist die zwischen der referentiellen und der attributiven Verwendung deskriptiver Bezeichnungen von Personen (van den Hoven 2008). Personenbezogene Daten werden im Gesetz als Daten definiert, die mit einer natürlichen Person verknüpft werden können. Es gibt zwei Möglichkeiten, wie diese Verknüpfung hergestellt werden kann. ein Referenzmodus und ein Nicht-Referenzmodus. Das Gesetz befasst sich hauptsächlich mit der "referentiellen Verwendung" von Beschreibungen oder Attributen, der Art der Verwendung, die auf der Grundlage einer (möglichen) Bekanntschaftsbeziehung des Sprechers mit dem Gegenstand seines Wissens erfolgt. "Der Mörder von Kennedy muss verrückt sein", sagte er, während er vor Gericht auf ihn zeigte, ist ein Beispiel für eine referenziell verwendete Beschreibung. Dies kann mit Beschreibungen verglichen werden, die attributiv verwendet werden wie in "Der Mörder von Kennedy muss verrückt sein, wer auch immer er ist". In diesem Fall ist der Benutzer der Beschreibung mit der Person, über die er spricht oder auf die er sich beziehen möchte, nicht vertraut und wird diese möglicherweise auch nie kennen. Wenn die rechtliche Definition personenbezogener Daten referenziell ausgelegt wird, wäre ein Großteil der Daten, die zu einem bestimmten Zeitpunkt auf Personen übertragen werden könnten, ungeschützt. Das heißt, die Verarbeitung dieser Daten würde nicht aus moralischen Gründen in Bezug auf die Privatsphäre oder den persönlichen Lebensbereich eingeschränkt, da sie sich nicht auf einfache Weise auf Personen beziehen und daher keine „persönlichen Daten“im engeren Sinne darstellen. Viele der Daten, die irgendwann auf Personen übertragen werden könnten, wären ungeschützt. Das heißt, die Verarbeitung dieser Daten würde nicht aus moralischen Gründen in Bezug auf die Privatsphäre oder den persönlichen Lebensbereich eingeschränkt, da sie sich nicht auf einfache Weise auf Personen beziehen und daher keine „persönlichen Daten“im engeren Sinne darstellen. Viele der Daten, die irgendwann auf Personen übertragen werden könnten, wären ungeschützt. Das heißt, die Verarbeitung dieser Daten würde nicht aus moralischen Gründen in Bezug auf die Privatsphäre oder den persönlichen Lebensbereich eingeschränkt, da sie sich nicht auf einfache Weise auf Personen beziehen und daher keine „persönlichen Daten“im engeren Sinne darstellen.
1.4 Moralische Gründe für den Schutz personenbezogener Daten
Folgende moralische Gründe für den Schutz personenbezogener Daten und für die direkte oder indirekte Kontrolle des Zugriffs anderer auf diese Daten können unterschieden werden (van den Hoven 2008):
- Schadensverhütung: Der uneingeschränkte Zugriff anderer auf das Bankkonto, das Profil, das Social-Media-Konto, die Cloud-Repositorys, die Merkmale und den Aufenthaltsort kann dazu beitragen, die betroffene Person auf verschiedene Weise zu schädigen.
- Informationsungleichheit: Personenbezogene Daten sind zu Waren geworden. Einzelpersonen sind in der Regel nicht in der Lage, Verträge über die Verwendung ihrer Daten auszuhandeln, und haben nicht die Möglichkeit zu prüfen, ob die Partner die Vertragsbedingungen einhalten. Datenschutzgesetze, -vorschriften und -governance zielen darauf ab, faire Bedingungen für die Ausarbeitung von Verträgen über die Übermittlung und den Austausch personenbezogener Daten zu schaffen und den betroffenen Personen Überprüfungen, Garantien für Rechtsbehelfe und Mittel zur Überwachung der Einhaltung der Vertragsbedingungen bereitzustellen. Flexible Preisgestaltung, Preisgestaltung und Preisermittlung sowie dynamische Verhandlungen werden in der Regel auf der Grundlage asymmetrischer Informationen und großer Unterschiede beim Zugang zu Informationen geführt. Auch Auswahlmodellierung im Marketing, Micro-Targeting in politischen Kampagnen,und das Anstupsen bei der Umsetzung von Richtlinien nutzt eine grundlegende Informationsungleichheit zwischen Auftraggeber und Agent aus.
- Informationsungerechtigkeit und Diskriminierung: Personenbezogene Daten, die in einem Bereich oder Kontext (z. B. im Gesundheitswesen) bereitgestellt werden, können ihre Bedeutung ändern, wenn sie in einem anderen Bereich oder Kontext verwendet werden (z. B. bei Handelsgeschäften), und können zu Diskriminierung und Nachteilen für den Einzelnen führen. Dies hängt mit der Diskussion über Kontextintegrität von Nissenbaum (2004) und Walzerian Sphären der Gerechtigkeit zusammen (Van den Hoven 2008).
- Eingriffe in die moralische Autonomie und die Menschenwürde: Mangelnde Privatsphäre kann Einzelpersonen externen Kräften aussetzen, die ihre Entscheidungen beeinflussen und sie dazu bringen, Entscheidungen zu treffen, die sie sonst nicht getroffen hätten. Massenüberwachung führt zu einer Situation, in der Personen routinemäßig, systematisch und kontinuierlich Entscheidungen treffen, weil sie wissen, dass andere sie beobachten. Dies wirkt sich auf ihren Status als autonome Wesen aus und hat manchmal eine „abschreckende Wirkung“auf sie und die Gesellschaft. Eng verwandt sind Überlegungen zu Verstößen gegen den Respekt vor Personen und die Menschenwürde. Die massive Anhäufung von Daten, die für die Identität einer Person relevant sind (z. B. Gehirn-Computer-Schnittstellen, Identitätsgraphen, digitale Doppel- oder digitale Zwillinge),Die Analyse der Topologie der eigenen sozialen Netzwerke kann zu der Idee führen, dass wir eine bestimmte Person kennen, da es so viele Informationen über sie gibt. Es kann argumentiert werden, dass die Fähigkeit, Menschen anhand ihrer Big Data herauszufinden, eine epistemische und moralische Unbescheidenheit darstellt (Bruynseels & Van den Hoven 2015), bei der die Tatsache, dass Menschen Subjekte mit privaten mentalen Zuständen sind, nicht berücksichtigt wird eine bestimmte Qualität, die aus einer externen Perspektive (Perspektive der dritten oder zweiten Person) nicht zugänglich ist - so detailliert und genau das auch sein mag. Die Achtung der Privatsphäre würde dann bedeuten, diese moralische Phänomenologie menschlicher Personen anzuerkennen, dh anzuerkennen, dass ein Mensch immer mehr ist, als fortschrittliche digitale Technologien liefern können. Es kann argumentiert werden, dass die Fähigkeit, Menschen anhand ihrer Big Data herauszufinden, eine epistemische und moralische Unbescheidenheit darstellt (Bruynseels & Van den Hoven 2015), bei der die Tatsache, dass Menschen Subjekte mit privaten mentalen Zuständen sind, nicht berücksichtigt wird eine bestimmte Qualität, die aus einer externen Perspektive (Perspektive der dritten oder zweiten Person) nicht zugänglich ist - so detailliert und genau das auch sein mag. Die Achtung der Privatsphäre würde dann bedeuten, diese moralische Phänomenologie menschlicher Personen anzuerkennen, dh anzuerkennen, dass ein Mensch immer mehr ist, als fortschrittliche digitale Technologien liefern können. Es kann argumentiert werden, dass die Fähigkeit, Menschen anhand ihrer Big Data herauszufinden, eine epistemische und moralische Unbescheidenheit darstellt (Bruynseels & Van den Hoven 2015), bei der die Tatsache, dass Menschen Subjekte mit privaten mentalen Zuständen sind, nicht berücksichtigt wird eine bestimmte Qualität, die aus einer externen Perspektive (Perspektive der dritten oder zweiten Person) nicht zugänglich ist - so detailliert und genau das auch sein mag. Die Achtung der Privatsphäre würde dann bedeuten, diese moralische Phänomenologie menschlicher Personen anzuerkennen, dh anzuerkennen, dass ein Mensch immer mehr ist, als fortschrittliche digitale Technologien liefern können.die die Tatsache nicht respektiert, dass Menschen Subjekte mit privaten mentalen Zuständen sind, die eine bestimmte Qualität haben, die aus einer externen Perspektive (Perspektive der dritten oder zweiten Person) nicht zugänglich ist - so detailliert und genau das auch sein mag. Die Achtung der Privatsphäre würde dann bedeuten, diese moralische Phänomenologie menschlicher Personen anzuerkennen, dh anzuerkennen, dass ein Mensch immer mehr ist, als fortschrittliche digitale Technologien liefern können.die die Tatsache nicht respektiert, dass Menschen Subjekte mit privaten mentalen Zuständen sind, die eine bestimmte Qualität haben, die aus einer externen Perspektive (Perspektive der dritten oder zweiten Person) nicht zugänglich ist - so detailliert und genau das auch sein mag. Die Achtung der Privatsphäre würde dann bedeuten, diese moralische Phänomenologie menschlicher Personen anzuerkennen, dh anzuerkennen, dass ein Mensch immer mehr ist, als fortschrittliche digitale Technologien liefern können.
Diese Überlegungen liefern alle gute moralische Gründe, um den Zugang zu personenbezogenen Daten einzuschränken und einzuschränken und Einzelpersonen die Kontrolle über ihre Daten zu geben.
1.5 Gesetze, Vorschriften und indirekte Kontrolle über den Zugang
In Anerkennung der Tatsache, dass es moralische Gründe für den Schutz personenbezogener Daten gibt, sind in fast allen Ländern Datenschutzgesetze in Kraft. Das moralische Grundprinzip, das diesen Gesetzen zugrunde liegt, ist das Erfordernis einer Einwilligung nach Aufklärung für die Verarbeitung durch die betroffene Person, wodurch die betroffene Person (zumindest im Prinzip) die Kontrolle über mögliche negative Auswirkungen erhält, wie oben erläutert. Darüber hinaus erfordert die Verarbeitung personenbezogener Daten, dass ihr Zweck festgelegt, ihre Verwendung eingeschränkt, Personen benachrichtigt und Ungenauigkeiten korrigiert werden und der Inhaber der Daten gegenüber den Aufsichtsbehörden rechenschaftspflichtig ist (OECD 1980). Da es unmöglich ist, die Übereinstimmung aller Arten der Datenverarbeitung in all diesen Bereichen und Anwendungen mit diesen Regeln und Gesetzen auf herkömmliche Weise zu gewährleisten,Es wird erwartet, dass sogenannte „Privacy Enhancement Technologies“(PETs) und Identitätsmanagementsysteme in vielen Fällen die menschliche Aufsicht ersetzen. Die Herausforderung in Bezug auf den Datenschutz im 21. Jahrhundert besteht darin, sicherzustellen, dass die Technologie so konzipiert ist, dass Datenschutzanforderungen in Software, Architektur, Infrastruktur und Arbeitsprozessen so berücksichtigt werden, dass Datenschutzverletzungen unwahrscheinlich sind. Neue Generationen von Datenschutzbestimmungen (z. B. DSGVO) erfordern jetzt standardmäßig einen "Privacy by Design" -Ansatz. Die Datenökosysteme und sozio-technischen Systeme, Lieferketten, Organisationen, einschließlich Anreizstrukturen, Geschäftsprozesse und technischer Hard- und Software sowie die Schulung des Personals, sollten alle so gestaltet sein, dass die Wahrscheinlichkeit von Datenschutzverletzungen so gering wie möglich ist.
2. Die Auswirkungen der Informationstechnologie auf den Datenschutz
Die Debatten über den Datenschutz drehen sich fast immer um neue Technologien, angefangen von der Genetik und der umfassenden Untersuchung von Bio-Markern, Bildgebung des Gehirns, Drohnen, tragbaren Sensoren und Sensornetzwerken, sozialen Medien, Smartphones, Videoüberwachungsprogrammen bis hin zu staatlichen Cybersicherheitsprogrammen. Direktmarketing, Überwachung, RFID-Tags, Big Data, Head-Mounted-Displays und Suchmaschinen. In diesem Abschnitt werden die Auswirkungen einiger dieser neuen Technologien mit besonderem Schwerpunkt auf der Informationstechnologie erörtert.
2.1 Entwicklungen in der Informationstechnologie
"Informationstechnologie" bezieht sich auf automatisierte Systeme zum Speichern, Verarbeiten und Verteilen von Informationen. In der Regel werden dazu Computer und Kommunikationsnetze verwendet. Die Menge an Informationen, die in einem Informationssystem gespeichert oder verarbeitet werden können, hängt von der verwendeten Technologie ab. Die Kapazität der Technologie hat in den letzten Jahrzehnten gemäß dem Gesetz von Moore rapide zugenommen. Dies gilt für Speicherkapazität, Verarbeitungskapazität und Kommunikationsbandbreite. Wir sind jetzt in der Lage, Daten auf Exabyte-Ebene zu speichern und zu verarbeiten. Zur Veranschaulichung würde das Speichern von 100 Exabyte Daten auf 720-MB-CD-ROMs einen Stapel erfordern, der fast den Mond erreichen würde.
Diese Entwicklungen haben unsere Praktiken der Informationsbereitstellung grundlegend verändert. Die raschen Veränderungen haben die Notwendigkeit einer sorgfältigen Prüfung der Erwünschtheit von Wirkungen erhöht. Einige sprechen sogar von einer digitalen Revolution als einem Technologiesprung ähnlich der industriellen Revolution oder einer digitalen Revolution als einer Revolution im Verständnis der menschlichen Natur und der Welt, ähnlich den Revolutionen von Copernicus, Darwin und Freud (Floridi 2008). Sowohl im technischen als auch im erkenntnistheoretischen Sinne wurde der Schwerpunkt auf Konnektivität und Interaktion gelegt. Der physische Raum hat an Bedeutung verloren, Informationen sind allgegenwärtig und auch die sozialen Beziehungen haben sich angepasst.
Wie wir den Datenschutz aus moralischen Gründen für die Auferlegung von Beschränkungen für den Zugang zu und / oder die Verwendung persönlicher Informationen beschrieben haben, wirft die durch die Informationstechnologie auferlegte erhöhte Konnektivität viele Fragen auf. In einem beschreibenden Sinne hat der Zugang zugenommen, was im normativen Sinne die Berücksichtigung der Wünschbarkeit dieser Entwicklung und die Bewertung des Regulierungspotenzials durch Technologie (Lessig 1999), Institutionen und / oder Gesetze erfordert.
Da die Konnektivität den Zugriff auf Informationen erhöht, erhöht sich auch die Möglichkeit für Agenten, basierend auf den neuen Informationsquellen zu handeln. Wenn diese Quellen personenbezogene Daten enthalten, treten leicht Risiken für Schaden, Ungleichheit, Diskriminierung und Verlust der Autonomie auf. Beispielsweise haben Ihre Feinde möglicherweise weniger Schwierigkeiten herauszufinden, wo Sie sich befinden, Benutzer sind möglicherweise versucht, die Privatsphäre für wahrgenommene Vorteile in Online-Umgebungen aufzugeben, und Arbeitgeber verwenden möglicherweise Online-Informationen, um die Einstellung bestimmter Personengruppen zu vermeiden. Darüber hinaus können Systeme und nicht Benutzer entscheiden, welche Informationen angezeigt werden, sodass Benutzer nur mit Nachrichten konfrontiert werden, die ihren Profilen entsprechen.
Obwohl die Technologie auf Geräteebene betrieben wird, besteht die Informationstechnologie aus einem komplexen System sozio-technischer Praktiken, und ihr Nutzungskontext bildet die Grundlage für die Erörterung ihrer Rolle bei der Änderung der Möglichkeiten für den Zugriff auf Informationen und damit für die Beeinträchtigung der Privatsphäre. In den folgenden Abschnitten werden einige spezifische Entwicklungen und ihre Auswirkungen erörtert.
2.2 Internet
Das Internet, das ursprünglich in den 1960er Jahren konzipiert und in den 1980er Jahren als wissenschaftliches Netzwerk für den Informationsaustausch entwickelt wurde, war nicht dazu gedacht, den Informationsfluss zu trennen (Michener 1999). Das heutige World Wide Web war nicht vorgesehen, ebenso wenig wie die Möglichkeit eines Missbrauchs des Internets. Websites sozialer Netzwerke wurden für die Verwendung in einer Community von Personen entwickelt, die sich im wirklichen Leben kannten - zunächst hauptsächlich im akademischen Umfeld - und nicht für eine weltweite Benutzergemeinschaft entwickelt wurden (Ellison 2007). Es wurde davon ausgegangen, dass das Teilen mit engen Freunden keinen Schaden anrichten würde, und Datenschutz und Sicherheit standen erst auf der Tagesordnung, wenn das Netzwerk größer wurde. Dies bedeutet, dass Datenschutzbedenken häufig als Add-Ons und nicht als Design behandelt werden mussten.
Ein Hauptthema in der Diskussion über den Datenschutz im Internet ist die Verwendung von Cookies (Palmer 2005). Cookies sind kleine Daten, die Websites auf dem Computer des Benutzers speichern, um die Personalisierung der Website zu ermöglichen. Einige Cookies können jedoch verwendet werden, um den Benutzer auf mehreren Websites zu verfolgen (Tracking-Cookies). So können beispielsweise Anzeigen für ein Produkt geschaltet werden, das der Benutzer kürzlich auf einer völlig anderen Website angesehen hat. Auch hier ist nicht immer klar, wofür die generierten Informationen verwendet werden. Gesetze, die eine Einwilligung des Benutzers für die Verwendung von Cookies erfordern, sind nicht immer erfolgreich, um das Kontrollniveau zu erhöhen, da die Einwilligungsanfragen den Aufgabenfluss beeinträchtigen und der Benutzer Einwilligungsanfragen einfach wegklicken kann (Leenes & Kosta 2015). In ähnlicher Weise sind Funktionen von Websites sozialer Netzwerke in andere Websites eingebettet (zMit der Schaltfläche "Gefällt mir" kann die Website des sozialen Netzwerks die vom Benutzer besuchten Websites identifizieren (Krishnamurthy & Wills 2009).
Die jüngste Entwicklung des Cloud Computing erhöht die zahlreichen Datenschutzbedenken (Ruiter & Warnier 2011). Während Informationen aus dem Internet verfügbar waren, wurden Benutzerdaten und -programme weiterhin lokal gespeichert, sodass Programmanbieter keinen Zugriff auf die Daten und Nutzungsstatistiken haben. Beim Cloud Computing sind sowohl Daten als auch Programme online (in der Cloud), und es ist nicht immer klar, wofür die vom Benutzer generierten und vom System generierten Daten verwendet werden. Da sich Daten an anderer Stelle auf der Welt befinden, ist nicht einmal immer klar, welches Recht anwendbar ist und welche Behörden den Zugriff auf die Daten verlangen können. Von besonderer Bedeutung sind hier Daten, die von Onlinediensten und Apps wie Suchmaschinen und Spielen gesammelt werden. Welche Daten von Anwendungen verwendet und kommuniziert werden (Browserverlauf, Kontaktlisten usw.), ist nicht immer klar.und selbst wenn dies der Fall ist, besteht die einzige Möglichkeit für den Benutzer möglicherweise darin, die Anwendung nicht zu verwenden.
In den folgenden Abschnitten werden einige Besonderheiten des Datenschutzes im Internet (soziale Medien und Big Data) erläutert.
2.3 Soziale Medien
Social Media stellen zusätzliche Herausforderungen. Bei der Frage geht es nicht nur um die moralischen Gründe für die Einschränkung des Zugangs zu Informationen, sondern auch um die moralischen Gründe für die Einschränkung der Aufforderung an Benutzer, alle Arten von persönlichen Informationen einzureichen. Websites in sozialen Netzwerken laden den Benutzer ein, mehr Daten zu generieren, um den Wert der Website zu erhöhen („Ihr Profil ist…% vollständig“). Benutzer sind versucht, ihre persönlichen Daten gegen die Vorteile der Nutzung von Diensten auszutauschen und sowohl diese Daten als auch ihre Aufmerksamkeit als Bezahlung für die Dienste bereitzustellen. Darüber hinaus wissen Benutzer möglicherweise nicht einmal, welche Informationen sie bereitstellen möchten, wie im oben genannten Fall der Schaltfläche "Gefällt mir" auf anderen Websites. Die bloße Einschränkung des Zugangs zu persönlichen Informationen wird den hier behandelten Fragen nicht gerecht.und die grundlegendere Frage liegt in der Steuerung des Verhaltens der Benutzer beim Teilen. Wenn der Dienst kostenlos ist, werden die Daten als Zahlungsmittel benötigt.
Eine Möglichkeit, die Versuchung von Benutzern zum Teilen einzuschränken, besteht darin, dass die Standardeinstellungen für den Datenschutz streng sind. Selbst dann beschränkt dies den Zugriff für andere Benutzer („Freunde von Freunden“), jedoch nicht den Zugriff für den Dienstanbieter. Solche Einschränkungen schränken auch den Wert und die Verwendbarkeit der Websites sozialer Netzwerke selbst ein und können die positiven Auswirkungen solcher Dienste verringern. Ein besonderes Beispiel für datenschutzfreundliche Standardeinstellungen ist das Opt-In im Gegensatz zum Opt-Out-Ansatz. Wenn der Benutzer eine explizite Aktion ausführen muss, um Daten freizugeben oder einen Dienst oder eine Mailingliste zu abonnieren, sind die daraus resultierenden Auswirkungen für den Benutzer möglicherweise akzeptabler. Viel hängt jedoch noch davon ab, wie die Wahl getroffen wird (Bellman, Johnson & Lohse 2001).
2.4 Big Data
Benutzer generieren online eine Menge Daten. Hierbei handelt es sich nicht nur um vom Benutzer explizit eingegebene Daten, sondern auch um zahlreiche Statistiken zum Benutzerverhalten: besuchte Websites, angeklickte Links, eingegebene Suchbegriffe usw. Data Mining kann verwendet werden, um Muster aus solchen Daten zu extrahieren, die dann zum Erstellen verwendet werden können Entscheidungen über den Benutzer. Diese können sich nur auf das Online-Erlebnis auswirken (angezeigte Werbung), aber je nachdem, welche Parteien Zugriff auf die Informationen haben, können sie sich auch auf den Benutzer in völlig unterschiedlichen Kontexten auswirken.
Insbesondere können Big Data zur Profilerstellung des Benutzers verwendet werden (Hildebrandt 2008), wodurch Muster typischer Kombinationen von Benutzereigenschaften erstellt werden, die dann zur Vorhersage von Interessen und Verhalten verwendet werden können. Eine unschuldige Anwendung lautet „Sie mögen vielleicht auch…“, aber abhängig von den verfügbaren Daten können empfindlichere Ableitungen vorgenommen werden, wie z. B. die wahrscheinlichste Religion oder sexuelle Präferenz. Diese Ableitungen könnten dann wiederum zu Ungleichbehandlung oder Diskriminierung führen. Wenn ein Benutzer einer bestimmten Gruppe zugeordnet werden kann, auch wenn dies nur wahrscheinlich ist, kann dies die von anderen ergriffenen Maßnahmen beeinflussen (Taylor, Floridi & Van der Sloot 2017). Beispielsweise kann die Profilerstellung zur Ablehnung einer Versicherung oder einer Kreditkarte führen. In diesem Fall ist der Gewinn der Hauptgrund für die Diskriminierung. Wenn solche Entscheidungen auf Profilerstellung basieren,Es kann schwierig sein, sie herauszufordern oder sogar die Erklärungen dahinter herauszufinden. Profiling könnte auch von Organisationen oder möglichen zukünftigen Regierungen verwendet werden, die Diskriminierung bestimmter Gruppen auf ihrer politischen Agenda haben, um ihre Ziele zu finden und ihnen den Zugang zu Dienstleistungen zu verweigern, oder noch schlimmer.
Big Data entsteht nicht nur aus Internet-Transaktionen. Ebenso können Daten beim Einkaufen, bei der Aufzeichnung durch Überwachungskameras in öffentlichen oder privaten Räumen oder bei Verwendung von Smartcard-basierten Zahlungssystemen für öffentliche Verkehrsmittel gesammelt werden. Alle diese Daten könnten verwendet werden, um Bürger zu profilieren und Entscheidungen auf der Grundlage solcher Profile zu treffen. Beispielsweise könnten Einkaufsdaten verwendet werden, um Informationen über gesunde Ernährungsgewohnheiten an bestimmte Personen zu senden, aber auch für Versicherungsentscheidungen. Nach dem EU-Datenschutzgesetz ist für die Verarbeitung personenbezogener Daten eine Genehmigung erforderlich, die nur für den Zweck verarbeitet werden kann, für den sie erhalten wurden. Besondere Herausforderungen sind daher (a) wie man eine Erlaubnis erhält, wenn der Benutzer nicht explizit an einer Transaktion beteiligt ist (wie im Fall einer Überwachung), und (b) wie man ein "Funktionskriechen" verhindert, d. H. Daten werden nach ihrer Erfassung für verschiedene Zwecke verwendet (wie dies beispielsweise bei DNA-Datenbanken der Fall sein kann (Dahl & Sætnan 2009).
Ein besonderes Problem könnte sich aus genetischen und genomischen Daten ergeben (Tavani 2004, Bruynseels & van den Hoven, 2015). Wie andere Daten kann die Genomik verwendet werden, um Vorhersagen zu treffen, und könnte insbesondere das Risiko von Krankheiten vorhersagen. Neben anderen, die Zugang zu detaillierten Benutzerprofilen haben, ist hier eine grundlegende Frage, ob die Person wissen sollte, was über sie bekannt ist. Im Allgemeinen kann gesagt werden, dass Benutzer das Recht haben, auf über sie gespeicherte Informationen zuzugreifen. In diesem Fall besteht jedoch möglicherweise auch das Recht, nicht zu wissen, insbesondere wann die Kenntnis der Daten (z. B. das Risiko von Krankheiten) die Daten verringern würde Wohlbefinden - zum Beispiel durch Angst - ohne Behandlung zu ermöglichen. In Bezug auf frühere Beispiele möchte man möglicherweise auch nicht die Muster im eigenen Einkaufsverhalten kennen.
2.5 Mobile Geräte
Da Benutzer zunehmend vernetzte Geräte wie Smartphones besitzen, sammeln und senden mobile Geräte immer mehr Daten. Diese Geräte enthalten normalerweise einen Bereich von alt = "sep man icon" /> Zitieren dieses Eintrags.

Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.

Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.
Andere Internetquellen
- Albright, J., 2016, „Wie Trumps Kampagne den neuen datenindustriellen Komplex nutzte, um die Wahl zu gewinnen“, LSE, US Center, USApp-American Politics and Policy Blog.
- Allen, C., 2016, Der Weg zur selbstsouveränen Identität, Coindesk.
- Cadwalladr, C., 2019, Facebooks Rolle beim Brexit - und die Bedrohung der Demokratie. TED Talk
- Danezis, G & S. Gürses, 2010, „Ein kritischer Rückblick auf 10 Jahre Datenschutztechnologie.“
- Gellman, R., 2014, „Faire Informationspraktiken: eine grundlegende Geschichte“, Version 2.12, 3. August 2014, Online-Manuskript.
- Nakamoto, S., Bitcoin: Ein Peer-to-Peer-E-Cash-System, www.bitcoin.org.
- PCI DSS (= Datensicherheitsstandard für die Zahlungskartenindustrie), Version 3.2 (2018), PCI DSS-bezogene Dokumente, PCI Security Standards Council, LLC.
- Richter, H., W. Mostowski und E. Poll, 2008, „Fingerprinting-Pässe“, vorgestellt auf der NLUUG-Frühjahrskonferenz für Sicherheit.
- Elektronisches Datenschutzinformationszentrum.
- Europäische Kommission, Datenschutz.
- US-Außenministerium, Datenschutzgesetz.