Computing Und Moralische Verantwortung

Inhaltsverzeichnis:

Computing Und Moralische Verantwortung
Computing Und Moralische Verantwortung

Video: Computing Und Moralische Verantwortung

Video: Computing Und Moralische Verantwortung
Video: Werte – Folge 9: Verantwortung 2023, November
Anonim

Dies ist eine Datei im Archiv der Stanford Encyclopedia of Philosophy.

Computing und moralische Verantwortung

Erstveröffentlichung Di 10. August 2004

„Wenn Technologie in eine Umgebung eingebracht wird, ändern sich die Rollen und Verantwortlichkeiten derjenigen in dieser Umgebung. Was offensichtlich gewesen sein könnte, um die Verantwortung in einem weniger technologisch unterstützten Umfeld zu bewerten, wird unklar, wenn das Gleichgewicht zwischen Mensch und Technologie mit der Einführung neuer Technologien neu kalibriert wird. In solchen Fällen müssen die neuen Verantwortlichkeiten und Beziehungen identifiziert und artikuliert werden, damit die Menschen wissen, was ihre neue Rolle beinhaltet und welche Voraussetzungen dafür erforderlich sind. “(Cass 71)

Die Diskussionen über Computer und moralische Verantwortung drehten sich hauptsächlich um die Notwendigkeit, solche Rollen und Verantwortlichkeiten neu zu bewerten, häufig angesichts von Verletzungen oder Todesfällen infolge von Computerfehlern. Drei Hauptuntersuchungslinien sind besonders hervorzuheben. Erstens haben mehrere Autoren versucht, die Verantwortung für die Verwendung von Computersystemen zu ermitteln, insbesondere wenn diese Verwendung zu Fehlern oder Schäden führt. Diese Bemühungen umfassen Analysen bestimmter Fallstudien, die Ermittlung von Hindernissen für die Verantwortung, Empfehlungen zur Überwindung dieser Hindernisse und die Klärung der Verantwortlichkeiten der verschiedenen beteiligten Parteien. Zweitens haben mehrere Autoren diskutiert, ob und warum Computer selbst moralisch verantwortlich gemacht werden könnten. Dritte,Mehrere Autoren haben Hinweise gegeben, ob und wann Menschen verantwortungsbewusst die Entscheidungsbefugnis an Computersysteme abgeben könnten.

Viele der Bedenken, die bei der Analyse der Verantwortung für die Computernutzung geäußert wurden, könnten ebenso gut auf andere Technologieformen übertragen werden. Die zeitgenössische Verwendung von Computern zur Modellierung der menschlichen Erkenntnis, kombiniert mit philosophischen Diskussionen über die Möglichkeit des Computerbewusstseins und die Verbreitung von Science-Fiction-Darstellungen von aufschlussreichen und fürsorglichen Androiden sowie die Formbarkeit der Computertechnologie, ermutigen uns jedoch, uns diese Computer vorzustellen (im Gegensatz dazu) andere Technologien) könnten kognitive Fähigkeiten haben (oder eines Tages erreichen), die denen des Menschen ebenbürtig sind. Kurz gesagt, während die Schuld an einer Waffe eindeutig unangemessen ist (dh Waffen töten keine Menschen, Menschen töten Menschen), ist die Schuld an einem Computer gerade plausibel genug, um uns dazu zu verleiten, dies unter der Illusion zu tun, dass wir damit durchkommen könnten. So,Eine sorgfältige Prüfung, ob Computer zur Verantwortung gezogen werden könnten und (falls ja) wann ihnen Verantwortlichkeiten übertragen werden sollten, ist gerechtfertigt. Solche Diskussionen fordern uns nicht nur heraus, das Potenzial und die Grenzen der Computertechnologie besser zu verstehen, sondern auch unsere eigenen menschlichen Stärken und Schwächen besser zu verstehen.

  • 1. Verantwortung
  • 2. Verantwortung für die Computernutzung

    • 2.1 Fallstudien [noch nicht verfügbar]
    • 2.2 Hindernisse für die Verantwortung

      • 2.2.1 Das Problem vieler Hände
      • 2.2.2 Fehler
      • 2.2.3 Den Computer beschuldigen
      • 2.2.4 Eigentum ohne Haftung
      • 2.2.5 Schlechte Formulierung von Normen
      • 2.2.6 Annahme ethischer Neutralität
    • 2.3 Empfehlungen zur Überwindung von Hindernissen

      • 2.3.1 Stellen Sie sicher, dass unser Verantwortungsbewusstsein für die jeweilige Aufgabe angemessen ist
      • 2.3.2 Neugestaltung des Computersystems
      • 2.3.3 Normen klar formulieren
    • 2.4 Klärung der Verantwortlichkeiten
  • 3. Können Computer moralisch verantwortlich sein?
  • 4. Können Menschen Computern verantwortungsbewusst Entscheidungsbefugnisse geben?
  • Literaturverzeichnis
  • Andere Internetquellen
  • Verwandte Einträge

1. Verantwortung

Explizit oder implizit in vielen Diskussionen über Computer und Verantwortung ist Harts (1985) Analyse verschiedener Verantwortungssinne, einschließlich Rollenverantwortung, Kausalverantwortung, Haftungsverantwortung und Kapazitätsverantwortung. Diese Sinne (und andere, die von einzelnen Autoren nach Bedarf identifiziert wurden) bieten einen Rahmen für die Erforschung von Computern und moralischer Verantwortung.

Rollenverantwortung bezieht sich auf die Erfüllung oder Erfüllung der Pflichten, die mit der sozialen Rolle einer Person verbunden sind. Einerseits ist man für die Erfüllung der mit seiner Rolle verbundenen Aufgaben verantwortlich; Andererseits ist einer dafür verantwortlich, ob er diese Aufgaben tatsächlich erfüllt.

Kausale Verantwortung ist ein rückwirkendes Verantwortungsbewusstsein, das das Bestehen eines kausalen Zusammenhangs zwischen dem Agenten und den Folgen beinhaltet, für die der Agent (wohl) verantwortlich ist.

Haftung-Verantwortung bezieht sich auf die Verantwortung für die Verursachung von Schäden unter Verstoß gegen das Gesetz. In der Regel handelt es sich bei der Haftung um ein Verschulden, das Feinberg (1968) als kausal (dh die Handlung hat den Schaden verursacht), als ein Verschuldenszustand (dh der Agent war schuld, weil die Handlung einen Schaden unangemessen wahrscheinlich gemacht hat, entweder vorsätzlich oder fahrlässig) analysiert) und eine kausale Relevanzbedingung (dh die Art des wahrscheinlichen Schadens war von der gleichen Art wie der tatsächlich verursachte Schaden). Die Haftungsverantwortung konzentriert sich in erster Linie auf die Identifizierung, wer (oder was) den Schaden (vorsätzlich oder fahrlässig) verursacht hat und wer (oder was) dafür bezahlen soll.

Schließlich beinhaltet Kapazitätsverantwortung die Fähigkeit, das von den einschlägigen Normen geforderte Verhalten (sei es legal, moralisch oder anderweitig) zu verstehen, zu überlegen, was angesichts dieser Anforderungen zu tun ist, und das eigene Verhalten im Einklang mit den Ergebnissen zu kontrollieren solcher Überlegungen. (Hart 1985) Kapazitätsverantwortung hat zwei Sinne. Einerseits ist man (rückwirkend) dafür verantwortlich, eine bestimmte Handlung oder Konsequenz ausgeführt zu haben (z. B. ist er dafür verantwortlich, seine Schwester zu schlagen). Andererseits können die psychologischen Fähigkeiten eines Menschen so sein, dass die Frage, ob man für eine bestimmte Handlung verantwortlich ist, Unsinn sein kann.

Wie oben erwähnt, bieten diese Sinne (und andere, die von einzelnen Autoren nach Bedarf identifiziert wurden) einen Rahmen für die Erforschung von Computern und moralischer Verantwortung. Sie ermöglichen es uns, im Nachhinein zu analysieren, wer für die Folgen der Computernutzung verantwortlich ist (z. B. Welche Menschen haben eine kausale Rolle gespielt? Haben sie dies auf fehlerhafte, dh vorsätzlich oder fahrlässig schädliche Weise getan? Wer (wenn jemand) haftet zur Bestrafung oder Entschädigung?). Sie ermöglichen es uns, zukünftige Probleme zu antizipieren und zu verhindern (z. B. Welche Rolle spielen die verschiedenen Parteien bei der Erstellung, Implementierung und Nutzung von Computern? Sind sich die verschiedenen Parteien dieser Verantwortlichkeiten bewusst, in der Lage, sie zu verstehen und zu erfüllen? Welchen Strafen oder Geldstrafen unterliegen sie, wenn sie scheitern?). Sie ermöglichen es uns zu überlegen, ob Computer selbst verantwortlich sein könnten (z. B. Sind sie in der Lage, ihre Handlungen zu verstehen und zu steuern - insbesondere können sie absichtlich handeln?). Schließlich ermöglichen sie uns zu beurteilen, welche Entscheidungen (falls vorhanden) Computer nicht treffen sollten erlaubt zu machen (z. B. Sind Computer besser als Menschen darin, bestimmte Rollen zu übernehmen? Lässt ein Computer Entscheidungen fahrlässig treffen? Untergräbt oder verringert die Übergabe von Entscheidungen an Computer unsere Fähigkeit, unsere Verantwortung als menschliche Agenten zu verstehen und zu erfüllen?). Können Computer besser als Menschen bestimmte Rollen übernehmen? Ist es fahrlässig, einen Computer Entscheidungen treffen zu lassen? Untergräbt oder verringert die Übergabe von Entscheidungen an Computer unsere Fähigkeit, unsere Verantwortung als menschliche Agenten zu verstehen und zu erfüllen?). Können Computer besser als Menschen bestimmte Rollen übernehmen? Ist es fahrlässig, einen Computer Entscheidungen treffen zu lassen? Untergräbt oder verringert die Übergabe von Entscheidungen an Computer unsere Fähigkeit, unsere Verantwortung als menschliche Agenten zu verstehen und zu erfüllen?).

Trotz dieser Unterschiede ist Verantwortung häufig mit Haftung verbunden. Ein ausschließlicher Fokus auf die Haftung (insbesondere wer gesetzlich zum Ersatz von Schäden verpflichtet ist) übersieht jedoch viele relevante und nützliche Aspekte der Verantwortung, und mehrere Autoren versuchen, unsere Aufmerksamkeit wieder auf diese wertvolleren Aspekte zu lenken. Zum Beispiel konzentrieren sich Nissenbaum (1994; 1996) und Kuflik (1999) auf Verantwortlichkeit oder Verantwortlichkeit als einen entscheidenden Aspekt der Verantwortung, und Gotterbarn (2001) und Ladd (1989) lehnen eine negative Darstellung der Verantwortung ab (dh eine, um die es in erster Linie geht Beschuldigung und Bestrafung) und stattdessen eine positive Darstellung der Verantwortung (dh eine, die sich auf die Identifizierung und Erfüllung von Pflichten auf der Grundlage von Rollen oder Beziehungen konzentriert). Diese Kritikpunkte sind besonders wichtig bei der Beurteilung der Verantwortung für die Computernutzung, da die vorgeschlagenen Alternativen nicht exklusiv sind und die Komplexität der untersuchten Systeme besser berücksichtigen. Wie Ladd es ausdrückt: „Die Verantwortung einer Person bedeutet nicht, dass auch andere Personen nicht verantwortlich sind. [Darüber hinaus] muss die Verantwortung nicht immer direkt und unmittelbar sein. es kann sein und ist häufiger indirekt und fern “(1989, 213).

2. Verantwortung für die Computernutzung

Computer sind die Produkte von mehr oder weniger verantwortungsbewussten Menschen; Daher konzentrieren sich die meisten Analysen der Verantwortung für die Verwendung solcher Systeme (sowie der Folgen einer solchen Verwendung) auf die Menschen, die diese Systeme erstellen, implementieren und verwenden. Wenn man sich auf Moral konzentriert (im Gegensatz zu Recht [1]) Verantwortung, die Hauptmotivation für die Identifizierung der Verantwortlichen ist die Erkenntnis, dass „Rechenschaftspflicht ein wirksames Instrument ist, um bessere Praktiken und folglich zuverlässigere und vertrauenswürdigere Systeme zu erreichen“(Nissenbaum 1994, 74). Zu diesem Zweck betrachten Leveson und Turner (1993) den Fall der Therac-25-Fehlfunktion ausführlich; Gotterbarn (2001), Friedman und Kahn (1992), Johnson und Mulvey (1995), Nissenbaum (1994; 1996) und Ladd (1989) untersuchen alle die allgemeine Frage der Verantwortung für die Computernutzung; und Murray (2001) und Cass (1996) geben den verschiedenen beteiligten Parteien konkrete Hinweise.

Dieser Abschnitt enthält eine kurze Erörterung mehrerer besonderer und bemerkenswerter Fälle, die Ermittlung mehrerer wesentlicher Hindernisse für die Verantwortung, Empfehlungen zur Überwindung dieser Hindernisse und die Klärung der Verantwortlichkeiten der verschiedenen beteiligten Parteien.

  • 2.1 Fallstudien [noch nicht verfügbar]
  • 2.2 Hindernisse für die Verantwortung
  • 2.3 Empfehlungen zur Überwindung von Hindernissen
  • 2.4 Klärung der Verantwortlichkeiten

2.1 Fallstudien

[Noch nicht verfügbar]

2.2 Hindernisse für die Verantwortung

Nissenbaum (1994; 1996) identifiziert vier Hindernisse für die Rechenschaftspflicht: das Problem vieler Hände, Fehler, Schuldzuweisungen an den Computer und Eigentum ohne Haftung. Diese Barrieren werden auch von anderen Autoren diskutiert (Friedman und Kahn (1992), Gotterbarn (2001), Johnson und Mulvey (1995) und Ladd (1989)), und zwei zusätzliche Barrieren ergeben sich aus der Literatur: schlechte Artikulation von Normen, und die Annahme der ethischen Neutralität von Computern. Es folgt eine Diskussion jeder dieser Barrieren.

  • 2.2.1 Das Problem vieler Hände
  • 2.2.2 Fehler
  • 2.2.3 Den Computer beschuldigen
  • 2.2.4 Eigentum ohne Haftung
  • 2.2.5 Schlechte Formulierung von Normen
  • 2.2.6 Annahme ethischer Neutralität

2.2.1 Das Problem vieler Hände

Das Problem vieler Hände ist das Ergebnis der Tatsache, dass komplexe Computersysteme von Personengruppen (z. B. Projektteams, Unternehmen) hergestellt werden, wodurch es schwierig wird, festzustellen, wer für Fehler oder schädliche Folgen der Verwendung verantwortlich ist. Wie Gotterbarn (2001) feststellt, ist dieses Problem teilweise auf ein Fehlverhaltensmodell der Verantwortung zurückzuführen, das Schuldzuweisungen und Bestrafung vorsieht, und teilweise auf ein individualistisches Verantwortungsmodell, das darauf abzielt, einer Person Verantwortung zuzuweisen. Dieses letztere individualistische Modell ist insbesondere aus einer Reihe von Gründen für komplexe Computersysteme unzureichend.

Wie Nissenbaum (1994; 1996) unter Verwendung der oben diskutierten Fehleranalyse von Feinberg hervorhebt, ist die Person, die die Fehlerkriterien erfüllt - dh der Programmierer oder Designer - typischerweise nicht die Person, die die kausalen Kriterien erfüllt, dh der Benutzer. Darüber hinaus besteht das institutionelle Umfeld, in dem die Systeme entwickelt werden, aus Gruppen. Daher werden Entscheidungen häufig von mehr als einer Person getroffen (sodass keine Person die Fehlerkriterien erfüllt) und häufig von mehr als einer Person umgesetzt (sodass keine Person die kausalen Kriterien erfüllt). Darüber hinaus führt die Praxis der Wiederverwendung von Code zu mehreren und nicht unbedingt koordinierten Händen bei der Erstellung von Systemen. Schließlich ist es nicht ungewöhnlich, einen Teil eines Systems - oder sogar ein ganzes System - in einer neuen Anwendung wiederzuverwenden. so,Die Hände, die die neue Anwendung implementieren, sind möglicherweise schlecht mit den Händen koordiniert, die sie erstellt haben.

Dieses Problem ist offensichtlich, wenn sich Entwickler beispielsweise beschweren, dass sie keine Kontrolle darüber haben, wie Benutzer das System verwenden (Johnson und Mulvey (1995)), wenn Designer Kunden für die Bereitstellung unzureichender Spezifikationen verantwortlich machen (Gotterbarn (2001)), wenn Benutzer Entwickler und Implementierer erwarten Verantwortung angesichts katastrophaler Folgen zu übernehmen (Johnson und Mulvey (1995)) und wenn die Identifizierung mehrerer verantwortlicher Parteien eine verminderte Verantwortung für alle impliziert (Gotterbarn (2001). Die Berufung auf Begriffe der kollektiven Verantwortung kann den Beteiligten helfen, diese zu akzeptieren ein stärkeres Verantwortungsbewusstsein (siehe z. B. Murray (2001)), aber es kann auch die Verbesserung von Praxis und Technologie hemmen, wenn es keine Untersuchung dessen beinhaltet, was schief gelaufen ist (Ladd (1989)).

2.2.2 Fehler

Nicht nur die menschlichen Organisationen, die diese Systeme erstellen, sind komplex, sondern auch die Computersysteme selbst. Diese zunehmende Komplexität macht es schwieriger, Fehler sowohl vor der Verwendung des Systems als auch nach der Erkennung von Fehlern zu identifizieren und zu beheben. es macht es auch einfacher zu rechtfertigen, Probleme im Nachhinein nicht genau zu betrachten. Nissenbaum (1994; 1996) argumentiert, dass das Vorhandensein von Fehlern nicht nur zu erwarten ist, sondern häufig entschuldigt wird, da es keine klaren Standards für Fahrlässigkeit gibt. Ferner argumentiert Gotterbarn (2001), dass die Verwendung von Begriffen wie "Bugs" und "Computerfehler" anstelle von z. B. "Programmiererfehler" den Menschen davon abhält, diese Fehler als seine eigenen zu interpretieren, wodurch die Bemühungen, ähnliche Probleme in der EU zu verstehen und zu verhindern, behindert werden Zukunft.

2.2.3 Den Computer beschuldigen

Ein drittes Hindernis für die Verantwortung ist die Leichtigkeit, mit der wir Computer für schädliche Folgen verantwortlich machen können (Nissenbaum 1994; 1996). Dies ist das Ergebnis mehrerer miteinander verbundener Faktoren. Erstens ist der Computer häufig die unmittelbare Ursache des Schadens und erfüllt somit den kausalen Fehlerzustand, während der Mensch möglicherweise weit von den Folgen entfernt ist und somit den kausalen Zustand offensichtlich nicht erfüllt.

Zweitens schreiben Computer häufig Intentionalität zu (daher scheinen Computer auch die Fehlerbedingung zu erfüllen). Solche Zuschreibungen von Intentionalität sind sinnvoll (unabhängig davon, ob sie angemessen sind oder nicht), da die Folgen der Computernutzung nicht immer leicht oder offensichtlich als menschliches Handeln zu interpretieren sind. In der Tat stellen Friedman und Kahn (1992) fest, dass eine solche Anthropomorphisierung gefördert wird, wenn Computersysteme so konzipiert sind, dass sie mit dem Benutzer interagieren, als ob das System ein Mensch wäre, wodurch die Illusion eines Vermittlers erzeugt wird.

Drittens führen diese Computer dieselben Aufgaben aus, die zuvor von Menschen ausgeführt wurden, die nicht nur für die Ausführung dieser Aufgaben verantwortlich waren, sondern auch für die daraus resultierenden Schäden verantwortlich gemacht werden konnten. Diese Ersetzung des Menschen durch Computer erzeugt die Illusion, dass „wir unsere Entscheidungsbefugnisse an Computer delegiert oder abgedankt und Computer für Ergebnisse verantwortlich gemacht haben, für die früher Menschen verantwortlich waren“(Ladd 1989, 219). Diese Illusion ist besonders stark in Systemen mit geschlossenem Regelkreis (dh in denen das System Entscheidungen ohne menschliche Aufsicht trifft und auf diese reagiert), wenn sich das System als Experte auf diesem Gebiet etabliert hat, und in einigen Arten von Unterrichtstechnologien (Friedman und Kahn 1992).

Viertens ist es angesichts der unangemessen hohen Erwartungen der Benutzer an Computer sinnvoll, Computer zu beschuldigen (Johnson & Mulvey 1995): Wenn diese Erwartungen verletzt werden (wie sie sein werden), ist es das System, das sie verletzt hat und somit zum Ziel der Schuld wird. [2] Wie Gotterbarn (2001) feststellt, verstärkt die Komplexität des Systems dies, indem es schwierig wird, diese Erwartungen - und die nachfolgende Schuld - auf die entsprechenden beteiligten Menschen umzulenken.

Unter der Annahme des individuellen Verantwortungsmodells besteht schließlich keine Notwendigkeit, andere menschliche Faktoren zu untersuchen, sobald wir den Computer beschuldigt haben.

2.2.4 Eigentum ohne Haftung

Ein viertes Hindernis für die Verantwortung ist die derzeitige Praxis, die Privilegien und Eigentumsrechte an Software und Computersystemen zu erweitern, ohne dass die Eigentümer die Verantwortung für ihre Produkte übernehmen müssen (Nissenbaum 1994; 1996). Wie Johnson und Mulvey (1995) bemerken, erwarten Benutzer, dass Eigentümer und Schöpfer die Verantwortung für katastrophale Folgen übernehmen. Dies ist aufgrund ihrer Erfahrung mit anderen Produkten und Dienstleistungen sinnvoll, von denen einige einer verschuldensunabhängigen Haftung unterliegen (dh einer Haftung ohne Nachweis eines Verschuldens). Anstatt (vollständige oder teilweise) Verantwortung zu übernehmen, entziehen sich Eigentümer und Urheber der Verantwortung, indem sie beispielsweise den Kunden beschuldigen, unzureichende Spezifikationen angegeben zu haben (Gotterbarn 2001) und auf ihre mangelnde Kontrolle über die Implementierung oder Verwendung ihres Systems hinweisen (Johnson und Mulvey 1995)).

2.2.5 Schlechte Formulierung von Normen

Viele dieser Barrieren haben als Grundproblem die schlechte Artikulation und das vage Verständnis der relevanten Normen, ein Anliegen, das Johnson und Mulvey (1995) ausdrücklich angesprochen haben. Ohne ein klares Verständnis dafür, wofür jede Partei bei der Erstellung, Implementierung und Verwendung eines Systems verantwortlich ist, sind wir schlecht in der Lage, Fehler zu bewerten (was zum Problem vieler Hände beiträgt). Ohne ein klares Verständnis der Programmierstandards sind wir nicht in der Lage, unschuldige Fehler von vorsätzlichen oder fahrlässigen Programmiererfehlern zu unterscheiden (was zur Interpretation von Fehlern als "Fehler" beiträgt). Ohne ein klares Verständnis dessen, was wir vernünftigerweise vom System erwarten können, sind wir anfällig für enttäuschte Erwartungen (und die Versuchung, dem Computer die Schuld zu geben, der uns enttäuscht hat). Schließlich,Ohne ein klares Verständnis darüber, wann Urheber und Eigentümer haftbar gemacht werden müssen, sind Benutzer (und die gesamte Community) anfällig dafür, die Hauptlast der daraus resultierenden Schäden zu tragen.

2.2.6 Annahme ethischer Neutralität

Das letzte Hindernis für die Verantwortung ist die Annahme, dass Technologie ethisch neutral ist. Im Gegensatz zur Beschuldigung des Computers hindert uns diese Annahme daran, die Auswirkungen technologischer Entscheidungen auf unser Handeln zu berücksichtigen. Ladd (1989) schlägt vor, dass dies teilweise auf die Transparenz von Computersystemen zurückzuführen ist: Wenn wir sie nicht bemerken, berücksichtigen wir nicht, wie sich die Technologie auf unser Handeln auswirkt. Mit anderen Worten, die Annahme, dass Technologie ethisch neutral ist, ist ein Hindernis für die Verantwortung, da sie unsere Verantwortung für die Wahl des Einsatzes von Technologie sowie für die Wahl der zu verwendenden Technologie verschleiert.

Letztendlich ist diese Annahme der ethischen Neutralität jedoch falsch. Wie Ladd betont, "hat die Computertechnologie neue Verhaltensweisen und neue soziale Institutionen, neue Laster und neue Tugenden, neue Wege der Hilfe und neue Wege des Missbrauchs anderer Menschen geschaffen" (1989, 210-11). Ferner ist die analytische Unterscheidung zwischen Mitteln (dh Werkzeug oder Technologie) und Zweck in der Praxis verdeckt.

Leider verstärken einige Merkmale auf dem Gebiet des Rechnens die Annahme einer ethischen Neutralität. Zum Beispiel stellt Gotterbarn (2001) fest, dass das Rechnen in theoretischen Bereichen wie Mathematik und nicht in praktischen Bereichen wie Ingenieurwissenschaften und angewandten Wissenschaften gereift ist. Als solche werden Probleme und Lösungen in einem Kontext artikuliert und entwickelt, in dem ihre Auswirkungen auf die Menschheit weniger sichtbar sind als es sein sollte, was zu einem kurzsichtigen Problemlösungsstil führt, der den Kontext des Problems und die Folgen des Problems nicht berücksichtigt Lösung.

2.3 Empfehlungen zur Überwindung von Hindernissen

Drei Hauptbereiche von Empfehlungen sind vorherrschend. Erstens müssen wir sicherstellen, dass unser Verständnis (und unsere Annahmen über) Verantwortung für die jeweilige Aufgabe angemessen ist, nämlich unsere Verantwortungspraxis zur Verbesserung von Praxis und Technologie zu nutzen. Zweitens sollten wir Computersysteme neu entwerfen, um zu zeigen, dass sie nicht verantwortlich sind. Drittens sollten wir die Normen klar formulieren, die für die Erstellung, Implementierung und Verwendung von Computersystemen am relevantesten sind.

  • 2.3.1 Stellen Sie sicher, dass unser Verantwortungsbewusstsein für die jeweilige Aufgabe angemessen ist
  • 2.3.2 Neugestaltung des Computersystems
  • 2.3.3 Normen klar formulieren

2.3.1 Stellen Sie sicher, dass unser Verantwortungsbewusstsein für die jeweilige Aufgabe angemessen ist

Wie in der früheren Erörterung der Verantwortung (Abschnitt 1) erwähnt, empfiehlt Nissenbaum, dass wir „die Rechenschaftspflicht von der Entschädigungspflicht unterscheiden“(1994, 79), wobei sich die Haftung auf die Bestrafung und Entschädigung des Opfers und die Rechenschaftspflicht konzentriert über die Bewertung der Handlungen aller beteiligten Agenten. Gotterbarn (2001) und Ladds (1989) Befürwortung positiver und nicht negativer Verantwortung dienen demselben Zweck. Ferner befürworten Nissenbaum (1994; 1996) und Ladd (1989) ausdrücklich die Annahme, dass jemand verantwortlich ist, „egal wie schwierig es sein mag, zu bestimmen“(Ladd 216), „es sei denn, wir schließen nach sorgfältiger Prüfung, dass die fragliche Fehlfunktion vorliegt ist in der Tat niemandes Schuld “(Nissenbaum 1994, 79).

2.3.2 Neugestaltung des Computersystems

Die Versuchung, dem Computer die Schuld zu geben, kann angegangen werden, indem der Computer neu gestaltet wird, um seine mangelnde Kapazitätsverantwortung sichtbarer zu machen (Friedman und Millett 1997; Friedman und Kahn 1992). Zum Beispiel hilft die Neugestaltung von Computersystemen, um das spürbare Vorhandensein des Rechensystems zu minimieren, wenn nicht sogar zu beseitigen, indem beispielsweise eine direkte Manipulation von Dateien und Objekten ermöglicht wird, die Illusion zu beseitigen, dass der Computer ein Agent und daher verantwortlich ist. Darüber hinaus entscheiden Sie sich für Open-Loop-Systeme (bei denen das System lediglich „einem menschlichen Benutzer eine Vorgehensweise empfiehlt, der sich möglicherweise dafür entscheidet, der Empfehlung zu folgen“) und partizipative Entwurfsmethoden (die die Benutzer in den Entwurf des Systems einbeziehen)) helfen, Benutzer als aktive Entscheidungsträger sowohl in die Nutzung als auch in die Erstellung dieser Systeme zu integrieren (Friedman und Kahn 1992, 11)

Zwei weitere Strategien sind erwähnenswert. Zunächst könnten wir auch die Weisheit überdenken, das Computersystem zunächst zu verwenden (Ladd 1989; Moor 1979; Kuflik 1999). Kurz gesagt, diejenigen, die den Betrieb des betreffenden Computers überwachen, müssen ihre Verantwortung für die Entscheidung, das Computersystem zu verwenden, zunächst übernehmen und möglicherweise ihre Verantwortung durch Widerruf dieser Entscheidung ausüben. (zur weiteren Diskussion siehe Abschnitt 4), Obwohl es selbstverständlich ist, dass Computer in der Lage sein müssen, die Genauigkeit, Effizienz und Zuverlässigkeit der Menschen, deren Aufgaben sie jetzt ausführen, zu erreichen oder zu übertreffen, wurden bisher nur geringe Anstrengungen unternommen, um die Verantwortung dieser Menschen zu erfüllen oder zu übertreffen. Eine zweite Strategie besteht daher darin, verantwortungsbewusste Computer zu bauen (Ronald und Sipper 2001). Zu diesem Zweck erkennt Thompson (1999) an, dass Schulungen, Zertifizierungen und Bewertungen verwendet werden, um Menschen auf die Übernahme von Verantwortung vorzubereiten, und befürwortet ähnliche Maßnahmen in Bezug auf Computersysteme. (Ob Computer verantwortlich sein könnten, wird in Abschnitt 3 besprochen.)

2.3.3 Normen klar formulieren

Johnson und Mulvey (1995) erkennen an, dass ein Bewusstsein für Normen für unsere Praxis der Verantwortung von zentraler Bedeutung ist und eine Schlüsselrolle im Professionalisierungsprozess spielt, und argumentieren, dass es entscheidend ist, Normen klar zu formulieren.

Legen Sie Normen für die Beziehung zwischen Designer (Schöpfer) und Kunde fest. Johnson und Mulvey (1995) appellieren an das Treuhandmodell, um die Normen für die Beziehung zwischen dem Designer / Programmierer und dem Kunden zu klären. Das Treuhandmodell ist geeignet, wenn „eine Partei [z. B. der Designer] über besondere Fachkenntnisse verfügt und die andere Partei [z. B. der Kunde] diese Fachkenntnisse zur Verbesserung ihrer Entscheidungsfindung anstrebt“(61), und fördert die gemeinsame Entscheidungsfindung gegründet in einer fortwährenden vertrauensvollen Beziehung. Die weitere Klärung dessen, was jeder vom anderen erwarten kann, ist ein wichtiger Schritt in Richtung Professionalisierung.

Festlegung von Normen für die Zusammenarbeit mit Betroffenen. Dillard und Yuthas (2001) appellieren an Neibuhrs Verantwortungsethik und weisen darauf hin, dass verantwortungsbewusstes Verhalten die Identifizierung und Zusammenarbeit mit den betroffenen Mitgliedern der Gemeinschaft, die Berücksichtigung der Geschichte und Zukunft dieser Gemeinschaft und die Bereitschaft zur Berücksichtigung der eigenen Handlungen umfasst. Anstatt bestimmte Verhaltensweisen (dh die aus einem Entscheidungsprozess resultieren) als verantwortlich zu beschreiben, konzentrieren sie sich stattdessen auf die Verantwortung im Kontext des Entscheidungsprozesses und weisen insbesondere auf die Notwendigkeit hin, alle betroffenen Mitglieder der Gemeinschaft zu konsultieren.

Festlegung von Normen für die Herstellung und Verwendung von Computersystemen. Nissenbaum (1994; 1996) empfiehlt, „Richtlinien für die Herstellung sicherer und zuverlässigerer Computersysteme“zu formulieren (1994 79); Gotterbarn empfiehlt, dass diese Standards über die bloße „Sorgfaltspflicht“(dh Vermeidung direkter Schäden) hinausgehen, aber auch „die Sorge beinhalten, die positiven Auswirkungen für diejenigen, die von Computerartefakten betroffen sind, zu maximieren“(2001, 229).

Festlegen von Verhaltensnormen für die verschiedenen Rollen beim Erstellen, Implementieren und Verwenden von Computersystemen. Die Erhebung dieser Empfehlungen wird in Abschnitt 2.4 behandelt.

Festlegen von Normen zur (möglicherweise strengen) Haftung. Trotz ihres allgemeinen Fokus auf positive Verantwortung reagiert Nissenbaum auf die Unvermeidlichkeit von Fehlern und Eigentum ohne Haftung mit der Empfehlung, dass wir „eine strikte Haftung für fehlerhafte verbraucherorientierte Software sowie für Software auferlegen, deren Auswirkungen auf die Gesellschaft und den Einzelnen groß sind“(1994) 79).

2.4 Klärung der Verantwortlichkeiten

Insbesondere zwei Autoren - Murray (2001) und Cass (1996) - haben versucht, klare Normen für die verschiedenen Rollen bei der Schaffung von Computersystemen zu formulieren. Murrays Normen konzentrieren sich auf Rollenverantwortung, während Cass ausdrücklich auch moralische Verantwortlichkeiten einbezieht. Beide bieten nützliche Richtlinien zur Verbesserung der Praxis durch ein stärkeres Bewusstsein für Verantwortlichkeiten sowie Standards zur Bewertung von Fehlern.

Murray konzentriert sich hauptsächlich auf Rollenverantwortung und nicht auf moralische Verantwortung. Insgesamt geht es Murray darum, die gegenseitige Abhängigkeit von Computerprojekten aufzuzeigen. Zu diesem Zweck argumentiert er: „Das Ziel muss sein, eine IT-Projektmanagement-Philosophie zu entwickeln, die die Idee begründet, dass der Erfolg eines Projekts der Erfolg aller ist und ein Misserfolg der Misserfolg aller“(2001, 29).

Als Reaktion auf die Herausforderungen, die sich aus der Einführung eines Expertensystems (ES) in Kontexten ergeben, in denen es von Nicht-Experten konsultiert wird, definiert Cass die verschiedenen Rollen bei der Konzeption, Erstellung und Verwendung des Expertensystems neu, um eine Diskussion explizit einzubeziehen von wann ein Agent, der diese Rolle ausfüllt, moralisch für ein schlechtes Ergebnis verantwortlich gemacht werden kann. Diese Analyse liefert nicht nur Leitlinien für die nachträgliche Beurteilung der Verantwortung, sondern trägt auch dazu bei, „das Bewusstsein der Menschen für ihre Verpflichtungen und ihr Verschulden im ES-vermittelten Problemlösungsprozess zu schärfen“. (1996, 69) Zu diesem Zweck appelliert Cass an einen aristotelischen Verantwortungsbericht, in dem „jemand moralisch für eine Handlung verantwortlich ist, wenn er der Erreger der Handlung ist und wissentlich und freiwillig gehandelt hat“(70). Da alle an der Gestaltung, Erstellung,und die Verwendung des Expertensystems erfüllt die kausalen Kriterien. Die Analyse von Cass konzentriert sich hauptsächlich darauf, das Wissen zu identifizieren, das von jeder Person erwartet wird, und es mit anderen zu teilen, und alle potenziellen Zwangsumstände zu identifizieren, die den freiwilligen Charakter ihrer Handlungen untergraben könnten.

Einige besonders relevante Verantwortlichkeiten umfassen Folgendes. Erstens ist der Manager dafür verantwortlich, eine Umgebung zu schaffen, die den „freien Fluss kritischer Informationen über potenzielle Probleme“fördert (Cass 1996, 73). Die Expertin ist dafür verantwortlich, ihr Fachwissen (sowohl wissensbasiert als auch verfahrenstechnisch) zu teilen, die Grenzen dieses Fachwissens zu identifizieren, die Grenzen des Expertensystems als nichtmenschliche Expertin zu identifizieren und „Probleme zu antizipieren, auf die Benutzer beim Verstehen und / oder Anwenden stoßen können das Fachwissen “(Cass 1996, 74), um diese Grenzen und Probleme zu kompensieren oder (wenn die Probleme zu groß sind) sich überhaupt zu weigern, an dem Projekt teilzunehmen. Da Wissen für die Beurteilung der Verantwortung relevant ist, hängt die Verantwortung des Benutzers außerdem davon ab, ob der Benutzer ein Domain-Experte oder ein Domain-Neuling ist. Der Domain-Experte nutzt das Expertensystem, um eine zweite Meinung einzuholen oder möglicherweise im Rahmen seiner eigenen Berufsausbildung. Auf diese Weise kann der Domain-Experte die Konsultation sowie die daraus resultierende Beratung „kritisch bewerten“. Zwei Faktoren können die Verantwortung eines Domain-Experten untergraben: Erstens Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen.oder möglicherweise im Rahmen ihrer eigenen Berufsausbildung; Auf diese Weise kann der Domain-Experte die Konsultation sowie die daraus resultierende Beratung „kritisch bewerten“. Zwei Faktoren können die Verantwortung eines Domain-Experten untergraben: Erstens Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen.oder möglicherweise im Rahmen ihrer eigenen Berufsausbildung; Auf diese Weise kann der Domain-Experte die Konsultation sowie die daraus resultierende Beratung „kritisch bewerten“. Zwei Faktoren können die Verantwortung eines Domain-Experten untergraben: Erstens Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen. Der Domain-Experte kann die Beratung sowie die daraus resultierende Beratung „kritisch bewerten“. Zwei Faktoren können die Verantwortung eines Domain-Experten untergraben: Erstens Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen. Der Domain-Experte kann die Beratung sowie die daraus resultierende Beratung „kritisch bewerten“. Zwei Faktoren können die Verantwortung eines Domain-Experten untergraben: Erstens Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen. Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen. Zwangsrichtlinien, die verlangen, dass der Rat der ES unabhängig von der Einschätzung des Benutzers befolgt wird (wodurch die Fähigkeit des Benutzers, freiwillig zu handeln, untergraben wird); zweitens das Fehlen relevanter Umwelt- oder Kontextinformationen (wodurch die Fähigkeit des Benutzers, wissentlich zu handeln, untergraben wird). Im Gegensatz dazu kennt der Domain-Neuling die Domäne des Fachwissens nicht. Als solches ist der Anfänger dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen. Der Anfänger ist dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen. Der Anfänger ist dafür verantwortlich, diese Unwissenheit durch die Verwendung der Hilfe- und Erklärungsfunktionen des Expertensystems auszugleichen.

Cass erinnert den Leser daran, dass jede Person, die an der Konzeption, Erstellung und Nutzung des ES beteiligt ist, dafür verantwortlich ist, das relevante Wissen aus ihrem eigenen Fachgebiet zu haben und zu teilen und genug über andere Fachgebiete zu lernen, um dieses Kreuz angemessen sicherzustellen -Domänenkommunikation ist korrekt, selbst die besten Bemühungen können nicht garantieren, dass alle in diesem Prozess getroffenen Annahmen korrekt sind; Kurz gesagt, wir können nicht garantieren, dass es keine unfreiwillige Unwissenheit gibt.

3. Können Computer moralisch verantwortlich sein?

Wie oben in der Diskussion über Verantwortungsbarrieren (Abschnitt 2.2.3) erwartet und durch empirische Untersuchungen von Friedman und Millett (1997) sowie von Moon und Nass (1998) gestützt, schreiben Menschen Computern Verantwortung zu. [3]Dass wir dazu neigen, Computer zu beschuldigen, bedeutet natürlich nicht, dass wir damit gerechtfertigt sind. Obwohl Computersysteme eindeutig ursächlich für die Verletzungen und Todesfälle verantwortlich sein können, die sich aus ihrem fehlerhaften Betrieb ergeben, ist es nicht so klar, dass sie moralisch für diese Verletzungen oder Todesfälle verantwortlich gemacht werden können. In der Tat gehen viele Autoren einfach davon aus, dass Computer keine Kandidaten für Zuschreibungen moralischer Verantwortung sind. Ladd behauptet zum Beispiel, dass „es ein anthropomorpher Unsinn ist, Systemen, ob technologisch oder sozial, moralische Verantwortung zuzuschreiben“(1989, 218). Wie oben erläutert (Abschnitt 2.3.2), wird allgemein empfohlen, die Computer neu zu gestalten, um ihre mangelnde Verantwortung für den Benutzer sichtbarer zu machen (Friedman und Millett 1997; Friedman und Kahn 1992). Dennoch,Die Möglichkeit, dass Computer (moralisch) verantwortlich sein können, wurde von mehreren Autoren untersucht.[4]

Vor allem Dennetts Bericht über Intentionalität in Bezug auf eine absichtliche Haltung lizenziert die Zuweisung von Verantwortung an Computer. Sein Ansatz ist am deutlichsten in „Wenn HAL tötet, wer ist schuld?“Integriert. (1997), in dem er argumentiert, dass IBMs Deep Blue der beste Kandidat für die Rolle des verantwortlichen Gegners von Kasparov ist. Darüber hinaus argumentiert Dennett (1997), dass Intentionalität im Allgemeinen [5] und Intentionalität höherer Ordnung (z. B. Überzeugungen über Überzeugungen) im Besonderen [6]- Neben weltlichem Wissen und der Fähigkeit, Wahrnehmungsinputs zu verarbeiten, sind Voraussetzungen für moralische Verantwortung. Dies sind Eigenschaften, die 2001: Der HAL 9000-Computer eines Space Odyssey als solche dargestellt wird und die Dennett vorschlägt, dass echte Roboter wie Rodney Brooks Zahnrad eines Tages möglicherweise besitzen. Indem er schließlich mehrere potenziell entlastende Faktoren identifiziert - Wahnsinn, Gehirnwäsche (oder besser gesagt Programmierung) und Zwang (einschließlich Selbstverteidigung oder Loyalität gegenüber einem Ziel) -, schlägt er implizit vor, dass HAL im Allgemeinen genau ein legitimer Kandidat für moralische Verantwortung ist weil diese Art von Entschuldigungs- oder Befreiungsfaktoren ernsthaft auf HAL angewendet werden können.

Bechtel (1985) appelliert an eine modifizierte Version von Dennetts Konzept von Intentionssystemen, um seine Behauptung zu untermauern, dass Intentionalität für einen Computer möglich ist und Computer daher für ihre (absichtlichen) Entscheidungen verantwortlich sein könnten. [7] Nichts davon soll Menschen vom Haken lassen; Obwohl Menschen möglicherweise nicht selbst die Verantwortung für die Entscheidungen der Computer tragen, behauptet Bechtel, dass sie weiterhin „die Verantwortung dafür tragen werden, diese Systeme darauf vorzubereiten, Verantwortung zu übernehmen“(1985, 297).

Mit Blick auf die Zukunft, in der ein Computer als Mensch im Gespräch durchgehen könnte (dh als Turing Chatterbox zertifiziert ist), fragen Ronald und Sipper (2001), ob Turing Chatterboxes für ihre Handlungen zur Rechenschaft gezogen werden könnten. Sie deuten darauf hin, dass unsere derzeitige Praxis, Hersteller zur Verantwortung zu ziehen, irgendwann zusammenbrechen wird und „das Szenario [wird] weniger einem Hersteller ähnelt, der ein (garantiertes) Produkt herstellt, sondern eher dem der Eltern eines„ Vorbehaltsausrüsters “eines Kindes“(574)). Daher müssen wir uns nicht nur darum kümmern, ob Computer zur Verantwortung gezogen werden können, sondern auch darum, wie wir sie zur Verantwortung ziehen können.

Im Gegensatz dazu argumentieren Friedman und Kahn (1992), dass Computer keine moralischen Agenten sein können, weil ihnen (nach Searle (1980) und seinem chinesischen Raumargument) die Intentionalität fehlt, die für die Verantwortung notwendig ist. “(1992, 9)

Snapper (1985) befasst sich schließlich mit den Fällen ordnungsgemäß funktionierender und gut gestalteter Computer, die dennoch Fehler machen, und argumentiert, dass der Programmierer trotz Bedenken hinsichtlich der Kontrolle über das Programm und damit über die Ausgabecomputer des Computers absichtlich in der Lage ist Wahl. Unter Berufung auf eine aristotelische Analyse der moralischen Verantwortung argumentiert er jedoch weiter, dass sie nicht in der Lage sind, diese Entscheidungen angemessen zu beurteilen (z. B. zu bedauern). Ihre Entscheidungen können nicht als freiwillig verstanden werden und sie können daher nicht moralisch für ihre Entscheidungen verantwortlich sein. [8]

4. Können Menschen Computern verantwortungsbewusst Entscheidungsbefugnisse geben?

Kuflik (1999) identifiziert sechs Verantwortungssinne: (1) Kausale Verantwortung, (2) Funktionale Rollenverantwortung, (3) Moralische Verantwortlichkeit, (4) ehrenhaftes Verantwortungsbewusstsein, (5) Rollenverantwortung und (6) Aufsichtsverantwortung. Er nutzt diese sechs Sinne und fragt:

Wie viel Verantwortung (entweder im Sinne (2) oder im Sinne (5)) könnten verantwortungsbewusste (Sinn (3)) Menschen verantwortungsbewusst (Sinn (4)) einem Computer zuweisen, ohne sich gleichzeitig die Aufsichtsverantwortung zu vorbehalten (Sinn (6))? (1999, 189)

Trotz einiger geringfügiger Unterschiede sind sich Bechtel (1985), Ladd (1989), Moor (1979), Nissenbaum (1994; 1996) und Kuflik (1999) einig, dass verantwortungsbewusste Menschen nicht alle Verantwortung verantwortungsbewusst auf Computer übertragen können.

Ladd (1989) argumentiert, dass die Computersteuerung (von Maschinen oder Systemen) der menschlichen Steuerung ausreichend ähnlich ist, damit Computer in bestimmten Situationen die Kontrolle erhalten. Computer sind jedoch in bestimmten Situationen besser zur Steuerung geeignet als Menschen (z. B. solche, die eine schnelle, genaue Informationsverarbeitung über lange, ununterbrochene Zeiträume erfordern), und Menschen sind in anderen Situationen besser zur Steuerung geeignet als Computer (z. B. solche, die anfällig sind) zu Überraschungen und Unfällen); Als solches argumentiert Ladd, dass „Menschen besser sind als Computer, bei denen„ Urteilsvermögen “erforderlich ist“(1989, 223). Unabhängig davon, ob es sich um ein Urteil handelt oder nicht, kommt Ladd zu dem Schluss, dass in sicherheitskritischen Situationen (dh „wenn die Möglichkeit besteht, dass ein Computerfehler zu katastrophalen Folgen führen kann“(1989).223)) Menschen müssen unsere Fähigkeit bewahren, einzugreifen und die Kontrolle vom Computer zurückzugewinnen.

Moor (1979) argumentiert, dass Computer zwar in der Lage sind, Entscheidungen zu treffen, ihnen jedoch nicht unbedingt die Befugnis gegeben werden sollte, Entscheidungen zu treffen. Moor stimmt Ladd zu, dass weder Mensch noch Computer automatisch die beste Wahl für die Entscheidungskontrolle sind, und argumentiert: „Im Kontext unserer grundlegenden Ziele und Werte (und der Prioritäten unter ihnen) müssen wir empirisch bestimmen [auf a von Fall zu Fall] nicht nur die Kompetenz des Computerentscheiders, sondern auch die Konsequenzen der Computerentscheidung “(1979, 129). Er besteht jedoch darauf, dass es einen Bereich der Entscheidungsfindung gibt, dem Computer verweigert werden sollten: „Da wir wollen, dass Computer für unsere Zwecke arbeiten“, sollten wir ihnen die Befugnis verweigern, Entscheidungen über „unsere grundlegenden Ziele und Werte (und Prioritäten unter ihnen“) zu treffen)”(1979, 129). Zusätzlich,Moor geht davon aus, dass wir, wenn wir bei der Verwendung von Computerentscheidungen unverantwortlich sind, dh wenn wir die Art der Computerkompetenz nicht identifizieren, diese Kompetenz nachweisen und klar machen, warum die Verwendung des Computers zum Treffen solcher Entscheidungen unsere grundlegenden Ziele und Ziele fördert Werte - eine solche Verwendung wird die inakzeptable Folge haben, dass die menschliche Verantwortung und die moralische Entscheidungsfreiheit untergraben werden.

Kuflik (1999) argumentiert auch, dass, da Computer fehlbar und daher zu groben Abweichungen fähig sind, „Menschen ihre Aufsichtsverantwortung nicht ganz aufgeben sollten“(194); Kuflik unterscheidet jedoch zwischen der Fähigkeit, den Computer von Fall zu Fall zu überschreiben, und der Fähigkeit, ihn durch regelmäßige Überprüfungen zu überschreiben, und greift auf unsere vertraute Erfahrung im Umgang mit Experten (z. B. Arzt-Patient-Beziehungen) zurück, um intuitive Anleitungen zu geben wie man diese beiden Arten der Aufsicht in Einklang bringt.

Thompson (2001) gelangt zu ähnlichen Schlussfolgerungen, indem er sich auf besonders unterschiedliche Bedenken beruft, und argumentiert, dass wir Computersystemen keine Verantwortung für die Beurteilung von uns übertragen sollten (z. B. als computergestützte Richter), es sei denn, der Computer war in der Lage, seine gemeinsame Teilnahme an der Menschheit (selbstbewusst) anzuerkennen bei uns (wenn so etwas überhaupt möglich wäre); Andernfalls würde dem Computer das Mitgefühl fehlen und er könnte keine Verantwortung für seine Entscheidungen übernehmen.

Literaturverzeichnis

  • Allen, C., G. Varner und J. Zinser, 2000, "Prolegomena to Any Future Moral Agent", Journal of Experimental and Theoretical Artificial Intelligence, 12: 251-261.
  • Bechtel, W., 1985, "Attributing Responsibility to Computer Systems", Metaphilosophy, 16.4: 296-306.
  • Bynum, TW, 1985, "Künstliche Intelligenz, Biologie und Absichtszustände", Metaphilosophy, 16.4: 355-377.
  • Cass, K., 1996, "Expertensysteme als allgemeine Beratungsinstrumente: Eine Prüfung der moralischen Verantwortung", Business and Professional Ethics Journal, 15.4: 61-85.
  • Dejoie, R., G. Fowler, D. Paradice, 1991, Ethische Fragen in Informationssystemen, Boston, MA: Boyd und Fraser.
  • Dennett, DC, 1973, "Mechanism and Responsibility", in Essays on Freedom of Action, T. Honderich (Hrsg.), Boston: Routledge & Keegan Paul.
  • -----, 1984, Elbow Room: Die Sorten des freien Willens, die es wert sind, gewünscht zu werden, 1984. Cambridge, MA: Bradford Books-MIT Press.
  • -----, 1995, The Intentional Stance. Cambridge, MA: Bradford Books-MIT Press.
  • -----, 1997, „Wenn HAL tötet, wer ist schuld? Computerethik “, in HALs Vermächtnis: 2001er Computer als Traum und Wirklichkeit, DG Stork (Hrsg.), Cambridge, MA: MIT Press.
  • Dillard, JF und K. Yuthas, 2001, "A Responsibility Ethics for Audit Expert Systems", Journal of Business Ethics, 30.4: 337-359.
  • Feinberg, J., 1968, "Collective Responsibility", The Journal of Philosophy, 65: 674-688. Überarbeitet und Rpt. in Tun und Verdienen: Aufsätze in der Theorie der Verantwortung, J. Feinberg (Hrsg.), Princeton: Princeton University Press, 1970.
  • -----, 1970, "Sua Culpa", in Tun und Verdienen: Aufsätze in der Theorie der Verantwortung, J. Feinberg (Hrsg.), Princeton: Princeton University Press, Rpt. in ethischen Fragen im Umgang mit Computern, DG Johnson und JW Snapper (Hrsg.), Belmont, CA: Wadsworth Publishing, 1985.
  • Floridi, L. und JW Sanders, im Erscheinen „Über die Moral künstlicher Wirkstoffe“, Ethik der Virtualitäten: Aufsätze über die Grenzen der Bioenergietechnologien, A. Marturance und L. Introna (Hrsg.), Culture Machine. London: Athlone Press.
  • Forester T. und P. Morrison, 1994, Computerethik: Warnmeldungen und ethische Dilemmata im Computer, 2. Auflage, Cambridge, MA: MIT Press.
  • Friedman, B., 1990, "Moralische Verantwortung und Computertechnologie", Eric Document Reproduction Services (EDRS).
  • ----- (Hrsg.), 1997, Human Values and the Design of Computer Technology, Stanford: CSLI Publications; NY: Cambridge University Press.
  • ----- und PH Kahn, Jr., 1992, "Human Agency And Responsible Computing - Implikationen für das Design von Computersystemen", Journal of Systems And Software, 17: 7-14.
  • ----- und LI Millett, 1997, "Argumentation über Computer als moralische Agenten: Eine Forschungsnotiz", in Human Values and the Design of Computer Technology, B. Friedman (Hrsg.), Stanford: CSLI Publications; NY: Cambridge University Press.
  • Gips, J., 1995, "Towards the Ethical Robot", in Android Epistemology, K. Ford, C. Glymour und P. Hayes (Hrsg.), Menlo Park, CA: AAAI Press / The MIT Press.
  • Gotterbarn, D., 1995, "Die moralische Verantwortung von Softwareentwicklern: Drei Ebenen professioneller Softwareentwicklung", Journal of Information Ethics, 4.1: 54-64.
  • -----. 2001,, "Informatik und berufliche Verantwortung", Science and Engineering Ethics, 7.2: 221-230.
  • Hart, HLA, 1985, "Bestrafung und Verantwortung", Rpt. in ethischen Fragen im Umgang mit Computern, D. Johnson und JM Snapper (Hrsg.), Belmont, CA: Wadsworth Publishing.
  • Johnson, D., G., 2001, Computerethik, 3. Auflage, Upper Saddle River, NJ: Prentice Hall.
  • ----- und JM Mulvey, 1995, "Accountability and Computer Decision Systems", Communications of the ACM, 38.12: 58-64.
  • -----. und JW Snapper, 1985, Ethische Fragen bei der Verwendung von Computern, Belmont, CA: Wadsworth Publishing.
  • Kuflik, A. 1999, "Computer unter Kontrolle: Rationale Übertragung von Autorität oder unverantwortliche Abdankung der Autonomie?", Ethik und Informationstechnologie, 1: 173-184.
  • Ladd, J., 1989, "Computer und moralische Verantwortung", im Informationsnetz: Ethische und soziale Implikationen von Computernetzwerken, C. Gould (Hrsg.), Boulder: Westview Press.
  • Leveson, NG und CS Turner, 1993, "Eine Untersuchung der Therac-25-Unfälle", Computer, 26.7: 18-41.
  • Moon, Y. und C. Nass, 1996, „Wie real sind Computerpersönlichkeiten? Psychologische Reaktionen auf Persönlichkeitstypen in der Mensch-Computer-Interaktion “, Communications Research, 23: 651-674.
  • -----, 1998, „Sind Computer Sündenböcke? Zuschreibungen von Verantwortung in der Mensch-Computer-Interaktion “, International Journal of Human-Computer Studies, 49.1: 79-94.
  • Moor, J., 1979, "Gibt es Entscheidungen, die Computer niemals treffen sollten?" Nature and System 1: 217 - 229. Rpt. in ethischen Fragen im Umgang mit Computern, DG Johnson und JW Snapper (Hrsg.), Belmont, CA: Wadsworth Publishing, 1985.
  • -----, 1995, "Ist Ethik berechenbar?" Metaphilosophy, 26: 1-21.
  • Murray, JP, 2001, „Erkennen der Verantwortung eines fehlgeschlagenen Informationstechnologieprojekts als gemeinsamen Fehler“, Information Systems Management, 18 (2): 25-29.
  • Nass, CI, Y. Moon, J. Morkes, E.-Y. Kim und BJ Fogg, 1997, "Computer sind soziale Akteure: Ein Überblick über die aktuelle Forschung", in Human Values and the Design of Computer Technology, B. Friedman (Hrsg.), Stanford: CSLI Publications; NY: Cambridge University Press.
  • Nissenbaum, H, 1994, "Computing and Accountability", Communications of the ACM, 37.1: 73-80.
  • -----, 1996, "Accountability in a Computerized Society", Science and Engineering Ethics, 2: 25-42. Rpt. in menschlichen Werten und dem Design von Computertechnologie, B. Friedman (Hrsg.), Stanford: CSLI Publications; NY: Cambridge University Press, 1997.
  • Reeves, B. und CI Nass, 1996, The Media Equation: Wie Menschen Computer, Fernsehen und neue Medien wie reale Menschen und Orte behandeln. Stanford: CSLI Publications; NY: Cambridge University Press.
  • Ronald, EMA und M. Sipper, 2001, „Intelligenz ist nicht genug: Zur Sozialisierung sprechender Maschinen“, Minds and Machines, 11.4: 567-576.
  • Searle, J., 1980, "Minds, Brains and Programs", The Behavioral and Brain Sciences, 3: 417-424.
  • Szolovits, P., 1996, "Fehlerquellen und Rechenschaftspflicht in Computersystemen: Kommentare zu" Rechenschaftspflicht in einer computerisierten Gesellschaft ", Science and Engineering Ethics, 2.1: 43-46.
  • Snapper, JW, 1985, "Responsibility for Computer-Based Errors", Metaphilosophy, 16: 289-295.
  • -, 1998, "Verantwortung für computergestützte Entscheidungen im Gesundheitswesen", in Ethik, Informatik und Medizin, KW Goodman (Hrsg.), NY: Cambridge University Press.
  • Thompson, HS, 1999, "Computersysteme, Verantwortung und moralische Sensibilität", Technology in Society, 21.4: 409-415.
  • Versenyi, L., 1974, "Können Roboter moralisch sein?", Ethics, 84: 248-259.
  • Wallace, RJ 1994, Verantwortung und die moralischen Gefühle, Cambridge, MA: Harvard University Press.

Andere Internetquellen

Videopräsentationen

  • Informatik und Philosophie an der Oregon State University. Videoarchive von Präsentationen auf den CAP @ OSU-Konferenzen 2001, 2002, 2003.
  • CEPE2000: Computerethik: Philosophische Untersuchung. Präsentationen von der CEPE2000-Konferenz (Dartmouth College, 14.-16. Juli 2000) sind in RealVideo verfügbar.

Bibliographien

Die Tavani-Bibliographie zu Computer, Ethik und sozialer Verantwortung. Herausgegeben von Herman Tavani, Rivier College. Dies ist eine umfangreiche und nützliche Bibliographie, die sich schnell (falls noch nicht geschehen) zur Standardbibliographie auf diesem Gebiet entwickelt

Zeitschriften online

ETHICOMP Journal. Veröffentlichung von Beiträgen, die auf der ETHICOMP-Konferenzreihe vorgestellt wurden, einer internationalen Konferenzreihe, die für Computerethiker von Interesse ist

Zentren

  • Forschungszentrum für Computer und Gesellschaft (an der Southern Connecticut State University)
  • Zentrum für Computer und soziale Verantwortung (an der Universität De Montfort)
  • Computerfachleute für soziale Verantwortung (CPSR)

Organisationen

  • INSEIT: Internationale Gesellschaft für Ethik und Informationstechnologie
  • IACAP: Internationale Vereinigung für Informatik und Philosophie. In Bezug auf Computer und Philosophie im weitesten Sinne, einschließlich der Verwendung von Computern zum Unterrichten von Philosophie, der Verwendung von Computern zur Modellierung der philosophischen Theorie sowie der durch Computer aufgeworfenen philosophischen Bedenken.

Verwandte Einträge

künstliche Intelligenz Chinesisches Raumargument | Computerethik | Informationstechnologie und moralische Werte Intentionalität Verantwortung | Wissenschafts- und Technologiestudien Turing-Test

Empfohlen: