Asymmetrien in der (KI)-Ethik
Warum?
Weil sie uns Einblicke in wichtige Strukturmerkmale der Moral geben.
Eine Asymmetrie weist oft auf ein grundlegenderes Prinzip oder eine moralisch bedeutsame Tatsache und Unterscheidung hin. Irgendetwas ist anders, und wir müssen genauer hinsehen.
In unserer neuen Arbeit verteidigen mein Kollege Joshua Brandt und ich eine neue Asymmetrie. Wir fragen uns: Kann man zu seinen Freunden und seiner Familie genauso nett sein, wie man zu seinen Tyrannen und Feinden gemein sein kann?
Wir glauben nicht - diese beiden Arten von persönlichen Beziehungen sind eindeutig asymmetrisch. Und warum? Weil, so argumentieren wir, die Moral eine harmonische Neigung hat, positive Beziehungen zu erhalten und negative aufzulösen.
Lesen Sie hier mehr: https://lnkd.in/eDS-fqEB
Ein weiteres gutes aktuelles Beispiel aus der KI-Ethik stammt von Sven Nyholm et al., die zeigen, wie generative KI eine "credit-blame"-Asymmetrie mit sich bringt.
Kurz gesagt: Wir können Menschen für Fehler bei der Nutzung generativer KI verantwortlich machen, wenn sie anderen schaden - selbst wenn sie nur sehr wenig Aufwand in ihre Arbeit stecken. Aber Menschen scheinen keine Anerkennung für Texte zu verdienen, die ohne viel Geschick und Mühe generiert wurden, wie z.B. ChatGPT-generierte Prüfungsaufgaben.
Fazit?
Bestehende Arbeiten zur Verantwortung in der KI lassen sich nicht ohne weiteres auf GenAI anwenden - hier geht es um etwas normativ anderes. Schauen Sie sich ihr Papier hier an: https://lnkd.in/er4m-GNA
#Ethik #Asymmetrien #philosophie
Den vollständigen Artikel finden Sie hier: https://www.hr-brew.com/stories/2023/05/17/train-employees-to-work-alongside-ai-not-replace-them-with-it-two-ai-ethicists-say
