Verantwortungsvolle Technologiegestaltung: Die sozial-ethischen Dimensionen bei der Entwicklung digitaler Identitätstechnologien

„On the Internet no one knows that you are a dog“ ist eine verbreitete Karikatur, welche die Anonymität der frühen Zeiten des Netzes ironisch kommentiert. Die digitale Welt ist seitdem jedoch um einiges „erwachsener“ geworden und durchdringt zunehmend sämtliche Lebensbereiche. Im Internet mag niemand wissen, ob am Endgerät ein Hund zu Werke geht. Die Karikatur zeigt jedoch den ganz realen Bedarf an, in bestimmten Situationen Gewissheit über die Identität meines Gegenübers haben zu wollen. Die zunehmende Verschmelzung von digitaler und analoger Welt durch die Allgegenwärtigkeit des Smartphones verdeutlichen dabei das Potential von digitalen Identitäten als Nachweis in beiden Welten. Identitäten spielen eine zentrale Rolle bei der digitalen Identifizierung und beschleunigen Transaktionen. Doch dabei dürfen wir die sozial-ethischen Anliegen, wie den Schutz vor Diskriminierung, Überwachung und Missbrauch, nicht außer Acht lassen. Im Schaufensterprogramm „Sichere Digitale Identitäten“ wirken die Schaufensterprojekte an der zur Entwicklung führender Technologien in diesem Bereich mit. Neben der Klärung technischer Fragen stehen dabei immer auch ethisch-soziale Fragestellungen im Fokus der Entwickler: innen.

Die Verwendung von Titeln wie „Sichere“ und „Selbstsouveräne“ Identitäten implizieren ethische Versprechen, die bei der Entwicklung solcher Technologien stets mitgedacht werden müssen. Die Gestaltung von digitalen Identitätstechnologien erfordert insofern ein tiefgreifendes Verständnis der Auswirkungen dieser Technologien auf Individuen, Wirtschaftsunternehmen sowie auf die Gesellschaft als Ganzes. Daher stand diese Dimension der Technologieentwicklung bei dem Netzwerktreffen des Schaufensterprogramms „Sichere Digitale Identitäten” durch einen Vortrag der Technikethikerin Dr. Paula Helm von der University of Amsterdam zu ethisch-sozialen Dimensionen digitaler Identitäten in einem besonderen Fokus der Diskussionen unter den Teilnehmenden. In diesem Vortrag warb Frau Dr. Helm für eine ganzheitliche Herangehensweise an die technische, soziale und politische Dimension digitalen Identitäten, die es uns ermöglicht, die Potenziale dieser Technologie auszuschöpfen, während gleichzeitig mögliche Risiken wie Diskriminierung, Überwachung und Missbrauch proaktiv adressiert und minimiert werden.

In diesem Blogbeitrag werden wir uns daher mit den zentralen sozial-ethischen Aspekten bei der Entwicklung solcher Technologien auf Basis des Konzepts einer relationalen Technikethik, auf welchem der Vortag aufbaute, auseinandersetzen und die wichtigsten Aspekte überblicksmäßig vorstellen.


Relationale Technikethik
Relationale Technikethik ist eine ethische Disziplin, die sich mit den sozialen und ethischen Auswirkungen von Technologien auf zwischenmenschliche Beziehungen und gesellschaftliche Strukturen auseinandersetzt. Dabei werden die Technologien nicht isoliert betrachtet, sondern jeweils in ihren Beziehungen zu den Menschen, mit denen sie in Kontakt stehen. Ein besonderer Fokus liegt darauf, wie es möglich ist, Technologien in einer Art und Weise zu entwickeln, dass sie grundlegende gesellschaftliche Werte wie die menschliche Würde, Autonomie und soziale Gerechtigkeit angemessen darstellen. Relationale Technikethik betont die Bedeutung der Einbindung unterschiedlicher Perspektiven, insbesondere derjenigen Menschen, die von den Technologien beeinflusst werden. Der Ansatz zielt also darauf ab, Technologien im Einklang mit den Wertvorstellungen und Bedürfnissen der Menschen zu entwickeln und eine Verantwortungsethik in der Technologieentwicklung zu etablieren.
Im Kontext von Identitätslösungen umfasst dies verschiedene Aspekte und Anforderungen rund um Privatsphäre und Datenschutz, Inklusion und Zugänglichkeit sowie Transparenz und Rechenschaftspflicht. Ebenso sind langfristige Auswirkungen bezüglich der Wechselwirkung von Technik und Mensch nicht zu vernachlässigen. Um hier einen Überblick zu verschaffen, werden wir uns im Folgenden der Gesamtheit dieser Fragestellungen widmen.


Privatsphäre und Datenschutz
Privatsphäre und Datenschutz sind einer der ersten sozial-ethischen Fragestellungen, die geläufig im Kontext von Technologien für digitale Identitäten aufgeworfen werden. Die Prominenz dieser Fragestellung trügt nicht, denn die Aspekte von Privatsphäre und Datenschutz hängen eng mit Identitäten zusammen, und zwar sowohl in der analogen als auch der digitalen Welt. Sie schützen das Recht und die Möglichkeit einer Person, ihre persönlichen Informationen zu schützen und zu verwalten, wer Zugriff auf die entsprechenden Daten erhält, und wer nicht.
Für den selbstbestimmten Menschen ist es von herausragender Bedeutung, dass Nutzer: innen die Kontrolle über ihre persönlichen Daten ausüben und selbst entscheiden können, welche Daten sie mit wem teilen möchten. Die Technologien sollten insbesondere transparent sein und klare sowie einfach nachvollziehbare Datenschutzkonzepte verfolgen, um sowohl das Vertrauen der Nutzenden zu gewinnen als auch ihn in die Lage zu versetzen, informierte und selbstbestimmte Entscheidungen treffen zu können. Dabei muss sichergestellt sein, dass Identitätsdaten nur für den vorgesehenen Zweck verwendet werden und auch angemessen geschützt sind, um Missbrauch und unbefugten Zugriff zu verhindern. Die Gewährleistung von Privatsphäre und Datenschutz ist somit Voraussetzung für einen vertrauensvollen Umgang der einzelnen Beteiligten untereinander im digitalen Raum. Sicherheit der technischen Infrastruktur ist hierfür der Grundstein.


Inklusion und Zugänglichkeit
Die Gewährleistung von Inklusion und Zugänglichkeit ist ein bedeutsamer sozial-ethischer Aspekt bei der Entwicklung digitaler Identitätstechnologien. Dabei geht es darum, alle Menschen gleichberechtigt in die Gesellschaft einzubeziehen und eine entsprechend universelle Anwendbarkeit der Technologien zu schaffen. Um dies zu ermöglichen, sollten die Anwendungen insbesondere benutzerfreundlich ausgestaltet sein, um Menschen mit unterschiedlichen technischen Hintergründen und Fähigkeiten die Nutzung zu erleichtern. Soziale oder technische Barrieren, die Menschen daran hindern, digitale Identitäten zu nutzen, sind dabei zu vermeiden oder gezielt abzubauen.
Zudem sollten die digitalen Anwendungen eine Vielfalt von Lebenskontexten angemessen und respektvoll repräsentieren. Dies bedeutet insbesondere die Berücksichtigung kultureller Unterschiede und die Bereitstellung von mehrsprachigen Schnittstellen oder barrierefreien Nutzeroberflächen, um eine skalierende Nutzung zu ermöglichen. Die Einbeziehung von Inklusion, Teilhabe und Zugänglichkeit in den Entwicklungsprozess digitaler Identitätstechnologien ist ein Grundbaustein für eine faire und umfassende digitale Transformation.
Eine derart ausgerichtete Technologiegestaltung leistet einen Beitrag dazu, dass digitale Identitäten für alle Menschen zugänglich sind und keiner aufgrund von sozialen, körperlichen oder technischen Hürden benachteiligt wird. Eine inklusive digitale Identitätslandschaft fördert die Chancengleichheit und ermöglicht es allen Bürger: innen, von den Vorteilen dieser Technologien zu profitieren.


Transparenz und Rechenschaftspflicht
Maßnahmen, die auf eine ethische Ausgestaltung und Verwendung von Technologien abzielen, müssen wirksam und nachvollziehbar funktionieren. Anbieter von Diensten, die mit sensiblen Daten umgehen, tragen insofern eine hohe Verantwortung, der sie gerecht werden müssen.
Transparenz und Rechenschaftspflicht sind wesentliche Bestandteile einer Entwicklung von Use-Cases für digitale Identitäten, die schon bei der Entwicklung der technischen Architektur von Anwendungsfällen digitaler Identitäten stets mitgedacht werden müssen. Dadurch kann sichergestellt werden, dass sowohl technische als auch ethische Entscheidungen offen kommuniziert und nachvollziehbar gemacht werden, um das Vertrauen der Nutzer: innen in die Technologie zu fördern und Missbrauch zu vermeiden.
Es ist von großer Bedeutung, dass die Funktionsweise und Nutzungsmöglichkeiten der Technologien klar kommuniziert werden, um Vertrauen in die Applikationen aufzubauen. Nutzende sollten stets darüber im Bilde sein, welche Daten gesammelt, wie sie verwendet und mit wem sie geteilt werden. Entwickler: innen und Betreiber: innen digitaler Identitätstechnologien müssen für ihre Handlungen entsprechende Verantwortung übernehmen. Das erfordert insbesondere auch die Bereitstellung von wirksamen technischen oder rechtlichen Mechanismen zur Fehlerbehebung, zur Überprüfung der Richtlinieneinhaltung sowie eine Rechenschaftspflicht und Sanktionen bei Verstößen gegen Datenschutzbestimmungen. Transparenz und Rechenschaftspflicht stärken die Vertrauenswürdigkeit und sorgen für eine Wahrung der Interessen und Rechte der Nutzer: innen.


Langfristige soziale Auswirkungen
Die Art wie Identitäten gehandhabt und kontrolliert werden, unterscheidet sich maßgeblich zum Status Quo. Digitale Technologien erlauben es den Nutzer: innen dabei, einen einfachen, aber schnellen Identitätsnachweis zu erbringen, diese sollen gleichzeitig die Autonomie und Selbstbestimmung über Ihre persönlichen Daten bewahren. Durch eine Durchdringung vielfältiger Lebensbereiche ist davon auszugehen, dass digitale Identitäten langfristig Auswirkungen auf bestehende und entstehende soziale Strukturen haben werden. Der Mensch prägt Technologie, aber die Technologie prägt auch den Menschen in einer Wechselwirkung. Dabei tragen sie das Potential in sich, soziale Interaktionen, Transaktionen und Beziehungen so zu beeinflussen, dass sie auf eine besonders vertrauenswürdige Art und Weise stattfinden, was zu einer stärker inklusiven und gerechten Gesellschaft führen kann.
Grundsätzlich bergen Technologien für Digitale Identitäten jedoch nicht ausschließlich das Potential für Utopien. Identitäten und vor allem die Kontrolle über Identitäten bieten dabei stets den Ansatzpunkt für Überwachung und ggf. Beeinflussung der durch die Identität repräsentierten Menschen.
Um unerwünschte Folgen von Tracking, Überwachung und sozialer Kontrolle zu verhindern, müssen derartige Risiken im Vorhinein, während des Entwicklungsprozesses, mitgedacht werden. Aktuelle aber vor allem auch künftige negative Auswirkungen müssen daher bedacht, und möglichst bei der Grundsteinlegung der Infrastruktur für digitale Identitäten technisch abgefedert werden. Langfristige soziale Auswirkungen sollten insofern im Entwicklungsprozess digitaler Identitätstechnologien sorgfältig berücksichtigt werden, um eine ethisch verantwortungsvolle Technologiegestaltung sicherzustellen.


Fazit
Die Entwicklung sicherer digitaler Identitätstechnologien erfordert eine ganzheitliche Herangehensweise, die über eine reine Betrachtung der technischen Aspekte hinausgeht. Sozial-ethische Dimensionen spielen eine zentrale Rolle und sollten von Anfang an in den Entwicklungsprozess mit einbezogen werden.
Durch eine verantwortungsvolle Technologiegestaltung, die die sozial-ethischen Aspekte dieser Aufgabe aktiv angeht, werden digitale Technologien geschaffen, die ethischen Standards gerecht werden und so das Vertrauen der Nutzer: innen stärken. Das Schaufensterprogramm Sichere Digitale Identitäten hat diese Aspekte von Anfang an in den Fokus genommen und immer wieder auf verschiedene Arten thematisiert, etwa durch Impulsvorträge von Expert: innen, repräsentative Umfragen in der Bevölkerung, Bürgerbeteiligungen in den Schaufensterprojekten oder Diskussionen und Themenschwerpunkten in Fachgruppensitzungen der Begleitforschung.
So werden wertvolle Impulse gesetzt, die es den Schaufensterprojekten ermöglichen, die sozial-ethischen Aspekte auf verschiedene Arten und Weisen aktiv in den Entwicklungsprozess zu integrieren. Nur durch einen verantwortungsvollen und umfassenden Ansatz können wir sicherstellen, dass digitale Identitätstechnologien in verantwortungsvoller Weise den digitalen Wandel in Deutschland und Europa prägen.