Für Marktforscher und Data Scientist

Schweizer Verband lenkt Blick auf fairen Umgang mit Daten

   Artikel anhören
Stefan Langenauer, Präsident des Verbands Swiss Insights, auf dem Verbands-Event zu Daten und Ethik
© Swiss Insights
Stefan Langenauer, Präsident des Verbands Swiss Insights, auf dem Verbands-Event zu Daten und Ethik
Auf einer Veranstaltung im Landesmuseum Zürich, die auch online übertragen wurde, sensibilisiert der Schweizer Verband Swiss Insights für einen fairen und ethischen Umgang mit Daten, Tools, Algorithmen und stellt ein neues Label für Data Fairness vor.

Wie ist der richtige Umgang mit Daten – ob in der Forschung oder in Unternehmen? Diese Frage stellten die beiden Gastrednerinnen auf der Zusammenkunft des ehemaligen Marktforschungsverband vsms, der sich mittlerweile als „Swiss Insights“ die Aufgabe stellt, Marktforschung mit Data Science zusammenzubringen.

Das in dem Zusammenhang meist genannt Wort ist: Vertrauen. Data-Mining-Techniken haben durchaus das Potenzial, Vertrauen und Privatsphäre zu untergraben. Zahlreiche Studien belegen den Vertrauensverlust in Institutionen und Unternehmen. Monique Morrow, Präsidentin der Organisation the Humanized Internet und ehemalige CTO von Cisco, zeigt, wie relevant ein ethischer Umgang mit Daten ist. Morrows Forderung: Unternehmen müssen sich Gedanken machen, wie eine faire Nutzung von Daten umgesetzt werden kann. Das bedarf einer Übereinkunft, einer Verabredung, eines institutionellen Rahmens. Sie begrüßt daher die Initiative des Verbandes für das Data Fairness Label.

Cornelia Diethelm ist Expertin für Digitale Ethik und Gründerin des Centre for Digital Responsibility. Sie unterstreicht in ihrem Vortrag die Relevanz des fairen und ethischen Umgangs mit Daten. Das Thema laufe Gefahr vor allem angesichts der Allgegenwärtigkeit des Datenschutzes etwas aus der öffentlichen Wahrnehmung zu fallen. Aber Unternehmen und Organisationen können sich nicht hinter vorhandenen Compliance-Regeln verstecken. „Es ist ein strategisches und kein operatives Thema für Unternehmen“ und weiter: „Es geht nicht ums Moralisieren, sondern um eine bewusste Entscheidung beim Umgang mit Daten“. Diethelm weist darauf hin, dass Unternehmen in großem Ausmaß zum Teil disruptive Geschäftsmodelle in den Markt bringen, bei denen persönliche Daten genutzt werden. Diese Apps seien für viele Situationen hilfreich, aber ob die Menschen wirklich verstehen worin sie einwilligen, sei fraglich. Was etwa bedeutet es, wenn man erlaubt, dass GPS-Daten erfasst werden? Sie beschreibt das Vorkommen von sogenannten "Dark Pattern", die wir nicht bewußt wahrnehmen, die uns aber dennoch zu einer bestimmten Handlung vor allem im Web „verführen“. Manche nennen das optimale User Experience, andere Nudges. Es sei in jedem Fall manipulativ, die Menschen werden in ihrer Autonomie untergraben und das merken die User auch irgendwann und dann erfolge eventuell rasch der Ruf nach Kontrolle. „Wer Vertrauen schaffen will, darf keine Dark Pattern einbauen“ sagt Diethelm. Vom Vorreiter dieser Technik abgeleitet – Facebook – heißt die Technik übrigens auch „Zuckering“.
„KI ist kein Woodoo, sondern einfach nur Mathematik“
Cornelia Diethelm ist Expertin für Digitale Ethik und Gründerin des Centre for Digital Responsibility
Ebenfalls zur Vorsicht rät Diethelm beim Umgang mit Künstlicher Intelligenz. Der Mensch müsse in jedem Fall im Lead bleiben und die Maschine, auch die lernende, sei bestenfalls ein Hilfsinstrument. Aber sie beruhigt: "KI ist kein Woodoo, sondern einfach nur Mathematik".

Swiss-Insights-Verbandspräsident Stefan Langenauer, im Hauptberuf beim Statistischen Amt Zürich beschäftigt, präsentiert dann das neu entwickelte Label Data Fairness. Damit sollen Unternehmen zeigen, dass sie sich zu einem transparenten, nachvollziehbaren und verantwortungsvollen Umgang bei der Bearbeitung und Analyse von großen Datenmengen verpflichten.

Auf einer Webseite wird mittels eines Fragebogens erfasst, inwiefern Datensätze, Tools oder verwendete Algorithmen eventuelle Bias - systematische Fehler gegenüber bestimmten Bevölkerungsgruppen - enthalten. "Das Data Fairness Label lädt ein zur Selbstreflexion“, erklärt Langenauer. Zusätzlich soll in einer Community der Austausch über die Ergebnisse der Audits diskutiert werden und schließlich müssen sich die Inhaber des Labels an bestimmte Richtlinien halten. Langenauer versteht das Label eher als eine Art verbandsinterne Beratungsstelle, es steht sowohl inländischen als auch ausländischen Unternehmen zur Verfügung. 

    Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
    stats