Diskriminierende Algorithmen und Big Data als Spielwiese

Im Sprengelmuseum sprach Ranga Yogeshwar mit seinen Talkgästen über autonomes Fahren, medizinische Informatik und kritische Datennutzung.

Künstliche Intelligenz ist uns kaum noch fremd, Daten bestimmen unseren Alltag. Doch wie steht es um unsere digitale Souveränität? Diese Frage stellte Wissenschaftsjournalist Ranga Yogeshwar seinen Talkgästen am 13. Juni im Sprengelmuseum.

„Die IdeenExpo zeigt neue Berufsfelder der digitalen Welt“, begrüßte Hauptgeschäftsführer Dr. Volker Schmidt die etwa 170 Gäste. „Doch wir reflektieren: Wann ist Technik sinnvoll und verantwortbar?“ Die Diskussion eröffnete Science Slammer Johannes Kretzschmar: „Künstliche neuronale Netze sind die Zukunft“, warf er in die Runde. Moderator Yogeshwar stimmte zu – und wies darauf hin, dass Sensibilität für Big Data, also das Sammeln und Auswerten großer Datenmengen, auch in Unternehmen steige.

Andreas Dewes, Physiker und Datenanalyst bei dem Start-up 7scientists, ergänzte: „Big Data ist immer mit Datenschutz und Privatsphäre verknüpft. Das macht eine transparente Datenverarbeitung so wichtig“, sagte er. Aus scheinbar harmlosen Daten können jede Menge Informationen gezogen werden – wie politische Überzeugungen oder religiöse Ansichten.

Für Gabriele von Voigt, Professorin für Computational Health Informatics (CHI) an der Leibniz-Universität Hannover, seien diese riesigen Datenmengen von Vorteil: Eine schnelle Diagnose oder eine Prognose für den Verlauf einer Operation könne schließlich den Menschen helfen. Die letzte Verantwortung sieht sie allerdings immer noch beim Arzt: „Erfahrung können wir nicht ersetzen, die Kombination macht’s.“

Anders ist es beim autonomen Fahren. Alles kein Problem, meinte Johann Jungwirth, Chief Digital Officer der Volkswagen AG: „Wir sind jetzt in einer Phase, in der Maschinen besser fahren als Menschen“, ist er sich sicher. Spätestens 2021 gebe es keine Lenkräder mehr in Autos – so seine Prognose. „Wir sollten optimistisch in die Zukunft schauen: Wir bekommen mehr Zeit für die wichtigen Dinge im Leben.“

Dass Algorithmen allerdings auch diskriminieren können, erzählte Leonie Beining, Projektmanagerin „Gemeinwohl im digitalen Zeitalter“ bei der Stiftung Neue Verantwortung. Algorithmen wählen für uns aus – aber wie eigentlich? Und was, wenn sie uns in eine bestimmte Richtung bringen wollen? „Algorithmen lernen aus einem Datensatz. Bei einem Fehler im Datensatz kann es zu falschen Klassifikationen und so zu Diskriminierungen kommen.“ Eine Lösung wäre, das Sammeln von Daten möglichst transparent darzulegen. „Denn die Mehrheit ist bereit, Daten abzugeben – wenn es einem bestimmten Zweck dient.“

Fotos: IdeenExpo

Ansprechpartner

Diesen Artikel teilen

Zurück zum Seitenanfang

Mitgliederbereich-Login

Bitte melden Sie sich hier mit Ihrem Benutzernamen und Passwort an.