您所在的位置:首页>>报告>>报告详情

Shift 2019: Digitale Gesch?ftsmodelle auf dem Prüfstand

转向2019:数字商业模式进行测试

【作       者】:

{{d.作者}}

【机       构】: 瑞士工程科学院
【承研机构】:

【英文机构】: Swiss Academy of Engineering Sciences
【原文地址】: https://www.satw.ch/de/blog/article/2019/03/05/shift-2019-digitale-geschaeftsmodelle-auf-dem-pruefstand/?tdsourcetag=s_pcqq_aiomsg
【发表时间】:

2019-03-05

摘要

Am 28. Februar fand in Zürich die erste Shift-Konferenz des Centre for Digital Responsibility statt. Die SATW war Netzwerkpartner der Veranstaltung, die auf Anhieb ausverkauft war.

Die ?Shift 2019? in Zürich drehte sich um Vertrauen und Akzeptanz digitaler Gesch?ftsmodelle, speziell aus ethischer Sicht. ?Es geht also nicht nur ums Business, sondern um jeden selbst?, so Organisatorin Cornelia Diethelm in ihrer Begrüssung. Erster Referent war Markus Gross, Direktor von Disney Research und SATW-Mitglied. Disney Research entwickelt mithilfe von Künstlicher Intelligenz (KI) und Visual Computing neue Technologien für Storytelling. Eine Herausforderung sei etwa die digitale Erzeugung von Gesichtern. Dafür wurde mit der ETH das System ?Medusa? entwickelt, das inzwischen digitaler Standard in Hollywood sei. Weitere Systeme dienen zur Modellierung der Augen und Z?hne. ?Wir sind schon sehr nahe an der Realit?tstreue.

Thema des Workshops von Markus Christen, UZH Digital Society Initiative, und Karin Lange, Mobiliar, war ein ethisches Framework für Unternehmen. Einleitend zeigte Markus Christen den Zusammenhang von Big Data und Ethik auf, wie er das 2017 mit weiteren Autoren in einer SATW-Studie getan hat. Fiktives Fallbeispiel war ein Versicherungsangebot: Wer einen Fahrtenschreiber im Auto einbaue, werde bei sicherem Fahren mit Pr?mienreduktionen belohnt. Die Teilnehmenden identifizierten viele Probleme: Das Spektrum reichte vom Schutz der Privatsph?re bis zur Verletzung des Solidarit?tsprinzips, dem Fundament einer Versicherung. Zur Orientierung bei solchen Fragen will die Swiss Alliance for Data-Intensive Services einen Ethik-Kodex zur Verfügung stellen.

Verantwortung übernehmen

Verantwortung war das Hauptthema des ?CEO-Talks?. Stefan Metzger, Country Managing Director Schweiz von Cognizant, h?rt oft, ?man? müsse etwas tun. ?Aber wer ist ?man?? Machen wir als Industrie genug? Ich glaube ?Nein?.? Bezüglich Bias warnte Marianne Janik, Country General Manager von Microsoft Schweiz, davor, KI ohne genügend Know-how einzusetzen. Sie pl?dierte für eine Entmystifizierung der KI: ?Wir müssen Fakten und Daten bereitstellen. Es gibt noch zu viel Halbwissen und ?ngste.? Christiane Müller-Haye, Director Continental Europe bei Phoenix, wies auf die Verantwortung beim Records Management hin. Es sei essenziell zu verstehen, welche Daten man besitze und was in der Softwareentwicklung damit passiere.

Den Schluss bildeten drei Kurzreferate, das erste vom Dalith Steiger, Co-Founder SwissCognitive. Die Schweiz habe beste Voraussetzungen, um ein globaler KI-Hub zu werden. Man solle aber enger zusammenarbeiten, auf Kunden- und Anbieterseite. Hannes Gassert, Mitgründer von Liip, appellierte in einem an Douglas Rushkoff angelehnten Referat ans Publik, Teil des ?Team Mensch? zu bleiben. Es gehe darum Kapital, Macht und Wissen für etwas Sinnvolles einzusetzen. Als Beispiel nannte er ?Power Coders?, eine Programmierschule für Flüchtlinge. Zum Abschluss machte sich Anna Jobin, ETH Zürich, an die schwierige Aufgabe, den Tag zusammenzufassen. Ethik sei ein kollektiver, kontextabh?ngiger Prozess, in den sich alle einbringen müssten. So k?nne sie auch Innovationen hervorbringen.

Von Moderatorin Patrizia Laeri zu ?Deepfakes? befragt, gab er Entwarnung: Zwar k?nnten menschliche Augen diese kaum noch entlarven, Algorithmen liessen sich aber dafür trainieren: ?Es gibt ein Wettrüsten zwischen neuronalen Netzen, welche Deepfakes erzeugen, und jenen, die sie entlarven.?

Datenstrategie: Worauf fokussieren?

L?sst sich Ethik in Systeme integrieren? Die Daumen der Podiumsg?ste gingen runter, ausser bei Marc Holitscher, National Technology Officer von Microsoft Schweiz: Es brauche den gesellschaftlichen Diskurs über Leitplanken. Doch sobald diese festgelegt seien, k?nne man sie abbilden. Marcel Blattner, Chief Data Scientist bei Tamedia, sah dies kritischer: ?Ich finde es beunruhigend, wenn man ethische Probleme mit Tools l?sen will und so die Verantwortung ein Stück weit auf die Technologie übertr?gt.? Bezüglich Datenstrategie fokussieren Microsoft und Tamedia auf die Prozesse. Diese seien gut zu dokumentieren, um Transparenz zu schaffen und Mitarbeitende für Gefahren zu sensibilisieren. Bei Swisscom hingegen seien die Mitarbeitenden im Zentrum, so Nicolas Passadelis, Head of Data Governance und Datenschutzbeauftragter. Der verantwortungsvolle Umgang mit Daten müsse in ihre DNA einfliessen. Dies alleine reiche aber nicht, es brauche auch Compliance-Massnahmen. Und wie sieht es in der Politik aus? Verheerend, wenn man Kantonsr?tin Judith Bellaiche glaubt: ?Die Politik ist von der Digitalisierung und dem Umgang mit Daten vollkommen überfordert. Sie ist regelrecht gel?hmt.?

Mensch oder Maschine?

Wie ver?ndert Technik das Kundenverhalten? Dazu forscht Anne Scherer an der Universit?t Zürich(UZH). Digitale Assistenten übernehmen immer ?fter Aufgaben menschlicher Berater. Doch wie ver?ndert dies die Interaktion zwischen Kunden und Unternehmen? Kunden würden extremer auf Menschen reagieren – positiv wie negativ. Das Ziel k?nne also nicht sein, Maschinen immer menschlicher zu machen. Indes müsse man sich fragen, welche Reaktion man hervorrufen wolle. ?Gegebenenfalls macht es Sinn, die Maschine Maschine sein zu lassen.? Melanie Schefer Br?ker, Head of Customer Care bei Swisscom, pr?sentierte ein Praxisbeispiel: Seit 2016 nutzt die Swisscom biometrische Stimmerkennung zur Identifizierung. Die Erfolgsquote sei 85 Prozent und man spare durchschnittlich ca. 30 Sekunden pro Anruf. Bisher h?tten sich keine Kunden beschwert und nur 8 Prozent das Opt-out genutzt. ?Vielleicht l?st die Stimme künftig alle Passw?rter und PINs ab.? Sie r?umte aber ein, dass ihr das unheimlich w?re. Die Praxis der Swisscom ist umstritten, wie ein Twitter-Diskurs unter Teilnehmenden zeigt. Dominik Brumm, Head of Development bei Cubera Solutions, stellte Anwendungen mit Gesichtserkennung vor. ?Die Systeme sind sehr gut heute: Die Fehlerrate liegt bei ca. 1 Prozent.? Oft genüge ein Referenzbild und die Rechenleistung eines Smartphones. ?Dass bei dem Thema vielen unwohl ist, liegt am Kontrollverlust.? So liessen sich die Daten mit wenig Aufwand speichern, was zur Vorratsdatenspeicherung verleiten k?nne. Im Kontext von überwachungen oder Marketing sei dies problematisch, weshalb Entwickler und Unternehmen ihre Verantwortung bzgl. Datenschutz wahrzunehmen h?tten.

Problem Privatsph?re

Nach der Mittagspause folgten die Breakout-Sessions. Adrienne Fichter, Die Republik, zeigte einen Widerspruch vieler Tech-Konzerne auf: Obwohl sie betonen, die Privatsph?re der Nutzer zu schützen, gibt es laufend Missbr?uche. Deshalb empfahl sie den WOZ-Ratgeber ?Digitale Selbstverteidigung?. Ein grosses Problem sei das Algorithmic Decision Making, das h?ufig intransparent sei. Man wisse nicht, wo es verwendet werde und ob allf?llige Bias bestünden. Das revidierte Datenschutzgesetz schaffe zwar Abhilfe, doch klammere es Assistenzsysteme aus. Laut Sibylle Peuker, Partnerin bei Zeix, sei bei Systemen das Erwartungsmanagement zentral: Nutzer müssten wissen, was ein System kann, und es vor dem Ernstfall testen dürfen. ?Für die Entwicklung vertrauenswürdiger Technologie braucht man Empathie und kritisches Denken.?

标签: {{b}}
展开

相关报告