
Sign up to save your podcasts
Or


Autor, Sprecher und Episodenbild
Thorsten Siefert
Technik und Gestaltung
Thorsten Siefert
Es gilt das gesprochene Wort
Kennen Sie Ray-Ban?
Die haben tolle Brillen.
Zumindest vom Design her.
Von der Optik.
Und wenn die Blues Brothers Ray-Bans getragen haben:
Dann wissen Sie, wie ikonisch das sein kann.
Schwarzer Anzug.
Schwarze Brille.
„Wir sind im Auftrag des Herrn unterwegs.“
Seit einiger Zeit gibt es von Ray-Ban auch Brillen mit künstlicher Intelligenz.
Smart Glasses.
Mit Kamera.
Mit Mikrofon.
Mit „Hey, mach mal KI“.
Ray-Ban arbeitet dafür mit niemand anderem als Meta zusammen.
Also: Facebook.
Instagram.
WhatsApp.
Meta.
Das ist doch ’ne tolle Kombi, oder?
Was kann da schon schiefgehen?
Hmmm…Lassen Sie uns mal gemeinsam überlegen.
Wann nutzen Sie als Brillenträger Ihre Brille?
Direkt nach dem Aufstehen?
Beim Zähneputzen?
Beim Frühstück?
Auf dem Weg zur Arbeit?
Auf der Arbeit?
Beim Arzt?
Welchen Job haben Sie?
Arzt?
Busfahrer?
Bänker?
Lehrer?
Für Brillenträger wie mich gilt: Die Brille ist immer dabei.
Und wenn die Brille „smart“ ist?
Dann sieht sie, was ich sehe.
Sie hört, was ich höre.
Sie läuft im Alltag einfach mit.
Immer.
Überall.
Und genau da wird es spannend.
Ich bin externer Datenschutzbeauftragter, Datenschutzauditor und Datenschutzkoordinator.
Ja, ich bin grundsätzlich vorsichtig mit personenbezogenen Daten.
Und gleichzeitig liebe ich KI.
Vor allem in der Softwareentwicklung.
Als Assistent für Engineering, Coding und Debugging.
Es wird Sie nicht wirklich überraschen, dass mein Lieblingskonzept „Privacy by Design“ ist.
Also: Datenschutz von Anfang an.
Nicht als Sticker auf der Verpackung.
„Trust me bro“ als Privacy- und Security-Level?
Das ist nicht mein Ding.
Wie in letzter Zeit ganz oft, ist der Auslöser für diese Episode ein Artikel, den ich bei Adafruit gefunden habe.
Adafruit ist ein 2005 von der MIT-Ingenieurin Limor Fried gegründetes, vollständig frauengeführtes Elektronik-Unternehmen aus Brooklyn (NYC), das Maker-freundliche Lernangebote sowie sorgfältig getestete und kuratierte Tools und Komponenten entwickelt, fertigt und verkauft.
Hinter dem Bericht, über den Adafruit berichtet, steckt eine gemeinsame Recherche von Svenska Dagbladet und Göteborgs-Posten.
Kurz zusammengefasst:
Menschen in Nairobi, Kenia, schauen sich Inhalte an, die mit Meta-Ray-Ban-Brillen aufgenommen wurden.
Nicht „die KI“.
Echte Menschen.
Als sogenannte Data Annotators.
Wozu?
Um KI zu trainieren.
Um Modelle zu verbessern.
Um Systeme „smarter“ zu machen.
Laut der Recherche berichten Beschäftigte bei einem Subdienstleister namens Sama, dass sie extrem intime Szenen sehen.
Leute beim Ausziehen.
Leute nackt im Bad.
Pornografie.
Sex.
Bankkarten-Details.
Und halt alles, was der User dieser Brillen auf der Toilette sieht.
Und das ist der Punkt, der bei Wearables besonders weh tut:
Viele Betroffene wissen gar nicht, dass sie gerade aufgenommen werden.
Und das stinkt mir.
„Aber das wird doch anonymisiert, oder?“
Theorie: Gesichter werden unkenntlich gemacht.
Praxis: Das klappt nicht sooooooooo zuverlässig.
Die Recherche beschreibt, dass das Blur- oder Anonymisierungs-Verfahren Gesichter und Körper teils nicht korrekt erfasst.
Vor allem bei schwierigem Licht.
Und jetzt stellen Sie sich vor, das passiert im Alltag.
Im Bus.
In der Schule.
Im Büro.
Im Wohnzimmer.
Oder im Meeting zu einem geheimen Projekts Ihres Arbeitgebers.
Ein einziger „Upsi“ reicht.
Und aus „anonymisiert“ wird „erkennbar“.
„Das bleibt doch lokal in der App“ – wirklich?
Ein weiteres Detail aus der Recherche:
Verkaufspersonal soll gesagt haben, alles bleibe lokal auf dem Gerät oder in der App.
Die Journalisten haben dann Netzwerkverkehr analysiert.
Und sie berichten von laufender Kommunikation mit Meta-Servern.
Für mich ist das der klassische Moment, in dem „Privacy by Marketing“ auf „Reality by Packet Capture“ trifft.
Meta sagt: Passiert „Nur wenn du teilst“
Meta argumentiert sinngemäß:
Wenn Nutzer Inhalte mit Meta AI teilen, können Auftragnehmer diese Daten mit prüfen, um das Erlebnis zu verbessern.
Und man würde Filter einsetzen, um Privatsphäre zu schützen.
Das klingt erst mal „normal“.
So nach: „Machen doch alle.“
Aber bei einer Brille ist die Grundannahme falsch bequem.
Weil die Brille immer dabei ist.
Und weil Teilen oft nicht wie „Teilen“ wirkt.
Ein Voice-Befehl.
Ein KI-Feature.
Ein Klick.
Und schon kann Material ungewollt in einem Review-Prozess landen. Toll, oder?
Vertraue ich Meta?
Lassen Sie mich so antworten:
Cambridge Analytica – sagt Ihnen das noch was?
Kurzer Reality-Check.
Cambridge Analytica.
Da ging es um Daten.
Um Profile.
Um Psychometrie.
Um politische Werbung.
Und um die Frage: Wer ist hier eigentlich Kunde – und wer ist Produkt?
Im Brexit-Kontext wurde damals ebenfalls diskutiert, ob und wie Daten und Targeting Einfluss nehmen.
Es gab Untersuchungen und viel Nebel.
Aber der Vertrauensschaden war real.
Warum erwähne ich das hier?
Weil es ein Muster zeigt.
Meta verkauft gern das Gefühl:
„Du kontrollierst das.“
„Du entscheidest.“
„Ist doch dein Gerät.“
Und dann liest man die Details.
Oder man sieht die Schlagzeilen.
Oder man erkennt:
Das Geschäftsmodell ist nicht „verkaufen“.
Das Geschäftsmodell ist Aufmerksamkeit.
Daten.
Modelle.
Optimierung.
Wachstum.
Der Nutzer ist nicht Kunde.
Der Nutzer ist Rohstoff.
Und dann höre ich immer: „Ich habe nichts zu verbergen“
Und er ist so wahnsinnig bequem.
Aber bei Brillen kann er Ihnen schnell ins Auge gehen.
Weil Brillen halt nicht nur Ihre Daten erfassen.
Sondern auch die Daten anderer.
Und weil viele Menschen nicht damit rechnen, gefilmt zu werden.
Schon gar nicht in intimen Momenten.
Dazu kommt:
Die meisten klicken „Terms & Conditions“ weg.
Nicht aus Dummheit.
Sondern weil es Alltag ist.
Weil es Zeit kostet.
Weil es kompliziert ist.
Und lesen so furchtbar nervt.
Und genau darauf bauen viele Systeme.
Auf Zustimmung durch Müdigkeit.
Und dann ist da noch Kenia, oder besser gesagt der „Drittlandtransfer“ personenbezogener Daten.
Wenn personenbezogenes Material zur Verarbeitung in Drittländer geht, wird es in der EU juristisch schnell ernst.
Unter der DSGVO braucht es dafür klare Grundlagen und Schutzmaßnahmen.
Kenia ist aus EU-Sicht ein sensibles Thema, weil ein EU-Angemessenheitsbeschluss der Game-Changer wäre – und der Prozess dafür politisch und formal aufwendig ist.
Es gibt dazu zwar seit 2024 einen offiziellen „Adequacy Dialogue“ zwischen EU und Kenia, aber „Dialog“ ist halt noch kein „Beschluss“.
Aber ich bin Realist: Selbst, wenn Verträge existieren:
„Vertraglich geregelt“ bedeutet nicht automatisch „praktisch sicher“.
Was ich als Entwickler daran besonders schlimm finde.
Ich mag KI.
Sehr sogar.
Aber ich will transparente Datenflüsse.
Klare Grenzen.
Und robuste Standardeinstellungen in Hard- und Software.
Wenn ein Produkt behauptet:
„Designed for privacy, controlled by you“,
dann muss die technische Realität das auch tragen.
Nicht nur im Kleingedruckten.
Nicht nur im Idealfall.
Sondern im Alltag.
Im Bus.
Im Klassenzimmer.
Im Büroflur.
Denn Wearables, zu dieser Gerätegruppe gehören smarte Brillen, sind nicht „nur ein Gadget“.
Sie sind Sensoren am Körper.
Und im Zweifel: Kameras im sozialen Raum.
Kommen wir zum konstruktiven Teil dieser Episode.
Wie kann Privacy by Design für Wearables konkret aussehen?
Was wäre besser?
Für mich ist ein ziemlich gutes Leitbild:
So viel wie möglich on-device, also Verarbeitung auf dem Gerät.
So wenig wie möglich in die Cloud.
Und wenn Cloud, dann stark begrenzt.
Mit Minimierung.
Mit Zweckbindung.
Mit kurzer Speicherung.
Das geht heute.
Und bevor Sie jetzt denken: Schon wieder Apple? Ja, Apple kommt dem in Teilen recht nahe. Näher als andere.
Beispiel Apple Vision Pro:
Optic-ID-Daten sind verschlüsselt und verlassen das Gerät nicht.
Sie liegen im Secure Enclave.
Und jetzt für Nicht-ITler:
Stellen Sie sich Ihr Gerät wie ein Haus vor.
Der Hauptprozessor ist das Wohnzimmer: da passiert fast alles. Apps laufen, das System arbeitet, das Internet ist da.
Die Secure Enclave ist ein separater, abgeschlossener Tresorraum im Haus. Selbst wenn im Wohnzimmer Chaos ist – zum Beispiel weil ein Einbrecher eine Tür aufbekommt – bleibt der Tresorraum trotzdem zu.
Und Apple beschreibt für „Eyes & Hands“ explizit, dass Blickdaten nicht an Apps, Websites oder Apple weitergegeben werden.
Das ist für mich Privacy by Design im Wearable-Kontext:
Das ist nicht „KI-feindlich“.
Das ist KI nur in „erwachsen“.
Was bleibt?
Ray-Ban kann Design.
Keine Frage.
Und Smart Glasses sind technisch faszinierend. Ich hätte haufenweise Anwendungsfelder. Auch beim Golf.
Und was machen Sie als Nutzer, wenn Sie so ein Gerät haben wollen? Fragen Sie den Verkäufer nach den oben beschriebenen Eigenschaften der Hardware. Immerhin sprechen wir hier über Brillen, die zwischen 300 und 500 Euro kosten. Da darf man auch mal nachfragen.
Der Optiker meines Vertrauens fragt im Zweifel beim Hersteller nach. Das weiß ich. Und wenn Ihnen das Konzept nicht schlüssig erscheint: Finger weg! So schwer es auch fällt.
Denn sobald Unternehmen wie Meta im Spiel sind, muss man sehr genau hinschauen.
Weil nicht nur die Vergangenheit zeigt:
„Trust me“ reicht nicht.
Thorsten Siefert für netkiosk.digital.
By Hans-Christian Spengler und Thorsten A. SiefertAutor, Sprecher und Episodenbild
Thorsten Siefert
Technik und Gestaltung
Thorsten Siefert
Es gilt das gesprochene Wort
Kennen Sie Ray-Ban?
Die haben tolle Brillen.
Zumindest vom Design her.
Von der Optik.
Und wenn die Blues Brothers Ray-Bans getragen haben:
Dann wissen Sie, wie ikonisch das sein kann.
Schwarzer Anzug.
Schwarze Brille.
„Wir sind im Auftrag des Herrn unterwegs.“
Seit einiger Zeit gibt es von Ray-Ban auch Brillen mit künstlicher Intelligenz.
Smart Glasses.
Mit Kamera.
Mit Mikrofon.
Mit „Hey, mach mal KI“.
Ray-Ban arbeitet dafür mit niemand anderem als Meta zusammen.
Also: Facebook.
Instagram.
WhatsApp.
Meta.
Das ist doch ’ne tolle Kombi, oder?
Was kann da schon schiefgehen?
Hmmm…Lassen Sie uns mal gemeinsam überlegen.
Wann nutzen Sie als Brillenträger Ihre Brille?
Direkt nach dem Aufstehen?
Beim Zähneputzen?
Beim Frühstück?
Auf dem Weg zur Arbeit?
Auf der Arbeit?
Beim Arzt?
Welchen Job haben Sie?
Arzt?
Busfahrer?
Bänker?
Lehrer?
Für Brillenträger wie mich gilt: Die Brille ist immer dabei.
Und wenn die Brille „smart“ ist?
Dann sieht sie, was ich sehe.
Sie hört, was ich höre.
Sie läuft im Alltag einfach mit.
Immer.
Überall.
Und genau da wird es spannend.
Ich bin externer Datenschutzbeauftragter, Datenschutzauditor und Datenschutzkoordinator.
Ja, ich bin grundsätzlich vorsichtig mit personenbezogenen Daten.
Und gleichzeitig liebe ich KI.
Vor allem in der Softwareentwicklung.
Als Assistent für Engineering, Coding und Debugging.
Es wird Sie nicht wirklich überraschen, dass mein Lieblingskonzept „Privacy by Design“ ist.
Also: Datenschutz von Anfang an.
Nicht als Sticker auf der Verpackung.
„Trust me bro“ als Privacy- und Security-Level?
Das ist nicht mein Ding.
Wie in letzter Zeit ganz oft, ist der Auslöser für diese Episode ein Artikel, den ich bei Adafruit gefunden habe.
Adafruit ist ein 2005 von der MIT-Ingenieurin Limor Fried gegründetes, vollständig frauengeführtes Elektronik-Unternehmen aus Brooklyn (NYC), das Maker-freundliche Lernangebote sowie sorgfältig getestete und kuratierte Tools und Komponenten entwickelt, fertigt und verkauft.
Hinter dem Bericht, über den Adafruit berichtet, steckt eine gemeinsame Recherche von Svenska Dagbladet und Göteborgs-Posten.
Kurz zusammengefasst:
Menschen in Nairobi, Kenia, schauen sich Inhalte an, die mit Meta-Ray-Ban-Brillen aufgenommen wurden.
Nicht „die KI“.
Echte Menschen.
Als sogenannte Data Annotators.
Wozu?
Um KI zu trainieren.
Um Modelle zu verbessern.
Um Systeme „smarter“ zu machen.
Laut der Recherche berichten Beschäftigte bei einem Subdienstleister namens Sama, dass sie extrem intime Szenen sehen.
Leute beim Ausziehen.
Leute nackt im Bad.
Pornografie.
Sex.
Bankkarten-Details.
Und halt alles, was der User dieser Brillen auf der Toilette sieht.
Und das ist der Punkt, der bei Wearables besonders weh tut:
Viele Betroffene wissen gar nicht, dass sie gerade aufgenommen werden.
Und das stinkt mir.
„Aber das wird doch anonymisiert, oder?“
Theorie: Gesichter werden unkenntlich gemacht.
Praxis: Das klappt nicht sooooooooo zuverlässig.
Die Recherche beschreibt, dass das Blur- oder Anonymisierungs-Verfahren Gesichter und Körper teils nicht korrekt erfasst.
Vor allem bei schwierigem Licht.
Und jetzt stellen Sie sich vor, das passiert im Alltag.
Im Bus.
In der Schule.
Im Büro.
Im Wohnzimmer.
Oder im Meeting zu einem geheimen Projekts Ihres Arbeitgebers.
Ein einziger „Upsi“ reicht.
Und aus „anonymisiert“ wird „erkennbar“.
„Das bleibt doch lokal in der App“ – wirklich?
Ein weiteres Detail aus der Recherche:
Verkaufspersonal soll gesagt haben, alles bleibe lokal auf dem Gerät oder in der App.
Die Journalisten haben dann Netzwerkverkehr analysiert.
Und sie berichten von laufender Kommunikation mit Meta-Servern.
Für mich ist das der klassische Moment, in dem „Privacy by Marketing“ auf „Reality by Packet Capture“ trifft.
Meta sagt: Passiert „Nur wenn du teilst“
Meta argumentiert sinngemäß:
Wenn Nutzer Inhalte mit Meta AI teilen, können Auftragnehmer diese Daten mit prüfen, um das Erlebnis zu verbessern.
Und man würde Filter einsetzen, um Privatsphäre zu schützen.
Das klingt erst mal „normal“.
So nach: „Machen doch alle.“
Aber bei einer Brille ist die Grundannahme falsch bequem.
Weil die Brille immer dabei ist.
Und weil Teilen oft nicht wie „Teilen“ wirkt.
Ein Voice-Befehl.
Ein KI-Feature.
Ein Klick.
Und schon kann Material ungewollt in einem Review-Prozess landen. Toll, oder?
Vertraue ich Meta?
Lassen Sie mich so antworten:
Cambridge Analytica – sagt Ihnen das noch was?
Kurzer Reality-Check.
Cambridge Analytica.
Da ging es um Daten.
Um Profile.
Um Psychometrie.
Um politische Werbung.
Und um die Frage: Wer ist hier eigentlich Kunde – und wer ist Produkt?
Im Brexit-Kontext wurde damals ebenfalls diskutiert, ob und wie Daten und Targeting Einfluss nehmen.
Es gab Untersuchungen und viel Nebel.
Aber der Vertrauensschaden war real.
Warum erwähne ich das hier?
Weil es ein Muster zeigt.
Meta verkauft gern das Gefühl:
„Du kontrollierst das.“
„Du entscheidest.“
„Ist doch dein Gerät.“
Und dann liest man die Details.
Oder man sieht die Schlagzeilen.
Oder man erkennt:
Das Geschäftsmodell ist nicht „verkaufen“.
Das Geschäftsmodell ist Aufmerksamkeit.
Daten.
Modelle.
Optimierung.
Wachstum.
Der Nutzer ist nicht Kunde.
Der Nutzer ist Rohstoff.
Und dann höre ich immer: „Ich habe nichts zu verbergen“
Und er ist so wahnsinnig bequem.
Aber bei Brillen kann er Ihnen schnell ins Auge gehen.
Weil Brillen halt nicht nur Ihre Daten erfassen.
Sondern auch die Daten anderer.
Und weil viele Menschen nicht damit rechnen, gefilmt zu werden.
Schon gar nicht in intimen Momenten.
Dazu kommt:
Die meisten klicken „Terms & Conditions“ weg.
Nicht aus Dummheit.
Sondern weil es Alltag ist.
Weil es Zeit kostet.
Weil es kompliziert ist.
Und lesen so furchtbar nervt.
Und genau darauf bauen viele Systeme.
Auf Zustimmung durch Müdigkeit.
Und dann ist da noch Kenia, oder besser gesagt der „Drittlandtransfer“ personenbezogener Daten.
Wenn personenbezogenes Material zur Verarbeitung in Drittländer geht, wird es in der EU juristisch schnell ernst.
Unter der DSGVO braucht es dafür klare Grundlagen und Schutzmaßnahmen.
Kenia ist aus EU-Sicht ein sensibles Thema, weil ein EU-Angemessenheitsbeschluss der Game-Changer wäre – und der Prozess dafür politisch und formal aufwendig ist.
Es gibt dazu zwar seit 2024 einen offiziellen „Adequacy Dialogue“ zwischen EU und Kenia, aber „Dialog“ ist halt noch kein „Beschluss“.
Aber ich bin Realist: Selbst, wenn Verträge existieren:
„Vertraglich geregelt“ bedeutet nicht automatisch „praktisch sicher“.
Was ich als Entwickler daran besonders schlimm finde.
Ich mag KI.
Sehr sogar.
Aber ich will transparente Datenflüsse.
Klare Grenzen.
Und robuste Standardeinstellungen in Hard- und Software.
Wenn ein Produkt behauptet:
„Designed for privacy, controlled by you“,
dann muss die technische Realität das auch tragen.
Nicht nur im Kleingedruckten.
Nicht nur im Idealfall.
Sondern im Alltag.
Im Bus.
Im Klassenzimmer.
Im Büroflur.
Denn Wearables, zu dieser Gerätegruppe gehören smarte Brillen, sind nicht „nur ein Gadget“.
Sie sind Sensoren am Körper.
Und im Zweifel: Kameras im sozialen Raum.
Kommen wir zum konstruktiven Teil dieser Episode.
Wie kann Privacy by Design für Wearables konkret aussehen?
Was wäre besser?
Für mich ist ein ziemlich gutes Leitbild:
So viel wie möglich on-device, also Verarbeitung auf dem Gerät.
So wenig wie möglich in die Cloud.
Und wenn Cloud, dann stark begrenzt.
Mit Minimierung.
Mit Zweckbindung.
Mit kurzer Speicherung.
Das geht heute.
Und bevor Sie jetzt denken: Schon wieder Apple? Ja, Apple kommt dem in Teilen recht nahe. Näher als andere.
Beispiel Apple Vision Pro:
Optic-ID-Daten sind verschlüsselt und verlassen das Gerät nicht.
Sie liegen im Secure Enclave.
Und jetzt für Nicht-ITler:
Stellen Sie sich Ihr Gerät wie ein Haus vor.
Der Hauptprozessor ist das Wohnzimmer: da passiert fast alles. Apps laufen, das System arbeitet, das Internet ist da.
Die Secure Enclave ist ein separater, abgeschlossener Tresorraum im Haus. Selbst wenn im Wohnzimmer Chaos ist – zum Beispiel weil ein Einbrecher eine Tür aufbekommt – bleibt der Tresorraum trotzdem zu.
Und Apple beschreibt für „Eyes & Hands“ explizit, dass Blickdaten nicht an Apps, Websites oder Apple weitergegeben werden.
Das ist für mich Privacy by Design im Wearable-Kontext:
Das ist nicht „KI-feindlich“.
Das ist KI nur in „erwachsen“.
Was bleibt?
Ray-Ban kann Design.
Keine Frage.
Und Smart Glasses sind technisch faszinierend. Ich hätte haufenweise Anwendungsfelder. Auch beim Golf.
Und was machen Sie als Nutzer, wenn Sie so ein Gerät haben wollen? Fragen Sie den Verkäufer nach den oben beschriebenen Eigenschaften der Hardware. Immerhin sprechen wir hier über Brillen, die zwischen 300 und 500 Euro kosten. Da darf man auch mal nachfragen.
Der Optiker meines Vertrauens fragt im Zweifel beim Hersteller nach. Das weiß ich. Und wenn Ihnen das Konzept nicht schlüssig erscheint: Finger weg! So schwer es auch fällt.
Denn sobald Unternehmen wie Meta im Spiel sind, muss man sehr genau hinschauen.
Weil nicht nur die Vergangenheit zeigt:
„Trust me“ reicht nicht.
Thorsten Siefert für netkiosk.digital.