
Sign up to save your podcasts
Or


Apple hat angekündigt, direkt auf iPhones und iPads nach Darstellungen von Kindesmissbrauch ("Child Sexual Abuse Material", kurz CSAM) suchen und Funde an Behörden melden zu wollen. Die Kritik an den Plänen, die anfangs nur in den USA umgesetzt werden sollen, ist laut und ziemlich einhellig, bislang weicht der US-Konzern aber nicht zurück. Versuchte Apple bisher, sich als Verteidiger der Privatsphäre und des Datenschutzes zu präsentieren, geht es hier "um nichts weniger als im System verankerte Wanzen", lautet die Kritik. Zwar geht es hier um Darstellungen von Kindesmissbrauch, aber weitere Sachverhalte könnten hinzukommen, wird befürchtet. Worum es technisch geht und was hier auf dem Spiel steht, besprechen wir.
By heise onlineApple hat angekündigt, direkt auf iPhones und iPads nach Darstellungen von Kindesmissbrauch ("Child Sexual Abuse Material", kurz CSAM) suchen und Funde an Behörden melden zu wollen. Die Kritik an den Plänen, die anfangs nur in den USA umgesetzt werden sollen, ist laut und ziemlich einhellig, bislang weicht der US-Konzern aber nicht zurück. Versuchte Apple bisher, sich als Verteidiger der Privatsphäre und des Datenschutzes zu präsentieren, geht es hier "um nichts weniger als im System verankerte Wanzen", lautet die Kritik. Zwar geht es hier um Darstellungen von Kindesmissbrauch, aber weitere Sachverhalte könnten hinzukommen, wird befürchtet. Worum es technisch geht und was hier auf dem Spiel steht, besprechen wir.

25 Listeners

11 Listeners

7 Listeners

20 Listeners

2 Listeners

8 Listeners

2 Listeners

12 Listeners

3 Listeners

9 Listeners

6 Listeners

5 Listeners

19 Listeners

1 Listeners

1 Listeners

1 Listeners

0 Listeners

0 Listeners

4 Listeners

1 Listeners

3 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners

0 Listeners