Ich glaube nicht das die Überwachung oder die Kriminellen, wenn überhaupt, bis zu mir (kleiner Endkunde) "durchschlagen".
IOS 14.8.1 auf Iphone 12 Pro
-
-
-
Apple hat nun alle Informationen über die geplant, kommende Funktion aus dem Netz genommen.
Erinnert mich irgendwie an das Verhalten von Whatsapp und ihren neuen AGBs.
Whatsapp: "Wir müssen das jetzt umsetzen. Oh ein Shitstorm. Na dann tütütü. Haben wir was von AGBs gesagt? Wir können uns gar nicht daran erinnern."
-
Hier ein soeben erschienener Artikel von ifun.de zu dem Thema:
"
Im Anschluss an die Ausgabe der jüngsten iOS-Aktualisierung auf Version 15.2 hat Apple die Sonderseite „Erweiterter Schutz für Kinder“ grundlegend überarbeitet und hier jegliche Verweise auf die baldige Einführung einer Missbrauchs-Erkennung entfernt.
Während Apple hier bislang noch über die hauseigenen Pläne informierte, zukünftig alle zum Upload in die iCloud vorgemerkten Fotos auf das Vorhandensein möglicher Missbrauchsmotive hin zu prüfen, taucht der Hinweis auf die geplante Suche nach „Child Sexual Abuse Material“, sogenannten CSAM-Bildern, nun überhaupt nicht mehr auf der Sonderseite auf.
Alle CSAM-Hinweise (und PDFs) entfernt
Dabei hat Apple nicht nur den Volltext ordentlich zusammengestrichen, sondern auch die Links auf die zahlreichen PDF-Veröffentlichungen entfernt, die auf der Übersichtsseite bislang zum Download angeboten wurden und technische Hintergründe zu Apples Vorgehensweise bei der Suche nach CSAM-Bildern skizzierten.
Seit Apples Ankündigung, an der Einführung eines lokalen Bild-Scanners zu arbeiten, sah sich das Projekt massiver Kritik ausgesetzt. Vor allem die Tatsache, dass Apple den Scan auf die Geräte seiner Anwender auslagerte und hier verdachtsunabhängig alle Bilder vor dem Upload von intelligenten Algorithmen prüfen wollte, stieß auf Kritik.
Apple hat den bisherigen Text stark zusammengestrichen
Sorge vor Missbrauch der Missbrauchserkennung
Apple, so der Vorwurf von Journalisten, Bundestagsabgeordneten, Bürgerrechtlern und Anwälten, würde damit eine Infrastruktur schaffen, die schnell für Begehrlichkeiten in autoritären Regimen sorgen würde. Apple könnte nicht garantieren, das die so etablierten technischen Voraussetzungen langfristig nicht auch zur Suche nach regierungskritischem Material eingesetzt werden würden.
Nun sind alle Hinweise auf den CSAM-Scan verschwunden. Auf der überarbeiteten Seite verweist Apple nur noch auf die mit iOS 15.2 eingeführte Nacktbilderkennung in der Nachrichten-App und die Interventionen von Siri und der Safari-Suche, wenn Anwender versuchen nach Missbrauchsbilder zu suchen.
Apple selbst hat sich zum Hintergrund der Überarbeitung noch nicht offiziell geäußert und lässt damit im unklaren, ob und wann es mit der implementierung eines CSAM-Scanners in iPhone und iPad weitergehen wird.
Alle Artikel, die wir bislang zum Thema verfasst haben könnt ihr in unserem Nachrichten-Archiv unter dem Schlagwort CSAM nachlesen. Hier eine Auswahl:
- Gegen die Bilderkennung in iMessage: Über 90 Lobby-Gruppen appellieren
- Mindestens 30 Fotos: Apple präzisiert Missbrauchs-Erkennung
- Apples geplante Fotoscans sorgen auch intern für massive Kritik
- Kinderporno-Scan: Apples Antworten lassen viele Fragen offen
- Apple-Kritik aus dem Bundestag: Lokaler Foto-Abgleich ein „Dammbruch“
- Offener Brief: „Apple-Überwachung verstößt gegen Pressefreiheit“
-
Falsch!
Aha. Falsch?
Alle Berichte, dass CSAM-Code in diversen 14.x-Versionen entdeckt wurde sind also Fake News?
Egal ob aktiv oder was auch immer.
-
Nein, du hast seinen Post aus dem Kontext gerissen.
Falsch!
Aufgrund weltweiter Proteste von Sicherheitsexperten (!) hatte Apple das Vorhaben verschoben und außerdem die iOS-Version 14.8.1 herausgebracht.
So konnten sie ein notwendiges iOS-Update mit Fehlerbehebungen oder Sicherheitslücken anbieten, hielten sich aber alles offen.
Otto-Normalverbraucher vergisst schnell bzw. hat kein tieferes Interesse an diesen Dingen oder glaubt einfach alles, weil bequemer.
Und genau das ist so richtig, was it-hase da schreibt, siehe Bericht von ifun.de.
Ok, zugegeben, das Wort "Falsch" ist vielleicht etwas hart gewählt.
-
Hallo Klaus,
ich danke Dir sehr für Deine ausführliche Recherche!
Hatte in den letzten Wochen leider selbst nicht die Zeit, richtig aktiv genau das zu recherchieren, also ob Apple das weiter so schreibt oder sogar merkt, dass sie in eine Falle der NSA gelaufen sind, indem sie sich instrumentalisieren lassen und sogar Software dafür entwickelt haben, welche je nach Anwender Fluch oder Segen sein kann.
Ja, das Wort „falsch” ist etwas hart, aber das Thema ist sehr heikel und da sollten alle hellhörig werden und die Alarmglocken schrillen, wenn es plötzlich um Kindeswohl geht, was sonst niemanden aus diesen Kreisen interessiert!
Und wenn Apple es so handhaben würde wie es BlackBerry und Microsoft schon immer gemacht haben (also alles was sie auf ihre Server bekommen, aktiv scannen und wenn davon etwas gegen deren Gesetze verstößt aktiv an die Behörden melden), würde mich das nicht stören, da ich nichts in die Cloud hochlade und Ungesetzliches sowieso nicht.
Aber eine Technik zur Verfügung stellen, welche Unschuldige in Teufels Küche bringen und in Schurkenstaaten für Oppositionelle tödlich sein kann – nein danke!
-
Mal was anderes ? Welches IOS ist installiert man jetzt ein Neues Iphone 12 pro bekommt?
-
Das wird unterschiedlich sein. Aber ein Neues von 2020 mit noch iOS14 zu finden ist bestimmt nicht einfach
Telefoniere doch mal bei dir in der Nähe rum (Apple/Händler/Netzbetreiber usw.), vielleicht hast du ja Glück.
-
Denke mal die können das auch nicht sagen ohne ein Paket zu öffnen
-
Sie müssten ein Gerät von 2020 lagernd haben. Oder z.B. ein Vitrinengerät welches mit Rabatt abgegeben wird.
Jetzt mitmachen!
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!