Posts by Download-Fritz

    griven "-master" sollte nicht funktionieren, und "-undo" sollte funktionieren, wenn dieser Commit wirklich das Problem ist, NVRAM-Resets zwischen den Tests nicht vergessen. "master" ist der unveränderte master-Commit, "undo" ist der selbe Commit + die Änderung aus dem von dir angegebenen Commit rückgängig gemacht. Beide stammen von diesem Commit ab: https://github.com/acidanthera…02e070ffab1180a4d4833f312

    Das Problem ist identifiziert eine Lösung scheint es aber nicht zu geben zumindest kam in der Richtung von Download-Fritz nichts mehr.

    Bitte bei Antworten immer Zitieren/Pingen, ich antworte und 2 h später hab ich vergessen, dass da was war :D

    Wenn du doch noch testen willst, kann ich dir ne neue OC-Build mit dieser einen Änderung rückgängig gemacht kompilieren, aber das wäre schon sehr seltsam, wenn das wirklich das Problem wäre

    bei mir j185

    Mit dem allerneusten macOS-Update wird alles mit T2 mal wieder schwieriger. Am besten ist iMac19,1 SMBIOS + x86legacy (= "Default" in neuen OC-Versionen) SecureBootModel.

    aber Clover bietet diese Möglichkeit nicht, oder habe ich da etwas übersehen?

    Alles, was mit Sicherheit zu tun hat, gibt's generell nur bei OC. Wenn du dich mal gewundert hast, warum Leute sagen, dass Clover die Recovery schneller bootet - die haben einfach die DMG-Signaturprüfung zwangs-abgeschaltet. :)

    Meine Erfahrung bei 0.7.2 ist leider die, dass eine von ocvalidate akzeptierte Datei noch lange nicht problemlos bootet.

    Woher soll ocvalidate auch wissen, was dein System zum Booten braucht? Wie dokumentiert prüft es die config auf syntaktische Korrektheit und zu einem Grad Konsistenz, nicht mehr und nicht weniger.

    theCurseOfHackintosh Doch, ich bin "DF"


    Zum Thema Kooperation, ich hab vor einem Jahr noch Tipps gegeben, wie sie unsere Bibliotheken sauber integrieren können. Wurde von Jief beschuldigt, ich wäre ja nur im Thread, um über ihren Code zu nörgeln. Einen Monat später kam einer meiner Fixes dann auch, weil es spontan Probleme gab.


    Ganz schön arrogant für diese geballte Inkompetenz... Naja.

    Es wird hier selbstverständlich auch Apple analysiert (auseinander genommen) und objektiv bewertet.

    Ich weiß nicht, was du gelesen hast, aber ich lese hier "mir doch egal, wie privat die Lösung gestaltet ist, es ist nicht maximal privat".

    Quote

    Again, the bottom line here is that whatever privacy and security aspects are in the technical details, all photos uploaded to iCloud will be scanned.

    Sehr, sehr viel Text grundlos über drei Seiten verstreut für weitgehend Nullaussagen. Apples Lösung ist privater als z.B. Microsofts, aber das interessiert natürlich niemanden. Was sich jeder Mal fragen sollte ist, warum Apple in sowas so viel Zeit investiert, und warum eine solche Suche bei den großen Anbietern Standard ist. Wenn gewisse Instanzen bitten, dann ist das keine Bitte, und es gibt nur noch die Schadensbegrenzung.

    Aber irgendwie weicht das ja nun vom eigentlichen Thema des Threads schon ziemlich ab ;)

    Nicht wirklich, ist das selbe Prinzip. Zur """Überwachung""" der Daten braucht es kein CSAM (Face-ID), dafür reicht der nicht-E2E-Speicher (GPS, Netz). Apple kann seit Einführung der iCloud alle Daten dort einsehen, warum sollten sie dafür CSAM einführen? Klar, um alles auf dem Gerät zu überwachen statt nur die iCloud. Wird bestimmt vielfach belegt werden.

    umax1980 Face-ID-Daten verlassen das Gerät nicht. Wenn du die unfundierte Hypothese aufstellst, dass sie es doch tun, braucht es einen Grund. Dein Grund ist "Leute an Orten zu erkennen". Leute an Orten zu erkennen kann man viel einfacher umsetzen, da braucht es keine Biometrie. In den allermeisten Fällen würde die GPS-Funktion des Handys der Betroffenen reichen. Ist das aus irgendeinem Grund nicht möglich, reichen für rudimentäre Erkennung auch Social-Media-Bilder oder dergleichen. Biometrie braucht man dafür in keinem Fall.


    Du nimmst realistische Konzepte (Sammlung von Daten aus diversen Quellen) und schwurbelst dir damit unbegründeten Stuss zusammen (Nutzung von biometrischen Daten zur Ortsüberwachung). Und ich will jetzt nicht 50 weitere zurechtgesponnene Gedankenmonster hören, was man mit den Daten alles machen kann, sondern höchstens belegt nachvollziehbare, problematische Dinge.

    Ich habe langsam keinen Nerv mehr, den Klick-geilen "Medien" und ihren "Experten" hinterherzukehren. Daher wünsche ich viel Spaß mit weniger technischem Hintergrund und mehr Sarkasmus. Manche sollten ein bisschen mehr auf ihre Daten Acht geben, und manche, was sie ungefiltert von Schundseiten wie heise übernehmen.


    Jeder normale Cloud-Anbieter scannt die Daten in der Cloud. Die liegen dort, genau wie bei Apple, ja freudig ohne E2E herum. (Wer Cloud-Anbieter ohne E2E nutzt, macht sich sowieso ein wenig lächerlich, aufzuschreien, wenn die Daten in irgendeiner Form angerührt werden.) Dort läuft dann eine KI auf den Rohdaten und, wenn (Kriterien oft intransparent) die KI meint, unangenehmes Material zu sehen, wird das Konto geschlossen. Im Falle von Microsoft teils ohne Möglichkeit der Richtigstellung. Das Foto deines eigenen Kindes in der Wanne ist gar kein Kinderporno? Schade, deine XBOX-Spiele kassieren wir trotzdem ein. Kein Grund zum Aufschrei, Leute, das hat alles seine Richtigkeit.


    Wieso sollte Apple also etwas anders machen als alle anderen? Weil die Nazis hinter'm Mond unsere Daten wollen, oder? Ja klar, aber andere Gründe gibt es als Schein trotzdem noch. Der Scan auf dem Gerät erlaubt es Apple so zu tun, als müssten sie die Daten niemals anrühren. Dort wird nämlich ein Hash der (noch!, sie kommen ja alle in die iCloud) lokalen Daten generiert (von einem Hash kann man niemals eindeutig auf eine Ursprungsdatei zurückrechnen) und mit einer Datenbank aus Hashes von Kinderpornos verglichen. Die KI wird also von "ist das ein Kinderporno?" reduziert zu "ist das ein Kinderporno aus der Datenbank?" Bei 30+ Übereinstimmungen schaut Apple sich das Konto an. Frech, oder? Die schauen sich dann die Daten an, statt einfach das Konto für immer wegzusperren. Im Namen des Datenschutzes sollten sie das tun, und direkt die Behörden alarmieren, oder?


    Irgendwann kommen wir an den Punkt, an dem ich gefragt werden: Hey Fritz, das sieht doch bisher alles fast so aus, wie bei anderen normalen Cloud-Anbietern, oder? Da ist ja auch nichts E2E und die lassen ja auch KIs laufen, sogar auf den Rohdaten. Apples Methode klingt doch durch die Hash-Geschichte eigentlich sogar privater, oder? Ja, soll ja auch gut klingen, denn direkt nach dem Hash-Check bekommen die Nazis hinter'm Mond eure abfotografierte TAN-Liste. Bei anderen Cloud-Anbietern hätte das nicht passieren können.


    Und dann kommen bald bestimmt wieder die Datenschutz- und Sicherheitsexperten "Ladida, die Datenbank könnte Materialien politischer Feinde enthalten, oder jemand könnte dir Collision-Bilder zuschieben". Welch Offenbarung, wahre meister ihrer Kunst, solch neue und kreative Ansätze würden bei den KI-Ansätzen der Konkurrenz natürlich nicht funktionieren. Ahem.