Beiträge von guckux

    Um den Akku eures iPhones so lange wie möglich bei maximaler Kapazität zu halten, lasst die Akkuladung möglichst nie unter 20% kommen & ladet das iPhone jeden Abend auf. Selbst wenn es noch 50% oder mehr hat. So etwas wie den "Memory Effekt" von früher gibt es schon lange nicht mehr. Es ist für Lebensdauer moderner Akku sehr schädlich sie häufig zu komplett zu entladen. Das reduziert dann schnell die Maximalkapazität. Hingegen hat das häufige aufladen wiederum kaum Einfluss auf die Akku Gesundheit.

    Gerade nochmal drüber gestolpert...

    Ich stimme Dir zu, 20% oder weniger ist schlecht für den Akku (pauschal, wobei ich mir die Frage stelle, ob hier nicht sogar von den Herstellern "restriktiv" vorgegangen wird).

    Der Memory-Effekt ist bei Akkus auf Lithium Basis (egal ob LiIo, LiFe oder LiPo), wie auch bei eneloops "nicht mehr vorhanden" - im Gegensatz zu den alten klassischen NiCd.

    Dem "häufigen" Aufladen möchte ich widersprechen. JEDER Ladevorgang ist das Anstossen eines chemischen Prozesses und diese Anzahl ist "begrenzt" - man spricht bei Li-basierenden von rund 1000-1500 als Leitzahl. Dabei spielt es keine Rolle, ob von 20 auf 23 oder 46 auf 71 oder 20 auf 100 Prozent geladen wird.

    Tiefenentladung ist das tödlichste was man Li-Akkus antun kann, im Gegensatz zu NiCd ist das regenerierbar!


    Mein iPhone SE 1.Gen (2016) habe ich bis vor wenigen Wochen in Nutzung gehabt, zuletzt sagte es mir, es wären noch 71% Akku-Kapazität vorhanden (hat jeden Tag mindestens einmal geladen werden müssen) und hatte zuletzt über 2,500 Ladezyklen hinter sich. Geladen habe ich immer erst bei höchsten 25% oder weniger und immer voll (was auch nicht empfohlen wird).

    Wichtig auch: Kälte tut den Akku ebenfalls nicht gut!

    Letzte Woche eine Gottesanbeterin im Vorgarten meiner Vermieter entdeckt - nur weil sie gerade das Hinterteil einer Hummel verspeiste - da "wackelte" etwas. Scheint aber "angezählt" gewesen zu sein, vor 2 Tagen leider gestorben, ein Tag zuvor noch fotografieren können! ;) Jetzt die nächste entdeckt (noch kein Foto - auf der Suche :D )...


    Ein Adapter ist eine Sache weil mit wenig Aufwand billig zu produzieren hier lohnen dann auch kleine Chargen und auch Fenvi hat ja eine Lücke gefunden (sind am langen Ende ja auch "Apple BRCM Chips")

    Ja, trivial dürfte die Sache nicht sein, habe erst aktuell nen Artikel gelesen, in dem "unser Legacy Patchmeister" dosdude1 es fertig gebracht hat, die 512GB SSD im macMini M2 gegen eine 2TB "auszutauschen". Das "Sahnehübchen" ist dann die eigene Firmware (mit den BRCM wahrscheinlich nicht anders). Ich "befürchte" Apple vernagelt das alles, wo es geht und noch a bisserl mehr...

    Ihr habt mich irritiert - mir waren Kleinkrafträder - zu welchem die Simson S51 gehört - als "unlimitierte" Klasse bekannt, begrenzt durch die ccm. Eine "Geschwindigkeitsbegrenzung" gab es nicht - jetzt habe ich in Wikipedia erfahren dürfen, daß der Begriff Kleinkraftrad eine sehr bewegte Geschichte hinter sich hat...

    Find'ich schön, daß man hier im Forum breitflächig zum Lernen angeregt wird!

    Bob-Schmu


    geringe Leistung hat Nio82 ' CPU beileibe nicht. ;)


    Er wird, bei seiner Hardware, wie bei jeder Virtualisierungslösung, mind. ein paar Prozentpunkte weniger Leistung haben, als nativ (ohne Hypervisor-layer).

    Das Hypervisor davon leben, viele virtuelle zu versorgen und eine Mischkalkulation von ungenutzten Ressourcen an andere abzugeben ist deren primärer Sinn. Ich kenne "keine" Server, welche 24/7 mit zB >80% Last fahren...

    Als Spielerei um es einfach mal auszuprobieren, ist es allemal gut.

    Das größte Manko sehe ich noch im Bereich memory, 16GB ist so in etwa das Minimum für nen Hypervisor, außer man betreibt 2-4GB linux Systeme :D


    Ich fand das damals in den 90igern "neckisch", als ich das erste mal VMware unter FreeBSD ausprobierte - damals mit einer Windows 98SE Virtualisierung, damals wurde mir erst bewußt, wie lahm das filesystem bei M$ ist, so schnell hat die virtualisierte Umgebung unter FreeBSD (UFS-filesystem) nativ nirgends gebootet!

    Guckux HackMac1


    Risiken? Welche Risiken?

    Das erste Risiko, welches Du eingehst, ist IT-Technik zu benutzen, die Krönung dessen ist dann iOT.

    Differenzierter betrachtet, gibt es Meinungen, welche "kommerzielle" Herstellerprodukte befürworten (Bug-fixing, support). Hier an erster Stelle M$ (Millionen Fliegen können sich nicht irren), in den letzten Jahren häufen sich deren eklatante Sicherheitsprobleme, zu letzt bei dem Exchange Problem, ganz aktuell Azure365, wo eine chinesische Hackertruppe einen "Generalschlüssel" in die Finger bekam.

    (Und wir wissen ja alle, wenn man ein kompromittiertes System betreibt, ist der einzig sichere Säuberungsweg ein kompletter Neu-Aufbau, aber sonst und darüber als solches hüllt M$ sein Schweigemäntelchen).

    Ich bin aber auch recht überzeugt, daß es Apple mit MacOS oder - so es noch existent wäre - IBM mit OS/2, es nicht anders machen würden.


    Die Software, angefangen beim Betriebsystem, über die Applikationen, werden immer komplexer und somit fehleranfälliger und sicherheitskritischer.


    Ich arbeite seit >30 Jahren mit OpenSource. In solch einer langen Zeit gibt es immer wieder mal Produkte, welche auch nach langjähriger Pflege, eingestampft werden. Ist bei den kommerziellen aber auch nicht anders.

    Sicherheitslecks gibt es auch hier immer wieder - und über Macports und Homebrew mag es möglich sein, sich auch mal codeveränderte Software auf den Rechner holen zu können. Die 30 Jahre haben aber auch gezeigt, daß die OpenSource Entwickler eine ganz andere Ethik haben, sie veröffentlichen idR ohne Kompromisse schnellstmöglichst entsprechende Kenntnisse über Lecks wie auch ein wesentlich schnelleres Fixing der Lecks. Ich habe hier den Eindruck, daß dergleichen Probleme, sei es security, wie auch Bugs, an ihrer "Ehre" kratzt.


    Schönes Beispiel ist hier auch unser Sascha_77 , meist dauert es nur wenige Stunden (gefühlt Minuten), bis die Probleme gefixt sind - abgesehen von einem Support, von welchem sich die "Großen" eine Scheibe abschneiden könnten. DAS ist in meinen Augen "the way of OpenSource" - anders kenne ich es nicht.


    So, jetzt nochmal meine Frage vom Anfang:

    Welche Risiken meinst Du?

    Guckux netsrot39


    Freut mich, daß Dir die EFI geholfen hat...


    Daß der 8200er kein UEFI hat, bin ich mir noch nicht sicher - die Installation als solches funktioniert aber nur über Legacy-part...


    Da der Rechner nicht bei mir steht, kann ich jetzt nicht unbedingt so damit "spielen" - der 2te im Keller hat leider ein defektes Netzteil.

    Angedacht ist aber, daß Teil im Keller zum Laufen zu kriegen und eine OpenCore Config dafür zu erstellen ;) sobald ich die entsprechende Muse dazu habe...

    Tja - bei mir leben in der Regel die Rechner immer rund 10 Jahre, bis sie in "Rente" gehen.

    1990 mein Macintosh SE, bereits 1994 von einem Q950 abgelöst, aufgerüstet mit einer PPC601 via PDS-Slot - lebte bis Anfang des 21. Jahrhunderts.

    Da ich von Anfang an zu Hause auf "Heterogenität" Wert legte, wurde 1995 bereits ein FreeBSD Server mit AppleTalk-Server (netatalk) und SMB aufgebaut.

    Die 0er Jahre nach 2000 waren bestimmt von FreeBSD, begeleitet von MacBook G4 15" und PowerMacintosh G4 und Windoof.

    Es gab immer Original Apple Mac-Hardware hier, meist etwas älter (der 950er war ne Ausnahme).

    Seit 2 Jahren ist M$ Windows privat verbannt - ich vermisse es nicht (außer das dort verfügbare Audials ;) ) seit gut einem Jahr noch ein MB Pro M1-Max 16", von welchem ich erwarte, daß es mir lange Jahre dienlich sein wird. Meine Frau arbeitet noch an einem MB Pro 6,1 und ist glücklich damit.


    Die letzten 30 Jahre haben mir gezeigt, daß Aufrüstungen zwar möglich sind, aber seltenst sich aus Preis-/Leistungssicht lohnen - außer man bekommt die Bauteile (zB Ram) geschenkt. Prozessor-technisch ist eine Aufrüstung idR aller Fälle verbunden mit neuem Board und sinnvollerweise auch neuem (besserem/schnellerem) Ram.

    Massenspeicher findet sich im Server, sinnvollerweise, da dann von allen Familienmitgliedern nutzbar. Das 1Gbit Netzwerk tut seine Dienste seit 10 Jahren und ein mehr sehe ich auch da noch nicht :p


    Der Hackintosh (seit 2018) ist und war für mich mehr eine "Spielerei" der Machbarkeit und gab mir auch Einblick in das System, welches auf reine Anwenderebene eher unsichtbar geblieben wäre. (Dank an die ein oder andere Ausführung der aktiven Forumsmitglieder)

    Der "PC" auf intel-Basis war immer nur eine Bastelecke, außer für mein Server-Betriebssystem.


    Die Erweiterbarkeit von einem Arbeitsplatzrechner sehe ich als 2trangig an, man kauft sich heute, was man heute braucht und wenn es mehr benötigt, kommt entsprechend eine Komplettaktualisierung (Austausch).

    In den 30 Jahren habe ich bestimmt eine Eigentumswohnung für Computer-Schotter ausgegeben (Aufrüstungen), sehe das aber "pragmatisch", ich habe gelernt und entsprechend als Ausbildungsgeld... ;)

    Im Großen und Ganzen kann ich einiges nachvollziehen ozw00d

    Aber die Unterstellung - "nicht mal so intelligent oder ansatzweise gebildet sind, das sie es auf die Kette bekommen sich sozial zu verhalten" ein Zusammenhang zwischen sozialer Kompetenz und Bildung/Intelligenz existiert, möchte ich widersprechen!

    Ich habe in meinem kurzen Leben schon viele intelligente und hochintelligente Menschen kennengelernt, alle beileibe nicht ugebildet - diese Erfahrungen haben mich aber auch schon zu der Überlegung gebracht, ob die Quote von sozial inkompetenten bei den "intelligenteren" Menschen höher ist als bei den "weniger intelligenten"!

    geblockt werden und in der Theorie sollte WLAN laufen. In der Praxis scheitere ich daran die Frameworks zu kopieren bzw. zu rsyncen denn der Versuch die mittels rsync (so macht es der Patcher bei Frameworks) scheitert mit Fehler...

    Mit dem tar will es auch nicht funktionieren?

    Dem schließ ich mich einfach an.

    Cool find ich unter anderem, daß man Time Machine einfach weitere Backup-Volumen hinzufügen kann, bei mir gelegentlich die externe Platte angestöpselt, ansonsten regelmäßig auf den Server... funktioniert einfach und prima (ich suche noch etwas vergleichbares für Windows?)


    und es funktioniert zuverlässig, daß einzige, was für das Desaster Recovery verfügbar sein muss, ist eine Install-Stick Version... daß muss man dann gelegentlich manuell erstellen (OC ist das wichtiger meiner Meinung nach als das "InstallImage")