Posts by jemue

    gerade inkrementielle Backups wie TM belasten die Medien stark mit Schreibzugriffen was bei SSD's kritisch werden kann da die Zellen nur eine begrenzte Zahl an Schreibzyklen überstehen bevor sie ausfallen

    Das ist - gelinde gesagt - Unsinn. Deine Backup SSD wird immer in etwa dasselbe Schreibvolumen wie deine interne SSD aufweisen. Es werden ja beim Backup keine Daten dazu erfunden, sondern es wird im Optimalfall exakt jedes Bit gesichert, das auch auf deinen internen Datenträgen geschrieben wird. (plus meinetwegen 0,1% Overhead für irgendwelche TimeMachine Metadaten). Und wenn man TimeMachine "richtig" nutzen will, braucht man ja eh mehr Speicherplatz als man auf seinem internen Datenträger hat. Also hat man dadurch noch mal zusätzlich deutlich mehr Schreibzyklen verfügbar als bei 'ner kleineren SSD.

    (Dabei wird natürlich davon ausgegangen, dass intern und als Backup dasselbe Modell verwendet wird. Und nicht z.B. intern MLC und als Backup QLC).


    Gegen eine SSD als Backup Medium sprechen eigentlich erst mal nur die Kosten.


    Für Heimanwender ist die Performance sicherlich auch zu vernachlässigen. (Wobei es bestimmt auch den ein oder anderen Anwendungsfall gibt, wo die Daten besonders schnell gesichert werden sollen - vor allem wenn man seinen Backup Datenträger nur 1x pro Woche an den Rechner anschließt.. Aber das ist dann sicherlich eher die Ausnahme.)

    apple hat ja keine Eigens entwickelte hardware, allso müsste es doch alle komponenten zu kaufen geben ?

    Genau das ist der Knackpunkt. Es ist Apple Hardware mit Apple Firmware und Apple Treibern. Und einiges davon hat sogar Apple Schnittstellen (z.B. WLAN, SSD), für die es in normalen PCs gar keine Anschlüsse gibt.

    Und die Teile gibt's eben nicht einfach so zu kaufen. Apple verkauft keinen einzelnen Hardwarekomponenten, sondern komplette Geräte. Bei ebay findest du natürlich trotzdem einige Teile aus gebrauchten / defekten Geräten und daraus kannst du dir dann auch wieder ein voll funktionsfähiges Apple Gerät basteln. Das kann man dann aber sicherlich nicht mehr als Hackintosh bezeichnen :D Das ist wie wenn du dir ein komplettes Auto aus lauter Einzelteilen von ebay zusammenbaust. Da ist die Situation übrigens nicht anders: Schon mal versucht 'nen neuen Auto Motor original direkt vom Hersteller zu kaufen? Gibt's nicht. Die verkaufen auch keine Komponenten, sondern nur komplette Autos.


    Der schwierigste Teil an der ganzen Geschichte ist das Mainboard und UEFI. Bei originaler Apple Hardware sind dort Funktionen enthalten, die es bei normaler PC Hardware nicht gibt. Dieser Teil wird von Clover und Ozmosis bereitgestellt.

    Aber das ist auch nur die halbe Miete: Es gibt auf dem Markt tausende verschiedene Mainboards, die alle anders verdrahtet sind. Und jeder Hersteller baut sein BIOS / UEFI ein bisschen anders zusammen.

    Und wie schaut's bei Apple aus? Hier gibt's keine große Variation. In sämtlichen Geräten steckt mehr oder weniger dieselbe Hardware, die immer gleich funktioniert. Also sind Betriebssystem und die Treiber genau darauf ausgelegt: Es gibt nur eine Hand voll unterstützter Device IDs. Mehr ist da eben auch nicht nötig, weil die Hardware sich nicht großartig ändert und alles innerhalb von Apples kontrollierten Universum stattfindet.

    Im Prinzip ist es bei Windows auch nicht anders: Da geht von Haus aus auch nur das nötigste und um seine Hardware vollständig nutzen zu können, muss man Treiber installieren. Der große Unterschied ist, dass es für 99% der Hardware Windows Treiber gibt. Das liegt aber auch eher daran, dass man bei fast jedem Windows Gerät die Hardware austauschen kann. Bei Apple geht das nur beim MacPro und das ist eher ein Nischenprodukt, bei dem es so wenig Kundschaft gibt, dass sich die Treiberentwicklung meist nicht lohnt.


    Soll heißen: In einem echten MacPro funktionieren auch nur spezielle Geräte. Da hast du mit einer Nvidia Grafikkarte dieselben Probleme wie beim Hackintosh. Und alle anderen Geräte laufen auch nur, wenn es entsprechende Treiber dafür gibt.

    Offiziell wird deine CPU nicht mehr unterstützt, aber irgendwie bekommt man die sicherlich mit dem aktuellen macOS ans Laufen.

    Nvidia Karten laufen aber definitiv seit einem Jahr nicht mehr. Und keiner weiß so wirklich, ob sich das demnächst wieder ändern wird oder nicht.


    Wenn dir eine ältere XCode Version reicht, könntest du allerdings auch mit macOS High Sierra fahren. Da sollte die Grafikkarte noch laufen.

    Die DisableMonitor App funktioniert prinzipiell wunderbar.

    Allerdings hat mein Samsung TV die Eigenheit (oder liegt's vielleicht doch an macOS?), dass er sich alle paar Stunden automatisch (obwohl er im Standby ist) wieder mit dem PC verbindet. D.h. Bildschirm wird kurz schwarz und danach darf ich ihn dann wieder über DisableMonitor deaktivieren. Seltsam.

    Moin!


    Ich habe eine ganz simple Frage / Problem: Ich hab meinen TV als zweiten Bildschirm an den PC (Intel HD 4600) gehängt, um ihn ab und zu mal zu benutzen (als separates Display). Funktioniert soweit alles wunderbar.

    Mein Problem ist, dass macOS den TV immer als verfügbaren Bildschirm erkennt, auch wenn er ausgeschaltet ist.


    Wenn ich nun also mal ein Fenster auf dem TV vergesse und ihn dann ausschalte, dann ist das Fenster "weg". D.h. ich muss den TV wieder einschalten, damit ich das Fenster wieder zurück auf den Hauptmonitor ziehen kann.


    Gibt's irgendeine Möglichkeit, dass das System erkennt, dass ich ihn ausgeschaltet habe und sich dann so verhält, als wäre nur ein Display angeschlossen?


    Im Anhang ein Screenshot aus den Systeminfos.


    Grüße,

    jemue


    Nur eine Section mit erfolgreichen Builds fänd ich noch ganz cool.

    Ich glaub, da wäre es einfacher eine Section mit nicht erfolgreichen Builds zu erstellen. Das wäre wesentlich übersichtlicher :D Mit genug Gefummel kriegt man macOS inzwischen sicherlich auch auf 'nem GameBoy Color installiert :D

    Was ich damit sagen will: Seit 2-3 Jahren kriegt man es eigentlich überall zum laufen, wenn man will.

    Das ist doch nur die halbe Wahrheit. Das Zertifikat sagt nur was über die Effizienz bei bestimmten prozentualen Auslastungen an. Wenn das System üblicherweise - sagen wir mal - 500W verbraucht, dann ist man mit einem 1000W 80 Plus Gold Netzteil effizienter dran als mit einem 500W 80 Plus Platinum Netzteil.


    Man sollte sich also gut überlegen mit welcher Last die Kiste üblicherweise läuft. Wenn das System 24/7 an ist, aber meist nichts zu tun hat, dann sollte man schauen, dass man auch eine möglichst hohe Effizienz im Bereich von 50-80W hat. Speziell in diesem Bereich wird's mit 80 Plus Gold / Platinum schwierig, weil dort nur ein Messpunkt bei 20% Auslastung vorliegt. Bei einem 600W Netzteil wäre dieser Messpunkt also bei 120W. Was darunter passiert ist für das Zertifikat egal.

    Dieser Missstand wurde mit 80 Plus Platinum "behoben". Dort wurde auch ein 10% Messpunkt eingeführt. Der bringt einem in so einem Fall natürlich auch nur was, wenn es kein 1500W Netzteil ist, weil dann der 10% Messpunkt bei 150W liegt. Und alles darunter kann so ineffizient sein wie der Hersteller mag ;)


    Eine höhere 80 Plus Klasse alleine macht das Netzteil also nicht zwangläufig effizienter. Damit das Zertifikat eine gewisse Aussage über die Effizienz treffen kann, muss man in derselben Leistungsklasse bleiben.

    Das sieht man bei manchen Herstellern auch daran, dass innerhalb einer Netzteilserie mit steigender Wattzahl auch die 80 Plus Klasse besser wird.


    Und zu guter letzt sei noch gesagt: Die 80 Plus Messungen finden für Gewöhnlich mit 115V Eingangsspannung statt, und nicht mit den hierzulande üblichen 230V. Allein dadurch kann sich der Effizienzvorteil eines Netzteils gegenüber einem anderen ins Gegenteil verwandeln.


    Kann man hier auch schön sehen: https://www.hardwareluxx.de/in…-einem-paket.html?start=3

    Je nach absolutem(!) Messpunkt ist die Reichenfolge der Netzteil immer eine andere.

    Da sieht man auch, dass die Effizienz unterhalb von 10% Auslastung rapide abnimmt.


    Grundsätzlich lässt sich aber sagen: Wenn man das Netzteil mindestens 5 Jahre behalten will, dann lohnt es sich was effizienteres in derselben Leistungsklasse zu kaufen. Also statt 600W Gold dann eben 600W Platinum oder Titanium, weil man innerhalb dieser 5 Jahre locker 20-50€ (je nach dem wie lang die Kiste am Tag läuft und wie stark sie belastet wird) durch die höhere Effizienz wieder einsparen kann.

    75W für WLAN / Bluetooth? Wie viele Kilometer weit willst du damit senden (mal davon abgesehen, dass das hierzulande illegal ist)? Oder grillst du damit dein Mittagessen? :D


    Ich denke bei Toms Hardware / Igors Lab hat man das ganz gut gesehen. Mit +%50 Power Limit kommt die Karte allein auf knapp unter 400W und ein übertakteter 9900K @ 5.0GHz kommt unter Prime 95 auf ziemlich genau 250W. Also 2 Extremwerte, die so niemals bei irgendwem zusammen auftreten werden. Ich lande dann immer noch erst bei 650W.

    Dann nehmt doch einfach mal reale Messungen her statt irgendwelcher Werbetexte:

    https://www.computerbase.de/20…eon-rx-vega-64-56-test/6/

    https://www.hardwareluxx.de/in…itro-im-test.html?start=4

    https://www.tomshw.de/2017/12/…64-custom-card-review/12/

    https://hexus.net/tech/reviews…-rx-vega-64-nitro/?page=8

    https://www.tweaktown.com/revi…3-8-pin-pcie/index11.html

    https://www.eteknix.com/sapphi…4-graphics-card-review/8/


    Im Schnitt also irgendwo zwischen 400 und 500W für's gesamte System. Allerdings gab's da noch keinen 9900K - wobei die Tests ja schon zum Teil mit stark übertakteten Stromfresser CPUs gemacht wurden. Aber was soll's. Dann rechnen wir noch mal großzügig 100W für die CPU drauf. Und noch ein bisschen Peripherie hier und da: Noch mal 50W.

    Also mit 650W kann man da schon gut fahren. Mit 750W ist man definitiv auf der sicheren Seite.