Kommt überhaupt noch ein nvidia web driver?

  • Also ich weis beim besten willen über was sich hier unterhalten wird? Es geht hier um den Nvidia Web driver. Und ne Witz Vega 64 ist nunmal keine Alternative im Gaming. Habe ich selbst versucht, hat 5 Tage ausgehalten die Kiste bei mir. Versteh auch nicht was die AMD Fanboys auf einmal hier aus den Löchern kommen und die Vega übern kle loben, was null komma null mit dem Thema hier zu tun hat. Freut auch über eure Karte, oder des nicht Anspruchs des Gamings und gut ist, mit dem Thema hier hats jedoch nichts zu tun.

  • Das die Vega VII beim Gaming auf Augenhöhe mit deiner RTX 2080 ist weißt du aber. In allen anderen sogar schneller. Hier gibt es keine Fanboys, dieses Unwort hast du gebracht. Hatte selber ne GTX 1080 ti.


    Zum Thema... so wie es aussieht musst du mit NVIDIA bei high Sierra bleiben. ;)

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • jepp ich weis das amd nu endlich was hat das mal in die nähe einer RTX 2080 kommt. Leider jedoch dafür mit Föhn Lautstärke und erneut Utopischem Strom verbrauch im Vergleich. Einen Wakü Block gibt es noch nicht, daher derzeit die Vega 7 absolut Nutzlos. ICH jedenfalls hab keine Bock nen Föhn im Rechner zu haben. Und glaub mir eines, mir wäre es mehr als recht gewesen wenn die Vega 7 was getaugt hätte, den ich mag weder Intel noch Nvidia. Der Intel ist nur drin wegen dem Hackintosh spass der seit Monaten nimmer funktioniert, und die RTX weils ne Alternativlose Karte ist. Die mir jedoch auch zu langsam ist, und wohl bald ne 2080Ti rein wandert

  • Hatte ne News gelesen das es von BYKSKI einen jetzt gibt.. Aber ich hab davon keine Ahnung :)

    http://www.pcgameshardware.de/…r-weitere-kommen-1276674/Und ne Ankündigung von EKWB habe ich gesehen

  • Ergo, KANN irgendwann ne Alternative zumindest zu ner 2080 werden, wird die Zeit zeigen. Zu ner Ti gibts nach wie vor keine Alternative von AMD. Zudem ne Vega 7 mit Wakü block auch erstmal gekühlt werden will, Wasser hin oder her bei dem Hitzkopf. Und dann natürlich deutlich teurer als ne 2080 somit, was es gleich wieder unattraktiver macht. Einzig Navi könnt mal ausnahmsweise wieder ne wirklich Konkurrenzfähige Graka werden

  • Also mal ganz neutral zu dem Thema Nvidia und AMD.

    Entscheide doch mal logisch.... mit Nvidia kannst du in Windows super spielen und in Mojave hast du keinen Treiber bzw. unter HighSierra geht ebenfalls Vieles nicht richtig. (Es wird so manches nicht oder nicht richtig beschleunigt). Mit der Vega VII kannst du unter Windows auch prima spielen und es gibt Support für Mojave (Final kommt laut Apple mit 10.14.4).


    Des Weiteren... hast du eine Vega VII? Hast du dir mal die Tests bezüglich UV angesehen? ;)


    Meine läuft mit 960mv und 1803 Mhz, ist sehr leise (max. 2000 U/min) ist auf Augenhöhe mit der RTX 2080 und hat damit eine niedrigere Stromaufnahme als diese. Das hat nichts mit FanBoy (ich hasse dieses Wort) zu tun, sondern einfach mit Logik. Ich gebe dir recht das der Start der Vega VII übereilt war (Kein UEFI am Anfang, zu viel Spannung usw.) Unterm Strich, zumindest sieht es derzeit so aus, kommst du an Vega VII nicht vorbei wenn du OS X Mojave bzw. höher und Windows 10 zum spielen nutzen möchtest. Hast dafür dann nochmal massiv mehr OpenCL Power und 16GB HBM2.


    Es spricht also objektiv gesehen nicht viel für eine RTX 2080. So sehe ich das. Ich könnte mir auch mehrere RTX 2080 ti reinhauen, der Preis ist mir egal, aber es macht keinen Sinn. Zumindest wenn man OS X nutzen möchte. Und leider scheint es so aus das weder Apple noch Nvidia etwas daran ändern möchten. Ich hoffe ja auch das da noch Treiber für 2xxx/1xxx Karten von Nvidia kommen, ist aber verdächtig ruhig um dieses Thema geworden.

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • Was soll denn bei High Sierra mit eine Nvidia Pascal nicht Funktionen, jetzt bin ich mal gespannt?

    Jetzt muss ich aber mal lachen deine Radeon VII verbraucht unter Last weniger als eine RTX 2080, obwohl AMD von Haus aus schon 300W TDP angibt und man kennt AMD ihre Richtigkeit der Angaben, 300W sind eher 350W wenn ich einige Test so lese, auch mein Nachbar hat die Karte und der Sagt auch das die deutlich mehr zieht.

  • rubenszy

    Wer spricht denn hier von High Sierra?

    Gruß
    Al6042

    Keine Unterstützung per PN oder Pinnwand... Eure Anfragen gehören ins Forum, nicht in mein Postfach!

  • Wer eine jüngere nvidia besitzt, der kann doch prima in Windows zocken und High Sierra zum Arbeiten nutzen. Wo ist das Problem?

    Hacken ⛏️⛏️
    Haken ✔️

    .

    anscheinend: es sieht so aus als ob, und wird wohl stimmen

    scheinbar: es sieht so aus als ob, stimmt aber nicht

  • mit Nvidia kannst du in Windows super spielen und in Mojave hast du keinen Treiber bzw. unter HighSierra geht ebenfalls Vieles nicht richtig.

    richtig lesen, hier hat er es behauptet das einiges nicht geht und ich will wissen was, da ich selbst eine Nvidia Pascal Karte habe und die unter High Sierra perfekt läuft.

  • Verstehe... den habe ich tatsächlich übersehen.

    Gruß
    Al6042

    Keine Unterstützung per PN oder Pinnwand... Eure Anfragen gehören ins Forum, nicht in mein Postfach!

  • Ganz einfach... die UI ist teilweise nicht beschleunigt, in FCP geht auch nix in bezug auf Encoding. Es war unter HighSierra so das man nur manche Webdriver nutzen konnte wo die Beschleunigung "ok" war. Bei vielen Versionen hakte und laggte es. (Expose usw.). Habe das Spiel lange mitgemacht mit GTX 1080ti.


    Auch, lieber rubenszy, obwohl du bereits nach deinen letzten unfreundlichen Entgleisungen bei mir auf der Ignore stehst, muss ich dich dennoch korrigieren. Lies doch bitte mal genau durch was ich schrieb. Mit UV, und das ist die Stärke von Vega VII hast du eine geringere Stromaufnahme (30W weniger) als die RTX 2080 und die Karte ist leise. (https://www.computerbase.de/20…ung_der_leistungsaufnahme)


    Aber ich habe schon gesehen das du nur auf Konfrontation gehst ohne jegliche Logik und Background. Mehr werde ich dir dazu nicht mehr sagen. Wollte nur deine Falschaussage so nicht stehen lassen.

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • 2000 upm sind leise, ahhhhh ja😂🤦‍♂️ Ehm nein sind sie nicht



    Und du vergleichst bitte nicht ne arsch laute Founders edition ( die schon deutlich leiser als die Uv Vega 7 ist) mit ner vernünftigen custom, nicht dein Ernst gerade oder?

  • Ja... so viel zur Objektivität. Laut Test macht die RTX 2080 Founders ca. 1980 upm. Das ist dann natürlich "deutlich leiser" wie du schreibst. Sind immerhin 20 Umdrehungen pro Minute. :auslach:

    Aber lassen wir das. Du bist bei der Sache nicht objektiv. Werde nichts gegen Nvidia sagen... du hast deine Meinung schon und von der kann man dich nicht abbringen. Selbst wenn Vega VII passiv gekühlt wäre, 100W verbaten und doppelt so schnell wie die RTX sein würde würdest du was finden. Hab Spaß mit deiner Karte und gut ist. Von daher, Back to Topic und gut ist.


    Früher oder später muss eh jeder AMD bzw Intel GPUs nutzen der OS X haben will. Zumindest so lange Apple auf AMD/Intel setzt. :zunge:

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • Deinen eigenen Test kannst du aber lesen oder? Anscheinend nicht““ kommt auch drauf an was und wie die Lüfter verbaut sind, nur so als Tipp, in deinem eigenen Link ist die Founder schon 3 dB leiser😉


    Huch und wie leise nu erst ne gescheite graka wohl ist““ hoppala


    Und extra nochmal für dich, ich wäre froh gewesen die Vega 7 würde was taugen da ich wie schonmal erwähnt, firmentechnisch weder NVIDIA geschweige dessen Intel abkann. Leider Taugt sie aber nicht, weshalb sie postwendend zurück ging. Nu liegt die Hoffnung auf navi das das Teil wenigstens mal was taugt

  • Du redest von Logik :muha::muha:



    Nicht das du wieder gleich kommst das Game Assassin's Creed wieder, ja das Spiel und Tomb Raider sind für mich Spiele wo die Entwickler noch richtig Arbeit rein gesteckt haben, in Sachen Tessellation usw und ich rede hier nicht von Abziehbild Programmierung wie wie Far Cry, Battlefield und der Rest der schlecht gemacht ist in Sachen Grafik.

    Bei Far Cry, Battlefield und andere sieht eine Holzwand die Maserung hat einfach nur glatt aus, was sie eigentlich durch anständige Tessellation nicht sein darf, um kosten sparen und den Konsolen nicht all zu viel ab zu fordern wird darauf verzichtet.



    Jetzt zum eigentlichen Knackpunkt 7nm sollte effizienter sein, ist es aber nicht vielleicht bekommen sie es mit Navi hin, was ich auch nicht richtig glaube aber mal schauen.

    Spiele mit hoher Tessellation kann halt AMD nicht, kriegen das nicht berechnet.

    Einmal editiert, zuletzt von rubenszy ()

  • So Jungs jetzt reicht es hier mal langsam ich lese jetzt hier seit einigen Wochen mit und hier findet nur noch ein Fanboy Gebashe vom feinsten statt entweder das hat jetzt ein ende und hier wird wieder Objektiv drüber geredet oder der Thread geht hier zu und das gilt für ALLE !

    Mit freundlichen grüssen KayKun

  • Nvidia Treiber wird es wahrscheinlich nicht geben, da wird garantiert Apple schon interveniert haben, denn warum sollte Nvidia wohl sonst, bei Mojave den TreiberStecker ziehen?

  • Mahlzeit,


    ich hab vor ungefähr einem Monat mal den Versuch unternommen macOS auf meinem XMG Pro17 (Clevo PA71HS-G) zu installieren und war in Anbetracht der vielen Infos zu Hackintosh ein bisschen erstaunt, dass es nach ein paar Anläufen auch geklappt hat. Ohne das ich mich großartig reingelesen habe kann ich sagen das "alles" (bis auf WiFi und Thunderbold) auch wie geleckt lief beide Grafikkarten (930 Intel und nvidia 1060GTX mit Optimus) wurden erkannt. Nach gefühlten 1000h fricken mit Linux damit die beiden Karten so zu nutzen sind wie unter win10, hatte ich damit am allerwenigsten gerechnet. Nun hatte ich nach Erstinstallation lt. macOS einen iMac auf nem Notebook installiert und daher auch keine Batterieanzeige und auch kein Touchpad. Nach der zweiten Installation -diesmal als iMac Pro läuft nun wirklich "alles" ...bis auf die Nvidia Karte :/Die bekomme ich nicht mehr angezeigt. Ich kann sehr gut ohne die Nvidia leben aber muss jetz mal ganz dumm fragen, warum mir die Nvidia bei der iMac-Installation im System zusätzlich zur iGPU als dGPU Grafik korrekt angezeigt wurde.


    Beide Male habe ich Mojave installiert. Den ersten Installationsstick hatte ich in einer VM unter High Sierra erstellt.

  • Hallo enduser ,


    korrekt Angezeigt ist da nur bedingt richtig. Angezeigt eventuell, aber leider mangels fehlendem Webddiver unter Mojave ohne Grafikbeschleunigung.