SWTOR in 4K

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Hallo, zusammen,
      mich würde mal interessieren, welche Erfahrungen ihr mit SWTOR in 4K-Auflösung gemacht habt und was für eine Hardware ihr einsetzt oder für geeignet haltet.
      Hintergrund: Ich konnte bei einem Sonderangebot nicht wiederstehen und habe jetzt einen 4K-Monitor. Dem Spielerlebnis schadet es mal eher nicht ausser dass einige Menüs ziemlich klein sind und bleiben (Charakterauswahl z.B.).
      Aber natürlich war meine Graka nicht auf die Auflösung ausgelegt und die Bildrate liegt grade eher so bei 20 bis 30 Fps, mit Ausreißern in beide Richtungen.
      Als Prozzi habe ich einen core i5 6600K, 8 GB DDR4, SWTOR ist auf SSD, Win 10 - diese Faktoren scheiden imho aus.
      Die Grafikkarte ist eine R9 380x mit 4 GB. Ist für HD ok, aber nicht mehr für 4K. Beim Übertakten kriege ich Grafikfehler, da müsste ich mich rantasten, aber so viel holt das auch nicht raus.
      Generell gelten ja Grakas mit folgenden Chips als für 4K geeignet:
      Ältere GPU-Generationen mit hohem Stromverbrauch:
      Geforce 980 aufwärts
      Radeon R9 390 aufwärts incl. Fury und Abkömmlinge
      Aktuelle Generationen:
      RX 480 mit Einschränkungen
      Geforce 1060 mit Einschränkungen
      Geforce 1070 und 1080
      Wenn ich einen endlos tiefen Geldbeutel hätte wäre die Wahl klar. Aber eine Fehlinvestition möchte ich da auch nicht machen.

      RX480 und Geforce 1060 sind in einer ähnlichen Preis- und Leistungsklasse und sind in etwa im Rahmen. Aber reichen sie dafür aus?
      1080 ist für mich jenseits von gut und böse, 1070 wäre sehr ungern und mit Schmerzen denkbar.

      Ein weiterer Faktor ist dass das Referenzdesign wohl nicht so ganz geglückt zu sein scheint (PCIE-Thema RX 480 z.B.). Da mir vor nicht allzu langer Zeit schon mal ein Mainboard durchgeschmort ist (Verdacht USB3-Hub) - R8 480 nur mit 8pin-Stecker ist klar, aber wie findet man so auf die schnelle in einer Preissuchmaschine nur die Custom-Designs ....

      Wie ist eure Einschätzung dazu?

      Grüße und vielen Dank
      Eeonwe

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Eeonwe () aus folgendem Grund: Ergänzungen: Stromverbrauch bei älterer GPU-Gen ergänzt, Rechtschreibfehler korrigiert, Nachtrag Unterscheidung custom von Referenz-Design, BS ergänzt

    • Tagchen.

      Ich nenne hier eine R9 390 mein Eigen, die ja recht vergleichbar zur RX 480 ist - bis auf den Stromverbrauch, aber der ist ja für die Betrachtung nicht so erheblich. Einen 4K Monitor hab ich leider nicht, spiele aber leidenschaftlich gerne mit Downsampling. Meine CPU (i5-6500) ist etwas schwächer, aber da spielt der Unterschied wohl nicht die größte Rolle.

      Meine Erfahrungen:
      SWTOR:
      Das geht. Also mit 3200x1800 Pixeln und meiner 390 läuft das normal so zwischen 25 und 50 FPS. Hält sich aber eher über 40 und sackt dann nur bei vielen Gegnern und Effekten oder auf reichhaltig ve..getierten .. äh.. bepflanzten Planeten wie Alderaan unter die 30 ab. Da kann man schon mit leben.
      Mein großes Aber: Andere Spiele.

      Generell:
      Würde ich dir nicht zu Leistungsklasse RX 480/1060 raten.
      1440p gehen mit den Karten ganz gut. In neueren Produktionen wird das aber in 4K mehr als oft an und unter 20 FPS rutschen. Schon 30 wären für mich so die Schmerzgrenze, da man finde ich einfach die Verzögerung zu stark bemerkt. Über 40 finde ich okay.
      Ich spiele atm ja recht wenig SW:ToR, sondern anderes und das mit meiner 390 nie über 1440p hinaus - einfach weil es furchtbar ruckelt, wenn mal ein paar mehr Effekte am Bildschirm sind. Da geht den Karten in dem Segment einfach die Puste aus. Wäre bei der RX 480 wohl sehr sehr ähnlich.

      Fazit also: Wenn man sich schon einen 4K Monitor leistet, sollte man meines Erachtens auch direkt eine 1070/1080 oder Fury X aufwärts dazu kaufen. Sonst macht das wenig Sinn. Außer man spielt eben nur ältere Spiele/SW:ToR. Da ist das dann schon in Ordnung, aber die sind ja auch keine Feature- und Effektfeuerwerke.
      Auf Sicht von 1-2 Jahren wird dann wahrscheinlich auch 1070 oder Fury X die Luft ausgehen.
      Es schafft ja leider in Produktionen wie dem Witcher (den ich gerne als Maßstab betrachte) die Fury X in 4k schon nur 19-25 FPS und die 1070 so knappe 30. Also würde ich da eher noch zu den kommenden Vega oder einer 1080 raten. Die 980Ti wäre auch noch eine Option.
      Das Geldbeutelargument ist halt leider immer der Killer, vor allem bei sowas hochpreisigem wie der 1080. So deine Situation betrachtend würde ich wohl ne 980Ti oder ner 1070 kaufen oder bei den Kleinanzeigen gucken ob mal eine 1080 zu ergattern ist. Hier im Umkreis war erst letztens eine für 450 Öcken zu haben.

      Siehe hier: prntscr.com/ccxe46
      Die Benchmarks kann man sich auch in allen Artikeln zu Grafikkarten des Magazins angucken.

      Edit: Solltest du dich dennoch für eine RX 480 entscheiden wollen, gibt es hier eine Custom-Design Übersicht. Eine betreffende Karte wäre z.B. die Asus ROG Strix RX 480 OC.
      Schon mal erwähnt, dass ich PCGH für Grafikkarten-Tests liebe? ;)
    • Hi, Sem, danke für die Antwort.
      Ich spiele aktuell wirklich fast nur swtor, aber für Sohnemann ist der Witcher3 schon da und ich will ihn auch bald probieren. Das aktue PCGameHardware-Heft mit den Graka-Tests habe ich mir erst letzt gekauft. Vega kommt soweit ich weiß aber erst nächstes Jahr. Dann muss ich wohl doch wie "befürchtet" Richtung 1070 umsehen - auch wird die RX 480 ja eher unter der R9 390 (oder 390x?) eingeordnet.
      Grüße
      Eeonwe
    • Ja, genau, Vega wird für Q1 2017 vermutet. Viel weiß man dazu ja nicht. Persönlich schätze ich mal, dass die etwa zeitlich mit den neuen Zen-CPUs von AMD kommen. Müsste ich aber alles nochmal nachlesen, da hab ich die letzten Wochen nichts aktiv verfolgt.

      RX 480 ist leicht unter der R9 390, exakt. Deshalb würde ich schon mindestens eine 1070 veranschlagen.
      4K ist halt einfach so ein Thema. Ein kostspieliges Thema. *g*
    • Eeonwe schrieb:

      Hallo, zusammen,
      mich würde mal interessieren, welche Erfahrungen ihr mit SWTOR in 4K-Auflösung gemacht habt und was für eine Hardware ihr einsetzt oder für geeignet haltet.
      Hintergrund: Ich konnte bei einem Sonderangebot nicht wiederstehen und habe jetzt einen 4K-Monitor. Dem Spielerlebnis schadet es mal eher nicht ausser dass einige Menüs ziemlich klein sind und bleiben (Charakterauswahl z.B.).
      Ja, ein paar Fenster bleiben recht klein. Aber für alles andere gibts ja die Skalierungs-Option im GUI-Editor. :)
      In der Hinsicht ist SWToR ein positives Beispiel. Gibt viele Spiele die man kaum auf 4K spielen kann, weil das GUI zu klein wird.

      Aber natürlich war meine Graka nicht auf die Auflösung ausgelegt und die Bildrate liegt grade eher so bei 20 bis 30 Fps, mit Ausreißern in beide Richtungen.
      Als Prozzi habe ich einen core i5 6600K, 8 GB DDR4, SWTOR ist auf SSD, Win 10 - diese Faktoren scheiden imho aus.
      Die Grafikkarte ist eine R9 380x mit 4 GB. Ist für HD ok, aber nicht mehr für 4K. Beim Übertakten kriege ich Grafikfehler, da müsste ich mich rantasten, aber so viel holt das auch nicht raus.
      Ich hab eine 380/4GB (übertaktet), die ist etwa 10-15% Langsamer als deine 380X, und mehr als WQHD+2xSSAA (Downsampling über den Treiber) ist damit bei SWToR auch nicht drin. Und dann muss ich schon die Vegetation (auf manchen Planeten) und Schattenauflösung (das ist aber eh ein Leistungsfresser) beschränken.

      Ein weiterer Faktor ist dass das Referenzdesign wohl nicht so ganz geglückt zu sein scheint (PCIE-Thema RX 480 z.B.). Da mir vor nicht allzu langer Zeit schon mal ein Mainboard durchgeschmort ist (Verdacht USB3-Hub) - R8 480 nur mit 8pin-Stecker ist klar, aber wie findet man so auf die schnelle in einer Preissuchmaschine nur die Custom-Designs ....
      Bei Geizhals.de (mMn die beste Suchmaschine für Elektro-Geräte und insbesondere PC-Hardware) ist das ziemlich einfach, da gibts eine Filter-Option für die Stromstecker. (Alle Karten mit 8-Pin)
      Die Custom-Karten erkennt man auch am Kühler. Die tragen nämlich (bisher) allesamt Axial-Lüfter anstatt eines einzelnen Radial-Lüfter.
      Wobei die 6Pin-Custom-Karten nicht auch ein anderes PCB haben müssen. Das kann das selbe sein, und hätte damit ebenfalls die gleichen Vor- & Nachteile.
      Es kann aber auch bei den Custom-Modelle welche mit einem 6-Pin geben, die die Last von vorn herein besser aufteilen.
      Die Situation wurde jedoch schon längst entschärft, in dem per Treiber-Update die Last anders aufgeteilt wurde und nun mehr über den Stecker gezogen wird.

      Aber die 480 ist für 4K eh nicht die Ideale Wahl. Möglich ja, aber wahrscheinlich müssten (je nach Szene) ein paar Details reduziert werden.
      Wer 4K haben will, der muss eben bereit sein etwas mehr in seine GraKa zu investieren. Ich halte WQHD für die vernünftigere Wahl. Man braucht keine High-End-Karte und hat trotzdem ein höher aufgelöstes Bild als FullHD.

      Sem schrieb:

      Fazit also: Wenn man sich schon einen 4K Monitor leistet, sollte man meines Erachtens auch direkt eine 1070/1080 oder Fury X aufwärts dazu kaufen. Sonst macht das wenig Sinn. Außer man spielt eben nur ältere Spiele/SW:ToR. Da ist das dann schon in Ordnung, aber die sind ja auch keine Feature- und Effektfeuerwerke.
      Auf Sicht von 1-2 Jahren wird dann wahrscheinlich auch 1070 oder Fury X die Luft ausgehen.
      Die Fury (X) mag für SWToR@4K ausreichend sein, aber aufgrund ihres kleinen VRAM von nur 4GB geht ihr bei Spielen mit höheren VRAM-Bedarf dann ziemlich schnell die Puste aus. Schneller VRAM alleine kann die mangelnde Größe leider bei weitem nicht ausgleichen. Daher würde ich eher zur 1070 raten, wenn denn noch anderes (und vor allem neueres) gespielt wird. Auch wenn ich die 1070 für etwas zu teuer halte.

      Aber eine 1080 wird auch nicht viel länger für kommende Spiele @ 4K geeignet sein als die 1070. So viel stärker ist die nun auch nicht.
      Für ~20% höhere Leistung bei 4K, wird ein Aufpreis von etwa 62% verlangt. Das ist nicht gerechtfertigt. Lieber den Aufpreis sparen (evtl. nur "sehr hoch" anstatt "Ultra") und dafür ein halbes Jahr früher aufrüsten.

      Die 980Ti wäre auch noch eine Option.
      Aber nur gebraucht oder bei einem guten Angebot, die 1070 ist die bessere Wahl. Etwa gleiche Leistung, 2GB mehr VRAM (bei 4K nicht unwichtig; wie schon genannt wurde, wenn es auch neuere Spiele als SWToR sein soll), und das zum gleichen Preis.
      "Aliit ori'shya tal'din" (Familie ist mehr als Blut.)
      - Mandalorianisches Sprichwort
    • Stimme ich dir so weit zu. Logischste Entscheidung wäre wohl eine 1070.

      Allerdings ist zumindest die Fury X in 4K noch tragbar und trotz des kleinen VRAMs ein ziemlicher Overperformer. Ich habe nie die Gelegenheit gehabt, sie selbst zu testen, aber laut div. Artikeln in der Fachpresse ist sie im Schnitt schneller als die 980Ti, trotz kleinerem Speicher. In 1080p und 1440p zwar nicht, aber in 4K schlägt die Karte 980Ti und Titan durchweg. Las ich so bei Heise, PCGH und Golem. Liegt dann wohl doch irgendwie mit am HBM.

      Golem-Test: golem.de/news/radeon-r9-fury-x…as-titan-1506-114780.html

      So ne 460€ Fury X von z.B. Gigabyte würde ich also nicht per se abtun, halte aber an sich auch die 1070 für sinnvoller. Manche Leute mögen halt.. "markenbewusst" sein und lieber die AMD Karte haben. *fg*

      Falls das die Kaufentscheidung irgendwie beeinflussen mag, gibt es hier noch ein interessantes Bild dazu. Die Benches sind von HardwareUnboxed. Allerdings wird dabei auch für Neukäufe die 1070 empfohlen und lediglich abgeraten von einer Fury (X) auf die Nvidia Karte umzusteigen.
    • Genug Leistung für 4K hat die Fury(X) ja theoretisch auch, aber nur solange der VRAM nicht überläuft. Denn danach bringt auch HBM keine Vorteile mehr, dann wird in den Systemspeicher (RAM) ausgelagert. Also hat man hier als Flaschenhalt dann PCIe und RAM-Anbindung.
      Nur weil man eine 4K-Auflösung nutzt, braucht man nicht sofort mehr als 4GB. Noch gibt es nicht viele Spiele die mehr als 4GB brauchen, die meisten kommen damit zurecht, auch bei 4K.

      Wenn es nicht so wäre, ich würde von der Fury nicht abraten, evtl. diese sogar empfehlen. Ich bin nämlich eher Pro-AMD, ohne jetzt NVIDIA-GraKas generell auszuschließen.


      Ich hab jetzt keinen Test mit der Fury gefunden, aber Stellvertretend (und weil es deutlicher ersichtlich, sowie auch 1:1 übertragbar ist) einen Vergleich von 2GB vs. 4GB VRAM.
      Wenn GTX 960 und R9 380 schon heute der VRAM ausgeht - Computerbase.de, Dez. 2015.
      Das ist es was man zu erwarten hat, sobald die 4GB VRAM der Fury nicht mehr ausreicht.
      Von Frametimes wirst du ja schon gehört haben, und wissen wie man die zu interpretieren hat. Falls jemand mitliest der es nicht weiß, der schaut in den Spoiler.
      Alternativ kann man sich das auch sparen, und geht bei dem verlinkten Test eine Seite weiter um dort die Videos anzuschauen. Dort wird die Auswirkung auch Präsentiert.
      Spoiler anzeigen
      Bei Frametimes werden die Zeitabstände zwischen zwei fertigen Bildern gemessen. Im Idealfall ist der Abstand zwischen jedem Bild identisch, und so niedrig wie möglich (bzw. bei 60 fps sollten zwischen jedem Bild 16,66ms vergehen).
      Sind größere Abstände dazwischen, dann spürt man das als "Mikroruckler". Ein "Ausschlag" (egal ob hoch oder runter) ist bei Frametimes also was schlechtes. Umso stärker und häufiger, umso schlechter ist es.
      Mikroruckler können anhand der üblichen FPS-Anzeige nicht erkannt werden. Denn bei den FPS werden ja nur die Bilder pro Sekunde gezählt. Man kann also durchaus flüssige 60fps oder mehr haben, aber trotzdem störende Mikroruckler.
      Speziell bei Multi-GPU-Gespanne (SLI oder Crossfire) sind Mikroruckler ein häufiges Problem.
      "Aliit ori'shya tal'din" (Familie ist mehr als Blut.)
      - Mandalorianisches Sprichwort
    • Hersteller - ideologisch bin ich auch nicht, aber grundsätzlich halte ich es auch für sinnvoll, AMD zu unterstützen, damit Nvidia auch noch Konkurrenz hat - man sieht ja, was die preislich machen wenn keine Konkurrenz da ist. Aber wenn die in der nötigen Leisungsklasse nichts so richtig passendes haben ...
      Die AMD-Karte würde dann sowieso in den anderen Familien-PCs weiterleben ^^

      Zusammengefasst sieht eure Einschätzung meiner ziemlich ähnlich aus.

      Hmm - SLI-Varianten scheinen mir auch nicht sinnvoll - zwei RX 480 sind auch nicht billiger als eine 1070 und die 1060 ist nicht koppelbar. Dazu noch die Mikroruckler-Thematik.
    • Der Vergleich von 2GB GDDR5 auf 4GB GDDR5 ist eben nicht gleich dem Vergleich zwischen 4GB HBM und 8GB GDDR5. HBM verhält sich nun mal anders. Gibt ja genügend Techniken, die die nötige Speichermenge reduzieren, mittlerweile.

      Dazu gibt es zig Diskussionen und Tests im Netz, zum Beispiel hier, hier oder hier.
      Im Umkehrschluss könnte man auch sagen, dass für 8GB die Chipleistung von der 1070 viel zu klein ist. *g*

      Will jetzt keine Werbung für die Fury (X) machen, denn ich halte auch die 1070 für sinnvoller, aber den Vergleich zwischen 2/4GB GDDRx und 4/8GB HBM/GDDRx kann ich so nicht stehen lassen.

      SLI macht imho keinen Sinn, hat's nie und wird es nie, bis das AFR so weit umgangen ist, dass die Mikrorucklerthematik mal durch ist. Und das wird denke ich nicht passieren.
    • Es ging nicht um den Vergleich HBM gegen GDDR5. Es ging darum das 4GB für eine aktuelle High-End-GraKa zu wenig ist.
      Für die meisten Spiele mag es noch reichen, aber bei jedem kommenden Spiel muss man sich Fragen, ob es noch immer genügt.

      Die Techniken der Kompression haben aber nichts (oder wenig) damit zu tun ob GDDR5 oder HBM zum Einsatz kommt.
      Wenn der Speicher voll ist, ist der Speicher voll, da macht es keinen Unterschied welche Speichertechnik zum Einsatz kommt. Die hohe Transferleistung von HBM bringt auch keine Vorteile wenn kein Platz mehr da ist.
      Ein Lager kann noch so Effizient geführt sein, wenn es Voll ist, dann ist es Voll.

      Hardwareluxx.de - AMD spricht über Delta Color Compression in der GCN-1.2-Architektur.
      Tonga und Fiji setzen beide auf der GCN-1.2-Architektur. Fiji ist quasi ein doppelter Tonga mit HBM. Das DCC der beiden sollte sich nicht sonderlich unterscheiden.

      Du hattest geschrieben, du würdest die PCGH lesen. Dann müsstest du auch Raff Vötters Kommentar zu den 4GB der Fury gelesen haben. Der leitende GraKa-Redakteur der PCGH, und er hält die 4GB bei der Fiji-GPU ebenfalls für zu wenig.

      Hier auch noch ein Test der FuryX bei dem auf den Speicher eingegangen wird. Schau dir die Frametimes von Mittelerde an. Denn das ist das einzige der getesteten Spiele das zeigt das 4GB (auch bei HBM) nicht genügen wo die 390 mit 8GB (aber ohne Delta Color Compression) und die 6GB der 980 Ti (welche ebenfalls eine DCC-Technik beherrscht) keine Probleme haben. Mit dem herabsetzen der Auflösung auf WQHD genügen die 4GB dann "plötzlich" wieder um für glattere Frametimes zu sorgen.
      (In diesem Artikel wird behauptet die 4GB-GDDR5-Karte (380; nicht bei Mittelerde verwendet) hätte nicht die Speicheroptimierung erhalten. Das ist falsch (siehe Link zur HWLuxx-News). Entweder wurde da eine falsche Karte genannt, oder es liegt an einer anderen Speicherverwaltung, welches als Optimierung bezeichnet wurde. Die Speicherverwaltung kann bspw. Entscheiden wann eine zurzeit nicht genutzte Textur aus dem Speicher gelöscht wird. Dies kann sich auch innerhalb einer GPU-Generation unterscheiden. Bei der 970 setzt NVIDIA bspw. auf eine aggressivere Speicherverwaltung, aufgrund der 3,5+0,5GB Speicheraufteilung.)

      Ich hätte hier auch noch einen Frametime-Verlauf aus der PCGH 09/15.
      Da ist dann neben einer 8GB GDDR5-Karte in Form einer 290X, auch eine 4GB GDDR5-Karte in Form einer 980 dabei. "Überraschung, Überraschung", am besten schneiden die beiden GDDR5-Karten ab. Das DCC bei NVIDIA ist scheinbar effektiver, und die 290X rettet der größere Speicherpolster.
      Auch wenn die FuryX die höchsten durchschnitts-FPS erreicht.
      "Aliit ori'shya tal'din" (Familie ist mehr als Blut.)
      - Mandalorianisches Sprichwort
    • Grüß Euch.

      Mir ist vor einigen Tagen bereits in den Sinn gekommen das der Thread hier ja noch existiert. Da wollte ich auch mal meinen Senf dazu geben! :)

      Also für gute 4K Performance sollte man schon eine GTX 980 oder GTX 980TI benutzen. Was die neuen Karten angeht kann man natürlich auch mit einer GTX 1060 in UHD Auflösung daddeln, aber empfehlen würde ich da lieber eine GTX 1070. Natürlich ist das alles eine Frage des Geldes und der Zuneigung zu den speziellen Chipherstellern AMD oder NVIDIA. Bedauerlicherweise hatte ich bis jetzt nur Probleme mit AMD Grafikkarten, weshalb ich auch von denen die Finger davon lasse. Im Augenblick und auch in ferner Zukunft wird für die perfekte 4K Performance, Nvidia immer die Nase vorn haben.

      Ich selbst verfüge über 2x GTX Titan X in meinem System. Ich erreiche in SWTOR (mit einer UHD Auflösung) eine Maximal FPS von 178 und eine Minimal FPS von 40. Ich habe hierzu den Test auf Alderaan gemacht. Persönlich konnte ich jetzt aber keine gravierenden Abweichungen zur FullHD-Auflösung machen (mit den FPS Schwankungen). SWTOR ist im 4K Bereich meiner Meinung nach gut optimiert :)

      Liebe Grüße
      Zarr
    • Was verstehst du unter "ferner Zukunft"?
      In wenigen Monaten bringt AMD seine neue High-End-GPU auf den Markt. Dafür bietet AMD zurzeit nichts aktuelles an, und das völlig bewusst.

      Jedenfalls sollte man mit solchen Aussagen vorsichtig sein, solange es keine Ergebnisse unabhängiger Tester gibt.
      Bisher gibts selbst von AMD nur sehr wenig Aussagen zur Leistung der neuen GPU. Und die Hersteller-Angaben (egal ob AMD, NVIDIA oder Intel) sollte man immer mit Vorsicht genießen. Selbst wenn nicht geschönt, so werden doch zumindest die Rosinen herausgepickt.
      "Aliit ori'shya tal'din" (Familie ist mehr als Blut.)
      - Mandalorianisches Sprichwort
    • Hm - die Vega-Karten sollten nicht mehr allzu lange auf sich warten lasen, denke ich ..

      tomshardware.de/vega-radeon-in…testberichte-242284.html:
      Das Flaggschiff MI25 basiert endlich auf der noch nicht gelaunchten Vega-basierten GPU, so dass Einschätzungen zur wirklichen Leistungsfähigkeit gelinde gesagt schwer fallen. Aber wer bis hierher aufmerksam mitgelesen hat, dem wird auch am Namensschema etwas aufgefallen sein. Die Zahl basiert nämlich bei den beiden anderen Karten auf der FP16-Leistung, so dass man annehmen könnte, es handele sich um eine Karte mit bis zu 25 TFLOPS! Diese auf den ersten Blick so gewaltig anmutende Zahl wird bei Vega durch eine flexiblere Mixed-Precision-Engine ermöglicht, die zwei gleichzeitig ausgeführte 16-Bit-Operationen über die 32-Bit-Pipelines der Architektur unterstützt. Setzt man nun das Verhältnis von 1:2 an, ergäben sich bei FP32 immerhin noch 12,5 TFLOPS.

      Wobei ich meist AMD-Karten hatte und keine Probleme damit - im "meinen" Preisregionen bieten die normalerweise das bessere P/L-Verhältnis. Für absolute Spitzenleistung ist Nvidia klar vorne, grade aktuell.
      Aber da das für die 1070 zurückgelegte Richtung Zahnarzt und Haus gewandert ist - selbst die R9 380x kommt inzwischen ganz gut mit 4K zurecht - 20-40 fps reicht mir für PvE und RP.
    • Wer Grafikkarten, bzw. generell Consumer IT-Hardware, direkt bei Release kauft hat schlicht zu viel Geld.

      Die meisten neuen Features werden zum Release von so gut wie keiner Software unterstützt und nach einem Jahr verhält es sich wie mit einem Jahreswagen: Immernoch Top, dafür um die Hälfte günstiger.
    • Also die 1080 Ti wird wohl keine nennenswerten Preisänderungen bei der 1070 verursachen. Die 1080 Ti wird oberhalb der 1080 platziert, evtl. sinken die Preise der 1080 etwas, aber zur 1070 ist der Preisabstand zu groß als das es nötig wäre da etwas anzupassen nur weil die 1080 vlt. günstiger wird. Die hochpreisigen Modelle der 1070 werden vlt. nach unten korrigiert, aber die günstigen und Mittelpreisigen-Modelle der 1070er werden sicherlich unverändert bleiben.

      Vega könnte aber tatsächlich Bewegung in die Preisgestaltung bringen. Kommt aber auch darauf an welche Preise AMD aufruft.
      "Aliit ori'shya tal'din" (Familie ist mehr als Blut.)
      - Mandalorianisches Sprichwort