Weitere Eckdaten zur AMD Radeon R9 390X

Das Problem ist das die Leute auch die 1000€ für eine Grafikkarte bezahlen. Würden die Leute was mehr Geduld haben und warten, dann würde der Preis schnell sinken, sobald die Karten im Regal bleiben.

Ich finde High End sollte maximal 500€ kosten. Mehr würde ich auch nie bezahlen und dann auch nur wenn es sich lohnt.

Als ich meine 7950 in RMA schicken musste, habe ich zur 970 gegriffen. Habe 340€ für sie bezahlt. Da geht der Preis noch einigermassen, obwohl es ja eigentlich die Mainstream Karte von NV ist. Die eigentlich deutlich Günstiger sind. Aber immerhin habe ich 20-30 FPS mehr in Dying Light und in War Thunder 40-50 FPS.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ganz ehrlich man verwechselt bei Maxwell ständig Stromverbrauch der Referenzkarten mit Leistung der Customkarten.Wenn man mal vom Nvidia Karusell runter kommt sieht der Abstand gar nicht mehr uneinholbar aus. Anhang anzeigen 317646

Welches Karusell meinst du?
Wenn ich mir Benchmarks der Custom Karten ansehe, dann existiert dort ein Leistungsunterschied von ~6% zwischen dem langsamsten und den schnellsten 970er Modellen. Bei der 980er sind es ~14% Unterschied.
Das macht den Kohl im Grunde nicht wirklich Fett. Oder andersrum gesagt, die Customs sind nicht wirklich derart viel schneller, dass es neue Leistungsregionen regnet... Im Grunde zeigt das eigentlich ganz gut, das NV den Schnitt zwischen Verbrauch und Leistung relativ gut getroffen hat. Bei der 970er sogar was besser als bei der 980er...

Außerdem, wenn der GM200 bereits bei einen GDDR5-Speichertakt von 8GHz ins Limit läuft, was immerhin beachtliche 384GB/s wären, würde ein 512bit Speicherinterface mit 7GHz GDDR5 auch nur 448GB/s liefern können. Für diesen im Vergleich minimalen Zugewinn an Bandbreite, müsste man aber enorme Defizite bei Effizienz und Gesamtkosten in Kauf nehmen. Da würde dann HBM wesentlich besser ins Gesamtkonzept passen.

Nur scheint bei NVs GM200 der Anteil des Speicherinterfaces im Gesamtverbrauch unter Spielelast deutlich unter dem zu liegen, wie es bspw. der Hawaii Chip von AMD bietet.
Der GM200 ist in etwa 50% schneller als der kastrierte GM204 der 970er und benötigt dazu im Schnitt wohl um die 45% mehr Energie. Ggü. der 980er sinds immerhin noch ~35% mehr Leistung bei ~37% mehr Energiebedarf. -> dafür das der GM200 quasi ein GM204 mit 50% mehr im Ganzen ist, skaliert das schon relativ gut.
Auch zeigt der GM200, dass der Bedarf in Sachen Bandbreite nicht bei was weis ich denn, 400GB/sec+ liegt. Der Chip kommt ganz gut mit dem aus, was er hat. GPU OC skaliert ebenso ähnlich wie beim GK110 schon gesehen. Von daher...
Sicher magst du recht haben, dass ein großer Chip mit fettem 512Bit SI und hohem Takt/viel Bandbreite bei GDDR5 energiehungrig ist. Mir stellt sich halt nur die Frage, ist das überhaupt notwendig? Die möglichen 4096 ALUs der Fiji GPU sind zwar nochmal eine andere Hausnummer, aber das wäre platt gesagt auch "nur" 1/3 mehr wie GM200 hat. Und 1/3 mehr würde auch das SI noch hergeben bei GDDR5.
Ich sehe da keinen Grund von der Seite, HBM einsetzen zu müssen... Zumal die Problematik mit der Größe ja OnTop kommt. Und ganz ehrlich, mir kann niemand erzählen, dass AMD aus allen Wolken gefallen ist, als die TitanX mit 12GB um die Ecke bog... Es ist und war für Jederman abzusehen, dass 4GB HBMv1 eigentlich dürftig wenig sind für eine GPU dieser Leistungsklasse... Ebenso wusste man im Vorfeld schon relativ genau vom größen Maxwell. Vielleicht nicht dediziert die ganze Geschichte, aber die Ausmaße in etwa waren abzusehen seit NV mit dem GM107 kam. Und das ist schon Monate zurück!
Also an einen kurzfristigen Schwenk auf 8GB mit HBM glaube ich da ehrlich gesagt einfach nicht. -> naheliegender ist, dass die Technik einfach noch nicht so weit ist/war und man sich mit HBM für diese Generation leider einfach etwas verzettelt hat.

Mir hat es schon gereicht als ich gemerkt hab das Standardmäßig bei nVidia die Texturqualität nur auf "hoch" steht bei ner Highendkarte... und man wundert sich das die Bildquali so komisch ist wenn man seine mittlerweile Altbackene 7870 im Zweitrechner daneben laufen hat... :wall:
Dann musst du dich wohl oder übel etwas getäuscht haben ;)
Tests der Filterqualität belegen, dass der Quality Filter bei NV mit dem von AMD relativ gleich auf liegt. Allerdings der HQ Filter bei NV nach wie vor unerreicht für AMD ist. AMDs HQ Filter ist dazu kein wirklicher HQ Filter, wie man es vom Namen her erwarten kann. Sondern das Endergebnis ist etwas schärfer, dafür etwas "flimmriger" -> es passt eher "anders" als höhere Qualität.
Das NV nur Quality als default verteilt, ist keine Neuheit und schon seit ewig so, würde ich meinen... :wink:

Cool ist das via DX12 nVidia seinen Willen bekommt eine "Standard-API" mit den Features von Mantle zu bekommen... nachdem sie FreeSync ja schön direkt boykottiert haben obwohl es wohl auch in Zukünftige DisplayPorts aufgenommen wird (Außer die bekommen die VESA irgendwie dazu das sie das fallenlassen) und auch Mantle nicht mal im Ansatz angeschaut haben... wundern würde mich heutzutage nichts mehr.

Auch hier bist du etwas stark selektiv... NV hat G-Sync als Technik gebracht. Da gab es kein FreeSync und es war nichtmal ansatzweise klar, ob dies mal in einem Standard etabliert wird oder nicht. Sicher ist der Background keine dedizierte Erfindung seitens NV. Allerdings haben/hatten sie einfach mal den Finger zu einem Zeitpunkt am Drücker, wo von Rot dahingehend noch nix dergleichen zu sehen war.
Man kann sich jetzt gern darüber streiten, ob Propritär oder Standard das Bessere für den Endkunden ist. -> allerdings beinhaltet dieses Thema dann die Zeitschiene eben nicht... Ein quasi Standard, der AdaptiveSync mittlerweile ist, ist gut und schön, allerdings hat NV eben ihre eigene Technik schon fertig und verkauft diese... Rein aus wirtschaftlicher Sicht ist es einfach folgerichtig, auf ihr eigenes Pferd zu setzen.

Das gleiche gilt für den Mantle-Ansatz bei AMD. In einigen der Mantle Titel steht NV trotz "nur" angepasster Treiber für DX11 nicht schlechter dar. Manche laufen auf NVs DX11 Umsetzung gar schneller -> Trotz dass es Mantle Titeln sind (Thief bspw.)
Es existiert also mit Nichten ein Bedarf für NV, sich bei einer Technik einzukaufen, die man selbst nicht braucht, da das Eigene dem gängigen Standard entspricht und dazu noch in Sachen Problemkinder meilenweit vor der Konkurenz agiert (DrawCall Performance)
Bei Mantle kommt noch erschwerend hinzu, dass gerade diese Propritäre Sache, die man bspw. bei NV immer wieder kritisiert, eine von Anfang an absehbare Lebenszeit hatte. DX12 war/ist ein paar Wochen nach Mantles offiziellem Release angekündigt worden... Einige der Versprechungen seitens AMD wurden dazu noch zurückgezogen (kein SDK bspw.) -> mittlerweile ist Mantle 1.0 wohl sogar eingestellt.
Rückblickend könnte man fast sagen, NV hat alles richtig gemacht... Zumindest wenn man es wirtschaftlich sieht.

PS: das Mantle MS dazu genötigt hat, ein DX12 zu bringen, ist ebenso ein unbestätigtes Gerücht. Die Zeitliche Abfolge der Ankündigungen lässt bei weitem eher das Gegenteil vermuten. Bestenfall könnte man Zusammenhänge noch erkennen, wenn man auf OpenGL schaut, denn das war VOR Mantle schon im Gespräch von wegen Hardwarenäher, besseres/mehr MT Bestandteile usw. usf.
 
Bei der Bildquali habe ich mich net getäuscht, ich sprach von den Standardeinstellungen.

Da nimmt nVidia nunmal nur den RGB Farbraum und den Texturfilder auf der 2. höchsten Einstellung.

Wenn man das korrigiert haut es ja hin... nur war ich etwas angesägt weil mir das erst im Vergleich aufgefallen war - aus purem Zufall!
 
Nur ist der NV Quality Schalter von der BQ her ziemlich identisch mit dem, was AMD aktuell an AF bietet... Wenn du da Unterschiede siehst, stimmt irgendwas nicht. ;) Und wenn da Unterschiede zugunsten von AMD zu sehen sein sollen, stimmt ganz gewaltig was nicht. Das meine ich damit. :wink:
Und natürlich sauge ich mir das nicht aus den Fingern... Schau dir die Tests ausgehend vom Tahiti Release an, da wurden die GCN GPUs auf deren Filtereigenschaften untersucht und ggü. (damals noch) Fermi gestellt... Das Ergebnis ist eindeutig und deckt sich Testübergreifend... Mir wäre nichts bekannt, dass sich daran bis dato was geändert haben soll. Weder bei AMD noch bei NV. Kein Review/keine Redaktion schreibt von BQ Unterschieden zwischen NV und AMD -> weswegen man den Standardwert belässt (bei beiden Herstellern), da eben NVs HQ Schalter stand heute immernoch unerreicht ist.

Wenn du also den NV Standard hast, dir trotzdem Unzulänglichkeiten zugunsten AMDs auffallen, dann ist da irgendwas gravierend faul, da diese Unzulänglichkeiten schlicht nicht sein dürften. Auch nicht mit "nur" Quality...
 
So... Eben extra für dich nochmal mit ner 750 ti getestet - RGB auf ycbcr und alles passt. Liegt also am Farbraum.
 
Das Problem ist das die Leute auch die 1000€ für eine Grafikkarte bezahlen. Würden die Leute was mehr Geduld haben und warten, dann würde der Preis schnell sinken, sobald die Karten im Regal bleiben.

Ich finde High End sollte maximal 500€ kosten. Mehr würde ich auch nie bezahlen und dann auch nur wenn es sich lohnt.

Als ich meine 7950 in RMA schicken musste, habe ich zur 970 gegriffen. Habe 340€ für sie bezahlt. Da geht der Preis noch einigermassen, obwohl es ja eigentlich die Mainstream Karte von NV ist. Die eigentlich deutlich Günstiger sind. Aber immerhin habe ich 20-30 FPS mehr in Dying Light und in War Thunder 40-50 FPS.

Da gebe ich dir recht, wer sich eine Titan X kauft muss entweder extrem reich oder einfach nur gestört sein. 1200 € für eine Grafikkarte... Zumal in wenigen Monaten die Ti und 390X am Markt sind, die für weniger Geld mehr leisten werden. Der Preisunterschied zwischen der 970 und 980 ist schon ziemlich heftig für die Leistung, aber selbst mit dem dürfte eine Titan maximal 800 € kosten.
 
Na, dies Sättigung der Titan X sollte spätestens in 2 bis 3 Wochen vonstatten gehen.
Bis dahin sollte alle potentiellen Kunden abgegrast und um ihre 1100 bis 1200 Euro gebracht worden sein.
Dann wird das Gejammere wieder losgehen, und in die Konkurrenz investiert, oder aber auch die Titan schnell abgestoßen falls eine "womögliche" GTX 990TI 6GB/ 9GB um die 749 bis 799 Dollar kosten sollte.
 
Na, dies Sättigung der Titan X sollte spätestens in 2 bis 3 Wochen vonstatten gehen.
Bis dahin sollte alle potentiellen Kunden abgegrast und um ihre 1100 bis 1200 Euro gebracht worden sein.
Dann wird das Gejammere wieder losgehen, und in die Konkurrenz investiert, oder aber auch die Titan schnell abgestoßen falls eine "womögliche" GTX 990TI 6GB/ 9GB um die 749 bis 799 Dollar kosten sollte.

Die Ti wirst du nicht vor Ende Sommer sehen.
Vorher wird es bestimmt erstmal den Cut Chip geben der 15% unter der X angesiedelt wird.
Ich gehe von Mai Anfang Juni aus.
 
Ich denke auch das nVidia erst mal melken wird.
Einen Chip mit 2,5k Shader, mit 6GB dann irgendwann den Vollausbau.
Wäre doch blöd, wenn man soviel Geld liegen lässt.

Ich kann mich nur wiederholen, hoffentlich taugt die 390X was und zerpflückt die Titan X, damit nVidia mal wieder gezwungen ist, die Preise wieder in die Normalität zurück zu holen.
 
Ich kann mich nur wiederholen, hoffentlich taugt die 390X was und zerpflückt die Titan X, damit nVidia mal wieder gezwungen ist, die Preise wieder in die Normalität zurück zu holen.
Naja, ganz ehrlich, wieso soll sich NV denn immer an AMD orientieren und die Preise senken? (geschieht sowieso praktisch nie).
Wieso kann nicht mal AMD sich an NV orientieren und die Preise hoch ansetzen?
Klar, für fehlende PhysX und etwas höheren Verbrauch, kann man vlt. 200-300Eur abziehen, mehr aber auch nicht!
Scheint jedenfalls als ob es diesmal so kommt.
 
Ooch, Preise sind nur ein Detail. Mittelfristig gäbe es noch ganz andere Möglichkeiten:
GameWorks, GeForce Experience kümmert sich um den Rest und bis für die Midrange-Karten
gescheite Treiber verfügbar sind kann es schon mal ein halbes Jahr dauern.
Aber na gut, ich habe noch andere Hobbys
 
Also an einen kurzfristigen Schwenk auf 8GB mit HBM glaube ich da ehrlich gesagt einfach nicht. -> naheliegender ist, dass die Technik einfach noch nicht so weit ist/war und man sich mit HBM für diese Generation leider einfach etwas verzettelt hat.

AMD-Radeon-R9-390X-WCE.jpg

PS: das Mantle MS dazu genötigt hat, ein DX12 zu bringen, ist ebenso ein unbestätigtes Gerücht. Die Zeitliche Abfolge der Ankündigungen lässt bei weitem eher das Gegenteil vermuten. Bestenfall könnte man Zusammenhänge noch erkennen, wenn man auf OpenGL schaut, denn das war VOR Mantle schon im Gespräch von wegen Hardwarenäher, besseres/mehr MT Bestandteile usw. usf.

Natürlich. Das würde Microsoft auch sicherlich bestätigen, wenn man sie danach fragt. ;)

Seltsam nur, das nachdem AMD mit Mantle so gute Resultate erbrachte und dutzende von Entwicklungsstudios die Zusage mit der Zusammenarbeit auf Mantle veröffentlichte, dann plötzlich Microsoft mit DX12 um die Ecke gewunken hat.
Seltsam ist auch, das wir jetzt nach knapp 1,5 Jahren immer noch kein DX12 nutzen können und es voraussichtlich nochmals 1 Jahr oder länger dauern wird, bis DX12 angewendet werden kann.
Es ist natürlich völlig abwegig, das Microsoft, einer der reichsten Firmen der Welt, in 2-3 Jahren kein DX12 entwickeln könnten und es schon lange vor AMD getan haben. Vermutlich war die angeschlagene Firma AMD mit der neuen API einfach schneller als Microsoft. Das wird es sein ! :wink:

- - - Updated - - -

Na, dies Sättigung der Titan X sollte spätestens in 2 bis 3 Wochen vonstatten gehen.
Bis dahin sollte alle potentiellen Kunden abgegrast und um ihre 1100 bis 1200 Euro gebracht worden sein.
Dann wird das Gejammere wieder losgehen, und in die Konkurrenz investiert, oder aber auch die Titan schnell abgestoßen falls eine "womögliche" GTX 990TI 6GB/ 9GB um die 749 bis 799 Dollar kosten sollte.

Nur der wo sich abgrasen lässt, wird gemolken. Die GTX980Ti wird die einzig interessante auf OC ausgelegte Karte von NVIDIA werden.
 
@Pickebuh
Was willst du mir mit dem Bild sagen? Oder hast du die Aussage einfach nur falsch verstanden? Es zweifelt wohl mittlerweile niemand mehr an den 8GB für die WCE.
Die Aussage ist eher darauf bezogen, dass ich nicht annehme, das AMD kurzfristig auf 8GB geswitcht hat (wegen der TitanX), sondern einfach dies schon mehr oder weniger von Anfang an geplant war... Warum? Weil es völlig klar ersichtlich ist/war, dass man bei NV nicht bei 4GB für den GM200 bleiben wird. Sprich minimum 6GB logische Konsequenz gewesen wären. Und das ist schon seit mehreren Monaten so abzusehen gewesen. Nimmt man es genau, schon seit dem GM107 Release. Denn mit diesem zeichnete sich die Leistungsfähigkeit von Maxwell für Jedermann ersichtlich klar ab!

So "blöd" schätze ich die Jungs bei AMD nun nicht ein, dass man Offensichtliches derart übersehen hätte... -> für mich sieht das eher so aus, als wäre die 8GB Version schlicht und ergreifend von Anfang an geplant gewesen. Bestenfalls hat man allerdings nun die 4GB "kleine" Version der Karte etwas aufgeschoben um sich ggü. der TitanX besser platzieren zu können. Eventuell waren auch 8GB HBMv2 im Gespräch (da gibt/gab es Gerüchte zu) und man hat sich kurzerhand dazu umentschieden, auch eine 8GB HBMv1 Version zu bringen.
-> unterm Strich ändert das allerding am gesagten nichts. Mit HBM für die Fiji GPU hat sich AMD verzettelt, denn offenbar ist es nicht möglich weder 8GB HBMv1 noch v2 Speicher zu liefern (Stand heute) wärend die Konkurenz schon wieder munter 1000€ Grafikkarten vertickt. :wink:



Und zu Mantle, auch hier hast du irgendwas überlesen -> ich sehe nach wie vor keinen Zusammenhang zwischen Mantle und DX12. Wie auch, die Zeitspanne ist derart gering, dass ein Zusammenhang quasi ausgeschlossen ist. Beide Hersteller müssten sich Monate vorher irgendwo getroffen haben und in Absprache hinter verschlossenen Türen angefangen haben, ihre APIs zu entwickeln. Auch MS schüttelt das mal nicht ebenso binnen weniger Wochen aus dem Ärmel!
Das es DX12 heute nicht zu kaufen gibt, ist dabei bestenfalls makulatur -> denn wir kennen von irgendwo Mitte letzten Jahres schon Benchmarks/Demoszenen mit lauffähigem DX12. Die Annahme, MS hätte also erst nach Mantle mit DX12 begonnen, ist reichlich weit hergeholt ;)

Naheliegender ist dort viel eher ein Zusammenhang zwischen DX12 und dem neuen OpenGL -> was weit vor Mantle schon im Gespräch war. Wenn ich mich recht entsinne dürfte das im Bereich Mitte vorletzten Jahres gewesen sein. Mit ebenso diesen Ankündigungen von wegen besserer MT Unterstützung, mehr DrawCalls usw. usf.
In wieweit AMD da damals in den Gesprächen mit involviert war, lässt sich allerdings bestenfalls nur spekulieren...
 
Die 390X wird unter 1000 € kosten, ich rechne so mit 800. Dabei wird sie vermutlich schneller sein als die Titan (Alleine die massive Bandbreite für 4K). Dann kann man auch mit der 980Ti rechnen, ob es ein Vollausbau wird sieht man dann. Sollten sie damit gegen die 390 antreten wollen sicherlich schon...

Sollte meine 980 wieder kaputt gehen werde ich ernsthaft AMD in Erwägung ziehen, einzig verunsichernd wirkt der Wasserkühler. Denn für 4K VR benötige ich früher oder später zwei davon. Die 980Ti wäre eine gute Alternative, wenn sie nicht dasselbe Problem haben sollte und in einem realistischen Preisgebiet startet. Was war bei der 780Ti eigentlich Releasepreis? 7-800 € fände ich angesichts der Leistungssteigerung gegenüber der 980 in Ordnung, was immer noch ein Vermögen ist, da manch einer für dieses Budget sein komplettes System zusammenstellt.
 
Was war bei der 780Ti eigentlich Releasepreis?

Ich habe 617 bei Amazon für eine Ref. Zotac 780TI unmittelbar nach Release gezahlt ;)
GH Preise dürften im Schnitt wohl so bei um dei 590-600€ gelegen haben...

Ich denke allerdings eher, dass diese weitere GM200 Karte in diesem Bereich ansetzen wird. Je nach Dollarkurs wohl dann bei uns...
 
Der GM200 ist in etwa 50% schneller als der kastrierte GM204 der 970er und benötigt dazu im Schnitt wohl um die 45% mehr Energie. Ggü. der 980er sinds immerhin noch ~35% mehr Leistung bei ~37% mehr Energiebedarf. -> dafür das der GM200 quasi ein GM204 mit 50% mehr im Ganzen ist, skaliert das schon relativ gut.

Der benötigt deutlich mehr Energie als 45% mehr, das zeigen alle Tests durch die Bank.
Die

Die 3DCenter Werte zeigen bei einer GTX 970 etwa 140 Watt Energieaufnahme und bei der GTX Titan 240 Watt. DAs sind nicht wirklich 45%, auch nicht 50, sondern eher~ 70%.
Das ist nicht wirklich eine Verbesserung die Nvidia mit der ersten Titan gezeigt hat, sondern eher eine verschlechterung der Effizienz und das ist auch kein Wunder, weil AMD mit neuen Karten kommt, da kann man die Leistung nicht mehr so beschneiden wie noch bei der ersten Titan.

fdsonne schrieb:
Nur ist der NV Quality Schalter von der BQ her ziemlich identisch mit dem, was AMD aktuell an AF bietet...

Geschmackssache. Flimmern war bei dem alten Texturcontent ein größeres Problem, aktuell bevorzuge ich mehr Flimmern im Filtertester aber dafür mehr Schärfe, ganz einfach weil das in der Praxis gar nicht auftritt.
Die Ansicht, dass Nvidia das bessere AF habe, stütze ich somit nicht, denn Tatsache ist, dass es unschärfer ist, dafür aber flimmerärmer.
In der Praxis völlig uninteressant.


Auch hier bist du etwas stark selektiv... NV hat G-Sync als Technik gebracht. Da gab es kein FreeSync und es war nichtmal ansatzweise klar, ob dies mal in einem Standard etabliert wird oder nicht.

Du labers ziemlich viel Unsinn, fdsonne. Nvidia und AMD sitzen in der VESA.:stupid:
Nvidia wusste dass diese Technologie auf den Markt kommt und begann damit FPGA´s und keine ASICS zu verkaufen um dem zuvorzukommen.
Einserseits siehst du bei Mantle keinen Effekt auf Directx12, aber andererseits willst du behaupten Freesync odere Adapdtive Sync hätte es ja ohne G-sync nicht gegeben.
Ein paar Wochen nach der G-sync Vorstellung kam AMD mit Freesync um die Ecke? Und da siehst du zeitlich keine korrelation, bei Mantle vs. Directx12 aber schon?
Ne echt.:fresse:

Man könnte meinen Sontin hat deinen Account übernommen und du machst hier Propaganda.:fresse:

Man kann sich jetzt gern darüber streiten, ob Propritär oder Standard das Bessere für den Endkunden ist. -> allerdings beinhaltet dieses Thema dann die Zeitschiene eben nicht... Ein quasi Standard, der AdaptiveSync mittlerweile ist, ist gut und schön, allerdings hat NV eben ihre eigene Technik schon fertig und verkauft diese... Rein aus wirtschaftlicher Sicht ist es einfach folgerichtig, auf ihr eigenes Pferd zu setzen.

Nein, das ist nicht folgerichtig. Denn es gibt auch Instrumente den Markt zu vergrößern und sich von Konsolen qualitätsmäßig abzusetzen, eben genau mit diesen Features.
Und dass man sich darüber streiten muss, was besser für den Endkunden ist, denke ich nicht.
Wenn ein offener Standard laut den Tests genauso funktioniert wie ein geschlossener, dann versuch doch bitte nicht, dass einfach so zu zerreden.
 
Zuletzt bearbeitet:
Der benötigt deutlich mehr Energie als 45% mehr, das zeigen alle Tests durch die Bank.
Die

Die 3DCenter Werte zeigen bei einer GTX 970 etwa 140 Watt Energieaufnahme und bei der GTX Titan 240 Watt. DAs sind nicht wirklich 45%, auch nicht 50, sondern eher~ 70%.
Nach meinen bisherigen Erkenntnisen läuft die TitanX als bald ins Temp/Powerlimit... Dann sinkt der Verbrauch.
Eine nicht aufgebohrte 970er liegt bei ~150W Verbrauch. Custom Modelle mit OC oder ähnlichem kommen auch drüber...
PS: nach ht4u.net Test genehmigt sich eine TitanX im default Zustand ca. 225-230W, weil dann der volle Boost nicht mehr greift. Speedvorteil von ~50% bleibt nach eben jenem Test. Das sind ziemlich genau 50%.

Und ja, die 45% bezogen sich auf Gesamtsystem Messungen -> Asche auf mein Haupt.

Geschmackssache. Flimmern war bei dem alten Texturcontent ein größeres Problem, aktuell bevorzuge ich mehr Flimmern im Filtertester aber dafür mehr Schärfe, ganz einfach weil das in der Praxis gar nicht auftritt.
Die Ansicht, dass Nvidia das bessere AF habe, stütze ich somit nicht, denn Tatsache ist, dass es unschärfer ist, dafür aber flimmerärmer.
In der Praxis völlig uninteressant.

Persönliche Vorlieben... :wayne:
Es ging um die Filterqualität, nicht um das, was am Ende besser empfunden wird ;)


Dem Flimmern kann man zwar heute relativ gut vorbeugen, das liegt allerdings eher daran, dass die neueren Titel alle samt wenig von echtem AA bieten, sondern auf irgendwelche Weichzeichner, Blurfilter oder sonstwas setzen. Das macht das Bild von Haus aus ein Stück weit Matsche Patsche und somit fällt das Flimmern nicht mehr ins Gewicht. Wohl dem, der auf sowas allerdings verzichten will ;)
 
HT4U betreibt eine GTX 970 mit erhöhten PT, von daher sind die Messwerte unwichtig.
Wichtig ist das was im Schnitt herauskommt und nicht in einzelnen Ergebnissen.
 
Du labers ziemlich viel Unsinn, fdsonne. Nvidia und AMD sitzen in der VESA.:stupid:
Nvidia wusste dass diese Technologie auf den Markt kommt und begann damit FPGA´s und keine ASICS zu verkaufen um dem zuvorzukommen.
Einserseits siehst du bei Mantle keinen Effekt auf Directx12, aber andererseits willst du behaupten Freesync odere Adapdtive Sync hätte es ja ohne G-sync nicht gegeben.
Ein paar Wochen nach der G-sync Vorstellung kam AMD mit Freesync um die Ecke? Und da siehst du zeitlich keine korrelation, bei Mantle vs. Directx12 aber schon?
Ne echt.:fresse:

Man könnte meinen Sontin hat deinen Account übernommen und du machst hier Propaganda.:fresse:

Das hast du dir aber fein ausgedacht. G-Sync hat Ende 2013 funktioniert, FreeSync Anfang 2015. Davor gabs von AMD nur Gelaber und Demos mit fixen Frameraten um eine Technik für variable Frameraten zu präsentieren - das muss man sich mal auf der Zunge zergehen lassen.

Ich würde auch nicht davon ausgehen, dass Mantle DX 12 erzwungen hat. Dafür dauert die Entwicklung von sowas doch viel zu lange, zumal die DX 12 Demo schon letztes Jahr lauffähig war. Beschleunigt haben dürfte Mantle die DX 12-Entwicklung allerdings.
 
Das hast du dir aber fein ausgedacht. :wall: das muss man sich mal auf der Zunge zergehen lassen.:wall:

Das sagt einer der sich ne X gekauft hat..... und NV den Arsch vergoldet.....

Ach ja Hauptsache AMD released langsam mal damit manche Wach werden.
 
Zuletzt bearbeitet:
Das hast du dir aber fein ausgedacht.

Daran ist nichts ausgedacht. Beschäftige dich einfach mit der Materie, schau im 3D Center Syncthread, da wurde alles zur genüge Diskutiert.
Bei der VESA lag dies schon lange auf dem Tisch, ansonsten hätte AMD nicht einfach so mal das eingeführt.
Nviida hat dies eher zur Marktreife gebracht, allerdings eher mit einer DRM Geschichte, als wirklich einer optimalen Lösung.

Und G-sync war ende 2013 noch gar nicht verfügbar für den Kunden, eher anfangs mittels Umbaukit und dann Q2 2014 kamen bei uns erst die Monitore auf den Markt.
Man kann sich alles immer schönreden, besonders anfällig ist man, wenn man immer nur eine Marke kauft, das merkt man bei dir wirklich extrem.

Leztendlich hat Nvidia so getan, als hätten sie den heiligen Gral gefunden und haben dies als "greatest Thing wie ever did" oder so ähnlich vermarktet.
In Wirklichkeit wars eher gelogen, aber so funktioniert nunmal Marketing. Vielleicht solltest du das Marketing nicht so ernst nehmen?

fdsonne schrieb:
Es ging um die Filterqualität, nicht um das, was am Ende besser empfunden wird

Ja es geht immernoch um die Filterqualität, wer sagt denn dass ein minimales mehr an Flimmern und dafür eine höhere Schärfe, nicht die bessere Filterqualität ist, vor allem weil sich der Content ja geändert hat?
Ist doch albern das Thema.

- - - Updated - - -

Das sagt einer der sich ne X gekauft hat..... und NV der Arsch vergoldet.....

Ach ja Hauptsache AMD released langsam mal damit manche Wach werden.

Stell dir vor, ich hab mir auch eine TITAN X Gekauft.:hmm:
 
Zuletzt bearbeitet:
Du labers ziemlich viel Unsinn, fdsonne. Nvidia und AMD sitzen in der VESA.:stupid:
Nvidia wusste dass diese Technologie auf den Markt kommt und begann damit FPGA´s und keine ASICS zu verkaufen um dem zuvorzukommen.
Was wird das jetzt wieder?
Nenn doch einfach Fakten anstatt so nem Mist wieder...
Wann wurde die zugrundeliegende Technik in die Spezifikationen aufgenommen und stelle diese Zeit dem Gegenüber, wo NV G-Sync angekündigt bzw. beworben hat. -> du wirst staunen.

Einserseits siehst du bei Mantle keinen Effekt auf Directx12, aber andererseits willst du behaupten Freesync odere Adapdtive Sync hätte es ja ohne G-sync nicht gegeben.
Ein paar Wochen nach der G-sync Vorstellung kam AMD mit Freesync um die Ecke? Und da siehst du zeitlich keine korrelation, bei Mantle vs. Directx12 aber schon?
Ne echt.:fresse:

Hilf mir auf die Sprünge, wo habe ich das behauptet!? Bzw. wo will ich das behaupten?

Nein, das ist nicht folgerichtig. Denn es gibt auch Instrumente den Markt zu vergrößern und sich von Konsolen qualitätsmäßig abzusetzen, eben genau mit diesen Features.
Und dass man sich darüber streiten muss, was besser für den Endkunden ist, denke ich nicht.
Wenn ein offener Standard laut den Tests genauso funktioniert wie ein geschlossener, dann versuch doch bitte nicht, dass einfach so zu zerreden.

Worauf willst du hinaus?
Ich zitier dir gern nochmal meine Aussage: "Rein aus wirtschaftlicher Sicht ist es einfach folgerichtig, auf ihr eigenes Pferd zu setzen."

Wenn du über die Umsetzung streiten willst, dann such dir bitte jemanden Anderen. Die Aussage "folgerichtig" bezieht sich auf den Umstand, dass NV dort Mittel investiert hat um eine Technik auf den Markt zu bringen, die es bis dato nicht gab. Und da kann AMD noch so kurz dahinter kommen und was ankündigen. Es WAR schlicht nicht verfügbar... Also ist es folgerichtig, dass man jetzt, nachdem die Mittel in eine Technik geflossen sind, diese auch weiter vertreibt, anstatt den Ansatz fallen zu lassen -> die Kohle zu verbrennen und irgendwas anderes zu nutzen. Das mag dir nicht schmecken -> interessiert aber allerdings nicht im geringsten. Auch scheint dir entfallen zu sein, dass dort klar ersichtlich steht, "rein aus wirtschaftlicher Sicht".

Also hör bitte mit diesem Mist auf. Wenn du diskutieren willst, dann halt dich an das geschriebene, bring Fakten anstatt irgendwas hinzuzudichten oder einfach wegzulassen...

HT4U betreibt eine GTX 970 mit erhöhten PT, von daher sind die Messwerte unwichtig.
Wichtig ist das was im Schnitt herauskommt und nicht in einzelnen Ergebnissen.

Dann löse den Blick von den Diagrammen und ließ den Text -> dann wird es dir klar.
Zitat gefällig?
"Zur GTX 970 können wir nur verhalten berichten, sind uns unserer Resultate aber relativ sicher. Die GTX 970 wie hier vorliegend verbraucht maximal 160 Watt – NVIDIAs Angabe lautet auf 145 Watt. Auf detaillierte Rückfrage teilte man uns fest, dass das gesetzte Power-Limit bei der Referenzkarte 150 Watt betrage."
Oder noch eins?
"Die ab Werk gesetzte Beschränkung der TDP der GeForce GTX 980 als Referenz liegt bei 180 Watt, jene der GTX 970 bei 151 Watt – NVIDIA hat uns diese Messwerte bestätigt."
-> beides nachzulesen auf ht4u.net, das Erste aus dem 970/980er Artikel, das zweite aus dem 970 Asus Strix Artikel.



PS: und was Mantle und DX12 angeht. Wie oft soll ich das noch wiederholen?
Ich sehe eher einen Zusammenhang mit dem OpenGL Nachfolger, bzw. dessen Ankündigung, warum? Weil das weit vor Mantle schon im Gespräch war... Wohl dem, das auch NV und AMD dort ihre Wörtchen mitzumischen haben/hatten...
Du darfst mir allerdings gern das Gegenteil belegen.

Ja es geht immernoch um die Filterqualität, wer sagt denn dass ein minimales mehr an Flimmern und dafür eine höhere Schärfe, nicht die bessere Filterqualität ist, vor allem weil sich der Content ja geändert hat?
Ist doch albern das Thema.

Albern ist eher, dass du gerade die ganze Testriege dahingehend lächerlich machst, die alle samt, durch die Bank weg der Meinung sind, das HQ AF bei NV qualitativ das bessere Gesamtergebnis abliefert, nur weil es dir anscheinend bei AMD besser gefällt :fresse:
Im übrigen habe ich auch gar keine Lust mich mir dir auf so einen Quatsch einzulassen. Ganz ehrlich...
Pirates Anliegen hat sich offenbar lange schon geklärt und der eigentliche Hintergrund war, dass er besseres AF bei AMD gesehen hätte und sich wunderte/beschwert hat, das bei NV nur Q anstatt HQ per default eingedreht ist... Und jetzt kommst du und willst allen ernstes darüber Philosophieren, ob Flimmern der Unschärfe vorzuziehen ist? :wall:
 
Zuletzt bearbeitet:
Also an einen kurzfristigen Schwenk auf 8GB mit HBM glaube ich da ehrlich gesagt einfach nicht. -> naheliegender ist, dass die Technik einfach noch nicht so weit ist/war und man sich mit HBM für diese Generation leider einfach etwas verzettelt hat.
AMD hat sicherlich schon länger gewusst, was für Kapazitäten pro Stack mit HBM1 möglich sind. SemiAccurate hatte bereits 2011 einen Prototypen mit Stacked Memory gezeigt. Und deshalb wird man sich schon seit längerem für Interleaving mit der ersten HBM Generation entschieden haben, um mehr als 4 GB VRAM implementieren zu können. Wo ist also der kurzfristige Schwenk? Und mit was hat man sich konkret verzettelt? Irgendwie ergeben deine Aussagen für mich keinen Sinn.

NV hat G-Sync als Technik gebracht. Da gab es kein FreeSync und es war nichtmal ansatzweise klar, ob dies mal in einem Standard etabliert wird oder nicht.
Freesync und G-Sync waren lange Zeit parallel in Entwicklung. Nvidia hat G-Sync lediglich ein paar Wochen vorher angekündigt. Freesync gab es zu dem Zeitpunkt bereits. Es wurde nur nicht öffentlich gemacht. ZB Bonaire hat bereits alles notwendige für Freesync an Bord. Der Chip wurde über ein halbes Jahr vor der G-Sync Ankündigung gelaunched und war vermutlich über ein Jahr davor bereits fertig entwickelt. Adaptive Sync gab es auch schon weit vor G-Sync.

Das gleiche gilt für den Mantle-Ansatz bei AMD.
Nein, tut es nicht. Mantle stammt nicht von AMD, sondern ist auf die Initiative von DICE entstanden. Ausserdem gab es bis dahin nichts, was eine Grafik-API so umsetzte. Oder kannst du mir was nennen? Mit Adaptive Sync hatte man hingegen bereits eine standardisierte Basis, auf die man hätte setzen können. Die teure Eigenentwicklung G-Sync wäre also gar nicht notwendig gewesen. Freesync hat das bewiesen.

In einigen der Mantle Titel steht NV trotz "nur" angepasster Treiber für DX11 nicht schlechter dar.
Wenn man nur auf FPS bei bestimmten Setups schaut, vielleicht. Das alleine macht Mantle aber nicht aus. Stichwort Frametimes, Skalierung, schwächere CPUs usw.

Einige der Versprechungen seitens AMD wurden dazu noch zurückgezogen (kein SDK bspw.) -> mittlerweile ist Mantle 1.0 wohl sogar eingestellt.
Nein. Aus Mantle 1.0 wurde einfach nur Vulkan. Es ist quasi ein Mantle Fork, also die gleiche Codebasis, die vor allem für Hardwareunabhängigkeit angepasst wurde. Genau das hatte AMD ja ursprünglich beabsichtigt, einen Industriestandard daraus zu machen. Unter welchem Namen der läuft, ist letztendlich belanglos. Und deshalb gibt man auch kein SDK frei. Wer das will, soll auf Vulkan zurückgreifen. Mantle selbst wird aber weiterentwickelt, als Testbett für zukünftige Verbesserungen und Innovationen. Eingestellt ist da gar nichts. Zumal Mantle gerade gegenüber DirectX 12 nach wie vor nicht zu unterschätzende Vorteile bietet. Mantle benötigt zB kein Windows 10 und scheint entsprechend bisheriger Tests besser mit mehr Kernen zu skalieren. Aber das dürfte Entwickler weniger vor die Frage stellen, ob sie Mantle statt DirectX 12 nutzen sollten. Sondern eher, ob sie in Zukunft mehr OpenGL (bzw Vulkan) statt DirectX nutzen sollten.

PS: das Mantle MS dazu genötigt hat, ein DX12 zu bringen, ist ebenso ein unbestätigtes Gerücht. Die Zeitliche Abfolge der Ankündigungen lässt bei weitem eher das Gegenteil vermuten.
Na dann kläre uns Unwissende doch mal über die zeitliche Abfolge auf. Was bisher zu lesen war, deutet dann doch genau darauf hin. Ursprünglich gab es keine Pläne für DirectX 12 in absehbarer Zeit. Man wollte lediglich das bestehende DirectX inkrementell weiterentwickeln. Erst durch Mantle sah sich Microsoft genötigt, DirectX grundlegend zu überarbeiten und in der Form zu bringen, wie DirectX 12 im Moment ausschaut. Dabei hat man sich vieles von Mantle abgeschaut. ET hatte das auch mal in einem Artikel alles zusammengefasst. Gerüchten zufolge soll AMD selbst bei der Entwicklung von DirectX 12 geholfen haben. Im PCGH Forum gibt's auch einen interessanten Thread zum Thema. Wenn man nicht gerade zu naiv ist, sollte man 1 und 1 zusammenzählen können. ;)
 
Zuletzt bearbeitet:
Daran ist nichts ausgedacht. Beschäftige dich einfach mit der Materie, schau im 3D Center Syncthread, da wurde alles zur genüge Diskutiert.
Bei der VESA lag dies schon lange auf dem Tisch, ansonsten hätte AMD nicht einfach so mal das eingeführt.
Nviida hat dies eher zur Marktreife gebracht, allerdings eher mit einer DRM Geschichte, als wirklich einer optimalen Lösung.

Und G-sync war ende 2013 noch gar nicht verfügbar für den Kunden, eher anfangs mittels Umbaukit und dann Q2 2014 kamen bei uns erst die Monitore auf den Markt.
Man kann sich alles immer schönreden, besonders anfällig ist man, wenn man immer nur eine Marke kauft, das merkt man bei dir wirklich extrem.

Leztendlich hat Nvidia so getan, als hätten sie den heiligen Gral gefunden und haben dies als "greatest Thing wie ever did" oder so ähnlich vermarktet.
In Wirklichkeit wars eher gelogen, aber so funktioniert nunmal Marketing. Vielleicht solltest du das Marketing nicht so ernst nehmen?

AMD hat das halt nicht "einfach so mal eingeführt", sondern eine ganze Weile gebraucht. Und bitte hör mit dem Verdrehen von Posts auf. Ich habe davon geschrieben wann die Technologie funktioniert hat, nicht wann sie für Endkunden verfügbar war. Du tust einfach so als hätte ich letzteres behauptet und unterstellst mir dann aufgrund dieser Unterstellung - welch Ironie - dass ich mir Sachen schön rede. :hmm:
Ich habe bewusst davon gesprochen wann die Technologien funktionsfähig waren und nicht wann sie kaufbar waren, weil es in unserer Betrachtung um die Entwicklung der Synchronisationstechnik, nicht die Verfügbarkeit der Monitore, ging.

Und woher willst du wissen was ich kaufe? Ich hatte von deiner Hausmarke eine ATI 1600 Pro und später einen AMD X4 810, und du wirst nicht einen negativen Post darüber von mir finden, weil beides problemlos lief. Zuletzt hatte ich eine GTX 780 die abgeraucht ist! So, und nun wird es wohl entweder die Titan X oder R9 390X werden. Ich tendiere zur Titan X weil mir die Auswahl an G-Sync Monitoren eher zusagt und ich mir denke, wenn ich schon viel Geld für Highend ausgebe nehme ich die kleinen Bonus-Features wie Physx und 3D Vision gleich mit. Ich weiß, ich sollte mich in Grund und Boden schämen ...
 
Wo ist also der kurzfristige Schwenk? Und mit was hat man sich konkret verzettelt? Irgendwie ergeben deine Aussagen für mich keinen Sinn.
Was ist an: "an einen kurzfristigen Schwenk ... glaube ich nicht" falsch zu interprätieren? -> es hätte doch auffallen können, dass damit ausgesagt wird, dass der 8GB-Weg eben nicht wegen der TitanX gegangen wurde und somit eben nicht kurzfristig darauf geschwenkt wurde??
Und warum ich meine, das sich AMD da verzettelt, wurde ebenso schon mehrfach gesagt -> weil ich der Meinung bin, dass es zu lange dauert auf HBM zu "warten"... NV verkauft munter 1150€ TitanX Karten. Und das, obwohl sich der Fiji Chip seit längerem anbieten könnte, mal wieder VOR dem TopDog von NV zu agieren. Lass noch ein paar Monate ins Land gehen und für die Masse der Grafikkarteninteressierten wird das übertreffen der TitanX zu einer selbstverständlichen Forderung übergehen... Wohl dem shitstorm, wenn man dann durch was auch immer wieder negative Presse schreibt.

Freesync und G-Sync waren lange Zeit parallel in Entwicklung. Nvidia hat G-Sync lediglich ein paar Wochen vorher angekündigt. Freesync gab es zu dem Zeitpunkt bereits. Es wurde nur nicht öffentlich gemacht. ZB Bonaire hat bereits alles notwendige für Freesync an Bord. Der Chip wurde über ein halbes Jahr vor der G-Sync Ankündigung gelaunched und war vermutlich über ein Jahr davor bereits fertig entwickelt. Adaptive Sync gab es auch schon weit vor G-Sync.
Tolle Schlussfolgerung... Weil man etwas ankündigt, was auch vorhandene Technik am Markt nutzen kann, dann gibt es also die Technik dahinter schon mindestens so lange, wie das Produkt was diese Unterstützt und man für den Vergleich ranzieht? Grandiose Erkentnis.

Berichtige mich gern wenn ich falsch liege, aber zwei Sekunden Google mit dem Begriff "adaptive sync" bemühen gibt mir im zweiten Eintrag einen CB Post zurück, das AdaptiveSync irgendwo Mitte 2014 in den DP1.2a Standard aufgenommen wurden...
Weitere zwei Sekunden der Google Suche nach "nvidia g-sync" geben im dritten Eintrag einen CB Test datiert auf Ende 2013 zurück, wo die Redaktion sich das ganze Lauffähig selbst ansehen konnte mit gestellter Technik.

Was sagt mir das nun?
Es sagt mir, dass beide Hersteller sich aufgemacht haben, eine Technik zu etablieren, die offenbar ähnliche Ergebnise liefert. Allerdings hat NV abermals den propritären Weg eingeschlagen und konnte damit offensichlich eher am Markt landen als AMD, die auf die Eintragung eines offenen Standards warten bzw. gewartet haben.
Es ist also aus wirtschaftlicher Sicht nur folgerichtig (meine Worte von oben), weiterhin auf ihre propritäte Technik zu setzen.

Ausserdem gab es bis dahin nichts, was eine Grafik-API so umsetzte. Oder kannst du mir was nennen? Mit Adaptive Sync hatte man hingegen bereits eine standardisierte Basis, auf die man hätte setzen können. Die teure Eigenentwicklung G-Sync wäre also gar nicht notwendig gewesen. Freesync hat das bewiesen.
zum Ersten, also lesen ist echt nicht deine Stärke? Ich schrieb doch nun schon gefühlte drei mal, dass ich die Zusammenhänge ggü. der damaligen Ankündigungen für das neue OpenGL sehe...
Warum?
Das hier bspw.:
News: Auch bei OpenGL ist der Overhead im Fokus - ComputerBase
las man unmittelbar nach der DX12 Ankündigung seitens MS. -> da sehe ich eher einen Zusammenhang als zu Mantle...
Zumal seit März/April 14 Werte über DX12 und CPU Skalierung im Netz public sind. Auch MS kann das nicht man so eben in zwei Monaten aus dem Ärmel schütteln. Selbst wenn man die aller erste Ankündigung von Mantle ranzieht, erscheint ein Zusammenhang alles andere als warscheinlich.
-> wie soll das also unter einen Hut passen? Das stinkt förmlich nach einem Dritten, der den Ausschlag gab. AMD und/oder DICE werden wohl kaum zu MS gegangen sein und da Monate, wenn nicht gar Jahre vorher die Entwicklung angestoßen haben und dann auch noch so zeitig, das unmittelbar nach Release von Mantle erste Ergebnise public werden von DX12 ggü. DX11.
Die Arbeiten an DX12 laufen also schon länger... Definitiv länger als der Release von Mantle, wohl auch länger als die aller ersten Ankündigungen von Mantle.
 
Was ist an: "an einen kurzfristigen Schwenk ... glaube ich nicht" falsch zu interprätieren? -> es hätte doch auffallen können, dass damit ausgesagt wird, dass der 8GB-Weg eben nicht wegen der TitanX gegangen wurde und somit eben nicht kurzfristig darauf geschwenkt wurde??
Und warum ich meine, das sich AMD da verzettelt, wurde ebenso schon mehrfach gesagt -> weil ich der Meinung bin, dass es zu lange dauert auf HBM zu "warten"... NV verkauft munter 1150€ TitanX Karten. Und das, obwohl sich der Fiji Chip seit längerem anbieten könnte, mal wieder VOR dem TopDog von NV zu agieren. Lass noch ein paar Monate ins Land gehen und für die Masse der Grafikkarteninteressierten wird das übertreffen der TitanX zu einer selbstverständlichen Forderung übergehen... Wohl dem shitstorm, wenn man dann durch was auch immer wieder negative Presse schreibt.


Tolle Schlussfolgerung... Weil man etwas ankündigt, was auch vorhandene Technik am Markt nutzen kann, dann gibt es also die Technik dahinter schon mindestens so lange, wie das Produkt was diese Unterstützt und man für den Vergleich ranzieht? Grandiose Erkentnis.

Berichtige mich gern wenn ich falsch liege, aber zwei Sekunden Google mit dem Begriff "adaptive sync" bemühen gibt mir im zweiten Eintrag einen CB Post zurück, das AdaptiveSync irgendwo Mitte 2014 in den DP1.2a Standard aufgenommen wurden...
Weitere zwei Sekunden der Google Suche nach "nvidia g-sync" geben im dritten Eintrag einen CB Test datiert auf Ende 2013 zurück, wo die Redaktion sich das ganze Lauffähig selbst ansehen konnte mit gestellter Technik.

Was sagt mir das nun?
Es sagt mir, dass beide Hersteller sich aufgemacht haben, eine Technik zu etablieren, die offenbar ähnliche Ergebnise liefert. Allerdings hat NV abermals den propritären Weg eingeschlagen und konnte damit offensichlich eher am Markt landen als AMD, die auf die Eintragung eines offenen Standards warten bzw. gewartet haben.
Es ist also aus wirtschaftlicher Sicht nur folgerichtig (meine Worte von oben), weiterhin auf ihre propritäte Technik zu setzen.


zum Ersten, also lesen ist echt nicht deine Stärke? Ich schrieb doch nun schon gefühlte drei mal, dass ich die Zusammenhänge ggü. der damaligen Ankündigungen für das neue OpenGL sehe...
Warum?
Das hier bspw.:
News: Auch bei OpenGL ist der Overhead im Fokus - ComputerBase
las man unmittelbar nach der DX12 Ankündigung seitens MS. -> da sehe ich eher einen Zusammenhang als zu Mantle...
Zumal seit März/April 14 Werte über DX12 und CPU Skalierung im Netz public sind. Auch MS kann das nicht man so eben in zwei Monaten aus dem Ärmel schütteln. Selbst wenn man die aller erste Ankündigung von Mantle ranzieht, erscheint ein Zusammenhang alles andere als warscheinlich.
-> wie soll das also unter einen Hut passen? Das stinkt förmlich nach einem Dritten, der den Ausschlag gab. AMD und/oder DICE werden wohl kaum zu MS gegangen sein und da Monate, wenn nicht gar Jahre vorher die Entwicklung angestoßen haben und dann auch noch so zeitig, das unmittelbar nach Release von Mantle erste Ergebnise public werden von DX12 ggü. DX11.
Die Arbeiten an DX12 laufen also schon länger... Definitiv länger als der Release von Mantle, wohl auch länger als die aller ersten Ankündigungen von Mantle.

Laptops benutzen Adaptive Sync schon lange um strom zu sparen.
 
Und warum ich meine, das sich AMD da verzettelt, wurde ebenso schon mehrfach gesagt -> weil ich der Meinung bin, dass es zu lange dauert auf HBM zu "warten"... NV verkauft munter 1150€ TitanX Karten.
Was Nvidia an Titan X verkauft, sind doch Peanuts. Und seit wann gibt's denn die Titan X? Du tust ja gerade so, als wäre die schon Monate lang auf dem Markt. Was natürlich nicht der Fall ist. Daran ändern auch die vielleicht 2 Monate nichts, die Fiji wohl noch auf sich warten lässt. Fiji soll sowieso längst fertig sein. Im Moment arbeitet man wohl vor allem noch an den Treibern. Manche Quellen spekulieren auch, dass man erst noch altes Inventar abverkaufen möchte. Wie auch immer, selbst Fiji ist nur ein Design mit vergleichsweise geringen Stückzahlen. Irgendwann muss man nun mal mit HBM anfangen. Und wenn nicht jetzt, wann dann? Kurzum, AMD hat sich da mit gar nichts verzettelt. Ganz im Gegenteil, HBM wird dabei helfen, aus Fiji ein noch besseres Produkt zu machen. Eher hat sich Nvidia mit dem GM200 verzettelt und der starken Beschneidung der DP Performance. Das wird sie weitere Kunden im professionellen Markt kosten, die dann eher auf AMD oder Intel zurückgreifen. Kritische Stimmen gibt es ja schon. Und bis Pascal, auf den man noch länger warten muss, wird Nvidia auch nicht einfach was adäquates aus dem Hut zaubern können.

Weil man etwas ankündigt, was auch vorhandene Technik am Markt nutzen kann, dann gibt es also die Technik dahinter schon mindestens so lange, wie das Produkt was diese Unterstützt und man für den Vergleich ranzieht?
Genauso ist es. AMD hat an Freesync schon länger gewerkelt. Und deshalb wussten sie auch, was mit GCN 1.1 anzupassen war. GCN 1.0 unterstützt kein Freesync. Oder bist du echt so naiv zu glauben, AMD hat Freesync einfach mal so nebenbei in ein paar wenigen Wochen entwickelt?

Berichtige mich gern wenn ich falsch liege, aber zwei Sekunden Google mit dem Begriff "adaptive sync" bemühen gibt mir im zweiten Eintrag einen CB Post zurück, das AdaptiveSync irgendwo Mitte 2014 in den DP1.2a Standard aufgenommen wurden...
Wenn du Google besser benutzen könntest, dann hättest du vielleicht ein VESA Whitepaper zu Adaptive Sync gefunden. Das ist von Mai 2013. Da wird auch AMD bereits erwähnt. Adaptive Sync selbst gab es auch schon davor für mobile Geräte. Wurde aber eben erst auf die Initiative von AMD in die DisplayPort Spezifikation aufgenommen, als optionaler Bestandteil von Version 1.2a, um es auch bei Desktops nutzen zu können. Glaubst du nicht, Nvidia hätte das nicht auch hinbekommen, wenn sie gewollt hätte? Dreimal darfst du raten, warum sie das nicht wollen. An Standardisierungen, die uns Endkunden nur zu Gute kommen können, sind die gar nicht interessiert. Sry, aber deine sture Anti-AMD Argumentation in sämtlichen Threads ist echt kaum noch zu ertragen.

Es sagt mir, dass beide Hersteller sich aufgemacht haben, eine Technik zu etablieren, die offenbar ähnliche Ergebnise liefert. Allerdings hat NV abermals den propritären Weg eingeschlagen und konnte damit offensichlich eher am Markt landen als AMD, die auf die Eintragung eines offenen Standards warten bzw. gewartet haben.
Es ist also aus wirtschaftlicher Sicht nur folgerichtig (meine Worte von oben), weiterhin auf ihre propritäte Technik zu setzen.
Toll. Was hat Nvidia rein wirtschaftlich denn bisher gewonnen? Ich verrate es dir, rein gar nichts. G-Sync Monitore sind nach wie vor Mangelware, die Kaufbereitschaft mehr als bescheiden. Und das sind nur die kurzfristigen Auswirkungen für Nvidia. Langfristig werden sie dadurch nur verlieren, weil kein Hersteller mehr auf G-Sync setzen wird, wenn Adaptive Sync Lösungen erst mal etabliert sind. Zu gross sind die Nachteile von G-Sync. Höhere Kosten, kein DP Audio, etwas Performanceverlust usw. Freesync ist mMn nur der Anfang der Adaptive Sync Implementierungen. Intel wird vermutlich mit etwas ähnlichem für ihre iGPUs nachziehen.

zum Ersten, also lesen ist echt nicht deine Stärke? Ich schrieb doch nun schon gefühlte drei mal, dass ich die Zusammenhänge ggü. der damaligen Ankündigungen für das neue OpenGL sehe...
Warum?
Das hier bspw.:
News: Auch bei OpenGL ist der Overhead im Fokus - ComputerBase
las man unmittelbar nach der DX12 Ankündigung seitens MS. -> da sehe ich eher einen Zusammenhang als zu Mantle...
Kannst du lesen? Was hat das denn damit zu tun, dass du G-Sync und Adaptive Sync mit Mantle und vorhandenen Grafik-APIs vergleichst? Irgendwie herzlich wenig.

AMD und/oder DICE werden wohl kaum zu MS gegangen sein
Das hat auch niemand gesagt. Aber Mantle ist der Grund, warum DirectX 12 und Vulkan kommen. Da braucht man sich nichts vormachen.

und dann auch noch so zeitig, das unmittelbar nach Release von Mantle erste Ergebnise public werden von DX12 ggü. DX11.
Was heisst unmittelbar? Erste Vergleiche zwischen DirectX 11 und 12 habe ich erst dieses Jahr bzw Ende letzten Jahres gesehen. Mantle Benchmarks gab es schon 2013. Und dann nicht mit irgendwelchen theoretischen Draw Call Tests, sondern anhand von vor allem BF4. Da liegen mindestens 1-2 Jahre Differenz dazwischen. Da ist genau der Zeitraum, den man braucht, um Mantle Technik zu übernehmen. Das gilt sowohl für DirectX 12 als auch Vulkan.

Ein Bild sagt manchmal mehr als tausend Worte:

 
Zuletzt bearbeitet:
Ich weiß ja nicht wie andere das sehen, aber das AMD die neuen Topmodelle wegen noch nicht optimaler Treiber noch nicht veröffentlich, ist doch nur Unfug!
Und was hat hier, bei Gamerkarten immer wieder das Argument "Professioneller Markt" zu suchen. Die Titan X ist eine Gamer Karte! Die zwar nie mehr als 700 Euro kosten dürfte, aber das ist ein anderes Thema.
Es ist nunmal so, das Leute mit relativ viel Geld zum verprassen ungern warten. Die sehen aktuell nur die Titan X.
Ich denke schon das AMD ein paar Karten mehr verkaufen hätte können, wenn Sie zeitgleich mit der Titan X veröffentlicht hätte. Wobei das auch keinen Beinbruch sein sollte!
Wenn AMD im Juni released und irgendwann im Juli die Karten verfügbar sein sollten... Da liegt ein ganzes Quartal dazwischen... Optimal ist das nicht.
Aber es war immer so, das AMD und Nvidia nicht zeitgleich mit neuen Produkten kommen.
 
Wie kommst du auf nur auf ein Quartal das sind dann schon fast 3.Quartale nach dem GM204 Maxwell wo AMD nichts gebracht hat.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh