GM200 und R9 300er

@Cippoli
was wir allerdings wissen, hoher Takt = idR hohe Spannung = idR hoher Verbrauch... Um so Näher man an das technisch mögliche kommt, desto beschissener wird die Effizienz.
Bewahrheiten sich die Gerüchte, dass die TitanX unterhalb der Fiji XT siedeln wird, dann hat NV zumindest mehr "Luft"... Der AIO Kühler bei AMD spricht zumindest eher dafür, dass man versucht möglichst alles mitzunehmen, damit die Effizienz im Rahmen bleibt. Sprich so ein Heizmonster wie die Hawaii GPU unter Luft und Ref. Kühler bei gut paar Prozenten mehr Verbrauch für identische Leistung kann man da sicher nicht gebrauchen...

Bin auf jedenfall gespannt, was die AIO Wakü wegschaufelt. Der TitanX Kühler wird faktisch kein Leisetreter werden, zumindest liegt das nahe, da sich vom Kühlerdesign her scheinbar so viel nicht ändert zwischen Kepler und BigM...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nur das NV mit diesem Kühlerdesign schon Karten in gleichen Verbrauchs- und somit relativ sicher auch, Abwärmeregionen bedient hat ;)
Wir wissen sozusagen, was der Kühler leisten wird. Ggf. wird er minimal anders, als die der TitanBE oder 780TI, aber viel wird das nicht sein...

Keine Frage, kein Vergleich gegen riesige Custom Kühler mit 3 oder mehr Slots... Irgendwo muss man allerdings Abstriche haben. Ich persönlich finde ja die Abluft aus dem Case zu schieben alles andere als schlecht.
 
@fdsonne

Bisher deuten die Bechmarks auf einen Verbrauch in der Region einer R9 290X für Fiji an. Ich glaube die Wasserkühlung könnte hier auch dadurch bedingt sein, falls man die Packdichte des Chips weiter erhöht hat, denn dies würde mehr Hitzeentwicklung auf kleinerer Fläche bedeuten. Wir wissen, das die R9 290X hier im Referenzdesign schon mit der Kühlung zu kämpfen hatte. Mit der AiO-Wasserkühlung verschafft man sich so auf jeden Fall mehr Luft für Taktoptimierungen. Man wird ganz sicher mit einen Auge auch auf die Titan X schauen und dann entscheiden welcher Kompromiss zwischen Effizienz und Leistung am sinnvollste wäre.
 
Zuletzt bearbeitet:
Werden gerade unterschiedliche Architekturen versucht am selben Takt fest zu machen wie schnell sie letztlich sind ? ^^ :fresse:

Wieso ist die 290x schwach zu ocen? Wäre mir jetzt nicht sonderlich aufgefallen. Sobald man die Kühlung im Griff hat geht da doch recht anständig was wie ich finde.

über 20% mehr Takt bei einer 290X stabil ist eher die Ausnahme, als die Regel. Von daher ist das OC Potential wirklich schlecht.
 
Warum AMD mit Fiji und HBM keinen Blumentopf gewinnt, steht doch klar da -> im Profimarkt!!... Dort sind Speicherausbaustufen von 12-16GB HEUTE (meint ohne Fiji und GM200) real anzutreffen. Wer bitte kauft sich da eine Fiji XT basierte Karte in diesem Bereich, wenn auf einmal nurnoch viertel bis halb so viel Speicher verbaut ist?
Im professionellen Markt interessiert letztendlich immer noch Leistungsfähigkeit und Effizienz. Wenn Fiji trotz halbiertem Speicher deutlich schneller und effizienter als Hawaii ist, dann wird der auch dort punkten können. Man sollte bedenken, dass HBM geringere Latenzen als GDDR5 besitzt. Das kann einiges ausmachen. Gerade beim Thema Computing interessieren auch keine Frametimes oder Lags aufgrund von unzureichend Speicher. Da geht's nur um reine Rechenleistung. Ist ja nicht so, dass AMD nur FirePros mit 16 GB im Angebot hätte. So weit ich weiss ist das bisher lediglich die W9100. Alle anderen FirePros haben 8 GB oder weniger. Insofern wäre 8 GB VRAM für Fiji auch im professionellen Markt im Moment ausreichend.
 
Ja, denke auch das die extrem hohe Bandbreite und die niedrigen Latenzen was rausreißen können. Zumal eine FirePro mit 8192bit bzw. HBM gen2 im Herbst/Winter gut denkbar wäre, was dann 16GB und mehr ermäglichen sollte.
 
Wenn es, wie es scheint, doch 2Gb HBMv1-Stacks gibt, dann hat AMD durchaus Spielraum. Die könnten auch 8 solcher Stacks verbauen.
Wenn sich HBM im Profi-Bereich tatsächlich lohnt, werden sie als konkurenzlose Hersteller sicher solange daran zehren wie möglich.
 
Im professionellen Markt interessiert letztendlich immer noch Leistungsfähigkeit und Effizienz...
Aber nur Effizienz im Endergebnis und nicht irgendwelche Benchmarks oder theoretische Werte.
Es zählt somit auch die Unterstützung der verwendeten Programme und genau hier punktet NVidia eben immer wieder.
Keine Ahnung wie es im akademischen Bereich aussieht, aber unsere Programme in der Firma die auf den Workstations laufen unterstützen zwar AMD + NVidia, aber der CUDA-Pfad ist gegenüber OpenCL sowas von optimiert, dass AMD da kein Land sieht.
Sehe ich das positiv, nein, aber ist nun mal die Realität in meinem Umfeld. Ich schätze mal NVidia unterstützt hier stärker beim Coden als AMD.

Und für uns in der Firma, als Kunden von Programmen die gern mal 10k€ kosten und aufwärts, zählt schließlich nicht irgendein netter Gedanke, sondern nur die schnelle Abarbeitung der gestellten Aufgaben.
 
Wenn es, wie es scheint, doch 2Gb HBMv1-Stacks gibt, dann hat AMD durchaus Spielraum. Die könnten auch 8 solcher Stacks verbauen.
Da werden doch 8 Stück verbaut (es sind übrigens 8 Gb oder 1 GB Stacks). Nur müssen sich 2 Stacks eine 1024-bit Anbindung teilen. Das ganze nennt sich Interleaving und kommt auch bei normalem RAM zum Einsatz. Im Endeffekt bedeutet das, dass man auf die Hälfte der theoretischen Bandbreite verzichtet, nur 4096-bit statt 8192-bit pro Zyklus, dafür aber eben 8 statt nur 4 GB Kapazität zur Verfügung hat. Und Bandbreite ist auch mit 4096-bit mehr als ausreichend vorhanden (>=500 GB/s). Ab HBM2 stehen dann Stacks mit mehr Kapazität zur Verfügung, so dass man sich das Teilen sparen kann. Dann hat jeder Stack seine eigene Speicheranbindung und die volle Bandbreite.


Aber nur Effizienz im Endergebnis und nicht irgendwelche Benchmarks oder theoretische Werte.
Es zählt somit auch die Unterstützung der verwendeten Programme und genau hier punktet NVidia eben immer wieder.
Nicht mehr. Die Industrie setzt mehr und mehr auf OpenCL. AMD bietet momentan die beste OpenCL Unterstützung (besser als die von Nvidia). Nvidia hat im professionellen Umfeld stark verloren. Von einst >90% Marktanteil auf mittlerweile "nur" noch ~70% Marktanteil. Wie heisst es so schön, "the trend is your friend".
 
Da werden doch 8 Stück verbaut (es sind übrigens 8 Gb oder 1 GB Stacks). Nur müssen sich 2 Stacks eine 1024-bit Anbindung teilen. Das ganze nennt sich Interleaving und kommt auch bei normalem RAM zum Einsatz. Im Endeffekt bedeutet das, dass man auf die Hälfte der theoretischen Bandbreite verzichtet, nur 4096-bit statt 8192-bit pro Zyklus, dafür aber eben 8 statt nur 4 GB Kapazität zur Verfügung hat. Und Bandbreite ist auch mit 4096-bit mehr als ausreichend vorhanden (>=500 GB/s). Ab HBM2 stehen dann Stacks mit mehr Kapazität zur Verfügung, so dass man sich das Teilen sparen kann. Dann hat jeder Stack seine eigene Speicheranbindung und die volle Bandbreite.



Nicht mehr. Die Industrie setzt mehr und mehr auf OpenCL. AMD bietet momentan die beste OpenCL Unterstützung (besser als die von Nvidia). Nvidia hat im professionellen Umfeld stark verloren. Von einst >90% Marktanteil auf mittlerweile "nur" noch ~70% Marktanteil. Wie heisst es so schön, "the trend is your friend".

Nvidia hat keine Veranlassung OpenCL besser zu unterstützen. Nvidia setzt auf Cuda und mit 70% Marktanteil ist man nach wie vor prächtig dabei. Mal abgesehen davon, dass der Zugewinn für AMD nicht durch OpenCL herrührt sondern wie gehabt durch aggressives Pricing. Bringt aber eben am Ende auch nur rote Zahlen und geht eben dauerhaft nicht.

- - - Updated - - -

nvidia macht jetzt den gleichen fehler wie amd beim umstieg von 7970 auf 290x
der gleiche kühler

aber wie richtig angemerkt man mus abwarten und die tests abwarten
sofern die redaktionen eier haben auch kritisch zu sein

Nvidia kann jederzeit ein Update der Karte mit einem anderen Kühler - sogar dem gleichen - herausbringen. Ich würde da eher mal die Tests abwarten. Wenn AMD mit der AIO Wakü nicht ordentlich über der Titan X liegt, sind sie bei dem Spiel wieder im Nachteil. Die bisherigen Maxwells ließen sich alle samt extrem gut takten, sofern von Nvidia erlaubt. Ich bin ja eher noch der Meinung, dass Nvidia nicht komplett die Karten auf den Tisch legt und sich noch etwas Luft lässt.
 
Zuletzt bearbeitet:
Im professionellen Markt interessiert letztendlich immer noch Leistungsfähigkeit und Effizienz. Wenn Fiji trotz halbiertem Speicher deutlich schneller und effizienter als Hawaii ist, dann wird der auch dort punkten können.

Da magst du recht haben, aber das gilt für hier und heute... Die Quadros werden schon länger mit mehr Speicher ausgeliefert. Schon die K6000 GK110 Quadro hatte ihre 12GB. Bei den Teslas läuft das ähnlich.
Und natürlich zählt eine Speichergröße da massiv. Sie ist unwichtig bis zu dem Punkt, wo die Daten drin Platz finden, ab dem Punkt gewinnst du schlicht keinen Blumentopf mehr damit, weil dann auch die Leistungsfähigkeit nicht mehr gegeben ist...
Im übrigen meint Profimarkt nicht ausschließlich Compute, sondern schließt freilich auch andere Thematiken mit ein.

PS: es gibt noch eine S9050 mit 12GB :wink:

Nicht mehr. Die Industrie setzt mehr und mehr auf OpenCL. AMD bietet momentan die beste OpenCL Unterstützung (besser als die von Nvidia). Nvidia hat im professionellen Umfeld stark verloren. Von einst >90% Marktanteil auf mittlerweile "nur" noch ~70% Marktanteil. Wie heisst es so schön, "the trend is your friend".

Meinst du das ernsthaft?
Ich könnte mich täuschen, aber war nicht Cuda zuerst da und hat massiv Marktanteil ansich gerissen? Bis dann AMD mit Stream und irgendwann auch OpenCL kam.
-> das gewisse Personenkreise dann von der einzigen verfügbaren Lösung auf die für sich beste Lösung umsatteln, dürfte alles andere als unlogisch sein.
Von "einst >90% Marktanteil" ohne Alternativen auf "mittlerweile nur noch ~70%" mit der freien Wahl der Alternative ist aus meiner Sicht alles andere als "stark verloren". Das sind immernoch >2/3 Marktanteil...

Das man da keine 80 oder 90% halten kann, dürfte eigentlich doch logische Konsequenz sein, wenn die Alternativen wenigstens ansatzweise funktionieren... Hingegen sind 2/3 durchaus unter anbetracht, dass Kepler die ineffizientere Technik in Sachen DP Performance ist, dazu noch mit oftmals etwas höheren Preisen, durchaus sportlich.
 
nvidia macht jetzt den gleichen fehler wie amd beim umstieg von 7970 auf 290x
der gleiche kühler

aber wie richtig angemerkt man mus abwarten und die tests abwarten
sofern die redaktionen eier haben auch kritisch zu sein

Der Fehler lag in dem zu hohen Takt der 290X und damit zu viel Verlustleistung. Anno 2070, R9 290X Ref. mit 289W im Perf. Bios. Kann kein DHE Kühler weg schaffen. Da lag der fehler in der Entscheidung für den hohen Takt.
 
fällt nicht in 2 Minuten die NDA der Titan X?

E: nvm, 17 Uhr :)
 
Zuletzt bearbeitet:
r9 280x gegen r9 380 oder gleich 380x tauschen? was meint ihr? oder besser erstmal auf benchmarks warten :fresse:
 
Soviel möchte ich nicht ausgeben ;)
 
Uiiii ich bin so gespannt auf die R9 390X....die verspricht ja echt großartiges...jetzt muss nur noch der Preis stimmen :)
 
Ich glaub da noch nicht recht an was großartigen.
Neue Techniken sind meist mit Kinderkrankheiten behaftet.

Und selbst wenn nicht .Mehr als die üblichen 10-20% gegenüber des vorjährigen "highend" erwarte ich da nicht.
 
Selbst wenn es 30% sind und der Preis wirklich bei um 700Euro liegt ist die Mehrleistung zu teuer erkauft.
Siehe Titan X ich sag jetzt mal grob 30% mehr als eine 980 ab Werk und dann 100% mehr Preis... Die spinnen doch, die Römer.
 
Ja aber das ist doch bei Nvidia immer so...ein marginaler Leistungsprung wurde schon immer mit einem sehr saftigen Aufpreis erkauft. Aber solange genug Leute zugreifen wird sich das natürlich nicht ändern...und sollten die Preise der neuen AMDs wirklich stimmen, springt AMD leider wohl auch auf diesen Zug auf.
 
@BennofreakSBB
Wenn man bedenkt das die 295X 2 mit nur 4 GB sogar in 4K für ca 600 Euro kreise zieht um die 1000 Euro plus Titan hast du wohl recht.
 
Zuletzt bearbeitet:
Die Titan X ist zu teure - keine Frage. Das waren alle TITans bis jetzt.
Bei 30% Mehrleistung von marginal zu sprechen halte ich aber für unrichtig.
Es gibt ganze Generationensprünge die nicht mehr Mehrleistung brachten als 30%.
980 GTX zu Titan X ist nur ein Vollausbau des gleichen Chips mit großerem Speicherinterface.
30% ist eine Menge Holz - 1000 € allerdings auch!
 
@Motkachler
Was du aber vergisst, das 4GB für 4K wirklich sehr knapp sind ;).
Erst reichen 4GB kaum noch für 1080p, dann plötzlcih für 4 K Entwarnung?
Klar hängt das nicht nur an der Auflösung... Aber...

@mustrum
ich habe jetzt auch noch andere Tests gesehen, wo es im schnitt gerade mal 24% sind. Natürlich ist das auch viel Holz. Aber im Spiel sind 24% schnell eingespart! Also mal 4x MSAA auf 2x MSAA und schon reicht die 980 genau so weit....
Ist natürlich immer so und kann so auch nicht betrachten. Ich würde nur gerne an alle möglichen Käufer appellieren, jede GPU über 600 Euro (Ref.Design) zu ignorieren. Ich weiß, hört jetzt keiner auf mich, aber versuchen wollte ich es ;)
 
Zuletzt bearbeitet:
Natürlich kann man 24% einsparen wenn man AA herunterfährt.
Mein Problem ist, dass ich mit einer R290 mit 1150/1450 Taktung (1650 gehen bringen aber nichts) bei der Auflösung von 5920x1080 oft nicht mehr von 4x auf 2x MSAA runterkann.
AA schluckt die Karte dank enormer Speicherbandbreite meist noch. Es mangelt an GPU Power für Schatten, Tesselation und Objektdetails und diese drehe ich äußerst ungern herunter. Die hohe Auflösung giert einfach nach GPU Power.
 
Hoffentlich ist der Tesselationsbug bei AMD endlich weg, macht doch null Sinn, nur mit 16x zu arbeiten, wenn doch 64+ auch optisch was bringen.

Jetzt noch vorstellen und verfügbar machen und ich bin glücklich! Überglücklich... eine kommt definitiv... mein Acer wird sich freuen, Hz gerechte FPS zu bekommen :d
 
Natürlich kann man 24% einsparen wenn man AA herunterfährt.
Mein Problem ist, dass ich mit einer R290 mit 1150/1450 Taktung (1650 gehen bringen aber nichts) bei der Auflösung von 5920x1080 oft nicht mehr von 4x auf 2x MSAA runterkann.
AA schluckt die Karte dank enormer Speicherbandbreite meist noch. Es mangelt an GPU Power für Schatten, Tesselation und Objektdetails und diese drehe ich äußerst ungern herunter. Die hohe Auflösung giert einfach nach GPU Power.

Ja aber genau da ist das Problem, der Leistungssprung ist zu klein zur Titan X um zu glauben, was mit einer OC 980 nicht geht, geht mit einer Titan X...
 
Aber mit einer TitanX @ OC geht's vieleicht...
Eine stärkere Karte zu versuchen mit dem Übertakten einer ähnlich gut übertaktbaren, aber schwächeren Karte auszugleichen, halt eich für ein hoffnungsloses Unterfangen.
 
Ich halte 4K mit der Titan X, ohne Zugeständnisse die keiner zugeben wird, für ein hoffnungsloses Unterfangen.
Außerdem ging es nur um die, realistisch betrachtet zu geringe Mehrleistung der Titan x.

Mit OC der Titan X... Nie und nimmer!
Aber egal...

Hoffnungslos? Hängt ja vom Ziel ab! Ich habe meistens die zweitschnellste Karte einer Reihe gekauft und die auf Niveau der schnellsten getaktet. Ehrlich gesagt war ich damit bestens zufrieden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh