AMD Radeon HD 9000: Erste Samples sollen bei Partnern liegen

Mann könnte vielleicht die HD7990 mit dem Neuen Anti Multi-Ruckler Treiber NEU vermarkten und gegen die GTX 780 / Titan stellen
und den Preis deutlich senken (549-599 Euro)
Vielleicht wird der Treiber ja weitaus besser als angenommen, Zeit hatte man ja zur Genüge.

Oder dies ist alles BS
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Soll mir recht sein bis Mitte 2014 .
 
Nur gut dass hier gerade nichts eilt:
Gamepad einstöpseln & Füsse auf den Tisch und schon findet man 40fps astrein:fresse2:
Naja, nen schlichten Refresh mit sagen wir mal 20% >7970 GH zu einem angemessenen Preis käm schon ganz gelegen
 
Könnte doch mehr sein. Im Anandtechforum ist einer, der angeblich mehr weiß. Hab mit dem bissl diskutiert und ein paar Specs in den Raum geworfen und gefragt obs kalt oder warm ist.

40 CUs (2560SP, 160 TMUs)
48 ROPs
7 Gbps memory
Power consumption (not TDP!) between 7970 and 7970 GHz
Performance 7970 GHz +25%
Nvidia-like turbo
MSRP $549-599

Er darauf:
Boxleitnerb is close-ish... but not to the flagship.

Wenn das nur die 9950 ist...holla die Waldfee. Dann hat sich AMD diesmal mit dem dicken Schiff wirklich Mühe gegeben und baut vielleicht seine größte GPU jemals (inkl. ATI). 20nm soll es nicht sein - aber das kommt aus dem 3DC.
 
Das wäre wirklich schon ziehmlich böse... Allerdings kann ich mir das kaum vorstellen, dass man eine bis zu 3072 Shader-28nm-GPU bringen wird... und wenn, dann sicherlich nicht bei über 1GHz...
 
OT-Beiträge entfernt, hier geht es ausschließlich um AMD.
 
Das wäre wirklich schon ziehmlich böse... Allerdings kann ich mir das kaum vorstellen, dass man eine bis zu 3072 Shader-28nm-GPU bringen wird... und wenn, dann sicherlich nicht bei über 1GHz...

Ein großer Chip für Titan Performance ist auch nicht nötig 3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Volcanic Islands (VI) - 20nm - 2014: Hawaii, ...

Bei ca. 425mm² kann man mit Titan gleichziehen, mit einem noch größeren Chip könnte AMD den GK110 vernichten!
 
Zuletzt bearbeitet:
Den Stromverbrauch darfst nicht ganz außer Acht lassen. Sparsam wird das Ding wohl nicht dann. Die Frage ist, wie weit AMD hier gehen wird und wie aggressiv gebinnt wird.
 
Zuletzt bearbeitet:
Ein großer Chip für Titan Performance ist auch nicht nötig 3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Volcanic Islands (VI) - 20nm - 2014: Hawaii, ...

Bei ca. 425mm² kann man mit Titan gleichziehen, mit einem noch größeren Chip könnte AMD den GK110 vernichten!

Wie schon im 3DC - vernichten, nie und nimmer, nicht in 28nm. Und wenn, dann kommt halt ne 15SMX GTX Titan und zersägt wieder die AMD :fresse:
Mehr als 50% wird man in 28nm nicht zulegen können, niemals. Und selbst bei +50% wäre man gerade mal 10% schneller als eine Titan mit 900MHz;)

Den Stromverbrauch darfst nicht ganz außer Acht lassen. Sparsam wird das Ding wohl nicht dann.
Jup. Wäre nicht so toll, wenn man 50 bis 80 Watt mehr als ne Titan für die selbe Leistun brauchen würde...
 
Den Stromverbrauch darfst nicht ganz außer Acht lassen. Sparsam wird das Ding wohl nicht dann. Die Frage ist, wie weit AMD hier gehen wird und wie aggressiv gebinnt wird.
Bei diesem Setup soll der Stromverbrauch nicht viel höher sein 3DCenter Forum - Einzelnen Beitrag anzeigen - AMD/ATI - Volcanic Islands (VI) - 20nm - 2014: Hawaii, ...
Wie auch immer, so ein hypothetischer Chip wäre etwa 15% größer als Tahiti (mit 48 ROPs vielleicht auch nur +10%). Mit den Fortschritten bei TSMC und der gewonnenen Erfahrung auf Seiten AMDs, halte ich es für durchaus möglich, daß so ein Ding bei 1GHz nicht (viel) mehr verbraucht als die 7970GE (deren Spannung ist zumindest beim Boosten schlicht 0,1V zu hoch), aber dabei deutlich schneller ist (mindestens 30% im Schnitt, tendentiell mehr).

So ein Chip sollte für Titan reichen, ähnlich groß wie R600 mit 512 Bit SI.

@ LSSJBroly
Lies einfach mal den Beitrag von Gipsel, er geht von 30-40% mehr Performance aus, 2560 Shader mit 512 Bit SI & Quad Frontend.
3072 Shader mit 512 Bit SI & Quad Frontend wäre dann natürlich deutlich schneller als GK110.

Ihr könnt nicht immer nach Tahiti Basis gehen

Man sollte nicht den Fehler machen, die relativ mäßige Performance von Tahiti (für einen Chip der Größe) als Ausgangspunkt zu nehmen. Tahiti hat 60% mehr ALUs und in etwa auch den gleichen Vorsprung an Speicherbandbreite (die GE sogar mehr als das) gegenüber Pitcairn. Trotzdem plaziert sich der Chip meist nur vielleicht +35% über der Leistung einer 7870. Die Skalierung von CapeVerde zu Pitcairn ist dagegen viel näher am Ideal (+100% Einheiten und grob +90% Leistung). Zudem ist Pitcairn im Verhältnis auch kleiner (kein ECC, geringere DP-Rate).
Die Frage wurde schonmal aufgeworfen, aber warum sollte AMD nicht als Refresh einen ganz grob als verdoppelten Pitcairn ohne Ambitionen im Profi-Segment (da läuft Tahiti weiter, bis es ein entsprechendes neues Topmodell in 20nm gibt) zu beschreibenden Chip bringen, der dank aufgebohrtem Frontend die Skalierung wie von CV zu Pitcairn beibehält (also +90% auf Pitcairn)? Das wären dann Pi mal Daumen +40% auf Tahiti. Und das in vermutlich kaum mehr als 400mm².
 
Zuletzt bearbeitet:
@ LSSJBroly
Lies einfach mal den Beitrag von Gipsel, er geht von 30-40% mehr Performance aus, 2560 Shader mit 512 Bit SI & Quad Frontend.
3072 Shader mit 512 Bit SI & Quad Frontend wäre dann natürlich deutlich schneller als GK110.

Gut, dann wäre man mit 2560Shadern + angebliches 512Bit SI, was ich aber nicht glaube, 4-fach Frontend so schnell wie eine Titan mit 900MHz. Mit +20% mehr Shadern (3072) wäre man also rund 10 bis 15% schneller als eine solche Titan. Ich sehe das deutlich und vernichten nicht...:rolleyes:
 
Zuletzt bearbeitet:
Er schließt aber nicht aus, dass der Verbrauch auf Niveau der 7970 GHz oder gar leicht höher liegt (also Titan@max PT/TT). Damit wäre man mit Titan bei Perf und Perf/W gleichauf. Titan ist bei 1 GHz ca. 35% flotter als die 7970 GHz und braucht dabei 10-20W mehr. Ein noch größerer Chip mit mehr ALUs wäre schneller aber würde auch wieder mehr verbrauchen. Dass man Nvidia bei Perf/W hier um mehr wie 5-10% schlägt, bezweifle ich. Der Verbrauch wird so oder so ein wichtiger Faktor sein, nach dem man sich bei der Auslegung der GPU richten muss.
 
Ja, mit 4x MSAA, bei SGSSAA oder 8x MSAA geht eher richtung 35 bis 40% - bei 900MHz. Mit um die 1GHz ist ne Titan im Schnitt schon rund 35 bis 40% schneller als die GHz Ed. Und selbst wenn, wäre man weiterhin "nur" 20% schneller. Das vernichten kannst du vergessen;) Nicht mit 28nm. Bei 20nm, dann OK. Aber wie wahrscheinlich das ist, wissen wir alle.
 
Titan ist durchschnittlich 25% schneller als die 7970 Ghz Test: Nvidia GeForce GTX Titan (Seite 7) - ComputerBase
Wenn man bei 2560 Shader, Quad Frontend, 512Bit, 30-40% auf die Ghz drauflegt ist man definitiv schneller als Titan und bei 3072 Shader sind es nochmal deutlich mehr.

Ich schrieb doch @max PT/TT, also durchgehend 1 GHz. Wenn du den Boost nicht von der Leine lässt, ist auch der Verbrauch sehr gering, das darf man dann nicht vergessen. Entweder oder ;)
 
Zuletzt bearbeitet:
@boxleitnerb
Titan (max) sollte man gegen die 7970 Ghz nicht als Basis nehmen, man muss beim Nachfolger sehen was für Techniken man verwendet, möglicherweise hat AMD einen ähnlichen Ansatz wie GK110 ausgewählt.

---------- Post added at 21:54 ---------- Previous post was at 21:53 ----------

Mit im schnitt unter 900MHz;) Was die Karte ungedrosselt kann, siehst du ja auch. Ist ja möglich, dass AMD ein ähnlichen Boost einbaut...
Man sollte halt nur Standard vs. Standard vergleichen.
 
@boxleitnerb
Titan (max) sollte man gegen die 7970 Ghz nicht als Basis nehmen, man muss beim Nachfolger sehen was für Techniken man verwendet, möglicherweise hat AMD einen ähnlichen Ansatz wie GK110 ausgewählt.

Dann kannst du aber auch da mal eben 10 bis 15% von der theoretisch maximalen Leistung abziehen;)

Man sollte halt nur Standard vs. Standard vergleichen.
So einfach ist es aber halt nicht mehr. Im Witer erreichst du da eben klar mehr Performance als im Sommer - also ist es schon ganz gut, von beiden Werten auszugehen, vor allem, wenn AMD ebenfalls eine Boostfunktion einbauen würde.
 
Zuletzt bearbeitet:
Problem ist das die Leistungsaufnahme nicht immer gleich ist...

Egal, hauptsache HD9000 wird kein Reinfall, lassen wir uns überraschen, Cayman hat z.b. nur bei Tesselation gegenüber den Vorgänger gut gemacht.
 
@broly:
Schwierig zu sagen wegen Wakü, das drückt den Verbrauch ordentlich. Oliver hat mich auch mit den Prozentangaben ganz verrückt gemacht. Ich trau denen nicht so ganz, glaube aber immer noch nicht, dass die nur für die GPU gelten. Computerbase hat satte 70W Differenz gemessen zwischen Standard und Reglern auf Anschlag. Wenn wir das Milchmädchen zu Hilfe rufen und von ca. 190-200W Standard ausgehen im Schnitt, dürfte man die 250W öfters knacken. Erlaubte TDP ist dann ja 265W.
 
Zuletzt bearbeitet:
So einfach ist es aber halt nicht mehr. Im Witer erreichst du da eben klar mehr Performance als im Sommer - also ist es schon ganz gut, von beiden Werten auszugehen, vor allem, wenn AMD ebenfalls eine Boostfunktion einbauen würde.
Dann wäre ein Vergleich natürlich einfacher.
 
Ich trau denen nicht so ganz, glaube aber immer noch nicht, dass die nur für die GPU gelten.

glaube ich auch nicht. In allen reviews messen die tester rund 12 bis 14 Watt für die Titan oder 780 (ganze Karte). Wenn ich bei GPU-Z schaue, erreiche ich da meistens um die 5 bis 6% -> bei 250 Watt ziehmlich genau passend:)

Dann wäre ein Vergleich natürlich einfacher.
Jup, wäre es, aber nur, wenn dieser genauso funktionieren würde.
 
Zuletzt bearbeitet:
Die meißten Leute testen natürlich nicht immer selber und schauen sich daher nur die Standardwerte von PCGH oder CB an ;)
Von dieser Seite aus ist Titan heute 25% flotter als die Ghz.
 
Klar, das ist richtig. Nur darf man nicht vergessen, dass die Regler nicht nur zum Anschauen da sind - Nvidia bewirbt sie ja im Rahmen des Boosts auch. Ich denke, man kann von Enthusiasten, die 1000 Euro ausgeben, schon erwarten, sich das auch mal anzuschauen. Die CPU übertaktet jeder unter Garantieverlust, aber die Targetregler bei Titan darf man nicht anfassen? Macht irgendwie keinen Sinn für mich ;)

glaube ich auch nicht. In allen reviews messen die tester rund 12 bis 14 Watt für die Titan oder 780 (ganze Karte). Wenn ich bei GPU-Z schaue, erreiche ich da meistens um die 5 bis 6% -> bei 250 Watt ziehmlich genau passend:)

Hm ja, aber wenn das PCB und der VRAM nur wenig mehr verbrauchen, ist der Fehler bei den kleinen Werten groß. Man müsste das mal systematisch untersuchen bei nahezu konstanter Temperatur und CPU-Last aber unterschiedlicher Grafiklast in höheren Gefilden. Den Netzteilfaktor hat man aber leider immer noch mit drin.
 
Zuletzt bearbeitet:
Von dieser Seite aus ist Titan heute 25% flotter als die Ghz.

Nein, eben nicht;) Die Titan war zu Release in dem bestimmten Case bei CB diese 25 bis 30% schneller (mit stock Boost - wobei die Regler alle mit zum Funktionsumfang zählen und das weiterhin stock ist). Dank Boost 2.0 ist das jetzt (Sommer) aber anders und wird im Winter noch wieder anders sein. Außerdem hat CB in einem bestimmten Case getestet. In einem anderen ist die Titan dann plötzlich 5% schneller. Boost 2.0 macht das nicht gerade einfach, die Karten vernümpftig zu vergleichen...

Die CPU übertaktet jeder unter Garantieverlust, aber die Targetregler bei Titan darf man nicht anfassen? Macht irgendwie keinen Sinn für mich ;)
So sehe ich das, seit ich die 780 habe, auch:)
 
Sind wir jetzt automatisch Fanboys? :d

Um mal wieder halbwegs was zum Thema zu sagen - wenn in den nicht-deutschen Reviews (Deutschland ist klein, danach richten sich AMD und NV eher nicht) die 9970 sagen wir 10% schneller als Titan ist, was meint ihr, wieviel AMD dafür verlangt?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh