AMD Radeon HD 6900: Kommen die neuen Grafikkarten doch schon am 15. Dezember? (Update: Bilder der Radeon HD 6970 und 6950)

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ändert doch nichts daran das jede Grafikkarte ihre Vorzüge hat. Und die 6950 muss erstmal in Tests beweisen das sie genauso auf Augenhöhe mit der 480 ist und diese vielleicht wie die 570 übertrifft.

Den Barts XT um 25-30% zu übertreffen sollte schon machbar sein für die HD6950... Das ist quasi nix. Und somit wäre man gleichauf mit der 480/570GTX was die Leistung angeht.
 
Wenn die 6950 schneller ist. Warte auch erstmal die Tests ab. Habe zurzeit noch eine 4870 1GB drin und werde diese wahrscheinlich gegen eine 6950 (6970 kostet ja anscheinend viel mehr) oder eine GTX570 austauschen.
 
Wenn die 50er dann schneller ist, wieso sind 330-340€ zuviel? Nvda lässt sich ja auch jedes Prozent an Leistung exponential bezahlen...

Ja du hast schon recht aber 280€ für die HD6950 würde mir besser gefallen :d
und 350€ für die HD6970 welche ich dann zweimal haben will aber nur wenn sie auch @ DX11 Tranzperentes AA kann ;D wenn nicht bleibt erstmal die HD5970@1Ghz
 
Wenn Transparenz AA auf der Verpackung steht, zahlst du auch 1000€ ?

Das nenn ich liebe.

Nö aber bei NV bekommt man SSAA@ DX11
Schau dir mal BFBC2 an.. Das hat quasi nur Tranzperente Texturen daher bringt MSAA kaum was!!
SSAA oder AAA@DX11 würde da abhilfe schaffen!
Ich will halt nen besseres bild bei BFBC2 und allen anderen DX11 titeln!!
 
In einigen Shops sollen die Karten schon vorrätig sein, stellenweise las ich gerade: ab 11 Dezember soll ausgeliefert werden...
Ob der Launch doch vielleicht diese Woche noch stattfindet ?

Denn die Karten früher ausliefern als Lauchday, da denk ich nicht dran...
Oder wird das NDA nicht mehr haltbar sein, daher die vielleicht Neue Verschiebung...
 
die 6970 soll 500 € kosten?
und die 50er 350 €
beide haben 2 GB...
laut CB bericht.
man darf also gespannt sein :cool:
 
Habt ihr Fuads Leistungswerten auch geglaubt, als er heute die Fakeslides als "Wahrheit" gebracht hat? Glaubt dem doch nicht...
 
Frage ich mich auch. Wie kann man denn nur ein Wort von dem glauben, was Fudo schreibt.

AMD has clearly abandoned its performance per watt graphics dream
...
The company that used to make small and power efficient chips went for a different approach, a huge chip
...
AMD has a history of avoiding some industry standards such as TDP as they already tried to skip this standard when Barcelona core went hot
...
The PowerTune feature looks a lot similar to the gimmick that Nvidia used on its GTX 580
...
Overall the best case scenario looks to be quite hot and much more than people are expecting

Fudo ist einfach zum reinen nVidia Troll mutiert und hat sämtlichen Realitätssinn verloren.
 
Was ist an "hot" so verwerflich, wenn die Leistung stimmt ("much more than people are expecting")? Hauptsache wieder mal rumgemeckert...
 
Man hat ja noch entsprechende sparsamere Karten im Programm. Wird langsam mal Zeit, dass AMD wieder nach der Krone greift (innerhalb derselben DX-Generation). Da ist seit der X1900XT nicht viel passiert. Und nein, MGPU zählt nicht ;)
 
Multi-GPU zählt genauso. Und man hatte bereits mit der HD 4870 X2 eine Zeit lang die Performance-Krone. Mit der HD 5970 hat man sie ja immer noch.

Fudo phantasiert schlichtweg. "... best case ... quite hot ... much more than people are expecting" ist einfach nur BS. Bisher ist man von maximal 250 W TDP ausgegangen. Und ich denke nicht, dass die HD 6970 darüber liegen wird. Dass die Karte heisser wird als Leute erwarten, ist daher Blödsinn.
 
Multi-GPU war, ist und wird eine Notlösung sein. Zumindest für mich zählt nur Single-GPU, die Königsdisziplin. Mehrere Karten zusammenstecken kann jeder Depp (auf beiden Seiten).
 
Multi-GPU war, ist und wird eine Notlösung sein. Zumindest für mich zählt nur Single-GPU, die Königsdisziplin.
Bis dahin ja noch ok aber...

Mehrere Karten zusammenstecken kann jeder Depp (auf beiden Seiten).

Da wird es schon wieder abwägig.

Also zeig mir einen Hersteller der aus dem GF100 Chip ein Dualteil Gerotzt hat.

Die Kunst ist es nicht 2 GPU´s auf ein PCB zu Klotzen, sondern einen Chip zu entwickeln, bei dem das auch Thermisch und Finanziell rentabel ist.
 
Ja da hast du schon Recht damit. Hier stehen die Radeons ja auch gut da. Aber für mich ist es trotzdem unverständlich, warum man nicht endlich wieder nach der SGPU-Krone greift. Ist ja nicht so, dass man nicht könnte, jedenfalls leistungsmäßig.
 
Multi-GPU war, ist und wird eine Notlösung sein. Zumindest für mich zählt nur Single-GPU, die Königsdisziplin. Mehrere Karten zusammenstecken kann jeder Depp (auf beiden Seiten).
Klar, deshalb hat nVidia ja auch problemlos einen GF100 im Doppelpack auf den Markt gebracht. :rolleyes:

Die Wahrheit sieht ganz anders aus. Einen aufgeblähten und stromhungrigen Chip wie GF100 kann jeder Depp entwickeln. Einen schlanken und energieeffizienten Chip kann hingegen nicht jeder entwickeln. Konzepte wie SMP oder CMP sind einfach nur ein weiteres Level der parallelen Effizienzmaximierung.


Aber für mich ist es trotzdem unverständlich, warum man nicht endlich wieder nach der SGPU-Krone greift.
Wozu sollte man? Ist aus wirtschaftlicher Sicht doch völlig belanglos. Und mit den Egos irgendwelcher Enthusiasten kommst du auch nicht weit.
 
@boxleitnerb: Ich verstehe nicht was du meinst.
DIe gtx 280(285) war Leistungsspitze trotz Single GPU.
Die HD5870 genauso, die GTX 580 ist es auch wieder.
Die HD 6970 wird es womöglich auch wieder sein....

Erwartest du villeicht dass ein Chip 2 Generationen Lang Leistungskrone bleibt?
 
Und falls Cayman wirklich mit 1.536 4-VLID Shadern kommt, dann ist es ja noch besser.

Denn mit 1536 Einheiten, Leistung 100 zu erreichen, ist ein viel besseres Anzeichen, als dass man 1920 dazu braucht.

Wenn man also mit 1536 Einheiten eine vernünftige Leistung erreicht, ist es sowohl in Sachen Effizienz als auch Yield´s ein äußerst gutes Zeichen, auch wenn man 10% hinter der Konkurrenz liegt.

nVidia hat uns ja gezeigt wo der Pfad "Nummer 1 um jeden Preis" früher oder später hinführt.

AMD wird den Teufel tun, nach den guten vorstellungen der HD 4000er, HD 5000er Reihe, genau den anderen Weg einzuschlagen.....oder etwa nicht?
 
Zuletzt bearbeitet:
Und falls Cayman wirklich mit 1.536 4-VLID Shadern kommt, dann ist es ja noch besser.

Denn mit 1536 Einheiten, Leistung 100 zu erreichen, ist ein viel besseres Anzeichen, als dass man 1920 dazu braucht.

Wenn man also mit 1536 Einheiten eine vernünftige Leistung erreicht, ist es sowohl in Sachen Effizienz als auch Yield´s ein äußerst gutes Zeichen, auch wenn man 10% hinter der Konkurrenz liegt.

nVidia hat uns ja gezeigt wo der Pfad "Nummer 1 um jeden Preis" früher oder später hinführt.

AMD wird den Teufel tun, nach den guten vorstellungen der HD 4000er, HD 5000er Reihe, genau den anderen Weg einzuschlagen.....oder etwa nicht?

kann für alle nur gut sein wenn sie nicht zu weit vorn oder hinten liegen.. denn dann hat amd oder nv keinen grund den preiß oben zu halten :d es seid denn sie sprechen sich ab ^^
 
Die können sich ja auch indirekt absprechen.

Also quasi erstmalne Preisschlacht, und danach passen beide vorsichtig die Preise nach Oben an, bis sie ein "gesundes" maß erreicht haben.

Die sind ja nicht dumm, und verstehen es gut zwischen den Zeilen zu lesen....
 
Bin auch sehr gespannt, falls sie keine interessanten Features bietet, werde ich diesmal zur GTX580 greifen. Die 6970 wird denke ich mal den Preis noch etwas drücken und die GTX einfach aufgrund der Leistung und der Übertaktbarkeit.
Wäre dann meine allererste Nvidia (vorher 9800XXL, 1950XT und X2) bin schon bisschen Neugierig

Aber das is ja alles noch Spekulatius
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh