AMD Radeon HD 7000: Erste Spezifikationen schwirren durchs Netz - Update

Mir kommt es so vor, als hätten die nur ein 384Bit eingefügt und das wars ^^
Falls das mit der Leistung stimmt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja,laut denen News rentiert sich das aufrüsten von eine 570/580 dann auf keinen Fall.

eben das dachte ich mir auch so...naja erst mal abwarten bis mehr news durchsickern

Finde CB-Spekulation nicht gerade korrekt. Eine 6950 liegt 30-40% hinter der GTX580: würde eher auf knapp 30% tippen. Die 6970 liegt in einigen Szenarien (natürlich nicht immer) seh knapp hinter der 580. Die neue Generation soll also knapp (10% ca.?) vor der alten der Konkurrenz sein? Wie lächerlich wäre denn so was? (edit: 3 mal "knapp" in 3 Sätzen, klingt wirklich dumm)

Die 10% würden ja rein durch die Takterhöhung erreicht -.-
 
Zuletzt bearbeitet:
Ja leider hört sich das aber so an, dass die neuen 7900er Karten gar nicht so gut werden!

Wenn man mal hier diese Grafik her nimmt zum Vergleichen (Quelle: Toms Hardware):
03_ober_leistung.png


Laut Donanimhaber.com sollen die Karten so gestaffelt sein (der Leistung nach):
Radeon HD 6990> GTX 590> Radeon HD 7970> GeForce GTX 580> Radeon HD 7950> GeForce GTX 570> Radeon HD 6970.

Da zwischen der 7950 und 7970 maximal 10 - 20 % Unterschied vorhanden sein wird, sind wir wirklich nur knapp vor der GTX 580 mit der 7970...

Und das wäre ziemlich schwach. Entweder ist die Leistungsaufnahme erheblich gesunken oder AMD hat es nicht geschafft den 28nm Prozess richtig auszunutzen...
 
Zuletzt bearbeitet:
Laut den bei AMD-Hardware sehr gut informierten türkischen Kollegen von Donanimhaber soll die HD 7970 Nvidias GeForce GTX 580 schlagen, während die HD 7950 die GTX 570 packt, aber weiterhin unterhalb der GTX 580 rangieren soll. Da die Pro- und XT-Variante bei AMD meist nur 10-15 Prozent in der Performance trennen, dürfte es demzufolge ein enger Kampf mit der GTX 580 für eine der beiden Karten werden. Summa summarum würde eine HD 7950, die mehr oder weniger knapp an der GTX 580 scheitert, einen Vorsprung von 30 bis 40 Prozent gegenüber der aktuellen Radeon HD 6950 herausholen – ähnlich dürfte es dann auch bei der HD 7970 gegenüber der aktuellen HD 6970 aussehen. Weitere Gerüchte zur neuen Radeon-Grafikkartenserie - 07.12.2011 - ComputerBase

Hmm...
 
Was mich viel mehr nervt, ist dieser Satz hier:
Bereits im Februar soll die nächste Klasse, das gehobene Mainstream-Segment, mit der HD 7800 bedient werden.
Dann kann ich ja doch noch eine 6870 kaufen im Januar und dann später auf 7xxx umrüsten, sobald die bezahlbar werden. Ich wollte eigentlich bei max. 220€ rauskommen (6950) und hatte ursprünglich sogar mal mit der 6870 (ggf. später CF) für meinen 23" 1080p geplant. Das P/L-Verhältnis der 6870 bleibt einfach grandios...
 
Naja also ich hoffe schon, dass 6950 +/-7850, 6970 +/-7870, 7950 >/= 580 und dann
7970 >+ 580! Ich erhoffe mir schon einen grösseren Sprung von der GCN der 69..!
 
Gibts schon Infos, wie viele GCN Einheiten die Top Karten bekommen könnten?
Irgendwie find ich darüber nix...
 
Am meisten würde mich enttäuschen wenn die Karten wirklich erst zur CEBIT 2012 erscheinen würden wie von Donanimhaber geschrieben...
 
Ich denke mal ATI legt dieses mal mehr wert auf HPC ala Cuda. Da geraten die Spieler nunmal ins Hintertreffen, sollen das ganze aber mitbezahlen.

Ich finde es schon schade das NV diesen Weg gegangen ist, das ATI das nun scheinbar auch tut zeigt nunmal wie interessant der Markt ist. Spieler dienen dabei nunmal als Geld gebende Kuh die gemolken wird um das ganze mit zu finanzieren.

Eine traurige Entwicklung zumal es kaum Spiele und nur sehr wenige Programme für den typischen Desktop Anwender gibt die irgendwie davon profitieren.
 
Naja, Performance Performance....

Aber stellt euch doch mal folgendes vor:

-Die 7970 wird "nur" ~20% schneller als die 6970.
-Der Stromverbrauch senkt sich auf ~200W max
-Die AF Einheiten werden verbessert
-Man nutzt die neue Serie um DS und andere Schmankerl treiberseitig anzubieten
-Evtl. gibt man gar die Bits frei

Dann könnte sich der durchschnittliche HWLuxx User zwei davon kaufen und hätte Leistung satt mit recht (relativ) moderatem Stromverbrauch.
Klar ist alles Spekulation, aber es verdichtet sich schon alles ein wenig, genau wie bei den GTX4xx Karten von nv damals und dem BD kürzlich.
Ich gehe im Moment tatsächlich davon aus dass man bei AMD mit der neuen Gen weniger Wert auf Performancesprünge legt als viel mehr auf BQ und Effizienz. Und das Enthusiast-Segment wird eben wieder mit einer Dual-Karte bedient. Hat bisher ganz gut geklappt und wieso sollte das geändert werden ??

So, jetzt geh ich mir mal die ganzen tausenden von Euro abholen die ich durch Spekulationen bei der Börse wieder gewonnen habe... jaja, man weiß nie wohin mit dem vielen Geld... :fresse:
 
Ganz erhrlich ich bin schon enttäuscht von der Leistung der HD7970 laut CB.

Nur 15% schneller als die GTX580 und vor allem 588$ lol
 
10-20% schneller wäre in der Tat kein Grund mehr für mich um zu steigen dann würde ich meine Karten doch noch behalten bis Kepler.
 
Dass AMD den Fokus auf BQ legt, würde mich sehr überraschen. Aber gut, das SGSSAA mit HD5000 hat auch überrascht, sehr sogar. Dass man AA-Bits oder sowas offenlegt, bezweifle ich allerdings extrem. AMD/ATI fährt seit Jahren eine Politik, bei der der Anwender bzgl. solcher Basteleien wenig Kontrolle bekommt.
 
AMD sagte ja das er Architektur bedingt nicht möglich sei den AF zu verbessern .
Da man ja jetzt einen anderen Weg geht ist es durch aus vorstellbar das dort Verbesserung in der Bildqualität möglich sind.
Ich bin gespannt wie groß der Highend Chip wird im 1D Design.
 
Angesichts von heutigen Shaderflimmerorgien wäre das ein Tropfen auf den heissen Stein. Selbst Nvidias HQ-AF grieselt noch an normalen Texturen, wenn diese fies genug sind, das hab ich grad gestern in Skyrim wieder gesehen.
 
AMD sagte ja das er Architektur bedingt nicht möglich sei den AF zu verbessern .
Da man ja jetzt einen anderen Weg geht ist es durch aus vorstellbar das dort Verbesserung in der Bildqualität möglich sind.
Ich bin gespannt wie groß der Highend Chip wird im 1D Design.

Es werden keine 1D Einheiten!! ;)

Angesichts von heutigen Shaderflimmerorgien wäre das ein Tropfen auf den heissen Stein. Selbst Nvidias HQ-AF grieselt noch an normalen Texturen, wenn diese fies genug sind, das hab ich grad gestern in Skyrim wieder gesehen.

Shaderflimmern bzw. das, was man so nennt, hat aber auch nix mit AF zu tun. Es ist also nicht weiter verwunderlich, das hier auch NVs HQ AF nix bringt... Hier sollte klar getrennt werden.

Und bevor die Diskusion wieder losbricht, ich denke schon, das AMD zumindest bei den GCN GPUs was in Sachen AF Filterqualität machen wird... Schließlich hat man damals zumindest gemeldet, das ein Verbessern Architekturbedingt nicht möglich ist, was darauf schließen lässt, das es auf der ToDo Liste steht für die neue Architektur.
Dem eigentlichen Problem des Flimmerns jenseits vom AF Filter begegnet man damit aber nicht. Der reine Optikzuwachs wird also verschwindend gering sein, weswegen die Diskusion auch damals schon ziemlich sinnfrei ist/war.
 
Du hast mich da nicht richtig verstanden. Ich meinte, auch wenn Texturen perfekt gefiltert würden, wäre das Shaderflimmern immer noch da. D.h. das beste AF alleine bringt nix.

Heute ist das wie du richtig sagst, weniger wichtig. Früher gabs diese Shaderorgien nicht so, da hat gutes AF mehr gezählt.
 
10-20% schneller wäre in der Tat kein Grund mehr für mich um zu steigen dann würde ich meine Karten doch noch behalten bis Kepler.

ich werde erst wieder GPU Kaufen wenn die AMD 8000 Serie kommt oder abwarten was nach Kepler kommt.

Für mich Lohnt sich echt nicht umzusteigen habe Leistung satt.
Im Zukunft kommen nur Spiele mit Consolen Engine für was eigentlich CF/SLI.

Bin wirklich am überlegen ob ich mir ein XBox Kaufen soll habe echt kein lust mehr immer aufzurüsten für was den auch die meisten Spiele kommen nur noch mit BUG`S und die GPU hersteller sollen dann das ganze mit ein Wunder Treiber ausbügeln.

Wenn der neue 7950/7970 kommen sollte werden die meisten wieder jammern und dann kommen wieder neue Themen wie der neue Treiber wird Boost bringen bla bla bla. In den letzten Jahren konnte kein Treiber egal AMD oder NV ein Treiber rausbringen der 20% leistung gebracht hat das ist ein Boost aber kein poplige 4 FPS in Game. Das alles kann ich nicht mehr hören seid jahren werden wir einfach überntisch gezogen egal AMD/NV.

.
 
Zuletzt bearbeitet:
Du hast mich da nicht richtig verstanden.

Mag sein... Aber du schreibst NVs HQ-AF grieselt... Was aber nicht am HQ-AF liegt, sondern viel eher an den Texturen oder eben durch unschöne Flimmereffekte durch den Shadercode. Es grieselt also nicht das HQ-AF... Was aber so nicht rüber kommt ;) Wollt ich damit zumindest unterstreichen. Denn oft genug wird hier vermischt obwohl es nix zu mischen gibt.
 
@fdsonne
Bitte um Aufklärung.:wink:

Deutlich erkennen läßt sich allerdings schon der klare Stilbruch zu den bisherigen AMD-Grafikchips: Die "Graphics Core Next" Architektur wird zum einen deutlich auf die Übernahme zusätzlicher GPGPU-Aufgaben ausgelegt – und zum anderen schwört AMD dem bisherigen VLIW-Modell der Shader-Einheiten ab und bringt reguläre "1D" Shader-Einheiten wie in den Grafikchips von Intel und nVidia zu finden. Grob gesagt nähert sich AMDs "Graphics Core Next" Architektur damit deutlich nVidias Fermi-Architektur an – und geht in Teilen sogar darüber hinaus (Support von virtuellem Speicher, was Fermi noch nicht kann). Die meisten Änderungen wurden dabei zugunsten von GPGPU und dem Fusion-Konzept gemacht – die "Graphics Core Next" Architektur ist ganz deutlich darauf ausgelegt, später einmal in eine CPU integriert zu werden und dort die CPU als Co-Prozessor direkt zu unterstützen.

AMDs "Graphics Core Next" Architektur damit deutlich nVidias Fermi-Architektur an – und geht in Teilen sogar darüber hinaus (Support von virtuellem Speicher, was Fermi noch nicht kann). Die meisten Änderungen wurden dabei zugunsten von GPGPU und dem Fusion-Konzept gemacht – die "Graphics Core Next" Architektur ist ganz deutlich darauf ausgelegt, später einmal in eine CPU integriert zu werden und dort die CPU als Co-Prozessor direkt zu unterstützen.
Aus diesem Blickwinkel wurde das ganze von AMD auch maßgeblich präsentiert – womit es um so schwerer ist zu erkennen, wo die Vorteile bzw. Unterschiede rein aus dem Blickwinkel eines Spielebeschleunigers liegen werden. Klar ist erst einmal, daß AMD mit dem Verzicht auf die VLIW Shader-Einheiten und dem Wechsel zu "1D" Shader-Einheiten stärker zu nVidia vergleichbar wird: Die VLIW-Einheiten standen zwar für eine hohe ereichbare theoretische Rechenleistung, konnten aber nie ganz so perfekt ausgelastet werden. Potentiell wird die Auslastung mit den "1D" Shader-Einheiten deutlich besser, womit (ebenso theoretisch) nicht mehr ganz so viele davon verbaut werden müssen – nVidia kommt bei seinen Grafikchips schließlich regelmäßig mit gut der Hälfte der theoretischen Rechenleistung wie bei vergleichbaren AMD-Grafikchips aus.

AMD präsentiert die "Graphics Core Next" Grafikchip-Architektur | 3DCenter.org
 
Zuletzt bearbeitet:
Das ist leicht verwirrend geschrieben...

Wenn ich mal mr.dude zitieren darf:
Wie schon gesagt wurde, es sind auch keine "1D" Einheiten. VLIW4 hat 4-fach SIMD Einheiten, GCN hat nun 16-fach SIMD Einheiten. Laut AMD brauchen die Chips etwas mehr Logik. Das liegt aber wohl weniger an der Kompaktheit der SIMD Einheiten, sondern mehr an der geänderten Architektur. Es gibt zB auch noch dedizierte skalare Einheiten.
http://www.hardwareluxx.de/community/17957008-post248.html

Mit NVs bekannter 1D Architektur hat das also nicht wirklich was am Hut.
Und der letzte Satz vom zitierten Artikel ist auch ziemlich engstirnig geschrieben, noch dazu in meinen Augen auf die falsche Basis verglichen:
Potentiell wird die Auslastung mit den "1D" Shader-Einheiten deutlich besser, womit (ebenso theoretisch) nicht mehr ganz so viele davon verbaut werden müssen – nVidia kommt bei seinen Grafikchips schließlich regelmäßig mit gut der Hälfte der theoretischen Rechenleistung wie bei vergleichbaren AMD-Grafikchips aus.
Ergibt für mich keinen Sinn, denn es müssen nicht weniger verbaut werden, weil die Auslastung besser wird, sondern es müssen viel eher viel mehr verbaut werden, um annähernd ähnliche Leistung zu erreichen, die dazu noch deutlich höher takten müssen. Siehe GF110 512 1D ALUs vs. Cayman 384 VLIW4 Einheiten.
Und Engstirnig deswegen, weil man scheinbar offensichtlich nur auf den Gamermarkt vergleicht. In GPGPU Anwendungen rasen die VLIW5 und VLIW4 GPUs weit weit vorran... Trotz weniger Einheiten. Verbunden mit dem Wissen, das die GPU ein Allrounder ist (alle Märke abdecken muss), muss man also auch alle Bereiche Vergleichen und nicht cherry picked irgendwas hinbiegen...
 
Zuletzt bearbeitet:
Abwarten und Tee trinken, wenn die neuen Karten wirklich so "lahm" werden wie vermutet, dann behalte ich meine beiden 6970 Karten halt auch noch ein bisschen, gibt eh kaum ein Spiel das ernsthaft darauf ruckelt und bis die neuen Konsolen kommen wird das auch so bleiben.

Hatte bloß wieder ein bisschen Lust zu basteln.
 
kömma nur hoffen dass die 680gtx was gscheits wird, damit die bastelwütigen auch was gescheites zum basteln bekommen :d hehe
 
Ja leider hört sich das aber so an, dass die neuen 7900er Karten gar nicht so gut werden!

Ich schreibs nochmal: Ein keinerer Fertigungprozess kostet auch Geld und Entwicklungszeit.

Wenn ihr dir Hersteller wegen den Konsolenimports nicht HEUTE anschreibt wird das passieren was mit Assasins Creed2 passiert ist.
 
Bin wirklich am überlegen ob ich mir ein XBox Kaufen soll habe echt kein lust mehr immer aufzurüsten für was den auch die meisten Spiele kommen nur noch mit BUG`S und die GPU hersteller sollen dann das ganze mit ein Wunder Treiber ausbügeln.

Bugs - ok. Leider trifft das auf so einige Konsolenspiele auch zu. Auf der anderen Seite: Ich kann problemlos BF 3@FullHD mit meiner HD5850 und einem Q6600@3GHZ spielen. Und du machst dir Sorgen immer aufrüsten zu müssen? Eine Xbox liefert auch keine 120 Fps und spiegelt den Stand der Technik von 2007 wieder.


Ich persönlich (=Spielverderber) hoffe sogar auf wenig Mehrleistung der HD7xxx-Serie. Und wieso? Weil es kaum Spiele gibt die mehr Anforderungen stellen werden als die aktuellen HighEnd-Karten (SingleGPU Highend) liefern können. Somit kann ich dann locker noch bei meiner HD5850 bleiben :)
 
Zuletzt bearbeitet:
Abwarten und Tee trinken, wenn die neuen Karten wirklich so "lahm" werden wie vermutet, dann behalte ich meine beiden 6970 Karten halt auch noch ein bisschen, gibt eh kaum ein Spiel das ernsthaft darauf ruckelt und bis die neuen Konsolen kommen wird das auch so bleiben.

Hatte bloß wieder ein bisschen Lust zu basteln.

Ja, und somit ist die 5870 immernoch sehr gut im Rennen. Hätte die nicht nur 1GB Speicher...krass, solange hatte ich noch nie eine GPU-Sorte^^
Da NV den jetzigen Schritt vom AMD schon hinter sich hat müsste da eigendlich mal wieder mehr Performance bei rum kommen.
 
Ja, und somit ist die 5870 immernoch sehr gut im Rennen. Hätte die nicht nur 1GB Speicher...krass, solange hatte ich noch nie eine GPU-Sorte^^
Da NV den jetzigen Schritt vom AMD schon hinter sich hat müsste da eigendlich mal wieder mehr Performance bei rum kommen.

Welchen Schritt denn schon wieder?
Nur zur Info, AMD wird innerhalb von zwei Generationen zwei mal die Architektur verändern... Der Erste Step war von VLIW5 auf VLIW4, der nächste geht auf GCN. NV krebst mit ein paar Anpassungen immernoch auf der beim G80 eingeführten Architektur. Was haben die denn für nen Schritt getätigt?

Und wieso? Weil es kaum Spiele gibt die mehr Anforderungen stellen werden als die aktuellen HighEnd-Karten (SingleGPU Highend) liefern können. Somit kann ich dann locker noch bei meiner HD5850 bleiben :)

Wenn du von HighEnd GPUs sprichst, solltest du aber auch die jenigen Leute nicht vergessen, die keine Kompromisse in Sachen Bildqualität eingehen wollen. Und nein, auch ein GTX580 SLI schafft es nicht durchgängig FullHD + 4xSGSSAA + sonstige Schmankerl mit ordentlich flüssigen ~60FPS darzustellen... Woher dieses, die Anforderungen sind zu niedrig "Geblubber" ;) immer her kommt, ist mir schleierhaft. Nicht alle wollen sich mit dem zufrieden geben, was der Programmierer bereit stellt. Und für die (was dazu noch ein großer Teil der potentiellen HighEnd Käufer sein dürfte) darf es immer gern auch mehr sein... Selbst 4xGTX580 im SLI bekommt man klein wenn man will. Und ja, man sieht die BQ auch im Vergleich...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh