Erste Benchmarks der AMD Radeon HD 6970?

Ich arbeite mit solchen auch :-) Bin Chemikant in einer Großanlage wir haben davon 6in Reihe :-)

Das war ja auch als grober Spass gemeint :-)

Hab auch ne Chemiekanten ausbildung gemacht ;D hab dann aber noch nen Verfahrenstechnik Studium rangehangen, 12stunden nacht am sonntag ging mir zu sehr auf den kecks :d

Und ich versteh spass und weiss wie das gemeint war , wollt nur gluckscheissen :d :shot::haha:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
lt diesem gerücht soll die 6970 nen tdp von 255W oder mehr haben, was vermutlich auf eine hohe Leistungsaufnahme schliessen lässt.

Tesselationsperformance kostet nunmal Energie,das war auch die Geisel für den GF100

---------- Beitrag hinzugefügt um 20:20 ---------- Vorheriger Beitrag war um 20:18 ----------

Alles was an Geist raus durfte steht im Artikel zu 6800-Karten. Der Rest muss in der Flasche bleiben ;)

Ich wäre dafür wir machen noch ne Flasche auf:d
 
Tesselationsperformance kostet nunmal Energie,das war auch die Geisel für den GF100

Nein, die Geisel des GF100 ist die Anzahl der Transistoren. Es hat nur einen gewissen Teil mit der Performance zu tun ob ein Chip viel verbraucht für Tesselation oder nicht, es kommt auf die Architektur an und wie Tesselation nun berechnet wird.
 
Warum lässt du die Hälfte einfach weg?
Fakt ist: nvidia braucht mehr Transistoren für die Leistung, weil die Architektur eben die Performance pro Transistor nicht so effizient ist. Da kannst du auch mit dem GF104 ankommen, auch dessen Chipgröße und Performance zeigen das gleiche Bild.
AMD hat es ja mit der HD6000er Reihe gezeigt, Chip verkleinert, weniger Transistoren, höhere Tesselationleistung beim gleich Fertigungsprozess und kein höherer Verbrauch.
 
Warum lässt du die Hälfte einfach weg?
Fakt ist: nvidia braucht mehr Transistoren für die Leistung, weil die Architektur eben die Performance pro Transistor nicht so effizient ist. Da kannst du auch mit dem GF104 ankommen, auch dessen Chipgröße und Performance zeigen das gleiche Bild.
.

So und was hat das ganze mit dem zu tun das die Tesseinheiten massivst gekürzt wurden beim GF104 um auf die Effizienzklasse im Mittelfeld aufzuschließen.

Was ich aus deinem Kontext nur entnehme ist"Fermis Shaderarchitektur egal wie ist Müll"und deshalb der hohe Verbrauch beim GF100.

Wenn deiner negativen Ausführung nach das so ist,macht es gar keinen Sinn mehr diese Architektur weiter zu verfolgen,nun das sollte sich ja bald herausstellen mit der GTX580 ob du recht hast oder nicht.

Ich tippe eher auf letzteres
 
Was bleibt denn nvidia übrig als auf GF100 Basis(!) aufzubauen und höchstens noch zu optimieren?
Eine neue Architektur können sie nicht innerhalb kürzester Zeit aus dem Arm schütteln, dazu ist das Thema einfach zu komplex, nicht umsonst haben sie ja Jahrelang am GF100 gebastelt - laut eigenen Aussagen.

Neruer Chip der kommt - optimiert, aber nicht komplett neu. Ich habe auch nirgends geschrieben das ihre Architektur "Müll" ist - ich habe geschrieben das die Performance pro Transistor schlechter ist als bei der Konkurrenz, was sich widerum in der Chipgröße widerspiegelt. Das ist nunmal ein Fakt.

Ob und wieweit eine HD6970 nun eine TDP von 255W aufweist werden wir ja dann sehen - genauso wie die Leistung die dann am Ende herauskommt, die Chipgröße und die daraus resultierende Effizienz. Darauf kommt es am Ende an. Von mir aus kann auch eine HD6970 den selben Volllastverbrauch einer GTX480 haben - sofern sie deutlich schneller ist, und ich rede nicht von 20%, sondern eben deutlich mehr.
Aber AMD ist ja nicht ganz doof, also belassen sie es bei Verbrauch X und bleiben eben auf GTX480 Niveau oder eben "leicht" darüber.
 
Warum lässt du die Hälfte einfach weg?
Fakt ist: nvidia braucht mehr Transistoren für die Leistung, weil die Architektur eben die Performance pro Transistor nicht so effizient ist. Da kannst du auch mit dem GF104 ankommen, auch dessen Chipgröße und Performance zeigen das gleiche Bild.
AMD hat es ja mit der HD6000er Reihe gezeigt, Chip verkleinert, weniger Transistoren, höhere Tesselationleistung beim gleich Fertigungsprozess und kein höherer Verbrauch.
Naja, so einfach ist das nicht wie du dir das vorstellst!
Zwar sind die neuen AMD Radeaon 68XX sparsamer, aber mehr FPS als die 58XX bringen sie nicht wirklich!
Also ist eben doch was auf der strecke geblieben, die DP Einheiten leider auch (was aber zu verschmerzen ist, da es Spiele nicht nutzen)

Die 6970 wird wohl eine Multi GPU Single Karte mit 2x6870, wie schon bei der 5970. :angel:
Da sind doch 255W TDP eher optimistisch wenn eine schon auf 150W kommt.


MfG
 
Zuletzt bearbeitet:
Naja, so einfach ist das nicht wie du dir das vorstellst!
Zwar sind die neuen AMD Radeaon 68XX sparsamer, aber mehr FPS als die 58XX bringen sie nicht wirklich!
Also ist eben doch was auf der strecke geblieben, die DP Einheiten leider auch (was aber zu verschmerzen ist, da es Spiele nicht nutzen)

Die 6970 wird wohl eine Multi GPU Single Karte mit 2x6870, wie schon bei der 5970. :angel:
Da sind doch 255W TDP eher optimistisch wenn eine schon auf 150W kommt.


MfG

Na 5990 macht mehr Sinn für Multicore nach "erneuertem" Namensschema;)
 
Na 5990 macht mehr Sinn für Multicore nach "erneuertem" Namensschema;)
:lol:
Ich schmeiß mich weg, jetzt mach doch das Namenschema von ATI nicht lächerlich, die gibt es eh nicht mehr (laut AMD)

MfG
 
Ja und? Sie brauchen ja auch gar nicht schneller sein. Die HD68er Karten sind ja auch MidRangekarten und liegen in etwa auf dem Niveau der letzten HighEnd Generation. Wer etwas anderes erwartet hat, dem ist nicht zu helfen.

Fakt ist: 1/4 weniger Tranistoren bei erhöher Tesselation Leistung + etwas weniger Volllastverbrauch bei gleicher Fertigungsgröße = HD68er MidRange. Genau das Ziel sollte erreicht werden wie es auch eh und je so war. (Oder gab es Beschwerden das die HD5770 pi mal Daumen auf 4870/4890 Niveau lag? Wohl kaum)

Jetzt die HD68er mit 5D Shader (= mehr Transistoren = mehr Verbrauch) mit einem (Cayman) HD69er zu vergleichen, welche vermutlich auf 4D setzt, ist auch eine Milchmädchenrechnung. ;) Das sind eben zwei andere Architekturen, sofern es sich mit 4D denn bestätigt.
 
Was bleibt denn nvidia übrig als auf GF100 Basis(!) aufzubauen und höchstens noch zu optimieren?
Eine neue Architektur können sie nicht innerhalb kürzester Zeit aus dem Arm schütteln, dazu ist das Thema einfach zu komplex, nicht umsonst haben sie ja Jahrelang am GF100 gebastelt - laut eigenen Aussagen.
.

Was erzählst du denn für nen Quark schau dir an auf welcher Basis die 5er und 6er Karten von AMD immer noch aufbauen und was war diese Architektur am Anfang für ein Flop.

Also lass die Märchen endlich stecken das Nvidia schon wieder dringend ne neue Architektur brauch,diese ist jetzt erst umgestellt worden und wird sich ebenso weiterentwickeln,weil dort eben keine Deppen sitzen

---------- Beitrag hinzugefügt um 21:21 ---------- Vorheriger Beitrag war um 21:18 ----------

:lol:
Ich schmeiß mich weg, jetzt mach doch das Namenschema von ATI nicht lächerlich, die gibt es eh nicht mehr (laut AMD)

MfG

:confused::d


@Don
Ich hatte die Quelle vergessen anzugeben, habe ich inzwischen nachgeholt.

Bei den Benchmarks soll es sich um eine Radeon HD 6970 gehandelt haben. Wie gesagt, der derzeitigen Gerüchtelage nach sind 6970 und 6950 Single-GPU- und die 6990 eine Dual-GPU-Karte. Mehr kann ich dazu nicht sagen.
 
Zuletzt bearbeitet:
Schlagt euch gebt euch Tiernamen :fresse2:

Ein wenig warten dann wissen wir es bin mal gespannt wie viel Leistung die dann Tatsächlich haben, ich hoffe mal die 6970 wird keine Dualkarte da ich 2 davon wollen würde wenn es der Preis zulässt.

Das mit den 255W TDP kann ich mir nicht ganz vorstellen, währe schon ein extremer Anstieg im Vergleich zu der 6870 was ich nicht ganz glauben kann. (Und vor allem nicht möchte)

Und wenn dann gleich eine GTX580 erscheinen sollte, die dann etwas schneller wie eine 6970 sein sollte Wayne dann wird der Preis der 5970 wahrscheinlich angenehmer sein.
 
Was erzählst du denn für nen Quark schau dir an auf welcher Basis die 5er und 6er Karten von AMD immer noch aufbauen und was war diese Architektur am Anfang für ein Flop.
Der R600 ist jetzt auch 3 Jahre alt... und mit jeder neuen Generation die darauf aufbaute wurde etwas verbessert, erst die groben Schnitzer, dann die Leistung, dann der Verbrauch usw. und das hat seine Zeit gedauert.
Und jetzt tu bitte nicht so als ob nvidia es einfach so schaffen würde das alles in so kurzer Zeit so gnadenlos zu optimieren wofür ATi/AMD 3 Jahre gebraucht haben. Sowas nimmt eben Zeit in Anspruch, weil viele Ansätze eben getestet werden müssen, insbesondere die Simulationen. Und wenn dann der Prototyp nach endlosen Simualtionen verkackt, weil man eben nicht alles per Simulation schafft, dann ist noch mehr die Kacke am dampfen.
Und je mehr Transistoren so ein Chip hat, desto aufwendiger die Simulationen, desto fehleranfälliger auch Prototypen.

Du musst die reinen Fakten eben nicht niederreden, nur weil der R600 ein Flopp war und die Ingenieure daraus noch was zaubern konnten.
Wäre das nämlich alles so einfach hätte Intel nicht die Netburst Architektur wieder eingestampft und hat durch Glück aus dem P3 noch was rausholen können.
 
Die 6970 wird wohl eine Multi GPU Single Karte mit 2x6870, wie schon bei der 5970. :angel:

Das ist absolut falsch :lol:

Die 6970 wird einen Cayman Chip haben, dieser hat mit Barts 6870 nicht zu tun

außerdem wird die 6990 2x Cayman Chips haben, das ist dann die Multi GPU Karte ;)

Die 5970 setzt ebenfalls auf 2x High End Chips, 2x RV870 mit 320-5D Shader (2x1600), aber reduzierten Taktraten :wink:

Edit: wann hat AMD bei einer Dual Karte mainstream GPUs verbaut?, die 6870 ist übrigens nur mainstream :fresse:
 
Zuletzt bearbeitet:
Der R600 ist jetzt auch 3 Jahre alt... und mit jeder neuen Generation die darauf aufbaute wurde etwas verbessert, erst die groben Schnitzer, dann die Leistung, dann der Verbrauch usw. und das hat seine Zeit gedauert.
Und jetzt tu bitte nicht so als ob nvidia es einfach so schaffen würde das alles in so kurzer Zeit so gnadenlos zu optimieren wofür ATi/AMD 3 Jahre gebraucht haben. .

Ach und das gestehst du dem grünen Konzern wieder mal nicht zu wie grenzenlos objektiv ist das denn?

Aber

War mir eben nicht noch so als ob du die ganze Architektur von vorn herein"für die Tonne bezeichnet hattest":hmm:


Was bleibt denn nvidia übrig als auf GF100 Basis(!) aufzubauen und höchstens noch zu optimieren?
Eine neue Architektur können sie nicht innerhalb kürzester Zeit aus dem Arm schütteln

Also bleib deiner Aussage wenigstens treu
 
Nvidia hat doch selber zugegeben das die aktuelle Architektur in der Form für die Zukunft keinen Sinn mehr macht, die arbeiten bereits an was neues!
 
Hab auch ne Chemiekanten ausbildung gemacht ;D hab dann aber noch nen Verfahrenstechnik Studium rangehangen, 12stunden nacht am sonntag ging mir zu sehr auf den kecks :d

Und ich versteh spass und weiss wie das gemeint war , wollt nur gluckscheissen :d :shot::haha:
Ich auch klugscheissen heist es :P:P:P:P

Dito:-)

Habe auch umgesattelt, Studiere medizin technik die schicht geht garnicht :-) arbeite aber im studium auf 400€ basis da weiter :-)

@top

Sachlich diskutieren und vollgasgeben :fresse:
 
Zuletzt bearbeitet:
@scully
Bitte? Warum legst du mir irgendwelche Worte in den Mund die ich nie gesagt habe...

Ich habe gesagt es braucht Zeit um den GF100 zu optmieren - und das sie nicht in der Lage sein werden innerhalb kürzester Zeit (spprich dieses Jahr) eine neue Architektur zu entwerfen, marktreife damit zu erlangen und es an die Kunden zu verteilen.

Das eine Optimierung aber problemlos innerhalb eines halben bis 3/4 Jahres geht ist schwierig aufgrund der Tranistorenzahl und Chipgröße und es wird am Ende der ersten Optmierungsstufe (das ist nicht der GF104) nicht einen "Wunderchip" geben wie von einigen erhofft.

Vornehmlich muss nvidia es schaffen die Chipfläche zu verkleinern, sprich die Leistung pro Transistor zu erhöhen, und dabei die Leistung zu halten aus wirtschaftlicher Sicht ohne einen Shrink. Denn nvidia ist mit ihrem Chip am Ende der Fahnenstange in 40nm angekommen, aufgrund der Spezifikationen.
 
genau da steckt die Kernaussage

nirgendwo wird jemals erwähnt das Fermi generell eine Sackgasse ist

Hä? Duplex sagt es ist ne sackgasse und du sagt ja stimmt und im selben satz ne?:fresse: Nicht übel nehmen, aber dat kapier ich ned :fresse:
 
@scully
Bitte? Warum legst du mir irgendwelche Worte in den Mund die ich nie gesagt habe...

Ich habe gesagt es braucht Zeit um den GF100 zu optmieren - und das sie nicht in der Lage sein werden innerhalb kürzester Zeit (spprich dieses Jahr) eine neue Architektur zu entwerfen, marktreife damit zu erlangen und es an die Kunden zu verteilen.

.

Du phantasierst doch schon wieder von einer neuen Architektur,nochmal es kommt keine neue,Fermi ist die neue auf der alle weiteren Verbesserungen aufbauen,equivalent R600

---------- Beitrag hinzugefügt um 22:16 ---------- Vorheriger Beitrag war um 22:16 ----------

Hä? Duplex sagt es ist ne sackgasse und du sagt ja stimmt und im selben satz ne?:fresse: Nicht übel nehmen, aber dat kapier ich ned :fresse:

schau mal was ich schwarz markiert habe;)
 
Zeitgleich hat Huang zugegeben, dass die aktuelle Marschrichtung, die man mit Fermi eingeschlagen hat, in Zukunft nicht weiter sinnvoll ist, da die Leistungsaufnahme andernfalls zu stark zunehmen würde. Die nachfolgenden Generationen nach Maxwell sollen die Effizienz dann in ähnlichen Maßen weiter verbessern.
Nvidia:
 
Du phantasierst doch schon wieder von einer neuen Architektur,nochmal es kommt keine neue,Fermi ist die neue auf der alle weiteren Verbesserungen aufbauen,equivalent R600
Bitte was? :wall:
Liest du eigentlich auch die Beiträge vollständig oder immer nur Satzfetzen?

Davon rede ich die ganze Zeit das eine vollkommen neue Architektur erstmal auszuchließen ist und alles was jetzt kommt ihren Ursprung auf dem GF100 hat - in optimierter Version!
Das nivida in der Lage ist einen Chip zu optmieren habe ich ihnen auch niemals abgesprochen, bevor das wieder behauptet wird, obwohl ich es nie gesagt habe.
Aber womöglich verliert man den Überblick wenn man einfach nur Satzteile zitiert und nicht alles. :rolleyes:
 
ich glaub diesen Fanatismus im Deuten von "Zeichen" gabs zuletzt bei den alden Kirchenvätern im Auslegen (=Exegese) fon dieh heligntäxd:fresse2:
 
Das nivida in der Lage ist einen Chip zu optmieren habe ich ihnen auch niemals abgesprochen, bevor das wieder behauptet wird, obwohl ich es nie gesagt habe.
:

Nein hast du nicht aber als hoffnungsloses Unterfangen unterlegt

Was bleibt denn nvidia übrig als auf GF100 Basis(!) aufzubauen und höchstens noch zu optimieren?
Eine neue Architektur können sie nicht innerhalb kürzester Zeit aus dem Arm schütteln

Und gleich im nächsten Satz bringst du eine neue Architektur ins Spiel so als ob dieses der einzige Ausweg wäre für Nvidia aus der "großen Misäre".

denn "höchstens noch zu optimieren" klingt verdammt nach

Das Kind liegt im Brunnen und ist tot wir können es "höchstens noch bergen"

Mit Verlaub "höchstens noch zu Optimieren" hat den R600 zu dem gemacht was er heute ist
 
Zuletzt bearbeitet:
@Scully1234: Wenn zwischen dem was Turbostaat sagt und dem was du verstehst ein Unterschied besteht, ist es nicht sein Fehler.


Gehen wir mal die Möglichkeiten druch:
1. Möglichkeit: nVidia erfindet eine komolett neue Architektur.
2. Möglichkeit: nVidia nimmt die GF100 Architektur und überarbeitet sie mal Grundlegend.
3.Möglichkeit: nVidia nimmt di eGF100 Architektur und baut sie wie ATI damals mit dem R600 nach und nach zu einem Vernünftigen Chip.

Also Möglichkeit 1 Steht ausser Frage, denn dann kann nVidia gleich für 3 Jahre vom Markt verschwinden.
Möglichkeit 2 ist sicher nicht drinn, denn es bräuchte sicher mehr als 1 1/2 Jahre etwas vernünftiges zu machen. Von den Kosten ganz abzusehen.
Möglichkeit 3 ist das beste das zu machen ist, nach und nach Optimieren. Klar kann man nicht sofort alles haben, aber wenn mal erstmal den Stromhunger senkt, und dafür mal auf die Leistungskrone verzichtet, ist schon ein Großer Schritt getan. Denn die Ingenieure bei AMD sind sicher keine Götter und Zauberer.
 
Wie wärs mal mit b2t? :>

Mich persönlich würd ja mal interessieren, ob es nicht irgendeinen Hersteller gibt, der die 699 auch schon mit montierten Wasserkühler ausliefert - find ich ja persönlich ne absolute Marktlücke :d
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh