AMD HD 9970 angeblich doppelt so schnell wie GTX 780

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
du quatschst ein blech hey ... aber anderes ist man von dir ja nicht gewohnt ... :rolleyes:

Das erkläre mir mal genauer... Leistung-Index HD 7970 == 1; Leistung-Index GTX 780 ca 1,2 Leistung doppelt so schnell wie eine GTX 780 entspräche also dem Leistungfaktor 2,4 einer HD 7970. Das ist fast der Faktor 2,5 um den die Leistung gesteigert werden müsste...
 
naja doppelt so schnell wird sie ja nun nicht gleich sein aber ich hoffe es tut sich ordentlich was sonst bleibt die HD7950 bei mir im rechner...
 
Im Moment ist klar das 20nm bei TSMC wohl nicht so gut performen wird wie angenommen. Entscheidende Technologien wie Multigate Transitoren usw kommen bei TSMC afaik wohl erst später. Die 70%, die man bei gleicher Diesize normalerweise mit einem Shrink angibt, sind damit nicht wirklich haltbar (Auch wenns quasi nen Sprung von Half-Node zu Half-Node ist).

Bei gleicher Diesize wären vielleicht 25-50% realistisch, aber auch nur in 20nm. Beide Chips in 28nm dürfte nicht soviel trennen, vielleicht 10-20% bei gleicher Diesize, Ausbrecher nach oben und unten mal ausgenommen.

Gibts da Meldungen drüber?
Ich mein, vor noch ein paar Monaten fanden sich News, das TSMC mit 20nm gut im Plan liegt, teils gar vor den Erwartungen ist...

Ich denke mittlerweile (nach der HD7970), das ein 20nm Produkt als halber Papiertieger gegen Weihnachten durchaus drin sein könnte. ;) Denn bei der HD7970 ging man auch ein paar Wochen vorher noch von aus, das da noch keine Massen 28nm Fertigung drin wäre.
Auch die Apple Prozessoren in 20nm sollen wohl gegen Dez. 2013 in Massenproduktion vom Band laufen. -> es ist also nicht auszuschließen, das da auch ein paar Wafer von AMD geordert sind. Und auch NV wird sich mit größter Warscheinlichkeit nicht ganz hinten anstellen wollen. Noch dazu glaube ich ehrlich gesagt nicht, das sich Apple hier einfach so "vordrängeln" kann, wie es von manchen scheinbar angenommen wird. Denn die Verträge mit Apple scheinen gerade mal ein paar Wochen alt, wären dich stark davon ausgehe, das Verträge mit AMD und NV für 20nm Produkte schon deutlich eher geschlossen worden.

Die Frage ist halt, ist es das Big Schiff, oder ist es ein kleinerer Ableger... Und ob AMD die "Schwächen" der Tahiti GPUs gegenüber Kepler angeht und an der Effizienzschraube kräftig drehen kann. -> dann sind auch mehr wie 50% drin, gehe ich davon aus.
Gemessen an der Rohperformance bleibt bei AMD ja immernoch etwas mehr Leistung auf dem Papier, als am Schirm ankommt.
 
Gibts da Meldungen drüber?
Ich mein, vor noch ein paar Monaten fanden sich News, das TSMC mit 20nm gut im Plan liegt, teils gar vor den Erwartungen ist...

Jetzt musst du teilen. Zeitmäßig könnten sie es irgendwie schaffen, aber afaik wäre das eigentlich nicht möglich. Zwar mag man gut im Plan liegen, aber in ein paar Monaten einen Prozess UND einen darauf laufenden Chip auf die Beine zu stellen scheint mir schwierig.

Das andere ist der Part was die 20nm Fertigung her gibt und hier gibt es ohne Multi-Gate usw. auf jeden Fall einen nicht zu unterschätzenden Nachteil. Bevor hier wieder einer heult, NV ereilt da das gleiche Schicksal wenn sie bei TSMC fertigen, was sie nunmal tun.

Node Skipping Reaches New Heights | Semiconductor Manufacturing & Design Community

IC makers that moved from 40nm to 28nm have experienced a 35% average increase in speed and a 40% power reduction, said Jack Sun, vice president of R&D and chief technology officer at TSMC. In comparison, IC vendors that will move from 28nm to 20nm planar are expected to see a 15% increase in speed and 20% less power, Sun said.

Intel konnte das durch die Tri-Gate Transistoren quasi auffangen, bei TSMC ist Multi-Gate aber afaik erst mit 16nm(?) geplant.

Ich denke mittlerweile (nach der HD7970), das ein 20nm Produkt als halber Papiertieger gegen Weihnachten durchaus drin sein könnte. ;) Denn bei der HD7970 ging man auch ein paar Wochen vorher noch von aus, das da noch keine Massen 28nm Fertigung drin wäre.

Naja, ich denke mal das da am Anfang garnichts laufen wird und die Verfügbarkeit gegen 0 geht. Eine andere Möglichkeit wäre natürlich das AMD nur irgendwelche Meldungen streut um potentielle Käufer davon abzuhalten auf NV um zu steigen. Geht die Taktik auf können sie auch ruhig ein paar Monate später Launchen.

Auch die Apple Prozessoren in 20nm sollen wohl gegen Dez. 2013 in Massenproduktion vom Band laufen. -> es ist also nicht auszuschließen, das da auch ein paar Wafer von AMD geordert sind. Und auch NV wird sich mit größter Warscheinlichkeit nicht ganz hinten anstellen wollen. Noch dazu glaube ich ehrlich gesagt nicht, das sich Apple hier einfach so "vordrängeln" kann, wie es von manchen scheinbar angenommen wird. Denn die Verträge mit Apple scheinen gerade mal ein paar Wochen alt, wären dich stark davon ausgehe, das Verträge mit AMD und NV für 20nm Produkte schon deutlich eher geschlossen worden.

Die Frage ist halt, ist es das Big Schiff, oder ist es ein kleinerer Ableger... Und ob AMD die "Schwächen" der Tahiti GPUs gegenüber Kepler angeht und an der Effizienzschraube kräftig drehen kann. -> dann sind auch mehr wie 50% drin, gehe ich davon aus.

Bei den Verträgen kann man schlecht durchblicken was da läuft. Im Zweifelsfall hat Apple aber mehr Geldbündel zum bewerfen als AMD und NV zusammen.

Zur Peformance, kommt drauf an wie AMD es angeht. NV ist bei 28nm mit einem kleinen Chip zum Start und später einer größeren Version ja nicht unbedingt schlecht gefahren. AMD könnte also nen Chip bringen mit 350mm², der auf Augenhöhe mit der 780 und darüber agiert. Später wirft man dann einen Chip mit 400mm²+ in den Ring in gleicher Archi als Refresh oder mit einem Upgrade gegen Maxwell oder einfach nur zum Verkaufen. Man darf dabei auch nicht vergessen das 16nm bei TSMC auch erst für 2015/2016 geplant ist und diese Zeit muss man auch irgendwie überbrücken, wobei man das bisher ja auch gut im Griff hat.

Rein von der Mehrperformance einer neuen Architektur würde ich nicht über 5-10% ausgehen. Meist wird sowas auch irgendwie wieder aufgefressen, sei es durch Verwaltungsaufwand oder anderen Problemen. GK110 ist ja auch fast 2,4 mal so groß wie GF110, aber im Schnitt nicht doppelt so schnell.

Gemessen an der Rohperformance bleibt bei AMD ja immernoch etwas mehr Leistung auf dem Papier, als am Schirm ankommt.

Trotzdem, bei so versierten Chiparchitekten wie sie bei AMD und NV sitzen bezweifel ich das da einer auf einmal den heiligen Gral in Händen hält und der andere Doof aus der Wäsche guckt.
 
Die Frage ist halt, was hält der 20nm Prozess wirklich?
Ich weis es ehrlich gesagt so nicht abzuschätzen... Denke aber dennoch, das es einen Sprung geben muss... Schaut man sich die 28nm Produkte an, so nähern wir uns mittlerweile wieder der 300W Marke. Was klein angefangen hat, ist mittlerweile wieder 230-250W Verbrauch. Sprich bringt hier 20nm nicht eklatante Verbesserungen, gehts in Sachen GPU Leistung nicht bergauf. Und das kann ich mir ehrlich gesagt so gar nicht vorstellen, das man ne fast vierjahres Nullnummer hinlegen wird.

Was den Zeitpunkt angeht, klar... Schau dir die Meldungen zu den Appleprodukten an, da wird aktuell schon munter mit Prototypen gefertigt, wenn man den Meldungen trauen kann. Das dürfte bei AMD und NV nicht anders sein. Auch gehe ich davon aus, das AMD abermals eher dran sein wird. Denn man nutzt immernoch die ersten und einzigen 28nm Produkte, was man gebracht hat. -> nach nunmehr 1,5 Jahren. Wärend NV nochmal nen größeren Chip im Endkundenmarkt nachgeschoben hat/nachschieben musste.

Thema Verträge, das ist wohl richtig... Wir wissen da so gar nix. Dennoch kann ich mir nur vorstellen, das sich Apple hier vordrängeln kann. Denn laufende Verträge sind laufende Verträge, sicher finden sich Mittel und Wege das irgendwie so oder sorum ein Stück weit hinzubiegen. Aber wenn AMD da Verträge hat, die über die und die Menge Wafer (oder Chips) lauten, dann kann Apple da mit Mrd. $ winken -> Vertrag ist Vertrag ;) Zumindest behaupte ich, sind die Verträge zwischen AMD und TSMC sowie NV und TSMC schon länger in Sack und Tüten als Apple und TSMC ihre. -> Denn die Entwicklung der GPUs benötigte ja genau so Zeit und geschieht zu einem Teil auch mit den Fertigern zusammen.
Vor allem, bedenkt man, das TSMC schon 20nm Testweise in Zeiten um den 28nm Massenfertigungsstart bringen konnte, muss denke ich jemand von AMD und NV schon bei TSMC die Vertraglichkeiten geklärt haben... Zumal es sozusagen fast keine Alternativen gibt, die diese Mengen stemmen können und dazu noch KnowHow mit derartigen Trasistormonstern haben. Es ist also sozusagen vorher schon fast klar, das TSMC da im Boot ist.

Was die Verfügbarkeit angeht, alles eine Frage des Preises. Die ersten Tahiti und GK104 GPUs waren ja auch "gut" verfügbar. Zumindest sieht es so aus. Wären die Produkte allerdings 100€+ günstiger gewesen zum Start, hätte das womöglich anders aussehen können. Nur setzt Titan hier zumindest für NV schonmal die Preislatte sehr hoch. Und auch AMD wird hier nicht massiv unter Wert verkaufen. Wie auch Tahiti anfangs, der sich gut über den 580ern orientiert hat. Dann aber die ~500€ Preisklasse gegen den damals schnelleren GK104 abtreten musste.
Ich will damit nicht sagen, das wir Titanpreise sehen werden, aber ne leicht schnellere AMD GPU als die 780er drüfte minimum 500-600€ kosten zu Anfang -> wenn nicht gar was mehr.


Zum letzten. Das definitiv nicht. Aber schau dir doch GK110 an. Allein was die Effizienz angeht... Ich bin der gleichen Meinung, die kochen alle mit dem gleichen Wasser. Und der Fertiger ist auch gleich. Sprich, das ein GK110 Produkt, was nichtmal der 100% Vollausbau ist, derart effizienter ist, als eine Tahiti XT GPU, ist eigentlich ein Unding. Speziell auch von der Warte her, dass AMD sonst seit RV670 in Sachen Effizienz vor den Top NV Produkten agieren konnte. Dies hat sich mit Cayman angedeutet und mit Tahiti sogar zum Umgekehrten gewendet. -> da ist Luft nach oben. Oder aber, GK110 IST der Heilige Gral :fresse:
 
Die Frage ist halt, was hält der 20nm Prozess wirklich?
Ich weis es ehrlich gesagt so nicht abzuschätzen... Denke aber dennoch, das es einen Sprung geben muss... Schaut man sich die 28nm Produkte an, so nähern wir uns mittlerweile wieder der 300W Marke. Was klein angefangen hat, ist mittlerweile wieder 230-250W Verbrauch. Sprich bringt hier 20nm nicht eklatante Verbesserungen, gehts in Sachen GPU Leistung nicht bergauf. Und das kann ich mir ehrlich gesagt so gar nicht vorstellen, das man ne fast vierjahres Nullnummer hinlegen wird.

Was den Zeitpunkt angeht, klar... Schau dir die Meldungen zu den Appleprodukten an, da wird aktuell schon munter mit Prototypen gefertigt, wenn man den Meldungen trauen kann. Das dürfte bei AMD und NV nicht anders sein. Auch gehe ich davon aus, das AMD abermals eher dran sein wird. Denn man nutzt immernoch die ersten und einzigen 28nm Produkte, was man gebracht hat. -> nach nunmehr 1,5 Jahren. Wärend NV nochmal nen größeren Chip im Endkundenmarkt nachgeschoben hat/nachschieben musste.

Thema Verträge, das ist wohl richtig... Wir wissen da so gar nix. Dennoch kann ich mir nur vorstellen, das sich Apple hier vordrängeln kann. Denn laufende Verträge sind laufende Verträge, sicher finden sich Mittel und Wege das irgendwie so oder sorum ein Stück weit hinzubiegen. Aber wenn AMD da Verträge hat, die über die und die Menge Wafer (oder Chips) lauten, dann kann Apple da mit Mrd. $ winken -> Vertrag ist Vertrag ;) Zumindest behaupte ich, sind die Verträge zwischen AMD und TSMC sowie NV und TSMC schon länger in Sack und Tüten als Apple und TSMC ihre. -> Denn die Entwicklung der GPUs benötigte ja genau so Zeit und geschieht zu einem Teil auch mit den Fertigern zusammen.
Vor allem, bedenkt man, das TSMC schon 20nm Testweise in Zeiten um den 28nm Massenfertigungsstart bringen konnte, muss denke ich jemand von AMD und NV schon bei TSMC die Vertraglichkeiten geklärt haben... Zumal es sozusagen fast keine Alternativen gibt, die diese Mengen stemmen können und dazu noch KnowHow mit derartigen Trasistormonstern haben. Es ist also sozusagen vorher schon fast klar, das TSMC da im Boot ist.

Dabei darfst du aber nicht vergessen das es nicht nur einen 20nm Prozess geben wird. Ich denke mal das Apple hier auf die Low-Power Fertigung setzt mit ARM Archi und ein solcher Prozess schneller verfügbar sein könnte als die HP Fertigung. Gab es aus dem Grund nicht auch damals die Gerüchte bei 28nm, das AMD auf den LP Prozess will weil der schneller verfügbar war?!

Was die Verfügbarkeit angeht, alles eine Frage des Preises. Die ersten Tahiti und GK104 GPUs waren ja auch "gut" verfügbar. Zumindest sieht es so aus. Wären die Produkte allerdings 100€+ günstiger gewesen zum Start, hätte das womöglich anders aussehen können. Nur setzt Titan hier zumindest für NV schonmal die Preislatte sehr hoch. Und auch AMD wird hier nicht massiv unter Wert verkaufen. Wie auch Tahiti anfangs, der sich gut über den 580ern orientiert hat. Dann aber die ~500€ Preisklasse gegen den damals schnelleren GK104 abtreten musste.
Ich will damit nicht sagen, das wir Titanpreise sehen werden, aber ne leicht schnellere AMD GPU als die 780er drüfte minimum 500-600€ kosten zu Anfang -> wenn nicht gar was mehr.

Bei nem reinen Papiertiger ist der Preis auch egal :fresse:


Zum letzten. Das definitiv nicht. Aber schau dir doch GK110 an. Allein was die Effizienz angeht... Ich bin der gleichen Meinung, die kochen alle mit dem gleichen Wasser. Und der Fertiger ist auch gleich. Sprich, das ein GK110 Produkt, was nichtmal der 100% Vollausbau ist, derart effizienter ist, als eine Tahiti XT GPU, ist eigentlich ein Unding. Speziell auch von der Warte her, dass AMD sonst seit RV670 in Sachen Effizienz vor den Top NV Produkten agieren konnte. Dies hat sich mit Cayman angedeutet und mit Tahiti sogar zum Umgekehrten gewendet. -> da ist Luft nach oben. Oder aber, GK110 IST der Heilige Gral :fresse:

Ist er das wirklich? Ohne Turbomode, der den Chip im Griff hält sähe es oben rum ganz anders aus. Im Leerlauf haben sie gute Arbeit geleistet, aber da ist AMD auch dabei. Ich denke mal schon das AMD gerade bei der Effizienz wieder auf Augenhöhe kommt. Man muss auch überlegen was AMD mit der 7970 anstellt um auf die Leistung zu kommen. Perf/Trans ist halt recht hoch, das geht nur wenn man irgendwo Abstriche macht. Die 7970 war ja noch auf Augenhöhe beim Verbrauch und Leistung mit der 680.
 
Mhh stimmt, die verschiedenen Prozesse hab ich außer acht gelassen...
Aber gabs denn damals im 28nm Prozess an der Stelle eklatante Unterschiede, was den Zeitpunkt der Massenfertigung anging?
Ich denke, man darf da die "Problemchen" von GloFo nicht auf TSMC anwenden.

Papiertieger, wie gesagt, könnte ja ähnlich Tahiti ausfallen -> Release 2013, Verfügbarkeit dann im Jan. :fresse:

Und ja, GK110 ist wirklich auch ein ganzes Stück effizienter. Das liegt wohl nicht zuletzt auch daran, das AMD den Tahitis von Haus aus ne gute VGPU Spannung mitgibt, die nicht sein hätte müssen. Fraglich ist allerdings, warum man hier nicht analog zum Beispiel R600 einfach stückweise runter geht!? Klar, lässt man den Turbo richtig rennen, gehts auch dort nochmal beim GK110 gut nach oben mit dem Verbrauch. Aber das ist ja dennoch auch verbunden mit Mehrleistung. ~10% sind da allein durch das verstellen der Regler, ganz ohne OC drin.
Traut man den Messungen, so "säuft" eine Tahiti XT GHz GPU gute 250W aus der Dose. Wärend GK110 inkl. angezogener Handbremse auf ~200W bzw. ohne Handbremse auf ~220-230W kommt. (3D Games Load)
Nur ist eben Titan beispielsweise auch mal gute 30% schneller, im vollen Boost sogar nochmal mehr. -> das ist schon ne Hausnummer.
Und GK104 ist auch sehr sehr genügsam mit seinen ~170-180W. Und praktisch auf gleichem Niveau, was die Leistung angeht mit dem Tahiti. Interessanter sind da die Customermodelle vom Tahiti, die es als 1GHz "OC" Karten mit ~200-210W beispielsweise schaffen, auf Titanverbrauchswerten zu kommen, dennoch die Leistung der default GHz Edition ausspucken. Da ist Luft ohne Ende vorhanden.
 
Wenn du sagst das die Chips es eigentlich hergeben scheint die Streuung ziemlich groß zu sein und AMD ist den sicheren Weg gegangen und hat die Spannung hoch angesetzt.

GK110 ist halt verdammt breit im Gegensatz zu Tahiti oder halt GF110. NV hat halt nen kompromiss aus Leistung und Verbrauch gesucht. Vergleicht man ihn dann wieder gegen GF110 ist die Effizienz zwar hui, aber in anbetracht der größe des Chips die Leistung @Stock auch nicht gerade bemerkenswert. Wie du schon sagts, eigentlich läuft er mit angezogener Handbremse, was NV sich erlauben kann weil man einfach genug Optionen mit so nem Monsterchip hatte ohne die Konkurenz fürchten zu müssen.
 
Wenn aber genau das der Weg ist, um die Effizienz weiter zu steigern, das muss da wohl AMD auch dran. -> und die AMD Chips werden ja auch größer, zwar noch nicht so groß wie die von NV, aber immerhin steigert man sich :fresse:
Nur steht wohl der größe Chip auch stark dem gegenüber, das man möglichst zeitig seine Produkte auf den Markt bringt. Denn sowas kann man wohl erst machen, wenn man die Fertigung so halbwegs im Griff hat.

Zum Thema Leistung, also ich denke mal, sowohl AMD als auch NV gehen verstärkt da eher auf den Profimarkt bzw. GPGPU Bereich ein. Klar in Games ist Titan nun grob doppelt so schnell wie Fermi, dafür aber deutlich größer. Im GPGPU Bereich schauts da aber anders aus. Denn hier performt GK110 in Form der K20X schon eine ganze Menge besser als die alten Fermi Teslas. Selbst im Fermi Vollausbau. Speziell was DP Leistung angeht. -> aber auch SP ist stark gestiegen.

Auch ein Problem bei AMD ist ja das FrontEnd von Tahiti beispielsweise, wohingegen die Kepler GPUs ein stark skalierbares FrontEnd mitbringen, ist das AMD Konstrukt eher starr. Zumindest macht es den Eindruck. Auch hier ist Verbesserungspotential.
Nur sehe ich das beim ganzen Potenzial schon fast kritisch, was den Endverbrauch angeht. Denn überall ein wenig mehr "Speed" rausquetschen ist zwar schick, nur heist mehr Auslastung idR auch mehr Verbrauch. Genau das was NV mit dem Boost so intelligent löst aktuell, bei weniger Anforderungen eben auch den Verbrauch zu drücken, wärend AMD aktuell scheinbar den anderen Weg nimmt, und möglichst kompakte Chips für die gleichen Leistungsregionen bringt, die immer stärker Ausgelastet sind, ohne "Luft". Ich will gar nicht wissen, was ein "besseres" FrontEnd bei Tahiti am Ende bedeutet hätte. Womöglich wäre man mit besser ausgelasteten ALUs und allgemein ein Stück weit mehr Performance etwas schneller aufgestellt, hätte im gleichen Atemzug aber noch mehr Last auf den Einheiten und folglich mehr Verbrauch, mehr Hitze und mehr Lautstärke am Kühler.
 
Lustig wärs echt wenn die zu nem vernünftigen Preis nen Klopper bringten würden das Croosfire/ SLI überflüssig wird.
Titanchen war ja echt nix mehr als abzocke. Hoffe das geht nicht so weter wie NV das so gemacht hat. Sicher bin ich mir da aber nicht. 8970 Titan Preis ist sicher drinn. NV hats ja vorgemacht.
 
Zuletzt bearbeitet:
MGPU wird wohl nie mehr vollständig überflüssig werden. Schon allein die Möglichkeit der Mehrleistung wird für einige (wie eben heute auch) der Grund sein, sowas zu nutzen...
Und bis alle Spielereien bedenkenlos auf ner Single GPU einschaltbar sind, ist denke ich noch ein sehr sehr langer weg :fresse: Man bekommt ja sogar ein Quad Titan SLI in die Ecke gefahren, wenn man es drauf anlegt.
Dazu die neuen Konsolen, das wird denke ich nix mit "überflüssig"
 
Ich erinnere mich gelesen zu haben, dass es nur noch einen 20nm Prozess geben wird, nicht 3 (oder 4?) wie bei 28nm.
GK110 kommt ohne Handbremse auf ca. 20W mehr als Tahiti XT, also eher 260W.

Ich bin inzwischen recht sicher, dass wir noch einen 28nm Chip sehen werden von AMD. 7970 GHz +30% scheinen mir machbar zu sein. Verbrauch dürfte zwischen Titan und Titan@max liegen schätze ich, also in etwa selbe Effizienz. Laut dem einen Typ aus dem Anandtechforum hat das schnellste Modell mehr wie 2560 SPs, also womöglich 2688 (Bonaire*3) oder zwecks Symmetrie 2816. Die zweitschnellste SKU sollte 2560 SP haben und angeblich weniger als die 7970 verbrauchen (keine Ahnung ob GHz oder nicht, das hatte ich damals nicht nachgefragt).

Die Frage ist aber dann, ob AMDs Rechnung aufgeht. Maxwell kommt laut zweier Berichte/Aussagen, die ich gelesen habe, früher als gedacht. Laut einem davon auf 20nm, der andere sagte dazu nichts. Damit könnte man AMD 3 Monate nach Launch der Volcanic Islands prima in die Seite fahren. AMD erlegt sich durch einen 28nm Chip Ende Oktober nämlich mehr oder weniger einen Fahrplan für ihren ersten 20nm Chip auf. 6-7 Monate später wird es wohl werden, denn für eine kürzere Marktpräsenz entwickelt man keine GPU, eher für eine längere. Die GTX 780 ist seit Mai am Start, da ist es denkbar, dass Ende Januar, also 7 Monate später, die Ablösung kommen könnte.
 
Zuletzt bearbeitet:
28nm waren wohl 4.

Bei den älteren Roadmaps ist noch von 2 Prozessen die Rede, bei den neueren nurnoch von einem. Ich kanns mir aber eigentlich nur schwer vorstellen das man einen Prozess auf alles optimiert bekommt, gerade weil die Kluft, die Anforderungen und das Volumen bei beiden Prozessen wohl nie so groß waren wie jetzt.
 
GK110 ist halt verdammt breit im Gegensatz zu Tahiti oder halt GF110. NV hat halt nen kompromiss aus Leistung und Verbrauch gesucht. Vergleicht man ihn dann wieder gegen GF110 ist die Effizienz zwar hui, aber in anbetracht der größe des Chips die Leistung @Stock auch nicht gerade bemerkenswert. Wie du schon sagts, eigentlich läuft er mit angezogener Handbremse, was NV sich erlauben kann weil man einfach genug Optionen mit so nem Monsterchip hatte ohne die Konkurenz fürchten zu müssen.

Titan mit 875MHz ist 78% schneller als GTX580 bei 20% geringerem Verbrauch. Die 7970 dagegen nur 48% gegenüber der 6970.
Es ist offensichtlich, dass GK110 ein doppeltes Perf/Watt Verhältnis gegenüber der GTX580 aufweist und somit das maximale aus dem 28nm Prozess herausgeholt hat. Das gilt auch für alle anderen Kepler-Chips von nVidia.
 
Titan hat kaum geringeren Verbrauch unter Last als die 580. Bei PCGH und Computerbase liegt die Differenz bei 3% zu gunsten von Titan. Die knapp 80% Mehrperformance sehen da nicht gerade rosig aus bei 2,4 fachem Transistorcount.

Sicher, Titan ist nicht im Vollausbau, aber selbst wenn er dann auf 100% kommt dürfte sich die Energiebilanz mit allen aktivierten Einheiten auch wieder verschlechtern. Von 40nm zu 28nm waren 70% Mehrperformance drin und die hat NV rausgeholt, wesentlich mehr aber auch nicht.

liegt bei nv nicht noch die 680 dazwischen?

Gleiche Architektur und kein wirklicher Nachfolger von GF110.
 
Zuletzt bearbeitet:
Was ist das wieder für eine Aussage? Wo ist die Titan 78% schneller?

Das gilt auch für alle anderen Kepler-Chips von nVidia
:rolleyes:

Hat man dir bei deiner Geburt irgendwie ne Nvidia Karte über den Schädel gezogen, oder trollst du mit Absicht?
 
Titan hat kaum geringeren Verbrauch unter Last als die 580. Bei PCGH und Computerbase liegt die Differenz bei 3% zu gunsten von Titan. Die knapp 80% Mehrperformance sehen da nicht gerade rosig aus bei 2,4 fachem Transistorcount.

Der Verbrauch ist mit Boost-Takt deutlichst unter der GTX580. Man sollte PCGH hier nicht ernst nehmen, da die wahrscheinlich den Max-Clock verwenden oder aber den Boost-Takt mit einer höheren Spannung verwenden (Festtackern).
Bei Computerbase benötigt Titan mit dem Gesamtsystem deutlich weniger und ist in 1080p 77% schneller. Wir reden hier also weiterhin von eine Verdopplung des Perf/Watt Verhältnisses. Und mit Max-Clock kommt man nahe daran.

Abgesehen davon ist es lächerlich auf das Transistorbudget zu gucken. Das ist nicht der limitierende Faktor sondern die benötigte Energie.

Sicher, Titan ist nicht im Vollausbau, aber selbst wenn er dann auf 100% kommt dürfte sich die Energiebilanz mit allen aktivierten Einheiten auch wieder verschlechtern. Von 40nm zu 28nm waren 70% Mehrperformance drin und die hat NV rausgeholt, wesentlich mehr aber auch nicht.

Das ist jetzt nur noch lächerlich. nVidia holt mehr als doppelt soviel Leistung raus ohne an die 300 Watt zu gehen. Eine Titan mit Max-Clock (~1000MHz) ist doppelt so schnell bei maximal 250 Watt.


Was ist das wieder für eine Aussage? Wo ist die Titan 78% schneller?
Hat man dir bei deiner Geburt irgendwie ne Nvidia Karte über den Schädel gezogen, oder trollst du mit Absicht?

Z.B. bei Computerbase und HT4U und Hardware.fr...
Abgesehen davon: Ist in Ordnung. Ich erwarte nicht, dass Leute im Internet a)lesen, b)verstehen und c)logische Schlussfolgerungen ziehen können. Da lehrte mich die Vergangenheit einfach oft genug, dass Minderintelligenz eben doch stark ausgeprägt ist.
 
Zuletzt bearbeitet:
Der Verbrauch ist mit Boost-Takt deutlichst unter der GTX580. Man sollte PCGH hier nicht ernst nehmen, da die wahrscheinlich den Max-Clock verwenden oder aber den Boost-Takt mit einer höheren Spannung verwenden (Festtackern).
Bei Computerbase benötigt Titan mit dem Gesamtsystem deutlich weniger und ist in 1080p 77% schneller. Wir reden hier also weiterhin von eine Verdopplung des Perf/Watt Verhältnisses. Und mit Max-Clock kommt man nahe daran.

Öhm, nein. Auch bei CB waren es genau 3%.

Abgesehen davon ist es lächerlich auf das Transistorbudget zu gucken. Das ist nicht der limitierende Faktor sondern die benötigte Energie.

Natürlich ist das ein limitierender Faktor. Siehe dazu weiter oben meinen Post zu Tahiti oder schau dir mal GK104 als Vergleich an.


Das ist jetzt nur noch lächerlich. nVidia holt mehr als doppelt soviel Leistung raus ohne an die 300 Watt zu gehen. Eine Titan mit Max-Clock (~1000MHz) ist doppelt so schnell bei maximal 250 Watt.

Das kannst du dir ja jetzt schön rechnen. Fakt bleibt aber nunmal das er bei fast 80% Mehrperformance gleich viel Energie schluckt. Also eben genau das was 28nm hergeben konnte.
 
Ich erinnere mich gelesen zu haben, dass es nur noch einen 20nm Prozess geben wird, nicht 3 (oder 4?) wie bei 28nm.
GK110 kommt ohne Handbremse auf ca. 20W mehr als Tahiti XT, also eher 260W.

Vom Verbrauch her ja, aber Titan ist ja auch wiederum schneller als ein Tahiti XT2.
Allerdings hat ja Tahiti XT nicht nur eine starke Gameperformance vorzuweisen, sondern ist im GPGPU-Bereich dem GK110 haushoch überlegen.
Das vergessen so manche Leute wiederum schnell, weil sie sich eben nicht damit beschäftigen. Wer aber anfängt die GPGPU-Leistung zu nutzen, der kommt an eine HD7970 einfach nicht vorbei.

Das ist ja der eigentlichen Grund warum Keplar deutlich effizienter als Fermi(Thermi) geworden ist. NVIDIA hat die Leistungsaufnahme reduziert, indem sie die GPGPU-Leistung beschnitten haben. Oder irre ich mich da ? Zumindest beim GK104 ist das der Fall. Hätte AMD mit ihrem Tahiti genau das Selbe gemacht, so würde vermutlich ein Gleichstand an Verbrauch und Gameperformance zustande kommen.

Ich bin inzwischen recht sicher, dass wir noch einen 28nm Chip sehen werden von AMD. 7970 GHz +30% scheinen mir machbar zu sein. Verbrauch dürfte zwischen Titan und Titan@max liegen schätze ich, also in etwa selbe Effizienz. Laut dem einen Typ aus dem Anandtechforum hat das schnellste Modell mehr wie 2560 SPs, also womöglich 2688 (Bonaire*3) oder zwecks Symmetrie 2816. Die zweitschnellste SKU sollte 2560 SP haben und angeblich weniger als die 7970 verbrauchen (keine Ahnung ob GHz oder nicht, das hatte ich damals nicht nachgefragt).

Die Frage ist aber dann, ob AMDs Rechnung aufgeht. Maxwell kommt laut zweier Berichte/Aussagen, die ich gelesen habe, früher als gedacht. Laut einem davon auf 20nm, der andere sagte dazu nichts. Damit könnte man AMD 3 Monate nach Launch der Volcanic Islands prima in die Seite fahren. AMD erlegt sich durch einen 28nm Chip Ende Oktober nämlich mehr oder weniger einen Fahrplan für ihren ersten 20nm Chip auf. 6-7 Monate später wird es wohl werden, denn für eine kürzere Marktpräsenz entwickelt man keine GPU, eher für eine längere. Die GTX 780 ist seit Mai am Start, da ist es denkbar, dass Ende Januar, also 7 Monate später, die Ablösung kommen könnte.

Da gibt es so viele Optionen wie Sand am Meer.

Denkbar wäre, das AMD wirklich schon auf 20nm umstellt, aber eben noch nicht diese großen Chips verwendet. Ein Tahiti-Refresh in 20nm und 2560 Shader mit einer Die von rund 200mm² würde so gesehen schon ausreichen um die GTX780/Titan zu erreichen, und gleichzeitig die Fertigung noch im Machbar und bezahlbaren Rahmen zu belassen. AMD könnte ebenfalls 500-600 Euro pro Karte verlangen und hätte es dann NVIDIA mit ihrer GTX680/770 (GK104) gleichgetan.
Gleichzeitig sammeln sie genügend Erfahrung mit dem neuen 20nm Fertigungsverfahren und können dann 12 Monate später die Sau rauslassen. :d

Die Andere Seite ist, was hat AMD in den letzten 2 Jahren alles getan um ihren Tahiti zu verbessern ? Wenn sie mit GCN2.0 wirklich deutliche Verbesserungen in Performance und Effizienz hin bekommen haben, so können sie ihren Refresh auch noch in 28nm fertigen lassen. Vorteil wäre einfach die noch deutlich günstigere und sicherere Produktion in 28nm.

Schlussendlich kommt es einfach auf den Willen von AMD an, was sie ihrem Kunden präsentieren wollen, sprich, was das Marketing entscheidet. 20nm als Prestigeobjekt oder der Tahiti-Refresh als Notnagel raus hauen um noch up to date zu sein ?
Das haben bestimmt schon so einige Leute ausgerechnet und das was am Ende am Besten für AMD ist, wird auch so gemacht.
 
Zuletzt bearbeitet:
AMD wird sicherlich auf 20um setzen, waren schon immer Spitenreiter bei Neuen Fertigungsverfahren und Monate vor der Konkurrenz parat und somit NV ausstechen.
Ein 28nm Refresh wäre schon in etwa zeitgleich mit GTX 780 gekommen,- und dies hat AMD links liegen lassen.
Man konzentiert sich auf die Konsolen und den Neuen Fertigungsprozess.
 
Auf die neuen Konsolen mit Sicherheit. Keine Frage.
Aber im Fertigungsverfahren nicht unbedingt, wenn es nicht nötig ist.

NVIDIA hat ja mit der 700er-Serie eigentlich nur 1 Karte gebracht, die neu ist. Wobei neu nicht ganz stimmt. Besteht die einzige abweichende Karte nur aus Ausschussteilen ihrer Titan. Alle anderen Karten sind alt geblieben nur unter neuem Namen vertrieben. Ein Refresh würde ich das eher nicht nennen, sondern nur eine Produktpflege. Da muss AMD nicht sofort kontern.
 
Zuletzt bearbeitet:
Also Leute, kommt schon. Jeder rational denkende Mensch erkennt auf Anhieb, dass die Angaben von GPUBoss wohl Quark sind.
Erste Spekulationen über den Hawaii klangen ganz ähnlich... und die Angabe, einen Titan mit Leichtigkeit schlagen zu können, legt Bauerfängerei nah.
Klingt doch viel zu gut um wahr zu sein ;)
 
Öhm, nein. Auch bei CB waren es genau 3%.

Ehrlich, du vergleichst hier das Gesamtsystem. Da sind 3% auch schonmal 13 Watt. Daneben gibt es bei CB.de auch noch Werte von Alan Wake 15% bzw. 53 Watt und BF3 mit 10% bzw. 33 Watt weniger. Ein Gesamtsystem mit Titan muss also viel mehr leisten und erreicht gleichzeitig einen deutlich geringeren Verbrauch. Titan kann also garnicht vom Verbrauch auf dem Niveau der GTX580 liegen, da das Gesamtsystem danach auch höher liegen müsste.

Natürlich ist das ein limitierender Faktor. Siehe dazu weiter oben meinen Post zu Tahiti oder schau dir mal GK104 als Vergleich an.

Was soll ich hier anschauen? Das man maximal 250 Watt verwenden will? Das man Leistung nur durch mehr Einheiten steigern kann?
Perf/Watt von Titan ist z.B. besser als bei der GTX680. Und das alleinig, weil Titan für die Leistung weniger Spannung benötigt als die GTX680. Die Leistung von Titan ist nur durch ein deutlich größeres Transistorenbudget möglich. Ansonsten rennt man in die Clockwall vom Prozess. Und das endet dann wie bei der 7970GHz, die für 1050MHz dann gleich mal zwischen 1,175V - 1,25V benöntigt.

Das kannst du dir ja jetzt schön rechnen. Fakt bleibt aber nunmal das er bei fast 80% Mehrperformance gleich viel Energie schluckt. Also eben genau das was 28nm hergeben konnte.

Sry, aber wenn du das weiterhin glaubst, solltest du dich bitte erstmal erkundigen und dich informieren. Die Realität habe ich dir gezeigt.
 
Denkbar wäre, das AMD wirklich schon auf 20nm umstellt, aber eben noch nicht diese großen Chips verwendet. Ein Tahiti-Refresh in 20nm und 2560 Shader mit einer Die von rund 200mm² würde so gesehen schon ausreichen um die GTX780/Titan zu erreichen, und gleichzeitig die Fertigung noch im Machbar und bezahlbaren Rahmen zu belassen. AMD könnte ebenfalls 500-600 Euro pro Karte verlangen und hätte es dann NVIDIA mit ihrer GTX680/770 (GK104) gleichgetan.

Tahiti für 20nm anzupassen und dann noch den Chip um zu designen dürfte sich nicht lohnen wenn man die nächste Architektur bereits in der Tasche hätte. Außerdem dürfte eine solche Performance wieder auf kosten der Leistungsaufnahme gehen, die dann bei 200mm² kaum sinken dürfte.
 
Abgesehen davon: Ist in Ordnung. Ich erwarte nicht, dass Leute im Internet a)lesen, b)verstehen und c)logische Schlussfolgerungen ziehen können. Da lehrte mich die Vergangenheit einfach oft genug, dass Minderintelligenz eben doch stark ausgeprägt ist.

Wenn ich so unobjektiv wie du wäre würde ich nicht mit begriffen wie "Minderintelligenz" um mich werfen ;)

Auf die eigentlich Frage hast du auch nicht geantwortet, aber was solls :rolleyes:
 
Wenn ich so unobjektiv wie du wäre würde ich nicht mit begriffen wie "Minderintelligenz" um mich werfen ;)

Auf die eigentlich Frage hast du auch nicht geantwortet, aber was solls :rolleyes:

So, ich gebe die Seiten an, die genau das Ergebnis zeigen und du meinst "Auf die eigentlich Frage hast du auch nicht geantwortet"?!
Ich kann also davon ausgehen, dass du nicht in der Lage bist Postings zu verstehen*. Hier möchte ich dann doch gerne mal wissen, wieso man sich dann in einem Internetforum anmeldet, wo man zu allererst die Fähigkeit besitzen sollte Postings verstehen zu können. Wäre echt cool, wenn ich von einem lebenen Objekt mal eine Erklärung zu solchen einem Verhalten erfahren kann.

*
Titan mit 875MHz ist 78% schneller als [die] GTX580 bei [einem] 20% geringere[n] Verbrauch.
 
Ehrlich, du vergleichst hier das Gesamtsystem. Da sind 3% auch schonmal 13 Watt. Daneben gibt es bei CB.de auch noch Werte von Alan Wake 15% bzw. 53 Watt und BF3 mit 10% bzw. 33 Watt weniger. Ein Gesamtsystem mit Titan muss also viel mehr leisten und erreicht gleichzeitig einen deutlich geringeren Verbrauch. Titan kann also garnicht vom Verbrauch auf dem Niveau der GTX580 liegen, da das Gesamtsystem danach auch höher liegen müsste.

Das nunmal so gemessen wird weil es für die Tester einfach umzusetzen ist, ist ja nicht mein Verschulden. Bei Alan Wake rutscht der Vorsprung bei der Performance auf rund 60% ab, frist also den minderverbrauch auch wieder auf. Battlefield 3 dagegen ist wirklich nen positives Beispiel, aber das ist nunmal nicht konstant.


Was soll ich hier anschauen? Das man maximal 250 Watt verwenden will? Das man Leistung nur durch mehr Einheiten steigern kann?
Perf/Watt von Titan ist z.B. besser als bei der GTX680. Und das alleinig, weil Titan für die Leistung weniger Spannung benötigt als die GTX680. Die Leistung von Titan ist nur durch ein deutlich größeres Transistorenbudget möglich. Ansonsten rennt man in die Clockwall vom Prozess. Und das endet dann wie bei der 7970GHz, die für 1050MHz dann gleich mal zwischen 1,175V - 1,25V benöntigt.

Also doch das Transistorbudget... :rolleyes:


Sry, aber wenn du das weiterhin glaubst, solltest du dich bitte erstmal erkundigen und dich informieren. Die Realität habe ich dir gezeigt.

Dann zeig mir doch mal ne reine Messung der Leistungsaufnahme an der Graka, irgendwo musst du deine Infos ja her haben...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh