8192GFLOPS wer's glaubt
Und hardwareluxx fällt sogar drauf rein:
Und hardwareluxx fällt sogar drauf rein:
[...] etwa 8,1 TFlop/s erreichen.
Zuletzt bearbeitet:
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
[...] etwa 8,1 TFlop/s erreichen.
du quatschst ein blech hey ... aber anderes ist man von dir ja nicht gewohnt ...
Im Moment ist klar das 20nm bei TSMC wohl nicht so gut performen wird wie angenommen. Entscheidende Technologien wie Multigate Transitoren usw kommen bei TSMC afaik wohl erst später. Die 70%, die man bei gleicher Diesize normalerweise mit einem Shrink angibt, sind damit nicht wirklich haltbar (Auch wenns quasi nen Sprung von Half-Node zu Half-Node ist).
Bei gleicher Diesize wären vielleicht 25-50% realistisch, aber auch nur in 20nm. Beide Chips in 28nm dürfte nicht soviel trennen, vielleicht 10-20% bei gleicher Diesize, Ausbrecher nach oben und unten mal ausgenommen.
Gibts da Meldungen drüber?
Ich mein, vor noch ein paar Monaten fanden sich News, das TSMC mit 20nm gut im Plan liegt, teils gar vor den Erwartungen ist...
IC makers that moved from 40nm to 28nm have experienced a 35% average increase in speed and a 40% power reduction, said Jack Sun, vice president of R&D and chief technology officer at TSMC. In comparison, IC vendors that will move from 28nm to 20nm planar are expected to see a 15% increase in speed and 20% less power, Sun said.
Ich denke mittlerweile (nach der HD7970), das ein 20nm Produkt als halber Papiertieger gegen Weihnachten durchaus drin sein könnte. Denn bei der HD7970 ging man auch ein paar Wochen vorher noch von aus, das da noch keine Massen 28nm Fertigung drin wäre.
Auch die Apple Prozessoren in 20nm sollen wohl gegen Dez. 2013 in Massenproduktion vom Band laufen. -> es ist also nicht auszuschließen, das da auch ein paar Wafer von AMD geordert sind. Und auch NV wird sich mit größter Warscheinlichkeit nicht ganz hinten anstellen wollen. Noch dazu glaube ich ehrlich gesagt nicht, das sich Apple hier einfach so "vordrängeln" kann, wie es von manchen scheinbar angenommen wird. Denn die Verträge mit Apple scheinen gerade mal ein paar Wochen alt, wären dich stark davon ausgehe, das Verträge mit AMD und NV für 20nm Produkte schon deutlich eher geschlossen worden.
Die Frage ist halt, ist es das Big Schiff, oder ist es ein kleinerer Ableger... Und ob AMD die "Schwächen" der Tahiti GPUs gegenüber Kepler angeht und an der Effizienzschraube kräftig drehen kann. -> dann sind auch mehr wie 50% drin, gehe ich davon aus.
Gemessen an der Rohperformance bleibt bei AMD ja immernoch etwas mehr Leistung auf dem Papier, als am Schirm ankommt.
Die Frage ist halt, was hält der 20nm Prozess wirklich?
Ich weis es ehrlich gesagt so nicht abzuschätzen... Denke aber dennoch, das es einen Sprung geben muss... Schaut man sich die 28nm Produkte an, so nähern wir uns mittlerweile wieder der 300W Marke. Was klein angefangen hat, ist mittlerweile wieder 230-250W Verbrauch. Sprich bringt hier 20nm nicht eklatante Verbesserungen, gehts in Sachen GPU Leistung nicht bergauf. Und das kann ich mir ehrlich gesagt so gar nicht vorstellen, das man ne fast vierjahres Nullnummer hinlegen wird.
Was den Zeitpunkt angeht, klar... Schau dir die Meldungen zu den Appleprodukten an, da wird aktuell schon munter mit Prototypen gefertigt, wenn man den Meldungen trauen kann. Das dürfte bei AMD und NV nicht anders sein. Auch gehe ich davon aus, das AMD abermals eher dran sein wird. Denn man nutzt immernoch die ersten und einzigen 28nm Produkte, was man gebracht hat. -> nach nunmehr 1,5 Jahren. Wärend NV nochmal nen größeren Chip im Endkundenmarkt nachgeschoben hat/nachschieben musste.
Thema Verträge, das ist wohl richtig... Wir wissen da so gar nix. Dennoch kann ich mir nur vorstellen, das sich Apple hier vordrängeln kann. Denn laufende Verträge sind laufende Verträge, sicher finden sich Mittel und Wege das irgendwie so oder sorum ein Stück weit hinzubiegen. Aber wenn AMD da Verträge hat, die über die und die Menge Wafer (oder Chips) lauten, dann kann Apple da mit Mrd. $ winken -> Vertrag ist Vertrag Zumindest behaupte ich, sind die Verträge zwischen AMD und TSMC sowie NV und TSMC schon länger in Sack und Tüten als Apple und TSMC ihre. -> Denn die Entwicklung der GPUs benötigte ja genau so Zeit und geschieht zu einem Teil auch mit den Fertigern zusammen.
Vor allem, bedenkt man, das TSMC schon 20nm Testweise in Zeiten um den 28nm Massenfertigungsstart bringen konnte, muss denke ich jemand von AMD und NV schon bei TSMC die Vertraglichkeiten geklärt haben... Zumal es sozusagen fast keine Alternativen gibt, die diese Mengen stemmen können und dazu noch KnowHow mit derartigen Trasistormonstern haben. Es ist also sozusagen vorher schon fast klar, das TSMC da im Boot ist.
Was die Verfügbarkeit angeht, alles eine Frage des Preises. Die ersten Tahiti und GK104 GPUs waren ja auch "gut" verfügbar. Zumindest sieht es so aus. Wären die Produkte allerdings 100€+ günstiger gewesen zum Start, hätte das womöglich anders aussehen können. Nur setzt Titan hier zumindest für NV schonmal die Preislatte sehr hoch. Und auch AMD wird hier nicht massiv unter Wert verkaufen. Wie auch Tahiti anfangs, der sich gut über den 580ern orientiert hat. Dann aber die ~500€ Preisklasse gegen den damals schnelleren GK104 abtreten musste.
Ich will damit nicht sagen, das wir Titanpreise sehen werden, aber ne leicht schnellere AMD GPU als die 780er drüfte minimum 500-600€ kosten zu Anfang -> wenn nicht gar was mehr.
Zum letzten. Das definitiv nicht. Aber schau dir doch GK110 an. Allein was die Effizienz angeht... Ich bin der gleichen Meinung, die kochen alle mit dem gleichen Wasser. Und der Fertiger ist auch gleich. Sprich, das ein GK110 Produkt, was nichtmal der 100% Vollausbau ist, derart effizienter ist, als eine Tahiti XT GPU, ist eigentlich ein Unding. Speziell auch von der Warte her, dass AMD sonst seit RV670 in Sachen Effizienz vor den Top NV Produkten agieren konnte. Dies hat sich mit Cayman angedeutet und mit Tahiti sogar zum Umgekehrten gewendet. -> da ist Luft nach oben. Oder aber, GK110 IST der Heilige Gral
GK110 ist halt verdammt breit im Gegensatz zu Tahiti oder halt GF110. NV hat halt nen kompromiss aus Leistung und Verbrauch gesucht. Vergleicht man ihn dann wieder gegen GF110 ist die Effizienz zwar hui, aber in anbetracht der größe des Chips die Leistung @Stock auch nicht gerade bemerkenswert. Wie du schon sagts, eigentlich läuft er mit angezogener Handbremse, was NV sich erlauben kann weil man einfach genug Optionen mit so nem Monsterchip hatte ohne die Konkurenz fürchten zu müssen.
Titan mit 875MHz ist 78% schneller als GTX580 bei 20% geringerem Verbrauch. Die 7970 dagegen nur 48% gegenüber der 6970.
.
liegt bei nv nicht noch die 680 dazwischen?
Das gilt auch für alle anderen Kepler-Chips von nVidia
Titan hat kaum geringeren Verbrauch unter Last als die 580. Bei PCGH und Computerbase liegt die Differenz bei 3% zu gunsten von Titan. Die knapp 80% Mehrperformance sehen da nicht gerade rosig aus bei 2,4 fachem Transistorcount.
Sicher, Titan ist nicht im Vollausbau, aber selbst wenn er dann auf 100% kommt dürfte sich die Energiebilanz mit allen aktivierten Einheiten auch wieder verschlechtern. Von 40nm zu 28nm waren 70% Mehrperformance drin und die hat NV rausgeholt, wesentlich mehr aber auch nicht.
Was ist das wieder für eine Aussage? Wo ist die Titan 78% schneller?
Hat man dir bei deiner Geburt irgendwie ne Nvidia Karte über den Schädel gezogen, oder trollst du mit Absicht?
Der Verbrauch ist mit Boost-Takt deutlichst unter der GTX580. Man sollte PCGH hier nicht ernst nehmen, da die wahrscheinlich den Max-Clock verwenden oder aber den Boost-Takt mit einer höheren Spannung verwenden (Festtackern).
Bei Computerbase benötigt Titan mit dem Gesamtsystem deutlich weniger und ist in 1080p 77% schneller. Wir reden hier also weiterhin von eine Verdopplung des Perf/Watt Verhältnisses. Und mit Max-Clock kommt man nahe daran.
Abgesehen davon ist es lächerlich auf das Transistorbudget zu gucken. Das ist nicht der limitierende Faktor sondern die benötigte Energie.
Das ist jetzt nur noch lächerlich. nVidia holt mehr als doppelt soviel Leistung raus ohne an die 300 Watt zu gehen. Eine Titan mit Max-Clock (~1000MHz) ist doppelt so schnell bei maximal 250 Watt.
Ich erinnere mich gelesen zu haben, dass es nur noch einen 20nm Prozess geben wird, nicht 3 (oder 4?) wie bei 28nm.
GK110 kommt ohne Handbremse auf ca. 20W mehr als Tahiti XT, also eher 260W.
Ich bin inzwischen recht sicher, dass wir noch einen 28nm Chip sehen werden von AMD. 7970 GHz +30% scheinen mir machbar zu sein. Verbrauch dürfte zwischen Titan und Titan@max liegen schätze ich, also in etwa selbe Effizienz. Laut dem einen Typ aus dem Anandtechforum hat das schnellste Modell mehr wie 2560 SPs, also womöglich 2688 (Bonaire*3) oder zwecks Symmetrie 2816. Die zweitschnellste SKU sollte 2560 SP haben und angeblich weniger als die 7970 verbrauchen (keine Ahnung ob GHz oder nicht, das hatte ich damals nicht nachgefragt).
Die Frage ist aber dann, ob AMDs Rechnung aufgeht. Maxwell kommt laut zweier Berichte/Aussagen, die ich gelesen habe, früher als gedacht. Laut einem davon auf 20nm, der andere sagte dazu nichts. Damit könnte man AMD 3 Monate nach Launch der Volcanic Islands prima in die Seite fahren. AMD erlegt sich durch einen 28nm Chip Ende Oktober nämlich mehr oder weniger einen Fahrplan für ihren ersten 20nm Chip auf. 6-7 Monate später wird es wohl werden, denn für eine kürzere Marktpräsenz entwickelt man keine GPU, eher für eine längere. Die GTX 780 ist seit Mai am Start, da ist es denkbar, dass Ende Januar, also 7 Monate später, die Ablösung kommen könnte.
Öhm, nein. Auch bei CB waren es genau 3%.
Natürlich ist das ein limitierender Faktor. Siehe dazu weiter oben meinen Post zu Tahiti oder schau dir mal GK104 als Vergleich an.
Das kannst du dir ja jetzt schön rechnen. Fakt bleibt aber nunmal das er bei fast 80% Mehrperformance gleich viel Energie schluckt. Also eben genau das was 28nm hergeben konnte.
Denkbar wäre, das AMD wirklich schon auf 20nm umstellt, aber eben noch nicht diese großen Chips verwendet. Ein Tahiti-Refresh in 20nm und 2560 Shader mit einer Die von rund 200mm² würde so gesehen schon ausreichen um die GTX780/Titan zu erreichen, und gleichzeitig die Fertigung noch im Machbar und bezahlbaren Rahmen zu belassen. AMD könnte ebenfalls 500-600 Euro pro Karte verlangen und hätte es dann NVIDIA mit ihrer GTX680/770 (GK104) gleichgetan.
Abgesehen davon: Ist in Ordnung. Ich erwarte nicht, dass Leute im Internet a)lesen, b)verstehen und c)logische Schlussfolgerungen ziehen können. Da lehrte mich die Vergangenheit einfach oft genug, dass Minderintelligenz eben doch stark ausgeprägt ist.
Wenn ich so unobjektiv wie du wäre würde ich nicht mit begriffen wie "Minderintelligenz" um mich werfen
Wenn ich so unobjektiv wie du wäre würde ich nicht mit begriffen wie "Minderintelligenz" um mich werfen
Auf die eigentlich Frage hast du auch nicht geantwortet, aber was solls
Titan mit 875MHz ist 78% schneller als [die] GTX580 bei [einem] 20% geringere[n] Verbrauch.
Ehrlich, du vergleichst hier das Gesamtsystem. Da sind 3% auch schonmal 13 Watt. Daneben gibt es bei CB.de auch noch Werte von Alan Wake 15% bzw. 53 Watt und BF3 mit 10% bzw. 33 Watt weniger. Ein Gesamtsystem mit Titan muss also viel mehr leisten und erreicht gleichzeitig einen deutlich geringeren Verbrauch. Titan kann also garnicht vom Verbrauch auf dem Niveau der GTX580 liegen, da das Gesamtsystem danach auch höher liegen müsste.
Was soll ich hier anschauen? Das man maximal 250 Watt verwenden will? Das man Leistung nur durch mehr Einheiten steigern kann?
Perf/Watt von Titan ist z.B. besser als bei der GTX680. Und das alleinig, weil Titan für die Leistung weniger Spannung benötigt als die GTX680. Die Leistung von Titan ist nur durch ein deutlich größeres Transistorenbudget möglich. Ansonsten rennt man in die Clockwall vom Prozess. Und das endet dann wie bei der 7970GHz, die für 1050MHz dann gleich mal zwischen 1,175V - 1,25V benöntigt.
Sry, aber wenn du das weiterhin glaubst, solltest du dich bitte erstmal erkundigen und dich informieren. Die Realität habe ich dir gezeigt.