Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Mit zum Kepler Release erscheinenden AMD Grafiktreiber wird es wohl ein Kopf an Kopf Rennen zwischen HD7950 und GF104 werden.
Die HD7970 sehe damit dennoch 10-15% vor GF104.
GK104 670TI dual DVI + HDMI + DP interface, dual-6P-powered turbine radiator
Performance lagged behind the 7970 5%
And "680" has the same number of SP
Broke the news: 40% performance increase through the brush bios (As for you Believe it or not anyway, I believe)
Mit zum Kepler Release erscheinenden AMD Grafiktreiber wird es wohl ein Kopf an Kopf Rennen zwischen HD7950 und GF104 werden.
Die HD7970 sehe damit dennoch 10-15% vor GF104.
Here to entertain small comment, I could not help it. When we show performance of "A" against the 7970-X Mr. Nobody was surprised when he said the frequency and overclocking, orosilo his forehead. As further shown new features, made a really faint ... but when he finally said the number of transistors and the chip size, he fainted and had to wake up ... his world collapsed.
Soon we will laugh at these idiots: DOC Zenith (všeználek you never know nothing), maltra (poor monkey who laugh at the most), of course Kratěna, StacHUJ (also the chance to taste) and other cyhtrolíni which zmehne soon enough ... I have backed up all their wisdom for future amusement, and it will come soon ..
Zde malá glosa pro pobavení, nemohl jsem si pomoct. Když nám ukázali výkon "K" proti 7970 tak panu Nobody-X zaskočilo
http://www.nvnews.net/vbulletin/showpost.php?p=2535011&postcount=95PHK got the first benchmark numbers in for 3DMark11 confirmed GTX 680 will be faster than Radeon HD 7970.
680-> X3200~3300
(7970)-> X2700~2800
670Ti -> X2500~2600
(7950) -> X2200~2300
Und 680 kommt nun doch im März mit der 670 zusammen?
GK110 aber wahrscheinlich nicht, was ne Sauerei ist.
Nun, ich denke viele scheinen hier eins zu vergessen:
High-End ist Leistung nicht mm^2. Wenn GK104 angeblich 128TMUs, 1536Cores@Hotclock, effizienteres Speicherinterface hat, dann ist dies eine Kombination, die High-End schreit.
Guckt man sich den Floor-Plan an, dann können 32SM je 48Cores vorhanden sein. Das wäre doppelt soviel zur GTX580.
Imo ist GK104 = BigK und damit High-End. Leistungssteigerung? 60%+ gegenüber der GTX580 können hinhauen.
10% schneller als die 7970 bei kleinerem Die und weniger Verbrauch wäre eine kleine Revolution. Das muss man sich mal auf der Zunge zergehen lassen: Kleineres Die und weniger Verbrauch...von Nvidia
Abwarten
Der kleinere DIE scheint ja mittlerweile quasi sicher zu sein. Wenn auch nur minimal. So ganz verwunderlich wäre das aber auch nicht. Tahiti fährt in Games ihre ALUs auf Sparflamme, warum, weis keiner so genau... Scheint an anderen Stellen zu limitieren. GK104 könnte es hier besser machen. Und bringt dazu ja auch den größen Vorteil in Sachen Speicherausbau mit. Das SI scheint ja 50% größer bei Tahiti zu sein. Das kost auch Platz...
Aber sei es drum. In Sachen Performance scheint selbst jetzt zwei Tage von dem 12.3. nicht wirklich was handfestes sichtbar zu sein. Mal spekuliert man auf Tahiti Leistung, mal drüber, mal drunter...
Selbst die Aussagen im 3DCenter sollten mit Vorsicht genossen werden... Da dort vor zwei Monaten noch Dinge gesagt wurden, welche so nun wohl doch nicht kommen... Und es absolut auszuschließen ist, das man die Karte dahingehend nochmal umgebaut hat.
Ich schrieb ja "wäre". Ich kann mir vorstellen, dass Nvidia die Midrangewurzeln ignoriert, die TDP höher setzt (195W wird gemunkelt), um doch das Schnellste zu haben. Wäre auch untypisch für die Grünen, auch wenn man besser dasteht als erwartet, bedeutet das, dass man sich mit einem neuen Gegner messen muss (Tahiti statt Pitcairn). Rein psychologisch gesehen ist das schlecht, denn die Leute werden nicht sagen "wow, ihr seid so effizient und schneller wie Pitcairn" sondern "meh, ihr schlagt ja nichtmal Tahiti XT". Egal was die Pläne waren/sind, so würde es sicher von der Mehrheit aufgenommen werden.
Ich schrieb ja "wäre". Ich kann mir vorstellen, dass Nvidia die Midrangewurzeln ignoriert, die TDP höher setzt (195W wird gemunkelt), um doch das Schnellste zu haben. Wäre auch untypisch für die Grünen, auch wenn man besser dasteht als erwartet, bedeutet das, dass man sich mit einem neuen Gegner messen muss (Tahiti statt Pitcairn). Rein psychologisch gesehen ist das schlecht, denn die Leute werden nicht sagen "wow, ihr seid so effizient und schneller wie Pitcairn" sondern "meh, ihr schlagt ja nichtmal Tahiti XT". Egal was die Pläne waren/sind, so würde es sicher von der Mehrheit aufgenommen werden.
Tahiti limitiert einfach das Front-End. Das ist aber bekannt. Deswegen liegen Cape Verde und Pitcairn sogut und auch die kleinen 40nm Chips konnten so gut mit GF108 und GF106 mithalten.
fdsonne schrieb:Woher stammt die Infos mit dem Frontend?
Nun ja, Performance ist aber immer noch anhand von mm^2 bewertbar. Wie soll es denn möglich sein, die Fläche auf etwa 60% zu verringern und gleichzeitig die Anzahl der Shader zu verdreifachen, obwohl lediglich ein Full-Node Shrink dazwischen liegt, was die Anzahl der Transistoren bei gleicher Fläche theoretisch verdoppelt? Also an Wunder glaube ich nicht. Entweder stimmt die Anzahl der Shader schlichtweg nicht oder man hat sie deutlich entschlackt, samt Pipeline. Das klingt dann sehr nach AMDs Architektur, mehr Shader, kürzere Pipeline, geringerer Takt. Da würde dann auch der Wegfall der Hotclocks Sinn ergeben.Nun, ich denke viele scheinen hier eins zu vergessen:
High-End ist Leistung nicht mm^2. Wenn GK104 angeblich 128TMUs, 1536Cores@Hotclock, effizienteres Speicherinterface hat, dann ist dies eine Kombination, die High-End schreit.
Guckt man sich den Floor-Plan an, dann können 32SM je 48Cores vorhanden sein. Das wäre doppelt soviel zur GTX580.
Imo ist GK104 = BigK und damit High-End. Leistungssteigerung? 60%+ gegenüber der GTX580 können hinhauen.
Allerdings waren die Unterschiede zwischen R600 und RV770 teils noch gravierender. Da wurde zB das Speicherinterface halbiert. Von GF110 auf GK104 fällt wohl ein Drittel weg. Und, AMD hatte beim RV770 enorme Packdichten für den 55 nm TSMC Prozess erreicht. RV670: ~3,47 Mio Transistoren/mm^2, RV770: ~3,73 Mio Transistoren/mm^2. Immerhin war der Prozess zu dem Zeitpunkt auch schon gereift. Ähnliches ist für die 28 nm TSMC Fertigung momentan eher fragwürdig.Oder es handelt sich bei GK104 um den High-End Chip. AMD hat das selbe mit rv770 geschafft, wenn man diesen mit r600 vergleicht. Deutlich kleiner und eine 2,5 fache Erhöhung der Ausführungseinheiten bei ähnlicher Bandbreite.
GK104 klingt für mich eigentlich nach ~GF110, nur halt auf geringerer Fläche und mit weniger Energie. 60%+ Performance gegenüber der GTX 580 und gleichzeitig ein Drittel weniger Leistungsaufnahme halte ich für pure Träumerei.
is doch schon länger drin und lässt sich mit dem nVidia Inspector einstellen.BTW: Ein integrierter fps-Limiter im Treiber finde ich persönlich eine klasse Idee ! Ich hoffe dass das wirklich so kommt...
Da hast du natürlich recht... Wobei sich NV, sollte das mit dem Namen stimmen, in dem Fall selbst ein Bein stellt... Hätten die das Teil doch 660TI oder sowas genannt... Dann wäre zumindest nach jüngstem Namensschema klar zu sehen gewesen, um was es sich bei der Karte handelt.
NV (typisch könnte man sogar sagen) will man aber mehr und stellt das Teil womöglich als 680er auf die Bahn.
es kommt aber nicht nur eine 6xxer also wenn die 680 -> 660ti heißen sollte was ist dann 670 ... ? man kann einfach mehr eindruck schinden mit 680 und mehr geld verlangen! Guck dir dochmal an wie die leute bei amd am rumheulen sind, so wie die Preise momentarn sind. 660ti für über 400€ ... das passt doch irgendwie dann auch nicht
Nun ja, dass man den Rückstand der letzten Generation bezüglich Flächen- und Energieeffizienz plötzlich in einen vergleichbar grossen Vorsprung umwandelt, klingt für mich aber nicht sonderlich realistisch. Nvidia sollte erstmal zeigen, dass sie mit dem GK104 die Performance des GF110 erreichen mit 30-40% weniger Silizium und Energie. Das halte ich schon für ein recht ambitioniertes Ziel, wenn auch sicherlich nicht unrealistisch.Es wäre also in meinen Augen nicht ganz verdenkbar, das man seitens NV hier in Sachen Effizienz (Leistung pro Watt) einen riesigen Schritt vorran geht.
Nun ja, dass man den Rückstand der letzten Generation bezüglich Flächen- und Energieeffizienz plötzlich in einen vergleichbar grossen Vorsprung umwandelt, klingt für mich aber nicht sonderlich realistisch. Nvidia sollte erstmal zeigen, dass sie mit dem GK104 die Performance des GF110 erreichen mit 30-40% weniger Silizium und Energie. Das halte ich schon für ein recht ambitioniertes Ziel, wenn auch sicherlich nicht unrealistisch.
Nun ja sonne, 2 Wochen vor G80 Release wurde in "Fachkreisen" heiß diskutiert, ob der Chip überhaupt Unified Shader Architecture hat.
Da hatte keiner infos.
Allein daran würde ich es jedenfalls nicht festmachen
Nun ja, dass man den Rückstand der letzten Generation bezüglich Flächen- und Energieeffizienz plötzlich in einen vergleichbar grossen Vorsprung umwandelt, klingt für mich aber nicht sonderlich realistisch. Nvidia sollte erstmal zeigen, dass sie mit dem GK104 die Performance des GF110 erreichen mit 30-40% weniger Silizium und Energie. Das halte ich schon für ein recht ambitioniertes Ziel, wenn auch sicherlich nicht unrealistisch.