nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Bei ATi ja nicht nötig denn das Speichermanagement is ja besser als bei nV, aber wenn nV nichts dran verändert hat dann müssten es schon 512 Bit sein ;)

Die Busbreite hat mit dem "Management" nichts zu tun, einzig und allein mit dem Datendurchsatz.
NVidia muss erstmal GAR NIX machen. Solange das Ding mehr Rohpower hat, wars das zum 1. und 2. Bandbreite war bei 280/285 sowieso schon höher als bei 4870/4890. Das Bandbreitenproblem ist seit GF5-6 von NVidia gut unter Kontrolle.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die Busbreite hat mit dem "Management" nichts zu tun, einzig und allein mit dem Datendurchsatz.
NVidia muss erstmal GAR NIX machen. Solange das Ding mehr Rohpower hat, wars das zum 1. und 2. Bandbreite war bei 280/285 sowieso schon höher als bei 4870/4890. Das Bandbreitenproblem ist seit GF5-6 von NVidia gut unter Kontrolle.

Wobei dir Bandbreite auch nicht wirklich viel bringt, wenn dein Speicher dauernd überläuft/nicht geleert wird...
 
das interessanteste finde ich ist das :

so soll der Chip die größte Änderung an der GPU-Architektur seit dem G80 mit sich bringen und schneller als die neue Cypress-GPU von Konkurrent AMD werden, allerdings auch größer. Laut Fudzilla sei auch eine Dual-GPU-Version geplant.
 
... und schneller als die neue Cypress-GPU von Konkurrent AMD werden, allerdings auch größer. Laut Fudzilla sei auch eine Dual-GPU-Version geplant.

lol - das will ich stark hoffen. Die Cypress sind die 5870 und x2. Wie das aber jetzt klingt wäre sie gar schneller als die x2...das wäre der HAMMER :eek: Performant genug wäre sie mir schon wenn sie an der Leistung der x2 schnuppert. Ich denke aber auch, dass es nicht mehr werden wird.

schon komisch, vor ein paar Wochen dachte ich GPU Power wäre das Einzige was mich derzeit ausbremst. Das die neue Generation gleich solch einen Meilenstein legt ist echt krass. Da kommt man ja schonwieder auf den Gedanken das Grundgerüst zu tauschen :fresse:...und alles nur für Games die man an einer Hand abzählen kann die die Power benötigen um anständig zocken zu können. Für alles Andere ist die Karte dann wohl schon overkill bei 1920x1200. Und wer kauft sich mal eben nen 30" oder gleich mehrere um eyefinity ausleben zu können:rolleyes:. BTW. gibts das nu auch bei nvidia?

So, dann hätte ich noch ne Frage...evtl falscher Thread, aber ich wollte nu gerne wissen ob die Tesselation die es bei den 5xxxern gibt Hardwareseitig, Treiber oder Spieleabhängig ist (DX11). Beim letzteren Punkt dürfte nVidia das dann ja auch beherbergen...tapse da gerade noch ein wenig im dunklen
 
Hmm, denke mal das ne Dual-Version erst mit PCIe 3.0 kommt sonst steckt man in der selben Misere wie ATI es vermutlich mit der X2 erleben wird.
 
Hallo Leute,

ich bin ja auch recht euphorisch, was den G300 betrifft. Aber wir sollten die Erwartungen vielleicht doch etwas zurück schrauben, sonst ist die Enttäuschung am Ende (ungerechtfertigt) groß. Der G300 muss seine theoretische Leistung erstmal in Spieleleistung umsetzen. Sollte er das allerdings schaffen, dann geht die Post ab!

ciao Tom
 
lol - das will ich stark hoffen. Die Cypress sind die 5870 und x2. Wie das aber jetzt klingt wäre sie gar schneller als die x2...das wäre der HAMMER :eek: Performant genug wäre sie mir schon wenn sie an der Leistung der x2 schnuppert. Ich denke aber auch, dass es nicht mehr werden wird.

schon komisch, vor ein paar Wochen dachte ich GPU Power wäre das Einzige was mich derzeit ausbremst. Das die neue Generation gleich solch einen Meilenstein legt ist echt krass. Da kommt man ja schonwieder auf den Gedanken das Grundgerüst zu tauschen :fresse:...und alles nur für Games die man an einer Hand abzählen kann die die Power benötigen um anständig zocken zu können. Für alles Andere ist die Karte dann wohl schon overkill bei 1920x1200. Und wer kauft sich mal eben nen 30" oder gleich mehrere um eyefinity ausleben zu können:rolleyes:. BTW. gibts das nu auch bei nvidia?

So, dann hätte ich noch ne Frage...evtl falscher Thread, aber ich wollte nu gerne wissen ob die Tesselation die es bei den 5xxxern gibt Hardwareseitig, Treiber oder Spieleabhängig ist (DX11). Beim letzteren Punkt dürfte nVidia das dann ja auch beherbergen...tapse da gerade noch ein wenig im dunklen

da steht nichts von schneller als die neue X2 sondern nur als der cypress, X2 ist Hemlock. und das der g300 schneller wird als 2x rv870 ist mehr als ausgeschlossen. 640 vec5 vs 480 vec 1 (auch wenn es nicht vec 1 sein muss)
ich denke der g300 wird sich irgendwo zwischen die beiden ati karten schieben und damit aber immer noch mit deutlichem abstand die schnellste singel gpu karte sein. die 295gtx und die 4870X2 wird man durch die bank hinter isch lassen.

"tesselation" ist ein dx11 feature und somit auch beim g300 vorhanden.
 
Zuletzt bearbeitet:
Was ist hiermit gemeint: "bigger and faster than Radeon HD5870."

Heist das das sie größer wird in der Länge als die 5870?
 
und die war ja eigentlich schon nicht wirklich klein...*g*

Bin gespannt, ob sie auch irgendwann evtl. mal eine Neuentwicklung anstreben um günstiger produzieren zu können...

Also die Entwicklung vielleicht von Grund "auf" überdenken...
 
Hab da mal aus dem HD6K Speku Thread was aufgeschnappt - obs aber 100% der Wahrheit entspricht, kA ! :fresse:

Der G300 Kommt zum weihnachtsgeschäft! soviel steht fest. TSMC hat es Bereiz geschaft über 89% GPU`s zu nutzen des WAFERS! es ist bald soweit und die Serien Fertigung beginnt.! haben hier 2 GT300 TEST Samples bei DELL die gehen ganz gut, da sind sogar Leiterbahnen ausgebessert worden und Kabel so verlötet weil was nicht passte. aber sie gehen Definitiv! DX11!! ach übrigens die eine ist PCI-E 3.0 Kompatibel und die andere 2.0!! haben den NV195.50 Alpha dann könnt ihr so ungefähr rechnen wann da was kommt!:cool:
 
Zuletzt bearbeitet:
da steht nichts von schneller als die neue X2 sondern nur als der cypress, X2 ist Hemlock. und das der g300 schneller wird als 2x rv870 ist mehr als ausgeschlossen. 640 vec5 vs 480 vec 1 (auch wenn es nicht vec 1 sein muss)
ich denke der g300 wird sich irgendwo zwischen die beiden ati karten schieben und damit aber immer noch mit deutlichem abstand die schnellste singel gpu karte sein. die 295gtx und die 4870X2 wird man durch die bank hinter isch lassen.

"tesselation" ist ein dx11 feature und somit auch beim g300 vorhanden.

Ich tippe ja irgendwie mehr auf 512 Shadereinheiten;)


Hoffe ja das es nicht mehr so lange dauert bis die NDA mal fällt.
 
Nach möglichkeit soll die NDA ja Ende November vor dem Black Friday fallen - also das wär zumindest das Wunsch Datum von NV - weil dann in den USA bekanntlich die allgemeinen Verkaufszahlen hochgehen. ;)

512 Shader wären schon nicht schlecht - aber dann bitte mit 512 Bit SI ! :fresse:
Gut, 384 Bit SI sollt dann auch noch reichen - man kann ja den GDDR5 mit 1,2 oder 1,3 GHz laufen lassen.
 
Zuletzt bearbeitet:
Ich fass mal kurz das Wesentliche zusammen:

Mit einem angeblich 384 Bit breiten Speicherinterface und 480 bis 512 MIMD-Shader-Einheiten soll diese Karte den Codenamen Fermi tragen. ....

Der GT300 soll mit einer großen Die-Fläche ausgestattet sein und viel Abwärme erzeugen. Der Chip soll eher einer Revolution als einer Evolution gleichen.

Den Gerüchten zufolge soll der Chip nicht nur schneller als das Single-GPU-Modell Cypress (Radeon HD 5870) sein, es wird sogar gemunkelt, dass diese Karte mit den Hemlock-Modellen (Radeon HD 5870 X2) mithalten kann.

Nvidia plane zudem eine Dual-GPU-Version der Karte. In Sachen Leistungsaufnahme soll der GT300 allerdings die 300-Watt-Marke brechen

384 Bit sollten da schicken, hat es ja schonmal ausgerechnet.
Mit 1,3 GHz hat man um die 250 GB/s. ;)

Mal sehen, wie hoch die TPD wirklich ist - es hieß ja auch von anderen Quellen, man habe erst 300 Watt TDP gehabt und konnte diese angeblich auf 225 Watt senken.
 
Zuletzt bearbeitet:
meinet wegen auch 512^^

das wäre schön..... aber 89% ausbeute :hmm:
und geht ganz schön... und das der von dell ist und so munter vor sich hin plaudert..vielleicht wird da auch bald wieder ne stelle frei:fresse:
 
So fix wird das nicht gehen - wenn es angeblich schon ein G300 (Single GPU) Testsample mit PCIe 3.0 gibt, dann wird man die Dual-Karte sicher erst 2010 releasen . Am besten mit nem neuen, energiesparenderen Stepping und gleich mit PCIe 3.0 ausstatten (auch wenn es noch keine Board gibt :fresse:) - eventuell dauert es ja noch deutlich länger, falls die Dual-Karte mit 28nm oder so kommt !

Aber die Single GPU Modelle sollten, glaubt man den neusten Gerüchten, etwa im Dezember zu erwarten sein.



Hehe, arbeitsmarktförderne Maßnahmen bei Dell ! :fresse:
 
Zuletzt bearbeitet:
meinet wegen auch 512^^

das wäre schön..... aber 89% ausbeute :hmm:
und geht ganz schön... und das der von dell ist und so munter vor sich hin plaudert..vielleicht wird da auch bald wieder ne stelle frei:fresse:

An letzteres hab ich auch schon gedacht wo ich das gelesen hab :fresse:
 
384 Bit sollten da schicken, hat es ja schonmal ausgerechnet.
Mit 1,3 GHz hat man um die 250 GB/s. ;)

250GB/s Speicherbandbreite !? - biste sicher?, das wären mal eben 100 GB/s mehr wie bei der roten Fraktion.

Interessant wäre auch die Texturfüllrate.
 
250GB/s Speicherbandbreite !? - biste sicher?, das wären mal eben 100 GB/s mehr wie bei der roten Fraktion.

Interessant wäre auch die Texturfüllrate.

Naja, eigentlich wärns 249,6 GB/s (Klugscheiß;)).

Über die Texturfüllrate kann man wohl erst was sagen wenn man mehr vom Chip weiß.
 
Ich bewzweifle ja ganz ehrlich, dass Dell (und erst Recht jeder x-beliebige Mitarbeiter, wobei das natürlich nur Spekulation ist) überhaupt solche Informationen bekommt. Erinnert ihr euch an FlagShip beim R600 Launch? Genau nach so einer Sache riecht das hier enormst. :d
 
Ich denke das an den ganzen Gerüchten was dran ist, rein vom Marketing her ist es nur mehr als logisch, das Nvidia immer mehr bekannt gibt, damit nicht alle zur roten Fraktion überlaufen, ich gehe davon aus das Nvidia ein perverses Rechenmonster gebastelt hat, nur ob man es brauchen wird, sieht man erst am Releasetag, der Preis wird halt auch interessant werden.
 
Ich denke das an den ganzen Gerüchten was dran ist, rein vom Marketing her ist es nur mehr als logisch, das Nvidia immer mehr bekannt gibt, damit nicht alle zur roten Fraktion überlaufen, ich gehe davon aus das Nvidia ein perverses Rechenmonster gebastelt hat, nur ob man es brauchen wird, sieht man erst am Releasetag, der Preis wird halt auch interessant werden.


Selbst wenn Teile von den durchgesickerten Fakten stimmen sollten und der G300 wirklich so "pervers" wird, sollte man nicht vergessen, dass mehr Einheiten nicht gleich wesentlich mehr Rechenleistung bedeutet. Vor allem nicht in Spielen! Es mag sein, dass die Karte in GPGPU Sachen wesentlich schneller sein wird, aber was bringt es dem Enduser momentan?
 
Selbst wenn Teile von den durchgesickerten Fakten stimmen sollten und der G300 wirklich so "pervers" wird, sollte man nicht vergessen, dass mehr Einheiten nicht gleich wesentlich mehr Rechenleistung bedeutet. Vor allem nicht in Spielen! Es mag sein, dass die Karte in GPGPU Sachen wesentlich schneller sein wird, aber was bringt es dem Enduser momentan?

naja da sie die grösste neuerung seit dem G80 sein oll, kann man schon davon ausgehen das sie so pervers wird ,da ja nicht nur wie bei ati einfach mal alles verdoppelt wurde, das dass nicht der stein der weisen ist siehtman ja bei ati mom....


denke das die dell sache käse ist, pciE 3.0 kommt wohl erst bei der nächsten generation und nv wird wohl kaum nem dell futzi sagen welche yield raten sie haben und das die so hoch sind is noch unglaubwürdiger
 
Blödsinn, die PCIe 3.0 Specs sind noch nicht mal erarbeitet, kann es deshalb auch nicht geben.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh