nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Dann wird das Ding bestimmt recht teuer ... naja und ob es sinnvoll ist solch großen Speicherdurchsatz zu besitzen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann wird das Ding bestimmt recht teuer ... naja und ob es sinnvoll ist solch großen Speicherdurchsatz zu besitzen?

Ein Nachteil ist es sicherlich nicht. Wenn der GT300 allerdings wirklich so leistungsfähig wird wie man annehmen kann, halte ich die ganze Karte bei der Konkurenz zu ATI ziemlich überzogen!
 
wenn der GT300 am anfang reines high end ist, wäre es denkbar.
 
Aber ist nicht der Leistungsspruch ein bisschen zu hoch? Mehr als doppelte Anzahl an Shadern?
 
Ein Nachteil ist es sicherlich nicht. Wenn der GT300 allerdings wirklich so leistungsfähig wird wie man annehmen kann, halte ich die ganze Karte bei der Konkurenz zu ATI ziemlich überzogen!

Jungens seit ihr denn verückt,da kommt "endlich!!!" mal wieder ne karte die nen richtigen schub nach vorne verspricht u ihr beschwert euch darüber:shot:


Schaut euch doch mal an,was die letzten 2 jahre so gelaufen ist in sachen performanceschub,das war ja nicht gerade berauschend:p

Solche sprünge wie der,der jetzt zu erwarten ist,bräuchten wir nach meiner auffassung jedes jahr!(ach ja schön wäre es wenn träume in erfüllung gehen)Damit endlich techniken,wie echtzeitraytracing u rastergrafik zusammen,im vollem umfang ausgeschöpft werden können:wink:

In dem sinne Viva la Revolución!!!:haha:
 
Zuletzt bearbeitet:
lieblings Neulingsprüche früher und heute

256bit/512bit interface...das wird sicher ne teuere Karte
Fazit:nein

shader o.ä verdoppeln,verzehnfachen sich...die Karte wird sicher sehr schnell sein
Fazit: sagt nichts aus

Es gab schon immer Karten die auf dem Papier gaaanz toll ausschaun,doch die Wahrheit is immer :rolleyes:
Und wer Grafikkarten seit 3Dfx kauft weiß dass.

Fragt mal die alten Hasen nach der Geforce 5
auf dem Papier :hail:
in Spielen :haha:
 
256bit/512bit interface...das wird sicher ne teuere Karte
Fazit:nein

Fazit: evtl ja. Ein breiteres Speicherinterface sorgt für eine aufwändigere Verdratung.

shader o.ä verdoppeln,verzehnfachen sich...die Karte wird sicher sehr schnell sein
Fazit: sagt nichts aus

Fazit: sagt doch was aus! Die RV770 besitzt effektiv 160 5D Shadereinheuten. NVs G200b 240 1D. Wenn NV nun bei 1D Shadern bleibt und deren zahl auf 512 erhöht kannst du von einem ziemlichen Leistungssprung ausgehen.

Es gab schon immer Karten die auf dem Papier gaaanz toll ausschaun,doch die Wahrheit is immer
Und wer Grafikkarten seit 3Dfx kauft weiß dass.

Ich denke da grad an den Avalanche der Bitboys ;)

Fragt mal die alten Hasen nach der Geforce 5
auf dem Papier
in Spielen

Die Geforce 3 war auch nicht wirklich viel schneller als die 2 Ultra. Oder die Geforce SDR als die TNT2 Ultra (außgenommen hohe Auflösungen). Ich war jedenfalls damals stolz auf meine erste 512kB Karte ;)


Jungens seit ihr denn verückt,da kommt "endlich!!!" mal wieder ne karte die nen richtigen schub nach vorne verspricht u ihr beschwert euch darüber


Schaut euch doch mal an,was die letzten 2 jahre so gelaufen ist in sachen performanceschub,das war ja nicht gerade berauschend

Solche sprünge wie der,der jetzt zu erwarten ist,bräuchten wir nach meiner auffassung jedes jahr!(ach ja schön wäre es wenn träume in erfüllung gehen)Damit endlich techniken,wie echtzeitraytracing u rastergrafik zusammen,im vollem umfang ausgeschöpft werden können

In dem sinne Viva la Revolución!!!

Ich meinte das nur im Zuge gegen ATI. die von 3DCenter prognostizierten 35% Mehrperformance sind nicht gerade das, was NV scheinbar auffährt.
 
Fazit: sagt doch was aus! Die RV770 besitzt effektiv 160 5D Shadereinheuten. NVs G200b 240 1D. Wenn NV nun bei 1D Shadern bleibt und deren zahl auf 512 erhöht kannst du von einem ziemlichen Leistungssprung ausgehen.
.

Nun ich würde nicht unbedingt davon ausgehen das die shader unverändert bleiben u nur dessen anzahl erhöht wird;)


Denn wie wir ja schon wissen will nvidia die performance der shader in wissenschaftlichen bereich(Double Precision) stark erhöhen.Es wahr von einer bis 16fach gesteigerten Performance in dem Bereich die Rede.Das wird aber mit den shadern wie bisher schlichtweg unmöglich sein,selbst wenn man dessen anzahl verdoppelt.
 
Zuletzt bearbeitet:
wenn die 300 reihe nun genauso eine geschwindigkeitssteigerung hat wie meine damalige elsa erazor geforce 1 wäre ich schon zufrieden:coolblue:
 
schonmal gute spec aber wenn später noch ein 512bit model erscheint wirds ein monster :d
 
Ich rechne einfach damit, dass die High End Karte der GT300 Generation die Geschwindigkeit der Dualkarte aus der Vorgeneration haben wird.

Somit müsste die 380 GTX so schnell sein wie eine 295 GTX.

Da war zumindest bisher immer ein grober, passender Richtwert.
 
wenn die 300 reihe nun genauso eine geschwindigkeitssteigerung hat wie meine damalige elsa erazor geforce 1 wäre ich schon zufrieden:coolblue:

Ich hoffe doch das war ne DDR, ansonsten wäre sie von meiner Creative Labs Annihilator Pro zu Staub zerblasen worden :shot: ;)

Nun ich würde nicht unbedingt davon ausgehen das die shader unverändert bleiben u nur dessen anzahl erhöht wird


Denn wie wir ja schon wissen will nvidia die performance der shader in wissenschaftlichen bereich(Double Precision) stark erhöhen.Es wahr von einer bis 16fach gesteigerten Performance in dem Bereich die Rede.Das wird aber mit den shadern wie bisher schlichtweg unmöglich sein,selbst wenn man dessen anzahl verdoppelt.

Stimmt schon, aber darauf wollte ich nicht hinaus. Wenn NV 2D Shader einsetzen würde, somit also nur 256 Shadereinheiten hätte, wären diese nicht so effektiv wie 512 1D Shader.
 
Ich rechne einfach damit, dass die High End Karte der GT300 Generation die Geschwindigkeit der Dualkarte aus der Vorgeneration haben wird.

Somit müsste die 380 GTX so schnell sein wie eine 295 GTX.

Da war zumindest bisher immer ein grober, passender Richtwert.

Laut Spekulationen,die eh immer wieder hinfällig sind,sollte die 380 GTX 50% schneller sein als 295GTX...also um den Faktor 1,5...was am Ende nun bei rauskommt,sehen wir eh erst wenn es die ersten Benches gibt:)
 
http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010

Hmm, würd ich jetzt irgendwie blöd finden...muss ich ja noch länger warten mitm Aufrüsten...

Das ist doch alles tarnen u täuschen was da abläuft:p Wenn die midrange chips wirklich im sommer kommen,kann der fertigungsprozess bei tsmc doch gar keine so grosse probleme bereiten,denn diese kommen ja auch in 40nm daher

Ich glaube nicht daran,das sich nvidia das lukrative weihnachstgeschäft entgehen lässt.

Wir werden es spätestens im 4 quartal wissen:d
 
Zuletzt bearbeitet:
lFragt mal die alten Hasen nach der Geforce 5
auf dem Papier :hail:
in Spielen :haha:

auf dem papier war der nv30 wirklich kein schlechter chip. das er aber in spielen teilweise derart schlecht performt hatte, lag aber nicht nur an nv...
 
Zuletzt bearbeitet:
Das ist doch alles tarnen u täuschen was da abläuft Wenn die midrange chips wirklich im sommer kommen,kann der fertigungsprozess bei tsmc doch gar keine so grosse probleme bereiten,denn diese kommen ja auch in 40nm daher

Eigentlich war der Vorteil von NV das sie noch auf UMC ausweichen könnten. Ich verstehe sowieso nicht wie ATI die 4770 am Markt zu guten Preisen anbieten kann wenn TSMC da so große Probleme haben soll. Entweder wird es Engpesse bei der Lieferung geben oder TSMC hat die ganze Sache schon im Griff, womit die News vom Inquirer schon wieder nichtig wäre, es sei denn es gibt Probleme mit den Chips an sich, was aber nicht erklären würde warum NV die 21x Reihe auch verschieben sollte.


Sollten wirklich die Hersteller informiert worden sein wird das ganze wohl bald auf Seiten zu lesen sein die etwas weniger einer Gerüchteküche gleichen.
 
Allerdings sind mit einem 512bit SI auch Besückungen von 1,5GB möglich.
 
Zudem tendiert CB dazu, dass 2048 MB Grafikkartenspeicher auf dem Spitzenmodell wahrscheinlich sei.

Das wäre auch ein logischer Schritt, denn wenns bei 512Bit bleiben soll, dann gehen nur 1GB oder 2GB...
Und 1GB könnte in anbetracht der Leistung der Karte (wenns denn so kommt) für kommende Blockbuster Titel schon wieder zu wenig werden.

Mache ich grad nen Denkfehler:confused:

Ja machst du...
512Bit SI heist 16 Speicherchips...
Mit 16 Speicherchips kommst du nicht auf 1,5GB, weil alle Speicherchips die gleiche Größe haben müssen. Und Speicherchips mit 96MB Größe gibts net ;)
 
Zuletzt bearbeitet:
Ja machst du...
512Bit SI heist 16 Speicherchips...
Mit 16 Speicherchips kommst du nicht auf 1,5GB, weil alle Speicherchips die gleiche Größe haben müssen. Und Speicherchips mit 96MB Größe gibts net

Aaahhha ;)

Und 1GB könnte in anbetracht der Leistung der Karte (wenns denn so kommt) für kommende Blockbuster Titel schon wieder zu wenig werden.

Es wird bestimmt abgespeckte Versionen wie GTS oder GT geben die nur über 1GB Ram verfügen werden. Das schöne ist ja das NV nicht auf teuren, hochgezüchteten GDDR5 setzen muss um eine hohe Bandbreite zu erreichen, sowas dürfte sich somit auch wieder positiv auf den Preis auswirken.
 
Zuletzt bearbeitet:
Ich nehme an, dass es wie momentan auch kommen wird.

Die abgespeckte Version wird wieder 448 Bit haben und dann auf 896 oder 1792 MB setzen.

Sollte ja möglich sein, oder ?

Oder die abgespeckte Version kommt mit 256 BIT SI, dann sind wieder 1024/2048 MB möglich, aber die Bandbreite ist um die Hälfte geringer. Mal schauen.
 
nö, die neue Generation hat GDDR5!

Bei der ganzen Diskussion vermisse ich noch dual-core chips, die ja jetzt auf ein PCB (ein chhip) kommmen sollen.

Hoffe DirectX 11 (multi-threading) kann irgendwie dazu beitragen, SLI zu optimieren.
 
Ich nehme an, dass es wie momentan auch kommen wird.

Die abgespeckte Version wird wieder 448 Bit haben und dann auf 896 oder 1792 MB setzen.

Sollte ja möglich sein, oder ?

Oder die abgespeckte Version kommt mit 256 BIT SI, dann sind wieder 1024/2048 MB möglich, aber die Bandbreite ist um die Hälfte geringer. Mal schauen.

Naja, ich denke mal nicht das es vom eigentlichen GT300 groß abgespeckte Versionen geben wird. Nach unten hin bleibt wohl erstmal der GT200 bzw die 40nm Versionen. Mit nem überarbeiteten Chip im nächsten Jahr wirds dann wohl anders aussehen.


nö, die neue Generation hat GDDR5!

Habe ich auch nicht bezweifelt;), aber um so höher der Takt desto teurer die Chips...

Bei der ganzen Diskussion vermisse ich noch dual-core chips, die ja jetzt auf ein PCB (ein chhip) kommmen sollen.

Ich weiß nicht on Dualcorelösungen wirklich den gewünschten Effekt bringen. Mehrer Chips auf einem PCB sind ja noch recht einfach in der Umsetzung und sowas erhöht auch nicht die Ausfallqoute.
 
Zuletzt bearbeitet:
nö, die neue Generation hat GDDR5!

Bei der ganzen Diskussion vermisse ich noch dual-core chips, die ja jetzt auf ein PCB (ein chhip) kommmen sollen.

Hoffe DirectX 11 (multi-threading) kann irgendwie dazu beitragen, SLI zu optimieren.

Das wäre dann wohl die erste Karte die 2x 8pin pcie stecker hätte u sämtliche spezifikationen über den Haufen werfen würde:p

Nvidia wird mit dem singelchip aufgrund der vielen shader zu 100% über die 150watt marke hinaus schiessen unter vollast(wenn nicht sogar 200watt).

Da ist einfach an einen Dualchip erstmal garnicht zu denken in der anfangszeit:haha:
Ganz zu schweigen davon wie man so ein 300watt dual pcb noch mit Luft kühlen will:fresse:

Vielleicht mitte oder ende nächstes jahr wenn die 40nm produktion ein bisschen optimiert wurde:coolblue:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh