nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Das zeigt sich schon an der spieleleistung zwischen einem gleichgetakteten core I7 u nem QX

Diese liegen sogut wie nicht erkennbar auseinander(trotz Hyper Threading des core I7),ausser in spielen wie far cry wo sich der core I7 leicht absetzen kann,wobei man das eher dem integrierten speichercontrollers des core I7 zuschreiben muss;)

Wohingegen der core I7 bei videobearbeitungstools den Qx deklassiert durch die bessere threadausnutzung
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich freu mir schon nen Ast auf die neuen Karten. Weil mit 512MB VRAM macht GTA IV keinen Spaß @1680x1050:grrr:

Im Herbst/Winter wirds entschieden: RV870, GT300 oder doch Larabee:fresse:
Und vielleicht mein erstes SLI oder CF:coolblue:
 
Du kannst doch eine 2. 4870 kaufen, bei ebay gehen die für 70-80 € weg, dann kanst du es ruckelfrei zocken.

bei sli bzw. cf verdoppelt sich aber nicht der speicher wenn man eine zweite graka dazunimmt ;)
 
Du kannst doch eine 2. 4870 kaufen, bei ebay gehen die für 70-80 € weg, dann kanst du es ruckelfrei zocken.

Wäre meine 4870 ne 1GB-Version hätt ich das gemacht, aber mit 2x512MB bringts net wirklich viel:shake:
 
Zuletzt bearbeitet:
Boar man hier gibt es ja wieder wilden Spekulatius, das der PCI 2.0 mit X16 Bandbreite Limiert , Leute bleibt mal realistisch , es ist mehr als genugend Bandbreite vorhanden das wird auch kein GT300 ausschoepfen. Schoen auf dem Boden bleiben :d
 
Was genaues wissen wir erst wenn der chip läuft froggi,so sicher ist das noch nicht,ob der slot nicht doch schon an seine grenzen kommt:d
 
Zuletzt bearbeitet:
Jungs der muesste locker 4x so schnell werden bevor man da wirklich in bedraengniss kommt, es ist genug luft ;)
 
Jungs der muesste locker 4x so schnell werden bevor man da wirklich in bedraengniss kommt, es ist genug luft ;)

Hast du den test bei tom gesehen,wo die 9800gx2 mit nem x8 slot probleme bekommt;)

Aber spekulatius ist doch schön u wenns dann nicht eintrifft um so schöner:d
 
Zuletzt bearbeitet:
Das liegt aber daran das die beiden Karten mit ueber die Schnittstelle die Daten untereinander austauschen. PCI 2.0 x16 ist nochmal weit mehr als das doppelte an Bandbreite im gegensatz zum 1.0 oder 1.1 PCIe x8 ;)
 
Das liegt aber daran das die beiden Karten mit ueber die Schnittstelle die Daten untereinander austauschen. PCI 2.0 x16 ist nochmal weit mehr als das doppelte an Bandbreite im gegensatz zum 1.0 oder 1.1 PCIe x8 ;)

Nein nein froggi das war schon ein 2.0 slot mit x8 lanes bei tom in dem test:p

Mit der karte könntest du natürlich recht haben da durch das doppel pcb die belastung höher ausfallen könnte,da beide speicherbänke gefüllt werden müssen;)
 
Zuletzt bearbeitet:
Ja sind dann trotzdem 8 zu 16 Gigabyte pro Sekunde Datenrate ;) also alles easy
 
Ja sind dann trotzdem 8 zu 16 Gigabyte pro Sekunde Datenrate ;) also alles easy

Wenn sie mehr als doppelt so schnell wie eine 9800GX2 wird,könnte es eng werden,aber wie du schon sagtest ein dualchip wird den slot sicherlich stärker belasten als eine singelkarte,wegen der 2 getrennten rambänke;)

Eine 280GTX wäre bei dem x8 test bei tom schön gewesen,dann könnte man die doppelbelastung des slots durch den dualchip ausgrenzen;)
 
Zuletzt bearbeitet:
Na wie gesagt Nvidia hat keinen Brueckenchip wie ATI , die Karten muessen ueber den Slot auch noch die Daten austauschen. Darum auch nur 8x Lanes statt 16. Fuer eine Single ist mehr als genug Bandbreite da :d
 
Wenn sie mehr als doppelt so schnell wie eine 9800GX2 wird,könnte es eng werden,aber wie du schon sagtest ein dualchip wird den slot sicherlich stärker belasten als eine singelkarte,wegen der 2 getrennten rambänke;)

wenn der rückkanal bei pci-e nicht mehr genug leistung hat muss die sli bridge leistungsfähiger werden. ^^
 
Zuletzt bearbeitet:
wenn der rückkanal bei pci-e nicht mehr genug leistung hast muss die sli bridge leistungsfähiger werden. ^^

Auch ne möglichkeit zumindestens zum teil einen einbruch zu verhindern,der grosse spekulatius ist ob sich darüber nvidia schon gedanken macht,oder ob man nicht doch brav auf pcie3.0 wartet:d

Allerdings geht es ja hier erstmal nur um nen singelchip ohne sli brücke;)
 
Zuletzt bearbeitet:
Nee Nee Stop, PCI 2.0 heisst ja nicht mehr Bandbreite in dem Sinne, die Bandbreite macht die Anbindung in dem Fall die Datenleitungen : 8 zu 16 Lanes wie in deinem Beispiel.

PCI 2.0 stellt nur mehr Saft zur Verfuegung wenn man es mal simple sagt , also hat nur unwesentlich etwas mit der eigentlichen Bandbreite zu tun. Abwohl auch falsch, PCI 3.0 wuerde eine steigerung auf 16Gbit /s kommen, dadurch das noch mehr Daten ueber eine Lane geschickt werden koennen.

PCI 2.0 kann nur FullDuplex das heisst das hin und rueck Kanel jetzt mit voller Bandbreite arbeiten im Gegensatz zu 1.0 oder 1.1 :wink:
 
Zuletzt bearbeitet:
Ja sind dann trotzdem 8 zu 16 Gigabyte pro Sekunde Datenrate ;) also alles easy

sind das nicht 4 zu 8gbyte...?

meines erachtens ist es doch so,oder?

pci-e 1.1x8 =8lanes je richtung und 2gb pro s
pci-e 1.1x16 = 16lanes je richtung und 4gb pro s = pci-e 2.0x8 aber 8 lanes je richtung,aber auch 4gb pro s
pci-e 2.0x16 = 16 lanes je richtung und 8gb pro s
 
Zuletzt bearbeitet:
Nee Nee Stop, PCI 2.0 heisst ja nicht mehr Bandbreite in dem Sinne, die Bandbreite macht die Anbindung in dem Fall die Datenleitungen : 8 zu 16 Lanes wie in deinem Beispiel.

PCI 2.0 stellt nur mehr Saft zur Verfuegung wenn man es mal simple sagt , also hat nur unwesentlich etwas mit der eigentlichen Bandbreite zu tun.

Stimmt schon die lanes machen den unterschied in der bandbreite,aber der standard (1.0,2.0,3.0) ebenso;)


PCI 2.0 kann nur FullDuplex das heisst das hin und rueck Kanel jetzt mit voller Bandbreite arbeiten im Gegensatz zu 1.0 oder 1.1 :wink:

Jetzt hast du es:d


Wie soll das eigentlich bei pcie 3.0 werden?

Werden da nur die anzahl der Lanes erweitert:hmm:

Kann eigentlich nicht sein oder wegen der abwärtskompatibilität:confused:
 
Zuletzt bearbeitet:
sind das nicht 4 zu 8gbyte...?

meines erachtens ist es doch so,oder?

pci-e 1.1x8 =8lanes je richtung und 2gb pro s
pci-e 1.1x16 = 16lanes je richtung und 4gb pro s = pci-e 2.0x8 aber 8 lanes je richtung,aber auch 4gb pro s
pci-e 2.0x16 = 16 lanes je richtung und 8gb pro s

Ja stimmt sorry mein fehler :wink:
 
ja, aber ich ging jetzt soweit da noch viele boards bei sli/cf auf x8 fahren.

Das wäre n genialer vorschlag,den solltest du mal an nvidia faxen:d

Sogar normale x58 boards(das asus evolution oder supercomputer jetzt mal aussen vor gelassen) stellen ja leider keine 3stück 2.0x16 slots zur verfügung
 
Zuletzt bearbeitet:
PCI 2.0 kann nur FullDuplex das heisst das hin und rueck Kanel jetzt mit voller Bandbreite arbeiten im Gegensatz zu 1.0 oder 1.1 :wink:

Moment Froggi, nicht ganz... :wink:
PCIe 1.x arbeitet ebenso im Fullduplex Modus ;)

Eine Lane kann 125MB/sec pro Richtung übertragen, ergibt ne Übertragungsrate von 250MB/sec in Summe über beide Richtungen. (Fullduplex)
Bei 16x kommst du somit für PCIe 1.x auf ein theoretisches Maximum von 4000MB/sec bzw. bei PCIe 2.0 auf ein max. von 8000MB/sec.

Werden aber wie beim Nachladen von Daten in den Speicher Beispielsweise nur Daten zur Karte gesendet, dann beschränkt sich eben die Datenrate trotz Fullduplex Modus auf die Hälfte (logischerweise)
Im Falle der GX2 weiter oben besteht halt der Nachteil im zu kleinen Speicher, welcher schnell zum Umlagern/Auslagern/Nachladen von Daten führt und somit beide GPUs gleichzeitig über eine Schnittstelle mit dem Rest reden müssen.

Wie soll das eigentlich bei pcie 3.0 werden?

Werden da nur die anzahl der Lanes erweitert:hmm:

Kann eigentlich nicht sein oder wegen der abwärtskompatibilität:confused:

Nein, die Übertragungsrate wird bei wohl gleichem Takt auf 1000MB/sec gesteigert, sprich 500MB pro Richtung...
 
Zuletzt bearbeitet:
sry hab ich vergessen, war damals bei der 9800 GX2 genau so ;)



hol dir doch 2x GTX280 Karten, bei ebay gehen die für 150-170 weg...

In die alte Architektur investier ich nicht mehr:d
 
der GT200 ist noch aktuell ;) 65 oder 55nm spielt keine Rolle

Bald gibts den Nachfolger und dann ärger ich mich wieder:wink:
Und die Stromschleuder GTX280 kommt mir garantiert net in die Kiste...
 
Bald gibts den Nachfolger und dann ärger ich mich wieder:wink:
Und die Stromschleuder GTX280 kommt mir garantiert net in die Kiste...

Die GTX380 kommt vielleicht erst Januar/Februar was dann? denkst du diese wird weniger strom als die 280 verbrauchen, im Gegenteil die wird nochmehr strom fressen, 512 Bit SI + hungrige DDR5 speicher ;) und bist du bereit 500-600 € auszugeben? oder wartest du doch auf der GTX360....
 
Die GTX380 kommt vielleicht erst Januar/Februar was dann? denkst du diese wird weniger strom als die 280 verbrauchen, im Gegenteil die wird nochmehr strom fressen, 512 Bit SI + hungrige DDR5 speicher ;) und bist du bereit 500-600 € auszugeben? oder wartest du doch auf der GTX360....

Gut selbst wenn die mehr Strom braucht hab ich aber mehr Leistung. Ich glaube kaum das die "GTX 380" 600 Flocken kosten wird wenn ATI was anständiges baut. Und wenn ja, dann gibts wieder ne ATI:coolblue:
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh