nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
NV will halt CUDA mehr pushen und in den Profibereich vordringen, damit diese karten zum berechnen hergenommen werden statt CPUs oder andere mittel, als normaler spieler haste da nicht viel von , aber sobald du Videos Codierst oder andere sachen auf der Karte berechnest haste davon mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ganz einfach - der Vorteil ist die verbesserte Nutzung für GPGPU Anwendungen über CUDA usw.

Aber auch die Ingame Leistung wird mit Sicherheit nicht zu kurz kommen.
 
Ja, wie auch auf der Seite geschrieben, erwartet man erstmal für die normalen GTX 380er 1536 MB VRAM.

6 GB kann dann später maximal für Quadro FX oder Tesla Karten verwendet werden.


Hm...bei den Infos bin ich schon ganz hippelig auf Benches. :fresse:
 
Mein Tipp: GTX380 = HD5870x2 - 20%
 
Könnte in der Tat hinkommen.

Dann müsst man eingetlich seine GTX 295 in Rente schicken -
wär da der Preis nicht (vor allem, wenn man zwecks Studium kein Einkommen mehr hat :().

Die 295 werd ich auf jeden Fall nicht verkaufen - brauch noch ne gute PCIe Ersatzkarte,
außerdem ist mir der "Klotz" (Dual-PCB) sympatisch. ;)
 
Zuletzt bearbeitet:
Der GF100 muss Cypress einfach verhauen, hat ja nicht umsonst 1 Mrd. Transistoren mehr. Jetzt kommt es darauf an wie weit der GF100 vor Cypress liegt. Wenn es nur 30% sind wird es schwer, da die Karte bestimmt einiges teurer ist. Mal sehen...
 
Die 6GB werden wohl für eine 395er hinkommen.

Das 384bit Interface verwundert mich aber trotzdem etwas, bin gespannt.
 
Ich denke, dass die GTX 395 2 x 1,536 GB haben wird - wobei wenn ATi dann auch eine HD 5870 X2 mit 2 x 2 GB bringt....wer weiß ?!

Möglich wären 2 x 3 GB dann schon - etwa auch über NVs Boardpartner. ;)

Nun ja, auf jeden Fall wird man diese Menge erstmal nur im professionellen Bereich vor finden können, denke ich mal.



Ich denke mal, dass man bei NV auch Testsamples mit 512 Bit SI gefertigt hat und diese dann mit einem 384 Bit SI verglichen hat und zu dem Schluss kam, dass das kleinere SI in Kombination mit flottem GDDR5 absolut kein Flaschenhals darstellt - auch nicht für so eine Monster GPU.

Immerhin - durch VRAM OC auf 1,3 GHz hätte man so satte 249,6 GB/s Speicherbandbreite, was erstmal erstmal schicken sollte ! :d
 
Zuletzt bearbeitet:
Es gab bestimmt keine 512bit Testsamples, das wäre viel zu teuer, man bräuchte ein komplett neues Tapeout.
 
Mhh also ich warte noch, bis ich meine beiden 4870er eintausche. Vielleicht wechsel ich zurück zu Nvidia, wenn die mit ihrer nächsten Karte in 2-4Monaten die 5870 wegblasen.....bzw. das Preis/Leistungs Verhältnis muss auch ca. stimmen! 20-40% schneller als die 5870, aber 400-500Euro, dann kann mans vergessen....
 
Zuletzt bearbeitet:
Vielleicht wechsel ich zurück zu Nvidia, wenn die mit ihrer nächsten Karte in 2-4Monaten die 5870 wegblasen.....

möglicherweise muss man sogar noch länger warten....

Hab in 2 5850er Reviews Andeutungen zur den kommenden Nvidia Grakas gefunden.

HARDOCP

If you are waiting for NVIDIA to jump out of the GPU closet with a 5800 killer and put the fear into you for making a 5800 series purchase for Halloween, we suggest paper dragons are not that scary. We feel as though it will be mid-to-late Q1’10 before we see anything pop out of NVIDIA’s sleeve besides its arm. We are seeing rumors of a Q4’09 soft launch of next-gen parts, but no hardware till next year and NVIDIA has given us no reason to believe otherwise.

und indirekt Anandtech

Ultimately AMD is going to be spending at least the next few months in a very comfortable situation
 
"Kann nicht die 300W Spezifikation einhalten"

Wo soll das denn enden? Schön weiter die Transistoren verdoppeln oder verdreifachen. Und in 4 Jahren haben wir dann dank den Leistungswahn eine 1000W GPU? Ich halte das für nicht gerade innovativ immer nur die Transistoren zu vervielfachen und dabei die Leistungsaufnahme zu vernachlässigen. Die ziehen doch mit so etwas am Mainstream vorbei.

Die Leute die jetzt angefangen habe mit PCs, wollen ein kleines Gerät möglichst klein, geräuschlos. So ins Wohnzimmer stellen als Allroundgerät. Niemand will ein eigenes Kraftwerk finanzieren für ein bisschen Multimedia.
 
@Qimple
es verbessert sich doch das Verhältnis aus Leistung zu Verbrauch. Nun kann man dabei entweder die gleiche Leistung mit weniger Verbrauch oder halt mehr Leistung mit weniger Verbrauch umsetzen.
Von den "Möglichkeiten", die die PCIe 3.0-Spezifikationen hinsichtlich des Verbrauchs bieten, bin ich aber auch nicht begeistert.
 
Allerdings ist das doch ein Widerspruch. NV wirbt mit soviel Rechenpower, und spielt darauf an, das Intel/AMD dadurch entlastet werden soll. Dabei kosten die ein vielfaches weniger Leistungsaufnahme. Also wenn Intel/AMD mal wieder eine 300W CPU releasen, dann wäre der Vergleich vielleicht fair. Die sollen einfach aufhören solchen GPGPU Features zu implementieren im NoneCadSektor. Diejenigen die eine Cadkarten brauchen, kaufen das heute auch schon extra. Und wenn die so was wie Photoshop noch hinzufügen wollen, sei es drum.
 
da hört sich aber nach nem verdammt hohen verbrauch an...wenn man sich die specs. mal zur gemüte führt..das wird ja was komplett anderes als alles andere vorher. hoffentlich kommt davon das meiste auch bei 3D-anwendungen an.
codname "MONSTA" ^^
 
Hoffen wir mald as die Karte die Leistung erbringt, 50% bis 80% schneller sollten es schon sein bei dem Monster^^
Vieleicht tu ich mir dann zum 1. mal eine Nvidea an, mal in den grünen Sektor schnuppern !
 
Wie wäre es, wenn die gleich ein externes Netzteil mitliefern für das Monsta. Also bei den Preisen die NV hat, könnten die das wirklich mal bringen ^^
 
Ja, was viele nicht wissen, mit dem Kauf wird ein passendes 1000w Netzteil mitgeliefert ;)
 
Pünktlich um 22:00 Uhr werden wir eine größere News mit allen Fakten zum GT300 aka Fermi veröffentlichen. Könnt euch schon darauf freuen ;)
 
Reine GPGPU daten , aber 0 aussage über spieleleistung wie Robs, TMUs oder Takt
 
Zuletzt bearbeitet:
Das dacht ich mir auch, dass man sich eher auf GPGPU beziehen wird.

Immerhin wissen wir nun, dass die letzten Spekus über Transistoranzahl, SPs, SI und VRAM Mengen stimmen.

Fehlen nur noch Taktraten, ROP Anzahl, Textureinheiten und ....Benches bzw. auch Fotos der fertigen Karte(n) ! ;)
 
weil wenn jetzt die Robs und TMUs gleich bleiben und takt auch ca. werden die zusatz shader in games nicht soo viel mehr bringen.

und wenn man sieht wie viel mehr shader der hat im vergleich zum G200, bleiben nicht viel Transistoren für Robs und TMUs über, allein weil DX11 nochmal transistoren frisst.
 
die leistung wird sicher ausreichend sein...die frage ist nur ob das jeder bezahlen will..ich meine die meisten von uns interessiert doch die spieleleistung und wenn ein großteil der transistoren für die gpgpu einheiten draufgehen, die dann weitgehend ungenutzt vor sich hin dümpeln..naja mal abwarten..wird schon passen! werde mir trotzdem ertmal den rv870 holen. spieleleistung ist auch dort ausreichend vorhanden. wenn der G300 richtig rockt dann mus ich wohl in 3-4monaten wieder umsteigen;)
 
Ich denk mal dass man wenigstens 128 TMUs und TAUs hat, ROPs mal mindestens 48.

Eine allgemeine Verdoppelung aller Einheiten neben den SPs (gut, hier sind es etwas mehr als Faktor 2) wäre wünschenswert.

Sprich 160 TMUs / TAUs und 64 ROPs.


Wir müssen uns diesbezüglich aber noch bis frühstens Ende November - wenn zumindest schon mal ein "Soft-Launch" stattfinden kann und dem Fall der GTX 380 NDA gedulden.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh