nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
D.h. du kaufst dir eine 5870 und setzt sie dann nochmal für gut 100€ unter Wasser (hollomen) oder was? Lohnt sich das denn, für 3-4 Mon. da ne Wakü zu kaufen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denk mal dass man wenigstens 128 TMUs und TAUs hat, ROPs mal mindestens 48.

Eine allgemeine Verdoppelung aller Einheiten neben den SPs (gut, hier sind es etwas mehr als Faktor 2) wäre wünschenswert.

Sprich 160 TMUs / TAUs und 64 ROPs.


Wir müssen uns diesbezüglich aber noch bis frühstens Ende November - wenn zumindest schon mal ein "Soft-Launch" stattfinden kann und dem Fall der GTX 380 NDA gedulden.

Naja verdoppelung wohl eher nicht, die transis sind von 1,4 auf 3,0 bei größerem cache, shader die mehr können und somit pro einheit siche rmehr fressen , DX11 frisst mehr als DX10 pro shader einheit und so weiter, da reichen die transis für eine reine verdoppelung nicht aus
 
Lohnt sich das denn, für 3-4 Mon. da ne Wakü zu kaufen?
für mich lohnt es sich und ich werds so machen. Mit der HD5870 werde ich meinen Rechner wahrscheinlich sogar beim Zocken passiv gekühlt bekommen.
Sollte mit dem G300 Spieletechnisch nicht irgend etwas richtig falsch laufen, dann hol ich mir die Karte. Ich möchte wieder eine Karte haben, die bei Folding@Home richtig was leistet.

edit ich lese mir gerade die News im Luxx durch.
Die Fülle an Infos macht micht stutzig. Bisher hats bei Nvidia immer geheißen, zu nicht veröffentlichten Produkten gibts keine Infos.
Irgendwie schon komisch, dass die jetzt Infos wie nach Fall der NDA raushauen.

ciao Tom
 
Zuletzt bearbeitet:
ich hoff nur der kommt glecih mit 3 gig ram, 1,5 is bei der leistung nicht lange ausreichend...
 
Wer nutzt hier eigentlich gpgpu krams?Das ist doch ehrlich gesagt die Frage.Ka warum die das so anpreisen.D1e 98 % der Leute ist das doch wayne...
 
das dürften schon einige mehr sein.....leider bestädigt sich das aber was sie mit dem G200 begonnen haben, es wird mehr Wert auf Cuda und Co gelegt als aufs Gamen mit den Dingern.
Wers brauch..
Schnell wird das Ding aber trotzdem werden und heiß und teuer.
 
für den gamer liegt dann ein großteil der transis brach und bleiben ungenutz, ich hab mit meiner ATI einmal ein Video umcodiert mehr hab ich im GPGPU bereich noch nie gemacht, Physik auf der GPU fnd ich ja noch interesant, aber ob ich jetzt an nem Video 5min mit der GPU oder 10min mit meinem I5 sitze ist mir persönlich wumpe ;D

da hab ich lieber im Spiel doppelt so viel FPS als halb so viel zeit beim coden.
 
Wer nutzt hier eigentlich gpgpu krams?Das ist doch ehrlich gesagt die Frage.Ka warum die das so anpreisen.D1e 98 % der Leute ist das doch wayne...

Ich würde mich mal langsam an den gedanken gewöhnen, dass der gamer bei nvidia in zukunft wohl nicht mehr erste priorität hat. Da scheint sich ein strategiewechsel anzukündigen. So hat man das ja auch durch die blume beim letzten conference call formuliert.
 
das ist denen Wumpe :d mittlerweile kannste damit C++ etc pp machen, das ist ein netter Markt...
Deswegen sind die 285 und 295 trotzdem keine langsamen Karten, von der BQ zu ATI müssen wir nicht reden, wie man weiß und der G300 wird das mit Bestimmtheit auch nicht sein.
 
Zuletzt bearbeitet:
Ich würde mich mal langsam an den gedanken gewöhnen, dass der gamer bei nvidia in zukunft wohl nicht mehr erste priorität hat. Da scheint sich ein strategiewechsel anzukündigen. So hat man das ja auch durch die blume beim letzten conference call formuliert.

stimme ich zu. von großen firmen mit serverfarmen ist eindeutig mehr geld abzugrasen ^^
 
nach dem Lesen der Technikartikel zum RV870 (Cypress) hatte ich von ATI eigentlich den selben Eindruck: ziemlich viele Änderungen wurden für GPGPU-Optimierungen umgesetzt.
 
ist doch alles der selbe Ramsch :d die wollen alle nur unsere Kohle und bekommen sie auch mit hurra gebrüll, siehe 5870 unds bescheidene AF :d
 
ist doch alles der selbe Ramsch :d die wollen alle nur unsere Kohle und bekommen sie auch mit hurra gebrüll, siehe 5870 unds bescheidene AF :d

von dir immer das gleiche :d

hab gelesen das NV mit dem neuen nicht alle DX11 sachen in hardware kann und einiges über die shader berechnen lässt , also eher in software
 
nach dem Lesen der Technikartikel zum RV870 (Cypress) hatte ich von ATI eigentlich den selben Eindruck: ziemlich viele Änderungen wurden für GPGPU-Optimierungen umgesetzt.

Man wird das feld sicherlich nicht nvidia (und später vielleicht Intel?) überlassen, aber sie sind nicht gezwungen das ganze zu forcieren. Man hat ja mehr als ein standbein.

Aber mir scheint auch, dass AMD schon seit dem R600 die architekturen in diese richtung getrieben hat - die DP performance der HD4xxx reihe ist ja der der G200 reihe haushoch überlegen und offenbar wird der GT300 zwar da deutlich zulegen, aber die 5870 nicht massiv überflügeln - das ist allerdings noch spekulationsmasse (siehe heise.de).

Die wissen beide was die stunde geschlagen hat. Leider liegen wohl die besten PC gaming tage (was das bedingunslose vorantreiben der performance angeht) möglicherweise schon bald hinter uns. :heul:
 
D.h. du kaufst dir eine 5870 und setzt sie dann nochmal für gut 100€ unter Wasser (hollomen) oder was? Lohnt sich das denn, für 3-4 Mon. da ne Wakü zu kaufen?

im schnitt bleiben die karten ja eh kein jahr "frisch".. wakü ist bei mir pflicht! schaue aber auch schon nach günstigeren lösungen als jedesmall nen komplettkühler. von swiftech gibts schon was für beide lager. da bleibt der universal gpu block..und du mußt "nur" den passenden passiv kühler neu kaufen.(ca.30-40€) mal schauen..ist halt ein hobby..
momentan bin ich auch etwas unter zugzwang wenn du mal in meine sig schaust^^ vielleicht bleibt die karte auch bis ins frühjahr drin, bis der g300 gut verfügbar ist und die preise sich entsprechend stabiliesiert haben.....
und die leistung muss der g300 ja dann auch erst noch unter beweis stellen und das nicht bei winrar oder zip. das gesamt packet eben. bei rv870 sehr gelungen wie ich finde (verbrauch P/L...) sowas erhoffe ich mir auch vom g300 nur min. x1,5:rolleyes:
 
NVIDIA GPU Technology Conference

huqd6e.jpg


http://www.nvidia.com/object/gpu_technology_conference.html#livewebcast

Live jetzt.

Raytracing, nett. ^^

Augmented Reality jetzt. Auch cool. ^^
 
Zuletzt bearbeitet von einem Moderator:
wo schaust du dir das ganze an...startet bei mir nicht muss ich mich erst reg.!?

geht auch klar gegen LRB!
 
Auf den ersten webcast klicken.

Jetzt ist da gerade einer aus Deutschland da und zeigt so ein Augmented Reality Programm für Ferrari.

Das ist sehr sehr cool wie der die virtuelle Ferrari Felge in der Realität beleuchtet hat. :fresse:

Hab leider keinen Screen davon gemacht.
Jetzt ist auch wohl erstmal Ende. ^^
 
Zuletzt bearbeitet von einem Moderator:
im CB-Forum (Posting 234) CB-Forum hab ich noch ein anderes Bild gesehen. Keine Ahnung, woher das ist (das Wasserzeichen sagt mir nichts). Darauf sieht man einen einzelne 8Pin-Buchse am rechten Ende des PCBs (dort wo ATI bisher den Anschluss angebracht hat).
Sollte das wirklich der einzige sein, dann kanns ja mit dem Verbrauch nicht so arg sein.
 
das ist aber nie der g300! nur ein anschluß+ karte viel zu klein!
mit 250 mm (ich habs eben ausgemessen) ist sie gerade mal 15 mm kürzer als eine GTX 280.
attachment.php

Klar, wirklich sicher kann man noch nicht sagen, welches Modell es ist.

guter Einwand aus dem CB-Forum: da steht Tesla drauf.
Davon abgesehen erinnert mich das Design der Kühlerverkleidung an die GTX 295 SinglePCB
 

Anhänge

  • Grakamessung.jpg
    Grakamessung.jpg
    57,5 KB · Aufrufe: 212
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh