nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Fudzilla ist ja voll mit Nvidia-News-Artikeln. Alleine 10 Stück für den heutigen Tag. Da bin ich erstmal mit Lesen beschäftigt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
beim g80 war das überraschungsmoment eigentlich das die gpu fortschritlicher war als vermutet..und nicht wie du schon richtig bemerkst.. das er trotz problemen doch noch rechtzeitig erschien.
 
jetzt gibt man also zu das es ein dummi war...das boardlayout ist also noch nicht final..

---------- Beitrag hinzugefügt um 23:16 ---------- Vorheriger Beitrag war um 23:16 ----------

^^
 
Selbst wenn der angebliche G300 noch so "verdrahtet" ist, hätte man den ja in einem Glaskasten herbringen und zeigen können. Wieso den ganzen Aufwand betreiben wenn es auch einfacher geht? Aber bestimmt hätte man damit öffentlich zugeben müssen, dass die kommende Generation von nVidia noch gar nicht marktreif ist und man erst im Q1 2010 damit rechnen kann...
 
Wenn das auch nur annährernd so stimmt, was heute wieder auf der GTC gezeigt wurde, dann müssen sich Intel und AMD warm anziehen. Der Leistungsunterschied zwischen CPU und GPU Rendering wäre dann einfach zu groß, als das weiterhin uneingeschränkt CPU Renderfarmen benutzt werden.
Lucas arts hat bereits angekündigt eine komplette R.F. auf Basis der neuen NV GPUs aufzubauen.
In Zukunft wird das Klientel wohl wechseln. Hier werden dann zahlungskräftige Unternehmen vor der Tür stehen und die Spieleseite eher eine Nebenrolle spielen. ATI scheint in der Beziehung gar nicht in die Pötte zu kommen, oder?

Gruß Cigar
 
Aber man muss Sachlich bleiben und Fakt ist, eine Karte über 28 cm ist etwas übertrieben. Viele Große Hersteller von Gehäusen sind so gebaut das man nur 27 cm Platz hat, Na sicher bekommt man in den Gehäusen auch eine 35 CM karte unter, dazu muss man aber meist den, schönen HDD Case ausbauen. Ich denke es liegt auch an den Graka Herstellern, Grakas sollten immer im Rahmen bleiben, nicht wie ATI mit ihrer 5870X2 die soll ja über 30 cm werden.
Ihr werdet sehen NVidia baut eine Karte die Deutlich schneller ist als die ATI 5870 und ist unter 27 cm. Den NV denkt dort bestimmt mit!

Nein, das kann man so defintiv nicht sagen...
Das Problem besteht eher darin, das Gehäusehersteller sich nicht an gegebene Spezifikationen halten, und die ATX Spezifikation besagt nachweislich, das eine ATX konforme Karte eine max. Länge von 32cm haben darf...
Sprich FullSize ATX... Passt diese nicht in das gewünschte Gehäuse, ist einzig und allein der Hersteller des Gehäuses schuld, weil er sich nicht an die Spezifikation gehalten hat.

Klar sind kleine schnucklige Gehäuse schick, aber was bringt mir das bestaussehendste Gehäuse, wenn es sich nicht an Standards hält? Denn genau für solche Inkompatibilitäten sind die Standards da... Und den ATX Standard gibts nicht erst seit gestern ;)


Ich denke eher, Historisch bedingt kochen die Hersteller der Gehäuse hier ihren eigenen Brei... Weil sooo viele Karten für Heimanwender mit FullSize gibts nicht... Aber Dual GPU Karten zeigen, das sowas durchaus auch im Homebereich kommen kann.

ich empfinde dich als recht unfreundlich. Warum witterst du so gegen mich? Weder habe ich "Mist" gekauft noch habe ich über Firmen oder deren Produkte "hergezogen". In meinem obigen Post habe ich lediglich geschrieben, dass ich es begrüßen würde wenn sie dieses neue Feature entsprechend bei der Bauweise des Lüfterkleides berücksichtigen würden. Nicht mehr und nicht weniger. Das richtige Stichwort hast du ja schon gegeben...Kundenfreundlichkeit ;), womit du ja anscheinend auch nicht wirklich viel mit am Hut zu haben scheinst.

Für die etwas unfreundliche Art kann ich mich nur entschuldigen... :bigok:
Wie gerade schon angesprochen gehts mir viel mehr darum, das bei neuen Produkten, von wem auch immer, immer zuerst erstmal auf den Hersteller des neuen Produkts geschimpft wird, wenn etwas nicht ganz passt...
Ein Blick über den Tellerand besagt aber ganz klar, FullSize ATX Karten dürfen bis zu 32cm lang sein.
Ebenso gibt es eine max. Breite für die Karte.

Wenn nun ein Gehäusehersteller eine sonderliche Konstruktion entwirft, womit der Endkunde Einschränkungen hat, eine derartige Karte zu montieren, kann der Hersteller der Karte nix dafür... Und das ist doch der Punkt um den es ging.

Die AMD Karte hält sich exakt an die ATX Standards, was die Größe betrifft, passt sie nicht ins Case, weil die Schnellrastklammern den Einbau verhindern, oder weil der HDD Käfig im Weg ist, ist einfach mal das Gehäuse dafür ungeeignet... aber keinesfalls kann der Hersteller der Karte was dafür...

Zum Thema Kundenfreundlichkeit, ja das ist auch so eine Sache, klar machen einem diese Schnellraster das leben leichter, aber seien wir mal ehrlich, wie oft wird Otto Normalo seine Karten tauschen, das er nennenswerte Zeit (und damit Geld) Vorteile von so einem Schnellraster hat?
Das geht sich nicht aus...

Ich bin ganz klar dafür, das sich alle Beteiligten an Gegebenheiten zu halten haben, macht eine Partei das nicht (in dem Fall die Gehäusehersteller mit Sonderkonstruktionen) dann ist das ganz allein ihre Schuld.






Aber um mal wieder zum Thema zu kommen, ich glaube nicht, das NV es schaffen wird, die Karte unter 27cm zu bringen, die wird aller mindestens genau so lang wie die AMD Karte... Schaut man in die Vergangenheit, so sieht man, das NV idR den "Längeren" hatte, glaube nicht, das sich dies hier umkehrt.
Zumahl durch das 384Bit SI auch 50% mehr VRam Chips auf dem PCB untergebracht werden müssen und durch den spekulierten Stromverbrauch der Karte die Energieversorgung auch nochmal um ne Ecke größer werden sollte, als bei AMD...
 
Mittlerweile scheint aber schon defenetiv fest zu stehen, das die zu sehende Demo NICHT auf Fermi gelaufen ist.

02.10.2009
Heute können wir Ihnen die erwähnte Raytracing-Demo des Bugatti Veyron auch als Video präsentieren. Nach unseren Informationen lief die Demo allerdings nicht auf Nvidia Fermi, sondern auf GT200-basierenden Grafikkarten."

Edit:

Quelle:

http://www.pcgameshardware.de/aid,69...fikkarte/News/
 
Zuletzt bearbeitet:
zum letzten punkt: denke ich auch wobei man nat. anmerken muß das ati im hinteren drittel sehr/ungewohnt verschwenderisch mit dem platz auf dem pcb umgeht.
aber es gibt ja immer noch leute die nach gewicht und größe kaufen, vielleicht will man dem rechnung tragen, ist ja schließlich die "TOP" karte;)

p.s. bin aber auch so einer..ein cd oder sacd-player unter 15kg taugt nichts:fresse:
 
Zuletzt bearbeitet:
wow geilste Karte der Welt :fresse:
bh7mliob.png
 
falls, wie ich annehme, die "cuda" processors des gt300, wie bei dem gt200, eine madd sowie eine mul Unit enthalten, dann stimmt meine rechnung der flops. Vorrausgesetzt die 1,7ghz auf der shaderdomain stimmen...

The Tech Report hat übrigens scheinbar genauso gerechnet wie ich:

http://techreport.com/articles.x/17670

Techreport schrieb:
Those numbers set the stage. We're guessing from here, but let's say 1500MHz is a reasonable frequency target for Fermi's stream processing core. That's right in the neighborhood of the current GeForce GTX 285. If we assume Fermi reaches that speed, its peak throughput for single-precision math would be 1536 GFLOPS, or about half of the peak for the Radeon HD 5870. That's quite a gap, but it's not much different than the gulf between the GeForce GTX 280's single-issue (and most realistic) peak and the Radeon HD 4870's—yet the GTX 280 was faster overall in graphics applications and performed quite competitively in directed shader tests, as well.

Double-precision floating-point math is more crucial for GPU computing, and here Fermi has the advantage: its peak DP throughput should be close to 768 GFLOPS, if our clock speed estimates are anything like accurate. That's 50% higher (actually 41% sub.ed.) than the Radeon HD 5870, and it's almost a ten-fold leap from the GT200, as represented by the GeForce GTX 280.

Aber wie gesagt - wir werden einfach abwarten müssen.

Wenn das auch nur annährernd so stimmt, was heute wieder auf der GTC gezeigt wurde, dann müssen sich Intel und AMD warm anziehen. Der Leistungsunterschied zwischen CPU und GPU Rendering wäre dann einfach zu groß, als das weiterhin uneingeschränkt CPU Renderfarmen benutzt werden.
Lucas arts hat bereits angekündigt eine komplette R.F. auf Basis der neuen NV GPUs aufzubauen.
In Zukunft wird das Klientel wohl wechseln. Hier werden dann zahlungskräftige Unternehmen vor der Tür stehen und die Spieleseite eher eine Nebenrolle spielen. ATI scheint in der Beziehung gar nicht in die Pötte zu kommen, oder?

Wie kommst du darauf? Die HD 5870 hat mehr als die doppelte DP Rechenleistung eines von Intel für Anfang 2011 in 32nm geplanten "Sandy Bridge" Octocores (mit SSE)!
Und Fermi erkämpft sich seinen Performancevorteil auch mit ~44% mehr Transistoren (3,1 Mrd. vs. 2,15 Mrd.), was kein Kunststück darstellt.

Allerdings hat man durch den Riesenchip den Fertigungsnachteil, weil für Computing Microruckler
und Inputlag keine Rolle spielen. Ein Serverboard mit 7x HD 5870X2 (nehmen
wir der Einfachheit halber mal je 1 TFLOPS DP Leistung an) würde bereits 128 Quadcore-Nehalems @ 3,33GHz
schlagen - mit 14 Chips, die jeweils nur 30% größer als Nehalems sind.


Und Intel und AMD ziehen sich längst warm an, was meinst du wofür Larrabee da ist,
und AMD ATi gekauft hat? ;)

Diese Entwicklung ist schon seit Jahren absehbar, allerdings finde ich pers. es etwas
früh von nV, "die Spieleseite eher eine Nebenrolle spielen" zu lassen, da Tesla
bisher gerade mal 1% des Umsatzes generiert hat. Aber wer weiß, C++ ist auf
jeden Fall schonmal ein sehr gutes Argument für die Adaption von GPGPU.

Sowohl aber Larrabee als auch die ATi Chips (und in gewisser Weise Bulldozer) zielen genau in dieselbe Richtung wie Fermi - wie
genau das ganze dann aussehen wird, weiß man leider aber noch nicht.


Grüße,
Mr.Malik
 
Zuletzt bearbeitet:
zum letzten punkt: denke ich auch wobei man nat. anmerken muß das ati im hinteren drittel sehr/ungewohnt verschwenderisch mit dem platz auf dem pcb umgeht.

Das ist mir auch völlig unverständlich, wieso man die ansonsten sehr gelungende Karte derart unvorteilhaft verlängern musste. Eine kürzere NVidia wäre wirklich begrüßenswert.
 
http://www.gamestar.de/hardware/news/grafikkarten/1959414/nvidia.html


garnicht gut


Zur Tatsache, dass der Fermi-Chip als Supercomputer-Chip und nicht als Spiele-GPU wahrgenommen wurde, sagte Daily, dass man nur eine gewisse Fläche im Chip belegen und sich dabei nur eine bestimmte Menge Energie verbrauchen dürfe. Einiges davon sei für Bereiche vorgesehen, die bei Spielen weniger Nutzen bringen als bei Berechnungen. Aber der Fermi-Chip könne herunterskaliert werden und auch wenn man momentan nicht über weitere Chips sprechen wolle, könne man sich vorstellen, dass man für Spiele-Karten weniger als 512 CUDA-Cores und pro Core auch weniger der neuen Features einsetze. Alle Fermi-Produkte, einschließlich der Spiele- und Workstation-Produkte würden in einem nah beieinanderliegenden Zeitrahmen angekündigt.

Damit bestätigt Daily die Erwartungen, dass der Fermi-Chip in der zunächst präsentierten Form für Spiele-Karten abgespeckt wird, da viele der Funktionen dort einfach wenig oder keinen Sinn machen. Eine Einschätzung der möglichen Leistung gegenüber der ATI Radeon HD 5870 ist aber auch weiterhin nicht möglich.
 
Das bestätigt auch die Vermutung, dass nVidia den G300 entsprechend herunterskalieren wird um mehr Produkte anbieten zu können. Meiner Meinung nach sind die meisten CUDA Einheiten für den Gaming-Sektor eh uninteressant bzw. nicht wirklich leistungssteigernd, da sie unter anderem auch über die Software angesprochen werden müssen und dies in den heutigen Spielen noch nicht der Fall ist (z.B. Physik oder KI Berechnung, die dann über die CUDA Einheiten realisiert werden könnte).
 
Und Fermi erkämpft sich seinen Performancevorteil auch mit ~44% mehr Transistoren (3,1 Mrd. vs. 2,15 Mrd.), was kein Kunststück darstellt.
Eben, das sollte man nie vergessen. GT300 wird sich eher mit dem R800 messen müssen. Und letzterer hat ~5 TFLOPS SP und ~1 TFLOPS DP. Dagegen wird nVidia immer noch keine Chance haben, wenn man bisher von maximal 100% mehr SP und etwa 5 mal so viel DP Performance gegenüber GT200 ausgeht.
 
Eben, das sollte man nie vergessen. GT300 wird sich eher mit dem R800 messen müssen. Und letzterer hat ~5 TFLOPS SP und ~1 TFLOPS DP. Dagegen wird nVidia immer noch keine Chance haben, wenn man bisher von maximal 100% mehr SP und etwa 5 mal so viel DP Performance gegenüber GT200 ausgeht.

dann bringt nv den nächsten chip usw, da der g300 weider mal aufgebohrt ist kommtja dann evtl was neues
 
Bis nVidia was neues bringt, hat ATI schon die übernächste Generation am Start. ;)
 
Wen interessiert die Vergangenheit?!

Wenn für Gamer nur eine "abgespeckte" Version des G300 kommt, wird der Leistungszuwachs nicht den Wert erreichen den wir hier alle erhoffen!

Lassen wir uns überraschen, aber die Nachricht gefällt mir nicht! Da siehts bei AMD gerade einfach besser aus ..

Sonst wurden die Gaming Karten und deren Details zuerst veröffentlich, warum diesmal nicht?!
 
Eben, das sollte man nie vergessen. GT300 wird sich eher mit dem R800 messen müssen. Und letzterer hat ~5 TFLOPS SP.
diese theoretische Leistung musss aber erstmal in reale Leistung umgesetzt werden und da happerts bei ATI momentan noch.
Ich hab von einem System mit ca. 2 TFlops auf 2,7 Tflops gewechselt und habe in der für mich interessanten GPGPU-Anwendung (Folding@Home) nur noch 25-32 % der ursprünglichen Leistung.:rolleyes:

Sonst wurden die Gaming Karten und deren Details zuerst veröffentlich, warum diesmal nicht?!
zu dem Thema stehen bei Hardware-Infos etwas:
Klick
 
Zuletzt bearbeitet:
ja klaro ati gehtj immer soooooo ab, sry bistn fanboy, nv is seit jahren schneller und hat bessere bq, find dich eben mal damit ab
Mich als F***** bezeichnen und dann solchen Unsinn schreiben. :rolleyes: Vielleicht solltest du dich mal besser informieren. nVidias nächste Generation nach dem GT300 wird laut deren Aussage noch 2-3 Jahre auf sich warten lassen. ATI will bereits 2H 2010 die RV9xx Generation launchen. Mit F***** hat das gar nichts zu tun. Das ist simpler Pragmatismus und ein wenig Rechnerei. Und dass nVidia bessere BQ hat bzw hatte, ist schlichtweg falsch. Lediglich bei AF hatten sie Vorteile, was aber spätestens seit dem RV8xx Geschichte ist. Und zur BQ gehört auch noch ein bisschen mehr. Bei AA und HD Wiedergabe hatte nVidia schon vorher Nachteile. Also bleib mal schön sachlich. Gerade du hast in etlichen Beiträgen jede Menge Fanatismus erkennen lassen. ;)

diese theoretische Leistung musss aber erstmal in reale Leistung umgesetzt werden und da happerts bei ATI momentan noch.
Ich hab von einem System mit ca. 2 TFlops auf 2,7 Tflops gewechselt und habe in der für mich interessanten GPGPU-Anwendung (Folding@Home) nur noch 25-32 % der ursprünglichen Leistung.
Nun ja, dass Anwendungen die Hardware erstmal vernünftig unterstützen müssen, um die theoretische Performance so effizient wie möglich zu nutzen, sollte klar sein. Das trifft auf nVidia genauso zu wie auf AMD. Darum ging es doch gar nicht.
 
Zuletzt bearbeitet:
Mich als F***** bezeichnen und dann solchen Unsinn schreiben. :rolleyes: Vielleicht solltest du dich mal besser informieren. nVidias nächste Generation nach dem GT300 wird laut deren Aussage noch 2-3 Jahre auf sich warten lassen. ATI will bereits 2H 2010 die RV9xx Generation launchen. Mit F***** hat das gar nichts zu tun. Das ist simpler Pragmatismus und ein wenig Rechnerei. Und dass nVidia bessere BQ hat bzw hatte, ist schlichtweg falsch. Lediglich bei AF hatten sie Vorteile, was aber spätestens seit dem RV8xx Geschichte ist. Und zur BQ gehört auch noch ein bisschen mehr. Bei AA und HD Wiedergabe hatte nVidia schon vorher Nachteile. Also bleib mal schön sachlich. Gerade du hast in etlichen Beiträgen jede Menge Fanatismus erkennen lassen. ;)


Nun ja, dass Anwendungen die Hardware erstmal vernünftig unterstützen müssen, um die theoretische Performance so effizient wie möglich zu nutzen, sollte klar sein. Das trifft auf nVidia genauso zu wie auf AMD. Darum ging es doch gar nicht.

das nv seit dem g80 stets schnellr ist unterschlägste ma flott ? die werden sicher rerteshs usw bringen um mit ati mitzuhalten
 
das nv seit dem g80 stets schnellr ist unterschlägste ma flott ? die werden sicher rerteshs usw bringen um mit ati mitzuhalten

also die 4000er Reihe kam vorm dem gt200 (bin mir abr nicht 100% sicher) und nvidias BQ ist erst seit dem g80 besser, aber das ist vergangenheit!
sich jetzt darüber zu streiten bringt nichts. Fakt ist dass der gt300 schneller als RV8XX sein wird und dann wieder ein RV9XX schneller als der gt300 sein wird und dann kontert nvidia wieder usw. usw.

Meiner Meinung nach geht es nicht darum ob, sonden WIELANGE sich die Karten an der Spitze halten können. Der RV7XX war wenn dann nur kurz ganz oben
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh