nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
anscheinend gibts von der Karte auch eine Variante mit Gehäuse in der Art der GTX 280:http://www.youtube.com/watch?v=UlZ_IoY4XTg&feature=fvw (bei 2:22 ist das hintere Ende der Karte zu sehen).
Irgendwie hätte der Stealth-Look (matter Kunststoff) was.

edit ich depp, das ist ja die Vorgängerkarte.
 
Zuletzt bearbeitet:
na für 1000 FPS ruckelt es doch schon sehr.

Ich bezweifle mal schwer das eine normale Kamera in der Lage ist 1000FPS aufzuzeichnen, geschweige den, dass der Monitor das Wiedergeben kann!
(hab die Tage mal was von 600Hz LCD gesehen...)

Das ist natürlich keine Fermi gewesen! :fresse:
 
Zuletzt bearbeitet:
Ach hätte ATI doch wenigstens bessere Treiber und PHYSX-GPU, dann könnte man über HD5870 nachdenken, aber so ?

Eine zusammenarbeit mit den Spieleentwicklern wäre auch mal wünschenswert, ich mein fast alles wird für NVIDIA optimiert.

Wenn ich mit ne Ati zulege und ein Spiel mal nicht so läuft wie eigentlich vorgesehen (Abstürze, schlechte performance, Grafikprobleme etc.), hätte ich immer das NVIDIA-LOGO im hinterkopf, schrecklicher gedanke.:heul:

Ich fermisse FERMI.
 
Zuletzt bearbeitet:
das ist mir klar dass das kein cam aufnehmen kann, trotzdem ruckelt es mit nem FULl HD Video würde man das viel mehr sehen das es ruckelt.

Aber wayne interessiert Crysis ^^
 
Zuletzt bearbeitet:
Die GT300 könnten aber echt "schlecht" werden! Ich bin selber ein NV Fan, hatte immer nur gute erfahrungen - nie treiberprobleme oder sonst was! Ich versuch mich grad zu überwinden meine geliebte 88GTX zu tauschen gegen ne 5870 - ... Da hat aber AMD/ATI ne mega leistung gebracht - Das kann schon an erkennen. Ich hoffe sehr das NV dadurch keinen genickbruch bekommt!


Ich bin sehr froh das es ATI gibt sonst würde ne GTX285 500,- euro kosten!
 
Zuletzt bearbeitet:
Ach quatsch, selbst wenn sie nur 20% schneller ist, ist das auch nicht so schlimm sonst hat ATI immer nen Kopfschuss bekommen jetzt ist halt mal der andere dran.

G80 vs R600 aua.....
 
Zuletzt bearbeitet:
Ja das stimmt ATI hat genung gelitten! NV hat aber kein AMD im rücken und in der heutigen zeit ist das schlecht!

Alle die ich kenne wollen ne ATI 5850 oder 5870!
 
Die GT300 könnten aber echt "schlecht" werden! Ich bin selber ein NV Fan, hatte immer nur gute erfahrungen - nie treiberprobleme oder sonst was! Ich versuch mich grad zu überwinden meine geliebte 88GTX zu tauschen gegen ne 5870 - ... Da hat aber AMD/ATI ne mega leistung gebracht - Das kann schon an erkennen. Ich hoffe sehr das NV dadurch keinen genickbruch bekommt!


Ich bin sehr froh das es ATI gibt sonst würde ne GTX285 500,- euro kosten!

das macht aber ATi nicht anders die hauen jetzt auch richtig rein mit der 5970 für sage und schreibe 599€
das hat NVIDIA die letzten 1.5jahre nicht gemacht obwohl sie bisher immer die schnellst karte hatten, eine GTX295 die damals neu auf den markt kam hatte auch keine gegner und kostete 499€ ,1 woche später 449€

da sieht man das ATI jetzt das ganze nicht anders wie nvidia macht.., nein nein die hauen noch ein hunni obendrauf.
 
Zuletzt bearbeitet:
Dabei hatte Nvidia das Oberhaupt in der GPU Branche, anscheinend hat die Krise hart getroffen :d, bin immer noch skeptisch das Nvidia mit der GT300 die Krone erneut erlangen wird.
 
ich denke schon, wenn das was auf dem papier steht stimmt, dann wird das ein wahres monster werden wenn es sich in der praxis genausogut umsetzt.
 
hier sieht man auch das DX11 schneller ist (und besser aussehen tut) als DX10, es folgen viele DX11 Games bald kommt DIRT2 (da glüht das G27 *g*).

Ich finde DX11 ist was sehr feines und sehr viele entwickler lassen sich auf DX11 ein (mehr wie auf DX10.1 oder DX10).

1920x1080


DX10 schönes Ding, DX10 ist langsamer wie DX11 :)

 
Ach hör mir auf mit DIRECTX11, bis das richtig etabliert ist vergehen noch 1-2 jahre !
Die HD5870 wird mit hoher wahrscheinlichkeit eh nicht mehr für richtige DX11 spiele reichen.

Beim erscheinen der GT380 gibts vielleicht 5-6 Spiele die kleinere DirectX11 effekte auf den Schirm zaubern wie STALKER, na toll... kaum der rede Wert heutzutage.

---------- Beitrag hinzugefügt um 03:07 ---------- Vorheriger Beitrag war um 02:42 ----------

http://viral-total.de/kultur/games/direct-x-10-vs-direct-x-11-video-in-hd.html (ab 4min)

Und das alles braucht weniger Power als bei DX10! Und mit Stalker gibts schon ein DX11 Spiel!

Hast schon die mega Unterschiede begutachtet ? :d

---------- Beitrag hinzugefügt um 03:19 ---------- Vorheriger Beitrag war um 02:42 ----------

Vergiss bitte nicht was eine 5870 alles mit bringt - schaus dir an! Schon allein DX11 zu dieser Zeit für 320 bis 380 ...


Alles?!? Also ich weiss nicht :
GRAW 2 : http://www.youtube.com/watch?v=5KHakdkKQH4
Cryostasis : http://www.youtube.com/watch?v=g_11T0jficE
Batman Arkham : http://www.youtube.com/watch?v=vINH6Z9kqgI
Mirrors Edge : http://www.youtube.com/watch?v=oUA0WG1hRto

NVIDIA hat Millionen in PHYSX reingepackt, da werden noch sehr viele GPU titel folgen in Zukunft !
Ohne diese Effekte ist es so als würde man Details komplett abschalten und dazu noch die besten, absolutes NO GO !
Stelle dir mal vor du holst dir ne ATI und 2010 erscheinen 15 Titel die mit megageilen PHYSX-GPU effekten protzen , schrecklich oder ?... also ich würd mir in den Arsch beissen.
 
Zuletzt bearbeitet:
Dass ich hier gerade aufgeräumt habe, sollte klar sein.
Ich kann fast nicht glauben, was hier heute Nacht los war!
Reißt euch doch einfach mal am Riemen :rolleyes:
 
Dass ich hier gerade aufgeräumt habe, sollte klar sein.
Ich kann fast nicht glauben, was hier heute Nacht los war!
Reißt euch doch einfach mal am Riemen :rolleyes:


Au, von mir fehlt auch einer!
Tschuldige, Riemen sofort gerissen! :d

Mal von PhysX abgesehen, würde mich das Ray-Tracing (OptiX) viel mehr reizen!
Damit lassen sich bestimmt klassse Spiele zaubern. :cool:
 
Ich zitiere mal den User X.Perry_Mental aus dem entsprechenden 3D-Center GT300 Thread:

Theo hat seinem Artikel "nVidia NV100 [Fermi] is less powerful than GeForce GTX 285?" http://www.brightsideofnews.com/new...mi-is-less-powerful-than-geforce-gtx-285.aspx inzwischen zwei lesenswerte Updates spendiert, die ein wenig auf die Unterschiede zwischen Fermi, Geforce und Quadro eingehen:

Zitat:
"Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers."

und:
"In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:

* Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
* ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.
* ECC will be disabled on GeForce cards and most likely on Quadro cards
* The capacitors used are of highest quality
* Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
* Multiple fault-protection
* DVI was brought in on demand from the customers to reduce costs
* Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
* Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.

Das lässt doch schonmal hoffen, dass die Geforce Fermikarten deutlich (!) schneller werden. Ich gehe hier von +30% Minimum aus, wenn man ECC und den Takt berücksichtigt. Es sei denn, ECC bezieht sich auch auf einen niedrigeren Takt und das ist nicht eine separate Maßnahme auf Tesla.
 
Und bis die Dinger auf den Markt kommen, vergehen noch locker 5 Monate.
Dann dauert es noch eine Weile, bis die auch wirklich gut erhältlich sind... :(

Okay, dann wirds vorher doch noch eine HD5870.
Verkaufen kann man dann ja immer noch.
 
Ach hör mir auf mit DIRECTX11, bis das richtig etabliert ist vergehen noch 1-2 jahre !
Die HD5870 wird mit hoher wahrscheinlichkeit eh nicht mehr für richtige DX11 spiele reichen.

Auch da hast Du wenig Ahnung sooner that you think wirds DX 11 Spiele geben. Denn auch der Fermi wird DX 11 können genau wie Intel Larreby .Und Vista und Win 7 können auch schon DX 11. Also wirds an neuen Spielen für PC bald mehr DX 11 Titel geben als andere.

Und das die 5K ATIs nicht reichen werden fantasierst Du Dir auch zusammmen.

DX 11 bringt mehr nicht weniger Frames und das gewaltig.
Wie die ersten DX 11 Tests eindrucksvoll beweisen.

Mit den beiden qualitätssteigernden Features können sich die Radeon-
HD-5000-Produkte gar noch weiter von der Konkurrenz absetzen. Die Radeon HD 5850 rendert um 36 Prozent flotter als die GeForce GTX 285, die Radeon HD 5870 gar um 61 Prozent.
http://www.computerbase.de/artikel/software/2009/test_stalker_call_pripyat/3/

Auch Battlleforge zeigt ein ähnliches Bild nicht DX 11 Karten haben no chance bei DX 11 Games.
http://www.pcgameshardware.de/aid,6...rge-inklusive-Benchmarks/Strategiespiel/Test/

Dirt 2 kommt am 4 Dezember da wirste Dir auch die Augen reiben was da abgeht mit DX11 Karten

Angekündigte DX 11 Games gibts ne ganze Menge. 20+ Titel in development
 
Zuletzt bearbeitet:
Hallo,

bei den Taktraten geht vielleicht wirklich noch was, da die Geforce-Varianten erst mit dem A3-Stepping ausgeliefert werden sollen:
Fermi A2 silicon alive and kicking (Fudzilla)
Wobei dieser Umstand die Veröffentlichung nicht beschleunigt. Allerdings ist mir das egal, wenn dadurch die Performance noch ein gutes Stück zulegt.

Home Nvidia Fermi GF100 first working desktop card spotted (Fudzilla)
<---- gehört aber nur zu dem Bild mit dem Unigine-Benchmark.

@Motkachler
die fps-Anzeige ist außerhalb des Bildes, was auch in der Quelle steht.
 
Zuletzt bearbeitet:
Nein, wohl wieder so ein "absichtliches" Foto.

Übrigens wäre das Gedankenspiel das man hier auf Gamestar lesen kann auch plausibel (auch wenn ich Gamestar nicht wirklich für eine qualitativ hochwertige Seite in dem Berreich halte).

Wer sagt dann das DP:SP 1:2 sein muss?
 
Gamestar lässt dort die Geschichte mit den MAD und MUL-Operationen völlig außer acht. Deshalb ziehen sie imho die falschen Schlüsse und kommen vielleicht doch zu dem richtigen Ergebnis: die Leistung ändert sich im Vergleich zur Vorgänger-Generation stärker, als die meisten anhand der nackten Zahlen annehmen.
Allerdings kann man die wie gesagt nicht direkt miteinander vergleichen.
In der Hinsicht (Vergleich der Gflops-Zahlen bei Nvidia-GPUs untereinander)hats hier aber schon technisch interessantere und vor allem auch qualifiziertere Postings gegeben.

Infos zum Vergleich der theoretischen Gflops-Leistung:
http://www.hardwareluxx.de/community/showpost.php?p=13338146&postcount=472

http://www.hardwareluxx.de/community/showpost.php?p=13338334&postcount=479
 
Zuletzt bearbeitet:
Damals war bei SP auch noch von 3TFlops die rede (egal wie realistisch das nun ist).

BSN schrieb:
If for instance, nVidia gets a 2 GHz clock for the 512 MIMD cores, we are talking about no less than 3TFLOPS with Single-Precision. Dual precision is highly-dependent on how efficient the MIMD-like units will be, but you can count on 6-10x improvement over GT200.

click.

@Dampfkanes, wie schon gesagt lassen sich die FMAs besser auslasten als die MADD + MUL. Von den ca. 1TFlop des GT200b bleiben noch knapp 700 wenn man das berücksichtigt. Bei Fused Multiply-Add steht mir quasi immer die volle Spitzenleistung zur verfügung. Wenn GF100 also evtl noch die 1,6Ghz knackt wäre seine Rohleistung (theoretisch) mehr als doppelt so hoch (aufbauend auf der SP : DP = 2:1 Speku).

Die 2,72 TFlops des RV870 sind zwar realistischer in der theorie, praktisch aber wegen der schlechte Shaderauslastung bei Vec5 bleibt davon aber wohl nicht mehr viel. Ich weiß nicht wie es bestenfalls aussieht, im schlimmsten aber halt nur 1/5.
 
Zuletzt bearbeitet:
wegen der schlechte Shaderauslastung bei Vec5 bleibt davon aber wohl nicht mehr viel. Ich weiß nicht wie es bestenfalls aussieht, im schlimmsten aber halt nur 1/5.
das brauchst Du mir nicht sagen. Ich leide beim Folding@Home-Projekt (GPGPU-Anwendung) aktuell genau unter diesem Umstand. Deshalb geht die Warterei weiter, wer meine Bedürfnisse besser erfüllen kann.
Nvidia durch Karten mit nicht zu niedrigem Takt oder ATI mit einem neuen Treiber, der die Leistung besser nutzt als bisher.
Allerdings bringt ja vieleicht auch noch ein neuer Folding@Home-Client Besserung.
 
Die 2,72 TFlops des RV870 sind zwar realistischer in der theorie, prektisch aber wegen der schlechte Shaderauslastung bei Vec5 bleibt davon aber wohl nicht mehr viel. Ich weiß nicht wie es bestenfalls aussieht, im schlimmsten aber halt nur 1/5.

Bedenke bei solchen Aussagen aber bitte auch, das ein RV770/RV870 wohl scheinbar nicht Shaderlimitiert ist. Sprich die reine Erhöhung der Shader sogut wie gar nix bringt.

Leicht zu erkennen am Umstieg damals von R600/RV670 auf RV770.
Shaderleistung um mehr als das doppelte gestiegen, aber die FPS in Games waren im Schnitt nur doppelt so hoch.

Es liegt auch weiterhin sehr nahe, das die RV770/RV870er Karten etwas unter der schwachen Filterleistung leiden.
Klar hat AMD hier seit dem R600 stark optimiert, aber das Verhältniss Shader/TMUs ist nach wie vor im Schnitt ziemlich gleich über die Jahre nach dem R600...


Im übrigen gibts da auch ein paar Tests im Netz die sich der Problematik mal angenommen haben. NV Karten reagieren sehr gut auf zum Beispiel reine Shadertakterhöhung. Sprich die Shader limitieren die Karte. Mehr Shader würden mehr Leistung bringen.
Bei AMD waren die Ergebnisse immer etwas konservativer. Da gab es anderweitig flaschenhälse...


Aber sei es drum, warten wir mal ab wie sich der Fermi schlägt... Und vor allem, was die Desktop Karten im Gegensatz zur Tesla Reihe anders können/besser können.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh