nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
ATI hatte bis zum R600 immer die besseren Karten (Ihr könnt die kurze Zeit in der Nvidia eine schnellere Karte vernachlässigen).

Ähm...nein. Mit dem Rage konnte ATI nicht wirklich gegen NV antreten und auch danach sah es nicht unbedingt immer rosig für Ati aus. Der Konter für den Geforce 3 kam reichlich spät, danach konnte sich Ati ganz gut behaupten mit der 9000er Reihe und es gab immer ein gerangel um die Krone.

Davon einmal abgesehen, ist dieser Spaß hier OT vom feinsten..

Richtig, es gibt einfach zu wenig News.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Genau seitdem sie zu AMD gehören bringen sie meiner Meinung nach nur schlechte Karten, Grund: Weil AMD seit dem Sommer 2006 durch den C2D nicht mehr so viele Prozessoren im Server- und Desktopbereich absetzen konnte wie früher (2003-2006) verloren sie sehr viel Geld und zusätzlich belastete die ATI-Übernahme AMD. ATI hatte bis zum R600 immer die besseren Karten (Ihr könnt die kurze Zeit in der Nvidia eine schnellere Karte vernachlässigen). Seitdem sie zu AMD gehören achtet ATI eher auf Energieeffiziez usw. Denn wer bitteschön würde einen Smart bauen, wenn er die Möglichkeit hat einen Porsche oder Ferrari zu bauen um damit anzugeben?! Glaubt mir, wenn ATI heute unabhängig wäre, hätten wir den Fermi schon längst vergessen;)

Du weist aber schon das ATI den R600 sogut wie gänzlich alleine entwickelt hat?
Da hat AMD nur im Endstadium noch bisschen mit dem Finger drin rum rühren können. Mehr aber auch nicht. (Beispielsweise das Streichen der XTX Version mit 800MHz GPU Takt)
Sprich der R600 ist ganz alleine ATIs Bier, mit allen Vor- und Nachteilen.

Aber das gehört hier nicht rein, wenn du über AMD oder den R600 reden willst, mach das bitte im richtigen Thread zu Karte...
:btt:
 
Richtig, es gibt einfach zu wenig News.

Das heißt doch aber nicht, dass man einen Thread, der sich offensichtlich mit einem anderem Thema beschäftigt, aus Lust und Laune mit anderen Sachen (eben offtopic Gedönst) zumüllt. Wenn es eben keine News gibt u./o. nichts zu sinnvollen(!) Spekus beizutragen hat, kann man doch wenigstens versuchen die Finger still zu halten. Ich hatte mich ja erst neulich dazu, mehr oder weniger, geäußert. Tut mir leid wenn es nervt - allerdings finde ich, das auch im Internet bzw. in einem Forum, Acht auf Regeln und Ordnung gelegten werden sollte.

(Mir ist klar, dass ich mich gerade selbst im OT Sumpf befinde.)

Gruß
 
auf deine Aussage das 1GB VRam vollkommen ausreicht.
Irgendwo hier gabs noch nen Thread in dem mal getestet wurde welche Spiele bei welcher Auflösung wieviel VRam verbrauchen.
finde den aber irgendwie grad nicht wieder...


Vergleich 5870 mit gtx 285




Vergleich 5870 Crossfire mit gtx 295 Sli



jagut, als Einzelkarte ists noch ein bissi mau, aber im CF sehe ich keine Probleme
 
@Grinsemann
Du kommst jetzt aber nicht mit Screenshots an, die vor NDA-Fall der HD5xxx-Reihe ins Netz gelangt sind?
 
Der Unterschied sollte ja wohl eher noch grösser geworden sein, da die 5000er sicherlich mehr von Treibern profitieren konnten als die gt200er!?

Zur Speicherbandbreite: Da würde nVidia wieder ordentlich vorlegen, bin mal gespannt, wie sich das auswirkt.
 
Zuletzt bearbeitet:
Das heißt doch aber nicht, dass man einen Thread, der sich offensichtlich mit einem anderem Thema beschäftigt, aus Lust und Laune mit anderen Sachen (eben offtopic Gedönst) zumüllt. Wenn es eben keine News gibt u./o. nichts zu sinnvollen(!) Spekus beizutragen hat, kann man doch wenigstens versuchen die Finger still zu halten. Ich hatte mich ja erst neulich dazu, mehr oder weniger, geäußert. Tut mir leid wenn es nervt - allerdings finde ich, das auch im Internet bzw. in einem Forum, Acht auf Regeln und Ordnung gelegten werden sollte.

(Mir ist klar, dass ich mich gerade selbst im OT Sumpf befinde.)

Gruß

Genau aus diesem Grund gibt es hier in letzter Zeit wenig von mir zu lesen.

Aber um jetzt nicht schon wieder OT zu sein:

Cuda 3.0 SDK: http://www.nvidia.de/object/cuda_get_de.html

und noch nen paar andere Sachen:

http://ionra.blogspot.com/2010/01/nvidias-show-off-gf100-at-ces-2010.html
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3719&p=3
 
Zuletzt bearbeitet:
Und was sagen diese Charts nun aus?
Du willst mir damit sagen das eine 5870 bei gleicher menge Ram mehr power hat als eine GTX285?
Das ändert nichts daran das 1GB VRam nicht genug ist. sobald man die settings hochschraubt gehts mit den FPS nach unten.
Die zweite Chart ist ja völlig unnütz im bezug auf unsere diskussion da die SLI/CF Systeme ja schon mehr als 1GB VRam haben.

Der Stalkerbench taucht natürlich nicht beim Single-GPU Chart auf^^
btw. hat ein tripleheadsystem noch ein paar millionen Pixel mehr als eine 30"er Auflösung...

wie dem auch sei, ich habe zumindest die Erfahrung gemacht das ich 1GB VRam fast immer voll kriege sobald ich an der Qualitätsschraube drehe.
 
Die zweite Chart ist ja völlig unnütz im bezug auf unsere diskussion da die SLI/CF Systeme ja schon mehr als 1GB VRam haben.

Quatsch, du hast in SLI/CF immer nur so viel nutzbaren Speicher, wie die Karte im Gespann mit der niedrigsten Speichermenge.
Betreibst du ne HD4850 512MB mit ner HD4850 2GB hast dennoch nur 512MB nutzbar.
 
Eine GTX295 hat aber 1,79GB Vram. Bei dem HD5870 System gebe ich dir Recht.

Edit: oder sind da etwa nur 896MB nutzbar?!
 
Zuletzt bearbeitet:
Die Chart ist trotzdem unnütz, da beim ersten mal eine 5870 gegen eine gtx285 getestet wurde,
und beim zweiten mal zwei 5870 gegen eine GTX295 anstatt zwei GTX285.

wie dem auch sei, ich bin dennoch der meinung das man fehlenden
speicher nicht mit rechenleitung aufwiegen kann oder sollte.
 
Zuletzt bearbeitet:
Wenn Fermi gut wird hat Rot ein Problem.
Nicht im geringsten. Dafür wird Fermi in den wichtigen Marktsegmenten nicht vertreten sein, wie Mainstream oder Mobilmarkt. Zudem sind ATIs Chips weit wirtschaftlicher. Da hat man genug Spielraum im Performance/High-End Bereich. Chezzard sieht das schon realistisch. ATI wird in den nächsten Monaten den Takt vorgeben, machen sie ja eigentlich schon seit dem Launch der 5000er Generation im letzten Jahr, und nVidia kann darauf nur reagieren. Ich befürchte eher, diese Problematik wird sich im nächsten Jahr für nVidia noch verschärfen, siehe GloFo 28 nm und RV9xx.

Genau seitdem sie zu AMD gehören bringen sie meiner Meinung nach nur schlechte Karten, Grund: Weil AMD seit dem Sommer 2006 durch den C2D nicht mehr so viele Prozessoren im Server- und Desktopbereich absetzen konnte wie früher (2003-2006) verloren sie sehr viel Geld und zusätzlich belastete die ATI-Übernahme AMD. ATI hatte bis zum R600 immer die besseren Karten
Also das würde ich mal ganz klar verneinen. Ausserdem ist der R600 auf ATIs Mist gewachsen. Damit hatte AMD noch gar nichts zu tun. Erst durch AMD ist ATI wieder auf den richtigen Weg gekommen.

Seitdem sie zu AMD gehören achtet ATI eher auf Energieeffiziez usw.
Und damit HAT ATI heute bessere Karten als noch zu R600 Zeiten. Pure Rohleistung ist ein Relikt aus vergangenen Zeiten. Das muss nVidia gerade schmerzlich feststellen. ;)
 
Die Chart ist trotzdem unnütz, da beim ersten mal eine 5870 gegen eine gtx285 getestet wurde,
und beim zweiten mal zwei 5870 gegen eine GTX295 anstatt zwei GTX285.

wie dem auch sei, ich bin dennoch der meinung das man fehlenden
speicher nicht mit rechenleitung aufwiegen kann oder sollte.


Nur mal eine kleine Anmerkung, wenn dort von GTX295 SLI die Rede ist, gehe ich von 2 GTX295 aus und nicht nur von einer. Allerdings sind die Werte dann doch nicht realistisch.
 
Zuletzt bearbeitet:
Nur mal eine kleine Anmerkung, wenn dort von GTX295 SLI die Rede ist, und es sich tatsächlich um ein Quad-GPU System handelt
ist die verdammte Chart trotzdem ungültig weil das nvidia setup in diesem fall dann knapp 800MB VRam mehr und 2 zusätzliche GPUs hätte.

Your Argument is invalid! :fresse:

Das ding ist sowieso völlig unnütz. wir bräuchten hier eine chart in der nur eine karte mit mehreren VRam größen getestet ist - bei verschiedenen Auflösungen und grafikdetails.

Diese Chart da oben beweist nicht das eine Grafikkarte mit mehr als 1GB VRam mehr Leistung bringen kann,
sie sagt lediglich aus das mehr rechenressourcen bei gleichbleibender VRam Menge mehr Power bringen kann.
 
Zuletzt bearbeitet:
Die Chart ist trotzdem unnütz, da beim ersten mal eine 5870 gegen eine gtx285 getestet wurde,
und beim zweiten mal zwei 5870 gegen eine GTX295 anstatt zwei GTX285.

wie dem auch sei, ich bin dennoch der meinung das man fehlenden
speicher nicht mit rechenleitung aufwiegen kann oder sollte.

wenn man das damit aufwiegen kann ist es ein leichtes Rechenexempel kosten einsparen zu können ;)
mehr wollte ich mit dem Beispiel eigendlich nicht ausdrücken...mal abgesehen von der Effizienz des Speichers.
 
Nur mal eine kleine Anmerkung, wenn dort von GTX295 SLI die Rede ist, und es sich tatsächlich um ein Quad-GPU System handelt
ist die verdammte Chart trotzdem ungültig weil das nvidia setup in diesem fall dann knapp 800MB VRam mehr und 2 zusätzliche GPUs hätte.

Your Argument is invalid! :fresse:

Das ding ist sowieso völlig unnütz. wir bräuchten hier eine chart in der nur eine karte mit mehreren VRam größen getestet ist - bei verschiedenen Auflösungen und grafikdetails.

Diese Chart da oben beweist nicht das eine Grafikkarte mit mehr als 1GB VRam mehr Leistung bringen kann,
sie sagt lediglich aus das mehr rechenressourcen bei gleichbleibender VRam Menge mehr Power bringt.

Das war überhaupt kein Argument für irgendwas, sondern nur eine Feststellung die zeigt das dieser chart Quatsch ist und sonst nichts.
 
Nicht im geringsten. Dafür wird Fermi in den wichtigen Marktsegmenten nicht vertreten sein, wie Mainstream oder Mobilmarkt.

Von Fermi sind mehrere Versionen in Entwicklung, worauf schon der GF104 hindeutet der wahrscheinlich im Q2 das Licht der Welt erblickt. Jener wird wohl für das Mainstreamsegment vorgesehen sein, zumindest sprach man mal davon das er in die Kerbe des GT200b schlagen soll, ich denke mal das war Leistungstechnisch bezogen.


Zudem sind ATIs Chips weit wirtschaftlicher. Da hat man genug Spielraum im Performance/High-End Bereich.

Stimme ich dir im groben und ganzen zu. Trotzdem weißt du das die Möglichkeiten mit dieser Strategie begrenzt sind.

Chezzard sieht das schon realistisch. ATI wird in den nächsten Monaten den Takt vorgeben, machen sie ja eigentlich schon seit dem Launch der 5000er Generation im letzten Jahr, und nVidia kann darauf nur reagieren.

Ohne zu wissen was Fermi wirklich kann halte ich die Aussage für ziemlich blauäugig.


Ich befürchte eher, diese Problematik wird sich im nächsten Jahr für nVidia noch verschärfen, siehe GloFo 28 nm und RV9xx.

Auch nur blanker Optimismus. Du weißt das GF die gleichen Probleme bekommen kann wie TSMC jetzt. Allerdings wird NV wohl dieses Jahr keinen geshrinkten Refresh anbieten können weil TSMC wohl nicht so weit sein wird. Fermi müsste also auch gegen einen möglichen RV890 bestehen können, der wie gesagt bisher noch nicht angekündigt ist aber die Vermutung nahe liegt das ATI es macht wie bei RV770->RV790. Im Jahr 2011 wenn der RV9xx kommt sieht die Sache eh schon wieder ganz anders aus.
 
wenn man das damit aufwiegen kann ist es ein leichtes Rechenexempel kosten einsparen zu können ;)
mehr wollte ich mit dem Beispiel eigendlich nicht ausdrücken...mal abgesehen von der Effizienz des Speichers.

Stromverbrauchstechnisch wäre mehr ram statt rechenpower von vorteil. logisch.
aber mehr VRam hilft für mehr FPS nur bei hohen Auflösungen und/oder AF/AA

Das war überhaupt kein Argument für irgendwas, sondern nur eine Feststellung die zeigt das dieser chart Quatsch ist und sonst nichts.

passt schon, wenns zwei GPUs sind stimmts nicht, und wenns vier GPUs sind stimmts auch nicht.

der Spruch passte da nur grad gut hin^^
 
Stromverbrauchstechnisch wäre mehr ram statt rechenpower von vorteil. logisch.
aber mehr VRam hilft für mehr FPS nur bei hohen Auflösungen und/oder AF/AA

das sind aber Kosten die an den Verbraucher gehen und nicht an Hersteller.
 
Die GPU Entwicklung und den VRam zahlt sowieso letzendlich alles der Verkäufer.

Aber da hast du schon recht, bei einem Powermodell mit nochmal 1GB VRam extra müsste der käufer nochwas drauflegen.
Ist ja auch in Ordnung, würden sicher auch viele machen. gibt es halt eine große, und eine kleine VRam version.

Aber da fragt man sich warum z.b. ATI den Kartenherstellern vorgibt nur einen Gigabyte Ram auf die 5870 Karten zu verbauen. -.-
 
Die GPU Entwicklung und den VRam zahlt sowieso letzendlich alles der Verkäufer.

Nochmal genau nachdenken. Ich glaube, ich weiß, was du meintest, aber das da ist falsch. ;) Die Kosten für die Entwicklung und jegliche Speicherzellen auf den Grafikkarten zahlt letztlich der KÄUFER.
 
Wenn man einer eigentlich ganz guten Quelle aus dem 3DC und B3D Forum glauben schenken darf dann wird 32x AA wohl 8x MSAA + 24x CSAA...

Ailuros schrieb:
Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft und auch mit dem ominoesen AA Muster ueber welches man schon seit Jahren meckert. Zumindest die MSAA Anzahl fuer das 32xAA hab ich wohl getroffen und errrr weiteres gibt es erst spaeter sonst krieg ich noch eins aufs Dach
 
Von Fermi sind mehrere Versionen in Entwicklung, worauf schon der GF104 hindeutet der wahrscheinlich im Q2 das Licht der Welt erblickt. Jener wird wohl für das Mainstreamsegment vorgesehen sein, zumindest sprach man mal davon das er in die Kerbe des GT200b schlagen soll, ich denke mal das war Leistungstechnisch bezogen.
Das Problem ist nur, mit jedem Monat, der vergeht, rückt ATIs nächste Generation bzw ein Refresh näher. Und Fermi muss erstmal beweisen, dass er sich mit der aktuellen ATI Generation in diesen Marktsegmenten messen kann. Was eher bezweifelt werden darf angesichts der Chip Grössen.

Ohne zu wissen was Fermi wirklich kann halte ich die Aussage für ziemlich blauäugig.
Nee, das hat mit blauäugig nichts zu tun. So ist nun mal die aktuelle Faktenlage.

Auch nur blanker Optimismus. Du weißt das GF die gleichen Probleme bekommen kann wie TSMC jetzt.
Wieso Optimismus? Aus Sicht von nVidia muss man es leider erstmal pessimistisch sehen. Und GloFo ist nicht TSMC. Man kann ausschliessen, dass GloFo derartige Probleme bekommt. Die Zusammenarbeit mit AMD ist eine ganz andere. Und das trifft auf die technologischen Voraussetzungen ebenso zu.
 
Mal was anders Leute:

Was schätzt ihr denn was die GTX380 (oder wie auch immer sie heissen soll) kosten soll?
Ich hab schonmal 500€ aufe Seite gelegt bin mir aber nicht sicher womit ich eigentlich rechnen muss...
 
Habe ich auch gemacht...ich denke man sollte damit auskommen.
 
Wieso Optimismus? Aus Sicht von nVidia muss man es leider erstmal pessimistisch sehen. Und GloFo ist nicht TSMC. Man kann ausschliessen, dass GloFo derartige Probleme bekommt. Die Zusammenarbeit mit AMD ist eine ganz andere. Und das trifft auf die technologischen Voraussetzungen ebenso zu.

Bleibt noch der Punkt das man bei AMD bzw. jetzt GloFo keinerlei Erfahrungen hat was die Fertigung derartiger Chips anbelangt. ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh