NVIDIA veröffentlicht GeForce 310.70 (Update)

Ich habe dieses jahr 6 rechner für kollegen und verwandte gebaut 3x GTX 670, 2x GTX 660ti und 1x GTX 680, warum ? ich installier treiber und die spiele die die wollen unds läuft und ich muss nix warten und dauernd hin ,auch bei nueen spielen. ich hab keine lust drauf das neues spiel xy erscheint und ich dauernd hin darf weil was net geht wies soll.

Schon erstaunlich. Ich baue auch für mein komplettes privates Umfeld die Rechner und halte es genau so wie Du. Nennt mich einen Fanboy, aber

- ein gutes Netzteil
- ein gutes (!) ASUS Board,
- Markenspeicher
- eine INTEL CPU
- eine NVIDIA Grafikkarte
- eine saubere Windows Installation

und man hört den Leuten nichts mehr. Sicher auch bei dieser Konstellation gehen Teile kaputt. Grade gestern ist dem Sohn eines Bekannten das Enermax Netzteil abgeraucht... 4 Jahre nach dem ich ihm den Rechner zusammenbaut habe. Aber das ist nicht das Problem. Ärgerlich ist das was GA-THrawn oben so schön beschreibt. Man tut den Leuten einen Gefallen (ich verdiene daran nichts und gebe EK's weiter) und hat letztendlich andauernd Palaver weil sie nicht bereit sind in gescheite Hardware zu investieren. Alle die dazu nicht bereit sind sollen sich ihre Kisten selber zusammenschrauben oder am besten direkt zum Media Markt gehen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab zwar immer msi z77 boards verwendet und be quiet E9 straight power 480W netzteile, haben aber mmn spitzenquali wie asus die msi mobos
 
Zuletzt bearbeitet:
Korrigiere mich wenn es nicht stimmt, aber wenn ich mich richtig erinnere gab es auch damals schon eine Menge Applikationen die weitaus mehr als 320MB VRAM belegt haben und unweigerlich abgeschmiert sind weil das "Feature" eben verhindert das der VRAM regelmäßig geleert wurde. Schnell war das Teil, aber Speed ist halt nicht alles......

Du hast schon recht, es war definitiv nicht 100% durchdacht das ganze damals. Und man hat ja auch dran rumgepatcht. Nur das ganze beispielsweise allein auf die 320MB Version zu schieben ist heute wie damals schon nicht ganz richtig. Es hatten zwar alle G80 Karten das Problem zu Anfang. Aber nur bei der 320MB Version viel es massiv auf. Eben weil es möglich war vom Speed her, Settings zu fahren, die eben den VRAM überladen haben.
Mach das mal heute ;) -> das Ergebnis ist quasi analog zu damals, teils sogar mit Abstürzenden Games.
Skyrim mit 4xSGSSAA auf nem 2560er Monitor + ein paar Texturmods und du bist im VRAM Limit. Andauernde Nachladeruckler bei 2GB VRAM sowie FPS Raten im Unspielbarkeitsbereich, teils sogar unter 10 FPS. ;)
Das Problem ist also in meinen Augen kein Problem, sondern es ist einfach ein Umstand, die Karte VRAM seitig zu überfüllen, das diese nicht mehr weis was sie tut. Das das ganze dann abschmiert, ist sicher unschön, nur ändert es an der Schuld des Users nix, der diese Settings fahren will, obwohl die Karte dafür nicht taugt.
Die Politik die AMD bzw. ATI zu der Zeit fuhr, ist auch nicht das gelbe vom Ei gewesen, nämlich alle Nase lang die Daten wieder aus dem VRAM zu kicken. Mit einem ähnlichen, wenn auch nicht ganz so massivem Effekt -> Nachladerruckler, wenn mal wieder was davon benötigt wird.

Ich habe damals hier im Forum mal Benches gemacht, G80 vs. R600. Beispielsweise war Anno ich glaube 1701 ein Extremes Beispiel für gute sowie schlechte VRAM Politik.
Bei einer NV Karte wurde alles im VRAM behalten. Man scrollte über die Karte, und je nach veränderter Vegetation in den Klimazonen wurden massiv viel andere Daten benötigt. Bei NV hatte man genau ein einziges mal Nachladeruckler, nämlich wo die Daten zum ersten mal auf dem Schirm sichtbar waren. (die VRAM Auslastungskurve ging stetig nur aufwärz) Bei ATI/AMD Karten damals war es so, das die Daten nach wegscrollen von einer Insel sichtbar (durch Auslastungsanzeigen) aus dem VRAM gekickt wurden und man quasi jedes mal, wenn man eine Insel betrat, die Daten neu einladen musste -> Nachladerruckler. (Auslastungsanzeige erst massiv runter, dann wieder hoch -> idR sogar mit kurz sichbarer Sanduhr vom Spiel)
Und genau das meine ich beispielsweise. Die einen nennen es Feature, die anderen nenne es Bug. Wenn ich will, das die Daten alle im VRAM sind, muss auch genügend Platz da sein ;) Den hatte die 320MB Version schlicht nicht... -> deswegen die Probleme, die eigentlich keine waren. Will ich möglichst wenig VRAM Belastung, kicke ich den Spaß immer wieder raus. (was aber wenig Sinn macht, da Nachteile)
Gothic 3 war auch so ein Beispiel. Da gab es auch massiv sich ändernde Daten nach Klimazonen.

Wies hier schon beschrieben wird, wenn neue games kommen gibts von nv entweder glecih nen neuen treiber oder das funzt mit dem letzten, bei amd wars offt so das es zuerst massive probleme gibt und die dann nach wochen- monaten mal gelöst wurden..
warum? ganz einfach, nvidia arbeitet mit den entwicklern zusammen und löst die probleme vorher, während amd nach gamerlase offt erstma dasteht wie bier macht blöd und sich dann erst an die arbeit macht..

Könnte schlicht und einfach wohl auch daran liegen, das NV sich diese "nahe" Zusammenarbeit mit den Entwickler einkauft, wärend AMD dies nicht macht. Es gibt/gab Newsmeldungen, das NV Geld an die Entwickler zahlte, damit diese NV only Features in ihre Games implementierten. Ebenso gab es Fälle, wo man AMD exklusiv Features zur damaligen Zeit aus dem Game schlicht rausgepatcht hat, damit NV Karten bei einem TWIMTBP Titel nicht zu schlecht dastehen ;)
Man kann ja gerne eine leichte Herstellerverbundenheit verspüren, nur an irgend einem Punkt wäre es ratsam, einfach mal opbjektiv zu sein. Es bringt niemanden was, einen Hersteller zu verteidigen oder runter zu machen. Die wollen alle samt nur einfach euer Geld ;)



schau dir nur mal den letzten gta release an, schatten gehen bis huete bei bf2 auf amd karten nicht richtig, bei swtor ging aa moantelang auf amd karten nicht, das setzt sich fort...

und von win 8 halte ich garnix für den desktop, die 6150 hat nichtma unified shader oder ?
Thema GTA, also wenn die Probleme durch den Hersteller selbst weggepatcht wurden, was hat der Grafikkartenhersteller damit zu tun?
BF2 und SWTOR spiele ich nicht, keine Ahnung. Aber AA ist wenn es nicht vom Game selbst bereit gestellt wird nie ein Garant, das es gehen muss. Und wenn es vom Game kommt, geht es idR auch.

Thema Windows 8 und Geforce 6. Spielt es eine Rolle ob das unified shader sind bzw. ob Windows 8 im Desktop Betrieb taugt? Fakt ist, der Treiber ist offiziell sowohl für die GPU Reihe als auch das OS freigegeben, funkt aber scheinbar nicht...

Umsonst leigt nvidias marktanteil bei dedizierten grakas derzeit bei ca 70%, da half auch die monatelange keplerverzögerung nicht...

Es liegt wohl einfach daran, das nicht jeder gleich losrennt, wenn es neue GPUs gibt ;)
Schaut man sich über längere Zeit mal Statistiken an, so sieht man schon was Phase ist. Bei Steam beispielsweise Stand Nov. 2012 ist die 560TI die meist verwendete DX11 Karte. Und es verwenden aktuell gerade mal grob 55% aller an der Umfrage teilgenommenen User eine DX11 GPU. Wie man unschwer erkennen kann, schwingt also bei fast der Hälte der User noch eine Kaufentscheidung von Hardware aus der Zeit von vor 3 Jahren mit.
Stand 2010 beispielsweise war die meist verwendete GPU übrigens eine aus der HD4800 Reihe ;) Und mit ~10% waren 3x mal mehr HD4800er GPUs in Verwendung als es heute die 560TI (mit ~3,5%) ist.
Ebenso sieht man, das der meist verwendete AMD Treiber aus dem Jahr 2010 ist, wohingegen der NV Treiber aus dem Jahr 2012 ist.
Auch sind die Zuwächse von Monat zu Monat interessant. Dort halten sich NV und AMD in den jeweiligen Produktklassen relativ die Waage...
es scheint so, als kauft der überwiegende Teil nach P/L und nicht dediziert nach Marke. Sonst wäre dieser Umstand nicht ziemlich ausgeglichen.

Alles in allem sind das übrigens halbwegs objektive Fakten, die jeder nachlesen kann... Irgendwelche Forenposts mit den Quengeleien der User sind hingegen oft schwer subjektiv.
Mich persönlich interessiert dabei auch nicht im geringsten, wer hier irgendwelche Probleme in welcher Art auch immer, mit AMD Hardware oder dessen Treibern hat. Wenn ich etwas teste, mache ich das selbst anstatt mich auf unbekannte Dritte zu verlassen. Und ich kann dir sagen, das für mein Einsatzgebiet sich NV und AMD Treibertechnisch absolut die Waage halten.
Und dabei nehme ich die Leute hier voll und ganz ernst. Nutzt mir nur absolut gar nichts, wenn ich das gleiche Problem nicht habe bzw. das Problem bei mir nicht aufkommen kann, weil ich das Spiel nicht habe.
Das gleiche gilt natürlich auch andersrum, nur die wenigsten werden hier zwei bzw. drei unterschiedliche Monitore in einem drei GPU (zwei im SLI + eine dediziert) Gespann nutzen und können somit Probleme mit eben jener NV Hardware/Software nachstellen bzw. deren Relevanz einschätzen/einstufen.
Es bleibt also einfach nur im Endeffekt zu sagen, das es klar zu differenzieren gilt. Pauschalaussagen sind idR ziemlicher quatsch.

Meine Aussagen basieren übrigens auf ATI/AMD Hardware seit der R300 GPU und aus fast jeder Generation mindestens eine. Genauso bin ich bei NV seit der Geforce2 dabei ;) mit ebenso fast aus jeder Generation mindestens einem Produkt.
 
sind wir mal ehrlich, es ist für die user, grade die unversierten, doch relativ egal ob nvidia die hersteller nun jetzt nur unterstützt oder sich da einkauft (glaube das ist je nach game unterschiedlich) soalnge am ende das ergebnis für die user postiv ist ? zumindest dei von nvidia... ;)
im übrigen grad wieder ganz frissch bei mechwarrior online, bei manchen amd usern gibts klötzchenartefakte und frame einrüche seit dem letzten patch, bei mir läufts seit der cloed beta tadellos

ich sehe die statistiken auch etwas andere, auch als nvidia nicht so dolle generationen hate (GTX 4xx) haben sie gut verkauft, und amds monatelange frühere verfügbarkeit neuer generationen hat nix gebracht.

ich denke auch amd sollte endlich mal nen markting fuchs einstellen, selbst die dümmsten daus haben im kopf nvidia die sind gut und schnell weilses irgendwoe ma gehört oder gelesen haben und seis nur im blödmarkt prospekt
 
Nochmal die Frage, wenn ein Programmierer eines Games einen Patch bringt, der auf einmal dann Fehler auf gewisser Hardware produziert, was kann bitte der Hersteller der Hardware dafür?
Beide, sowohl NV als auch AMD halten sich an die gängigen Direct3D Spezifikationen. Und beide stellen einzig und allein die Schnittstelle für den Programmierer bereit. Wenn der Programmierer eines Spiels da irgendwas verbockt, ist noch lange nicht der Hersteller der Hardware schuld.

Wie ich schon ansprach, gerade das Thema Patcherei ist eine heikle Sache, das ganze wird oft äußerst Stiefmütterlich behandelt. Und gerade die nötige Qualitätskontrolle der Software selbst fehlt oft bzw. lässt eindeutig zu wünschen übrig. Wie kann es bitte passieren, wenn jemand seine gepatchte Software selbst testet, das diese auf potentiell 50% aller Grafikhardware am Markt auf einmal Fehler ausspuckt? -> da ist eindeutig der Programmierer des Spiels das Problem, der Mist genaut hat, denn es schien ja vorher zu laufen.

Und Thema Statistik. Dann schau mal genauer hin ;) Die HD5000er Karten hatten einen regelrechten Boom ausgelöst... Die 400er NVs, gerade größer GTX 465 (also GF100 Basis) waren in der Steamstatistik recht wenig vertreten. Aber auch hier sollte man klar differenzieren. Die Top NV Karten sind genau so wie die Top AMD Karten oft mit recht mauem P/L Verhältnis ausgestattet. Die Mittelklasse ist das was ein gutes P/L hat. Und genau dort wird gekauft. Was die Statistik auch eindeutig belegt.

Und Thema unterstützen von Games. Ich gebe dir vollkommen recht. Für den Endkunden spielt es weniger die Rolle, der will nur das beste für sein Geld. Keine Frage ;)
Dennoch verlange ich (und das sollte nicht zu viel sein) wenn man über solche Themen redet, das man zumindest eine objektive Haltung einnehmen kann. Und wie ich schon sagte, objektiv ist da nicht alles Gold, was glänzt und was NV produziert.
Ich erinnere da noch an die Aufforderung diverser Redaktionen nen Test zwischen AMD und NV Modellen mit explizit genannten Games zu machen -> was NV in ein gutes Licht rücken sollte.
Ich erinnere an die Tatsachen von rausgepatchten DX10.1 Unterstützungen, damit NV Hardware nicht einen Nachteil in Sachen Speed erhält (der defintiv dort zu sehen war)
Ich erinnere an PhysX per GPU, was auch 1A auf CPUs performt, wie unabhängige Benchprogramme ala Fluidmark beweisen, wo auf wundersame weise aber in Gametiteln nur ein einziger Thread für die PhysX Berechnung genutzt wird (werden darf)
usw.
Die Liste lässt sich sicher noch weiter fortführen.


Aber nix für ungut ;)
Ich verwende aktuell ja selbst NV, weil ich das Thema AA Bits und mögliche SGSSAA Erzwingung sehr schätze. Dennoch kann ich an der Stelle massiv differenzieren ;)
Es muss aber in der nächsten Generation nicht ebenso aussehen. AMD hat bei dem Thema nämlich auch massiv aufgeholt ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh