nVidia Geforce GTX 295 - Sammel + Info Thread Part 6

Status
Für weitere Antworten geschlossen.
Eine raus ist leider nicht sonderlich einfach da Sie Wassergekühlt sind.

182.50 -> selbes Problem
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hättest du mir einen Link? Ich finde spontan bei nVidia nichts.

Edit: hab ihn gefunden, der ist aber gut versteckt :fresse:
 
Zuletzt bearbeitet:
Der sieht Top aus, aber es fehlt PhysX, also musste ich das vom 190.38 nehmen.

Es ist auch so, dass beim 182.50 der Rechner mit einem BSOD abschmiert während z.B. mit dem 190.38 der Treiber wieder hergestellt werden kann.

Cryostasis ist gerade mal wieder ausgefallen, interessanterweise hat es sich mit dem 190.56 wieder gefangen.

Das eigentliche Problem besteht jedoch weiterhin.
 
Moin Moin

Eine frage habe ich , werde mir morgen ein GTX kaufen aber warum der Preis unterschied.

http://www.litec-computer.de/PC-Kom...92MD3-A-1792MB-2xDVI-HDMI-PCIe-20::19248.html

http://www.litec-computer.de/PC-Kom...P-1792MB-GDDR3-2xDVI-HDMI-PCIe-20::19362.html

Mich hatt auch der GTX Virus gepackt muste nur noch sabern beim lesen habe ganze thread gelesen ja hammer was alles so geschrieben wurde und dreimal neuen thread hehe ihr Kranken :)

Die 30€ zahle ich auch gerne habe oft gelesen wegen diese Tools von EVGA.

uuiii muss noch mein Signatur bild ändern wo sind meine NV Bilder hir nochmal nicht falsch verstehn mein Herz schlägt für NV ab heute nö ab Morgen puahaha arg wie Hässlich :lol:
 
Zuletzt bearbeitet:
@p1skop4T
Preisunterschiede gabs von Hersteller zu Hersteller immer (Evga verlangt meist etwas mehr).
Hier vergleichst Du aber auch zwei unterschiedliche Revisionen (wenn man nach den Abbildungen geht). Die Evga ist die neuere mit nur einem PCB (Platine) und die Asus hat zwei PCBs, bei denen der Kühler im Sandwich dazwischen liegt.
zum Thema SinglePCB steht aber eigentlich schon einiges im Thread.
welches Evga-Tool meinst Du?
den Voltage Tuner? ich bin gerade nicht am Laufenden, ob der mit der SinglePCB-Graka funktioniert.
In der Kompatibilitätsliste sind die Karten jedenfalls noch nicht dabei.

ciao Tom
 
Zuletzt bearbeitet:
Also - die Asus ist die alte 295 (Restbestand) - mit Volterra SpaWa (damit kann man schön under- und overvolten).

Die eVGA ist die neue Single PCB Variante, sie hat eine effizientere Kühlung, die auch leiser ist - dafür kann man nicht die VCore Werte über NiBiTor effizient editieren - sprich, dass sie nach dem Flashen auch wirklich anliegen. So um die 700 MHz schafft sie aber auch !

Die eVGA Tools gibt es auch für nicht eVGA Besitzer - das Voltage Tool kannste mit der eVGA CO-OP Version leider vergessen.

Generell kann man sagen, dass eVGA aufgrund der Tatsache, dass sie Granatie trotz OC - inkl. verändertem BIOS - und Kühlerwechsel geben und den besten Service samt den schnellsten Umtausch - Zeiten haben, meist so 20€ teurer sind als gleichwertige Modelle anderer Hersteller.


Wenn du willst, kann ich dir dann ja die beiden BIOSe editieren, schick mir nur - mit GPU-Z ausgelesen - beide BIOSe.

http://www.abload.de/image.php?img=1euva.png


MfG
Edge
 
Zuletzt bearbeitet:
hab gelesen das die sandwitch version der bessere sein soll aber welche ist dan besser der neuere Revison auch vom Kühlung her.

eigentlich wollte ich warten noch 4 Wochen und mir die neuen ATI kaufen aber ich hasses zu warten aus dem grund bestell ich nicht will ins laden und gleich schnuppern und mit einem Ständer in der Stadt rum lauffen :lol:

Welche soll ich mir jetzt kaufen die Evga
 
Zuletzt bearbeitet:
Im Idle ist die neue Revision so 5°C kühler - unter Last sind es vielleicht um die 10°C.

Wenn dir das editieren der Vcore Werte (Beispiel - OC mit höherer VCore und gleichzeitigem Undervolten für den 2D Modus) wichtig ist - nimm eine Sandwich 295.

Wenn dir ein leiserer (und etwas effizienterer) Kühler wichtiger ist - nimm die neue. ;)
 
Da ich nie meine GPU`s OC gemacht habe und auch nicht im Zukunft das tuhe dan werde ich mir die EvgA Kaufen morgen Abend ab eins könnt ihr dan die Bios haben und Screens,

Werde dan spähter schönen wakü für die GTX kaufen dan wirts richtig perfekt werden
 
Zuletzt bearbeitet:
Nun ja - wie gesagt, du musst ja nicht oc'en - hab ich auch nicht !

1.04V VCore sind ja Standard - für 3D und 2D

Ich hab bei meiner 1.01V 3D und 0.85V 2D. ;)


Aber es ist schon von Vorteil, wenn man die Karte dank Undervolting sparsamer und ähnlich kühl (zumindest unter Last) wie die neue Revision machen kann.
 
Bis nechstes jahr Dezember wird mein System mich noch gut bedienen und bis mal DX11 Spiele raus kommen und auch das richtig unterstützen wird ein jahr dauern sehe direktX10 wahrscheinlich sind es grademal 10 Spiele die das unterstützen.

Ich Spiele so nur meine Gams kauf nicht jedes Spiel wie manche, die Zeit habe ich auch garnicht. Zock zur Zeit AOC COD4 und Crysis mehr auch nicht warte auf COD4 Modern war 2 und auf Operation Flashpiont 2.

Ich verstehe manche wirklich nicht wie die das machen 20 Spiele gleichzeitig Zocken.
Hätte ich eine Firma würde ich solche mullti tallente sofort einstellen machen ihr Arbeit und Zocken gleichzeitg :shot:

Jetzt gehe ich Pennen gutes Nächtle muss Morgen früh ausem Haus bereite mich moralisch und Seelisch mich für morgen um 11.00Uhr auf meine GPU muhhaaha.
 
Zuletzt bearbeitet:
Mann die Peise gehen aber auch gut runter.
Ich habe für meine noch 480€ + Versand bezahlt.
Hatte sie aber auch im ersten Monat wo die raus kam gekauft.
Naja ich bereus keine Sekunde die gekauft zu haben.
Ich bin mal gespannt wie sie sich gegen den GT300 schlägt.
Wenn der nicht mindestens 20% Mehrleistung hat, bleibt die GTX 295 im PC.
 
Mann die Peise gehen aber auch gut runter.
Ich habe für meine noch 480€ + Versand bezahlt.
Hatte sie aber auch im ersten Monat wo die raus kam gekauft.
Naja ich bereus keine Sekunde die gekauft zu haben.
Ich bin mal gespannt wie sie sich gegen den GT300 schlägt.
Wenn der nicht mindestens 20% Mehrleistung hat, bleibt die GTX 295 im PC.

480 + Versand ? Du Glücklicher ! :)

Ich hab 489€ ohne Versand (Abholung - am 8.1.) bezahlt - man muss aber auch sagen, dass die Karte direkt beim Anruf noch 20€ billiger (auf der HP) war :fresse:;
den Ansturm hat man gut genutzt.

Das beste Release - Angebot war ja um die 430 oder 440€ - eVGA bei HV.
War natürlich innerhalb kürzester Zeit weg - ich hab dort auch nicht bestellt, als es noch genug auf Lager gab,
weil ich die Karte sofort haben wollte und nicht erst ein paar Tage warten. :fresse:


Ich glaub, das war das erste und letzte Mal, dass ich mir ne Karte direkt zum Release geholt hab - ist einfach zu teuer, wenn man die Preisentwicklung innerhalb von 5 Monaten betrachtet. :coolblue:


Ich mein schon im März / April waren einige Karten bei ~ 400€.


Insgesamt bin ich natürlich auch sehr zufrieden mit der Karte - sie ist jeden € wert ! ;)



Zur GTX 380:

Wenn alles stimmt, wird sie locker 20% schneller als die 295, denn man hat...
...kein SLI, sprich keine Skalierung (unter 100% - meist um die 70% bei der 295),
...32 SPs mehr als die 295,
...wahrscheinlich schon von Haus aus + ~ 21.5% mehr Takt (so um die 700 MHz wird geschätzt)
...bei 1 GHz GDDR5 alleine schon + 229% Speicherbandbreite (256 GB/s )gegenüber einer von zwei 295 GPUs - bei 1.1 GHz sind es dann schon 281.6 GB/s !
...deutliche Verbesserungen an der Architektur und auf allen Gebieten erweiterte Einheiten
...theoretisch geschätzte Leistung (bei 3 TFlops) + ~ 60 % gegenüber GTX 295
...wohl gleich 2 GB VRAM ,
...durch 40nm sicherlich auch ein gutes OC Potenzial - vielleicht aufgrund von ~ 2.4 Mrd. Transistoren nicht ganz so gut wie beim GT200(b), aber wahrscheinlich besser als ATi bei der HD 5xxx Serie.


So, die Vorteile fallen mir auf die schnelle ein.

Es wird ja sogar von einer "395" gemunkelt, an der man schon arbeiten soll und eventuell schon Ende des Jahres auf dem Papier fertig sein soll (falls ATi schnell eine HD 5870 X2 bring) - bei 40nm muss man dann sicherlich auf 2 abgespeckte / teildeaktiverte G300er zurück greifen.



Jetzt bräuchten wir nur eine Zeitmaschine ! :fresse:
 
Zuletzt bearbeitet:
Naja wir werden sehen.
Ich halte nichts von dieser theoretischen Leistung.^^
Ich hatte damals noch nen Paypal Gutschein so daß mich die Karte 400€ gekostet hat.
 
Das stimmt wohl mit der theoretischen Leistung <-> reale Gaming Power.

Dann müsste die HD 4k Serie auch 20% schneller als die GTX 200 Serie sein ! ;)
 
Vorallem ich betreib meine Karte ja auch nicht mit Luft.
Siehe Tacktung.
Bei 1,12 V ( die von der Temp gerade noch so gehen ) läuft sie 750 1660 1300
:teufel:
Dann sieht die Welt auch schon anders aus.
 
Ich habe gestern das EVGA Precision Tool 1.8.0 installiert und muss sagen das ich damit viel besser klar komme wie mit dem Riva-Tuner. Kein umständliches Profile anlegen und eine ordentliche Lüftersteuerung...

Dazu Hotkeys um die verschiedenen Profile direkt zu laden was akustisch auch bestätigt wird. Riva-Tuner ist bestimmt ein sehr umfangreiches Tool mit einigen Möglichkeiten, aber das EVGA-Tool ist für mich unkomplizierter und schneller zu bedienen.
 
Aus dem Grund hab ich Precision jetzt auch im Guide Paket geaddet - ich selbst nutze es eigentlich höchstens mal um die fps ingame anzeigen zu lassen - den Rest mach ich per NiBiTor.

Es ist aber schon ein sehr nettes Tool - die Basis ist ja ebenfalls RT. ;)
 
Sieht die Ingame-Anzeige besser aus wie bei fraps? Diese gelbe Farbe ist zum k*****
 
Hey zusammen,
habe ja teils bekannt,teils unbekannt, unerklärliche Probleme mit PhysX, eVGA meinte Ich soll doch mal eine Cuda Aplikation laufen lassen, da diese die selben GPU Regionen nutzt wie PhysX, um zu erfahren ob was defekt ist, da ja reine Grafik super funktioniert.

Mein erster Gedanke:Folding@Home. Der nette Herr meinte die Idee wäre garnicht blöde Ich solls mal testen.

Damit mir F@H aber alle Kerne nutzt sollte nun an jede GPU ein Monitor, da Ich aber keinen HDMI Monitor habe, noch ein Laden hier in der Umgebung passende Adapter oder Dummys, bin Ich nun am Ende, kann mir jemand sagen wie Ich die beiden verbleibenden GPUs, die auf dem HDMI PCB sitzen "zum Leben erwecke"?
 
Kann man auch sehen welches Profil aktiv ist? Ich sehe schon ich muss mich heute nochmal mit dem Prog beschäftigen ;)
 
@3ullit
mit dem 190.38 kann man meiner Erfahrung auch bei aktiviertem SLi alle vorhandenen GPUs nutzen.
Problem: es läuft leider nicht stabil (jedenfalls bei mir).
Deswegen deaktivere ich hierzu immer noch SLi.

Dein Monitor hat nicht zufällig mehrere Eingänge?
Um die GPU in F@H nutzen zu können, muss man den Desktop von Windows darauf erweitern. Wenn der Desktop dann mal erweitert ist, kann man ruhig den Monitor wieder abstecken. Der Treiber bleibt dann geladen und der F@H-Client läuft ohne Probleme bis zum nächsten Reboot.
Jedenfalls hats bei mir auf diese Weise noch im Dezember 2008 mit einem älteren Treiber geklappt.

ciao Tom

P.S. die Power Deiner 4 GPUs könnte das Luxx-F@H-Team gut gebrauchen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh