[Sammelthread] NVIDIA Geforce GTX 570 GF110 Sammelthread + FAQ - Bei Fragen erste Seite lesen (2)

NVIDIA Geforce 570GTX GF110 Sammelthread

Impressionen der Karte:

gtx570-1-950x633efxy.jpg
gtx570-2-950x633me58.jpg


gtx570-3-950x633bisp.jpg
gtx570-5-950x633jgby.jpg


gtx570-7-950x633yh65.jpg
gtx570-10-950x633xd7o.jpg



Weitere Bilder zur Karte, Detailaufnahmen der GPU und des Speichers findet ihr im Hardwareluxx-Artikel


Technische Daten der Geforce 570 GTX - GF110

  • Chip = GF110
  • Fertigung = 40 nm
  • Chip Größe = 530 mm²
  • Transistoren = 3,0 Milliarden.
  • Chiptakt = 732 MHz
  • Shadertakt = 1464 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 480 (1D)
  • FLOPs (MADD/ADD) = 1,41 T.flops
  • ROPs = 40
  • Pixelfüllrate = 29,3 GPix/s
  • TMUs = 60
  • TAUs = 60
  • Texelfüllrate = 43,9 GTexell/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 5.0
  • Vertexshader = SM 5.0
  • Geometryshader = √
  • Memory
  • Art = Samsung
  • Speichermenge = 1280 MB GDDR5
  • Speichertakt = 950 MHz
  • Speicherinterface = 320 Bit
  • Speicherbandbreite = 152,0 GB/s
  • Stromaufnahme >>> 219 Watt TDP Last / -- Watt TDP idle (über einen 2x 6xPin Anschluß)
  • Die Karte besitzt Shader 5.0, dass heißt sie hat DX11 Unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte:
Code:
[B]Single GPU:[/B]
[url=http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17116.html][b]Test: NVIDIA GeForce GTX 570 (Hardwareluxx.de)[/b][/url]
[url=http://www.guru3d.com/article/geforce-gtx-570-review/]GeForce GTX 570 review (guru3d.com)[/url]
[url=http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/]Test: Nvidia GeForce GTX 570 - 07.12.2010 - ComputerBase[/url]
[url=http://www.pcgameshardware.de/aid,802725/Nvidia-Geforce-GTX-570-fuer-350-Euro-im-Test-Grafikqualitaet-mit-Leistung-ueber-GTX-480-Niveau/Grafikkarte/Test/]Nvidia Geforce GTX 570 für 350 Euro im Test (PCGH)[/url]
[url=http://www.anandtech.com/show/4051/nvidias-geforce-gtx-570-filling-in-the-gaps]NVIDIA's GeForce GTX 570: Filling In The Gaps - AnandTech :: Your Source for Hardware Analysis and News[/url]
[url=http://www.tomshardware.com/reviews/geforce-gtx-570-gf110-performance,2806.html]GeForce GTX 570 Review: Hitting $349 With Nvidia's GF110 - tomshardware.com[/url]
[url=http://ht4u.net/reviews/2010/nvidia_geforce_gtx_570_gf110_test/]NVIDIA GeForce GTX 570 - erneute Schrumpfkur[/url]
[url=http://techpowerup.com/reviews/ASUS/GeForce_GTX_570/]ASUS GeForce GTX 570 - techPowerUp[/url]
[B]
SLI:[/B]
[url=http://www.guru3d.com/article/geforce-gtx-570-sli-review/]GeForce GTX 570 SLI review (guru3d.com)[/url]



Geizhals Links:
Code:
[URL=http://preisvergleich.hardwareluxx.de/?cat=gra16_512&xf=132_1024~1439_GTX+570]HWluxx Preisvergleich - 570GTX[/URL]


Taktraten der werksseitig übertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]- [URL="http://preisvergleich.hardwareluxx.de/a596943.html"]EVGA GeForce GTX 570 Superclocked (797MHz, 1594MHz, 975MHz)[/URL]
[*]- [URL="http://preisvergleich.hardwareluxx.de/a596985.html"]Point of View GeForce GTX 570 TGT Beast Edition[/URL] (?, ?, ?)
[*]- [URL="http://preisvergleich.hardwareluxx.de/a596559.html"]Point of View GeForce GTX 570 TGT Ultra Charged Edition[/URL] (?, ?, ?)
[*]- [URL="http://preisvergleich.hardwareluxx.de/a596992.html"]Point of View GeForce GTX 570 TGT Charged Edition[/URL] (?, ?, ?)
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]



Treiber:

Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.hardwareluxx.de/community/f14/die-aktuellen-nvidia-geforce-treiber-fuer-winxp-7-und-vista-weitere-os-part-6-a-781800.htmlhtml"]hier[/URL]


[B]Aktuelle finale Treiber[/B]

Windows XP x86/x64, Windows Vista x86/x64 und Windows 7 x86/x64: 
[url=http://www.nvidia.de/Download/index.aspx?lang=de]klick mich[/url]


Tools:
Code:
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]NVIDIA-Inspector zum OC der Graka[/COLOR][/B] [url=http://www.hardwareluxx.de/community/f14/tool-nvidia-inspector-1-94-a-705213.html]hier[/url]

[B][COLOR="Red"]MSI Afterburner[/COLOR][/B] [url=http://www.computerbase.de/downloads/system/grafikkarten/msi-afterburner/]hier[/url]



FAQ:


Wie laut ist die Karte?
  • Im Vergleich zum großen Bruder, der 580GTX, bewegt sich die Karte sowohl unter Last, als auch ohne Belastung auf identischen Niveau. Dennoch kann man sagen, NVIDIA hat ihre Sache recht gut gemacht, denn die Karte legt zur Vorgängergeneration (470/480GTX - GF100) die Lautstärke etwas niedriger an. Im Vergleich zu den Leistungsmäßig etwas schwächeren HD58x0 sowie HD68x0 Karten von AMD liegt die 570GTX aber vorn, unter Last ist das AMD Single GPU Flackschiff etwas lauter. NVIDIAs Mittelklasse (460GTX) ist ebenso Lautstärketechnisch im gleichen Rahmen, dafür aber auch deutlich langsamer als die 570GTX.
    Dennoch bleibt zu erwähnen, dass Lautstärke äußerst subjektiv ist. Man kann diese zwar einheitlich messen, aber jeder Mensch nimmt verschiedenen Frequenzen anders wahr.

    Messungen zur Lautstärke

laut1.jpg
laut2.jpg




Wie hoch ist der Stromverbrauch?
  • Auch beim Stromverbrauch hat NVIDIA ihre neue HighEnd Klasse wieder etwas effizienter gemacht. Im Vergleich zur 580GTX liegt man logischerweise etwas drunter. Aber die Vorgängerkarten der GF100 Reihe liegen sowohl im idle als auch unter Last ein gutes Stück drüber. Im Vergleich zu den Karten aus dem Hause AMD (HD5870/HD6870) bewegt man sich aber immernoch deutlich drüber.

    Im absoluten Volllastbetrieb (Furmark) hat man deutlich abgebaut. Die Karte verbraucht nur minimal mehr als ihr direkter Vorgänger in Form der 470GTX. Es sei aber zu erwähnen, das es seit dem GF110 bei NVIDIA eine Schutzschaltung gibt, welche die Karten vor übermäßiger Last schützen soll. So erkennt die Software Programma ala Furmark und drosselt die Leistung. Auf Spiele soll das Vorgehen aber im Moment keine Auswirkung haben...

    Schlussendlich kann man aber sagen, in Sachen Effizienz hat man auch hier ganz klar einen Schritt zugelegt, trotz gleichem Hestellungsprozess.

    Messungen zum Stromverbrauch

strom1.jpg


strom2.jpg
strom3.jpg

(Gesamtsystemmessungen sind nicht 100% Vergleichbar)


Wie heiß darf meine Karte werden?

  • An der Lüftersteuerung hat man seitens NVIDIA nicht so viel getan. Die Karten werden immernoch vergleichsweise warm in Temperaturbereichen von 80°C+ unter Last. Die Temperaturen sind aber nicht krittisch, denn aktuelle GPUs sind bis über 100°C spezifiziert. Temperaturtechnisch bewegt man sich sowohl idle als auch im Lastbetrieb ca. auf gleichem Niveau mit der 580GTX. Im Vergleich zur Vorgängergeneration sind die Temperaturen etwas gesungen. Der Vergleich zu den AMD Karten ist hier etwas schwieriger. Unter Last liegt man minimal unter den AMD Karten, im idle ist der Unterschied schon etwas größer. Begründen lässt sich dies wohl durch einen langsamer drehenden Lüfter bei AMD.

    Messungen zur Temperatur

temp1.jpg
temp2.jpg




Passt die Karte in mein Gehäuse?

  • Mit einer Länge von exakt 27 cm ist das PCB nicht nur ähnlich der 580GTX, sondern so ziemlich identisch mit dem großen Bruder. Man geht also den Weg und nimmt ein PCB für mehrere Karten, lässt aber bei der 570GTX ein paar Bauteile weg. (RAM, Spannungsversorgung) Zum Vorgänger (470GTX) hat man aber etwas zugelegt in der PCB länge. Im Vergleich zur Konkurenz von AMD bewegt man sich aber deutlich über der HD6870 sowie HD5850. Einzig die HD5870 ist mit 1cm etwas länger. Potenzielle Käufer der Karten sollten sich dessen vorher bewusst sein und schauen, dass ihr Case auch dementsprechend Platz bietet. Die Stromanschlüsse wurden wie bei den Karten der HD58x0er Generation an die obere Kante der Karte gelegt.


Wie gut läßt sich die Karte übertakten?
  • Das Übertaktungspotential der Karte scheint laut aktuellem Kenntnisstand NVIDIA typisch recht hoch auszufallen. Ohne Spannungserhöhung kann man mit einer Leistungssteigerung von guten 10-15% für GPU/Shader fast schon rechnen. Mit Spannungserhöhung geht es nochmals gut ein Stück bergauf.
    Es bleibt aber abzuwarten wie man sich die Schutzschaltung schlussendlich auswirkt. Sofern NVIDIA wirklich nur die Anwendungen blockiert, wird dem Nutzer nichts auffallen. Dreht man aber irgendwann anhand des echten Verbrauchs an der Bremse, so bleibt vom Mehrtakt eventuell nicht mehr so viel übrig.
    Beim Speicher lassen sich ebenso gute 10% übertakten. Speicher OC bringt aber Erfahrungsgemäß recht wenig zur Gesamtperformance. Auch ist es wie bei den GF100 GPUs üblich, das der Speichercontroller direkt an der Spannungsversorgung der GPU hängt, was bedeutet, sehr hoher Speichertakt bedarf einer Erhöhung der VGPU Spannung.

    Per Bios Mod lassen sich die Spannungen auf bis über 1,2V erhöhen. Taktraten von 900MHz+ für die GPU sind damit sicherlich mit einigen Karten erreichbar.

    Erste Overclocking-Versuche und Vergleichs-Benchmarks


Performance
  • Hier findet ihr eine kleine Auswahl von unseren Benchmarks um euch erstmal einen Überblick zu verschaffen, wo sich die Karte Leistungstechnisch einordnet. Alle weiteren Infos und Benchmarks findet ihr natürlich in unserem Online Artikel. Zu unserem Online Artikel gelangt ihr ->

3dmark11_2.jpg
3dmark11_3.jpg


far1.jpg
far3.jpg


crysis1.jpg
crysis2.jpg


metro1.jpg
metro2.jpg


uni1.jpg
uni3.jpg



Weitere Benchmarks im Hardwareluxx-Artikel zur ATI Radeon HD 6870


Andere Kühllösungen
  • Wir werden sehen was uns erwartet :wink:




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten, im Falle eines Verstoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes gegen die Forenregeln! ;)
Solche oder nicht Themenbezogene Beiträge werden dann entfernt.

Grüße, fdsonne
 
Zuletzt bearbeitet:
hier wird ja richtig rumgezickt :d

ich muss da euihyun2210 aber zustimmen.
kulanz und garantie sind zwei paar schuhe!

es kann vorkommen, dass der hersteller da mal nen auge zudrueckt.
aufgrund dieser aktion sollte man jedoch nicht davon ausgehen, dass dies die regel ist!

wenn jedoch ein hersteller den kuehlerwechsel nicht von der garantie ausschließt, ist es vielleicht ne art kulanz, jedoch auch garantie!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mal ein wenig Smalltalk :

Seit ihr alle so zufrieden bei BF3 mit eurer 570er ? Mal ein wenig Feedback vom Schlachtfeld bitte.

Ich zb. habe trotz Full HD Monitor auf 1680 runtergedreht und dann AA auf 2 oder 4 fach. Läuft besser und sieht genauso gut aus oder dank mehr AA sogar flimmerfreier.

Auf 1980 läufts zwar auch Rund aber auf 1680 merkt man ein wenig mehr das es weicher läuft.

Klar auf meinem 26" auf 1920x1200 alles ultra 4xmsaa hab ich auch frames zwischen 50-70 und es sieht super aus und ist super spielbar (oc auf 850/2050). Doch merke ich auf meinem 19" Crt 85hz 1280x1024 alles aus mit um die 200 frames spiele ich viel effizienter, was aber eher an der Monitorgröße liegt. Meine Augen müssen halt eine viel kleinere Fläche abtasten nach Gegner. Ab und zu spiel ich ne Runde auf dem großen zum Grafik genießen. Aber wenns ums generelle Zocken geht nehm ich mein Crt genauso wie bei BF2 schon. Sichtweite max, Qualität runter und gib ihm.
 
Zuletzt bearbeitet:
habe nun seit paar stunden mein neues system eingebaut.

2x gtx 570 phantom
2600K @ 4,4Ghz
16gb ram.

lief alles auf anhieb und sli funktioniert wunderbar :)
 
..noch jemand hier auf ner GTX 570 mit großem RAM unterwegs?!

Greets
S@uDepp
 
Wie hoch ist den die Wahrscheinlichkeit das ne GTX570 fiept?
Meine heut bekommen: *fiep* >_>
 
Eigentlich nicht sehr hoch. Denke bei den 570 + 580ern sind die Spulen geschlossen und mit Eposydharz vergossen und somit sollte da nix fiepen. Ich bin mir aber nicht sicher ob das bei allen so ist.
 
Es ist aber so nicht richtig. Auch wenn der Hersteller schreibt das die Garantie erlischt bei Kühlerwechsel besteht dennoch die Garantie solang der Defekt nicht durch den Kühlerwechsel verursacht wurde.

Der Hersteller bestimmt in den Garantie-Bedingungen ob und wann Garantie gegeben wird.

Zotac z.B. schließt ausdrücklich die Garantie aus für den Fall dass eine Karte modifiziert wurde.

Gegenüber deinem "Nachbarn" mag man kulant gewesen sein oder aber dieser hat Zotac den Umbau verschwiegen.
 
Zuletzt bearbeitet:
Zotac erlaubt es. Einfach mal den Support kontaktieren. Nachgeplappert ist schnell.
 
Das habe ich im Gegensatz zu Dir tatsächlich da meine Zotac GTX 570 AMP! leider instabil war ... und ich zuerst annahm es liegt an den Temperaturen.

Auskunft: Kein Umbau ohne Garantie-Verlust.

Und auch die Garantiebedingungen, die Zotac für Jedermann ersichtlich auf der Website veröffentlicht, stehen dort nicht, um schlechte Werbung für die Marke zu machen.

Vielleicht hältst Du Dich ja zukünftig mit sachlich/inhaltlich falschen Aussagen etwas zurück. :rolleyes:

Denn das was du hier bisher zum besten gibst kommt allenfalls vom "Hörensagen".
 
Zuletzt bearbeitet:
Eigentlich nicht sehr hoch. Denke bei den 570 + 580ern sind die Spulen geschlossen und mit Eposydharz vergossen und somit sollte da nix fiepen. Ich bin mir aber nicht sicher ob das bei allen so ist.
Okay, dann schick ich meine zurück. Hab ne GTX570 Rev2 (die kurze), die hat aber auch 4 Phasen für die GPU. :/
 
Warum willst du sie zurückschicken, die neuen gehen auch nicht schlechter/besser als die alten.


@IronAge
Ja so ist es leider.

Es erfolgen also insbesondere keine Garantieleistungen, wenn:

das Produkt in irgendeiner Art und Weise verändert und/oder mutwillig beschädigt wurde
die Seriennummer beschädigt oder entfernt wurde
der GPU-Kühler entfernt oder ersetzt wurde

Warranty Disclaimer
 
hier nun ein bild von meinem sli gespann.bitte nicht auf die vielen kabel schauen :d
aber es ging nicht anders.bei 6 festplatten,2 grafikkarten,soundkarte usw. ist es einfach nicht mehr anders möglich.
ich musste auch adapter nutzen damit ich überhaupt eine 2 graka betreiben kann.dadurch sind es noch mehr kabel geworden :fresse:
 

Anhänge

  • SANY0105.jpg
    SANY0105.jpg
    224,7 KB · Aufrufe: 99
Geht ja um das Spulenfiepen das ich hab, nicht um die Rev selber.

Die Anzahl der Phasen sagt ja nix über die Spulen aus. Aber ich glaub wenns bei mir fiepen würde, würd ich auf jedenfall auch zurückschicken. Das Problem sollte der Vergangenheit angehören...bin mir aber wie gesagt nicht sicher ob die vergossenen Spulen standardmässig von Nvidia ausgeliefert werden oder irgendwelche Reseller eigene Pcb-Design haben und darauf verzichten..
 
Wo sollen auf eine Karte vergossenen Spulen sein? Wenn da was zirpt oder fiept, sind das die Spannungswandler und das ist ganz normal bei hohen FPS.
 
Gegenfrage: " Wie sieht das Innenleben eines Spannungswandlers aus ?"

Bei meiner Graka (siehe Sign.) fiept und zirbt nix, nichtmal bei der Windows Leistungs Indizierung.
 
Wo sollen auf eine Karte vergossenen Spulen sein? Wenn da was zirpt oder fiept, sind das die Spannungswandler und das ist ganz normal bei hohen FPS.

Es sind die Spulen der Spannungswandler und die Spulen erzeugen auch ein Spulenfiepen, deswegen sind die auch vergossen.

Da ich kein Fachmann bin hab ich mir aus verschiedenen Quellen (Hardware Artikel, IT-Artikel aber auch Wikipedia) etwas mit einfachen Worten verfasst:

Die VRM (Voltage Regulator Module = Spannungsreglermodul) ist verantwortlich für die DC-DC Konvertierung (DC= Direct Current = Gleichstrom) auch Transformator oder Gleichspannunswandler genannt. Gleichspannung kann nicht transformiert werden, darum wird die sie in eine Wechselspannung umgewandelt, anschließend in das gewünschte Spannungsniveau transformiert und dann wieder in Gleichspannung gewandelt und dann mit einem 'filtering device' (=Siebelement/Siebglied) geglättet. Diese Transformation wird entweder klassisch mit 2 Spulen (Primär + Sekundärwicklung = Spulen) bewerkstelligt oder mit Hilfe des "Piezo-Effekts (Piezo-Transformator)" nur mit einer Spule. Vorteil ist die kleinere Bauform (Bauhöhe von unter 1mm), das vermeiden von Störstrahlungen und höherer Wirkungsgrad gegenüber konventionellen Transformatoren.

In einfachen Worten besteht so eine VRM also aus 3 Teilen:
- logic device (logikbauteil) = voltage controller/Regulator (Spannungsregler) - das Gehirn der VRM der die Gpu mit der richtigen elektronischen Spannung und Stromstärke versorgt

- power device (stromversorgung) - vorhanden als power MOSFETS ((Metal-Oxyd Semiconductor Field Effect Transistor), die Muskeln des VRMs zum Schalten und Verstärken von elektrischen Signalen. Die funktionsweise dieser Transistoren ermöglichen integrierte Schaltungen mit stark reduzierter Leistungsaufnahme. Transistor (Transfer Resistor = steuerbarer elektrischer Widerstand).

- filtering device (=Siebelement/Siebglied) - um den output der MOSFETs zu glätten, bestehend aus Induktoren (Spulen) und capacitors (Kondensatoren). Kondensatoren besitzen eine Ladungsspeicherfähigkeit und wirken Spannungsänderungen entgegen und Spulen wirken Stromändernungen entgegen.

Eine Phase besteht aus 'power device' und 'filtering device'.
So..und diese "Gleichspannungswandler" gibt es auch als vollständig gekapselte Wandlermodule (die du wahrscheinlich meinst), also DC-DC Wandler in Modulbauform. Auf der Grafikkarte sind diese jedoch nicht verbaut:

570gtxpcbreference.jpg


von rechts nach links:

- Orange: drei Texas instruments INA219 current sensing power ICs. Messen die Stromstärke die vom PCI-E slot und von den 2 PCI-E Connectors kommen.

- Grün: vier Chil 8510 Mosfet Treiber. Kontrollieren die Low RDS Mosfets.

- Blau: Low RDS Mosfets

- Rot: Induktoren. Sind in Epoxydharz bergossen und haben einen Ferritkern für Hochfrequenzspulen um die Induktivität zu erhöhen.

- Gelb: VRM der Rams (2 Phasen)

- Pink: zehn 128mb Samsung K4G10325FE-HC05 GDDR5 memory chips.

- Braun: MX Bios Chip. Stock 1.1V mit Biosflash 1.3V max zum Übertakten.

backfullf.jpg


von rechts nach links:

- Rot: 100% solid Highly Conductive Polymerized or HI-C Kondensatoren = Hoch leitfähige Feststoff-Kondensatoren (Polymer-Aluminium-Kondensatoren).

- Grün: Der APW7088 von Anpec Electronics 2 Phase PWM (Controller / Regulator / Spannungsregler) ist für die 2 Ram Phasen.

- Blau: Chil 8266 6 Phase GPU Digital PWM (Controller / Regulator / Spannungsregler), obwohl auf der Referezkarte nur 4 Phasen für die GPU verbaut sind.

Was das fiepen angeht sagt Wiki:
"Bei Spulen und besonders bei Transformatoren größerer Leistung, schon ab wenigen Watt beginnend, tritt häufig im Niederfrequenzbereich eine störende akustische Geräuscherzeugung des Kernmaterials auf, das als Netzbrummen bezeichnet wird. Es hat seine Ursache in geringen mechanischen Größenänderungen des Kerns auf Grund des wechselnden Magnetfeldes, siehe Magnetostriktion. Vermindert werden kann dieser Effekt durch Vakuumtränkung mit Speziallack, was gleichzeitig noch die Spannungsfestigkeit zwischen verschiedenen (Transformator-)Spulen erhöht."

Wenn jemand Fachkenntnisse hat und etwas falsch sein sollte, bitte ich um Berichtigung.
 
Zuletzt bearbeitet:
Hallo Leute,

Habe mal ne Frage, ich habe sehr günstig eine Palit 570GTX Sonic OC mit Cuda bekommen. Und wollte mir noch ne 2te reinbauen davon.
Da ich aber gerne overclocking betreibe und die Karte nur 2mal 6Pin Molex anschlüsse hat wolte ich fragen ob ich die verkaufen sollte um mir eine 570GTX von ASUS zu holen die ASUS ENGTX570 DCII. Passt optisch besser in mein Rechner und hat doch auch bestimmt mehr OC potenzial oder?

Oder soll ich die Vernunft siegen lassen und mir doch noch eine Palit 570GTX Sonic OC mit Cuda reinsetzen?

Setze auf SLI wegen der Leistung und möchte mich da auch nicht umstimmen lassen ;)

mfg
 
kauf dir eine 2te palit.ich bin jetz auch umgestiegen auf sli und bis jetzt laufen beide karten auf standard takt.und wenn du doch übertakten willst reichen die karten auch aus.
 
Mal ne Frage, ganz abgesehen von Wärmeentwicklung oder Stromverbrauch, was würde es bringen wenn ich meine alte 8800GTS als Physix Karte unter meine 570er klatsche ?

Wieviel Leistung würde meine DCII dann mehr haben ?
 
Mal ne Frage, ganz abgesehen von Wärmeentwicklung oder Stromverbrauch, was würde es bringen wenn ich meine alte 8800GTS als Physix Karte unter meine 570er klatsche ?

Wieviel Leistung würde meine DCII dann mehr haben ?

Da kaum spiele PhysX unterstützen bringt es leider rein ganichts.
Der neue Batman Teil fält mir da als einziges argument ein. Ansonsten Mafia 2 und Ghost Recon als ältere Games wo es was bringt. Aber bei nemm BF3 oder so haste da nichts von.
 
schade.

Das man nicht einfach wie eine Art Sli nur mit verschiedenen Karten arbeiten kann ist doof. So eine 8800 könnte real gesehen viel arbeit wegnehmen.
 
Bei mir ist da nix verschoben, alle Pins bündig an der Vorderkante
 
Auf beiden Seiten (oben und unten) vom Stecker nachgesehen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh