Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptables Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:





Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So mag das bei dir sein.

Viele User und ich, haben aber das Problem (3DCenter.de).
 
jo Qualli Forum... wenn man den falschen Treiber inst.... oder den übers update... :lol:
ohne Razor getraut ihr euch doch so wieso keinen neuen zu installieren :d

wenns den "Bug" hätte hätt ihn jeder......

@Froggy der Treiber war "damals" der einzigste der SLI erkannt hat.....
was aber auch nicht den 30 Grad unterschied ausmacht....haste nen Voltometer :d was an der Karte unter Last anliegt bei 100 Grad?
Ach schied Wasser...die Meßkabel sind wohl auch alle ab an den Karten?
Bleibt nur noch everest
 
Zuletzt bearbeitet:
Und Everest zeigt keine Werte, aber wenn du Karte einen Hau hätte dann würde die auch allein so aufkochen und nicht nur im SLI Modus. Wenn du Karte allein rennt hab ich super Temps :hmm:

Verdammtes Multimonitoring, vor allem vertauscht der Monitore der linke mit dem rechten, dann ist wieder frickeln und per Hand wechseln. Dann komme ich nicht mehr ans Browser Fenster komme ich nur drauf wenn ich über den Taskmanger wieder drauf zu greife. Es ist zum heulen :wall: Ich bau gleich meine X2 wieder ein.
 
Zuletzt bearbeitet:
wenn die alleine rennt wird die nicht so warm....wird ja immer eigenartiger, haste noch ne andere SLI Bridge?

wieso zeigt everest keine Werte, unter Sensoren?

Laß den 2. Monitor doch mal ab, bis die Karten laufen! sakra
 
Zuletzt bearbeitet:
Im Idle sind beide Temps fast gleich und eine Karte rennt ja wegen den beiden Monis immer auf 3D Werten.

tempsgndb.png
rivad9a9.png


Kann bei Riva auch keine Verbrauchswerte anzeigen lassen.
 
Zuletzt bearbeitet:


hmmm 280er > Volterra> müßen angezeigt werden
GPUZ zeigt auch nix?
 
Zuletzt bearbeitet:
Nö aber mit dem 182.50 sind jetzt beide Temps fast gleich, aber ich bekomme Gothic3 nicht im SLI ans laufen es läuft immer nur eine obwohl die 2 Karte mit hochtaktet. GPU Auslastung bei Everest geht auch nicht mehr :(
 
irgendwas stimmt mit den Karten nicht......die Volterras müssen anzeigen da führt kein Weg drann vorbei.

was sagt den nHancer unds NV CP SLI aktiviert?
 
Ja NHancer sagt es läuft , laut Vantage rennt SLI Punkte passen.
 





im NV CP auch mal anstellen
wenn du dann links in G3 keinen grünen Balken siehst...
 
Zuletzt bearbeitet:
nhanceryq6n.png


nhancer2qu8j.png


Zeigt mal deine Gothic Einstellungen
 
Zuletzt bearbeitet:
Nehmt mal Value "1801" für Gothic3 dann sollte SLi gut performen. ;)
 
Geht immer noch nicht, ich glaube die Treiber unter Win7 taugen nix :(
 
Kann gut sein, mit Win7 hab ich noch keine Erfahrungen sammeln können, ich warte mal die Final Retail ab.
 
was meinste mir Verbesserungen?

---------- Beitrag hinzugefügt um 20:04 ---------- Vorheriger Beitrag war um 20:03 ----------

Geht immer noch nicht, ich glaube die Treiber unter Win7 taugen nix :(


was sagt dir denn das SLI nicht geht?
FPS?
Und in anderen Games?
 
Zuletzt bearbeitet:
SLI geht aber nicht bei Gothic3.

Ich habe grade Vista drauf geworfen und richte es grade ein.
 
Hat irgendjemand von euch ein SLI-Sys aufm UD5 oder Extreme zu laufen?
Ich bekomm das unter Vista 64 absolut nicht hin... Beide Karten funktionieren in jeweils allen Slots. Was mir allerdings aufgefallen ist, wenn ich den Treiber installiert hab bei Verwendung einer Karte in Slot 1, diese dann aber umstecke in Slot 2, dann erkennt der die dort nur als Standard-VGA. Wenn ich dann den Treiber neu installiere erkennt er die Karte als GTX auch in Slot 2.
Wenn ich dann allerdings wieder in Slot 1 umstecke muss ich das Treiber Setup erneut ausführen, weil er dann wieder in Slot 1 nur VGA-Karte erkennt...
Soll das ein NV-Treiberproblem sein unter Vista 64?

Und wenn ich die gemeinsam verbaue und mit der Brücke verbinde, erkennt er nur die Karte im ersten PCIex -Slot bzw in dem Slot, in dem jeweils die Karte einzeln drinsteckte, wenn ich das Treibersetup gemacht hab....
Und wenn ich den Treiber komplett deinstalliere und neu ausführe mit 2 Karten, dann bleibts beim Erkennen der Karte im ersten Slot. Gerätemanager und Everest zeigen auch nur eine Karte an...

NT schliess ich aus, das hat ausreichend Power, die Karten schließe ich auch aus, die funktionieren einzeln bestens :) Ich hab momentan meine Einstellungen im Bios auf Standard, GraKa-Treiber ist der 185.81 Vista64 beta, aber auch die anderen haben nix gebracht. Eventuell dass die SLI-Brücke ne Macke hat? Oder müßten beide Karten zumind. im Gerätemanager auch ohne die Brücke erkannt werden?

Zuppi und Froggi habt ihr ne Idee?
 
Zuletzt bearbeitet:
Snoopy hast du das Sys neu aufgesetzt? Mit der Brücke hat das eigentlich nichts zu tun, er muss beide Karten erkennen ob sie mit Brücke verbunden sind oder nicht.

Leider hab ich selber noch kein Gigabyte gehabt aber Zuppi hat ja eines. Hast du vorher andere Karten im System gehabt oder jetzt einfach nur eine Karte dazu gesteckt?
 
Snoopy hast du das Sys neu aufgesetzt? Mit der Brücke hat das eigentlich nichts zu tun, er muss beide Karten erkennen ob sie mit Brücke verbunden sind oder nicht.

Leider hab ich selber noch kein Gigabyte gehabt aber Zuppi hat ja eines. Hast du vorher andere Karten im System gehabt oder jetzt einfach nur eine Karte dazu gesteckt?

Ich habs jetzt hinbekommen, aber nicht reproduzierbar.
Hab die X-Fi und die Ageia rausgenommen. Eine GTX in den ersten Slot gesteckt und den Treiber installiert, dannach die 2. GTX in den 2. Slot und Vista meinte dann für die 2. GTX "Standard-VGA installiert und kann verwendet werden"...
Über Gerätemanager für die 2. Karte den Treiber manuell ausgewählt und neu installiert und siehe da... Es funktionierte. BS war noch ziemlich jungfräulich. Hab seit vorhin aber Win7 neu installiert und auch hier erkennt er inzwischen beide Karten.
Erst dann die X-Fi rein. Ageia steck ich morgen noch dazu und dann mal gucken, ob es wieder zickt...

Die Probleme der letzten Tage sind für mich nicht nachvollziehbar, waren ja noch einige andere Sachen - angefangen dass teilweise die LW nicht erkannt wurden bis hin dass ich kein BS installieren konnte weil ich nicht von DVD booten konnte...

Inzwischen läufts erstmal alles stabil @ default. Feintuning folgt in den nächsten Tagen :)
 
Zuletzt bearbeitet:
Bringt die Ageia denn noch was bei zwei GTX280. Die sollten doch Physix locker nebenher schaffen ode geht das im SLI nicht mehr?
 
Bringt die Ageia denn noch was bei zwei GTX280. Die sollten doch Physix locker nebenher schaffen ode geht das im SLI nicht mehr?

Dazu kann ich dir leider (noch) nix sagen, die Ageia hab ich schon ziemlich lange. Verkaufen lohnt nicht wirklich. Daher werd ich den nächsten Tagen mal nen Test machen. Mit und ohne. Dann schreib ichs hier rein :)
 
Hab heut meine GTX 280 auf Wakü umgebaut und wollt nur Kurz Wissen ob 84-106 Grad bei Last auf den Spannungswandlern ok sind oder ob der eine schlechten kontakt haben könnte ?

Danke
Gruß
 
Ist etwas hoch. Meine geht nie über 70°C bei den Spannungswandlern, allerdings läuft meine auf 1,06V.
 
Habe heute meine neue GTX 280 aus der RMA bekommen.

Die muss ja besonders übel sein wenn die idle Spannung so hoch ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh