Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 5

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptables Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.

image2.phpx5u.jpg


image.php7l5.jpg


gpu_x2_g200_5xn1.jpg


Danke Snoopy :wink:





Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
jo ich weiß sorry. ich tippe immer so schnell das ich echt scheiße zusammen schreibe. auf groß und klein schreibung achte ich aber auch nicht hier am Pc.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
muss man ja auch nicht unbedingt, aber man kann zumindest am ende des textes nochmal drübergucken.... :rolleyes:
 
Das sieht ja auch schon viel besser aus hd4870,ich mein ich schreibe auch nich immer perfekt,aber ich finde dagegen is das schon besser xD,manchmal sieht das aus wien gut zusamm gemixter salat
 
jo ich glaub ab jetzt streng ich mich mal wieder mehr an beim schreiben.
 
warum denkt meine karte sie muss in den 3D modus springen nur weil STEAM im hintergrund läuft?
erst wenn ich es beende taktet die karte auf 100mhz core runter, was soll das?

nimm den 185.20 Treiber von der Guru3D Seite da funzt das runtertakten 100%
der ist zwar net WHQL aber dafür funzt er :d :d :d

i weiß net ob ich den Link hier posten darf :rolleyes:
gib einfach bei google "185.20 vista 64bit" ein und der erste Link sollte es sein
 
Jap,hab den grade auch drauf,nur wenn ich steam an hab dann bin ich im extra Modus,aber bei msn icq nich,is schonmal deutlich bessa
 
habgrade gelüftet udn vergessen fenster zu zu machen, wie hart ich hab bei 30% Lüfter im idle grade 25°C xDD.
 
die einfachste lösung, steam nur starten wenn man es braucht.. und das tu ich eh nie. :)

@hd4870: interessant................. NICHT
 
wenns dich nicht interessieert mussst du es ja nicht lesen so einfach, war ja auch nur so neben bei, hatte die Karte noch nie bei unter 30°C, deswegen .

Also unter windows 7 tatet sie weder bei icq noch bei steam hoch. Unter Windows Vista taktet sie bei mir auc nur bei steam hoch aber ich finds ned schlimm.
 
nimm den 185.20 Treiber von der Guru3D Seite da funzt das runtertakten 100%
der ist zwar net WHQL aber dafür funzt er :d :d :d

i weiß net ob ich den Link hier posten darf :rolleyes:
gib einfach bei google "185.20 vista 64bit" ein und der erste Link sollte es sein

Warum solltest du den nicht posten dürfen?
 
what da hell unter folding @ home macht gtx 280 sprünge bis 50 ampere gpu vrm unter everest
 
Verliert man eigentlich die Garantie, wenn man den hässlichen aufkleber auf dem kühler entfernt?
 
Zu 6 auf 8Pin Adapter+Steckern

Ist für alle die nach 6 auf 8Pin Strom-Adaptern suchen. Der Artikel ist zur Zeit bei K+M für gut 5€ zu erstehen. Gab hier mal Anfragen von Leuten, bei denen keine Stecker dabei waren. Also für ALLE bei denen ein solcher Stecker nicht bei liegt, können bei K+M fündig werden.
 
Hey, wie weit darf man die GTX problemlos runtertakten im IDLE? Wollte das nach der Rivatuner Anleitung machen, aber da sind ja nur Werte für die 4870 (mit 200/200) angegeben. Hier im Anfangspost steht leider auch nix dazu.
Hab die Karte schon auf 1,06V.. Furmark bleibt in 10Min bei 79°C.. sollte ok sein (vor allem ohne Heatbug) :d
 
Taktet eure nich schon von hause aus im idle runter?!

meine hat das getan, musste nurnoch bei der spannung nachhelfen ;)
 
Taktet eure nich schon von hause aus im idle runter?!

meine hat das getan, musste nurnoch bei der spannung nachhelfen ;)

Jepp, tut sie, aber auf 300/600/100, da kann man noch das ein oder anderes Grad und Watt bei rausholen. Der Speicher scheint übrigens nicht weiter runterzugehen, weniger als 100 MHz werden einfach nicht übernommen.
 
Meine bleibt auf 600/1100/kA (steht nix bei GPU-Z :d ).
 
Dann taktet die Karte nicht runter im IDLE,iinstallier dir mal den 180.20 Treiber,ist der beste von allen bisher.
 
Naja, wenn ich mir eh wieder meine Rivatuner Profile mache, ist es wurscht.. solange die Spiele laufen wie sie sollen bleibt der aktuelle WHQL erstmal drauf.
 
Hey, wie weit darf man die GTX problemlos runtertakten im IDLE? Wollte das nach der Rivatuner Anleitung machen, aber da sind ja nur Werte für die 4870 (mit 200/200) angegeben. Hier im Anfangspost steht leider auch nix dazu.
Hab die Karte schon auf 1,06V.. Furmark bleibt in 10Min bei 79°C.. sollte ok sein (vor allem ohne Heatbug) :d

Bis anschlag bei mir. Kann dir nur empfehlen, die spannung auf 0,86V zu senken. Das bringt um welten mehr!

ist es korrekt, dass man den shader nur in 50MHz schritten takten kann?? Hab grad gesehen, dass nur diese schritte übernommen werden!
 
Sind 54 MHz Schritte.

@Crysel: Na, das mit den RivaTuner Profilen ist auch nur halbgar, denn die Spannung wird nicht mit abgesenkt! Welchen Treiber hast du denn installiert?
 
Voltage hab ich ja schon auf 1,06 (danach 10min Furmark getestet). Auf einmal hat er laut GPU-Z doch runtergetaktet, warum auch immer, war vorher genauso Idle :d
 
die msi oc scheint echt selektierte chips zu haben. ist um längen besser als die colorful. kann natürlich sein, dass ich vorher ne schlechte erwischt hab. auf jeden fall macht sie @stock also 650/1300 0,98V mit. das ist mal geil. das sind mind. 33%weniger verbrauch als mit standard spannung
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh