[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
@mr, also ich spiele auch mit ner 8800 gtx und nem quad mit der config aus meiner sig, bei mir läuft alles flüssig auf max auflösung 16q antialising, das einzige was bei dem spiel bremst sind die server abends zb:-) vieleicht liegts auch am prozi, das game is denk ich schon recht prozessorlastig und multicore optimiert. ob der Quad wirklich unterstützt wird weiss ich nich, mein kumpel is von a64 und ner x800 er karte auf nen c2d 8200 und einer 9600 gt umgestiegen bei dem läufts klasse, nur mit 4 fach antia. halt...Naja also ich sehe für mich noch keinen Grund umzusteigen, ich hab meine im ersten Monat als se aufm Markt kam für 600 eus gekauft, und bis jetzt hatte ich null komma null probs in games:) Reizen würd die 280 er mich auch aber mal schauen...
Achja wegen NT, wenn du schon 500 öken für ne graka ausgibst kauf dir auch gleich nen gescheites NT, das macht den Braten auch nich fett:)Lieber zu viel Power wie zu wenig, man weiss ja nie was kommt, das NT tauscht nich so schnell...Mein 850 er zieht mit dem Quad auf 3,6 und der Gtx mitsamt der Wakü, raptor festplatte unter vollast 330w, is zwar nich wenig aber naja, bevor du nächstes Jahr dastehst und wieder nen neues kaufst:)
Gruß
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
aber einen 780i chipsatz haben,,,

und wie schaut es eigentlich mit den spannungen aus; hat der nibitor schon g200 support?

Bin hochzufriedn, der Ram läuft unabhängig vom Prozzi mit 1000 Mhz, was Intel nicht kann und mit dem neuen Bios ist FSB 500 quadcore overclocking auch kein prob mehr, was soll daher der Spruch ? Sehe es einfach nicht ein für 4 gig guten DDR3 Ram 600 Euro zu zahlen....
 
Zuletzt bearbeitet:
Keine Ahnung, ob es hier schon gepostet wurde:

GTX 280 Triple SLi Test :


http://www.tweaktown.com/articles/1466/1/page_1_introduction/index.html


Fazit: Es scheint so, dass die dritte Karte durch die heutigen CPUs zu sehr ausgebremst wird -
es gibt kaum Leistungsvorteile gegenüber GTX 280 SLi, und wenn, dann fallen diese nur gering aus. Vielleicht wird das ja mit einem hochgetakteten Nehalem Bloomfield etwas besser. Ein neuer Treiber könnte hier sicher auch etwas Abhilfe schaffen.


Man hat zwei NTs verwendet - einmal wohl das Corsair CMPSU-1000HX für SLi und den Rest des Systems
und dann nochmal das CMPSU-620HX für die dritte Karte - hier hätte es sicher auch ein gutes 400 - 500W NT
mit 40A auf +12V (also für Karte 3) getan. Theoretisch sollte eigentlich ein 1 KW NT für das komplette Sys schicken, oder?
Gut, das einzige Prob scheinen die A zu sein, denn wenn eine Karte im Optimalfall 40 A braucht, bräuchten drei 120A -
und das liefert afaik noch kein High End NT, so um die 100A sind das Maximum.


E: Der Test auf Guru3D sieht aber ganz anders aus, hier bringt Triple SLi einiges:

http://www.guru3d.com/article/geforce-gtx-280-sli-triple-review-test/


E2: Ganz so gut wie im Guru3D Test wirds dann, verglichen mit ner einzelnen GTX und SLi,
doch net skalieren, denn so ganz fair gegenüber ner Single GTX und SLi ist der Test eben nicht.


Mainboard: nForce 680i SLi bei Single und SLi, nForce 790i Ultra SLi bei Triple SLi.
CPU: Core 2 Duo X6800 @ 2.93 GHz bei Single und SLi, QX9770 @ 4.2 GHz bei Triple SLi.

Der Chipsatz dürfte ein paar fps bringen, aber die CPU locker plus 10 fps, wenn nicht mehr,
weil Penryn bei gleichem Takt 10% mehr Leistung gegenüber Conroe hat und dann nochmal 1 GHz OC
mit ins Spiel kommt. Hätte man dasselbe Sys für Single und SLi GTX 280 genommen,
wär die Skalierung sicher nicht sooo gut.

Gruß
Edge
 
Zuletzt bearbeitet:
geht eigendlich reines SSAA unter Crysis?

 
Zuletzt bearbeitet:
http://www.tweaktown.com/articles/1466/1/page_1_introduction/index.html


Fazit: Es scheint so, dass die dritte Karte durch die heutigen CPUs zu sehr ausgebremst wird -
es gibt kaum Leistungsvorteile gegenüber GTX 280 SLi, und wenn, dann fallen diese nur gering aus.
Vielleicht wird das ja mit einem hochgetakteten Nehalem Bloomfield etwas besser.


Eigentlich verbietet es sich schon von ganz allein ohne AA zu testen und 1280x1024 dazu sag ich mal nix :heul: :haha: TripleSLI ist etwas für Königsauflösungen ab 1920 aufwärts mit möglichst viel AA :wall:
Hinzugefügter Post:
geht eigendlich reines SSAA unter Crysis?


Unter DX9 ja, unter DX10 nein.
 
Zuletzt bearbeitet:
Moin zusammen!

Irgendwie glaub ich net das die GTX280 von Nvidia is, bestimmt steckt da nen modifizierter R600 drunter! :fire:
:haha:
 
Mein 850 er zieht mit dem Quad auf 3,6 und der Gtx mitsamt der Wakü, raptor festplatte unter vollast 330w, is zwar nich wenig aber naja, bevor du nächstes Jahr dastehst und wieder nen neues kaufst:)
Gruß

Super Tip, so oft wie die Hersteller die Anschlüsse ändern ist es quark ein Netzteil für "die Zukunft" zu kaufen. Zur Zeit ist es ja fast so als müsste man zur Graka immer ein Netzteil dazukaufen weil sonst die passenden Anschlüsse fehlen. Und ein Mega-Netzteil kaufen nur damit es immer im ungünstigsten Teillast-Bereich läuft? Na wenn Du der Meinung bist ....
 
Weil laut und heiß in deiner Bude? :d
Morgen Tomsen! :wink:

Also ich hab die Karte gestern total lieb gewonnen. Gegen mitternacht war eisig kalt in der BUde und das Kärtchen hat mir meine Füße gewärmt! Nice. :hail:
Hab dann noch ne 1h AoC gezockt und muss sagen, wahnsinn! Bisl schwach finde ich se dennoch, denn 8xAA packt se einfach net. Da ist ATI wohl klar führend. Trotzdem ein Genuss endlich ruckelfrei zu zocken mit 4xAA und Bloom, was vorher ja ein Graus war mit der G92 GTS (meist 20-30FPS). Die Laustärke war ok, da ich auch kühler hatte im Raum und die Karte auch wohl nicht so Leistung zieht wie in Crysis. Der Lüfter war meist auf 55-60% und mit Kopfhörern fast nicht auszumachen.
 
mom wird die zotac amp jeden tag 10 euro billiger, wann kommen die atis noch ? gibts bestimmt wieder nen schub
 
Eigentlich verbietet es sich schon von ganz allein ohne AA zu testen und 1280x1024 dazu sag ich mal nix :heul: :haha: TripleSLI ist etwas für Königsauflösungen ab 1920 aufwärts mit möglichst viel AA :wall:

Hm..jetzt wo du es sagst - stimmt, ist wirklich kein Test mit AA dabei :fresse: - klar, dass die dritte Karte hier quasi nix bringt, wobei die CPU sicher auch gut die dritte Karte limitieren dürfte.
 
Zuletzt bearbeitet:
Ich wollt mir vlt die XFX nehmen, bin aber gerade auf etwas gestoßen was mich doch vlt davon abhällt.
die Karten haben die Schrauben zum demontieren des Kühlers auf der Rückseite.
Da ich vlt den Kühler wechseln werden ist das also für mich schon wichtig.

Jetzt habe ich gesehn, dass wohl XFX auf der Rückseite auch Aufkleber hat, die die ganze Karte bedecken, auch die Schrauben, das hieße wohl, dass ich die Aufklebefolie "kaputt machen" müsste um den Kühler abzubauen?!

Edit:

Hier mal ein Bild, was ich meine:

http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=370

Wie kommste darauf, dass es ein Aufkleber ist? Also für mich ist dieser Aufkleber zu ordentlich aufgeklebt.

EDIT: Verdammt, hast Recht. Sehe ich jetzt auch gerade. Dann wirds offenbar ne Zotac AMP werden.
 
Zuletzt bearbeitet:
Nicht das ich total unzufrieden mit dem Lüfter wäre, aber gibts jetzt schon alternative Luftkühler?
 
Jo, guter Test, der Triple SLi doch schon deutlich besser aussehen lässt, wobei leider auch, wie schon erwähnt, ohne AA - wirklich gut skaliert 3 Way SLi aber nur, wenn die CPU quasi bis an die Grenzen übertaktet ist - in diesem Test sind es mit 4.2 GHz 200 MHz mehr als in dem von Tweaktown. Finde den Testunterschied aber schon gravierend, kA, wie so eine Leistungsdifferenz zu Stande kommt, vor allem wenn Tweaktown auch den GeForce 177.34 benutzt hat.
 
Zuletzt bearbeitet:
@hisn, so ein quatsch, seit wann gibt es keine adapter mehr? Ich sagte ja auch nich das er nen NT für 200 eus kaufen soll, ich hab meins bereits 2 jahre, bisher hat noch alles gepasst..Aber wenn du meinst....


Fakt is ja auch wenn er nur wegen AoC ne neue Graka kaufen will, liegts bei ihm vieleicht auch an was anderes, ich hab wie gesagt 0,0 probs, aber naja...
 
Zuletzt bearbeitet:
So die 2 Grakas gesztern Nachmittag bestellt heute gekommen und bis jetzt keine Probleme mit meinem 750 Netzteil.
 
So Leuts bin am testen ob ich die Physx zum laufen bringe auf den neuen Karten was mir fehlt ist ein schneller download des 177.39 Treiber, ich hab schon die Physx Software 8-06-12 damit zeigt es schon mal das hier an

Bild : ScreenShot001.jpg

mit dem 177.26 Treiber

Bild:ScreenShot002.jpg

aber die Demo funktioniert was ich ned ganz verstehe, habe jo auch noch ne Physx Karte hier kann es schon beurteilen.

Bild:ScreenShot004.jpg


darum wollte ich mal den 177.39 probieren ob mir dieser Treiber das den richtig anzeigt. Finde aber nur downloads mit 35Kb hab kein bock 1 Stunde auf den Treiber zu warten.

mfg
 
Bin hochzufriedn, der Ram läuft unabhängig vom Prozzi mit 1000 Mhz, was Intel nicht kann und mit dem neuen Bios ist FSB 500 quadcore overclocking auch kein prob mehr, was soll daher der Spruch ? Sehe es einfach nicht ein für 4 gig guten DDR3 Ram 600 Euro zu zahlen....

na ich hab das striker2nse, und der 790 ist ja schon ne zicke :d und 600 pappen sinds auch nicht, eher ein drittel samt microns drauf.


Hinzugefügter Post:

aber die Demo funktioniert was ich ned ganz verstehe, habe jo auch noch ne Physx Karte hier kann es schon beurteilen.

das wird einfach in software berechnet.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh