[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
@tomsen78: gib dir mal das :banana::banana::banana::banana::banana:


Ok nice, dennoch ne Auflösung die nur für Idioten (zu hart ausgedrückt: für Leute die evtl. am TFT Filme schaun oder vielleicht sich grafisch betätigen!) is und nix für Zocker! Der 9800GTX geht ja dabei locker die Puste aus, "wohl auch" aufgrund des zu niedrigen Vrams. Dennoch erhoffe ich mir schon eine deutlich höhere Leistung, auch in "niedrigeren" Auflösungen. Hol mir glaub nen gscheiten 22" die Woche.^^
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
:banana::banana::banana:

Endlich ist sie da!!!!! Das monatelange Warten hat ein Ende!!

Die Karte ist echt der Hammer - sie taugt genau für 3 Sachen:

1. damit man seine sonst recht lauten PC-Komponenten nicht mehr hört.. die werden nämlich locker übertönt

2. um Heizkosten zu sparen.. wird ja auch immer teurer das gute Öl... :coolblue:

3. um die vernünftigen Karten ein bisschen im Preis zu drücken :asthanos:

Jetzt kann man sich ganz relaxed ne 8800GTX, Ultra, oder sonst was kaufen.

:banana::banana::banana:

:bigok::bigok::bigok:

So siehts dann wohl aus.

Vielleicht ist die Karte wirklich am Markt vorbei entwickelt worden.
Für 250€ würde ich eine kaufen.
 
Na ich habe nen Enermax 525w das wird schon reichen dafür.

Das hat glaube ich 40A.
 
Zuletzt bearbeitet:
:banana::banana::banana:

Endlich ist sie da!!!!! Das monatelange Warten hat ein Ende!!

Die Karte ist echt der Hammer - sie taugt genau für 3 Sachen:

1. damit man seine sonst recht lauten PC-Komponenten nicht mehr hört.. die werden nämlich locker übertönt

2. um Heizkosten zu sparen.. wird ja auch immer teurer das gute Öl... :coolblue:

3. um die vernünftigen Karten ein bisschen im Preis zu drücken :asthanos:

Jetzt kann man sich ganz relaxed ne 8800GTX, Ultra, oder sonst was kaufen.

:banana::banana::banana:

Brrr, ich hab eben echt kalte Füße! :fresse:
 
Die Karte ist derzeit einfach nur deutlich zu teuer, aber sicher nicht am Markt vorbei entwickelt.
Für Quality Fans ab 24 Zoll ist das Teil interessant und im SLI rocken die Karten.
Für Ati wird es sehr schwer vergleichbare AA Steher-Qualitäten zu einem GTX280 SLI anzubieten, wenn sie sich nicht ernsthaft um die gewaltigen Skalierungsprobleme mit CrossfireX gekümmert haben.

Spätestens wenn Ati die 4870X2 launcht, wahrscheinlich schon mit der 4870 werden die Preise der GTX280 fallen und wenn die bei 400,- ist, stopf ich mir da zwei schnuckelige GTX280 rein.:)
Gerade weil sie zu teuer ist, ist sie auch imho am Markt vorbei entwickelt worden...wie viele Menschen besitzen nen 24er/30er und machen mal eben 500€ für ne Graka locker?
zudem hört man, dass die nicht aufgrund der Leistung sondern wegen den Herstellungskosten so teuer ist. Vermutlich wird der Preis nichtmehr allzu tief runtergehen.
 
Zuletzt bearbeitet:
zudem hört man, dass die aufgrund der Leistung sondern wegen den Herstellungskosten so teuer ist. Vermutlich wird der Preis nichtmehr allzu tief runtergehen.

Bisher ist noch jede Karte dieser Art billiger geworden, also DA mache ich mir keine Gedanken. Man schaue sich dazu nur 8800 GTX/Ultra oder auch 9800 GTX/GX2 an.
 
Klasse das immer mit dem G92 Abfall verglichen wird, naja ist besser fürs Ego
bevor ich mir den bash gegen den G92 anhöre hau ich ab :stupid:

dazu sag ich nur

zocker28 schrieb:
Zum Thema, ist doch Latte wie hoch sie übertaktet wird, der G92 ist Abfall durch die Bank weg ganz einfach.
Anarchy schrieb:
Du disqualifizierst dich gerade selbst - die 9600 hat den G94 Core
Und deine aussage ansich ist einfach lächerlich - Ati wird also von "Abfall" an die Wand genagelt - Supi
 
die karte ist doch nur für crysis momentan sinnvoll, oder? im vantage lost die ab und wer spielt noch andere spiele?

wird zeit das der ganze consolensheit ein ende findet und wir wieder auf geforce256 oder 6800 level landen; sprich es gibt software die hardware erst dingbar macht ;)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@zuppi: kannste mal auch einen klassischen eingabeaufforderungs-benschmark machen? also die .bat (oder .cmd?) im crysis mainordner doppelklicken; da der boris so viel müll auf incrysis erzählt hat, das ich dem benchtool einfach net vertrauen kann. danke.
 
Zuletzt bearbeitet:
Wird nen BeQuiet 750W NT für 2 x 280 GTX reichen? Habe imo 2x 8800 GTX am laufen ohne Probs.
 
Gerade weil sie zu teuer ist, ist sie auch imho am Markt vorbei entwickelt worden...wie viele Menschen besitzen nen 24er/30er und machen mal eben 500€ für ne Graka locker?
zudem hört man, dass die nicht aufgrund der Leistung sondern wegen den Herstellungskosten so teuer ist. Vermutlich wird der Preis nichtmehr allzu tief runtergehen.

Naja der Markt ist gross, ich hab seit Anfang 2007 einen 24 Zoll und warte schon lange auf schnellere Karten.
Nach deiner Logik ist dann sicher auch jeder Porsche, jeder Plasma TV, u.s.w. am Markt vorbei entwickelt worden.

Die Karten sind nunmal nur für eine kleine Zielgruppe, deshalb sind sie aber nicht am Markt vorbei entwickelt worden.

Der Markt deckt halt eine breite Palette ab und nur weil viele die Power solcher Karten nicht brauchen, sind sie noch lange nicht am Markt vorbei entwickelt worden.

Man kann durchaus sagen, das der Preis nicht marktgerecht ist, das ändert aber nichts daran, das solche Karten ihre Berechtigung und Klientel haben.
Der Preis wird sich auch definitiv noch regulieren, sobald Ati für weniger Geld ähnliche Leistung anbietet.
 
Zuletzt bearbeitet:
naja das wäre dann doch watt zuhoch DX10 und verryhigh,mal sehen was die Treiber noch bringen.

Hinzugefügter Post:

Fußball nenene :wink:


Danke zuppi...

Wie erwartet knapp 34 FPS auf VeryHigh und Crysis ist damit
sehr gut spielbar. Ist mehr als 2x so schnell wie meine 8800GTS (G92).
 
bevor ich mir den bash gegen den G92 anhöre hau ich ab :stupid:

dazu sag ich nur

Wenn man den G92 mit dem G200 vergleicht und 2560x1600 rauskrammt muß man sagen das er Abfall ist und man sich den vergleich gleich klemmen kann, ein großer G80 wär angebrachter ;)

Für 19" User ist der G92 o.k. wenn man es mit AA nicht übertreibt.
 
Danke zuppi...

Wie erwartet knapp 34 FPS auf VeryHigh und Crysis ist damit
sehr gut spielbar. Ist mehr als 2x so schnell wie meine 8800GTS (G92).

war ja aufgrund der ersten leaks schon ziemlich klar; der g200 geht in crysis gut ab; nur warum der im vantage so lost ist mir unklar, da ja beide apps ziemlich hohe anforderungen stellen (geom.shader und POM und so eben). das ist das einzigste warum ich mich noch zurück halte; denn die werte sind ziemlich wiedersprüchlich. und glaube echt net das hier die fillrate ein rolle spielt, oder ;)
 
Zuletzt bearbeitet:
Ganz so absolut kann man es eben nicht sagen@Jake Dunn.
Der G92 ist in erster Linie für "normale" Anwender gedacht, 8800GT/GTS Karten werkeln halt hauptsächlich auf 1280x1024, maximal auf 1680x1050.

Dort sind die Karten durchaus vertretbar und die Nachteile kommen nicht derartig zum tragen.
Bei der 9800GX2 würde ich dir zustimmen, denn für High Quality mit hohem Anti Aliasing taugt der Chip nicht.
Überhaupt bin ich kein Freund des G92, als SLI Basis.

Der GT200 ist genau in diesem Gebiet wieder auf der Linie des G80, wahrscheinlich sogar noch ein gutes Stück besser, vorallem im SLI.

Bei allen teilweise auch berechtigeten Flames über die P/L des GT200 draf man nicht vergessen, das die Karte für Enthusiasten einen würdigen Nachfolger des G80, als SLI Basis bietet.
So einfach wird es für Ati nicht, vergleichbare Anti Aliasing Power selbst bei höchsten Auflösungen zu kontern, von daher wird der GT200 für Freaks, die nicht nur nach P/L gehen ein geiles Stück Hardware.
 
Zuletzt bearbeitet:
Gott ist meine bestellte Karte hässlich! :shake:

344251.jpg


:kotz:

Da ist ja die Asus mit Tarnflecken fast noch hübscher! :fresse:

Zum glück hab ich kein Plexiglas-Gehäuse. :haha:
 
Ganz so absolut kann man es eben nicht sagen@Jake Dunn.
Der G92 ist in erster Linie für "normale" Anwender gedacht, 8800GT/GTS Karten werkeln halt hauptsächlich auf 1280x1024, maximal auf 1680x1050.

Dort sind die Karten durchaus vertretbar und die Nachteile kommen nicht derartig zum tragen.
bei der 9800GX2 würde ich dir zustimmen, denn für High Quality mit hohem Anti Aliasing taugt der Chip nicht.

Der GT200 ist genau in diesem Gebiet wieder auf der Linie des G80, wahrscheinlich sogar noch ein gutes Stück besser, vorallem im SLI.

Für 19" User ist der G92 o.k. wenn man es mit AA nicht übertreibt.
;)
 
war ja aufgrund der ersten leaks schon ziemlich klar; der g200 geht in crysis gut ab; nur warum der im vantage so lost ist mir unklar, da ja beide apps ziemlich hohe anforderungen stellen (geom.shader und POM und so eben). das ist das einzigste warum ich mich noch zurück halte; denn die werte sind ziemlich wiedersprüchlich. und glaube echt net das hier die fillrate ein rolle spielt, oder ;)

bei 700 haste über 1500 shader mhz,das reicht für 3x Pom in jedem game,haste doch schon bei den 9800 Karten gesehen,ist da schon nicht mehr so wichtig,wie noch beim G80
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh