[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wieso wenn nicht übertaktet ist ?

Weil eine übertaktete GPU sich wie eine CPU verhält die geoced ist! Mein G92 verabschiedet sich gern bei hohem OC und über 75 Grad! Aber wenn ich auf default lasse, läuft sie ohne zu murren auch wenn die Temp auf bis zu 100 Grad geht. Wird dir sicher jeder Graka-Übertakter bestätigen können. Niedrige Temps sind einfach ein Muss beim Übertakten.
 
ok danke dir :)

aber da ich ne wakü hab, ist das bei mir nicht so das problem ^^
 
also meine 88ultra war früher bei cod4 auch so um die 81C am rauchen ...
werde ja morgen oder übermorgen mein SLI 280gtx einbauern und wollte fragen wär schon ein ähnliches sys hat...
DENN:
Auf pcgh habe ich gelesen, dass, man wenn man den ZWEITEN SLI Stecker benutzt noch etwas mehr leistung bekommt ... Kann das jmd eventuell bestätigen?

Ist der 177.35er jetzt der AKTUELLSTE/BESTE Treiber mit dem ihr eure 280er laufen lasst? oder nutzt ihr andere?
 
sorry, aber auch du scheinst ein non-checker zu sein!
nicht die max-FPS lassen ein spiel ruckeln, sonder die MIN-FPS!!! :lol:

und da ist halt mal die 280er besser, weil sie weniger einbricht :d

gruss
t.

lol hast ja recht damit brauchst ja nicht gleich so doof zu mir sein ;)

bin mal vom avg fps ausgegangen ;) also btt nu -g-


und die hd 4850 ist desswegen so warm weil wie zocker gesagt hat "ich brauche die lüfter nur leicht anpusten von der seite und die bleiben stehen ;) " also scheinen die einfach nur auf silent ausgelegt zu sein.
 
Zuletzt bearbeitet:
lol hast ja recht damit brauchst ja nicht gleich so doof zu mir sein ;)

bin mal vom avg fps ausgegangen ;) also btt nu -g-


und die hd 4850 ist desswegen so warm weil wie zocker gesagt hat "ich brauche die lüfter nur leicht anpusten von der seite und die bleiben stehen ;) " also scheinen die einfach nur auf silent ausgelegt zu sein.

hast recht, sorry meinerseits! :wink:

...ich habs eh ein paar seiten weiter vorne geschrieben, von mir aus kann er jeden benchmark mit seinem CF gewinnen! ;)
ich bin von dem ganzen dual-gpu-crap geheilt, für mich steht nur noch der problemlose spass beim zocken im vordergrund :)

gruss
t.
 
Hi,

gibts schon Infos ob die gänigen Luftkühler für die G80 Karten GTX / Ultra auch auf die neue GTX passen?

Speziell der Thermalright HR-03 sowie das Gegenstück von Arctic Cooling.
 
ich halte von CF sowie SLI nix und zwar so lange bis das ganze nicht mehr software seitig funktioniert und die lässtigen microruckler weg sind!
Bei ATI sollen die ja angeblich weg sein aber da warte ich mal drauf was die test sagen!!
Bis jetzt interessiert mich nur die HD4870X2 weil da solls ja "angeblich" super laufen, naja mal sehen!
 
Zuletzt bearbeitet:
Hi,

gibts schon Infos ob die gänigen Luftkühler für die G80 Karten GTX / Ultra auch auf die neue GTX passen?

Speziell der Thermalright HR-03 sowie das Gegenstück von Arctic Cooling.

Wohl kaum, schließlich müssen die Speicherbausteine auf der Rückseite auch irgendwie gekühlt werden.

Frage mich wirklich wie die Waküaufsätze aussehen sollen und vor allem, ob sie nicht über 100euro gehen.
 
Hi,

gibts schon Infos ob die gänigen Luftkühler für die G80 Karten GTX / Ultra auch auf die neue GTX passen?

Speziell der Thermalright HR-03 sowie das Gegenstück von Arctic Cooling.

wegen Rückseite leider nicht, daher warte ich auf den Nachfolger des HR-03, da muss es einen geben und dann hole ich mir die Karte :)
 
Hab abissl rumprobiert und werd mal meine ersten Eindrücke loswerden.
Hatte mit dem Rivatuner rumgemacht und dann Vantage gestartet, irgendwie scheint die Lüftersteuerung noch eine Macke zu haben, denn am Ende des ersten Tests kamen auf einmal komische Geräusche ausm Rechner (wie wenn man einen Fön an und auschaltet) scheinbar hatte die Regelung nimmer gegriffen und ständig mit min. Drezahlen gearbeitet bis der Überhitzungsschutz griff oder so. Als ich meine Hand auf die Rückseite (Metallverkleidung) gelegt hab hätte man auch fast ein Ei drauf Braten können. Schätze mal so um die 70, 80 Grad wird sie hinten wohl gemerkt schon gehabt haben. Hab dann mal beim Riva auf 100% gestellt und die wurde im Vantage nie heißer als 63 Grad aber dann ists schon guter Fön(bin recht empfindlich als Wakü User)
komisch ist auch wenn ich Everquest2 im Fenstermodus spiele habe ich weniger Fps als in Vollbild, dachte dran das die Graka sich in den Low 3d Modus begiebt aber da sagt der Rivatuner was anderes werd ich auchnoch rausbekommen.
im Vantage hatte ich auf xtreme(1920x1200) 5400 Punkte bei Bedarf kann ich gern Screenies nachreichen.
Treiber: 177.26
 
Zuletzt bearbeitet:
Also mir geht dieser Mikroruckelhype auf den Keks. Wenn man dem allen Glauben schenkt dann ist ein CF / Sli Gespann ja komplett unspielbar bzw. unbenutzbar. Ich habe mir die PCGH Videos die es zu Problematik gibt angeschaut und kann dort nichts negatives feststellen.
 
Also mir geht dieser Mikroruckelhype auf den Keks. Wenn man dem allen Glauben schenkt dann ist ein CF / Sli Gespann ja komplett unspielbar bzw. unbenutzbar. Ich habe mir die PCGH Videos die es zu Problematik gibt angeschaut und kann dort nichts negatives feststellen.

sorry aber dann bist du blind!!
Ich hatte auch mal SLI und habe es deutlich gesehen nur war damals nix von microrucklern bekannt! Sah aber immer etwas merkwürdig aus!!
 
Zuletzt bearbeitet:
Also mir geht dieser Mikroruckelhype auf den Keks. Wenn man dem allen Glauben schenkt dann ist ein CF / Sli Gespann ja komplett unspielbar bzw. unbenutzbar. Ich habe mir die PCGH Videos die es zu Problematik gibt angeschaut und kann dort nichts negatives feststellen.

Du ich hatte 3 Monate lang nen 3870er CF und muss sagen das es wahnsinnig viele FPS brachte, aber die Minimum FPS waren meist schlecht oder sogar schlechter. Also Miniruckler stören eigentlich nur bei Spielen die eh nur mit 20-30 FPS laufen, da wirkt das eben bisl ruckliger als mit einer Karte. CF ist ganz nett aber auch keine sehr gute Lösung.
 
@Zuppi: Könntest du mal CRYSIS auf deiner Resi (19x12) OHNE AA und alles auf high testn? Wäre wirklich sehr nett von dir.

EDIT: Sag bitte noch ob du Vista oder XP hast - DANKE

Mfg LKrieger
 
alle die endtäuscht sind von den leistungen der neuen nvidia karten, wissen wohl nicht ganz wie die realität aussieht.

ihr vergesst wohl alle dass die G80 Architektur ein meilenstein ist/war

5 jahre entwicklung und unmengen von geld stecken in der G80 Architektur.

nach so einer Legendären karte ist es doch klar dass der nachfolger nicht wieder so Legendär wird.

dafür ist der GT280 doch super gut.

wie damals von Geforce 6 auf Geforce 7

ihr solltet mal eure hohen ansprüche senken und der realität ins auge gucken
 
Die GTX ist super , aber viele haben vergessen das Basis immer noch G80 ist welcher nochmal richtig aufgepumpt wurde. Das konnte kein extremer Meilenstein werden. Der G80 war wirklich eine richtige neu entwicklung , dass jetzt nur das Resultat einer Weiterentwicklung und Erweiterung.

Trotzdem super Teil, nur zu teuer noch.
 
sorry aber dann bist du blind!!
Ich hatte auch mal SLI und habe es deutlich gesehen nur war damals nix von microrucklern bekannt! Sah aber immer etwas merkwürdig aus!!

bei SLI ist das schlimmer, AMD hat das besser im Griff irgendwie, ich hab selber SLI und CF gehabt und die MR die nur bei 30 FPS auftreten sind bei Nvidia viel schlimmer das wurde auch schon im 3DC ermittelt:

NV SLI =10-50-10-50-10-50 usw.

ATI CF= 10-30-10-30-10-30 usw.

ist doch latte, keine will auf 30 FPS ne Spiel zocken (ausser Tetris) mit SIngelgraka und mit Multi GPU erst recht nicht weil dann bräuchte ich kein MGPU.
 
Gut der Preis ist nicht attraktiv aber auch fair dennoch! Denn ich hab im Januar noch 310 Euro bezahlt für meine GTS G92, da ist die GTX280 ein wahres Schnäppchen.

Der G80/G92 werden förmlich deklassiert:

gtx280benchcbmxu.jpg


Also ich find die Leistung überzeugend!
 
Zuletzt bearbeitet:
ich will ja nix schönreden ich bin auch kein Fanboy und ich habe ruckzuck ne ATI drinn wenns sein muß,damit hab ich absolut Null probs.

Aber wenn du die Karte hast und spielst irgendein Game mit 20-30 FPS und wunderst dich warum das nicht ruckelt dann weis du das du eine GTX280 im Rechner hast...keine Ahnung was die da gebaut haben einfach unbegreiflich...aber ich komm noch dahinter :d
 
Ich hoffe das Gainward was taugt, hab nämlich grad zwei Stück gekauft für 390,- das Stück! ...bei dem Preis konnt ich gar nicht anders obwohl ich mir geschworen habe meine zwei 8800er bis zum G200 Shrink zu behalten!!!
 
Aber wenn du die Karte hast und spielst irgendein Game mit 20-30 FPS und wunderst dich warum das nicht ruckelt dann weis du das du eine GTX280 im Rechner hast...keine Ahnung was die da gebaut haben einfach unbegreiflich...aber ich komm noch dahinter :d

Gott jetzt bin ich zum ersten mal aufgeregt! Mist ich muss noch bis Do./Fr. warten. :rolleyes:
 
Letztendlich ist diese ganze Diskussion Pro / Contra NV/ATI völlig latte.
Jeder soll mit der Hardware zufrieden sein die er für richtig hält. Wenn sich jemand eine GTX280 zulegt dann kauft er sich jedenfalls eine verdammt schnelle wenn nicht die schnellste Grafikkarte die es derzeit für den Endkonsumenten gibt.
Das Preisleistungsverhältniss relativiert sich auch, wenn man bedenkt das man hier eine Single GPU Karte mit der Leistung einer GX2/X2 bekommt die bei Markteinführung auch nicht günstiger waren.

Ati geht halt einen anderen Weg indem man nicht auf absolutes und damit teures Highend
setzt sondern versucht den Mittelweg zu gehen. Die 4850 wird sich wie auch schon die 3870 zu einem Preis/Leistungsschlager entwickeln und ist sicherlich für die meisten vollkommen ausreichend.


Dieses ganze Gekloppe um NV oder ATI geht mir dermassen auf den Keks das ich mich manchmal Frage, ob da wirklich erwachsene oder zumindest im Umgang miteinander reife Personen hinter der Tastatur sitzen.
 
Ich hoffe das Gainward was taugt, hab nämlich grad zwei Stück gekauft für 390,- das Stück! ...bei dem Preis konnt ich gar nicht anders obwohl ich mir geschworen habe meine zwei 8800er bis zum G200 Shrink zu behalten!!!

Was musstest du denn für den Preis machen? :fresse:
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh