[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
woaaa wie super
Ohne AA und wenn AArichtig Leistung kostet in 1680x1050 :lol:
geh woanders trollen oder lern ablesen und dann kommste nochmal
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
woaaa wie super
Ohne AA und wenn AArichtig Leistung kostet in 1680x1050 :lol:
geh woanders trollen oder lern ablesen und dann kommste nochmal

Call of duty hat 4xAA , Quakewars hat AA zum teil auch 1900er auflösung

das du es weißt mit 8xAA un 1900er auflösung steht die 4870 noch besser da im gegensatz nur 280GTX....

Die AA probleme wurden beseitigt

Es geht darum das die 4870 fast immer besser ist als eine 260GTX mehr nicht


und das kannste nicht abstreiten oder schlecht reden vorallem nicht für 230€

Für die 280GTX kommt dann die 4870X2 zum wahrscheinlich selben Preis
 
Zuletzt bearbeitet:
Lern lesen!
Da wo AA Leistung kostet....
COD4 spiel ich mit ner 4200ti mit 4xAA flüssig

Für die 280GTX kommt dann die 4870X2 zum wahrscheinlich selben Preis>dann sinds 2 Karten....dann kannste die SLI Leute fragen...
 
Zuletzt bearbeitet:
Trotzdem gehts hier in dem Fred um die GTX280 und um nix anderes. Wäre schön beim Thema zu bleiben ;)
Denn die 280 putzt nach wie vor die 4870 in der entsprechenden Konfiguration weg...mal davon abgesehen.
 
Lernt euch zu beherrschen und überdenkt den Ton! :wink:

Bitte die ATI Ergebnisse hier heraus halten, dass artet unnütz aus. Danke ..
 
Dann sagt das den ATI Leuten hier hat keiner damit angefangen.
Hinzugefügter Post:
Trotzdem gehts hier in dem Fred um die GTX280 und um nix anderes. Wäre schön beim Thema zu bleiben ;)
Denn die 280 putzt nach wie vor die 4870 in der entsprechenden Konfiguration weg...mal davon abgesehen.
was für eine bekommste jetzt oder weist du das noch nicht?
 
Zuletzt bearbeitet:
was für eine bekommste jetzt oder weist du das noch nicht?

du nachdem man mir am Telefon relativ unfreundlich sagte was ich jetz will, tauschen oder widerruf, schicke ich die Karte auf Widerruf mit dem Grund, dass die defekt ist, zurück.
Werde mir erstmal eine 4870 abgreifen und wenn es die nicht bringt kann ich mir immer noch wieder eine 280 holen, dann aber keine Zotac mehr und vermutlich auch günstiger in ca. 2 Wochen ;)
 
oha dann mußte hoffendlich nicht zu lange auf deine Kohle warten,wenn die an den Hersteller zum Testen schicken.....bei Asus hab ich da mal 8 Wochen gewartet und dann kam die selbe Karte mit dem Vermerk "die wäre in Ordnung"....mein Anwalt hats dann gerichtet.
Karte war damals von Alternate.
 
Zuletzt bearbeitet:
Ausgetauscht hätten sie mir die sofort, aber ich will nicht wieder eine Zotac, am Ende hab ich dann denselben Mist. Haben ja schon mal Leute mit ner Zotac gejammert dass die heißer werden.
Ich werds sehen...
 
so freundlich wie der Mitarbeiter war denke ich nicht, dass ich danach hätte fragen sollen :fresse:
Sind eben selbst schuld, jetzt kriegen sie die zurück und ich kaufe wenn dann woanders...
 
Dann dauert der Zirkus hoffendlich nicht zulange,bin mal gespannt,kannst dann ja mal rüberkommen :d und bescheid sagen.
Hinzugefügter Post:
laber keine grütze die 4870 liegt zu 90% immer vor der 260GTX
und ist in paar sogar gleich auf mit der 280GTX im Bioshock sogar vor ihr.

Für 230€ ist das eine Endgeile Karte ohne Konkurrenz

Andandtech hat den einzigen test mit Catalyst 8.7 !

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=1

so das musste gesagt werden :wink:




ehe ichs vergesse für die objektiven unter uns


das Ultra Ergebniß sagt mir das die ATI klar am vram eingeht.
 
Zuletzt bearbeitet:
geh mal ne Seite zurück :d
aber mach mal mit SLI
Was für ein Board hast du?
 
Zuletzt bearbeitet:
Dann dauert der Zirkus hoffendlich nicht zulange,bin mal gespannt,kannst dann ja mal rüberkommen :d und bescheid sagen.
Hinzugefügter Post:


ehe ichs vergesse für die objektiven unter uns

hehe... nicht schlecht!

über 50% mehr min-frames als die 4870 :)

gruss
t.
 
Stimmt das wirklich, dass Zotacs heißer werden? Warum sollte das denn so sein? ^^ Ich mein, die kleben ihren Aufkleber drauf und gut ist?! Wo hast du das gelesen?

Bekomme heute meine Zotac per Nachnahme geliefert..
 
vorallem geht sie am vram ein>siehe Ultra

Aber hier gehts um die GTX der andere Krams ist nicht unser Sorge.

Sorry fürs OT

Ja, aber da bieten dann die 1GB Versionen Abhilfe.
Wir brauchen nicht die 4870 schlechter zu machen als sie ist, es ist schon ne Hammer Karte für den Preis!
Die MIN FPS sind mir aber wichtiger, und da ist die GTX klar besser!

So, nun wieder zu nVidia ;)
 
die Platine war in höhe der gpu gebogen sagte er noch,siehste ja wenn sie da ist.
Hinzugefügter Post:
Ja, aber da bieten dann die 1GB Versionen Abhilfe.
Wir brauchen nicht die 4870 schlechter zu machen als sie ist, es ist schon ne Hammer Karte für den Preis!
Die MIN FPS sind mir aber wichtiger, und da ist die GTX klar besser!

So, nun wieder zu nVidia ;)
Hier macht die keiner schlecht,das ist wohl anders rum.
Ich werde selbst eine 1gig Variante kaufen,wobei ich allerdings langsam glaube das da noch viel Wasser den Rhein runterläuft ehe ich die habe,GDDR5.
 
Zuletzt bearbeitet:
Stimmt das wirklich, dass Zotacs heißer werden? Warum sollte das denn so sein? ^^ Ich mein, die kleben ihren Aufkleber drauf und gut ist?! Wo hast du das gelesen?

Bekomme heute meine Zotac per Nachnahme geliefert..

Nicht die Zotacs allgemin, ... es scheinen aber Karten dabei zu sein, die sehr warm werden, aber warum, ka!

Hier macht die keiner schlecht,das ist wohl anders rum.
Ich werde selbst eine 1gig Variante kaufen,wobei ich allerdings langsam glaube das da noch viel Wasser den Rhein runterläuft ehe ich die habe,GDDR5.

Stimmt, das machen wir nicht ;) ....

Was machste denn mit der GTX?
Denke auch dass es noch etwas dauert bis die 1GB GDDR5 ordentlich lieferbar sind.
 
Zuletzt bearbeitet:
Nope, das ist er nicht. Das, was du hier siehst, nennt man "Processing Power Limitation". Klar? :)
 
Nicht die Zotacs allgemin, ... es scheinen aber Karten dabei zu sein, die sehr warm werden, aber warum, ka!



Stimmt, das machen wir nicht ;) ....

Was machste denn mit der GTX?
Denke auch dass es noch etwas dauert bis die 1GB GDDR5 ordentlich lieferbar sind.

im andern Rechner wurstet die GX2,da kommt die dann rein,ich muß selbst sehen was so ne Karte kann,auf das F...gesabbel geb ich nichts und die eigenartigen Benches,jeder ist anders usw.da kann man eh nix drauf geben.
Und der G200 ist doch eh nur eine Kurzzeit Geschichte, ich glaube kaum das NV im nächsten Jahr noch weiterhin so konservativ ist,so ein Monster werden wir auf jedenfall nie wieder sehen,die Zeiten sind vorbei.


Hinzugefügter Post:
öhm bin gerade angerufen worden,noch einer G3 inst.?
bei einem Freund ist die Ageia Karte angesprungen mit den Treibern!?
 
Zuletzt bearbeitet:
Wenigstens waren die Nvidia Karten kein Paperlaunch wie die 4870.
 
Der Eine sagt dies, der Andere jenes.
 
Tja Mädels, das wars wohl ne kurze Freude mit der GTX280, sehen wird die Karte morgen ab 300 Euro? Schon hart wie ATI die Preise kalkulieren, die sind ja fast geschenkt dir Karten und verbrauchen bei fast identischer Leistung noch 50 Watt weniger unter Last! :fire:

Tja, shice wars. :-[

Ich will wenigstens nen Lukü sehen bald von Thermalright, ich kotz nämlich langsam ab wegen der Lautstärke, die geht bei der Wärme in meiner Bude schon ganz schön ab.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh