[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wird ja immer schöner ;) .. aber da geht die Performance schon ganz schön in den Keller!
ups ist natürlich 2x2 die shader reißens runter.
und ich hab mal wieder vergessen die Karte in das 3d Profil zu schicken,ich glaub ich inst den riva wieder :d
 
Zuletzt bearbeitet:
Hallo!

So hab nun endlich meine xfx 280 xxx bekommen. Allerdings hab ich ne Frage an euch. Habe daszu dieses SPDIF Kabel bekommen, dass aber nur zweipolig ist. Wo steck ich dass nun an mein Board an? Ich habe 5 zu auswahl:

+5V
OUT
GND
R5VD
N/C

Greez r3llik
 
Hallo!

So hab nun endlich meine xfx 280 xxx bekommen. Allerdings hab ich ne Frage an euch. Habe daszu dieses SPDIF Kabel bekommen, dass aber nur zweipolig ist. Wo steck ich dass nun an mein Board an? Ich habe 5 zu auswahl:

+5V
OUT
GND
R5VD
N/C

Greez r3llik

An meiner Soundkarte ist der SPDIF auch nur zweipolig ausgeführt. Dein Board schein kompliziert zu sein^^. Aber N/C (Not Connected) wirds nicht sein.
 
Hab grad mal im Manual nachgeschaut. Also so heißts richtig:

1 +5V
2 Empty
3 Audio Out
4 Audio In
5 Ground
6 Not Used

Alsp 2 und 6 fallen weg. 4 Audio In kanns glaub ich au net sein, weil meine Graka ja keinen Sound ausspuckt, die soll ihn ja nur weitergeben. Also bleibt 1, 3 und 5. Aber brauch ich +5V ? Is ja an der Grafikkarte angesteckt?
 
wirklich keiner mehr G3 inst?
Bei Mass Effect solls wohl auch laufen mit dem*39er Treibern
Los testen :d!

Na! Da haben wa wohl wat überlesen!

@ GA-Thrawn

*hust* http://www.forumdeluxx.de/forum/show...postcount=1542


Zitat:
Zitat von ulukay Beitrag anzeigen
zeigt dasselbe an -> ich schick die karte zurueck
Wie ärgerlich!
Hab mir schon gedacht, dass da was nicht stimmt.
Ich denke, dass der Kühler nicht richtig sitzt.


Zitat:
Zitat von Flying Beitrag anzeigen
Sagen wir so... die CPU wird sicher die Karte limitieren. Nu kommts nur auf das Spiel und deine Auflösung+Settings an ob du was davon merkst.
In Standard 3dmark06 z.B. merkst es sicher, während aufm 24" Crysis wohl kaum die CPU als erstes einknicken dürfte. Weißt was ich mein?

Edit: Btw würde ich net von ner schlechten Engine reden. Es gibt paar Stellen wo die Shader buggy sind, aber wenn man sich anguckt wie das Game auf kleineren Karten wie meiner jetzigen GT läuft kann man net von schlecht reden. Da wüsste ich andere Beispiele
Äh sorry, wie kommst du auf ein CPU-Limit bei Crysis???
Die CPU limitiert da kaum, da die Graka-Last bei läppischen 1280x1024 schon sehr hoch ist

http://www.forum-3dcenter.org/vbulle...&postcount=221

Und klick

Aber ich muss schon sagen deine letzten paar Gothic Bilder sehen ganz schön scheisse aus, dit geht och besser.:asthanos::heuldoch:
 
Zuletzt bearbeitet:
kleine Info zum Stromverbrauch,
System steht im großen und ganzen in der Sig, 3 Festplatten sind verbaut und mein Netzteil ist ein Dark Power Pro 550W
Konnte mit Prime95 + Medusa/Vantage auf meinem Messgerät zu keinem Zeitpunkt einen höheren Stromverbrauch als 420Watt feststellen und das obwohl ich ne Amp drinn habe. Idle Wert ist 175 Watt
Hoffe dem ein oder anderen geholfen zu haben.
Hm Sabber hatte bei EK wegen Kühler angefragt und heute Nachricht bekommen das er sie morgen im shop listen wird *freu*
 
Zuletzt bearbeitet:
@ relikt schau doch mal ob du einen optischen Ausgang am Bard hast ich glaub da für sollte die leitung eig sein.

Sind eig jetzt alle Karten schwarz ?
 
Bisher glaube ich schon zum größten Teil halt sind ja Aufkleber von den Firmen drauf.
 
@ relikt schau doch mal ob du einen optischen Ausgang am Bard hast ich glaub da für sollte die leitung eig sein.

Sind eig jetzt alle Karten schwarz ?

Ich glaube du meintest wohl ein digitalen SPDIF ausgang und kein optischen. Wenn das Board kein Ausgang hat siehts für Relikt düster aus.

Wer eine X-Fi hat kann dort das Kabel auch intern anschließen. Und das obwohl bei der Karte intern auf der Platine offiziel kein Anschluss vorhanden ist.
 
JA SPDIF sollte doch eig optical out heissen..oder hab ich da mal was falsch verstanden ?
 
Hallo Jungs. Mein Board hat schon so einen SPDIG anschluss. Nur weiß ich net wo ich das Kabel auf welche Pins vom Board machen soll. Ich habe 5 Pins, einder davon is nicht belegt.

1 +5V
2 Empty
3 Audio Out
4 Audio In
5 Ground
6 Not Used

Jetzt weiß ich nur nicht welchen stecker ich wo hin stecken soll???

Ja der Kühler und die Platine ist schwarz. Bei der XFX ist noch ne geile grün/schwarze Grafik mit drauf.

-----------------------------

Problem die zweite:

Ich kann meine GTX nicht in PCI Slot 1 stecken. Weil kein Platz ist. Gibts ne möglichkeit sie in den dritten Slot zu stecken ?
 
sdeine 1-6 pins kannst du vergessen die sind für die Ausgänge am Gehäuse so wie du sie beschreibst. PCI oder meinst PCIe ? wenn bei dir alle PCIe Steckplätze x16 oder höher sind kannst du sie überall reinstecken
 
Tomsen kommt von der Arbeit, schaltet seinen Rechner ein will den Browser starten, Zapp, komplett weißer Screen und nichts geht mehr und musst neustarten! :hmm:

Vermute das die Karte beim Hochtaken freezt weil die Spannung nicht schnell genug verfügbar ist. Danke Nvidia! :(
 
Wieso passt das teil den nicht in den ersten PCI-E Slot?

Beim 790i muss die Karte in den ersten Slot, sonst gibt es eine Fehlermeldung.
 
Wieso passt das teil den nicht in den ersten PCI-E Slot?

Beim 790i muss die Karte in den ersten Slot, sonst gibt es eine Fehlermeldung.

Weil ich son beschissenen waserkühler auf meinem Chip habe und diese neuen beschissenen Grafikkarten sind alle zu fett. Kann man die Fehlermeldung nicht umgehen??
 
Tomsen kommt von der Arbeit, schaltet seinen Rechner ein will den Browser starten, Zapp, komplett weißer Screen und nichts geht mehr und musst neustarten! :hmm:

Vermute das die Karte beim Hochtaken freezt weil die Spannung nicht schnell genug verfügbar ist. Danke Nvidia! :(

eher wahrscheinlich weil der Lüfter nicht läuft....hör auf,verkauf sie und kauf ne ATI,tagelang Superklasse und auf einmal ne Scheißkarte....
 
Mein Striker 2 Extreme hat auch Wakü (EK) und das geht mit der GTX 280 oder 9800GX2 ohne Probleme...

Schon mal den Innovatek Probiert? Das müsste gehen!
 
eher wahrscheinlich weil der Lüfter nicht läuft....hör auf,verkauf sie und kauf ne ATI,tagelang Superklasse und auf einmal ne Scheißkarte....

Was ich zu tun habe überlässt du gefälligst mir! Was kann ich dafür wenns nen Freeze gibt ohne Grund? Und der Lüfter spielt hier keine Rolle da die Temp einwandfrei ist! Kritik darf doch erlaubt sein, vor allem bei ner Karte über 500 Euro!
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh