[Sammelthread] Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Status
Für weitere Antworten geschlossen.
Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen

Nvidia GeForce 280 GTX Sammelthread

gtx260_01jjh.jpg

gtx280_024p9.jpg

gtx280_core1eb.jpg

gtx280_rammo6.jpg

gtx280_powerrgc.jpg

gtx260_04a2f.jpg




Technische Daten der 280 GTX - G200 noch nicht Final!

  • Chip = G200
  • Fertigung = 65 nm
  • Chip Größe = 576 mm²
  • Transistoren = ca. 1.400 Mio.
  • Chiptakt = 602 MHz
  • Shadertakt = 1.296 MHz
  • Pixel-Pipelines = keine
  • Shader-Einheiten (MADD) = 240 (1D)
  • FLOPs (MADD/ADD) = 933 GFLOPs
  • ROPs = 32
  • Pixelfüllrate = 19.264 MPix/s
  • TMUs = 80
  • TAUs = 80
  • Texelfüllrate = 48.160 MTex/s
  • Vertex-Shader = kein
  • Unified-Shaderin Hardware = √
  • Pixelshader = SM 4
  • Vertexshader = SM 4
  • Geometryshader = √
  • Memory
  • Art = Hynix
  • Speichermenge = 1.024 MB GDDR3
  • Speichertakt = 1.107 MHz
  • Speicherinterface = 512 Bit
  • Speicherbandbreite = 141.696 MB/s
  • Stromaufnahme >>> 236 Watt TDP (über einen 6xpin und 8xpin Anschluß)
  • Die Karte besitzt nur Shader 4.0, dass heißt keine DX10.1 unterstützung!
  • Die Karte nutzt PCIe 2.0, ist aber völlig abwärtskompatibel.





Erste Tests der Karte

Code:
[URL="http://www.pcgameshardware.de/aid,647678/News/Nvidia_Geforce_GTX_280_Alle_PCGH-Tests_im_Ueberblick/"]PCGamesHardware (deutsch)[/URL]
[URL="http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/#abschnitt_einleitung"]Computerbase (deutsch)[/URL]
[URL="http://www.guru3d.com/article/geforce-gtx-280-review-test/"]Guru 3d (englisch)[/URL]
[URL="http://www.extremetech.com/article2/...2320089,00.asp"]Extremtech (englisch)[/URL]
[URL="http://www.pcper.com/article.php?aid=577"]PC Perpective (englisch)[/URL]
[URL="http://techreport.com/articles.x/14934"]Techreport (englisch)[/URL]
[URL="http://anandtech.com/video/showdoc.aspx?i=3334"]Andtech (englisch)[/URL]
[URL="http://www.hexus.net/content/item.php?item=13736"]Hexus (englisch)[/URL]
[URL="http://www.neoseeker.com/Articles/Hardware/Reviews/gtx280/"]Neoseeker (englisch)[/URL]
[URL="http://www.overclock3d.net/reviews.p..._msi_n280gtx/1"]Overclocker3d net (englisch)[/URL]
[URL="http://enthusiast.hardocp.com/article.html?art=MTUxOCwxLCxoZW50aHVzaWFzdA=="]Enthusiast (englisch)[/URL]
[URL="http://www.hothardware.com/Articles/NVIDIA_GeForce_GTX_280_and_GTX_260_Unleashed/"]HotHardware (englisch)[/URL]
[URL="http://www.tomshardware.com/reviews/...-280,1953.html"]TomsHardware (englisch)[/URL]
[URL="http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/7972-evga-geforce-gtx-280-1gb-superclocked-review.html"]Hardware Canucks (englisch)[/URL]
[URL="http://www.hardwarezone.com/articles...?cid=3&id=2593"]Hardwarezone (englisch)[/URL]
[URL="http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=1"]Benchmarkreviews (englisch)[/URL]
[URL="http://www.firingsquad.com/hardware/nvidia_geforce_gtx_280_260_performance/"]Firingsquad (englisch)[/URL]
[URL="http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_280_Amp_Edition/"]TechPowerUp (englisch)[/URL]
[URL="http://www.legitreviews.com/article/726/1/"]Legitreviews (englisch)[/URL]
[URL="http://www.nvnews.net/reviews/geforce_gtx_280/index.shtml"]NVnews (englisch)[/URL]
[URL="http://www.bjorn3d.com/read.php?cID=1293"]Bjorn3D (englisch)[/URL]
[URL="http://www.driverheaven.net/reviews.php?reviewid=579"]Driverhaven (englisch)[/URL]
[URL="http://www.hardwaresecrets.com/article/570"]HardwareSecrets (englisch)[/URL]
[URL="http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=577&Itemid=31"]EliteBastards (englisch)[/URL]
[URL="http://www.tweaktown.com/reviews/1464/zotac_geforce_gtx_280_amp_edition/index.html"]TweakTown (englisch)[/URL]




Geizhals Links (zu erwartende Preise zwischen 450€-600€)


Code:
[URL="http://preisvergleich.hardwareluxx.de/?fs=280+gtx"]Hwluxx Geizhals Link[/URL]

Taktraten der vorübertakteten Modelle (Reihenfolge GPU/ Shader/ VRAM):
Code:
[LIST]
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[*]-
[/LIST]




Treiber
Code:
Alle Infos und neuste Treiber findet ihr in diesem Thread [URL="http://www.forumdeluxx.de/forum/showthread.php?t=346738"]hier[/URL]


Tools
Code:
[URL="ftp://download.nvidia.com/downloads/...MedusaInst.exe"]Nvidia Tech Demo Medusa[/URL]
[COLOR="Red"][B]Grafikkarten Analyse Tool Gpu-Z[/B][/COLOR] [URL="http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html"]hier[/URL]
[B][COLOR="Red"]
RivaTuner zum OC der Graka[/COLOR][/B] [url=http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a]hier[/url]

[B][COLOR="Red"]AtiTool zum OC der Graka[/COLOR][/B] (läuft nicht unter Vista 64bit) [url=http://www.computerbase.de/downloads/software/systemprogramme/grafikkarten/atitool/]hier[/url]



FAQ


Wie laut ist die Karte?
  • Zum Thema Lüfter konnte Nvidia in der Vergangenheit immer gut Punkten, leider ist ihnen das bei diesem Transistormonster dieses mal nicht so gut geglückt. Aufgrund der ernomen größe der GPU und der starken wärme Abgabe muß der Kühler dieses mal einiges mehr Leisten, was ihn in der Lautstärke Rangliste diesmal leider keine so guten Punkte einbringt wie gewohnt. Selbst im Idle muß die Karte diesmal einen Platz hinter dem 2GPU Konkurrenten der ATI 3870X2 einnehmen. Unter Last zeichnet sich das gleiche Bild ab, dass ganze war aber eigentlich ab zu sehen. Irgendwie muß die hohe Abwärme ja raus geblasen werden. Für Silent Freaks ist die Karte wohl so diesmal nicht zu empfehlen.
Bench_03.jpg

Bench_04.jpg


Anleitung zur Lüftersteuerung über RivaTuner
  • Da vieler User grade an der Lüftersteuerung vom RivaTuner basteln um der Karte etwas das schwitzen auszutreiben findet ihr im 3DForum dazu eine Hilfestellung. Zu finden Hier

  • Ansonsten findet ihr im Sammelfred zum RivaTuner hier alle wichtigen Infos. Danke Ralf_1 :wink:



Wie hoch ist der Stromverbrauch?
  • Lange war bei Nvidia der fehlende 2D Modus ein Kritikpunkt der G80 Reihe und der G92 Nachfolger. Die Karten verschwendeten leider immer Energie, was angesicht der aktuellen Strompreise wirklich Anlass zu Kritik bot. Nun hat es Nvidia mit der neuen Generation der 260 - 280 GTX geschafft hierbei nach zu bessern. So ist der Idle Stromverbrauch auf ein für dieses Monster akzeptable Niveau gesunken. Leider konnte NVidia dies im Last Modus nicht bewerkstelligen und so stellt die neue Grafikkarte gleichzeitig auch einen neuen Negativrekord auf. Noch nie zuvor hat eine Single GPU Grafikkarte unter Last soviel Strom konsumiert. Sie liegt damit dicht an ihren Dual GPU Pendanten.
Bench_01.jpg

Bench_02.jpg




Wie heiss darf meine Karte werden?
  • Wie uns die Lautstärke der Lüfters erahnen lässt ist die Karte im IDLE Modus relativ kühl, dass ganze haben wir wohl auch dem endlich von NVidia intigriertem Stromsparmodus zu verdanken. Selbst unter Last ist die Karte mit 80° Grad für so eine GPU noch relativ kühl. Das lässt eventuell spielraum den Lüfter noch etwas zu drosseln um die Lautstärke zu senken.
GPU-Z_GTX280_2_rs.jpg
GPU-Z_GTX280_3_rs.jpg




Passt die Karte in mein Gehäuse?
  • Wie bereits bekannt, entspricht die Karte mit ihren Abmaßen in etwa denen der alten G80-GTX oder der GX2. Wer die 28cm der bisherigen Karten aufnehmen konnte, wird auch bei diesem Stück keine Probleme haben.


Wie gut läßt sich die Karte übertakten?
  • coming soon....

Übertaktbarkeit:
coming soon....




Videobeschleunigung
  • coming soon....




Performance
Bench_08.jpg

Bench_10.jpg

Bench_05.jpg

Bench_09.jpg

Bench_11.jpg

Bench_06.jpg

PhysX by NVIDIA - GeForce PhysX
  • Mit der aktuelle GForce Generation bringt führt Nvidia nun auch das von ihnen aufgekaufte PhysX ein, nun aber können Nutzer einer GeForce-8- und -9-Grafikkarte von den Erweiterungen durch PhysX profitieren. Für Unreal Tournament (extra Mod mit extra PhysX Karten) und 3DMark Vantange besteht zur aktuellen Zeitpunkt eine unterstützung. Unser Hardwareluxx Redakteur *Andreas Schilling* hat für euch ein paar Benchmarks erstellt.Den ganzen Artikel findet ihr unter diesem Link -> http://www.hardwareluxx.de/cms/artikel.php?action=show&id=621&seite=1

Bench_01.jpg

Bench_02.jpg

Bench_03.jpg

Bench_04.jpg




Andere Kühllösungen
  • In diesem Thread -> hier, findet ihr die ersten Wasserkühler zu der neuen 280er GTX. :wink:
    Danke an den User Shoggy für diese Infos.




Allgemeine Hinweise
Um das Geflame, Gespame oder sonstige Unannehmlichkeiten zu minimieren wird gebeten im Falle eines Versoßes den „Beitrag-melden“ - Button (
report.gif
) zu benutzen! Natürlich auch im Falle eines Verstoßes der Forenregeln! ;)
Solche Beiträge oder nicht Themenbezogene Beiträge werden dann entfernt.
Der erste Post sollte immer aktuell gehalten werden. Sollte er einmal nicht aktualisiert worden sein, dann meldet euch per PN bei mir oder bei den anderen zuständigen Moderatoren!
Grüße der Froggi
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
saug saug saug dann muß ich die Karte ausbauen und dannn gehts los

öhmmm dein Link>das arschiifff ist put

du nutzt x64?


Hinzugefügter Post:

Schmieren der Spieleindustrie bzgl. PhysX? Das Geld alles ist, hat man ja an AC gesehen :)

bei assassinscreed wurde keiner geschmiert; und wenn dann höchstens von ati, um die überstunden der programmierer zu bezahlen zwecks kompletter shaderumschreibung,,,nur soviel dazu.
 
Zuletzt bearbeitet:
"Schmieren" ist hier einfach der falsche Ausdruck. Wir befinden uns in einer Industrie und da leben nunmal alle vom Gewinn. Wenn der höher vermutet wird, indem man mit nVidia zusammenarbeitet, dann ist es nunmal so. Das hat mit Schmieren nur nicht viel zu tun.
 
jaja war auch etwas provokant, ich denke aber schon, dass PhysX in Zukunft vermehrt Unterstützung findet, denn nun steht ein namhafter 3D-Grafikhersteller dahinter ;)
 
kann man mit cuda nicht 5 filme gleizeitig in echtzeit umwandeln?
 
zieh jetzt endlich mal einer der Karte die Plastikhaube aus,weche der Temps!
Ich kann nett,hab nen Arm in Gips.
Hinzugefügter Post:
kann man mit cuda nicht 5 filme gleizeitig in echtzeit umwandeln?
mindestens
 
Zuletzt bearbeitet:
jo,scheint wohl kaputt sein

ja, dia archiv ist broken und tweakpc hat eine gefixte version hochgeladen, musste nochmal von dort direkt neu laden. edit: die scheint auch hin zu sein ^^

http://forums.guru3d.com/showpost.php?p=2739959&postcount=42
Seems to have worked with 177.35 no problem in 3dMark Vantage

177.35 before
P6914
CPU Score 12371 <----
Graphics Score 6028

177.35 w/ PhysX Installed
P7553
CPU Score 34628 <----
Graphics Score 5992

Overall score goes up 500pts and CPU score goes from 12,000 to 34,000
:eek: und das mit ner 9800gtx
 
Zuletzt bearbeitet:
vielleicht hat nvidia ein kleines progrämmchen geschrieben um in vantage gut dazustehen :d

mir sind vantage scores egal.
 
Hmmm.. die Original-Hardware PhysX hat 200 Punkte bei mir gebracht (12.2 zu 12.4). Das ist mal Nice.
 
So leute ... Noch mal zu meiner Frage.... nur konnte sie mir vor paar tagen noch keiner richtig beantworten.....

Wie sind die Karten von der Lautstärke?

Momentan Habe ich ein Noctua CPU Kühler und der macht nicht allzuviel krach...

Ich möchte also nicht das die Karte den Geräuschpegel nach oben zieht.


Übrigens interessier ich mich für die GTS 260 und nicht für die 280.
Hat mit dieser Karte jemand schon efahrung oder ein vernünftiges Review?


Danke Busta
 
So leute ... Noch mal zu meiner Frage.... nur konnte sie mir vor paar tagen noch keiner richtig beantworten.....

Wie sind die Karten von der Lautstärke?

Momentan Habe ich ein Noctua CPU Kühler und der macht nicht allzuviel krach...

Ich möchte also nicht das die Karte den Geräuschpegel nach oben zieht.


Übrigens interessier ich mich für die GTS 260 und nicht für die 280.
Hat mit dieser Karte jemand schon efahrung oder ein vernünftiges Review?


Danke Busta
Kann man auch heute nicht.
Ist super-Subjektiv. Wie sollen wir das für Dich beantworten? Hat jeder ein anderes Empfinden. Hat jeder noch andere Krawallmacher im Rechner.
Meine 280er ist deutlich leiser als meine alte 9800GX2. Kein hochbrüllen wenn man den Rechner startet, keine 100% Lüfter-Lautstärke beim zocken. Und trotzdem, in meinem Super-Silent-System (keine Festplatten, Wakü, nur zwei langsam laufende 120er Gehäuselüfter, Silent-Netzteil) ist sie der Radaumacher schlechthin. Wakü ist bestellt.
 
Zuletzt bearbeitet:
kann man mit cuda nicht 5 filme gleizeitig in echtzeit umwandeln?
Vielleicht geht das sogar, wenn einer eine gute Anwendung dazu schreibt. F@H zeigt wie gut die GPUs in bestimmten Anwendungen laufen, eine 8800GTS512 zieht flockig nen 3,6GHz C2Q ab.
 
Kann man auch heute nicht.
Ist super-Subjektiv. Wie sollen wir das für Dich beantworten? Hat jeder ein anderes Empfinden. Hat jeder noch andere Krawallmacher im Rechner.
Meine 280er ist deutlich leiser als meine alte 9800GX2. Kein hochbrüllen wenn man den Rechner startet, keine 100% Lüfter-Lautstärke beim zocken. Und trotzdem, in meinem Super-Silent-System (keine Festplatten, Wakü, nur zwei langsam laufende 120er Gehäuselüfter, Silent-Netzteil) ist sie der Radaumacher schlechthin. Wakü ist bestellt.

Gibt es den keine vernünftigen tests bisher wo die dba mit anderen Karten verglichen werden oder so?

Die lautstärke ist für mich nähmlich absolutes K.O kriterium.
 
mir kommt auch vor sie is ziemlich laut beim games
dank kompressor und -26dB auszendaempfungs kopfhoerer isses mir aber blunzn
 
:haha: :lol:

geiler Post....

man kann förmlich "fühlen" / "hören", dass du ine einem Kraftwerk mit zischenden Motoren etc. sitzt :)
 
genau mein Sennheiser sagt auch,völlig wurscht.

Tja für die Vista Treiber müssen wir uns wohl noch etwas gedulden
 
laut einigen Benchmarks ist die GTX280 doppelt so schnell aber die Realität ist was anderes.In CoH,Crysis,Wic spürbar nicht schneller und laut Fraps sind die Frames auch lachhaft besser.

Karte geht wieder zurück


Ehrlich gesagt nehme ich dir nicht mal ab, das du die Karte überhaupt hattest.
Hab dich noch gebeten mal ein paar Benches deiner Wahl zu machen, hast nichtmal reagiert, weil ich mir schon dachte das deine Comments heisse Luft und Flame sind.
Wenn man sich deine Beiträge vor dem Release der G200 Karten anschaut, ist es immer wieder Nvidia Gebashe und Geflame, was von dir kam.
In der gleichen Kategorie ordne ich auch deine Beiträge hier ein, du hast die Karte nie gehabt, aber versuchst sie hier trotzdem schlecht zu machen, NV flamen und bashen, that's all.
 
Zuletzt bearbeitet:
Hab ich auch mal kräftig über die Karte,weil ichs nett glauben konnte,aber hinterher und vor allem bei NV sollte man dann doch wohl etwas vorsichtig sein :d
Man(n) kann sich aber auch etwas eingestehen...wenn man (n) Eier hat...
 
zuuuuuuppi, ... jetzt teste mal endlich den Treiber in Vantage und UT ;) :P


I just tried Crysis and it runs much smoother with this driver than anything I tried before but I noticed shadings on the character are much stronger/darker at carrier level and also I got strange trianglish artifacts on the upper deck of the carrier when you defend against alien attacks. Looks like I have to switch back to slower driver for reliability but what nvidia has done to this set seem quite promissing. I'm defo looking forward to the next release.
 
Zuletzt bearbeitet:
Kann man auch heute nicht.
Ist super-Subjektiv. Wie sollen wir das für Dich beantworten? Hat jeder ein anderes Empfinden. Hat jeder noch andere Krawallmacher im Rechner.
Meine 280er ist deutlich leiser als meine alte 9800GX2. Kein hochbrüllen wenn man den Rechner startet, keine 100% Lüfter-Lautstärke beim zocken. Und trotzdem, in meinem Super-Silent-System (keine Festplatten, Wakü, nur zwei langsam laufende 120er Gehäuselüfter, Silent-Netzteil) ist sie der Radaumacher schlechthin. Wakü ist bestellt.

Oh Gott, du machst mir echt Hoffnung wenn nachher die DHL meine GTX280 liefert.
Meinst du in idle bekommt man sie wenigstens in deinem Silent System lautlos?? Mal Rivatuner versucht?
In 3D wäre mirs net so wichtig da ich headphones hab und da hat mich selbst die 2900XT OC net gestört, net wirklich und in 2D konnte ich den R600 sogar lautlos bekommen durch vcore Absenkung. Wie schauts da aus mit der GTX280? (wakü kommt eigentlich nicht in Frage)
Ist es bspw. möglich durch ein Mod-Bios die GPU Spannung noch weiter zu senken in idle?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh