Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 3

Status
Für weitere Antworten geschlossen.
man man das sind ja neuigkeiten, da wird mir echt schon wieder schlecht, da ich mir ja erst mein sys wieder ganz neu zusammengestellt habe !! naja so ist es halt....

was anderes, das war vll ne fummelei den 8 pin stecker in die 280ger zu bekommen, denn diese kleinen pins wollten nicht so wie ich, der stecker ging dann auch rein, aber etwas streng aber es funzt alles einwandfrei, so denke ich das es auch passt
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und meine Vorraussage das es "Nehalem" mit SLI geben wird sind auch eingetroffen: http://www.computerbase.de/news/tre...2008/juli/nvidia_quick-path-lizenz_intel_sli/

...also ich hab schön abgewartet u leg mir zu Ostern ein schönes Nehalem Board und 3 GTX mit dem GT300 (45nm) zu ;)

...ihr könnt ja euer Geld derweil bis dahin noch bischen Verpulvern, die Händler freuts ;) ...krass gell wenn man sich ne 570,-Euro teure Grafikkarte kauft die paar Wochen später nur noch 350,-Euro kostet u schon wieder ein besseres Modell am Start ist :banana:

Das hat mit Kraß nichts zutun wenn das wirklich so sein sollte das im August schon die nächste bessere Variante kommt ist das "kalt" eingeplant und eine "billige" Abzocke und wie gesagt man kann nur hoffen das die Kunden erwachsen genug sind und das endlich mal honorieren,für mich war dann die GTX auf jedenfall die letzte NV Karte.
 
Mithilfe der nForce 200 Bridge - das war auch jetzt schon möglich - Skulltrail.

Demzufolge sind Intelchipsätze alleine immer noch nicht für SLI freigegeben - besser das als nichts.

Ja aber findige Modder können die Treiber auch so modifizieren das Nvidia auf Atiplattformen läuft u Atikarten auf Nvidiaplattformen! ...gabs alles schon ;)
 
Ja aber findige Modder können die Treiber auch so modifizieren das Nvidia auf Atiplattformen läuft u Atikarten auf Nvidiaplattformen! ...gabs alles schon ;)

Wenn das so einfach wäre hatten wir schon lange wieder MOD Treiber gehabt. Und auch die damals waren nicht das Wahre.
 
Das ändert absolut nichts an meine Aussage und so eine Karte kann man nicht ruckzuck aus dem Ärmel schütteln,und das sie mit dem G200 ATI ans Bein pinkeln wollten ist Quatsch.NV hat sich die letzen Jahre zum Abzocker erster Güte entwickelt "dank ATI" weil von da nichts mehr kam und die blöden Käufer sind mit gerannt,die lachen sich doch seit dem G80 bei NV tot.
Naja wenn es wirklich so sein sollte wie gesagt ist meine nächste Karte ne ATI und ich hoffe das NV mal richtig in den Arsch getreten bekommt,denn mit dem G200 müssen sie sich schon mal garnicht verstecken,schon gar nicht im Single Dasein und schon garnicht vor einer 4870.
 
Und ich habe mich die ganze Zeit gefragt, warum Gainward jetzt auf einmal auch ATI Karten ins Programm aufgenommen hat.
Bin jeden Fall gespannt wie es da weiter geht. Das ist abzocke hoch 100
 
Erstmal abwarten auf die Games die meine GTX klein kriegen, dann wird gewechselt.
 
http://www.guru3d.com/
Wieso haben die den Treiber neu ausgegraben?
Hinzugefügter Post:
Ich weiß nicht, warum sich hier einige Leute aufregen...es war denke ich klar, dass der GT200 nicht lange halten wird.
Echt nur ein paar Wochen...genau mit der Denkweise fahren die seid dem G80 nicht schlecht....
Hinzugefügter Post:
Erstmal abwarten auf die Games die meine GTX klein kriegen, dann wird gewechselt.
Dann brauchste die Karte nie mehr zu tauschen,alles was kommt ist nur noch Konsolen Brei.
 
Zuletzt bearbeitet:
Das ändert absolut nichts an meine Aussage und so eine Karte kann man nicht ruckzuck aus dem Ärmel schütteln,und das sie mit dem G200 ATI ans Bein pinkeln wollten ist Quatsch.NV hat sich die letzen Jahre zum Abzocker erster Güte entwickelt "dank ATI" weil von da nichts mehr kam und die blöden Käufer sind mit gerannt,die lachen sich doch seit dem G80 bei NV tot.
Naja wenn es wirklich so sein sollte wie gesagt ist meine nächste Karte ne ATI und ich hoffe das NV mal richtig in den Arsch getreten bekommt,denn mit dem G200 müssen sie sich schon mal garnicht verstecken,schon gar nicht im Single Dasein und schon garnicht vor einer 4870.

Doch das kann man sich ruck zuck aus dem Ärmel schütteln wenn die Lithographiestrukturen in 55nm geplant waren, aber auf Anhieb nicht gut funktionierten, nimmt man "exakt die selben" Strukturbilder und vergrößert sie einfach!

Das ist wie wenn du etwas zeichnen sollst, aber das Bild ist so winzig das du mit dem Stift den du hast nicht klar kommst, was machst du dann??? ...klar, du vergrößerst das Bild u so kannst du es dann zeichnen, oder wenn du ein Bild im Net findest was so winzig ist das du kaum was erkennst, was machst du? ...du vergrößerst es, ABER das Bild bleibt IMMER das gleiche von der Form u Gestaltung her!!!

Also war es meiner Meinung nach KEINE Abzocke oder Verarsche, denn es gab genug Anhaltspunkte auf eine GTX in 55nm u oben schrieb ja einer sogar das es jedem klar war das 2008 die 55nm kommen ...also war jeder mündig genug und der Entscheidung mächtig abzuwarten oder "erstmal" die GTX in 65nm zu kaufen, hauptsache bei den ersten sein die das neuste haben!!!

Also brauch jetzt hier niemand jammern u schimpfen von wegen Abzocke oder Verarsche gell...
 
Ich glaubs nicht jetzt habe ich auch die GTX280 und was muss ich feststellen, die Karte ist bei Games genauso am Pfiepsen wie meine alte 8800GTX.......und ich bin davon ausgegangen das das nur ein Problem der alten Serie war.
 
Nur darfst du nicht vergessen das die 48** Karten nur halb soviel kosten wie die 280/260.Mit denn 55nm prozess wird sich das ein bisschen dämpfen lasssen.Trotzdem kann Ati/AMd weiter sagen wo der Preis hinsoll...

Der Preis interessiert nicht Jeden. ;)

Ich sehe nicht wirklich einen Quantensprung seitens AMD. Der ist nämlich ausgeblieben. Die aktuelle Generation ist nur Durchschnitt, verglichen an der langen Entwicklungszeit. Die letzte gute ATI ist ja schon ne Weile alt. ;)
NVIDIA macht es aus Herstellersicht genau richtig (auch wenn es aus Kundensicht nervt, dass der Lebenszyklus eines Produktes immer schneller endet).

AMD hat (wie bei vielen Dingen) den Mund zu voll genommen, wenn ich mir so die CPUs anschaue... so wie die hinterhink(t)en.
 
OT und Streitereien herausgenommen! Bleibt doch bitte bei der GTX 280.

Gruß
:wink:
 
Auf welchen Einstellunge haste laufen?

Das war DX9 alles high

Ich hab hier mal auf 1920x1200 + "vsyng">DX10 >alle high auf veryhigh und das "Prerender Limit" auf 2.


Ist wie gesagt der mster Mod
Vanilla Crysis spielste auf jedenfall in DX10 veryhigh 1680x1050 ohne probs durch "in jedem Level!"
 
Zuletzt bearbeitet:
Ich hab mal ne blöde Frage zu dem PhysX Kram, .... kann es sein, dass auch in "nicht PhysX unterstützten" Spielen, die Grafikkarte die CPU entlastet?

Ich hab grad 2h Gothic 3 gezockt und hatte über die ganzen 2 Stunden eine CPU Auslastung von 2 - 6%, das ist kaum mehr als idle, ....

Dann da einer etwas dazu sagen?
 
Nur, dass Intel es nicht gefällt, dass der G200 so viel kann :fresse:

Schalt es doch einfach mal ab, oder noch besser - deinstallier es, um wirklich den Nachweis zu haben, ob G3 davon profitiert oder nicht.
 
Zuletzt bearbeitet:
Eigentlich kaum möglich, wäre auch zu schön um wahr zu sein.

Ist es bei dir reproduzierbar ?
 
Nur, dass Intel es nicht gefällt, dass der G200 so viel kann :fresse:

Schalt es doch einfach mal ab, oder noch besser - deinstallier es, um wirklich den Nachweis zu haben, ob G3 davon profitiert oder nicht.

Och leck, ... frag mich nicht wie oft ich schon die Treiber installiert und deinstalliert hab.
Mich machs nachher mal ...

Eigentlich kaum möglich, wäre auch zu schön um wahr zu sein.

Ist es bei dir reproduzierbar ?

Wie, reproduzierbar?!
Klar, wenn ich nochmal zocke, ist es nochmal so^^
 
Zuletzt bearbeitet:
Das war DX9 alles high

Ich hab hier mal auf 1920x1200 + "vsyng">DX10 >alle high auf veryhigh und das "Prerender Limit" auf 2.


Ist wie gesagt der mster Mod
Vanilla Crysis spielste auf jedenfall in DX10 veryhigh 1680x1050 ohne probs durch "in jedem Level!"

Hmm,

naja, ich warte dennoch noch etwas ab. Vielleicht stimmen die Gerüchte um den GT300 ja und wenn nicht auch egal, warte ich eben auf den GT200b.
 
Och leck, ... frag mich nicht wie oft ich schon die Treiber installiert und deinstalliert hab.
Mich machs nachher mal ...



Wie, reproduzierbar?!
Klar, wenn ich nochmal zocke, ist es nochmal so^^

Hatte ich auch schon geschrieben,ist wirklich so muß nett noch zig mal deinst.
Hinzugefügter Post:
Hmm,

naja, ich warte dennoch noch etwas ab. Vielleicht stimmen die Gerüchte um den GT300 ja und wenn nicht auch egal, warte ich eben auf den GT200b.
Wenn der G300 kommen sollte kannste meine haben ich kauf mir dann ne X2
 
Zuletzt bearbeitet:
ich hatte schon ATIs mein lieber noch und nöcher...und alle direkt mit Kühlerumbau,diese Accedingendskirchen Dinger :d bin eigendlich weg weil mich damals dieses CCC sowas von genervt hat.
Hinzugefügter Post:
Hat hier noch einer diesen "neuen" *41er treiber inst.von der Guru Seite? ich bilde mir ein die BQ ist viel besser....
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh