nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 2

Status
Für weitere Antworten geschlossen.
nvidia wird ins schwitzen kommen wenn die eine ATI Quad GPU sehen, das wird in 2-3 Jahren noch kommen :wink:

wenn sie mal von AFR wegkommen ( was eh nur benutzt wird da damit einer angefangen hat und der andere dann nachziehen musste da das für nechmarks das schnellste ist ) wäre das sogar sehr interessant
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Echt?

da hab ich doch nicht 90% gehabt, hab ich noch nie gesehen die gabs dann aber nicht für jedermann oder?

Ich hab die Voddoo 5 5500 in der Schrankwand, da darf noch netmal die Frau Staub wischen drin das mach ich alles lieber selber :fresse:
 
@Zocker

Ich schaue mir das mal an und dann wäge ich ab. Ich bin net blöd.:wink:

Jo ich mach das auch so, einen Dreck kauf ich natürlich auch nicht, ich hoffe einfach das die da nix anbrennen lassen, so SPitz war ich ewig nicht mehr auf ne Karte *g*
Die müssen ja fast damit rechnen, das Ati bis dahin den Nachfolger der 58er präsentieren, Ati braucht meistens nicht länger als 6 Monate für sowas.
Dann könntens oder werdens die 5870er zum Schleuderpreis verkaufen ^^
 
Ich sag mal Physx 20%, Lautstärke 15%, Treiber 25%, Qualität 30% Geschwindigkeit der Rest.:d
 
naja theoretisch wäre schon jetzt ne 1000 Mhz 5890 mit 2GB 1500 mhz Speichertakt möglich und sogar unter 300W. Finde mom ist ati schon äußerst gut positioniert
 
Ich hoffe ja immernoch das Nvidia mal von dem Film weg kommt immer die schnellsten zu sein, das bringt heute nichtmehr viel.

Und ich glaube das haben sie sich von AMD auch abgeguckt, was Features angeht hängt NV immernoch auf der G80 basis DDR3 und DX10 :(

DIe sollen was zeigen, Balken seh ich jeden Tag das mit der 3D Geschichte ist dagegen ganicht mal so blöd find ich.

---------- Beitrag hinzugefügt um 02:32 ---------- Vorheriger Beitrag war um 02:31 ----------

Wenns die 6000er gewesen wäre hätte ich dir mal des Nachtens einen kleinen Besuch abgestattet u "Staubgewischt" in der Vitrine:shot:

Ich hätte dir garnicht gesag wo ich wohne :haha:
 
Ich denke schon NVidia hat da was. Du redest das so klein. Warum? wegen dem blöden CEO?
 
Ne ich geh jetzt in die Koje. Wünsche euch allen ne geruhsame Nacht. Ja, euch ALLEN. Bis denne:love::wink:
 
Ich finde es trotzdem merkwürdig. Wenn ein User so einfach die Leistung steigern kann scheint das für mich realitätsfern zu sein.
Nicht wirklich. Ist doch nur 'ne simple Routine. Sowas ist in der Programmierszene nicht ungewöhnlich. Die meisten hier haben nur noch nie gesehen, was da so abgeht. ;)

Jetzt mal ehrlich. Ich hab DX11 Effekte gesehen und Physx. Da hat Physx aber die besseren Gameplay Effekte. Klar DX11 will man auch haben, ist aber kein "muss" oder wie seht ihr das?
DirectX Graphics ist eine Grafik API, PhysX eine Physik Engine. Was für Effekte willst du denn da vergleichen? Das Entkernen von Äpfeln und Birnen? :rolleyes: Nur mit PhysX wirst du erstmal gar keine Effekte sehen, denn die Engine besitzt gar kein Anzeigemodul, sondern ist eine Sammlung von physikalischen Algorithmen und Abläufen. Und für die Anzeige gibt es eben Grafik-APIs wie DirectX Graphics oder OpenGL. Oder anders formuliert, auf DirectX kann kein Spieleentwickler wirklich verzichten, zumindest was Windows betrifft, auf PhysX hingegen kann man problemlos verzichten. Gibt ja auch ausreichend Alternativen zu PhysX.
Das Problem mit Physik Engines ist das gleiche wie mit 3D Engines. Der einzige Unterschied ist, dass ausnahmsweise ein Hardwarehersteller eine Physik Engine mit der eigenen Hardware versucht zu pushen. Seltsamerweise zofft sich hier niemand über 3D Engines. Einigen würde wirklich mal gut tun, diese Sachen etwas rationaler zu betrachten. Unabhängig davon, welches Unternehmen dahinter steht.

Hoffentlich sagt ATI endlich ja zu Physx, würde uns allen helfen.
Das wird in naher Zukunft definitiv nicht passieren. Ich bezweifle auch stark, dass uns das helfen würde. nVidia bräuchte nur einen OpenCL Layer für PhysX bereitzustellen, dann wäre das Ding gegessen. Helfen würde uns, wenn eine von Hardwareherstellern unabhängige Engine, womöglich sogar frei und standardisiert, mehr Verbreitung finden würde. Bullet wäre zB ein solcher Kandidat.

Imo eher sehr unwahrscheinlich wenn AMD kein Zauberkunststück verbringt
Wenn du dich da mal nicht täuschst. Bulldozer ist eine komplett neue Kernarchitektur, während Intel Nehalem nur weiter aufbohrt als Sandy Bridge. Da können die Karten völlig neu gemischt werden. ;)
 
Zuletzt bearbeitet:
Wenn man ein bischen schräg von der Seite guckt sieht man dass das Nvidia logo nur reingebastelt wurde.
Ich glaube nicht das Nvidia selbst so eine amateurhafte Grafik produzieren würde...

unbenannthsaj.jpg
 
Zuletzt bearbeitet:
Uiuiui, Dual Fermi in Q1! wenn ein heruntergetakterter und auf 14/16 kastrierter Fermi schon mindestens 225W benötigt, wieviel brauchen dann zwei davon? Oder wie kastriert und heruntergetaktet müsste die GT395 sein, um die PCI Spezifikationen einzuhalten?
Q1 dauert bei Nvidia übrigens bis am 26. April. Das würde dann passen "Chernobyl Special Edition" mit 512 shadern und 1700 MHz Taktfrequenz, inkl. Graphitblock für Kühlung und Abbremsen der Neutronen!
 
Die Roadmap ist wohl leider ein Fake. Alleine schon die Tatsache mit dem eingebundenen NV Logo (anderes Schwarz wie restliche Folie) und wohl die Tatsache, dass relativ kurzfristig hinter der GTX 380 und GTX 360 schon die "GTX 395" kommen soll.

Außerdem würde die "5" nicht ins Namensschema passen - nur Refreshes, also Shrinks haben bisher eine 5 im Namen gehabt - Ausnahme wohl die 5950 Ultra. (z.B. GTX 295, 285 und 275...nur die 260er nicht).

Von daher waere GTX 390 wohl zutreffender fuer eine 40nm Karte.
 
Hallo,

ich hab ja schon nicht schlecht geschaut, als ich am 25.12 hier reingeschaut hab. Heute Nacht habt ihr das aber nochmal übertroffen: Posting #2176 - #2360 ist nur OT.
Aber immerhin seid ihr konsequent gewesen. So braucht man wenigstens keine Angst haben, etwas interessantes, was mit dem Topic zu tun hat, überlesen zu haben.

ciao Tom
 
naja theoretisch wäre schon jetzt ne 1000 Mhz 5890 mit 2GB 1500 mhz Speichertakt möglich und sogar unter 300W. Finde mom ist ati schon äußerst gut positioniert

wie willste das kühlen..... :lol:
bei jetzt schon 1300 mit Wakü kannste auf der Rückseite Eier backen.

Schnelligkeit ist doch "wurscht", 1x5870 reicht für jedes Game in 1900x1200 aus, die Qualli ist den meisten (außer hier :d) wichtig (inGame) und wenn das NV schaffen sollte Treiberseitig jedes Game zu resampeln zb. ~2500x auf ~1900x wäre es der Kaufgrund überhaupt..DX10/11, wer brauch da noch irgendwelche AA modi, sogar in DX9 könnte man ohne SSAA leben.
 
Zuletzt bearbeitet:
Nicht wirklich. Ist doch nur 'ne simple Routine. Sowas ist in der Programmierszene nicht ungewöhnlich. Die meisten hier haben nur noch nie gesehen, was da so abgeht. ;)

Das ist der Nachteil hier: Die meisten Spekus fußen im wesentlichen auf Wunschdenken, weniger auf Verständnis. ;)


mr.dude schrieb:
DirectX Graphics ist eine Grafik API, PhysX eine Physik Engine. Was für Effekte willst du denn da vergleichen? Das Entkernen von Äpfeln und Birnen? :rolleyes: Nur mit PhysX wirst du erstmal gar keine Effekte sehen, denn die Engine besitzt gar kein Anzeigemodul, sondern ist eine Sammlung von physikalischen Algorithmen und Abläufen. Und für die Anzeige gibt es eben Grafik-APIs wie DirectX Graphics oder OpenGL. Oder anders formuliert, auf DirectX kann kein Spieleentwickler wirklich verzichten, zumindest was Windows betrifft, auf PhysX hingegen kann man problemlos verzichten. Gibt ja auch ausreichend Alternativen zu PhysX.
Das Problem mit Physik Engines ist das gleiche wie mit 3D Engines. Der einzige Unterschied ist, dass ausnahmsweise ein Hardwarehersteller eine Physik Engine mit der eigenen Hardware versucht zu pushen. Seltsamerweise zofft sich hier niemand über 3D Engines. Einigen würde wirklich mal gut tun, diese Sachen etwas rationaler zu betrachten. Unabhängig davon, welches Unternehmen dahinter steht.

Ja und Nein. Ich stimme dir völlig zu, was die Äpfel-Birnen-Geschichte angeht. Die Aussage "es gibt ausreichend Alternativen zu PhysX" stimmt allerdings in meinen Augen nur in der Theorie. Ja, die Alternativen sind da, aber Fakt ist nunmal, dass eine Physikengine nur dann von einer größeren Entwicklermenge genutzt wird, wenn sie von irgendjemandem gepusht (und damit ist zum einen natürlich das Rühren der Werbetrommel und vor allem aber der finanzielle Support gemeint) wird. Warum sollte Entwickler X die Physikengine Y benutzen, wenn es - wie du ja selber sagst - auch ohne geht? Da muss schon Druck von außen ausgeübt werden. Und genau da liegt meiner Ansicht nach das Problem von primär offenen Standards: Da gibts niemanden, der mit finanziellen Mitteln dahintersteht. Nachteilig für die proprietäre Lösung ist natürlich all das, was man ja aus dem klassischen Konflikt zwischen offen und kommerziell kennt.
Insofern ist es zwar richtig, dass der einzige Unterschied hier der ist, dass ausnahmsweise ein Hardwarehersteller hinter der Physikengine steht, aber wie ich eben schrieb, ist das vielleicht auch der absolut entscheidende Punkt.
 
wie willste das kühlen..... :lol:
bei jetzt schon 1300 mit Wakü kannste auf der Rückseite Eier backen.

Schnelligkeit ist doch "wurscht", 1x5870 reicht für jedes Game in 1900x1200 aus, die Qualli ist den meisten (außer hier :d) wichtig (inGame) und wenn das NV schaffen sollte Treiberseitig jedes Game zu resampeln zb. ~2500x auf ~1900x wäre es der Kaufgrund überhaupt..DX10/11, wer brauch da noch irgendwelche AA modi, sogar in DX9 könnte man ohne SSAA leben.

ähm die 4870 hat fast 350W verbraten und so ne 4890 würde unter 300W bleiben also sehe da nP. und es sind ja andere ram chips die für 1500 gebat sind im gegensatz zu den jetzigen die nur für 1250 zugelasen sind
 
Der Stromverbrauch ist mir eigentlich nicht so wichtig, viel eher das dieses DIng ordentlich was weiter geht, und zur realtion mit dem Verbrauch passt.
 
Ausserdem würde man bei der Graka, Wasser als moderator verwenden nicht graphit.

Das war auch eines der probleme im Chernobyl.

DAS WÄRS gleich den modearator als kühlmittel verwenden so wie es sich gehört für oc grakas -
 
Die Aussage "es gibt ausreichend Alternativen zu PhysX" stimmt allerdings in meinen Augen nur in der Theorie. Ja, die Alternativen sind da, aber Fakt ist nunmal, dass eine Physikengine nur dann von einer größeren Entwicklermenge genutzt wird, wenn sie von irgendjemandem gepusht (und damit ist zum einen natürlich das Rühren der Werbetrommel und vor allem aber der finanzielle Support gemeint) wird. Warum sollte Entwickler X die Physikengine Y benutzen, wenn es - wie du ja selber sagst - auch ohne geht? Da muss schon Druck von außen ausgeübt werden.
Muss es das? Sehe ich nicht so. Es muss doch gar nicht DIE Physik Engine geben. Schau dir mal an, wie viele 3D Engines es gibt, Quake Engine, Unreal Engine, Irrlicht Engine, Nebula Device oder OGRE. Nur um mal einige zu nennen. Es muss nur eine einheitliche Basis geben. Für 3D Engines war das bisher x86, genauso wie bei Physik Engines. Zuerst Ageia und jetzt nVidia wollten hingegen PhysX als proprietäre hardwarebeschleunigte Lösung durchsetzen. Sowas funktioniert aber nicht für den Markt. Sieht man ja auch an den entsprechenden Spielen. Es gibt zwar mittlerweile eine ganze Reihe, die auf PhysX setzen. Aber nur ganz wenige, die auch die GPU zur Berechnung nutzen. Will man also GPU Beschleunigung, braucht man ebenfalls wieder eine einheitliche Basis. Und die ist mit OpenCL oder DirectCompute gerade erst am Entstehen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh