nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
Und "enttäuscht arg" ?
Finde ich nun nicht... bin recht happy mit 2x 580zigern. Über ein Jahr im Einsatz und immer noch aktuell.
Lieber bis Mai warten und dann ein fertiges Produkt bringen, das wieder so dominiert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Polo..

Was stört dich an der Aussage? Oder willst du nur anecken?

Wenn die 7970 vom Start weg 50% schneller gewesen wäre als die GTX580, hätte Nvidia ein ernstes Problem. Selbiges gilt/galt für die HD5870 und Fermi, da hatte Nvidia ernste Probleme.

€: Dozer, überleg mal, wie lange du auf die GTX580 warten musstest. Erst der lange verspätete Start mit dem unfertigen Fermi 1.0 (GTX480), dann einige Zeit später die Einführung der GTX580. Wer will das schon?
 
Zuletzt bearbeitet:
Neues Gerücht:
Nvidia hat dedizierte Einheiten für PhysX-Berechnungen (Rigid Body und Fluidsimulation) und könnte PhysX für AMD öffnen.

Rumour: Nvidia's Kepler suffers wobbly perturbations - AMD's 7950 becomes Nvidia nightmare | TechEye
Some industry watchers suggest that Nvidia gave up a lot of space on its chip, trying to buff up Kepler by bringing Ageia to the hardware.

Auch Charlie meinte ja, dass Kepler ein großes Geheimnis hätte. OBR sagte, dass es bzgl. CUDA/PhysX eine Überraschung gäbe. Und schließlich steht beim CUDA Toolkit 4.1:
"LLVM's modular design allows third-party software tool developers to provide a custom LLVM solution for non-NVIDIA processor architectures, enabling CUDA applications to run across other vendors" (AMD?)
 
endlich mal wieder was interessantes hier ...
 
One industry watcher said to TechEye the company is in "holy s**t" mode - having been confident that the GK104 would fight off and trounce the competition, but the timing is out of whack.

Der Performancechip muss ja schon ein unglaublicher Knaller sein. Dagegen scheint der g80 wie ein Furz :d
 
ich wünschte wir hätten heute den 1.mai anstatt 1.Februar^^ :kotz: ...noch 3 Monate *G*
 
Jetzt muss ich zum Tier werden :mad: Erst im Mai frühestens kriegen wir den HighEnd Müll? Wehe der ist nicht 30-50% schneller als ne 7970, wehe :mad:

Sonst Kepler super Flopp deluxe!
 
und nen halbes jahr später kommt dann besitmmt schon die neue AMD Gen :d. Wenn das mal nicht alles abgesprochen ist ;).
 
Gott sei Dank brauche ich zur Zeit nichts, wenn wird es erst Ende 2012 - Allerdings interessiert mich schon wie Kepler abgehen wird,
ob nun im April oder Juni/Juli mir völlig schnuppe ^^
 
Die Marktsituation ist da schon sehr interessant. Wenn man der Meinung ist neue HW haben zu wollen entscheidet man sich so ein halbes Jahr für AMD und dann ein halbes Jahr für NV. Für die HWBOT bekloppten gibt´s keine Ruhepausen mehr :fresse: So kommen beide in den Genuss der High-End Ausbeute^^
 
Ob Nvidia jemals wieder die ersten bei einer neuen Generation sind oder wenigstens zeitgleich rauskommen? Ich hab da so meine Zweifel.
 
Mal' ne ganz andere Frage: mein MB hat keine pcie 3.0 slots. Kann man schon sagen, in wieweit ein 3.0 MB nötig ist oder ob der performance Unterschied eher zu vernachlässigen ist?
 
das wird nur passieren wenn AMD mal ein Problem hat und den release verschieben muss.
 
Auch Charlie meinte ja, dass Kepler ein großes Geheimnis hätte. OBR sagte, dass es bzgl. CUDA/PhysX eine Überraschung gäbe. Und schließlich steht beim CUDA Toolkit 4.1:

Könnte das der Grund sein, warum Charlie plötzlich so pro NVIDIA eingestellt ist ? NVIDIA öffnet ihre CUDA/PhysX-Datei für alle, die davon profitieren möchten ?
Wenn ja, dann stellt sich eine weitere Frage.
Wenn NVIDIA sich so großzügig geben kann, dann müssen sie mit Kepler so eine Bombe vom Stapel lassen, das sie getrost auf ihre Werbefeatures verzichten können.
Oder anders gesagt - Sie haben keine andere Wahl, da sie sonnst gegen die Monopolbestimmungen verstoßen würden, so wie es Microsoft ect. immer wieder ausgleichen muss ?

Desweiteren stellt sich dadurch wiederum neue Fragen.
Hat AMD dies schon länger vorhergesehen und dadurch auf die kompatiblere 1D-Shader-Architektur umgestellt ?
Wusste AMD schon lange über die stärken von Kepler und das was NVIDIA dann zum Ausgleich des freien Marktes tun muss ?
Sind deshalb die Preise von AMD zur Zeit so hoch angesetzt, um soviel vom frühen Marktstart ab zu bekommen, bevor Kepler sie zum Ladenhüter degradiert ?
Hält sich NVIDIA absichtlich bedenkt, um AMD damit nicht in die Quere zu kommen ?? Nach dem Motto - Sammelt so viel Kohle wie es geht, denn ihr werdet das Geld brauchen ?


Es wird immer ominöser um die Gerüchte ... :coffee:
 
Zuletzt bearbeitet:
Ich sehe das etwas anders.
Physx und Cuda wird allen zugänglich und auf jeder Hardware lauffähig gemacht, damit es sich besser verbreitet.
So sind Hersteller eher gewillt die Funktion einzubauen.

NVidias Vorteil liegt dann darin, ihre Karten dahingehend anzupassen und so einen enormen Leistungsvorteil zu haben.
So kann man dann auch damit werben, dass eine NVidia Karte 2x so schnell bei Physx/Cuda ist, wie eine AMD Karte (fiktive Zahlen).

Der Schuss könnte auch nach hinten losgehen, wenn sich Herausstellt, dass AMDs Architektur sehr gut mit den Prozessen umgehen kann.

Eine spezielle Compilerlösung, wie damals beim "Intel Compiler" wird hier wohl nicht möglich sein bzw. wäre auch zu auffällig.
 
Vllt wird ein GK Chip in der PS4 eingebaut der einen solchen Physx Anteil hat, würde für Spiele nicht schlecht sein...
 
Die Marktsituation ist da schon sehr interessant. Wenn man der Meinung ist neue HW haben zu wollen entscheidet man sich so ein halbes Jahr für AMD und dann ein halbes Jahr für NV. Für die HWBOT bekloppten gibt´s keine Ruhepausen mehr :fresse: So kommen beide in den Genuss der High-End Ausbeute^^

der Gedanke ist mir auch schon gekommen wenn die HW Einführung weiter auseinander driftet.Man sieht ja hier mancher dreht ja schon fast durch.

Gruß herm
 
.Man sieht ja hier mancher dreht ja schon fast durch.

Gruß herm

Ich bin schon längst durchgedreht bei dieser Nvidia Scheiße. Die 580 GTX ist quasi uralt und trotzdem dauerts noch 3-4 Monate. Und wie schnell wird die Graka dann sein? Weiß auch keiner, naja dieses Grakathema wird immer gurkiger...
 
Ich bin schon längst durchgedreht bei dieser Nvidia Scheiße. Die 580 GTX ist quasi uralt und trotzdem dauerts noch 3-4 Monate. Und wie schnell wird die Graka dann sein? Weiß auch keiner, naja dieses Grakathema wird immer gurkiger...

jo das las ich schon und das die GTX580 schon alt ist auch klar aber immer noch sehr gut.Die paar % besser oder schlechter machen den Kohl auch nicht fett.Warte dann lieber weiter auf den eventuellen Brecher und lasse mich überraschen.

Gruß herm
 
Vllt wird ein GK Chip in der PS4 eingebaut der einen solchen Physx Anteil hat, würde für Spiele nicht schlecht sein...

glaube ich kaum, denn die nächste PS soll deutlich günstiger angeboten werden können. BD Laufwerk ade und sonstige Sparmaßnahmen werden gemacht. Besten Falls sowas wie ne 620er .... Siehe XBOX. Das wird nie was mit anständiger Spieleentwicklung wenn die son Shice in den Boxen verbauen^^ Selbst meine Kinder sagen das in ihrem jungen Alter. Die müssen damit ja schließlich auch aufwachsen und sitzen lieber am PC als an der Konsole.
Ich sehe ne Konsole eher als eine Art "Gesellschaftsspiel der modernen Art" an. Es ist zwar immer grauselig, anzuschauen, erst recht sowas wie ne Wii, aber Sportspiele o.ä. machen mit mehreren da schon Spaß. Das wäre am PC nicht unbedingt gut umsetzbar, darf aber auch gerne an der Konsole bleiben. Wünschenswert wäre dennoch eine potente GPU in der Konsole, denn um so fortschreitender wird es für die Spiele auf der PC Plattform gehen.
 
Mal' ne ganz andere Frage: mein MB hat keine pcie 3.0 slots. Kann man schon sagen, in wieweit ein 3.0 MB nötig ist oder ob der performance Unterschied eher zu vernachlässigen ist?

Du hast doch eh nur eine GK?

Wenn du dir ne Ivy auf dein Board schnallst wird aus dem 1. PCIe 16x Slot automatisch nen 3.0 (da über CPU angebunden) :wink:
 
Bei den Gen3-Boards ist ein PCIe3.0-fähiger Switch verbaut bzw. vorgeschaltet, der die Lanes aufteilt oder direkt an den ersten Slot führt. Bei kleineren Boards mit nur einem x16 Slot braucht es meist keinen Switch, da wird der Slot direkt über die CPU angesprochen, die anderen über die Southbridge; allerdings ist das nicht bei allen Boards so, man kann also nicht mit Sicherheit sagen, ob der Slot dann auch PCIe3.0-fähig ist.
 
@Grinsemann: NV könnte ja auch einen kleineren seperaten Chip entwickeln, von den 106 oder 108er wissen wir ja ohnehin nichts...

Wenn man aber sieht was die PS3 in GT5 oder konsorten mit dem Geforce7 Chip noch auf die Reihe bekommt, wäre ein Chip mit der Leistung einer aktuellen 460-560 sicher über Jahre ganz gut.
Die Optimierung für einen Chip alleine macht halt ne Menge aus, auch wenn da nur so ein Krüppelchip im Vergleich zu den PC-Steroiden-Monstern ist :d

Bei AMD bringt PCIe 3.0 eigentlich keinen Vorteil, selbst 2.0 4x reicht glaub voll aus, das entspricht doch 1.0 8x.
Gab da doch nen Test von einer Seite wo man es bei der 7970 getestet hat...
 
Zuletzt bearbeitet:
Könnte das der Grund sein, warum Charlie plötzlich so pro NVIDIA eingestellt ist ? NVIDIA öffnet ihre CUDA/PhysX-Datei für alle, die davon profitieren möchten ?
Wenn ja, dann stellt sich eine weitere Frage.
Wenn NVIDIA sich so großzügig geben kann, dann müssen sie mit Kepler so eine Bombe vom Stapel lassen, das sie getrost auf ihre Werbefeatures verzichten können.
Oder anders gesagt - Sie haben keine andere Wahl, da sie sonnst gegen die Monopolbestimmungen verstoßen würden, so wie es Microsoft ect. immer wieder ausgleichen muss ?

Wie schon gesagt wurde, viel eher muss NV ihre Sache weiter am Markt verbreiten. Auffallend ist, das PhysX sehr wenig verbreitet ist. Von GPU PhysX Lösungen mal ganz zu schweigen, wo es gerade mal ne Hand voll Games von gibt. Unterm Strich bliebt für den Softwareprogrammierer ein Aufwand auf dem Papier stehen, um die Sache zu implementieren, wo dann unterm Strich schon glatt mal ~50% aller diskreten GPU Käufer außen vor bleibt, weil keine NV Karte.
Dazu kommt, das PhysX in der aktuellen Implementation seitens NV selbst auf HighEnd NV Karten sehr dürftig läuft, was Benches belegen. (Fluidmark als Beispiel)
Dicke Quad/Hexacore CPUs bringen da unterm Strich nur etwas weniger Leistung aufs Papier aber laufen HighEnd GPUs gnadenlos den Rang ab, wenn NV nicht die Multithreadinghandbremse in den Games verbaut hätte, die GPU PhysX nutzen. Auch ist auffällig, das auf wundersame Weise die Games mit GPU PhysX alle mehr oder weniger Stark NV Sponsored sind ;) Sprich es fließt Kohle von NV an die Programmierer/Vertreiber wie auch immer.

Es bleibt also ein rein logischer Schritt GPU PhysX weiter vorranzutreiben. Die Konkurenz schläft nicht. Eine andere PhysX Engine auf OpenCL Basis oder ähnliches könnte deutlich schneller und besser anklang finden. Dazu kommen wohl die Lizenzgebühren, die NV selbst für die Engine haben will.

Rein daran zu messen, ob Kepler gut oder nicht wird, ist ziemlich blauäugig.

NVidias Vorteil liegt dann darin, ihre Karten dahingehend anzupassen und so einen enormen Leistungsvorteil zu haben.
So kann man dann auch damit werben, dass eine NVidia Karte 2x so schnell bei Physx/Cuda ist, wie eine AMD Karte (fiktive Zahlen).

Der Schuss könnte auch nach hinten losgehen, wenn sich Herausstellt, dass AMDs Architektur sehr gut mit den Prozessen umgehen kann.

Richtig, so könnte das laufen. Wobei du richtigerweise gesagt hast, das das auch nach hinten losgehen kann.
Ich erinnere mich noch an die von NV damals beworbenen Techdemos dieser komischen Elfe oder was das war. Sah gut aus, lief auf den FX Karten eher dürftig. Dann kamen ein paar findige Leute und entfernten die Speere auf die FX Karten. Und die damaligen ATI R300 Karten waren deutlich fixer bei teils gar besserer Optik (wegen besserem AF/AA) :fresse:

Aber wie gesagt, brisant ist das Thema eigentlich nicht, einfach weil GPU PhysX sowieso im Moment quasi nicht vertreten ist.

glaube ich kaum, denn die nächste PS soll deutlich günstiger angeboten werden können. BD Laufwerk ade und sonstige Sparmaßnahmen werden gemacht. Besten Falls sowas wie ne 620er .... Siehe XBOX. Das wird nie was mit anständiger Spieleentwicklung wenn die son Shice in den Boxen verbauen^^

Sehe ich nun nicht unbedingt so. Die Hardware selbst wird ja immer günstiger, vor allem für solche Nebensächlichkeiten wie ein BD Laufwerk. Dazu kommt, wo sollen die Daten hingespeichert werden!? Auf DVDs? Ich denke nicht das das reicht.
Und von INet Lösungen, wo die Daten in ner Cloud oder sowas liegen, sind wir noch weit entfernt. Vor allem, wo der Flächendeckende Aufbaut von Breitbandinternet noch so nicht gegeben ist.
 
klar, jede Neuerung im Konsolenbereich ist besser als der alte Quark auf dem die Spieleentwickler rumeiern müssen.
PCIe2.0 von 8x auf 16x gibt bestenfalls 1-2fps. Die Diskusion hatten wir ganz am Anfang hier mal das 32x nichts bringt, weil 16x noch nicht richtig ausgelastet wird. Marketing, aber da geht es sich ohnehin eher um die Stromversorgung alleine durch den Slot.
 
klar, jede Neuerung im Konsolenbereich ist besser als der alte Quark auf dem die Spieleentwickler rumeiern müssen.
PCIe2.0 von 8x auf 16x gibt bestenfalls 1-2fps. Die Diskusion hatten wir ganz am Anfang hier mal das 32x nichts bringt, weil 16x noch nicht richtig ausgelastet wird. Marketing, aber da geht es sich ohnehin eher um die Stromversorgung alleine durch den Slot.

So ganz pauschalisieren kann man sowas aber auch nicht.
Die Bandbreite die benötigt wird, hängen in erster Linie erstmal von der Anwendung ab.
Beispielsweise CoD4 war sehr Bandbreitenlastig, andere hingegen teils bringen Null Unterschied...
 
Momentan bin ich am überlegen warum überhaupt ne neue graka ?

Versteht mich nicht falsch ,als entsusiast war ich immer einer der ersten mit neuer high end graka, aber mom läuft alles auf meinen 1080p mit aa und af und allem hochgeschraubt, mit den 500+ euro kann man auch andere schöne dinge tun..
 
du hast doch auch eine GTX 580, was erwartest du?
SWTOR wird mit der 680 auch nicht besser laufen, das liegt an der Engine...

Andere mit einer GTX 2xx oder älter haben da einen erheblichen Leistungssprung.
 
du hast doch auch eine GTX 580, was erwartest du?
SWTOR wird mit der 680 auch nicht besser laufen, das liegt an der Engine...

Andere mit einer GTX 2xx oder älter haben da einen erheblichen Leistungssprung.

das stimmtja so nicht, auch wenn die engine schlecht ist, skaliert sie doch trotzdem mit stärkeren karten, das einzige was nicht stimmt mit der engine ist das sie bei dem aussehen erheblich besser laufen müsste..

Desweiteren spiel ich ja noch andere games^^

mal abwarten wie gut das gesamtpaket sein wird :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh