NVIDIA GT300 Tape-Out schon im Juni?

Ich denke, solange da nichts konkreteres dazu steht, was da genau MIMD sein soll und inwiefern das jetzt Steigerungen verspricht, sollte man nicht allzuviel darauf geben. In den meisten Fällen - bei fuad zB - schmeißen da Leute mit Begriffen um sich, die sie irgendwo aufgeschnappt haben. Denn MIMD kann ja schon vom Namen her mehr als SIMD, das MUSS ja schneller sein! /irony
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja, so lange ist es ja auch nicht mehr hin. Kommt Zeit, kommt Rat.

Ich hoffe mal das sich das Warten auf den GT300 lohnt und auch Spiele erscheinen die die Power oder Features nutzen.
 
Naja Crysis ist dann wohl das erste mal unter max. Einstellungen mit einer Singlegraffikarte richtig spielbar. *g*

Genauso Stalker Clear Sky.

Dafür brauch man momentan SLI/Crossfire.

Die Rede ist von DX10, 1920*1200 + AA u. AF also max. Einstellungen.

Es werden sicher dieses/nächstes Jahr auch noch einige Hardwareschlucker rauskommen...
 
Naja Crysis ist dann wohl das erste mal unter max. Einstellungen mit einer Singlegraffikarte richtig spielbar. *g*
.

Crytek kann nicht programmieren,da hilft auch die nächste Karte nichts.

Ihr könnt froh sein,wenn die Karte in normalen Auflösungen 50% schneller ist.
 
Crytek kann nicht programmieren,da hilft auch die nächste Karte nichts.

Ihr könnt froh sein,wenn die Karte in normalen Auflösungen 50% schneller ist.

Du darfst dabei aber auch nicht vergessen, dass umso näher du an den Fotorealismus kommst, desto mehr Rechenkraft brauchst du, und diese steigt dann nicht mehr linear sondern exponentiell an...
Also sind 50% Mehr an Performance dann schon ordentlich
 
in 4 Wochen kommt erstmal der verlorene Sohn G21x :lol: oder auch nicht ..oder doch :d
 
Du darfst dabei aber auch nicht vergessen, dass umso näher du an den Fotorealismus kommst, desto mehr Rechenkraft brauchst du, und diese steigt dann nicht mehr linear sondern exponentiell an...
Also sind 50% Mehr an Performance dann schon ordentlich

Das Gesetz des abnehmenden Grenzertrags? :)

Dass Crytek nicht programmieren kann, halte ich sehr für ein Gerücht. Was Crytek vielleicht nicht kann, ist, sich damit zu begnügen, was "reichen" würde, aber das ist ja ihre Entscheidung.
 
Crytek kann nicht programmieren,da hilft auch die nächste Karte nichts.

Ihr könnt froh sein,wenn die Karte in normalen Auflösungen 50% schneller ist.

HÄ?
Die Treiber und Karten sind mittlerweile so gut, das man Crysis locker in 1920x1200 mit 4x AA spielen kann.

der G300 raucht das Spielchen sowas von in der Pfeife.
 
Also in richtigem DX10 ohne irgendwelches getweake würde ich sagen, dass es in 1920*1200 mit 4x AA und 16x AF mit einer einzelnen sehr hoch übertakteten 285 einigermaßen gut läuft.

Siehe die Karte von Archiee im 285er Thread. Da sind >20fps bis 35fps im Average schon drin. Aber nicht jede Karte macht solche Taktraten mit.

Wahrscheinlich nicht völlig ruckelfrei, aber es geht.

Und wenn die nächste Karte auch "nur" 50% schneller sein sollte läuft Crysis mit dem G300 definitv ruckelfrei.

Ich gehe aber von mehr - Mehrleistung aus. Es wurde ja schon behauptet, dass der G300 einen ordentlichen Sprung nach vorne macht.

Wie der G80.
 
Zuletzt bearbeitet:
Crytek kann nicht programmieren,da hilft auch die nächste Karte nichts.

Ihr könnt froh sein,wenn die Karte in normalen Auflösungen 50% schneller ist.

Das Gesetz des abnehmenden Grenzertrags? :)

Dass Crytek nicht programmieren kann, halte ich sehr für ein Gerücht. Was Crytek vielleicht nicht kann, ist, sich damit zu begnügen, was "reichen" würde, aber das ist ja ihre Entscheidung.

Genau, das Wort hat gefehlt ;)

Meiner Meinung nach hat Crytek schon ganz schön was geleistet mit der CryEingine, man muss das im Vergleich sehen. Für diese Zeit (solange ist das ja noch gar nicht her) war das einfach revolutionär. Bei der Grafik kam man aus dem Staunen nicht mehr heraus. Und das so eine Grafik nun mal Resourcen verschlingt dürfte klar sein. Das hat rein gar nichts mit schlecht programmiert zu tun. Da steckt schon eine Menge Entwicklung dahinter. Außerdem war es auch ein DX10 Spiel zu einer Zeit wo es noch nicht einmal die Karte gab. Das alles und viele andere Faktoren sollte man fairerweise beachten.

Vllt. wird sich der Rechenaufwand mit steigendem Fotorealismus wieder "ausgleichen" wenn Raytracing tatsächlich Thema wird. Aber bis wir so weit sind vergehen sicherlich noch ein paar Jahre
 
Ich finde immernoch das die Cryengine 2 das Maß der Dinge darstellt. Sie ist nicht schlecht programmiert, arbeitet aber mit einer detailverliebtheit auch da, wo andere simple Techniken oder Tricks benutzen wurden um die Performance zu steigern.
 
Ich finde immernoch das die Cryengine 2 das Maß der Dinge darstellt. Sie ist nicht schlecht programmiert, arbeitet aber mit einer detailverliebtheit auch da, wo andere simple Techniken oder Tricks benutzen wurden um die Performance zu steigern.
fullack :bigok:
Momentan gibt es kaum ein anderes Spiel was in Sachen Grafik und Detail mithalten kann. Sicherlich sind die einen oder anderen Effekte bei anderen Spielen sehenswert, aber im Großen und Ganzen ist und bleibt die CryEngine halt Referenz...

Was mich allerdings ein bisschen nachdenklich stimmt ist die Tatsach, dass Crytek die kommende CryEnginge 3 multiplatform-fähig gestaltet hat. Aus ökonomischer Sicht nachvollziehbar. Bleibt nur zu hoffen, dass die Optik weiterhin Sprünge macht.

In wie weit sich bis dahin CUDA u.ä. in Spielen etabliert hat und auch nützlich wenn nicht sogar performancesteigernd ist bleibt abzuwarten...

(z.B. soetwas hier: http://www.computerbase.de/news/har...dia/2009/april/video_cuda_ki_1024_flugzeugen/ )
 
Zuletzt bearbeitet:
In wie weit sich bis dahin CUDA u.ä. in Spielen etabliert hat und auch nützlich wenn nicht sogar performancesteigernd ist bleibt abzuwarten...

Bisher gibt es ja keine Bilder oder Videos die Szenen zeigen die vom PC berechnet wurden. Nur PS3 und Xbox. Ich denke mal die Cryengine 3 kann besser skalieren als die 2. Man hat also mehr möglichkeiten die Qualitätsstufen anzupassen und so das ganze auch auf Konsolen lauffähig zu bekommen, die für die Cryengine 2 einfach zu schwach sind.

Bleibt abzuwarten in wie weit die neue Engine mit Techniken und neuen Features auch nach oben offen ist.

Ich hoffe trotzdem mal das der GT300 mit der Cryengine 2 leichtes Spiel hat.

Sollte SLI nicht auch verbessert werden?
 
Dass Crytek nicht programmieren kann, halte ich sehr für ein Gerücht. Was Crytek vielleicht nicht kann, ist, sich damit zu begnügen, was "reichen" würde, aber das ist ja ihre Entscheidung.

Wollte das vorhin eigentlich auch anmerken aber wegen :btt:
hab ichs dann wieder verworfen;)

Nicht um sonst ist die cry engine immer noch das fortschrittlichste was es derzeit auf dem spielesektor gibt u ja solche grafikpracht kostet nunmal auch performance.

Aber selbst wenn crytek die engine vielleicht noch hätte optimieren können "zum damaligen zeitpunkt",stände das wohl kaum im kosten/nutzen faktor vom zeitaufwand für die optimierungen ganz zu schweigen;)

---------- Beitrag hinzugefügt um 14:26 ---------- Vorheriger Beitrag war um 14:16 ----------

Ich hoffe trotzdem mal das der GT300 mit der Cryengine 2 leichtes Spiel hat.
Wer spielt den zu weihnachten noch mit der cry engine 2 da gibts sicherlich schon wieder neue techniken,womit wir den g300 in die knie zwingen können:wall::fresse:
 
Zuletzt bearbeitet:
Wer spielt den zu weihnachten noch mit der cry engine 2 da gibts sicherlich schon wieder neue techniken,womit wir den g300 in die knie zwingen können:wall::fresse:

Es gibt immer noch einige die etwas "ältere" Spiele auf neueren Karten spielen ;)


Bisher gibt es ja keine Bilder oder Videos die Szenen zeigen die vom PC berechnet wurden.

Ich vermute mal, dass selbst einige dutzend Objekte schon eine CPU an ihre Grezne bringen. Das ist zwar ein etwas anderes Beispiel, geht aber in die selbe Richtung. Der CPU Benchmark im Vantage und 3D 06 zum Beispiel berechnet u.a. KI. Wenn ich mir vorstelle, dass das Video von vorhin auf einer CPU berechnet werden sollte, dann wird sich die FPS Zahl sicher im einstelligen Bereich bewegen...
 
Genau, das Wort hat gefehlt ;)

Meiner Meinung nach hat Crytek schon ganz schön was geleistet mit der CryEingine, man muss das im Vergleich sehen. Für diese Zeit (solange ist das ja noch gar nicht her) war das einfach revolutionär. Bei der Grafik kam man aus dem Staunen nicht mehr heraus. Und das so eine Grafik nun mal Resourcen verschlingt dürfte klar sein. Das hat rein gar nichts mit schlecht programmiert zu tun. Da steckt schon eine Menge Entwicklung dahinter. Außerdem war es auch ein DX10 Spiel zu einer Zeit wo es noch nicht einmal die Karte gab. Das alles und viele andere Faktoren sollte man fairerweise beachten.

Naja wenn man sich mal Race Driver: Grid anschaut dann fällt einem auf dass Fotorealistische Grafiken und gute Performance sich heutzutage nicht mehr ausschließen müssen.. Fotorealismus bei 8x AA super flüssig. Wer braucht da noch CryEngine :lol:

Die CryEngine 2 ist und bleibt Schrott ;)
 
Zuletzt bearbeitet:
Race Driver: Grid - Fotorealismus

Die CryEngine 2 - Schrott ;)


Von was redest du:hmm:

Oder ist das jetzt ironisch gemeint? ;)

Du kannst doch nicht ernsthaft die paar zugegeben schön gerenderten rennwagen auf festgelegten rennstrecken bei grid,mit dem weitläufigen u komplexen terrain der cry engine bei crysis vergleichen wollen,oder etwa doch?
 
Zuletzt bearbeitet:
Das muss ironisch gemeint sein, sonst haut er sich ja selbst in die Pfanne ;)
 
das ist Ansichtssache, sicherlich frisst die CryEngine performance, ohne Frage, aber wenn man mal schaut: Crysis zum Beispiel ist ein Shooter mit sehr viel Detail, eine recht große Spielewelt in der der Spieler "frei" von A nach B über verschiedene Wege kommen kann. Bei Race Driver Grid sieht die doch etwas anders aus? Da hat man seine Tracks und die Umgebung, aber keine Nebenstraßen oder eine gesamte Stadt die simuliert werden muss...
 
das ist Ansichtssache, sicherlich frisst die CryEngine performance, ohne Frage, aber wenn man mal schaut: Crysis zum Beispiel ist ein Shooter mit sehr viel Detail, eine recht große Spielewelt in der der Spieler "frei" von A nach B über verschiedene Wege kommen kann. Bei Race Driver Grid sieht die doch etwas anders aus? Da hat man seine Tracks und die Umgebung, aber keine Nebenstraßen oder eine gesamte Stadt die simuliert werden muss...

Eben, die sichtbaren Details sind wesentlich geringer! Das sich die Engine nicht mit Crysis messen kann sieht man leider in den bisher veröffentlichten Videos von OP2, obwohl dort sogar Version 1.5 der Engine eingesetzt wird.
 
Was ganz interessant wäre: wie viel Prozent einer recht potenten GPU (z.B. GTX 280) werden nun wie in dem Video weiter oben für die KI-Berechnung tatsächlich genutzt? Würde es jetzt schon möglich sein, diese Abläufe nur noch per CUDA über die GPU laufen zu lassen und somit den Prozessor zu entlasten damit dieser andere Aufgaben übernehmen kann?
 
Was ganz interessant wäre: wie viel Prozent einer recht potenten GPU (z.B. GTX 280) werden nun wie in dem Video weiter oben für die KI-Berechnung tatsächlich genutzt? Würde es jetzt schon möglich sein, diese Abläufe nur noch per CUDA über die GPU laufen zu lassen und somit den Prozessor zu entlasten damit dieser andere Aufgaben übernehmen kann?

Mit der ganzen grafik zusammen u den 1024 flugzeugen was jedes 9 variable ausweichmuster besitzt "no way" mit nem einzelnen g200.

Man sieht doch an der demo deutlich wie es ruckelt

Wenn der g300 so potent wird wie angenommen könnte das funktionieren
 
Zuletzt bearbeitet:
Vielleicht wars auch nen Tesla. Der besitzt bei Cuda anwendungen ne deutlich stärkere Leistung.
 
Leider gibts dazu wenig bzw. keine Info :(
Alles was man hoffen kann ist, dass nV beim kommenden GT300 nicht nur die CUDA Leistung allgemein steigert...
 
Leider gibts dazu wenig bzw. keine Info :(
...


Mal ganz ehrlich wer braucht schon 1024 flugzeuge in einem game die ki gesteuert sind u stellt euch vor die würden noch alle kollidieren u die physik müsste auch noch berechnet werden ;)

Nicht mal in einem 2 weltkriegsszenario würden soviele gegner auf einmal auftauchen

Gut man könnte damit auch völkerschlachten im alten rom simulieren stimmt;)

Aber seht es einfach als machbarkeitsstudie an
 
Zuletzt bearbeitet:
klar, sowas hat man höchstens bei Strategiespielen, das soll halt zeigen was man mit CUDA alles erreichen kann, aber es muss ja nicht bei der KI bleiben ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh