ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Fake ..... da er keine Crysis Demo gibt :shot:

Ja für uns weißt du ob ATI oder Nvidia nicht schon eine haben.


Crysis Demo

• Status: UNCONFIRMED • Date: TO BE ANNOUNCED

Naja aber die News gab es ja schon ab 14. hier im thread also ist sowieso egal.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na wenn die Vec5 Einheiten des R600 wirklich auf Vec2+ Vec3 benutzbar sind und die Programmierung nicht vor allem auf Vec1 basiert, dann wird der R600 genauso wie die 1900ér Reihe in zukünftigen Spielen wesentlich besser dastehen als meine GTX.

Und soweit kann man die GTX auch nicht clocken, bei 650 bei guter Kühlung oder 700 mit H2O sollte manns belassen.
 
mhm...ob der vergleich von der 8800gtx/gts gerechtfertigt ist???
wenn bald die 8800ultra ans tageslicht kommt, KANN das alles ganz anders aussehen...
 
Ja für uns weißt du ob ATI oder Nvidia nicht schon eine haben.


Crysis Demo

• Status: UNCONFIRMED • Date: TO BE ANNOUNCED

Naja aber die News gab es ja schon ab 14. hier im thread also ist sowieso egal.

Ob ATI oder Nvidia eine haben steht nciht zur Debatte ....

Die entwickeln ja bei Crytec mit ....

Nvidia hat sogar ein Team von 5 Mann bei denen platziert!

Es geht darum wie diese türkische " Döner " Page zu einer Demo

gekommen sein soll :lol:

Wahrscheinlich Achmed undercover eingeschleust :shot:
Hinzugefügter Post:

OMG loooooooooool :lol: :lol: :lol: :lol: :lol: :lol:

Dieser Bench wurde von den Crysis Entwicklern offiziell auf deren Page als Fake abgestempelt. Aber das hast du anscheinend verpasst
 
Zuletzt bearbeitet:
Ob ATI oder Nvidia eine haben steht nciht zur Debatte ....

Die entwickeln ja bei Crytec mit ....

Nvidia hat sogar ein Team von 5 Mann bei denen platziert!

Es geht darum wie diese türkische " Döner " Page zu einer Demo

gekommen sein soll :lol:

Wahrscheinlich Achmed undercover eingeschleust :shot:

Die Benches sind doch nicht von denen :shake:

Und mit deinen Äußerungen solltest du ein wenig Vorsichtig sein von wegen
Türkische "Döner" Page
das kann ganz anders verstanden werden.

Ich zitiere "Bu kartlardan 512MB’lık HD2900XT modeli güvenilir yabancı bir kaynak tarafından Crysis Demo Benchmark testine tabi tutuldu."

Die Crysis Demo Benchmark Testergebnisse mit dem HD2900XT 512MB Speicher wurden einer vertrauenswürdigen, fremden Quelle entnommen!

Aber wie schon gesagt das gab es hier im Thread ja schon am 14. also unwichtig.
 
Zuletzt bearbeitet:
"Die Crysis Demo Benchmark Testergebnisse mit dem HD2900XT 512MB Speicher wurden einer vertrauenswürdigen, fremden Quelle entnommen!"

Wenn ich dir sage ich bin der Weihnachtsmann glaubst du das auch? Der Text sagt ja mal 0 aus über deren Quelle >.<

edit: was solln das für Ergebnisse unter DX10 sein? Unte Global Illumination (wth ist das?) hat die 52fps, die 8800gts nur einen Frame? irgendwie ist das schwer zu glauben ;-)
 
Zuletzt bearbeitet:
Ich seh keine XL nur die XT.
Aber wie ich eben gesagt die Performenc unter DX10 ist besser als unter DX9.
 
Zuletzt bearbeitet:
Die neuen AA Modi (erst mit R600 freigschaltet) und sogar bis 24 fach (wers braucht, und ob man den Unterschied merkt) sind schon feine Sachen.
Bis 12 fach AA soll es "for free" sein, vor allem zwecks des 512 Bit SI, und
den Quality Settings (AF/AA)
"for free" heißt für mich ohne geschwindigkeitseinbuße und das meinst du ja auch
dann müsste die 2900XT die GTS sowie GTX und Ultra bei vollem AF und AA sehr deutlich schlagen, denn die NV reagieren wie jede karte recht empfindlich auf AA/AF

die benches auf DT und auch deine jetzt geposteten sprechen da ein anderes bild

Ja für uns weißt du ob ATI oder Nvidia nicht schon eine haben.


Crysis Demo
du kannst dich drehen und wenden, kannst 1000mal nach beweisen für einen fake fragen, es ist und bleibt ein fake und das haben wir hier schon vor 2-3wochen ausführlichst besprochen ;)

gruß klasse
 
Berni bitte geh einfach hier aus dem Thread raus, das du total unglaubwürdig bist weiß jeder. Also tu uns nen Gefallen und mach die Fliege oder poste dazu das das die abartigsten und dümmsten Fakes von allen Benches bis jetzt sind.

Nicht weil die ATI hier deutlich vorne liegt, das würde mich ja freuen.. sondern schaut einfach mal hin. SLi deutlich langsamer als eine einzelne Karte. Dann diese unglaublichen Vorsprünge :lol:

Und dann Call of Juarez with dx10 patch ! :haha: der kommt erst im Sommer ! könnt ihr gerne mal im call of juarez forum kucken !

OMG
 
Bin mal gespannt ob das stimmen kann

Na frag die G80 user hier im Thread die hatten ja alle schon eine HD2900XT.Je mehr Details zum R600 kommen mit besseren Benches je mehr Spamm Geschrei kommt.

Hol mir zwar selbst eine 8800GTS 320MB für meinen Q-Pack die Tage aber deshalb seh ich das ganze dennoch ganz Objektiv.
Denke da wird schon was kommen anders als DT und konsorten sagen.
 
Denk ich mir auch, kann gut möglich sein das der G80 in DX9 schneller ist, aber in DX10 abscheissen tut. (siehe Cascades Demo :lol:)
Wird genau wie x1900XTX vs 7900GTX, die 7900GTX hat im schwanzmark gewonnen, sobald es an die Spielen geht geht sie gnadelos unter.
So wird es mit dem G80 auch passieren;)

Und was hier alle sagen der G80 ist ne SUPER Karte, ganz sicher nicht, meine GTS 684/1044, ich kann TDU nichtmal in 1680x1050 4xAA 16xAF zocken(flüssig ist für mich ab 45 FPS) und manche heben die Karte hier so in die höhe tzzzz.
Das gleiche bei Splinter Cell DA, Call of Juarez, NFS Carbon usw. also der G80 ist keine MEGA KARTE, 2x 1950XTX+CF hauen meine GTS locker weg (meine Frau hat die im PC) , ja gut Oblivion und G3 ist nicht so toll, aber hat ja nur nen X2 6000+:)
 
Zuletzt bearbeitet:
sind das benchmarks von einer amd präsentationsfolie?

die schauen so geschönt aus :d

aber etwas muss ja auch dran sein :angel:
 
lächerlich. Ihr glaubt auch alles was man euch erzählt. Die benches können net stimmen, nehmt mal die Rosabrille von der nase. Und der G80 wird DX10 verkacken, wie kommt ihr darauf?? Sag ja hier wird nur mist gelabert
 
Zuletzt bearbeitet:
Die SLi Werte bei Quake 4 können doch nicht stimmen? Vielleicht wurde ein alter NVIDIA Treiber verwendet?
Ich mein wenn die schon einen Fake machen sollten, dann sollte einem das mit Quake 4 doch gleich auffallen :hmm:
 
man sollte garnix glauben, erst wenn man es selber sehen tut, oder von RICHITGEN quellen, die auch anständig testen wenn die Karten zu haben sind.
Obwohl bei Quake 3 ja keine FPS angeggeben sind, nur in 100%, was auch nix heißt.
 
Zuletzt bearbeitet:
der R600 wird nicht mit DX10 zulegen... schaut euch die Specs an... (außer beim Geo-Shader)

R600 wird ab Vec2 instructions zulegen....

alle jetztigen "Benchs" sind eine Farce.... oder habt ihr einen klaren gesehen, der von einer anderen unabhängigen Quelle bestätigt wurde... ich nicht

dass das NDA nicht vorzeitig fällt sollte auch allen klar sein... ware ein Präzedensfall, den ATI/AMD sicher nicht schaffen will...
demnach könnte jede NDA von der Presse (auch nicht eingeladene) durch die verbreitung falscher Benchs gekippt werden... denkt doch mal weiter leute...

sollte die 2600XT wirklich 32Shader haben (und min 600Mhz) wird sie der 8600GTS mehr als nur parole bieten können....
 
hätten die doch wenigstens in dem fake benchmark nun ne gtx mit reingenommen... :P was mich auch mal interessieren würde, das mal einer einen fake test von den idle stromverbrauchswerten rausbringt ;) das ist das was mich neben der leistung wirklich interessiert
 
Ich finde die Ergebnisse kann man sowieso nicht nachvollziehen da es keinerlei angaben zur benutzten Hardware und Software (Treiber Vers.) gibt.
Und vor allem fast 100% performance zuwachs bei der X2900XT in 3DMark 06 und die 8800GTS nur ca 75% ist das so richtig???

MFG CiAgeBee
 
ich wäre froh wenn es kein fake ist und nvidia die ultra nicht umsonst bringt.
die preise werden dann eher fallen und es bleibt spannend im grafikkartenmarkt.

bin eh auf der suche nach einer neuen karte, die performance muss halt stimmen, auch später bei crysis...

ich glaube bis zum 14. kommen bestimmt noch mehr von solchen benches :bigok:


:edit
laut den benches schneidet gerade crossfire extrem gut ab und wirkt im vergleich zu sli ausgereifter. meiner meinung sind die werte schon ein wenig pro ati geschönt :d wobei ich natürlich keine ahnung habe wie gut das crossfire nun abgeht auf r600 karten...
 
Zuletzt bearbeitet:
Denk ich mir auch, kann gut möglich sein das der G80 in DX9 schneller ist, aber in DX10 abscheissen tut. (siehe Cascades Demo :lol:)
Wird genau wie x1900XTX vs 7900GTX, die 7900GTX hat im schwanzmark gewonnen, sobald es an die Spielen geht geht sie gnadelos unter.
So wird es mit dem G80 auch passieren;)

Und was hier alle sagen der G80 ist ne SUPER Karte, ganz sicher nicht, meine GTS 684/1044, ich kann TDU nichtmal in 1680x1050 4xAA 16xAF zocken(flüssig ist für mich ab 45 FPS) und manche heben die Karte hier so in die höhe tzzzz.
Das gleiche bei Splinter Cell DA, Call of Juarez, NFS Carbon usw. also der G80 ist keine MEGA KARTE, 2x 1950XTX+CF hauen meine GTS locker weg (meine Frau hat die im PC) , ja gut Oblivion und G3 ist nicht so toll, aber hat ja nur nen X2 6000+:)

eine GTS ist ja auch keine GTX :>, ich hatte bei den Spielen bei 1920x1200 4AA/16AF nie ein Problem und ich habe ähnliche Ansprüche wie du (>50FPS).
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh