ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Unsinn?

Es war eine reine Spekulation.

50% schneller ist er von der Architektur her. Die Taktrate skaliert eh noch alles.

Die Karten werden gehyped.
Ich gehe davon aus, dass der G80 eine sehr ähnliche Architektur zum G70 oder zum G71 hat.
Wenn man das bedenkt ist die Karte minimal 50% schneller als der G71, bei gleichem Takt.

Nochmal zum Gehype.
Das Gehype beginnt demnächst und die Fanboys versammeln sich schon. *angst*

Der G71 war nur ein Shrink zu 90Nm, mehr nicht. Bei gleichem Takt sind beide gleich schnell.
Außerdem kann man nicht sprechen, dass der G71 40% schneller ist, es ist nur ein Core mehr nicht.

mfg Nakai
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Als damals Karten von Nvidia und ATI mit damals neuer Archtitektur eingeführt worden sind, die Rede ist von der 6800GT & Co., dann hat auch niemand erwartet, dass sich der Leistungssprung (bei hohen Auflösungen) zur vorherigen Generation um die 100% bewegt hat.

Und ihr müsst folgendes bedenken: Seit dem 6800GT und der X1800XT sind darauf folgende Karten (Bei NV 7800, 7900 ... bei ATI X1900, X1950) eigentlich Refresher-Chips gewesen, die Einen vielleicht etwas mehr "modernisiert", die Anderen weniger. Ich meine, ich möchte nicht sagen, dass der Leistungssprung unbeachtlich ist, der Leistungssprung von einer 6800GT zu einer heute aktuellen 7900GTX beträgt auch um die 100%. Aber es hanelt sich bis heute nicht unbedingt um eine komplett neue Architektur. Daher die etwas bescheidenen Leistungssprünge.

Der G80 und der R600 sind doch komplette Neuentwicklungen, so weit ich weiß, auch wenn der G80 mehr an die vorherige G70 angelehnt ist, ist sie eine Neuentwicklung und kein Refresher-Chip. Daher erwarte ich schon einen Leistungssprung von mindestens 50% bei hohen Ausflösugen, wenn nicht sogar mehr.
 
Der G80 ist ein G70 mit mehr VS und mehr PPs und der Möglichkeit D3D10-Sachen zu berechnen.
Deswegen gehe ich von einer maximalen Steigeurng von 50% in DX9 aus. Vll haben die PS eine höhere Genauigkeit. Reinher von den Daten ist der Chip bei gleichem Takt etwa 50% schneller.
(aber bis jetzt gibt es nicht viele Daten)

Der R420 war im Grunde der R360. Hatte nur mehr Pipes und einen höheren Takt.

mfg Nakai
 
ich schätze auch das der G80 nur 50% schneller wird bei DX9
vieleicht etwas mehr durche 2 ghz effektiven ram takt bei hohen auflösungen mit AA usw aber an sich denke ich wird es kein so heftiger sprung wie damals von fx auf 6
 
Bud Spencer schrieb:
Naja, ob der R600 nach hinten losgehen kann ist völlig ausgeschlossen, außer sie werden mit der Entwicklung nicht fertig und überlassen den Markt der G80.

ATI konnte viel Erfahrung mit US-Architekturen beim XBox 360 sammeln und der ist ja wohl alles Andere als billig, gar besser als die PS3 Graka. Der R600 ist eine Weiterentwicklung für den PC-Markt. Glaub nicht, dass dieser versagen wird.

Ich möchte den G80 nicht schlecht reden. Sicherlich ist es auch ein sehr schneller Chip.

Okay Buddy, mein Fehler ich hätte mich detaillierter ausdrücken sollen.
Ich meinte, dass der R600 bei den Fans nach und generell in der beliebtheit nach hinten losgehen kann.
Die Gerüchte extistieren schon seit Anfang des Jahres, das der R600 der heißeste Chip ever werden soll. :shake:
Zudem geht bei R600 Rechenleistung für die Verteilung der Last drauf !!
Schlimmstenfalls ist er wirklich lahmer als der G80.
Der er langsamer wird glaube ich nicht wirklich aber es wäre möglich.


Guckst du hier:
http://www.geizhals.at/a155928.html
Pixel-Pipelines: 24, Chiptakt: 430MHz, Speichertakt: 600MHz

und hier:
http://www.geizhals.at/a191761.html
Pixel-Pipelines: 24, Chiptakt: 650MHz, Speichertakt: 800MHz


Der Chiptakt ist sogar über 50% größer und der is kühler und braucht weniger Strom glaube ich (oder?)

Das in jedem Benchmark die 7900GTX nicht 50% schneller ist als die 7800GTX is ja logisch. Aber oft ist sie schon ein ganzes stück schneller, im 40%igen Bereich. Zudem hat die 7900GTX 512 MB !

Das die 7900GTX in 1280*1024 nicht 50% schneller ist, dürfe hier jedem klar sein. Aber bei hohen einstellungen, wie 1920*1080 oder so, is sie ganz bestimmt 40-50% schneller.

Und von diesen Prozenten redet man ja auch, nicht von den Durchschnitts-fps !
 
War ja auch kein Vorwurf von mir.

Meinerseits sind es doch auch bloß Spekulationen manchmal beruhend auf Tatsachen, aber auch auf Gerüchten, welche man hier und da mal liest.
 
Nakai schrieb:
Unsinn?

Es war eine reine Spekulation.

50% schneller ist er von der Architektur her. Die Taktrate skaliert eh noch alles.

Die Karten werden gehyped.
Ich gehe davon aus, dass der G80 eine sehr ähnliche Architektur zum G70 oder zum G71 hat.
Wenn man das bedenkt ist die Karte minimal 50% schneller als der G71, bei gleichem Takt.

Nochmal zum Gehype.
Das Gehype beginnt demnächst und die Fanboys versammeln sich schon. *angst*

Der G71 war nur ein Shrink zu 90Nm, mehr nicht. Bei gleichem Takt sind beide gleich schnell.
Außerdem kann man nicht sprechen, dass der G71 40% schneller ist, es ist nur ein Core mehr nicht.

mfg Nakai

Nimm mal die Fusseln ausm Mund und fussel hier nichts zusammen.
Jeder, der hier etwas postet, dürfte wissen, das wir mit G71 und G70 von den dazugehörigen Karten sprechen.

Also mach hier keinen auf Doktor bitte. Wir wissen was Chips und was Karten sind, DANKE. !

Zudem hört sich der Satz:"Der G80 wird höchstens 50% schneller sein als der G70 in DX9-Anwendungen.." nicht nach einer Spekulation sondern vielmehr nach einer Festellung an.

Und wenn ihr schon etwas derartiges schreibt, bitte Begründen !

Nochmal zum Gehype.
Das Gehype beginnt demnächst und die Fanboys versammeln sich schon. *angst*

Der R600 wird sich sicherlich nicht minderer Beliebtheit erfreuen.
Aber solche Postings zeigen doch, zu welchem Lager du angehörst.
Fanboy, der Begriff ist so strunz blöd, den sollte man verbieten und wenn du sowas schreibst, bist du auch net besser, sondern nur jmd., der etwas oder jemanden schlecht reden will. :stupid:
 
Zuletzt bearbeitet:
Mönsch, jetzt warste 2 Minuten schneller als ich!

Wobei die Meldung des Inquirer ja nicht unbedingt neu ist, daß der G80 wahrscheinlich erst November (bzw. jetzt konkreter Ende November kommen wird), war ja inzwischen soweit bekannt.

Neu ist halt, daß es jetzt auch einen Grund dafür gibt: Ein Re-Spin. Scheinbar haben die Yields mit dem ursprünglichen Design wohl nicht gestimmt.
 
steppenwolf78 schrieb:
Mönsch, jetzt warste 2 Minuten schneller als ich!

:d

steppenwolf78 schrieb:
Wobei die Meldung des Inquirer ja nicht unbedingt neu ist, daß der G80 wahrscheinlich erst November (bzw. jetzt konkreter Ende November kommen wird), war ja inzwischen soweit bekannt.

Eine bestätigung des termines von einer anderen Quelle ist immer gut ...

steppenwolf78 schrieb:
Neu ist halt, daß es jetzt auch einen Grund dafür gibt: Ein Re-Spin. Scheinbar haben die Yields mit dem ursprünglichen Design wohl nicht gestimmt.

Also ausser nVidia selbst weiss keiner wieso der re-spin eingelegt wurde ...
 
Ich kanns dir aber sagen. Wegen 80nm !!! Mit 90nm haben sie schon genug Monate produziert.
Bin ich mir ziemlich sicher.

Aber egal, dann kommt er halt 2 Monate später, als von C't etc. behauptet aber dafür 25% kleiner ! Das is doch was.
 
Ich hoffe es ist nicht OT:
Was genau ist ein re-spin? Wird da der Fertigungsprotzes umgestellt? :confused:

lg
 
Nightspider schrieb:
Nimm mal die Fusseln ausm Mund und fussel hier nichts zusammen.
Jeder, der hier etwas postet, dürfte wissen, das wir mit G71 und G70 von den dazugehörigen Karten sprechen.

Also mach hier keinen auf Doktor bitte. Wir wissen was Chips und was Karten sind, DANKE. !
Zum G70 hab ich mich verschrieben und?

Anscheinend weißt du es nicht was Chips und Karten sind.


Du sagst der G80 ist 50% schneller als der G70 ?
Naja. Der G71 is schon 40-50 % schneller und war nichtmal ein richtiger Refresh.

Aha 50%? 50% heißt bei mir, dass der Chip 50% schneller ist.
Dass heißt nicht, dass der Chip durch 50% höheren Takt 50% schneller ist.
Und ich bleib dabei, der G80 wird nach den Daten etwa 50% schneller sein als der G70 und der G71.

Zudem hört sich der Satz:"Der G80 wird höchstens 50% schneller sein als der G70 in DX9-Anwendungen.." nicht nach einer Spekulation sondern vielmehr nach einer Festellung an.

Und wenn ihr schon etwas derartiges schreibt, bitte Begründen !

Die Begründung ist ganz einfach, wenn du mir schon Inkompetenz unterstellen willst, tu das!

24 zu 32 PP sind nunmal 50% Leistungsteigerung, solange es keine Flaschenhälse gibt.(und falls die PPs gleich aufgebaut sind)
Und das ist nur eine Vermutung von Daten die im Internet umherschwirren.
Ich kann nicht sagen, wie gut die einzelnen ALUs sind und wie gut Lastenverteilung ist.
Ich weiß auch nicht wie groß die Tempregister sind, denn das war ein Flaschenghals beim G70/G71.


Der R600 wird sich sicherlich nicht minderer Beliebtheit erfreuen.
Aber solche Postings zeigen doch, zu welchem Lager du angehörst.
Fanboy, der Begriff ist so strunz blöd, den sollte man verbieten und wenn du sowas schreibst, bist du auch net besser, sondern nur jmd., der etwas oder jemanden schlecht reden will.

Super! Eine tolle Flameaussage.
Nach meiner Meinung willst du mir irgendwie nur eins auswischen.
KOmisch das mein Kommentar scherzhaft gemeint war und nicht zu Aggressivitätssteigerung deinerseitz gedacht.



@Respin zu G80:

Irgendwas hat da nicht gestimmt. Kann sein das der Chip zu heiß wurde oder die erforderlichen Taktraten nicht erreicht hat.
80Nm kann auch sein. Ich frage mich ob NV den Fehler nocheinmal macht, auf einen neuen Fertigungsprozess umzusteigen.
Das Resultat war ja beim NV30 nicht so berauschend.
Jedenfalls wäre eine gute 80Nm-Fertigung nicht schlecht, wenn der Chip tatsächlich so heiß werden könnte.


mfg Nakai
 
Zuletzt bearbeitet:
Nightspider schrieb:
Ich kanns dir aber sagen. Wegen 80nm !!! Mit 90nm haben sie schon genug Monate produziert.
Bin ich mir ziemlich sicher.

Aber egal, dann kommt er halt 2 Monate später, als von C't etc. behauptet aber dafür 25% kleiner ! Das is doch was.
Oh, ja ... die sache mit 80nm :fresse: ganz vergessen ;)
 
Zitat:
Der R600 wird sich sicherlich nicht minderer Beliebtheit erfreuen.
Aber solche Postings zeigen doch, zu welchem Lager du angehörst.
Fanboy, der Begriff ist so strunz blöd, den sollte man verbieten und wenn du sowas schreibst, bist du auch net besser, sondern nur jmd., der etwas oder jemanden schlecht reden will.


Super! Eine tolle Flameaussage.
Nach meiner Meinung willst du mir irgendwie nur eins auswischen.
KOmisch das mein Kommentar scherzhaft gemeint war und nicht zu Aggressivitätssteigerung deinerseitz gedacht.

Ja ne ist klar. Unlogisch gehts immer. Du beschuldigst hier einige indirekt Nvidia Fanboys zu sein und meinst hinterher es sei "scherzhaft" gemeint.
Zudem, wenn du mehr Ahnung von solchen Themen hättest, wüsstest du das Fanboy Provokationen zur Aggressive Posts hervorrufen.
Zudem bezeichnest du mich als Flamer, weil du ander """Scherzhaft""" als Fanyboys abstempelst.
Die Logik fehlt dir wohl noch in deinem Alter, sonst würdest du nicht so ein Misst schreiben. !

Anscheinend weißt du es nicht was Chips und Karten sind.

Auch wieder so ein schlechter Scherz von dir... :haha: :lol:

Aha 50%? 50% heißt bei mir, dass der Chip 50% schneller ist.
Dass heißt nicht, dass der Chip durch 50% höheren Takt 50% schneller ist.
Und ich bleib dabei, der G80 wird nach den Daten etwa 50% schneller sein als der G70 und der G71.

Von der Architektur.
Nach deiner Logik,dass der G80 is 50% schneller als der G71, meinen hier alle, die reine Architektur wäre 50-100% schneller. Überleg dochmal was du schreibst.
Es wurde bereits geklärt, wovon die Leute hier im Thread schreiben.
Zudem sagen wir alle G80, weil noch kein Kartenname bekannt gegeben wurde.
Soweit verstanden ? Ich hoffe doch.

Zudem ist hier nirgents festgelegt, ob hier alle von einem G80 oder dessen Karten in Hinsicht auf die Mehrperformance ausgehen.

Das wäre aber mal eine gute Frage.
Aber deswegen musst du niemanden anpöpeln, er verstehe den Unterschied nicht, zwischen Chip und Karte, da bist du hier falsch.

Und nun :btt:
 
Wenn du das so aufgefasst hats, tut mir das leid...war nicht meine Absicht.



Ja ne ist klar. Unlogisch gehts immer. Du beschuldigst hier einige indirekt Nvidia Fanboys zu sein und meinst hinterher es sei "scherzhaft" gemeint.
Zudem, wenn du mehr Ahnung von solchen Themen hättest, wüsstest du das Fanboy Provokationen zur Aggressive Posts hervorrufen.
Zudem bezeichnest du mich als Flamer, weil du ander """Scherzhaft""" als Fanyboys abstempelst.
Die Logik fehlt dir wohl noch in deinem Alter, sonst würdest du nicht so ein Misst schreiben. !

Den Auszug versteh ich nicht wirklich.
Wenn es scherzhaft gemeint war, hätte ich wohl kaum "*Angst*" dahintergeschrieben.
Was kann ich dafür das du auf das Wort "Fanboy" so hart reagierst. Anscheinend ist das in diesem Forum so, ich bin halt nicht so oft hier online.

Als Flamer hab ich dich nur beschimpft, weil du mihc als ein Kiddie und auch als Flamer abstempelst, obwohl das von meinerseits eher nicht ernst gemeint war.


Auch wieder so ein schlechter Scherz von dir...

Naja was du gesagt hast, hat das mich das vermuten lassen. Jetzt weiß ichs besser.

Von der Architektur.
Nach deiner Logik,dass der G80 is 50% schneller als der G71, meinen hier alle, die reine Architektur wäre 50-100% schneller. Überleg dochmal was du schreibst.
Es wurde bereits geklärt, wovon die Leute hier im Thread schreiben.
Zudem sagen wir alle G80, weil noch kein Kartenname bekannt gegeben wurde.
Soweit verstanden ? Ich hoffe doch.

Ja schon klar, ich habs vom Chip her gemeint. So wie der 7800GT und die 7800GTX auf den G70 aufbauen, baut der scheinbare 8800GTX auf den G80 auf.
Ich hab den G80 nicht als die ganze Karte gesehen sondern als den Chip mehr nicht.

Aber deswegen musst du niemanden anpöpeln, er verstehe den Unterschied nicht, zwischen Chip und Karte, da bist du hier falsch.

Ich sagte bereits das ich nicht häufig hier Online komme...

Zudem ist hier nirgents festgelegt, ob hier alle von einem G80 oder dessen Karten in Hinsicht auf die Mehrperformance ausgehen.

Eine guet Frage.
Ich sagte bereits der G80, also der Chip, etwa 50% schneller sein wird.
Inwiefern die Leistung durch den Takt nicht kompensiert ist, steht nirgends fest.
Ich schätze fast, das NV erst kurz vor dem Zusammenbau der Karte eine dementsprechende Taktfrequenz einstellen.

mfg Nakai
 
Um den Wertverlust zu minimieren muss man zwangsläufig aufrüsten - so hat man immer das schnellste bei geringem Aufpreis, wenn man zu lange wartet hat man ein Fettes gespann das von einer neuen Karte weggebügelt wird.
Genau so seh ich das auch. Ich muß quasi auf den G80 aufrüsten, um den Wertverlust meiner GTX möglichst gering zu halten. :d
 
Wenn die Architektur nur 50% schneller wäre, müsste aber noch mehr Potential für den Takt da sein.

Was meint ihr ? 700 - 800 Mhz Chiptakt ?

GDDR4 wird wohl mit mind. 1200 (2400) takten oder ?
 
Erst wird mal werden der G80 und der R600 kommen - total überteuert(!) und 4 Monate später der G81 und der ATI Nachfolger mit besserem Preis/Leistungs Verhältnis.
 
Ich rechne bei den Topmodellen von XFX und EVga mit diese Werten. Im schlimmsten Fall genauso wie die aktuellen GTXer. Insgeheim hoffe ich aber auf eine Dualkarte wie die GX2.
Im Ernst. Schon bei nur 10% Mehrleistung gegenüber einer 7950GX2, aber dafür HDR+AA und D3D10 wäre die Karte ein Erfolg, da man keinen 24"+ Monitor braucht, um sie auszunutzen, sonder fetten Eyecandy bei sauberem Speed geben kann. ;)
 
Hab jetzt gegoogled und bin immer noch nicht schlauer was ein respin ist…
 
xtra9 schrieb:
Hab jetzt gegoogled und bin immer noch nicht schlauer was ein respin ist…


Wurde doch schon erklärt?

Wenn ein Chip in der letzten Testphase einen Fehler hat bzw, gewisse Schaltungen im Chip, dann muss die ganze Testphase nochmal wiederholt werden da der Chip re-designed wird. (bzw. Ein Teil)

Das kann was ganz kleines sein, kann aber auch was ganz großes sein...
Umso mehr Tranistoren ein Chip hat (Logik Transistoren, keine Cache Transistoren) umso wahrscheinlicher das fehler auftreten.

Google spuckt x Seiten aus die sich damit beschäftigen.

http://masshightech.bizjournals.com/masshightech/stories/2004/03/22/story8.html
 
Zuletzt bearbeitet:
taktraten 700mhz hmm wär möglich,
ich denke er kommt in 90nm
die inq news machen keinen spass beim lesen
 
@cl55amg: thx :) Ne ich ahb bei google respin eingegeben und da kamen viele Seiten aber nichts was mit grakas zu tun hat ^^
 
Glaube kaum. :rolleyes:
Eine 7800GTX wird empfohlen um Gothic III mit vollen Details spielen zu können.
 
Aber es soll ja besser optimiert sein als Oblivion, also jeder der Oblivion gut zocken konnte, soll auch Gothic 3 smooth zocken können ;)

PS: G83 ich komme!!!!:d

mfg

Marvin
 
Dann holt man sich eine X1900XT das man auch alles mit AA und AF zockern kann, sofern G3 das unterstützt.
Aber G3 hat nicht so gute Texturen und benötigt keine so hohe Shaderleistung, wie TES4.

Ich finde es schade, das NV einen Resping macht, hoffen wir das sich das neue Design, besser bei Verbrauch und Temps ist.

mfg Nakai
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh