ATi R600 [Spekulationsthread Nr.2]

Status
Für weitere Antworten geschlossen.
Wenn die einzelnen ROPs zu schwach gewesen wären, dann wäre dies ein Design - Fehler und nicht mehr ausbügelbar...
Also lass den Scheiß mit den Falschinformationen, denn einige hier glauben das!

Du hast aber schon gelesen, das das bei Revision 04 war, oder? :rolleyes:

Und dir ist auch klar, das jede neue Revision eine neue bzw. überarbeitete Maske beinhaltet, die zur Belichtung der Wafer verwendet wird. Also was heißt hier nicht ausbügelbar? :hmm:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
30% der User hier im Thread arbeiten bei AMD/ATI sowie es aussieht :d
Nebenbei, die XL Karten werden erst April kommen oder?
 
Du hast aber schon gelesen, das das bei Revision 04 war, oder? :rolleyes:

Die ROPs sind ein Element, welches nicht einfach mal ausgetauscht werden kann.
Wenn sie von Anfang zu schwach gewesen wären, was ziemlich unwahrscheinlich ist, würde der r600 noch späte rkommen.

Und dir ist auch klar, das jede neue Revision eine neue bzw. überarbeitete Maske beinhaltet, die zur Belichtung der Wafer verwendet wird. Also was heißt hier nicht ausbügelbar? :hmm:

Das ganze Design hätte umgearbeitet werden müssen. Die ROPs sind so stark mit der Architektur verbunden, dass ein einfacher Respin nicht reicht.
Es scheint eher, dass die ROPs den hohen Takt nicht stabil erreicht haben am Anfang und daher eine Verschiebung darauf zurück zu führen ist.
 
es wurden nicht die ROP´s ausgetauscht wie du es jetzt verstanden hast, sie wurden überarbeitet. DAS lässt sich auch mit einem Respin erledigen, da ja nicht das Design komplett geändert worden ist, nur eine winzige kleinigkeit, die der stabilität beitrug.
 
Ich denke mal das die mit dem finetuning beschäfftigt sind, und das AMD auch noch die eine oder andere Idee hat einfliessen lassen !
Also ich denke mal das die einen guten Chip bringen werden, und wies bisher bei ATI immer war, Spät aber schnell !
Nur denke ich das es wie immer sein wird ( bei ATI & NV ) das die ersten Chips zwar alles alte besser können, aber sobald dann die ersten full DX10 Games kommen, kacken die karten der ersten serien ab, und erst die zweite generation Taugt was ! ( gilt für beide Hersteller ! )
Es wird zeit das mal wieder eine Hammerkarte wie die 4200ti kommt, diese Karte war meiner meinung nach ein absolute ausnamekarte !
Und ne kleine kritik an ATI habe ich auch noch, wenn es sich bewarheitet das die neuen Spitzenkarte 250watt ziehen sollt, werden die das ding meinetwegen behalten können !
 
@ piefke

du hast wohl recht, ich weis ja nicht wie die full dx10 games sein werden, da es ja noch net mal samples gibt, für die masse....

daher wirds wohl wie immer sein, das erst die 2te gen der dx10 karten volle dx10 power hat ;) aber muss nicht sein, schließlich gibts dx10 schon seit knapp 6 monaten ;) ein dx standard hält sich in der regel 2-3 jahre.
 
@Piefke hier wird alle 20Posts mindestens einmal was über die Leistungsaufnahme gesagt, und jedesmal kommt unterm Strich raus, das die bekannten Watt-Angaben die TDP-Werte sind was wiederum nix mit der Leistungsaufnahme zu tun hat!
Und wo du 250W her hast ist mir auch rätzelhaft, es war die rede von 240, dann mal von 270 und der letzte Wert war was von unter 200!

Lesen schafft Vorteil, sorry aber musste sein! :shot:
 
Zuletzt bearbeitet:
Guten Morgen Flagship,

erstmal danke schön für die ganzen Informationen. Ich stell jetzt mal meine Frage bezüglich der XTX2 genauer! War oder ist eine DualChip Karte bei ATi in Planung gewesen soweit du das verraten kannst? Immer noch keine Lust über ICQ zu plaudern?

Mit freundlichsten Grüßen
Raoul S.
 
ich hoffe und glaube, dass die aktuellen dx10 karten auch dx10-games anständig darstellen können und die leistung reicht, sind ja bisher keine schrott-modelle wie damals die "GEFORCE FX GRAFIK" (5200 usw.) raußgekommen die von anfang an zu langsam waren und nichtmal ältere sachen in höchsten details und auflösungen darstellen konnten, aber bei discountern als super-duper-karten angepriesen wurden!
 
Zuletzt bearbeitet:
also zur fx5200 sage ich jetzt mal nichts, komisches ding mit der Karte.
Kommt ziemlich zuerst auf den Markt von den fx dinger, ist so lahmarschig wie ein 2MX, taugt nichtmal für DX8.
Aber hält sich bisheute zäh in allen Verkaufthreads und bei eBay das ding, wird noch immer Teuer erkauft die karte, und hat durch Vista eine neue Kaufwelle erfahren!
Aber hoffe sowas bleibt uns in zukunft erspart !

sorry für OT.

und zur 250Watt angabe, hatte das gerade über die Google News irgendwo gelesen !
 
@piefke
weniger lesen, mehr denken.
glaub einigen news seiten nicht alles was sie schreiben.
es muss nicht richtig sein was da steht, zumal die meisten "news" seiten eh nur alles stupide abschreiben von der quelle, ohne eine eigene meinung zuhinterlassen im newsartikel.

250w kann der kühler mit sicherheit nicht abführen. und das die TDP werte von vielen leuten gleich als reale verlustleistung genommen werden. hängt einfach davon ab das viele mit reden wollen, auch wenn sie keine ahnung haben. hauptsache mal nen dummen post zur verlustleistung ablassen :kotz:

sry, musste aber sein ... aber bei sowas bist du nicht ganz allein ...

so und nun wieder :BTT:
 
nope icq wird nix, da kannste ip´s ausfindig machen....

ja in google, nicht bei HWluxx :P

naja, bezüglich deiner XTX2 frage @ WoodCrest, schau mal im ersten spuk thread nach ;) die letzten seiten, da steht enorm viel über die xtx2 karten und dessen realisierung
 
@FlagShip: Hab mal ne Milchmädchenrechnung angestellt:

Angenommen die Graka braucht in rev. A18 180 Watt und max. sind 250 Watt möglich
(70 Watt Differenz) und wenn ich deine Zahlen in die Rechnung einfüge komme ich auf
folgendes für die GPU:

45 Watt / (850Mhz * 1,2Vcore^2)*(1300Mhz*1,55Vcore^2) = 115 Watt -> 70 Watt Differenz

Daraus schliesse ich folgende Möglichkeiten:

1. Die Annahmen stimmen und die GPU braucht @standard wirklich nur 45 Watt
2. Die Graka braucht @standard weniger als 180 Watt
3. Mann kann mehr als 250 Watt für die Graka ziehen

Sollte das völliger Müll sein, möchte ich mich entschuldigen :P


Mfg Fallen
 
Zuletzt bearbeitet:
1. standard
2. etwas unwahrscheinlich da man die ineffizienz der stromversorgun noch berücksichtigen sollte, aber um die 180-200w sind drinne.
 
Hmm ich weiß nicht, ich glaube auch nicht, dass die Karte so viel ziehen wird. AMD/ATI wird doch nicht so dumm sein und eine solche Karte [Chip] auf den Markt. Der Kühler der nicht OEM-Version wird diese Verlustleistung, die hier ja nur "spekulativ" angegeben wird, nicht abführen können. Ich denke wir sollten abwarten, was die Karte letzten Endes verbrauchen wird. Ich denke, dass es ungefähr auf nVidia-Niveau liegen wird. Wenn die Leistung höher liegt, als bei einer nVidia-Karte, dann würde ich auch mit einer höheren Verlustleistung leben können ;). Also ich bin gespannt :).

MfG
 
Zuletzt bearbeitet:
Und weil alle so denken wie du Sub-Zero, gehen die hersteller immer höher mit der TDP und ignorieren die energie effizienz.

"falls die leistung stimmt ist die leistung die sie verbraucht egal"<---- das ist schwachsinn... wie macht es den bitte der Conroe das er mehr leistung hat und in etwa so wenig braucht wie ein amd single core chip? ohne CnQ zu berücksichtigen?!?!

mit CnQ ist klar der AMD im vorteil<---
 
Zuletzt bearbeitet:
@FlagShip: Hab mal ne Milchmädchenrechnung angestellt:

Angenommen die Graka braucht in rev. A18 180 Watt und max. sind 250 Watt möglich
(70 Watt Differenz) und wenn ich deine Zahlen in die Rechnung einfüge komme ich auf
folgendes für die GPU:

45 Watt / (850Mhz * 1,2Vcore^2)*(1300Mhz*1,55Vcore^2) = 115 Watt -> 70 Watt Differenz

Daraus schliesse ich folgende Möglichkeiten:

1. Die Annahmen stimmen und die GPU braucht @standard wirklich nur 45 Watt
2. Die Graka braucht @standard weniger als 180 Watt
3. Mann kann mehr als 250 Watt für die Graka ziehen

Sollte das völliger Müll sein, möchte ich mich entschuldigen :P


Mfg Fallen

War nicht mal die Rede davon, das max. 225W durch die Stromversorgung zur Verfügung gestellt werden konnte?
Und deine Rechnung musst du mir mal erklären, damit komm ich so derzeit gar net klar :shake:

@FlagShip
wegen deiner IP, also soweit ich weis, ist es den Mods/Admins auch möglich, deine IP rauszufinden!
Natürlich nur wenn sie dir was böses wöllten!
 
@fdsonne: mit 2x 6pin PCI-E steckern kommt man auf 225Watt, mit 1x 6Pin + 1x 8Pin auf 250Watt
- soviel ich weiss...

Meine Rechnung begründe ich so, dass gemäss meines Wissens die Verlustleistung sich
proportional zur Frequenz (Takt) und sich die Vcore "im quadrat" verändert. Das
eingepackt in einen einfachen Dreisatz^^
(Mit dieser Formel kannst du auch die Verlustleistung deiner CPU berechnen bei overclocking.

@FlagShip: Plz sag etwas zu meinem Post, ob ich völlig daneben liege oder nicht :P
 
@fallen angel
doppelter takt = 2x verlustleistung
doppelte spannung = 4x verlustleistung
quadrat wäre ja bei taktverdoppelung auch faktor 4 bei der verlustleistung :hmm:
wenn ich dich richtig verstanden habe :fresse:

wegen der maximalen stromversorgung, man wird ja nicht diese auslasten bis zum letzten watt sondern noch einen gewissen spielraum bieten müssen.

wenn flagship meint er hat sein R600 sampel auf 1.3Ghz und 1.55Vgpu laufen wird noch luft nach oben sein ;)
 
ganz so falsch ist deine rechnung nicht, vorallem so ganz ohne details bezüglich reelem takt und vgpu ;)

aber rein Theoretisch, ist schon richtig was du schreibst :P

nur is euch schon klar, das man immer mit ca 2facher sicherung arbeitet? daher nicht nur die max machbaren 288watt pro 6pin molex die auf 75 watt gedrosselt sind, auch die hersteller sichern da ein wenig ab und geh lieber auf die große leitung als gebraucht(g80 gtx braucht NIE!!!!! 2 6pin molex, sie sind aber da)

soweit so klar?
 
meine ich ja auch, die 6800U hatte ja auch 2x6pin molex. und selbst die 8800GTX wird diese beiden nie auslasten.

wieviel sind da in % reserve oder ist das eher einzelfall bezogen?
 
mensch FlagShip, du machst einem ganz heiß auf die karte - absicht? ati marketing gag? egal, hauptsache infos!

der gpu takt läuft bei dir also @ oc auf 1,3 GHz mit Wakü :drool: ach, ich würd das auch so gerne testen... und der karte mal so richtig dampf unterm pcb machen :d
 
@Flagship

:)
Na das ist doch mal ne Aussage... dann sind 850MHZ Core bei 1,2VGPu und ca. 1200-1300MHZ RAM also in etwa eine wahrscheinliche Version einer X2900xtx.

Was mich noch mal interessiert ist allerdings die X2900xt... wird die Karte wirklich nur mit 512MB kommen?
 
@ FlagShip: Ist mir schon klar, dass wenn max 250 Watt sind sie höchstens so 160 - 180 Watt
ziehen sollte. Meine Frage ist aber, ob bei enormer Übertaktung die Karte mehr als 250 Watt
vom Netzteil bekommt, oder das bei 75 bzw. 100 Watt abgeriegelt ist?!
 
nein, du verstehst da was falsch, weil zb 250 watt verbraten werden können, heisst das nicht das auch 250 watt rein gehn.

ihr wisst bestimmt alle was ein trafo ist. ;) hat ja sogut wie jede karte im sinne von IC´s und daher kannst du im extremen oc fall auf (bei mir) ca. 238Watt input aber 295Watt verlustleistung(Swiftech MCW-60 Peltierkühlung) ich hab durchgehend ca 20C°-25C°....

PS.: die karte rennt noch immer mit 1,4ghz inzwischen und 1,6Vgpu :d 3 stunden bisher....

Bis 1,5ghz und 1,7Vgpu dürfen wir gehen, dann soll aufgehört werden :(
 
@epy,
DPWM und ineffizent? :hmm:

es ist doch auch so das selbst hochwertige spannungsversorgungen eine gewisse ineffiziens besitzen und zu einer höheren verlustleistung sorgen als eigentlich nötig... relativ vergleichbar mit den netzteilen.

meine ich ja auch, die 6800U hatte ja auch 2x6pin molex. und selbst die 8800GTX wird diese beiden nie auslasten.

auf agp 2x4pin und pcie 1x6pin ;)

mfg
 
Zuletzt bearbeitet:
@FlagShip:

Ich habe doch nie gesagt, dass mir die TDP egal ist :stupid:. Es gibt halt Leute, die das so machen bzw. denken. Ich versuche zu undervolten, wo es geht. Alleine schon, um die Lautstärke bzw. die Temperaturentwicklung niedrig zu halten. Also halte dich mal mit deinen Aussagen zurück.

MfG
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh