ATi R600 [Spekulationsthread Nr.2]

Status
Für weitere Antworten geschlossen.
ja kann ich machen, wenn ich mal alleine inner firma bin, sollte jetzt ne ruhige zeit anstehen, es sind einige mitarbeiter auf der didacta... und für die cebit gibts auch ein paar vorbereitungen...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ach guck

Das hat JamesRyan über euch im 3DCenter Forum geschrieben

Das Interessante ist, dass alle FanATIker im Luxx diesem Typ absolut glauben als sei er der Messias. Jegliche Kritik wurde von den dortigen Mods kommentarlos gelöscht und der Typ kann sich in Fäustchen lachen wenn er ein paar Freaks zum Höhepunkt bringt weil er alles bestätigt, was sich diese Leutchen in ihren feuchten Träumen vom R600 erhofft haben.
Erbärmlich!

Mit Typ meint er Flagship

Hier könnt ihr sehn,was auch Undertaker sagt

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350593&page=12
 
Zuletzt bearbeitet:
das von mir war keine spekulation, sondern in manchen fällen trifft das zu, in welchen und wie häufig, kann ich leider nich sagen.

Und wir testen die karte ja nicht nur mit einem qx6700 @ 4ghz unter mach2 oder so... sondern auch mit einem normalen amd x2 3800+ oder einem core 2 duo 6850 und auch unter einem amd 4000+. Das schwächste system ist hier wohl der p4 2,4ghz. alle systeme mit 2gb ram und raid0 sata2 platten von der stange.

Und in manchen configs, bzw systemen sind sogar weit mehr als 50% zu verzeichnen.

habe hier auch auf arbeit einen r600 zum testen... bin atm bei 1,8ghz coreclock mit 1,7v... ist so ein betrieb, wo man nextgen grakas rumliegen hat und einfach mal so weit übertaktet wie es geht, infos darüber in einem forum ausplaudert und trotzdem nicht gekündigt wird...

@mods: bitte sperrt doch diesen hochstapler...
 
@JamesRyan:

Ich glaube nicht, dass AMD/ATI den Launch des R600 verschoben hat, weil er langsamer ist als der G80. Ich denke eher, dass der Launchtermin verschoben wurde, weil entweder die Karte zu viel Leistungsaufnahme hat (wobei ich auch das eher für unsinnig halte) oder weil AMD/ATI einen Hardlaunch mit allen Modellen vollziehen will. Denn wenn man auf den Markt guckt, liegt bei nVidia zur Zeit kein richtiges Modell im Midrange-Bereich. Hier wäre, wenn überhaupt, nur die 8800GTS mit 320MB Speicher zu nennen. Also ich tippe auf den Hardlaunch mit der kompletten Produktpalette.

MfG
 
Zuletzt bearbeitet:
naja, er hatte mir erlaubt EINEN wert online zu stellen, das hat er gestern auch mit angesehn.

:haha:
unglaublich, wie man sich solch einen mist ausdenken kann

@berni
du bist ja immernoch sehr optimistisch ;)
april wird es bestimmt nicht werden, aber ein release im mai ist gar nicht mal so abwägig
das sie ein quartal gesagt haben, kann auch bedeuten, dass sie auf keinen fall nochmal verschieben wollen und deshalb lieber einen großen zeitraum nennen

gruß klasse
 
@klasse08-15

FlagShip schrieb:
naja, er hatte mir erlaubt EINEN wert online zu stellen, das hat er gestern auch mit angesehn.

meine auch das er nur mist labert. erst darf er werte nennen wie A17, GPU und RAM takt, dann ein swiftech pelzier wakü bei 20°C sonstwas. anderseitig darf er kein bild zeigen vom score und systemdaten veröffentlichen. dann stimmt der chef zu das er einen wert online stellen darf, dann droht er mit rausschmiss wenn er es doch tut.

was soll man da noch sagen? wenn es denn wahrheitsgeträu wäre, hätten wir alle schon einen beweis zum score ... aber der herr hat ja schiss :d
 
sorry aber das es so endet habe ich von anfang an gewusst (wär sich an meine posts im #1 thread errinert) :rolleyes:

mfg
 
Zuletzt bearbeitet:
Was mich am meisten reizen würde, wäre endlich mal ein finales Bild einer Karte zu sehen. Und zwar ein Bild einer Karte für den nicht-OEM-Markt. Mich interessiert einfach der Lüfter :d.
 
wieso soll der bald dicht sein?
Hier wird immernoch über den R600 diskutiert.

So

Der Kühler würde mich auch interessieren. Ob monster oder nicht sei mal dahin gestellt.



greeeetz Philipp
 
@redeemer80
nur weil man eine person zu recht kritisiert soll der thread dicht gemacht werden? es liegt doch auf der hand, das an der sache was faul ist. sei es was es will.
 
Und wenn er wirklich nicht recht hat dann wird der gesteinigt!
richtig :fresse: ???
 
Kritisieren ist ja nur die eine Sache. Dagegen sagt ja auch keiner was, aber es kommt dabei auf die Wortwahl an. Wenn er nur schief von der Seite angemacht wird und beschimpft wird oder im unschöne Worte an den Kopf geschmissen werden, hat das nicht mehr viel mit sachlicher, begründeter Kritik zu tun, sondern ist eher Geflame und damit wird der Thread ganz schnell dicht gemacht.

Was die Glaubwürdigkeit von Flagship betrifft, so mache ich da keine Aussage meinerseits. Ich nehme sie so hin und dann werde ich beim Release ja sehen, ob seine Aussagen korrekt waren.

Der Kühler der Retail-Version interessiert mich aber auch. Mich wundert ein wenig, dass es nur Bilder der OEM Version gibt. Aber vielleicht will ATi uns damit ja überraschen (im positiven sinne).
 
Nene wenn dann wird der name Radeon abgeschafft und die machen einen neuen :d Ich hoffe nur das das Verschieben ordentlich Leistungszuwachs bringen wird. So wie es sich gehört ;)


greeeetz Philipp
 
glaube ich kaum, das man nach monate langer entwicklung nun den R600 cancelt. irgendwie muss ja wenigstens ein bisschen geld der kosten wieder rein. zumal der OEM, mid-segment, low-segment und mobile-segment versorgt werden will.
 
18000 3dmurk punkte sind einfach viel zu viel, wie ich finde, vor allem, weil die cpu mit sicherheit die graka ausbremst:btt:
 
ähm, die rechnung oben bezüglich der verlustleistung die bei overclocking entsteht, ist nicht sooo abwägig, nur warum sollten 1,3ghz nicht reell sein?

und ja ist der swifttech der da zu sehn ist, läuft mit 24V zugangsspannung und ein kleiner chiller hängt mit drin, der das wasser kühlt. die kühlung macht zusammen ca 290watt wech, und die temps liegen bei etwa 20-25C° stark schwankend.<---
^

welches NT verwendest du für die 24V spannung? wieviel ampere liegen da an?
kannst du den chiller ein wenig näher beschreiben?
du weisst das z.b. eine vapo LS (die alte 240er) bei ca. 180W~200W zum
kippen anfängt. ein pelzi das 290W wegdrückt sollte ein wenig näher
beschrieben werden;) . kannst zum aufbau mehr details bekanntgeben?
 
@redeemer80
nur weil man eine person zu recht kritisiert soll der thread dicht gemacht werden? es liegt doch auf der hand, das an der sache was faul ist. sei es was es will.

Unter Kritik verstehe ich etwas Anderes. Was ihr hier veranstaltet ist unsachlich und vollkommen unangebracht!
 
@all,

habe mich jetzt extra ein Paar Tage aus diesem Thread rausgehalten und auf Selbstregulierung gehofft, aber es haut leider nicht hin....
Folgende Leute, passt bitte auf eure Worte auf und schreibt was konstruktives zu dem Thema oder es gibt Konsequenzen. Es ist mir mittlerweile egal, ob ich mich damit unbeliebt mache oder nicht:

Koyote008
Jamesryan
Thunderbird21


Was Flagship betrifft, ob es nun die Wahrheit ist, oder nicht, es gab genug Anzeichen, auch bestätigt durch u.a. Wombat und Nakai, das manches was er sagt, Sinn macht und anderes nicht. Auf jeden Fall beschäftigt er sich mit dem Thema....was ich von vielen nicht sagen kann... Wo sind die News?
Anzweifeln darf jeder, nur die Art und Weise ist teilweise unterste Schublade.
Solche Sachen werden tatsächlich kommentarlos gelöscht...
Obwohl, kommentarlos ist heftig übertrieben, habe im 1. Thread zig Mal gefragt nur News zu posten oder zu kommentieren und es dezent zu halten....
Ich hoffe es haut hin, Obedire und ich gucken uns das ganze an. Wenn es hier nicht klappt, wird's halt ein GESCHLOSSENES STICKY und Löschung jegliger anderer Versuche einen neuen Thread zu öffnen......
Kommentare und Verbesserungsvorschläge so wie immer gerne per PN...

Greetz,


RM
 
Zuletzt bearbeitet:
@FlagShip:

Kannst du nichtmal ein Bild der Karte online stellen :fresse:. Oder kommt sonst wieder der "Chef" ins Spiel...

Naja, ich würde echt gerne mal wissen, wie der scheiß Lüfter aussieht, wobei der wohl dem der 8800er-Serie von nVidia ähneln wird.

MfG
 
Tja Flagship, ich für meinen Teil sehe deine Aussagen nun nur noch als "Raubtierfütterung". Aber mach' ruhig weiter. ;) Immerhin bleibt ein gewisser Unterhaltungswert...

Gehen wir mal wieder zur Normalität zurück:

Ich Spekuliere auf einen Takt mit Overdrive um die 900 MHz.
Stromaufnahme mit 8-Pin + 6-Pin bis zu theoretisch maximalen 250 Watt. ATI/AMD verbaut einen 8-Pin nicht zur Zierde. Und selbst wenn ein Respin vom Stromverbauch her sich mit 2 x 6-Pin begnügen könnte, werden sie sich damit nicht zufrieden geben - schließlich haben sie keine Leistung zu verschenken. Also wird der Takt angehoben. Und wie im alten Thread schon vermutet bin ich immernoch der Meinung, das der R600 hohe Taktraten braucht um konkurrenzfähig zu sein (ob in DX9 oder D3D10 sei mal dahingestellt). Wenn der R600 solch eine Reife und Leistung hätte wie auf den letzten paar Seiten dargestellt, würde ATI/AMD einen Teufel daran tun das Ding nicht zur CEBIT zu bringen!
 
@Sub-Zero: ^^
1.JPG
 
das ist der oem-kühler und der interessiert ihn bestimmt nicht

hotlinks sind übrigens unerwünscht

gruß klasse
 
k, der normale soll doch aber auch nur kürzer sein, oder?
 
Na wenn man sich das Bild auf Seite 1 anschaut , das kleine, könnte man auch meinen das der Kühler vielleicht der X1950XTX ähnlich ist.
 
Ich hätte da noch ne verrükte These zur Verschiebung des Realese Termin!!
Es könnte doch sein, das AMD/ATI den Realese Verschieben, da sie die GPU perfekt auf den kommenden K10 abstimmen wollen;)
Und da es eh noch kein DX10 Anwendungen gibt, besteht ja kein Grund zum Stressen!!!
So kann AMD/ATI die Zeit auch noch nutzen den R600 Fit für DX10 machen, da ich sehr daran zweifle, das die G80 wirklich gut bei DX10 Anwendungen abschneidet!!!!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh