ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
atis zukunft heisst nun Bum, shaka, laka :fresse:

edit:
ATI geht unter......

http://biz.yahoo.com/seekingalpha/060925/17431_id.html?.v=1

Zitat:
AMD will allow ATI’s discrete GPU [graphics processor] business to slowly die on the vine, although management will never be willing to admit it…the company’s long-term strategy is clear enough. AMD wants to be able to engage Intel across the market, including the enterprise business, and that means being able to offer the same kind of stable platforms to PC OEMs that Intel has managed. That can’t be done with third-party chipset vendors.
 
Zuletzt bearbeitet:
Was ist daran so lustig?
Das sind interne Codenamen und Codenamen sind dazu da um das eigentliche Produkt bis zum Release vor der Konkurrenz zu verbergen. ;)

Ohja und ATI geht außerdem wegen AMD unter, gaaaanz bestimmt. ;)
Siehe Statements von AMD zur Übernahme ATI's, das widerspricht sich vollkommen mit der Untergangsthese. Das AMD ATI nutzt um bessere Komplettpakete anzubieten ist logisch, aber auch vom Vorteil beider.
 
find die wortkombination aber trotzdem sau lustig ... Bum,Shaka,Laka :haha: :lol: :fresse: :shot:
 
das tolle ist ja das "Bum,Shaka,Laka" die zusammensetzung aus den 3 kommenden mainstream chips von ati ist.

RV610 = Bum
RV630 = Shaka
RV660 = Laka

:lol:
 
LOL, wollte grad auf dieses Bum, shacka, lacka hinaus :haha:

Aber Naja, find das irgendwie cool :d
 
ich mach mir weniger sorgen um amd. ati wird als name eh in paar jahren verschwinden.falls es keine amd gpu,s in 5-10 jahren mehr gibt solls mir egal sein. S3 wird Nvidia schon nicht zum monol gehen lassen, außerdem wollte intel ja auch wieder in den grafik karten markt einsteigen, mal sehen was die zukunft bringt
 
Wann wird denn ATI ihren R600 überhaupt vorstellen?!

Ich habe vor paar tagen auf einer Kanadischen website gelesen, dass die R600 reihe, 180 watt benötigen wird und das eine extra stromversorgung (extern) dabei sein wird (dann braucht man kein1000watt Netzteil!) . Der Kühler braucht auch keine 3 slotblende sonder nur 2 (wie üblich). Ich hoffe ATI wird uns bald denn realase datum genau sagen, hoffe noch im diesem Jahr!!!
 
Zuletzt bearbeitet:
Achso, dann habe ich da die Infos von nVidia und ATi vertauscht :)
 
G80 soll im november vorgestellt werden :wink:
 
push den mal auf dass neue gerüchte diese woche füllen werden :wink:

plant jemand ein CF oder SLI sys der kanidaten ?
wenn ja wie wird dass restliche sys aussehen ?
welche auflösungen sind geplant ?
möchte gern wissen ob die cpu stark genug sein wird bei auflösungen jehnseits von 1600x1200 :)
aber denke da werden die karten eher schwächeln als ein X2 @ 3 ghz oder ein C2D @ 3 ghz
 
ein c2d ist bei gleichem takt aber wesentlich schneller als ein X2 ;)

Werde meinen X2 dennoch behalten,und nen G80 (falls wirklich uni-shader etc) dazupacken.
Ansonsten heißt es warten auf den R600.

CF und SLI halte ich mit solchen karten für schwachsinnig, da Spiele bei denen man das gebrauchen könnte, weit nach hinten verschoben worden sind.

Alerdings hätte ich gegen eine 8900 GX2 die dann wieder nicht für den retailmarkt vorgesehen ist und wieder für 350€ verkauft wird, nichts einzuwenden! :bigok:

edit: boar, hammer Wetter draußen. Bin biken...
 
Zuletzt bearbeitet:
also wenn games in 4000x1xxx zockst kannste schon sli oder CF g80 r600 gebrauchen ;) ich weiss das ein c2d schneller ist beim selben takt, aber denke der x2 wär auch ok bei genug ghz
 
naja eher weniger, die 7900gto/gs wird P/L wohl besser sein als die 8600GTX und der 8800 und der 11800 wird ja schon zugesagt dass sie zu schwach sein werden für dx10 in vernünftiger darstellung. daher liegt der sinn bei den aller ersten dx10 mid range chips echt nur was für leute die auf vista umsteigen.
 
außerdem wollte intel ja auch wieder in den grafik karten markt einsteigen, mal sehen was die zukunft bringt

Intel und einsteigen im Grafikkartenmarkt?
Junge Intel ist mit 40% um längen Marktführend im Grafikkarten/Grafikchips Bereich und das seit eh und je. Aber natürlich nur weil Intel keine super High-End Grafikchips hat ist es bisher irrelevant geblieben, aber so ist das halt, die Marktanteile und das Geld holt man sich durch Low-Budget Chips die man auch in Chipsätzen integrieren kann und wie man da sieht steht da ATI auch nicht schlecht da.
Siehe: http://www.hartware.de/news_40391.html
(sind vom 2 Quartal diesen Jahres).
 
Zuletzt bearbeitet:
freu mich auch auf den g80. hab mir grad meinen neuen rechne gabut und wollt eigentlich erst noch ne 7950gt reinhauen. dacht ich mir aber iwie das das schwachsinn ist für 3 monate da so eine karte reinzukloppen, schlag mich nun bis zum g80 mit ner 7600gs rum und harre der dinge die da kommen.
hoffentlich wirds kein reinfall... also so in bezug auf lautstärke/kühlmöglichkeiten, stromverbrauch... - von der leistung mal ganz abgesehen :)
 
Intel und einsteigen im Grafikkartenmarkt?
Junge Intel ist mit 40% um längen Marktführend im Grafikkarten/Grafikchips Bereich und das seit eh und je. Aber natürlich nur weil Intel keine super High-End Grafikchips hat ist es bisher irrelevant geblieben, aber so ist das halt, die Marktanteile und das Geld holt man sich durch Low-Budget Chips die man auch in Chipsätzen integrieren kann und wie man da sieht steht da ATI auch nicht schlecht da.
Siehe: http://www.hartware.de/news_40391.html
(sind vom 2 Quartal diesen Jahres).

ich weiss ich rede aber jetzt von gamer karten, in diesem forum wohl verständlich :)
 
wenn ein G80 wirklich hierzu in der Lage ist, dann führt kein Weg dran vorbei.

Langsam fange ich an die ganzen komischen Spekulationen zu glauben...

btw: wahnsinn was mit Quadcore möglich ist oder? Physikkarten haben keinen Existenzgrund.
 
push den mal auf dass neue gerüchte diese woche füllen werden :wink:

plant jemand ein CF oder SLI sys der kanidaten ?
wenn ja wie wird dass restliche sys aussehen ?
welche auflösungen sind geplant ?
möchte gern wissen ob die cpu stark genug sein wird bei auflösungen jehnseits von 1600x1200 :)
aber denke da werden die karten eher schwächeln als ein X2 @ 3 ghz oder ein C2D @ 3 ghz

Also ich werd mir im März 07 ein neues Monstersys zu legen:
2x die beste R600-Graka die zu der Zeit am Markt is @Crossfire verseht sich.(was sonst:drool: )
Dann nen Kentsfield von Intel (Quadcore), den für 1k€ wahrscheinlich, also den Core 2 Extreme QX6700.
Und dann noch nen 22-Zoller Widescreen mit ner Auflösung von 1680x1050.
 
wenn ein G80 wirklich hierzu in der Lage ist, dann führt kein Weg dran vorbei.

Langsam fange ich an die ganzen komischen Spekulationen zu glauben...

btw: wahnsinn was mit Quadcore möglich ist oder? Physikkarten haben keinen Existenzgrund.

Sieht schön aus, aber nur die Bilder, die Videos naja, da ist nichts zu erkennen. G80 hin oder her. Schaut nach einer sehr stark optimierten Szene aus. Sicherlich wird das Game an Ende so aussehen aber niemals wurde hier eine Beta verwendet. Naja Intel eben...

mfg Nakai
 
damn , das lief auf ner 7900GTX :eek:

The demo ran extremely well on the test system, which was a Core 2 Quad running at 3.73GHz with a GeForce 7900 GTX. Markus said that it would have run just as well if the Core 2 Quad was running at its default clock speed, which we assume was 2.66GHz

Quelle
 
Zuletzt bearbeitet:
wenn ein G80 wirklich hierzu in der Lage ist, dann führt kein Weg dran vorbei.

Langsam fange ich an die ganzen komischen Spekulationen zu glauben...

btw: wahnsinn was mit Quadcore möglich ist oder? Physikkarten haben keinen Existenzgrund.

Was mit QuadCore alles möglich ist ? Bis auf die Weitsicht sieht man nix. Der mini pups Tornado reist paar große Teile aus, bis das Häusl verschwindet !
Das sind nicht viele Teile...das ist ein Witz im Gegensatz zu dem, was mit dem Physik Prozessor möglich wäre, zudem würde man im Moment mit einer PPU für solche Effekte günstiger kommen...ich sag nur >500 Euro QuadCore...

Na klar, so wie in Alan Wake reicht die Physik schon...aber man sollte deswegen nicht die PPU schlechtreden, da man die Effekt-Intensivität nicht vergleichen kann. :)

Bitte Offtopic bleiben... ich seh es schon...gleich gehts hier nurnoch um Physik und Quacore ^^

Be water my friends !
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh