ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fertigungsverfahren /= die ganze Technologie -> sonder der unwichtigste teil

man sollte ATI uU noch nich abschreiben ist ja immerhin schon ihre 2nd Gen US-GPU...
und die Typen hatten ja noch andere Schen zu tun außer am R600 zu basteln ;)

von mir aus gesehen hat jeder der High-End kauft das eine oder andere Rad ab (aber das darf man hier ja nicht zu laut sagen ;) ) und im Midrange haben wir schon viel länger Stillstand... ach ja und die 8600 -> then life`s just fast enough ;)

WILL MIDRANGE FAKTEN!!

@xptweaker
bist du ein kleiner anti-wombat? ;)
 
Zuletzt bearbeitet:
Ahso, darum kann ich also einen R600 kaufen und der G80 verschiebt sich seit Ewigkeiten weil er in 90nm nicht realisierbar ist.
Hups, die Realität sieht ja ganz anders aus...



R630? Was ist das? Meinst du den RV630? Viel Spaß mit der "brachialen Spieleleistung" und der hypermodernen Technologie. ;)



Realitätsverlust? :stupid:
1. 3dfx hatte mit der Voodoo 5 schon einen externen Stromanschluss, die 6000er brauchte gar ein eigenes Netzteil!
2. NVIDIA ist also allein Schuld daran, dass Grakas mehr Strom brauchen. Alls klar! :bigok:
3. Jep, ATi macht alles richtig, warum sollen die auch neue Karten raus bringen? Wozu Geld verdienen? Hauptsache "modernere Technologie" :banana:

MfG :cool:

Die Voodoo Grafikkarten haben aber auch erst einen Lüfter benötigt, als nVidia den 6-Monatigen Produktzyklus eingeführt hatte.

Ich will darauf hinaus dass die Karten eine so hohe Verlustleistung haben, weil der Produktzyklus zu schnell ist. So schnell kann man nicht auf kleinere Fertigungsverfahren aufrüsten.

Warum werden denn G80 und R600 "Next-Generation" GPUs genannt ? Schaut euch die Karten doch mal an. Die benötigen einen Doppel-Slot-Lüfter und belegen deshalb einen Steckplatz, der für eine andere Karte vorgesehen ist und noch extra Strom übers Netzteil. "It's not a bug it's a feature" ?!?

Rein wirtschaftlich ist meine Meinung vielleicht nicht so das wahre. Mir geht es eher um die Technik.

Gruß

Tikonteroga
 
Die Voodoo Grafikkarten haben aber auch erst einen Lüfter benötigt, als nVidia den 6-Monatigen Produktzyklus eingeführt hatte.

Ich will darauf hinaus dass die Karten eine so hohe Verlustleistung haben, weil der Produktzyklus zu schnell ist. So schnell kann man nicht auf kleinere Fertigungsverfahren aufrüsten.

Warum werden denn G80 und R600 "Next-Generation" GPUs genannt ? Schaut euch die Karten doch mal an. Die benötigen einen Doppel-Slot-Lüfter und belegen deshalb einen Steckplatz, der für eine andere Karte vorgesehen ist und noch extra Strom übers Netzteil. "It's not a bug it's a feature" ?!?

Rein wirtschaftlich ist meine Meinung vielleicht nicht so das wahre. Mir geht es eher um die Technik.

Gruß

Tikonteroga

Kauf dir eine passive Midrange-Karte und heul hier nicht rum!
GPUs sind weitaus komplexer als z.B. CPUs, die brauchen daher Strom und Kühlung.

MfG :cool:
 
oh nein wie konnte NV nur den GFX markt betreten. Tatsache ist das 3dfx einiges falsch gemacht hat. aber das gehört nicht zum thema und dein versuch NVidia zum UR Sünder zu machen hat rein garnichts mit dem thema zutun. Du willst doch nur provozieren.
 
Die Voodoo Grafikkarten haben aber auch erst einen Lüfter benötigt, als nVidia den 6-Monatigen Produktzyklus eingeführt hatte.

Ich will darauf hinaus dass die Karten eine so hohe Verlustleistung haben, weil der Produktzyklus zu schnell ist. So schnell kann man nicht auf kleinere Fertigungsverfahren aufrüsten.

Warum werden denn G80 und R600 "Next-Generation" GPUs genannt ? Schaut euch die Karten doch mal an. Die benötigen einen Doppel-Slot-Lüfter und belegen deshalb einen Steckplatz, der für eine andere Karte vorgesehen ist und noch extra Strom übers Netzteil. "It's not a bug it's a feature" ?!?

Rein wirtschaftlich ist meine Meinung vielleicht nicht so das wahre. Mir geht es eher um die Technik.

Gruß

Tikonteroga
Vielleicht solltest du dir den neuen ATi Abakus kaufen. Dessen TDP liegt bei 0W und er hat nicht mal Kühlkörper nötig. Einzig die dünnen Metallstäbe dienen zur Abfuhr der durch die Finger produzierten Wärme...
 
Zuletzt bearbeitet:
nicht sehr prall
 
bitte postet den bench und die news das die xtx erst im 3.quartal kommt noch 50x mehr... ich habs ja net schon gesehen :rolleyes:

.... naja aber die werte sind wirklich nicht der renner. cod2 find ich gut, oblivion okay und der rest ist dann eher schon zu knapp. also bleib ich bei meiner gts.

mfg
 
jetzt fleissen die infos ja wie ausm eimer ohne boden:bigok:
Ein Eimer ohne Boden wäre ein Rohr ;)

Naja im Ernst. Wer weiß wie verlässlich die Infos sind. Solange die NDA noch steht, sind das für mich noch keine Werte auf die ich was geben würde. Mir egal ob ATi oder NVidia die schnellsten Karten hat, ich werd mich für die entscheiden, die die meiste Performance für das Geld bieten, was ich gewillt bin auszugeben.
 
wo ist eigentlich wombat? ist so still um ihn geworden
 
--->gummi gefressen und weggehüppt...


...echt komisch... :hmm:
 
jup verwunderlich :d w0mbat werden einfach nicht die richtigen worte einfallen , deshalb denkt er sich tauche ich lieber mal ne zeit lang nicht auf.

laut seinen aussagen bisher zeigt eine XT der GTX ja locker wo der hammer hängt .... welches die digitimes benches "leider" nicht bestätigen

Treiber wurde auch auf beiden seiten der aktuellste gewählt
 
Wenn ihr meinen Text richtig objektiv gelesen hättet, hättet ihr gemerkt, dass ich nicht nur nVidia kritisiert habe sondern auch ATI. In diesem einen Fall, den wir jetzt haben, finde ich ATI eben "besser". Nicht aber weil es ATI ist, sondern weil die eine GPU der gleichen Performance-Klasse kleiner herstellen und deshalb eine geringere TDP haben. Ich bin kein ATI-Fanboy ... meine letzten 5 Grafikkarten haben eine nVidia GPU.

Lasst euch doch nicht so dermaßen provozieren, nur weil ich eine GPU oder die Strategie eines Unternehmens bzw. von zwei Unternehmen kritisiert habe.

Gruß

TIkonteroga
 
er gleichen Performance-Klasse kleiner herstellen und deshalb eine geringere TDP haben.

und das ist eben nciht der FALL
 
mal was anderes,
auf den "angeblichen" Benches von dailytech steht ja was von 9800Points 3DMark06 für die GTS 640MB mit nem Quadcore QX6700.

Sind denn knapp 10k im Std. Takt mit der GTS und dem Std. Quadcore überhaupt möglich???
Der C2D mit 3,46GHz von CB macht mit der GTS gerade mal 9000 Punkte.

so riesig stelle ich mir den Unterschied nicht vor, ... bei mir waren es zwischen 2,6GHz mit 2 Kernen und 2,6GHz mit 4 Kernen gerade mal 500 Punkte am Ende.
 
Wenn ihr meinen Text richtig objektiv gelesen hättet, hättet ihr gemerkt, dass ich nicht nur nVidia kritisiert habe sondern auch ATI. In diesem einen Fall, den wir jetzt haben, finde ich ATI eben "besser". Nicht aber weil es ATI ist, sondern weil die eine GPU der gleichen Performance-Klasse kleiner herstellen und deshalb eine geringere TDP haben. Ich bin kein ATI-Fanboy ... meine letzten 5 Grafikkarten haben eine nVidia GPU.

Lasst euch doch nicht so dermaßen provozieren, nur weil ich eine GPU oder die Strategie eines Unternehmens bzw. von zwei Unternehmen kritisiert habe.

Gruß

TIkonteroga

dir ist aber auch hoffentlich bewusst das ati fast 2/3 jahr länger zeit hatte/hat. klar scheint es ökologischer wenn die high-end gpus auf fortschrittlichere technologien zurückgreifen, aber der r600 ist trotz 80nm fertigung alles andere als umweltbewusst.

btw. finde ich es respektabler für nv das sie ein fast 700mio. transi-monster in 90nm auf den markt geworfen haben.

mfg
 
Zuletzt bearbeitet:
Wann soll der R600 denn nun vorgestellt werden?

Manche reden jetzt plötzlich von Mai ich dachte sie sollte heute präsentiert werden:hmm: ?!

Gruß
 
das is normal mit dem quad, die cpu punkte steigen dadurch relativ stark an
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh