RV610 & RV630 in 65nm

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD wird die kommenden DX10 Low-/Mid-End GPUs in 65nm fertigen und damit sich weiter von nVidia absetzten können.

Inwiefern weiter? :hmm:
Ist ja klasse dass ATi einen Schritt beim Fertigungsverfahren voraus ist, nur leider hat ATi das auch bitter nötig, wenn man die Verlustleistung der kompletten X1000er-Reihe betrachtet. Wäre schön wenn ATi mit der nächsten Generation in dieser Hinsicht zumindest mal in die Nähe von nVidia kommen würden.
Allerdings bezweifle ich dass nVidia schläft und nicht auch die nächsten 1-3 Monate die Fertigungsverfahren "anpassen" wird.
 
Zuletzt bearbeitet:
Klasse das macht Spass hier.
Also wenn mich in der Arbeit welche fragen ob ich bei einem Problem am PC helfen könnte antworte ich: "Was für einen PC hast du?"

Bekomme dann Antworten wie Dell, Siemens, HP.
Gut, welche CPU hast du - keine Ahnung
Welche Festplatte - keine Ahnung.
Welche Grafikkarte - keine Ahnung.

Deswegen finde ich die *ATI verliert Kunden weil doch Nvidia jetzt so tolle D3D10 Karten hat Geschichte* extrem lustisch. :lol:
 
Inwiefern weiter? :hmm:
Ist ja klasse dass ATi einen Schritt beim Fertigungsverfahren voraus ist, nur leider hat ATi das auch bitter nötig, wenn man die Verlustleistung der kompletten X1000er-Reihe betrachtet. Wäre schön wenn ATi mit der nächsten Generation in dieser Hinsicht zumindest mal in die Nähe von nVidia kommen würden.
Allerdings bezweifle ich dass nVidia schläft und nicht auch die nächsten 1-3 Monate die Fertigungsverfahren "anpassen" wird.

Habe ich oben schonmal erläuterst. Außerdem ist die Verlustleistung für den Gewinn ziemlich egal.
 
AMD wird die kommenden DX10 Low-/Mid-End GPUs in 65nm fertigen und damit sich weiter von nVidia absetzten können. Schon der kommende R600 wird in 80nm gefertigt (mal abgesehen von den jetzigen 80nm Modellen RV560/RV570).

Der RV630 wird die X1600-Reihe ersetzen, RV610 die X1300-Reihe



"sich weiter von Nvidia absetzen können"

Realitätsverlust ?

Noch haben Sie garnichts gekonnt , erst wenn verfügbar !


Greetz Koyote008

@cLiP1991: Wie soll nVidia die Leute wegschnappen wenn sie erst den G80 am Markt haben welcher nicht mal 1% abdeckt?

Du verdrehst wirklich alles , wenn einer wegschnappen muss ist es ATI ,
oder wie siehst Du den Marktanteil von 2005 und 2006 ?

Du kannst mich gerne berichtigen , hatte Nvidia nicht 2006
doppelten Marktanteil :wink:

Greetz Koyote008
 
Zuletzt bearbeitet:
@Koyote008: Wenn du nicht lesen kannst tust du mir leid. Ich habe X-Mal geschrieben, daß das Absetzen auf die Fertigungstechnologie bezogen ist. Liest du eigentlich einen Thread bevor du postest? Das soll jetzt nichts gegen dich persönlich sein, aber jetzt wird das schon zum 3. Mal aufgegriffen

Und ATi hat mit der X1650 XT und der X1950 Pro in einem wesentlich ergiebigeren Segment deutlich bessere Angebote. Da hilft der G80 rein gar nichts.
 
@Koyote008: Wenn du nicht lesen kannst tust du mir leid. Ich habe X-Mal geschrieben, daß das Absetzen auf die Fertigungstechnologie bezogen ist. Liest du eigentlich einen Thread bevor du postest? Das soll jetzt nichts gegen dich persönlich sein, aber jetzt wird das schon zum 3. Mal aufgegriffen

Und ATi hat mit der X1650 XT und der X1950 Pro in einem wesentlich ergiebigeren Segment deutlich bessere Angebote. Da hilft der G80 rein gar nichts.


Haben dir aber auch schon mehrere gesagt, dass das nix zu sagen hat, und sich ATI damit von niemandem absetzt.
 
Das ist Marktanalyse, da wissen wir hier glaube ich sehr wenig. Nicht jeder der sich informiert bekommt das richtige gesagt. Bei MediaMarkt würde als schnellste Karte eine 7800GTX empfohlen werden oder eine X1950 XTX. Wer z.Zt. die schnellste GPU hast ist unbedeutend.

yo, die sind doch froh wenn die ihre ladenhüter loswerden :haha:
 
Und ATi hat mit der X1650 XT und der X1950 Pro in einem wesentlich ergiebigeren Segment deutlich bessere Angebote. Da hilft der G80 rein gar nichts.

ich hab einen test gesehen, wo eine X1650XT mehr verbraucht als die X1800GTO, und das war nicht wenig
 
Zuletzt bearbeitet:
lol, was bringt dir die preisreduzierung des g80 im frühjahr, wenn du ihn schon gekauft hast. zumal gibts derzeit kein game was dx10 unterstützt, weshalb das argument "amd bringt dx10karten zu spät auf den markt" nicht gelten kann. eigentlich müsste man sagen "nvidia bringt dx10 karten zu früh auf den markt".

war doch damals bei der 6er reihe auch so (erschien am 14.april 2004): hatte schon einen haufen neue features, welches aber kaum ein game nutzte. glaube splinter cell3 war das erste, welches sm3 unterstützte und das kam am 31. märz 2005

Mir bringt das garnix, es ging mir um den genrellen Vorteil den Nvidia hätte. Von Dx10 habe ich nix geschrieben, der g80 hat einfach derzeit die beste BQ und leistung und jetzt erzähl mir nicht das man die ja im Moment eh nocht nicht braucht.

@Mondrial
Danke du Schlaumaier! Ich werde ja wohl noch ein sehr naheliegendes Thema anschneiden dürfen. Habe ja auch eine Frage zum Thema gestellt:shot:

Schon lustig wie die Fanboys hier auf einen losgehen:lol:
 
Ich finds lustig wie einige immer gleich persönlich werden müssen um griffige Argumente zu ersetzen ;)

Und nein, du solltest kein naheliegendes Thema anschneiden wenn es schon einen(oder mehrere) Threads zu diesem gibt.
 
@Koyote008: Wenn du nicht lesen kannst tust du mir leid. Ich habe X-Mal geschrieben, daß das Absetzen auf die Fertigungstechnologie bezogen ist.

Das "absetzen" ist nur leiner nix worauf man sich freuen sollte ... nV hat das bei 130nm gelernt und ATi hat es bei 90nm nachgemacht während nV mit 110nm den sicheren und besseren weg gewählt hatte - ein neuer Fertigungsprozess bedeutet auch neue Probleme.
 
@Koyote008: Wenn du nicht lesen kannst tust du mir leid. Ich habe X-Mal geschrieben, daß das Absetzen auf die Fertigungstechnologie bezogen ist. Liest du eigentlich einen Thread bevor du postest? Das soll jetzt nichts gegen dich persönlich sein, aber jetzt wird das schon zum 3. Mal aufgegriffen

Und ATi hat mit der X1650 XT und der X1950 Pro in einem wesentlich ergiebigeren Segment deutlich bessere Angebote. Da hilft der G80 rein gar nichts.

Vorweg , diesbezüglich brauche ich niemanden Leid tun , auch nicht
Dir :)

Und ja ich kann lesen, auch ganze Sätze , und ja es war auf die
Fertigungstechnologie bezogen.

FAZIT:

Dasselbe , ATI hat im Moment noch garnichts , erst wenn verfügbar
haben Sie erst etwas.

Und weil Du alles so genau haben möchtest und Dich auf die Fertigung
beziehst , hat ATI bei der letzten Generation leider keinen Vorteil
gebracht - daher braucht man die Fertigungstechnologie nicht als
Basis "des" Vorteils nehmen - zumindest nicht zwingend wie Du das
hier an den Mann bringen möchtest.

Auch wenn es zu hoffen wäre .... ansonsten ist es wie beim letzten
mal für ATI ... "kleinere Brötchen" backen ;)

Greetz Koyote008
 
Zuletzt bearbeitet:
imgp5553ga2.jpg


Mehr Bilder: http://www.pcgameshardware.de/?article_id=571589
 
Zuletzt bearbeitet:
Sehr interesaant ist, dass es den RV630 auch in einer Variante ohne PCIe-Stromstecker gibt. Das lässt endlich auf einen vernünftigen Stromverbrauch in der Mittelklasse (bei ATI) hoffen.
 
Er hat einen Stromstecker. Oben rechts.
 
Ich hoffe da gibts auch eine One-Slot-Lösung.

mfg Nakai
 
Das Pic ist bestimmt keine RV630, denn auf den anderen "nakten" Karten sind aufkleber von RV630 drauf, und die sind deutlich kürzer, ...
 
Stimmt. Braucht der R600 in 65nm vielleicht nur einen Adapter? Die RV630 & RV610 PCBs sind viel kürzer.
 
na sag ich doch, glaubt mir doch auch mal was :d
vllt ist es aber sowas wie ne GT bei der X1900er Serie, also mit weniger Power aber voller Länge, und brauch deshalb nicht so viel Strom, ...
 
Hello Leutz...

Was wird denn ATI für ne DX10 Midrange Karte zu Release verlangen?
bzw wieviel Memory und welches Modell wäre das denn??:p
 
*benches haben will*

und was man auch noch sagen muss:
die erste seite ist wirklich sehr amüsant, aber ich versuch mich garnicht einzumischen ^^
 
Ist denn schon bekannt wann die Midrangekarten wie x2600 Pro rauskommen?
 
Nein.. ist doch eh unsinnich das dx10 geblabber wenn selbst die 8800 gts 640 mit den dx10 schatten in hohen Auflößungen einbricht.. da ist eher ne billige 1950 pro zu empfehlen und ne generation abwarten und tee trinken.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh