ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Fanboy hin oder her, ich bin auch ATI Fanboy und hab ne 8800GTS 640 MB, konkurrenz belebt das Geschäft ganz einfach, ist die XT schneller wie die GTX dann kommt die XT, ist die Ultra schneller als die XT/X dann kommt halt die Ultra.
Obwohl ich halt mit ATI die besseren erfahrungen gemacht hab, würd ich nicht sagen das NV schlecht ist, wenn dann nur der Treiber support der ist ATI nunmal weit unterlegen.

War doch schon immer so jeder Seite hat ihre Stärken und Schwächen, ich finds sogar gut, wären alle gleich wäre es langweilig und würd mir ne Konsole holen :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja aber warum bringt man die xtx nicht gleich ? was will ich mit ner xt mit 512mb vram ?

Also ich brauch ne Karte mit mindestens 768. Die Enthusiasten warten auf die XTX. Schade :(
Die meinung dazu (Gerüchte) ist das ATi net genug GDDR4 bekommt um genug Karten herzustellen für den Launch ... ob das wahr ist - KA, müsste man bei Samsung nachfragen wie die Lieferbarkeit ist ;)
 
Ja aber warum bringt man die xtx nicht gleich ? was will ich mit ner xt mit 512mb vram ?

Also ich brauch ne Karte mit mindestens 768. Die Enthusiasten warten auf die XTX. Schade :(

Ich glaub mein Schwein pfeifft - lies dir halt endlich mal den Thread durch dann wüsstest du auch wissen das sie mit der Produktion von 65nm Chip nicht hinterher kommen, das mit dem Speicher kommt auch noch dazu :-[

Gruß Simon
 
Zuletzt bearbeitet:
Ich weiß gar nichts das geb ich zu, aber du glaubst doch net das ATI die Karte für 350€ verschleudert. Da würden die ja Verlust machen.

Ich denke 400€ ist realistisch, am Releasetag sicher um die 500€ wie es halt immer so ist.
 
Ich glaub ATI macht das anders mit dem VRAM, mit meinem x1950XTX CF gespann hatte ich in KEINEM Game über 420 MB VRAM verbrauch(bei 1600x1200 alles maxed), was ich bei der NV jetzt nicht sagen kann, wo 600 MB schonmal voll werden.
 
Ich weiß gar nichts das geb ich zu, aber du glaubst doch net das ATI die Karte für 350€ verschleudert. Da würden die ja Verlust machen.

Ich denke 400€ ist realistisch, am Releasetag sicher um die 500€ wie es halt immer so ist.

lol
ich denke schon das die 400€ realistisch sind
wieso hab ich in diesem thread schon oft genug gesagt

und wo macht ati da verlust? die nachfrage wäre bei 350-400€ sicher höher als bei einer 500€ karte
die würden die verspätung so wenigstens etwas ausbügeln

aber "verlust", wasn schwachsinn
 
Radeon HD 2900 XT to launch in mid May

http://www.fudzilla.com/index.php?option=com_content&task=view&id=560&Itemid=1



eigentlich nichts neues, aber wenigstens scheint sich das bekannte zu bestätigen.

kleine zusammenfassung:
- Grund der Verspätung des R600 sei der Treiber gewesen
- Mitte Mai sollen die Karten in den Handel kommen
- offizieller Launch-Day könnte der 14.Mai sein
- die XTX komme frühestens Juni
- die XTX würde viel teurer, jedoch kaum schneller werden



ich finde die news klingt nicht sehr optimistisch, da scheinbar nur durch den Treiber die G80 geschlagen werden kann. Denke der Vorsprung wird höchstens 10% betragen, wenn überhaupt. naja mal sehen. Die Vista-Treiber sollen ja (laut "Gibbo") den Nvidia Treibern überlegen sein. das wär ja schon mal was.
 
Zuletzt bearbeitet:
Ich glaube es bringt nicht mehr sonderlich viel hier überhaupt was zu posten da sich nahezu immer jemand der G80 Anhänger irgendwie angesprochen fühlt!
Teilweise auch nur um der postenden Person zu unterstellen das se ein Fanboy ist.

So ein Schwachsinn, ... neja aber wird man wohl nicht vermeiden können!
Hinzugefügter Post:
Übrigens, um noch mal auf die Sache mit dem HDMI und DVI, bzw. dessen Bild+Ton Übertragung zurück zu kommen!
Wieso sollte es denn nicht möglich sein das über DVI gleichzeitig Bild und Ton übertragen wird?

Bei einer HDMI Verbindung wird das Signal verschlüsselt, dann wird es über das Kabel geschickt und am anderen Ende wieder entschlüsselt, dabei laufen Bild und Ton Daten im selben Datenstrom.
Zum übertragen wird TMDS verwendet, das ist ein Standard von Silicon Image.

Eine Single Link DVI-D Verbindung setzt beim übertragen von Daten auf den selben Standard (TMDS) und bietet die gleichen Pins, die zur Übertragung von Daten möglich sind.

Nur eben muss beim sendes des Signals der Ton und das Bild im gleichen Datenstrom übertragen werden. Somit könnte man praktisch gesehen das gleiche Signal übertragen, wie im HDMI Stecker übertragen wird.
Man muss nur sicher stellen das die Graka die Möglichkeit hat den Sound digital weiter zu geben (soll sie ja haben) und es muss die Ausgabe eines HDCP geschützem Signals möglich sein (gibts ja schon länger).

Also woran soll denn die Sache scheitern?
Wenn ein und der gleiche fremde Übertragungsstandard verwendet wird um bei zwei verschiedenen Steckverbindungen verschiedene Signale zu übermitteln, und auch noch die Steckverbindungen elektrisch Pinkompatibel sind, dann muss es möglich sein mittels Adapter das Signal auch über den anderen Stecker zu übertragen.

Sagt mal was dazu :fresse:
 
Zuletzt bearbeitet:
@fdsonne

Naja das es geht steht ja ausser Frage! Der HDMI Standart beinhaltet ja die Übertragung von Bild und Ton über die Buchse (bzw. über DVI - ist ja kompatibel).
Zur Zeit streitet man sich ja nur darüber ob es auch noch bei der höchsten Qualitätsstufe möglich ist (also 1080p bzw. 1200p und de digitale HD Dingsbums Sound) oder ob da die Karten irgendwelche Einschränkungen haben.

Ausser ich hab das nun flach verstanden :fresse:

Aber wie immer kann man das erst Sagen wenn die Teile auch da sind...

Gruß

Simon
 
Zuletzt bearbeitet:
Type A HDMI is backward-compatible with the single-link Digital Visual Interface (DVI) used on modern computer monitors and graphics cards. This means that a DVI source can drive an HDMI monitor, or vice versa, by means of a suitable adapter or cable, but the audio and remote control features of HDMI will not be available. Additionally, without support for HDCP, the video quality and resolution may be artificially downgraded by the signal source to prevent the end user from viewing or especially copying restricted content. Type B HDMI is similarly backward-compatible with dual-link DVI.
Quelle: http://pinouts.ru/Video/hdmi_pinout.shtml

daher kam auch meine frage
 
hm also ich glaub der r600 sollte getrost da bleiben wo er herkam. Ist jetzt kein fanboy gelaber, aber wenn man ne karte released die ein halbes Jahr später kommt als der Wiedersacher und die nichma schneller ist .... ??

Heute wieder neuer Nvidia Treiber der Gamez und Penismarks dermaßen beschleunigt ;)
 
hm also ich glaub der r600 sollte getrost da bleiben wo er herkam. Ist jetzt kein fanboy gelaber, aber wenn man ne karte released die ein halbes Jahr später kommt als der Wiedersacher und die nichma schneller ist .... ??

Heute wieder neuer Nvidia Treiber der Gamez und Penismarks dermaßen beschleunigt ;)
Wer sagt dir, dass sie nicht schneller ist ;)???

MfG
 
annixp merkst du eg noch wie lächerlich du dich machst
in diesem thread gehts um infos zum r600
nich um die neusten treiber von nv
klar hat de rneue treiber wieder nen leistunssprung geschafft, aber wartet doch erstma ab

und ich hoffe nu is endlich ruhe mit dem scheiss hickhack
 
@fdsonne

Naja das es geht steht ja ausser Frage! Der HDMI Standart beinhaltet ja die Übertragung von Bild und Ton über die Buchse (bzw. über DVI - ist ja kompatibel).
Zur Zeit streitet man sich ja nur darüber ob es auch noch bei der höchsten Qualitätsstufe möglich ist (also 1080p bzw. 1200p und de digitale HD Dingsbums Sound) oder ob da die Karten irgendwelche Einschränkungen haben.

Ausser ich hab das nun flach verstanden :fresse:

Aber wie immer kann man das erst Sagen wenn die Teile auch da sind...

Gruß

Simon

Neja also da HDMI ja theoretisch 1080p Bild inkl. Ton übertragen kann sollte das auch machbar sein, wenn das geschütze Signal über den DVI Stecker geschickt wird. Da die Datenleitungen die gleichen sind.
Für größere Auflösungen würde man dann wohl HDMI Typ B Stecker bzw. Kabel nutzen müssen, diese bieten wie beim DualLink DVI 6 anstatt nur 3 TMDS Leitungen.

Es wäre auch sehr unwarscheinlich das ATI/AMD keine zwei DVI Stecker verbauen auf der Karte. Zwei mal DVI + HDMI geht ja platztechnisch auch nicht. Da gerade im Highendbereich oft auch mehrere Monitore eingesetzt werden und es derzeit ja noch nicht so ist das jeder Monitor nen HDMI Eingang hat!

@DOCa Cola
mhhh
ich weis nicht, aber wie gesagt es muss technisch möglich sein, da sich eigentlich nur der Steckertyp ändert.
Das mit der "remote controll features" ist klar, also das diese bei nem anschließen über nen DVI Stecker nicht gehen, da der DVI Stecker dafür keinen Pin bereit stellt. Aber das brauch man denke ich mal auch nicht zwingend, ... :d

@annixp
langsam nervst du, ...
ürigens ist es mindestens genau so lächerlich das NV ne Karte released aber halbwegs funztende Treiber erst ein halbes Jahr später bringen können, da hätten se ihre Karte auch dort lassen können wo se hergekommen ist :shot: :lol:
Warum müsst ihr NV Besitzer diese Firma immer so in den Himmel heben, ist doch Schwachsinn, denn NV macht genau so Fehler wie andere, ...
 
Zuletzt bearbeitet:

Sorry da hab ich was verwechselt. Mir sind die HDMI Standarts nicht so geläuftig. Hab zuerst immer gedacht das der Sound erst später in den HDMI Standart reingepackt wurde aber dem ist nicht so.

Ihr habt recht, Sound über DVI geht nicht (wenn der Wikipedia Artikel stimmt ;) ).

Könnte es eventuell sein das die Karten nicht zwei DVI-Buchsen sondern eventuell 1xDVI und 1xHDMI haben? Dann wär die Sache ja klar. Oder wurde schon irgendwo explizip das Gegenteil gesagt?

Gruß

Simon
 
wenn ATI/AMD es tatsächlcih schaffen sollte die ganze family zu veröffentlichen und die Karten zu den Preisen zu verkaufen, dann machen die aber nVidia ganz schön Druck. Wenn man mal denkt was diie Karten in der Herstellung so kosten, ganz bestimmt nicht 400 oder 500 EUR! Diese Brnachen, besondes die Elektronik Industire rechnen mit 2 - 3-%-Zahlen als Gewinnen! Da hat sich im Vergleich zu früher nichts geändert. Da wird ein neuer Fertigungsprozess entwickelt (JA, er bringt Vorteile auf der technischen seite....)so dass die Firmen ihre chips noch kosten künstiger fertigen können und so ihren Gewinn maximieren, denn nur darum geht es!

Und zu der XTX, die wird lediglich, auch wenn sie NUR 10% schneller sein sollte als die 8800er am Anfang, als Prestige-objekt dienen. Ich vermute ATI/AMD wird sich noch ein bisschen mit den Treibern befassen und aus der Karte noch paar Porzente herasuholen können. Aber für den Preis ist das dann schon okay bis angemessen.
 
Zuletzt bearbeitet:
muss jetzt annixp mal in schutz nehmen .... nv bringt jetzt eine treiber bombe nach der andren ... glaube nicht das die 2900xt die gtx schlägt.

siehe x1800 release da kam am selben tag die nv treiber bombe :d
 
Es wäre auch sehr unwarscheinlich das ATI/AMD keine zwei DVI Stecker verbauen auf der Karte. Zwei mal DVI + HDMI geht ja platztechnisch auch nicht. Da gerade im Highendbereich oft auch mehrere Monitore eingesetzt werden und es derzeit ja noch nicht so ist das jeder Monitor nen HDMI Eingang hat!

Da hast du auch wieder recht.... hach ich weiß doch auch nicht weiter :-[

Warten und Sehen...

Hinzugefügter Post:
- die XTX würde viel teurer, jedoch kaum schneller werden

Na ja wenn ich die Aussage vom Fuad interpretiere dann meinte er das der Unterschied von DDR3 zu DDR4 nicht sehr hoch ausfallen würde. Er bezog sich, nach meinem Verständnis, nicht auf die XT zur XTX ;)

Wie aber siehts mit der GPU aus? 65nm und dadurch mehr Mhz? Ich kann mir nicht vorstellen das ATI bei den Karten nur mehr Speicher draufklebt.

Gruß

Simon
 
Zuletzt bearbeitet:
Es wäre auch sehr unwarscheinlich das ATI/AMD keine zwei DVI Stecker verbauen auf der Karte. Zwei mal DVI + HDMI geht ja platztechnisch auch nicht. Da gerade im Highendbereich oft auch mehrere Monitore eingesetzt werden und es derzeit ja noch nicht so ist das jeder Monitor nen HDMI Eingang hat!
ich frage mich daher auch wie ati das anstellen will. klar, adapter von hdmi auf dvi-d würde gehen, aber dann entfällt das analog signal, was auch wieder blöd wäre. andererseits gibt es keine dvi spezifikation welche soundübertragungen zulässt. mich wundert es einfach nur das ati dann wohl gegen die dvi spezifikation diesen port mit audio signalen belegt. es wird ja irgendeinen grund gegeben haben, das inzwischen nicht eine neue revision der dvi spezifikation erschienen ist die es auch erlaubt digitales audio zu übertragen...
Hinzugefügter Post:
ja, fuads aussage zum kostenunterschied ist mir auch noch nicht ganz klar, den satz finde ich ziemlich wirr geschrieben. aber ich habe es auch so interpretiert, das die xtx verhältnismäßig teuer zur xt werden wird, da der ddr4 speicher nicht so große leistungszuwächse mit sich bringt, aber diesen trotzdem teuer bezahlen muss.
 
Zuletzt bearbeitet:
ja, fuads aussage zum kostenunterschied ist mir auch noch nicht ganz klar, den satz finde ich ziemlich wirr geschrieben. aber ich habe es auch so interpretiert, das die xtx verhältnismäßig teuer zur xt werden wird, da der ddr4 speicher nicht so große leistungszuwächse mit sich bringt, aber diesen trotzdem teuer bezahlen muss.

Richtig, so habe ich das auch verstanden. Der Preisunterschied kommt aber denke ich mal eher dadurch zustande, dass doppelt so viel Speicher verbaut ist und nicht hauptsächlich wegen DDR4...
 
muss jetzt annixp mal in schutz nehmen .... nv bringt jetzt eine treiber bombe nach der andren ... glaube nicht das die 2900xt die gtx schlägt.

siehe x1800 release da kam am selben tag die nv treiber bombe :d

Wird ja wohl auch mal Zeit, ist immerhin schon ein halbes ja nach G80 release, bzw. das kann man von NV auch erwarten das die für ihre Karten ordentliche Treiber bringen.

Wegen der X1800, das mag sein, aber am Ende war zumindest was Leistung angeht die ATI im Durchschnitt überlegen. Mal von der 7800GTX512MB abgesehen, ...

Das gehört hier aber nicht rein

Da hast du auch wieder recht.... hach ich weiß doch auch nicht weiter :-[

Warten und Sehen...
Hinzugefügter Post:


Na ja wenn ich die Aussage vom Fuad interpretiere dann meinte er das der Unterschied von DDR3 zu DDR4 nicht sehr hoch ausfallen würde. Er bezog sich, nach meinem Verständnis, nicht auf die XT zur XTX ;)

Wie aber siehts mit der GPU aus? 65nm und dadurch mehr Mhz? Ich kann mir nicht vorstellen das ATI bei den Karten nur mehr Speicher draufklebt.

Gruß

Simon

Denke ich auch, mit 65nm und ner guten Taktsteigerung sollte das gut machbar sein.
Oder alternativ 65nm und gleichen Takt lassen, damit mehr Raum für OC bleibt.
wäre auch OK.

ich frage mich daher auch wie ati das anstellen will. klar, adapter von hdmi auf dvi-d würde gehen, aber dann entfällt das analog signal, was auch wieder blöd wäre. andererseits gibt es keine dvi spezifikation welche soundübertragungen zulässt. mich wundert es einfach nur das ati dann wohl gegen die dvi spezifikation diesen port mit audio signalen belegt. es wird ja irgendeinen grund gegeben haben, das inzwischen nicht eine neue revision der dvi spezifikation erschienen ist die es auch erlaubt digitales audio zu übertragen...

Das mit den Spezifikationen ist so eine Sache, es wird nämlich so wie ich das verstanden habe nicht explizit verboten das Audiosignal mit über DVI zu schicken. Wie gesagt technisch sollte das machbar sein. Von daher wird wohl keiner was dageben haben können.
Denke mal auch nicht das das jemanden Stören würde, HDCP gibts ja jetzt schon über DVI. Die X1950Pro kann das zumindest wenn man dem Aufkleber auf der Packung glauben schenkt.
Will damit sage das HDCP auch nicht in den Speks von drin steht, ...

Warum es keine Spezifikation gibt welche Audio über DVI ermöglicht, weis ich net. Aber muss es wohl auch nicht, da es ja HDMI dafür gibt. Damals wo HDMI verabschiedet wurde, war DVI zwar verbreitet, aber im TV Bereich (also dort wo Bild + Ton in einem Kabel gebraucht wird) wurde ja bis zu der Zeit Analoges Bild + Digitalen Ton (spdif) bzw. Analogen Ton verwendet.
Und als neuen Std. war dann HDMI vorgesehen, da lohnt es ja imho net DVI noch weiter aufzubohren.



Was ich mir aber vorstellen könnte, das ein DVI-I (Duallink) + ein HDMI Typ B Port eingesetzt werden könnten, mit nem beiliegenden HDMI to DVI Adapter könnte man somit zwei Digitale TFTs via DVI anklemmen.
Der alte Analogmoni geht via Adapter an den DVI-I.
Und für die TV wiedergabe kann direkt der HDMI Port genutzt werden.
So könnte man es machen, finde aber HDMI+Adapter to DVI + DVI Stecker vom Monitor sieht sehr wacklig aus, ...
 
Zuletzt bearbeitet:
laut news bei google, soll die r600 generation schneller und so um die 150 bis 300 dollar billiger sein wie die nvidia karten, kommt halt auf das modell an.
diese karten werden so schnell wie es geht auf die 60 nm umgestellt, sobald diese karten rauskommen werde ich mir wohl ne ati karte kaufen müssen, vonwegen preis leistung oder nvidia senkt die preise um cirka 50 % dann werde ich nochmal überlegen müssen.

was spät kommt wird endlich gut !!!!!!

gruss

nappi
 
laut news bei google, soll die r600 generation schneller und so um die 150 bis 300 dollar billiger sein wie die nvidia karten, kommt halt auf das modell an.
diese karten werden so schnell wie es geht auf die 60 nm umgestellt, sobald diese karten rauskommen werde ich mir wohl ne ati karte kaufen müssen, vonwegen preis leistung oder nvidia senkt die preise um cirka 50 % dann werde ich nochmal überlegen müssen.

was spät kommt wird endlich gut !!!!!!

gruss

nappi

:stupid:

sag mal kannst du eigentlich lesen? es wird keine wunderkarte ala flagship geben!
 
laut news bei google, soll die r600 generation schneller und so um die 150 bis 300 dollar billiger sein wie die nvidia karten, kommt halt auf das modell an.
diese karten werden so schnell wie es geht auf die 60 nm umgestellt, sobald diese karten rauskommen werde ich mir wohl ne ati karte kaufen müssen, vonwegen preis leistung oder nvidia senkt die preise um cirka 50 % dann werde ich nochmal überlegen müssen.

was spät kommt wird endlich gut !!!!!!

gruss

nappi
Letzte Seite lesen....
Das steht des alles drin....

MFG MYstic-Car
 
:stupid:

sag mal kannst du eigentlich lesen? es wird keine wunderkarte ala flagship geben!

da frag ich mich doch ob du lesen kannst
er hat nur gesagt sie wird schneller, was durchaus im bereich des möglichen liegt, das wort "wunderkarte" hast du als erstes benutzt ;)
über die preise haben wir auch schon ausführlichst gesprochen

er hat sicherlich nicht mitgelesen (lohnt das überhaupt?) und sein kenntnisstand ist gleich jemandem der immer mitliest
aber ihm zu unterstellen er könne nicht lesen, ist blödsinn, denn er hat lediglich seine (immer noch aktuellen) google-treffer zitiert

etwas mehr toleranz ist wirklich angebracht

gruß klasse
 
Könnt Ihr Euch noch erinnern, warum der ATI R600 [Spekulations Thread] geclosed wurde?!?

Manche User wollen einfach immer noch net dazu lernen und die Community darf es dann ausbaden! :shake:













.
 
Zuletzt bearbeitet:
R600? Chapter 524

@all,

wäre schon wenn mal wieder ein wenig Selbstregulierung kommt.....
Haben in den letzten Seiten nicht viel on topic gesehen.....
Vielleicht mal wieder Zeit, das die Off Topic Freunde ihren eigenen Ramsch löschen.... :fire:
Gab's hier schon vor ein Paar Seiten und wurde sehr von uns Mods geschätzt...:coolblue:
Sonst haben wir zum 524. Mal wieder mal keine andere Wahl als selber einzugreifen..... :shot:

Greetz,

RM
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh