ATi R600/RV6xx *Infothread* (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich galube einfach AMD will den r600 mit da Barcelona Cpu launchen. Da ATi fast jahr 1.5jahren zeit hatte den r600 zu machen, und es sollte darum schon lange fertig sein
 
nein, ich weiß ehrlich geasgt nicht was du damit meinst.

vll 2x HDMI oder 2x HDMI + HDCP, aber das ist auch kein besonderes feature mehr.
 
Genau, der Barcelona soll dann vom R600 Debakel ablenken
Hinzugefügter Post:
@Sephirot
Diese nette Dreingabe:
Der R600 verfügt über eine Geheimwaffe, eine interne und HDCP-konforme Soundkarte. Das kann Nvidias G8x ebenso wenig bieten wie HDCP über Dual-Link-HDMI.


ATI implementiert den Sound nicht über GPGPU-Code, sondern über ein eigenes Stück Silizium. Damit erfüllt die Firma die Regeln für die Vista-DRM-Infektion, die MS den eigenen Kunden aufzwingt.

Der Grafikchip R600 wird jedenfalls den Vista-Anforderungen entsprechen und schickt den Sound direkt über eine HDCP/HDMI-Verbindung. Wie wir zu hören bekamen, handelt es sich um vollen HD-Sound.

Die G8x-Teile von Nvidia können das nicht. Sie benötigen ein Kabel vom Soundchip zur GPU. Das hört sich nicht so schlimm an, aber es verhindert die einfache Autokonfiguration und verstößt vor allem gegen die Anforderungen für das Vista-Logo. Sollte es etwa daran liegen, dass NV in sechs Monaten keinen brauchbaren Vista-Treiber zustande brachte?

Das Problem mit Vista besteht darin, dass die DRM-Infektion die Ausgabe von S/PDIF über nicht verschlüsselte Verbindungen untersagt. Der R600 kommt damit klar, indem er die Audio- und Video-Streams verbindet und sie über HDCP-infizierte Verbindungen pumpt. Das ist gegen den Benutzer gerichtete digitale Rechteverwaltung, aber es entspricht den Logo-Bedingungen von MS, und denen ist die Benutzererfahrung ebenso egal wie der Inhalte-Mafia.

Dazu kommt noch, dass der R600 HDCP über Dual-Link kann. Die Bandbreite reicht für weit mehr als einen breiten Sound-Strom aus.

Nvidias G8x andererseits kann kein HDCP über Dual-Link. Wer einen 30-Zoll-Monitor hat, sieht daher nur einen schwarzen Bildschirm, und dann ist Sound das geringste aller Probleme.

Die Soundkarte im R600 dürfte die Killerapplikation für alles sein, was mit Home Theatre zu tun hat. G8x bringt hier einfach nicht, was erforderlich ist, wacklige Treiber hin oder her. So widerwärtig die DRM-Infektion an sich ist, der R600 erfüllt die funktionalen Voraussetzungen.
 
Zuletzt bearbeitet:
ok danke;) ne quelle wäre noch super
 
Jo Geil der R600 ist Technisch weiter als der G80.:eek: Also kauft allle die X2000 Jungs........
 
irgendwie steh ich auf verschwörungstheorien ^^ ... nun strick ich mal eine

eventuell sieht sich ja NV gezwungen mittels kleinen Briefkuvers plattformen dazu zubringen "solche" benches noch vor dem NDA ende zu bringen ... um genau das zu bezwecken ...

ähnliches hatte ich auch schon vermutet ;)


mal ehrlich, sollten die Benches im Vergleich zur X1950 stimmen (dank an den Sammler), warum sollten Leute umsteigen???? Ich kann mir beim besten Willen nicht vorstellen, dass man mit der neueren Achitektur die gleichen Ergebnisse hinbekommt und dann noch mehr Strom verbraucht - vllt. wirklich alles nur "Gegenpropaganda" und dass ATI nix sagt, denke ich ist sogar vllt. in deren Sinne - warum sollten sie Stellung beziehen? Je eher sich die Gerüchte verdichten, dass es ne "sch.." Karte ist, was sie nach meinem Empfinden beim Vergleich X1950 vs X2900 wäre, desto mehr würde sich der Hauptkonkurrent in Sicherheit wiegen...who knows?!

Desweiteren muss man doch schon mal daran denken, dass es nicht mehr lange dauert, bis der G90 kommt oder? Wie will man denn mit solch einem Produkt über Wasser kommen, welches sich nicht mal von der Vorserie abhebt? Ich freue mich mal auf die Fakten, die kommen werden und solche Seiten, wie die, von denen hier eigentlich nur noch News kommen, kann man mal getrost in die Tonne kloppen - möchte nicht wissen, wie die sich freuen, über die netten Klicks, da wird dann irgend ein Kram geschrieben und auf Seite 8030 zurück genommen... Bild lässt grüssen.

Übrigens würde ich jedem die Ignorierfunktion empfehlen - macht das Lesen wirklich entspannter, so langsam glaub ich sonst, hier sind Leute im Forum, die von NV oder sonst einer Firma Kohle dafür bekommen User runterzumachen, die das Konkurrenzprodukt vorziehen - wundern würde es mich nicht.:fresse:
20 Seiten gelesen, 6 Ignores und schon wird man nicht mehr zugespamt und es liesst sich angenehmer ohne diese "Werbung".
 
Ich traue da noch keinen Benches... Dann wäre ja ne X19X0 XTX mit den Taktraten einer X2900 XT ungefähr genauso schnell wie ne X2900 XT...
Außerdem will ich erstmal Benches in extremen Auflösungen sehen... Wer kauft sich schon so ne schnelle Karte und zockt dann in 1280x1024...
 
Zuletzt bearbeitet:
Da ATi fast jahr 1.5jahren zeit hatte den r600 zu machen, und es sollte darum schon lange fertig sein

1.5 Jahre? Das würde erklären warum der R600 auf diese fragwürdigen Ergebnisse kommt :drool: .

Nein Spaß beiseite, die Entwicklung des R600 hat weit länger als 1.5 Jahre gedauert.
 
Die Shader dees R600 lassen sich viel schwerer auslasten als die des G80, zudem hat der R600 anscheinend weniger ROPs. In aktuellen Spielen könnte die Performance also schon stimmen. Wenn man jetzt aber ein Spiel benched das viele Shader nutzt und zudem vielleicht mit DX10 unter Vista läufte könnte der R600 wieder aufholen. Ich denke ATI weiß schon wieso sie den R650 schnell nachschieben wollen.
 
Ich traue da noch keinen Benches... Dann wäre ja ne X19X0 XTX mit den Taktraten einer X2900 XT ungefähr genauso schnell wie ne X2900 XT...
Außerdem will ich erstmal Benches in extremen Auflösungen sehen... Wer kauft sich schon so ne schnelle Karte und zockt dann in 1280x1024...

Ich sehe das ähnlich, die Benchmarks von Daily Tech schauen ein wenig komisch aus...:hmm:

Ich habe mal Company of Heroes mit den Einstellungen 650/1000 auf ner GTX gebencht, komme auf andere Werte!

Der "R600" muss einfach mehr Leistung haben, dass sage ich sogar der eine GTX hat.
 

Anhänge

  • COH_1.JPG
    COH_1.JPG
    112,6 KB · Aufrufe: 89
  • COH_2.JPG
    COH_2.JPG
    54,4 KB · Aufrufe: 99
hast du den gleichen treiber + gleichen prozessor? benches sind nur vergleichbar, wenn sie unter den gleichen bedingungen durchgeführt werden.


hoffentlich wissen wir asap genaues
 
Zuletzt bearbeitet:
Trotz allem .....

die letzten News sind merkwürdig negativ

* XTX erst im 3. Quartal
* X2600-er Mitte Mai nur Paperlaunch
* XT zwischen GTS und GTX Niveau
* hoher Stromverbrauch
* schnell nachzuschiebenden R650 (x1800-er Desaster ?)

Tja 7 Monate nach dem G80 hört sich das miserabel an ,
und scheinbar nur ne XT Mitte Mai verfügbar ? Das wäre nichts.

Also meine Euphorie ist mal verflogen ... und selbst die Zuversicht
weicht langsam .... und ich hatte meinen G80 mit 100€ Verlust
verkauft , und weitere 50€ Verlust der Übergangskarte akzeptiert.

150€ um auf den R600 nicht nur zu warten .... sondern auch auf das
zu warten ... was man von ATI für 7Monate längere Erwicklungszeit
er"warten" kann.

Mal gucken ...

Greetz Koyote008
 
Zuletzt bearbeitet:
hm bei dem benchmark hieß es "Company of Heroes: Nvidia 90.1 FPS" mit einem Intel Core 2 Extreme QX6700.


der QX6700 hat (4x)2,66ghz. ist der QX6700er langsamer als der E6600@3,6Ghz? weil, wenn CoH nur maximal 2 kerne nutzen würde, wären das 2x2,66ghz gegen 2x3,6ghz.

vielleicht kommt daher der unterschied.
 
hm bei dem benchmark hieß es "Company of Heroes: Nvidia 90.1 FPS" mit einem Intel Core 2 Extreme QX6700.


der QX6700 hat (4x)2,66ghz. ist der QX6700er langsamer als der E6600@3,6Ghz? weil, wenn CoH nur maximal 2 kerne nutzen würde, wären das 2x2,66ghz gegen 2x3,6ghz.

vielleicht kommt daher der unterschied.

Ok, ich benche mal mit 2,6Ghz.

mom ;)
 
Wie, was? Ist die jetzt offiziell auf das 3. Quartal verschoben? Dann kann ich darauf, dass Nvidia unter etwas Konkurrenzdruck die Preise senkt, noch lange warten...
 
Neuesten Erkenntnissen soll es nun die HD 2900 XT mit der GTX aufnehmen können, jedoch nicht in allen, vor allem aber in gewissen Games, die stark Shader/ Vertex lastig zu buche schlagen, bei etlichen anderen Spielen so zwischen GTS und GTX zu liegen kommen.
Die HD 2900 XTX soll hingegen die GTX schlagen können und mit der GTX Ultra konkurrieren, teils gar übertrumpfen.
Die Rohpower steckt beim R600 viel mehr in den D3D10 Games, und wird hier vor allem den G80 weit hinter sich lassen.

Nochmals zur XT des R600 Grafikdesasters:shot:
Die Computerbase Benchmarks + ca.10% wird die Performance des R600
(HD 2900X) mit FINAL Treibern werden, wohlgemerkt unter XP und nur bei DX9 Games) !!
Unter Vista und D3D10 soll es vollkommen anders aussehen und der G80 soll plattgemacht werden.
Wann kommen denn mal die ersten offiziellen Benchmarks um EUCH DIES beweisen zu dürfen. Scheiss NDA !!!
 
Zuletzt bearbeitet:
Folgendes Ergebnis mit einem E6600@2,6GHz / GTX@650/1000

Laut dem Benchmark von DT, immer noch vernichtend für den "R600"!
 

Anhänge

  • COH_1.JPG
    COH_1.JPG
    112,6 KB · Aufrufe: 43
  • COH_3.JPG
    COH_3.JPG
    54,1 KB · Aufrufe: 76
Wann kommen denn mal die ersten offiziellen Benchmarks um EUCH DIES beweisen zu dürfen. Scheiss NDA !!!

... wann kommen denn endlich Quellenangaben deinerseits? meine obige Frage hast du ja auch einfach ignoriert. ich weiß auch wieso: weil du keine Quellen hast.


@trouble: hm, kaum unterschied. naja dann habe ich auch keine idee mehr ^^
 
Jo Geil der R600 ist Technisch weiter als der G80.:eek: Also kauft allle die X2000 Jungs........

OK, wer von den G80 usern vermisst die tollen extra Features der R600 ?

Wenn man damit einfach zocken will ist das ganze HDMI / HDCP / Sound belanglos ... und um die Features zu benutzen muss man einiges an geld rauswerfen für nen Reciever mit HDMI / Fetten HDTV / Boxen die am Reciever hängen ...

Wer sich das alles leisten kann hat eh keine sorgen mehr :fresse:
 
Zuletzt bearbeitet:
Neuesten Erkenntnissen soll es nun die HD 2900 XT mit der GTX aufnehmen können, jedoch nicht in allen, vor allem aber in gewissen Games, die stark Shader/ Vertex lastig zu buche schlagen, bei etlichen anderen Spielen so zwischen GTS und GTX zu liegen kommen.
Die HD 2900 XTX soll hingegen die GTX schlagen können und mit der GTX Ultra konkurrieren, teils gar übertrumpfen.
Die Rohpower steckt beim R600 viel mehr in den D3D10 Games, und wird hier vor allem den G80 weit hinter sich lassen.

Nochmals zur XT des R600 Grafikdesasters:shot:
Die Computerbase Benchmarks + ca.10% wird die Performance des R600
(HD 2900X) mit FINAL Treibern werden, wohlgemerkt unter XP und nur bei DX9 Games) !!
Unter Vista und D3D10 soll es vollkommen anders aussehen und der G80 soll plattgemacht werden.
Wann kommen denn mal die ersten offiziellen Benchmarks um EUCH DIES beweisen zu dürfen. Scheiss NDA !!!

Also mir geht es nicht ums "plattmachen". Die Karte mit der besten Performance und dem besten Preis kommt in meinen Rechner. Egal ob ATI oder Nvidia.
 
och berni nicht schon wieder. das macht dich nur unglaubwürdiger. :rolleyes:
OK, wer vermisst von den G80 usern vermisst die tollen extra Features der R600 ?
ich glaube niemand. mir bringen die auch nicht. ich will mit der karte spielen und kein 500W HTPC bauen ;)
 
Zuletzt bearbeitet:
Dies nicht, Quellen darf ich nicht preisgeben, da auch keine besitze, in Form von Benchmarks, Tech. Daten udg. Nur Performancemässig werde ich informiert.....
Stammen aus einem Insider (aus Italien) welcher sozusagen unter "privater" Verschwiegenheit steht.
Mehr will und KANN ich dazu nicht sagen.
 
Zuletzt bearbeitet:
Dies nicht, Quellen darf ich nicht preisgeben, da auch keine besitze, in Form von Benchmarks, Tech. Daten udg. Nur Performancemässig werde ich informiert.....
Werte und Daten stammen aus einem Insider (aus Italien) welcher sozusagen unter "privater" Verschwiegenheit steht.
Mehr will und KANN ich dazu nicht sagen.

Ok, dein Ding.

Was sagst Du zu den Benchmarks bei DT?

Fake?
 
Dies nicht, Quellen darf ich nicht preisgeben, da auch keine besitze, in Form von Benchmarks, Tech. Daten udg. Nur Performancemässig werde ich informiert.....
Werte und Daten stammen aus einem Insider (aus Italien) welcher sozusagen unter "privater" Verschwiegenheit steht.
Mehr will und KANN ich dazu nicht sagen.


vor kurzem hieß es von deiner seite noch "mindestens 25% schneller als eine gtx". zumindest nach den bisher veröffentlichen (und vielleicht echten) Benchmarks, sieht es ganz anders aus. und das macht dich nicht sehr glaubhaft.
mich würde es freuen, wenn es doch noch derart eintreten sollte (selbst GTX-Niveau würde mich noch freuen). aber derzeit sind die neuesten news/gerüchte nur enttäuschend.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh