Ati R520 (2)

Status
Für weitere Antworten geschlossen.
Koyote008 schrieb:
@Kimble

Erst nen Hals machen Zwecks R520 / "XL" .... und jetzt ne GTO2.

Und wenn die 7800GT zu teuer ist , was ist dann die XL unabhängig abs die Morgen gibt oder nicht ?

Hättste Dir den Satz nur gespart , jetzt biste total neben dem Gleis !

Und warst Du nicht der , der 500€ für ne Graka hinlegen kann , und für ne X-Fi 350€ hinlegt und den Sound braucht ?

Dat passt doch alles garnicht Bursche !

BUHHHHH !!!!!!!

Greetz Koyote008

Sy, aber wie blöd muss man sein?

Ich weiß es nicht mehr was ich sagen soll.

1) Ich will maximale Bildqualität, ich warte also ab, was die R520 (RV530) mir bringen wird

2) Ich will nicht viel mehr als 200€ ausgeben

3) Erfüllt die R520 meine Erwartungen nicht, kaufe ich die X800GTO²

4) Du weißt schon, dass es mehrere Varianten von der X-FI gibt? Ich will mir die X-FI Music kaufen, für 99€.

Selten so ein dummes Geschreibsel gesehen :maul:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Koyote008 schrieb:
@SFVogt

Das SLI / CF Vergleich nur von den Kartenpärchen abhängt ist so nicht richtig !

Kartenanbindung über Connector (Sli-Fähigkeit) / Mainboard - Chipsatz -Chipsatztreiber / Grafikkartentreiber spielen auch eine Rolle.
Ich weiß zwar nicht was du jetzt mit Treiber und dergleichen willst, aber ich erinnere dich nochmal dran, um welche Aussage es ging:
Oberteufel schrieb:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_crossfire/

hat nochn paar kinderkrankheiten... und auch von der rohpower ist SLI CF doch überlegen...schaltet man allerdings AA und AF verliert SLI doch sehr deutlich...
und bei dieser stand es jetzt erstmal völlig aus Sprache, welche Treiber etc verwendet wurden! Man geht ja generell von den jewels besten SLI bzw CF Konfigurationen aus, also ist die Connector Aussage sowieso ein bisschen weit her geholt! Keiner wird 68er oder 78er Karten ohne die Verbindung betreiben :rolleyes:

Es gibt ne Menge Leute die gemessen haben das Sli Geforce 7 zu Geforce 6 effektiver ist.
Wie will mann denn das messen so genau? Da die 7800er nicht so viel Leistung verliert wie die 6800er unter Qualisettings, fällt auch dementsprechend besser das Ergebniss eines SLI Systems aus. Oder ist der Faktor bei 7800er SLI im Durchschnitt plötzlich auf 1,9 gestiegen?! Denn nur dann wäre es effektiver!

Die Summe machts , und von CF wollen wir mal echt noch nicht reden oder wer will 1600x1200 @60Hz uffn CRT soccen ?
Schwache Leistung, wenn man sowas nicht mit einkalkuliert!
 
@VioXX

Hallo mein bester , ENTSCHULDIGUNG !

Allerdings , solange die "Teile" ned uffn Markt sind ,

ist eh alles @OFF-TOPIC !

PS.: Was für ein Topic war das denn grad von Dir eigentlich ? +koppkratzt+

Gruss Koyote008
 
@Koyote008

durch dein verhalten trägst du maßgeblich bei den R520 thread mutieren zu lassen, wäre nicht wunderlich wenn ein mod käme und diesen thread closen würde. weil nur beleidigungen, veralberungen und co. aus manchen mäulern nur kommt. statt mal ein kleinsten funken über das thema zu plaudern und nicht wieder werbung für das konkurenzprodukt zu machen, wieso erstellst du nicht einfach einen nV FANBOY thread oder einen Koyote008 vs Kimble thread, der nach 3 sekunden eh geclost würde. aber auf den letzteren würdest wohl nur du dich einlassen, denke mal kimble ist da etwas weiter als du.

für dein alter hätte ich mehr erwartet von dir, als das thema so zu verhunsen das am ende nix dabei rauskommt
 
Zuletzt bearbeitet:
@ SFVogt

Geforce6 und Geforce7 ... jeweils einzeln und im Sli gegeneinander ... mit den selbigen Qualitätssettings , wie denn sonst !?!

Die Geforce7 ist effizienter als die Geforce6 , Connector Optimierung / Qualität.

Zum Rest , JA-JA-JA iss okay !

Ansonsten , was meinste mit einkalkuliert ? Meinste es macht Sinn @60Hz einzukalkulieren bei 1600x1200 !? Habe Dich da nicht verstanden !

Ich meine dazu nur , solange durch den Hardwarebug ala CF nur TFT nutzen kann (mit Einschränkung) ... macht CF keinen Sinn ! 75 Hz ist Minimum bei CRT !

Greetz Koyote008


@ kampfwurst

Das wir beide nicht gut miteinander können brauchst Du mit Deinem Post mir nicht noch einmal mitteilen , ist unnötig !

Ich kommentiere es nicht weiter , weil Du zumindest damit Recht hast !

Desweiteren bin ich ATI "Bevorzuger" und kein Nvidia Fanboy , bring da mal bitte nichts durcheinander !

Hätte wissen müssen das Du auf Deine Chance wartest , ich werde mich in Zukunft cleverer und anständiger verhalten um nur DIR aus dem Weg zu gehen ist VERSPROCHEN !

@ Kimble

.... Kommentarlos ..... ;o)

Greetz Koyote008
 
Zuletzt bearbeitet:
@Kampfwurst

Japp , mehr als das , da ich absolut auf Crossfire gesetzt habe !

Nicht wegen dem 3. Grafikmodus , sondern weil man keine Treiberprofile
der Games braucht , finde ich sehr bequem.

Allerdings das Ati so ein Patzer passiert hat NIEMAND erwartet , sowas
darf in der Entwicklung schon nicht passieren , zumal viele TFT - USER gerne
Ihren TFT mit 72 oder 75 Hz betreiben und CF nur dadurch ablehnen würden ,
CRT Besitzer sowieso.

Mal sehen wann der "Refresh" kommt , ich hoffe mal bald , mitverfolgen werde ich
das Thema sowieso , ich hoffe das ich beim R580 oder R600 zu Ati zurück kann ,
so halt garnicht , iss ja klar.

Greetz Koyote008
 
Koyote008 schrieb:
@Kampfwurst

Japp , mehr als das , da ich absolut auf Crossfire gesetzt habe !

Nicht wegen dem 3. Grafikmodus , sondern weil man keine Treiberprofile
der Games braucht , finde ich sehr bequem.

Allerdings das Ati so ein Patzer passiert hat NIEMAND erwartet , sowas
darf in der Entwicklung schon nicht passieren , zumal viele TFT - USER gerne
Ihren TFT mit 72 oder 75 Hz betreiben und CF nur dadurch ablehnen würden ,
CRT Besitzer sowieso.

Mal sehen wann der "Refresh" kommt , ich hoffe mal bald , mitverfolgen werde ich
das Thema sowieso , ich hoffe das ich beim R580 oder R600 zu Ati zurück kann ,
so halt garnicht , iss ja klar.

Greetz Koyote008



wo merkt man bei nem tft bei 60 und 75 Hz nen unterschie dich merk da kein alles bei beiden scharf und sonst auch gleich!

ups sorry nicht richtig gelesen ich depp stimmt mit CRT ist selbt 75Hz eine qual finde ich! da ist der chip der auf der CF karte drauf ist echt schrott mit60Hz ^^
 
Zuletzt bearbeitet:
Koyote008 schrieb:
@ SFVogt

Geforce6 und Geforce7 ... jeweils einzeln und im Sli gegeneinander ... mit den selbigen Qualitätssettings , wie denn sonst !?!

Die Geforce7 ist effizienter als die Geforce6 , Connector Optimierung / Qualität.
Ja eben und gerade weil eine einzelne 7800er Karte schon effektiver zu Werke geht, ist es um so schwieriger rauszufinden, ob die SLI Effektivität gestiegen ist! Wie effektive SLI nun ist, lässt sich ja über diesen Faktor aussagen. Bei der 6800er meinte man ja im Durschschnitt 1,7 durch den Einsatz einer zweiten Karte. Wenn der bei der 7800er Reiche gleich ist, kann man nicht sagen, das 7800er SLI effektiver ist! Dazu bräuchte man Benches von Einzelkarten sowie SLI Verbindungen der 68er und 78er auf haargenau dem gleichen System und Treiber.

Ansonsten , was meinste mit einkalkuliert ? Meinste es macht Sinn @60Hz einzukalkulieren bei 1600x1200 !? Habe Dich da nicht verstanden !

Ich meine dazu nur , solange durch den Hardwarebug ala CF nur TFT nutzen kann (mit Einschränkung) ... macht CF keinen Sinn ! 75 Hz ist Minimum bei CRT !
Ich meinte, das es eine schwache Vorstellung ist von ATI, wen man sich nicht mit den technischen Gegebenheiten dieses Chips auseinander gesetzt hat bzw diese 60Hz Begrenzung übersehen hat. Anderenfalls, wenn man ATI für einen gewissenhaften Hersteller hällt, würde ja der Verdacht aufkommen, das dies einfach in Kauf genommen wurde.
 
Zuletzt bearbeitet:
@SFVogt

In Kauf genommen kann ich mir ÜBERHAUPT nicht vorstellen , ÜBERSEHEN kann ich mir auch garnicht Vorstellen .... ich kanns mir garnicht erklären ;o)

Schlecht finde ich auch das die "Mutterkarte" jeweils zum Chip nur eine Taktung hat , und die "Einfache" Karte ja in mehreren Versionen gibt.

Finde das alles nen bissl Lieblos bis jetzt , mal schauen , "heiss" bin ich trotzdem.

Greetz Koyote008
 
Naja, ich finde dies ganze CF irgendwie viel verwirrender als SLI. Gerade die aussage, das man bei CF unterschiedlich Karten verbinden kann miteinander, ist wohl auch nur marketing. Was nützt es mir denn wenn ich ich eine 12 Pipe und eine 16 Pipe zusammen werkeln lassen kann, jedoch beide nur noch mit 12 Pipes laufen. Im Grunde läufts doch aufs gleiche wie bei SLI hinaus.

Das optimale ist 2 Karten vom gleichen Typ her zu verwenden. nV verwirrt ihre Kunden eben nicht mit solchen "Pipes Beachtungen" und hält das eben einfacher. Zumal mit neuen Treibern noch unterschiedliche Hersteller verwendet werden können, sowie die Karten unterschiedlich geoced werden können, halte ich den einzigen Vorteil von CF bei der größeren Modiauswahl.

Und leider gibts nur die zwei Möglichkeiten, entweder ATI hats nicht gewußt - schlecht informiert. Oder das 60Hz Problem wissend in Kauf genommen. Egal, wir sind doch sowieso alle nur auf den R520 gespannt und SLI bzw CF spielt ja nur für die wenigsten ne Rolle.
 
Koyote008 schrieb:
@ Kimble

.... Kommentarlos ..... ;o)

Greetz Koyote008


Sprich die aus, aber wenn du nichts zu sagen hast, halt einfach mal deine Gusch!

Ich kaufe halt intelligent, im Gegensatz zu dir ;)

Lieber günstiger, und für wenig Geld mehr dann immer eine schnellere Karte, funktioniert hervoragend.
 
bald haben wir schon den 3. R520 Thread ohne jemals einen Benchmark gesehn zu haben...irgendwie gibt mir das zu denken ;)
 
@Kimble

Jedem halt SEINEN ANSPRUCH und in seiner LIGA , da haste schon Recht !

Greetz Koyote008
 
Oooooooooh, die armen AGP-User :haha:

Die kriegen echt alles hinterhergeworfen, die ganzen Grafikkarten sind mit AGP-Schnittstelle teilweise deutlich günstiger als die mit PCIe!

Das ist wie mit dem Osten, warum steckt man da noch soviel Geld rein?

Es sprach ein verägerter PCIe-User.
 
kimble schrieb:
Die kriegen echt alles hinterhergeworfen, die ganzen Grafikkarten sind mit AGP-Schnittstelle teilweise deutlich günstiger als die mit PCIe!

Das ist wie mit dem Osten, warum steckt man da noch soviel Geld rein?

Solche Vergleiche würde ich mal stecken lassen!
Nichts gegen dich Kimble, aber sowas gehört eigentlich nicht hier her.

--> zurück zum Threade

Ich will R530 sehen und keine R515, was soll das, also wenn die den erst im Dezember bringen werde ich zum Schwein!
 
Was ich so lustig finde ist, dass die GTO noch nichtmal erhältlich ist und dann soll schon die RV530 auf den Markt kommen?

Das ist ein schlechter Witz, von daher will ATI wohl doch noch viel Geld mit der GT(O) rausschlagen, somit kommt die RV530 erst im Dezember :haha:

Es ist zum Heulen, wirklich :o
 
Die 7600GT kommt sicherlich früher als die x1600. Sofern das mit Dezember hinhaut ..

Fanboy zu sein hat IMHO NUR nachteile :rolleyes:

Btw: G71 (7600) soll in 90nm hergestellt sein!
 
m_tree schrieb:
Die 7600GT kommt sicherlich früher als die x1600. Sofern das mit Dezember hinhaut ..

Fanboy zu sein hat IMHO NUR nachteile :rolleyes:

Btw: G71 (7600) soll in 90nm hergestellt sein!

Woher willst du wissen, ob ich Fanboy bin?

nVidia hat derzeit nichts, was für mich unteressant ist, außer die 7800 GT, aber ich gebe keine 700 DM Mark für eine Grafikkarte aus, zumal nächstes Jahr sich einiges tun wird.

Ich wüsste auch wirklich nicht, was ich an der 7800-Serie kritisieren könnte. Seitdem das Flimmern behoben wurde, ist alles gut.


Edit: Die 7600 GT ist eine Überlegung wert, weiß man schon was die ungefähr kosten wird?
 
Zuletzt bearbeitet:
Wäre geil, wenn der 7600 GTer 256 Bit 12 Pipes und nen hohen Takt zb. 650/1400 hätte, da könnte der X1600 XT einpacken!

So kommt es aber net und daher soll ATI diese GT/o einfach wieder aus dem Programm nehmen und diese als günstige X850 XT weiter verkaufen!
 
@kampfwurst
oh man das is ja echt shclimm hier .. muss hier immer jeder kleinste kommentar breit, tod und lang gelabert werden? es war lediglich ne randbemerkung, um den 7600GT vorschlag noch attraktiver zu machen. 90nm haben - sofern alles hinhaut mit ausbeute und effizienz - schon ihre vorteile.

@kimble
na ja, fanboy mag übertrieben sein - es ist einfach nur so, dass ich mich an deine ati sympathien erinnere. ;) aber nix für ungut, ich würde dir wirklich empfehlen, auch ein auge auf die 76er zu werfen. kauf das, was zum richtigen zeitpunkt am besten und preisleistungstechnisch auch am besten ist - so machst du nix falsch. und dazu muss man aber halt herstellerunabhängig sein / denken :drool:
 
Evtl. meint er deine Aussage, dass der R520 in Sachen Shaderleistung neue Maßstäbe setzen wird.
Da hab ich mich auch gefragt ob du das ernst gemeint hast.

Was denkst du warum der R580 in dieser Hinsicht so aufgepumpt wird, wenn der R520 schon eine akzeptable Performance liefert ?
Wenns um arithmetische Leistung geht, sieht der R520 kein Land gegen den G70.
Das ist zwar heute noch nicht so wichtig, in Zukunft aber um so mehr.

@mindfaq und Koyote008

finde ich echt gut das ihr über sowas schon genau bescheid wist,ohne einen handfesten bensch gesehen zu haben, hut ab.
Und in sachen shaderleistung:
die pixelshaderleistung ist bei der g7 schon enorm.
aber in vertexshader bensches ist selbst eine x850xt pe noch vor der g70 :
http://www.3dcenter.de/artikel/g70_theoretische_benchmarks/index2.php
 
Philipp88 schrieb:
http://www.theinquirer.net/?article=26471

Hier mal wieder was neues von ATI für die AGP User unter euch!
Und sind wir hier nicht eigentlich in nem R520 Thread?

Hört sich doch gut an, nich?


tjo was fängt man mit sonner ollen karte an im highendbereich gibt es nichts!? frag mich nur was die karte für sinn hat da gibt es ja weit aus schnellere agp karten....:hmm:
 
kimble schrieb:
Oooooooooh, die armen AGP-User :haha:

Die kriegen echt alles hinterhergeworfen, die ganzen Grafikkarten sind mit AGP-Schnittstelle teilweise deutlich günstiger als die mit PCIe!

Das ist wie mit dem Osten, warum steckt man da noch soviel Geld rein?

Es sprach ein verägerter PCIe-User.


Als Ausgleich für die vernichteten Arbeitsplätze , und das Leute wie Du sich darüber öffentlich in einem ATI R520 Thread verärgert auslassen :rolleyes:
 
diese agp heulerei ist aber auch wirklich nervig.

lol bald gibt es den 3. r520 thread
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh