ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Nein, muss man mMn nicht. Grade das macht ja ein gutes (HighEnd-)Produkt aus, dass es ein rundum gelungenes Paket ist (was ich für 600€ eigentlich auch erwarten darf). Daran hat man mit Sicherheit viel mehr Freude, nur schade, dass die Hersteller das nicht begreifen.

Die begreifen das schon, nur ist dies eben nicht so einfach machbar. Wenn du den Aufpreis für 20 Layer zahlst bekommst du bestimmt eine schön kleine Karte :rolleyes:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
weil die GTX 27cm lang ist. Jetzt kapiert ? ;)
Der eine cm das macht den Braten nicht mehr fett. 10,5 inch sind bekantlich 27cm. Also 26,67 ;) aber wir runden eben mal.

Weiß nicht was daran so störend ist.
Die Graka ist exakt 1,5cm länger als mein Mobo. Von daher wenn man son Mobo reinbekommt kriegt man auch die graka hin ;)

Ich weis immernoch nicht was du damit sagen wolltest, schon klar das die GTX 27cm lang ist, nur was tut das zur Sache???

Du sagtest die haben das PCG des R600 auf 28cm gekürzt!
Und sagtest wenn man sich die GTX anguckt, wird man sich wundern???
wieso wundern, wenn die GTX schon zu lang, ändert sich nix dran, ...
neja aber egal!

Das mit dem Mobo kannst so nicht sagen, meist hängen genau dort, wo die Graka ist, diverse HDD-Käfige, und wer halt viele Platten hat, hat dort keinen Platz!

Mein damaliges KT7A-Raid ist auch nur 2-3cm kürzer als heutige Boards, und das war vor 5 Jahren, scheinbar ging es da auch die Größe der Boards so zu belassen, wieso klappt das da bei Grakas net???
 
mhh schade eigentlich drum das ATI die Karten so groß macht. ich finde Nvidia war im verhältnis immer größer als ATI oder nicht ??
 
mhh schade eigentlich drum das ATI die Karten so groß macht. ich finde Nvidia war im verhältnis immer größer als ATI oder nicht ??
Seit der X1800/X1900 ist davon nix mehr über ... und das ist nicht freiwillig - irgendwo müssen ja die ganzen Bauteile hin - recht einleuchtend ?

Einen Kühler kann man notfalls länger machen als das PCB aber die spannungsversorgung und RAMs brauchen eben ne menge fläche bei egal wievielen Layern.
 
Zuletzt bearbeitet:
Joa schade drumm, aber was jertzt geil käme wenn die nun wieder kleine Karten machen wie früher das wäre mal was richtig gut käme. Ich finde bis 20 cm ist alles schön klein aber mehr ist dann wieder zu groß meine Meinung ^^
 
Mein damaliges KT7A-Raid ist auch nur 2-3cm kürzer als heutige Boards, und das war vor 5 Jahren, scheinbar ging es da auch die Größe der Boards so zu belassen, wieso klappt das da bei Grakas net???

weil Mobos dem ATX-Standard folgen und in Big Tower ATX als auch Midi Tower ATX passen müssen. Du kriegst jedes ATX Board auf dem Markt in ein ATX Gehäuse, weil es ein Standard ist und zum Glück ist das so, was wäre, wenn jeder Mobohersteller sein eigenes Format wählen würde und jeder Gehäusehersteller auch sein Süppchen kochen würde?

Und da es bei Grafikkarten keinen Standard gibt, hält sich der Hersteller auch nicht an diesen. Ist ja auch ok, man kann sicher problemlos davon ausgehen, dass 90% der High-End-Karten Käufer einen Big Tower stehen haben, weil der Rest der Hardware entsprechend der Graka auch Premium ist. Ich glaube kaum, dass NV oder ATI ihre High-End Karten für Barbone Besitzer baut.

Naja aber Grundproblem wurde schon erwähnt, die Komplexität steigt, es werden mehr Transis, Schaltkreise und Widerstände benötigt. Um dem gerecht zu werden, erhöht man entweder die Layerzahl oder eben die Platinengröße, so einfach ist das. Ich habe hier eine X800SE und eine 7900GTO und wenn man beide mal vergleicht, sieht man schon, dass sich da was auf der Platinen getan hat.

zum Topic:

beim R500 hat ATI damals schon den Fehler gemacht, diesen zu spät zu releasen, mit dem R580 hingegen war es genau richtig. Der kam zum Glück nach Plan und hat ATI wieder gerettet. Der R600 lässt nun wieder auf sich warten, ein Release Ende Januar mit flächendeckender Verfügbarkeit wäre optimal (gleichzeitig mit Vista), dem scheint aber nicht so. Dh. NV wird nach Vista Release bis zum R600 an jedem Käufer, der aufs DX10-Marketing reinfällt, verdienen. Wenn ich NV wäre, würde am 31.01. ein total verkrüppelter G80 für den OEM Bereich kommen, an dem würden die sich dumm und dämlich verdienen, da dann jeder PC mit Vista ausgestattet wird und jeder Händler mit DX10-Support preisen könnte.
 
Zuletzt bearbeitet:
Und da es bei Grafikkarten keinen Standard gibt, hält sich der Hersteller auch nicht an diesen.

Doch, der Standard nennt sich PCI Express.

Ist ja auch ok, man kann sicher problemlos davon ausgehen, dass 90% der High-End-Karten Käufer einen Big Tower stehen haben, weil der Rest der Hardware entsprechend der Graka auch Premium ist.

Das problem ist das die Case Hersteller im Gegensatz zu früher den Platz neben den PCI Slots zubauen - früher hatte alle Gehäuse hier platz für Karten in voller Baulänge - 30,5cm.

Ich glaube kaum, dass NV oder ATI ihre High-End Karten für Barbone Besitzer baut.

Lustigerweise passen lange grakas sogar in die meisten Mini-Barebones rein ...





Wenn ich NV wäre, würde am 31.01. ein total verkrüppelter G80 für den OEM Bereich kommen, an dem würden die sich dumm und dämlich verdienen, da dann jeder PC mit Vista ausgestattet wird und jeder Händler mit DX10-Support preisen könnte.

Der G80 ist zu teuer in der Herstellung als das man funktionsfähige GPUs in unmengen künstlich verkrüppelt, eine High-End Karte hat im Großmengen OEM Rechner auch nix verloren - dafür sind die G84/G86 gedacht ...
 
Zuletzt bearbeitet:
Meistens sind die Gehäuse ja nicht zuklein sondern es ist nur irgendwas im weg, wie bei mir die Festplatten^^
 
[...]
Wenn ich NV wäre, würde am 31.01. ein total verkrüppelter G80 für den OEM Bereich kommen, an dem würden die sich dumm und dämlich verdienen, da dann jeder PC mit Vista ausgestattet wird und jeder Händler mit DX10-Support preisen könnte.

Nur geht das eben nicht so einfach. Ein verkrüppelter G80 wäre sehr, sehr viel teurer als z.B. ein RV560 in 80nm, also werden die Händler nicht einfach so umsteigen. Und da Vista DX10 nicht benötigt und DX10 den Großteil der Kunden gar nicht interessiert würde es auch nichts bringen.
 
inq schrieb:
We're talking about full-size, 12-inch boards with nice R600 XTX GPU and sixteen Samsung 32MB memory chips - that's right, whole Gigabutt of video memory connected to the GPU via that rumoured 512-bit memory interface.

geht es nur mir so, oder reden die doch von 1024MB (bzw. nem riesenarsch) video memory?
 
@Jlagreen
mit dem Vergleich Mobos wollte ich ansprechen, das dort auch die komplexität deutlich gestiegen ist und auch die Onboard Komponenten usw. aber es trotzdem "erzwungen" wird, das das Mobo in ein ATX Case passt!

Warum machen die sowas nicht auch bei Erweiterungskarten
max. Länge 24cm (oder in der Art) und gut ist, dann bekommt die Karten jeder ins Case, ...
Aber wie gesagt für die Paar Leute die heute High End kaufen, werden die Hersteller keine zusatzkosten auf sich nehmen
und die Mittelklasse Karten sind ja meinst kürzer!

Das problem ist das die Case Hersteller im Gegensatz zu früher den Platz neben den PCI Slots zubauen - früher hatte alle Gehäuse hier platz für Karten in voller Baulänge - 30,5cm.

da bin ich voll deiner Meinung, nur lesen sich für den Kunden 6-9 Platteneinschübe deutlich besser als 3!!!
Wobei man sich dann fragen sollte, welcher normale Mensch mehr als 2 Platten verbaut!
Eigentlich nahezu keiner
 
Doch, der Standard nennt sich PCI Express.
ich rede vom ATX Standard, das bei Mobos in erster Linie ein Standard für die Platinengröße bzw. genauer für die Lochabstände ist. Bei Grakas gibt es sowas meines Wissens nicht. PCIe ist eine Kommunikationsschnittstelle, das ist dann doch was anderes ;).

Das problem ist das die Case Hersteller im Gegensatz zu früher den Platz neben den PCI Slots zubauen - früher hatte alle Gehäuse hier platz für Karten in voller Baulänge - 30,5cm.
das Problem ist halt, dass man nicht allen Kunden gleichzeitig gerecht werden kann, es gibt zb. User, die eher mehr HDDs installieren als ne neue Graka und wiederum andere, die sowas nicht brauchen. Ich hatte selbst mal einen Chieftec mit einer X1800XT und kenne das nur allzu gut, aber trotzdem ist es gut, dass Chieftec den Platz beansprucht, denn ohne hätte ich eine externe Box für meine HDDs gebraucht, da ich die im Midi Tower gar nicht unterbekommen würde.

Lustigerweise passen lange grakas sogar in die meisten Mini-Barebones rein ...
auch mit den großen 2 Slot-Kühlern? Trotzdem sind die Grakas allein schon aufgrund ihrer Leistungsaufnahme und Wärmeentwicklung imo nicht dafür geeignet.

Der G80 ist zu teuer in der Herstellung als das man funktionsfähige GPUs in unmengen künstlich verkrüppelt, eine High-End Karte hat im Großmengen OEM Rechner auch nix verloren - dafür sind die G84/G86 gedacht ...
wieso ist der G80 zu teuer? wieso kostet ein FX so viel? wieso kostet der Quadcore so viel?

wieso kann Intel einen D805 jetzt so günstig anbieten und vor 2 Jahren haben die noch so ein Vermögen gekostet?

teuer ist der G80 aufgrund der hohen Produktionskosten und niedrigen Stückzahl. Auch darf es bei diesem keinen Ausschuss geben, funktioniert eine Shadereinheit nicht bei einer GTX so ist sie Abfall. Ein Chip für den OEM-Bereich wird in Massen hergestellt, Massenherstellung bedeutet bei Chips, dass die Kosten pro Chip geringer werden und die Fertigung sich verbessert, dh. eine Routine einkehrt, die Zahl der fehlerhaften Chips wird geringer. Außerdem wenn der OEM-G80 zb. nach Specs nur 16 funktionierende Shadereinheiten hat, dann wird die Herstellung auch günstiger. Es ist günstiger einen abgespeckten Chip zu produzieren als einen neuen, denn Letzterer benötigt allein schon wieder Entwicklungskosten und Spin-Outs.

Wenn es nicht so wäre, würden nicht andauernd abgespeckte 7900GTX und X1900XTX in allen möglichen Variationen sehen. Ein niedrigerer Takt zb. ist auch schon abgespeckt, denn damit sinkt ja auch die Anforderung an die Fertigungstoleranz.

Und außerdem hat NV das schon einmal gemacht und das nicht mal allzu lange her, namentlich die GF6800LE, die kurze Zeit nach der Ultra im OEM Markt erschien.

Das Problem ist nicht, dass es zu teuer ist, sondern ich denke eher, dass die Fertigungskapazitäten fehlen.

Der R600 wird sicher wieder ne geile Karte, seit der 9700 hat es ATI immer wieder geschafft mit ihrer neuen Generation wieder an die Spitze zu kommen, wenn auch etwas später. Allerdings spürt man die Auswirkungen des X1800-Debakels noch jetzt, wäre diese früher gekommen, hätten die Jungs früher am R600 entwicklen können bzw. das Team verstärken können.
 
Naja war denn dir X1800 und X1900 an der Spitze ??
 
ich weiss jetzt nicht, was du damit meinst, aber ich hatte in der Zeit als ich einen Chieftec hatte, folgende Boards drin, kenne die Namen ned mehr genau, nur die Chipsätze:

- DFI NF4 Ultra
- ASUS NF4 Premium (weiss gar ned mehr wie das hieß)
- Asrock NF4 (keine Ahnung mehr welches)
- Asrock S775
- ASUS S775
- Gigabyte S775

mit folgenden Grakas:

- X1800XT
- X1900GT
- X1900XT
- X800SE

und ich kann bestätigen, was ihr sagt, dass es ein Krampf in einem Chieftec ist, ich hatte auch deshalb im Käfig in der Mitte keine HDD. Das musste auch sein, man konnte die Karte dann zwar immer noch installieren, aber das Stromkabel habe ich dann nicht mehr dran gekriegt (hab bei dem Versuch fast das Graka-PCB gebrochen :p). Alternativ habe ich probiert erst Stromkabel und dann in den Slot, aber das Gefummele würde ich keinem empfehlen.

Mit meinem aktuellen Thermaltake Armor kenne ich sowas nicht :coolblue:

so ne G80 oder R600 reizt mich auch irgendwie, Geld ist vorhanden, das Prob ist nur, dass meine GTO jetzt schon 98% in 2D läuft und einfach nur des "Haben" wegen kaufe ich mir keine High-End Karte mehr. Ist halt voll geil, dass wenn man dann mal zockt, alles auf High spielen kann. So habe ich das bisher immer gemacht, aber nun ist schluss. Warte daher bis die GTS oder das ATI-Derivat so auf 250-300€ rutscht bzw. da was kommt ;).
 
Zuletzt bearbeitet:
mhh da hilft dann nur noch die festplatten ein schacht höher um flobby oder zu den cd rom laufwereken aber es ist schon verdammt knapp
 
mhh da hilft dann nur noch die festplatten ein schacht höher um flobby oder zu den cd rom laufwereken aber es ist schon verdammt knapp
jupp

hatte 3 HDDs, 1 beim Floppy und 2 im unteren Käfig oben und unten. Beim Floppy ist nur das nervige Prob mit der Kühlung, die war im Schnitt 10°C wärmer als die anderen :fresse:

beim Thermaltake Armor ist das göttlich, habe 4 HDDs installiert und ich könnte noch 5 weitere reinknallen und trotzdem ne neue NV/ATI einbauen :lol:
 
mhh joa :) aber naja wenn die länger wird als 24 Cm kann ich sie mit net kaufen scheiße xD
 
ich rede vom ATX Standard, das bei Mobos in erster Linie ein Standard für die Platinengröße bzw. genauer für die Lochabstände ist. Bei Grakas gibt es sowas meines Wissens nicht. PCIe ist eine Kommunikationsschnittstelle, das ist dann doch was anderes ;).

Ehem ? Die ATX Spec enthält einiges mehr als nur maße und lochabstände und PCI, AGP und auch PCIe haben in den Specs neben der elektronischen auch die Mechanischen werte für die Maximale länge und breite der Karten festgelegt.



auch mit den großen 2 Slot-Kühlern? Trotzdem sind die Grakas allein schon aufgrund ihrer Leistungsaufnahme und Wärmeentwicklung imo nicht dafür geeignet.

Ja, von Shuttle gibt es auch Modelle wo die Teile super reinpassen ...

wieso ist der G80 zu teuer? wieso kostet ein FX so viel? wieso kostet der Quadcore so viel?

vergleiceh von CPUs und GPUs sind kompletter unfug :rolleyes: Hat ein A64 DIE etwa 680M Transistoren ? Wird die G80 in MILLIONEN Stückzahlen gefertigt ?

wieso kann Intel einen D805 jetzt so günstig anbieten und vor 2 Jahren haben die noch so ein Vermögen gekostet?

Weil der Smithfield Core überlst veraltet istund den sonst keriner mehr kaufen würde ...

teuer ist der G80 aufgrund der hohen Produktionskosten und niedrigen Stückzahl. Auch darf es bei diesem keinen Ausschuss geben, funktioniert eine Shadereinheit nicht bei einer GTX so ist sie Abfall.

Nein, das ist dann eine GTS ;)


Ein Chip für den OEM-Bereich wird in Massen hergestellt, Massenherstellung bedeutet bei Chips, dass die Kosten pro Chip geringer werden und die Fertigung sich verbessert, dh. eine Routine einkehrt, die Zahl der fehlerhaften Chips wird geringer. Außerdem wenn der OEM-G80 zb. nach Specs nur 16 funktionierende Shadereinheiten hat, dann wird die Herstellung auch günstiger. Es ist günstiger einen abgespeckten Chip zu produzieren als einen neuen, denn Letzterer benötigt allein schon wieder Entwicklungskosten und Spin-Outs.

Das hab ich eben gesagt - G84/G86 ...


Das Problem ist nicht, dass es zu teuer ist, sondern ich denke eher, dass die Fertigungskapazitäten fehlen.

Es macht kein sinn eine High-End GPU so weit zu kastrieren das se im Midrange Segment landet - dafür gibt es die Midrange GPUs ... und so viel schlechte High-End chips gibt es nicht als das man diese in einem Produkt anbieten könnte denn die Nachfrage würde das begrenze angebot der sehr fehlerhaften GPUs beiweitem übersteigen ...
 
Zuletzt bearbeitet:
Ehem ? Die ATX Spec enthält einiges mehr als nur maße und lochabstände und PCI, AGP und auch PCIe haben in den Specs neben der elektronischen auch die Mechanischen werte für die Maximale länge und breite der Karten festgelegt.

So isses. Der Punkt heißt dann "Mechanical Specification". Die einzelnen Standards ergänzen sich hier. Darin stehen dann SLOT Maße, Bereiche die nicht verbaut werden dürfen (oberhalb und unterhalb des PCB), usw...

Hier ein Beispiel:
Dimensions.gif

Ich habe ca. 10 PDF's auf meinem Rechner rumfahren, durch die ich mich durchgearbeitet habe um mein Eigenbaugehäuse zu konstruieren (bin nun in der Bauphase). - So nun aber genug OT. :btt:
 
Meiner meinung können die die Karten so lange machen wie sie wollen. Hauptsache die Leistung stimmt. Notfalls komm ich einfach mit der Stichsäge und zerstückle meinen Festplattenkäfig :fresse:
 
Meiner meinung können die die Karten so lange machen wie sie wollen. Hauptsache die Leistung stimmt. Notfalls komm ich einfach mit der Stichsäge und zerstückle meinen Festplattenkäfig :fresse:

absolut zustimm:d ich hab grad mal gemessen und hab 29,5cm bis zum FK,von mir aus kann die Karte auch 32cm sein dann wird halt der Dremel rausgeholt:p hauptsache die is sau schnell:hwluxx:
 
Und wo kommen dann die Platten hin ??:rolleyes:

zur Not 1x im Laufwerksschacht und bei Bedarf noch Extern ..... :wink:

Greetz Koyote008


jop das stimmt. Aber wenn du überlegst wie groß die 6800 Ultra Karten damals schon waren, da war ATi einfach die Ausnahme.

Das konnten sie eben bei der X1800 dann nicht mehr hinbekommen.

Ich find große Karten schöner :d
Machen doch mehr her als so kleine Tolpatsche :fresse:

Dumm wirds nur wenn die grossen Tolpatsche sind .....

<<< zu seiner 8800GTS schielt.

..... sieht irgendwie noch hilfloser aus ... das arme Ding :d

Ich meine ... so kanns gehen das "20cm" OUT sind :shot:

Greetz Koyote008
 
Zuletzt bearbeitet:
20 cm sind perfekt füe eine Karte gute länge, am besten wären ca 17 wie meine 6600gt :>
 
Ich weis immernoch nicht was du damit sagen wolltest, schon klar das die GTX 27cm lang ist, nur was tut das zur Sache???

Du sagtest die haben das PCG des R600 auf 28cm gekürzt!
Und sagtest wenn man sich die GTX anguckt, wird man sich wundern???
wieso wundern, wenn die GTX schon zu lang, ändert sich nix dran, ...
neja aber egal!

Das mit dem Mobo kannst so nicht sagen, meist hängen genau dort, wo die Graka ist, diverse HDD-Käfige, und wer halt viele Platten hat, hat dort keinen Platz!

Mein damaliges KT7A-Raid ist auch nur 2-3cm kürzer als heutige Boards, und das war vor 5 Jahren, scheinbar ging es da auch die Größe der Boards so zu belassen, wieso klappt das da bei Grakas net???

Wollte damit sagen das die GTX nicht kleiner ist ;)
 
Wollte damit sagen das die GTX nicht kleiner ist ;)

doch, genau diesen einen besagten cm!
als beispiel, man hat nur 27,5cm Platz und will ne 28cm Karte verbauen, entweder wegflexen oder neuen Case!

Wobei das mit dem "was nicht passt wird passend gemacht" im Case zwar geht, aber wenn ich inne Wohnung ne Einbauküche (als Beispiel) kaufe, welche 5m lang ist und ich aber nur 4m und 95cm Platz habe, dann kann ich auch nicht einfach 5cm von der Wand rausfräsen!!!
 
Wobei das mit dem "was nicht passt wird passend gemacht" im Case zwar geht, aber wenn ich inne Wohnung ne Einbauküche (als Beispiel) kaufe, welche 5m lang ist und ich aber nur 4m und 95cm Platz habe, dann kann ich auch nicht einfach 5cm von der Wand rausfräsen!!!

Dann nimmst halt ne Flex mit 230er Stein-Trennscheibe - geht super! :p

Tatsache ist, dass der PCI Standard für Erweiterungskarten (der ATX Standard legt das nicht explizit fest) eine Kartenlänge von 312mm vorsieht. Wenn also eine Karte nicht in ein Gehäuse passt, ist es letztendlich eine gewollte Nachlässigkeit seitens der Case-Hersteller um Platz zu sparen. Genau genommen eine Schummelei, da mit entnommenem HD-Käfig die Karten passen. Es gibt auch richtige Fullsize-Midi-Gehäuse, die sind dann etwas tiefer und man kann trotz verbautem HD-Käfig eine Fullsize-Add-In-Karte einbauen.

Also wenn man hier jemandem einen Vorwurf machen will, dann eigentlich den Case-Herstellern, denn die haben sich die Standards etwas zurecht gebogen. Denn jede Erweiterungskarte mit bis zu den besagten 312mm Baulänge ist standardkonform.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh