ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
seio schrieb:
Inquirer hat Bildzeitung Niveau, heißt: Nicht alles glauben was die Redakteure da schreiben.

Ein zweites Netzteil halt' ich für totalen Nonsens. Selbst der R600, der ja angeblich mehr heizen soll als der G80 wird kein zweites Netzteil benötigen.


Daß der Inq Bildzeitungsniveau hat bedeutet nicht daß er falsch liegt. Der Inq hatte schon mit sehr vielem (auch unglaubliche Sachen) recht. Und zum R600: Woher willst du wissen daß er keine externe PSU hat?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ein SLI-System verbraucht immernoch mehr Strom als eine einzelne G80 oder R600. D.h., es ist nicht der tot. Hoffentlich bessern sich aber die Hersteller mit dem Stromhunger in der Zukunft.

Problem ist eher die Verschiebung der G80. Klar ist auch nicht, wie weit es sich verschiebt. Vllt. auch nur 1-2 Monate, vllt. auch gar nicht, denn es ist ein Inquirer-Gerücht. Vllt. ist es auch nur ein Anti-Marketing-Gerücht gegen NV...
 
Zuletzt bearbeitet:
w0mbat schrieb:
Daß der Inq Bildzeitungsniveau hat bedeutet nicht daß er falsch liegt. Der Inq hatte schon mit sehr vielem (auch unglaubliche Sachen) recht. Und zum R600: Woher willst du wissen daß er keine externe PSU hat?

Ich kann dir nicht sagen ob der R600 ein zweites Netzteil braucht. Bin mir aber ziemlich sicher das es nicht so sein wird. Die Entwickler wollen, denk ich mal, den Prozessor möglichst sparsam bauen.

Nächste Woche steht dann im Inquirer: " G80 needs 2x 450 PSU's "
 
do0T schrieb:
Habe gerade gelesen dass der G80 Chip angeblich nen externes Netzteil benötigt?! Das deutet ja wohl auf nen heftigen Verbrauch hin..... Wenns denn stimmt


Quelle www.tweakpc.de
LoL ? Nen Zweizeiler der auf nem Inq. Posting stammt als News bringen ... also da gehört scho a bissi mehr dazu.

Den Inq. artikel hatte ich eben scho gepostet und da hat keiner die erwähnung vom Externen NT mitbekommen ...
 
w0mbat: Meinst du vielleicht so ein " Extra " Netzteil, wo man hinten an der Grafikkarte einstecken kann/muss, wie es bei der 7900 Dual der Fall war? Mmh, wär schon möglich, allerdings glaub ich nicht das man so ein mini PSU braucht.
 
seio schrieb:
Ich kann dir nicht sagen ob der R600 ein zweites Netzteil braucht. Bin mir aber ziemlich sicher das es nicht so sein wird. Die Entwickler wollen, denk ich mal, den Prozessor möglichst sparsam bauen.

Nächste Woche steht dann im Inquirer: " G80 needs 2x 450 PSU's "
Der Inq. spricht aber immer davon das der R600 MEHR verbrauchen wird als der G80 ;)
 
Anarchy schrieb:
LoL ? Nen Zweizeiler der auf nem Inq. Posting stammt als News bringen ... also da gehört scho a bissi mehr dazu.

Den Inq. artikel hatte ich eben scho gepostet und da hat keiner die erwähnung vom Externen NT mitbekommen ...

Jo stimmt schon. Nen Zweizeiler wäre ja fast noch zu wenig um hier nen neuen Thread zuerstellen : )

Gabs das mit dem externen Netzteil auch bei anderen Grafikkarten außer der Voodoo 6000(5500?)?
 
Zuletzt bearbeitet:
seio schrieb:
w0mbat: Meinst du vielleicht so ein " Extra " Netzteil, wo man hinten an der Grafikkarte einstecken kann/muss, wie es bei der 7900 Dual der Fall war? Mmh, wär schon möglich, allerdings glaub ich nicht das man so ein mini PSU braucht.


Ja, genau das stelle ich mir darunter vor.
 
Fände ein externes NT gar nicht so schlimm.
Wo soll denn das sonst mit den "normalen" NTs hinführen - gibt ja mittlerweile schon 1kW-NTs zu kaufen ... Irgendwann wird's abartig.
 
Sollen die doch ihr kleines Mininetzteil dazu legen, benutzen werde ich es eh nicht. Ist mir zu doof der Graka ein eigenes Netzteil zu spendieren. Wobei die externen Netzteile einen schlechten Wirkungsgrad haben d.h. das die Graka nochmehr Strom ziehen würde als bei einem normalen internen PSU.
 
ach scheisse wenn das wahr sein soll mit dem externen NT und es keine möglichkeit gibt die mit dem Internen NT zu betreiben wars das für mich...
bei der Asus 7800GT Dual mit externem NT mussten die nutzer auch nicht das externe NT benutzen, die karte ließ sich auch mit dem internen NT betreiben, was auch besser so ist denn wie Rain schon sagt haben diese externen NT,s einen schlechteren wirkungsgrad und fressen mehr strom. ich hoffe NV lässt diese option offen, wenn ja ists mir egal wenn die mir aus spass ein externes NT dabei packen,
allerdings wärs mir recht wenn mein NT zu schwach ist, habe ein Liberty 500W und mein systen zieht jetzt schon über 400W im 3D mode, mal sehen

edit:
später vovember wird sie wohl erst erhätlich sein :(
echt shit
jetzt habe ich gar keine freude mehr, sind ja noch gute 10 wochen...
anfang november wären ja nur noch 6 wochen... aber was solls.... echt zum :kotz:
da lohnt es sich ja fast garnicht mehr sofort zu zu schlagen falls ATI pünktlich 1-3 wochen später nachrückt...
durch den ATI launch fallen dann nähmlich sicher die G80 preise extremst, naja vieleicht wird ati auch probleme und verzögerungen haben und erst im Januar kommen wer weiss, steht für uns end verbraucher noch in den sternen.

edit 2 : eine frage jhabe ich noch
wie war dass mit diesen 150W maximal pro grafik karte,
wieso gehen nicht mehr ? mit externem NT könnten die ja locker mit 200W versorgt werden aber wo liegt da die physikalische grenze ? an der abwärme oder an was anderem ? denn die 7900GX2 hatte ja schon 143W verbrauch und war knapp vor dieser grenze, daher währe ein externes NT schwachsinn wenn die karten eh nicht mehr als 150W nutzen können,
und wie gesagt dieses NT sollte nicht pflicht sein sondern so wie bei der dual7800GT..... Nvidia sollte mal besser hier mit lesen hehe

mfg Night
 
Zuletzt bearbeitet:
hab auch mal ne frage:
Wie stehen die chancen, dass nVidia den G80 dieses jahr noch rausbringt?!?! hab schiss mir keine neue graka wegen der mwst-erhöhung kaufen zu können... läuft ja wohl eher aufs 1. quartal 07 hinaus, oda?

€: Meint ihr es lohnt sich zu warten?? Wollte mir wahrscheinlich ne 7900 GS holen... meine 6800GS tut noch seinen dienst mit akzeptabler geschwindigkeit. Wenn dann wollte ich nur nen G80 im mid-range segment. Lohnt es sich jetzt noch ne DX9 karte zu kaufen so "kurz" vor dem release des G80??
 
Zuletzt bearbeitet:
lol. Mach dir keine Gedanken über die MwSt-Erhöhung.
Sagen wir eine Graka kostet ohne MwSt 400
Mit MwSt von 16% -> 464
Mit MwSt von 19% -> 476
Ganze 12 Euro mehr :eek: Naja, ich meine, wer soviel Geld ausgibt, kann auch 12 Euro mehr ausgeben. Nicht, dass es heißen soll, dass ich die MwSt-Erhöhung so toll finde...

PCIe mit einem Stecker für einen PCIe Stromadapter vom Netzteil stellt 150 Watt bereit. So ist es vereinbart worden als man PCIe standadisiert hat.

Aber was solls, wenn noch ein zusätzlicher Stecker zur Grafikkarte geht. Ich meine, die Leute, die 500 Euro für Grafikkarten haben, können dann auch wohl 5 Euro mehr im Jahr für Strom zahlen. Natürlich sollte aber die Entwicklung zu stromsparenden Geräten führen, allein wegen der Umwelt, zweitrangig auch für kühlere Chips...

@ Proz@C++

Wenns nicht so dringend ist und du flüssig Spiele spielen kannst mit mittleren Details, warte. Ansonsten kaufe eine vernünftige Karte. Denn DirectX9 wird es jahrelang noch geben. Außerdem kommen D3D10-Spiele erst so in 2 Jahren in etwas breiterer Masse raus. Einzig und allein Crysis wird ein "teils" D3D10-Spiel, was bald rauskommen soll. Dieser wird dann aber hinterher noch optimiert werden müssen zur D3D10-Schnittstelle, so die Entwickler.

Den Vorteil, den ich von den Next-Gen-Chips erhoffe und erwarte ist, dass wegen der neuen Architektur (auch die G80 hat eine neue Architektur) große Geschwindigkeitsvorteile 50% < errungen werden.
 
Zuletzt bearbeitet:
Also, ich werde es mir 2 x überlegen ob ich ein Grafikkarte mit externen NT mir kaufe, ich hoffe das es bei ATI besser läuft, zudem ich ja nicht glauben kann das Nvidia so ein Unfug machen sollte mit externen NT.
 
@ Bud Spencer
was verstehst du unter "vernünftig", hab keine lust mir ne karte für 400 flocke zu kaufen!!! Außerdem ist die 79GS gar nicht mal so schlecht, lässt sich wunderbar auf GT niveau bringen... sind ja "nur" 4 pp und jeweils 40 MHz dazwischen, nunja die pp's bleiben aber den takt, kann man höher schrauben. und soviel ich weis ist die 79GT immer noch high-end (wenn auch knapp). Muss ja auch auf meinen cpu achten, dass der nicht zum flaschenhals wird.
 
Zuletzt bearbeitet:
Viva schrieb:
Also, ich werde es mir 2 x überlegen ob ich ein Grafikkarte mit externen NT mir kaufe, ich hoffe das es bei ATI besser läuft, zudem ich ja nicht glauben kann das Nvidia so ein Unfug machen sollte mit externen NT.

Und wo ist da Problem?
 
Proz@C++ schrieb:
@ Bud Spencer
was verstehst du unter "vernünftig", hab keine lust mir ne karte für 400 flocke zu kaufen!!! Außerdem ist die 79GS gar nicht mal so schlecht, lässt sich wunderbar auf GT niveau bringen... sind ja "nur" 4 pp und jeweils 40 MHz dazwischen, nunja die pp's bleiben aber den takt, kann man höher schrauben. und soviel ich weis ist die 79GT immer noch high-end (wenn auch knapp). Muss ja auch auf meinen cpu achten, dass der nicht zum flaschenhals wird.

Hol dir doch einfach eine Graka um die 200 und verkaufe sie später für 100-150.
 
ja gut, aber erst muss ich mal meine 6 monate alte 68gs loswerden (Einkaufspreis 210€), wie viel gekomm ich denn für die?? Ab und zu OC aber nur zu testzwecken.

Hinweis!!!!
ich sehe das ich Off-topic schreibe und deswegen bitte ich vielmals um entschuldigung!!
 
sogar weniger, wenn ne 7600gt für 130€ zuhaben gibt
 
bei ebay ist sicher einiges drinnen, ich hab meine vor 6 mianten für 280€ verkauft
:lol:
 
Night<eye> schrieb:
anfang november wären ja nur noch 6 wochen... aber was solls.... echt zum :kotz:
da lohnt es sich ja fast garnicht mehr sofort zu zu schlagen falls ATI pünktlich 1-3 wochen später nachrückt...
durch den ATI launch fallen dann nähmlich sicher die G80 preise extremst, naja vieleicht wird ati auch probleme und verzögerungen haben und erst im Januar kommen wer weiss, steht für uns end verbraucher noch in den sternen.



Night<eye> schrieb:
wie war dass mit diesen 150W maximal pro grafik karte,
wieso gehen nicht mehr ? mit externem NT könnten die ja locker mit 200W versorgt werden aber wo liegt da die physikalische grenze ? an der abwärme oder an was anderem ? denn die 7900GX2 hatte ja schon 143W verbrauch und war knapp vor dieser grenze, daher währe ein externes NT schwachsinn wenn die karten eh nicht mehr als 150W nutzen können,
und wie gesagt dieses NT sollte nicht pflicht sein sondern so wie bei der dual7800GT..... Nvidia sollte mal besser hier mit lesen hehe

mfg Night


kann sich mal jemand konkret mit meinen sätzen befassen, ist es möglich mit mehr als 200W ?
 
Gerüchte Voraus :

http://uk.theinquirer.net/?article=34359


Ich frag mich welcher News Schreiber diese News die selbst vom Inq. als "zweifelhaft" dargestelt wird zuerst als Warheit verkauft ...

mal zusammengefasst :

1. 2 * 2 cm, or about a 400mm die ( :eek: )

2. 96 pipes, split as 48 DX9 pipes and 48 DX10 ( würd ich mal als unfug bezeichnen )

3. We hear G80 has about 1/3 of it's die dedicated to DX10 functionality ( K. A.)

4. Early G80 boards are said to have 12 memory chips on them

5. 12 * 32 gives you a 384b wide bus ( Wieso net )


Und jetzt kocht die Gerüchteküche über :fresse:

Nicht vergessen - das nichts hiervon bestätigt ist ...
 
Zuletzt bearbeitet:
Scheisse man, G80 nur mit externem NT auch laut Inq (http://uk.theinquirer.net/?article=34319). Dazu noch der Respin und ich habe das Gefühl der G80 wird ein richtiger Flopp.

Ich hab da aber auch was von "weird beast" und so gelesen. Ich gebe die Hoffnung nicht auf :)
Ich kann dir nicht sagen ob der R600 ein zweites Netzteil braucht. Bin mir aber ziemlich sicher das es nicht so sein wird. Die Entwickler wollen, denk ich mal, den Prozessor möglichst sparsam bauen.
Das haben sie ja in der Vergangenheit eindrucksvoll bewiesen. :fresse: Ich rieche einen Fanboy, oder hast Du Infos, die Du uns verschweigst? Rein aus technischer Sicht dürfte der R600 eher ein externes NT brauchen, als der G80. ;)

Nächste Woche steht dann im Inquirer: " G80 needs 2x 450 PSU's "
Angeblich brauchte man ja für ein QuadSLI auch 1000W. Warum kenne ich dann Leute, die das mit einem Stino 600W NT bewerkstelligt haben :hmm:

Meinst du vielleicht so ein " Extra " Netzteil, wo man hinten an der Grafikkarte einstecken kann/muss, wie es bei der 7900 Dual der Fall war?
Wenn das bei der Graka dabei ist, wäre mir das lieber, als wenn ich mir ein neues NT kaufen müßte, weil die Graka 600W NTs braucht. Halte ich aber beides für unzutreffend.

@Anarchy
Tja, die Infos sehen alle zweifelhaft aus. Ich glaube noch nicht an einen einzigen Punkt. Abwarten. nv ist sehr erfahren, die werden das schon machen. ;)
 
Zuletzt bearbeitet:
Wären das mit den 48 Pipes jeweils für DirectX9.0 und Direct3D 10 nicht quasi 2 Karte auf einer Karte???
Finde ich seeehr komisch die Meldung ;)
Naja

G83 ich komme ;)

mfg

Marvin
 
Das ist doch blödsinn.. wieso sollte man so einen großen aufwand nur für d3d10 betreiben?! o_O

ich denke das nvidia da schon ne bessere lösung gefunden hat als alles zu verdoppeln...
 
also die gerüchte find ich ja mal sau lächerlich :lol:

€: obwohl punkt 4 garnet mal unsinnig wäre , warum auch immer sie 12 module verbauen "würden"
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh