G80 Photos hier

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Für was soll das eigentlich sein?
 

Anhänge

  • 1159518316603yj6.jpg
    1159518316603yj6.jpg
    135,2 KB · Aufrufe: 184
LOL!!

das is für SLI?! ^^
 
8850GX² mit externer 5000W PSU :d
 
wird denn die graka nun wirklich 768 MB DDR4 speicher besitzen ? bzw. die 384 Bit speicheranbindung :hmm: :confused:


edit: mit der ramgröße hat sich geklärt hat ja 12 Speicherblöcke drauf
 
Zuletzt bearbeitet:
glaube kaum dass sie diese komischen specs haben wird, wie viel ram schätzt ihr ? 1024 ?
 
12 x 64 = 768 MB
 
sry, aber ich muss meinen strom selber zahlen und denke an den umwelt. ich bin ein guter junge. aber diese karte...die ist böse.
Böööööseee!!!
 
sry, aber ich muss meinen strom selber zahlen und denke an den umwelt. ich bin ein guter junge. aber diese karte...die ist böse.
Böööööseee!!!

wieso böse ?
2 6800GT im SLI ziehen mehr
2 x 7800er im SLI ziehen auch mehr
und von den ATI,s im CF ganz zu schweigen :)
 
Ich warte erst auf denn R600 und dann werde ich entscheiden welche Next gen Karrte ich mir kaufen werde.Wird zu 99 % die Ati sein aber mall gucken,vielleicht ist die Nvidia ja doch schneller was aber wohl nicht so sein wird...Ich rate auch allen anderen erst auf denn R600 zu warten,wenn der R600 dann doch schneller ist hat man umsonst Geld ausgegeben.
 
wieso böse ?
2 6800GT im SLI ziehen mehr
2 x 7800er im SLI ziehen auch mehr
und von den ATI,s im CF ganz zu schweigen :)

hab die genauen zahlen für SLI gerade nich im kopf, aber dafür meine zweifel, ob Einzelkarten, egal wieviel cores darauf verbaut sind, Sinn machen. Jedenfalls, wenn der Stromverbrauch wirklich deutlich über 150W liegt. Frag mich auch, wie sie aus diesen Chips midrange Versionen machen wollen, die unter 100W verbrauchen. Jedenfalls wäre meine These, dass es viele Leute gibt, denen der Stromverbrauch egal ist, besonders im *KaufenKaufeKaufen-high-end=bigpeniz*-Segment ;), aber auch ebensoviele Leute in den Kaufsegmenten darunter, die solche Karten und Versionen über 100W schlicht ablehnen. Und daher müsste sich laut marktwirtschaftlicher Theorie auch ein Angebot entwickeln.

PS: Kann ich mir einfach nich vorstellen, dass die Grafikkarten-Zukunft schlimmer als die CPU-Vergangenheit werden soll in Sachen power consumption.


PPS: ah...danke an jurrasstoil :)
 
Zuletzt bearbeitet:
Aus welchem Entwicklungslabor hats da wieder geleacked?
Irgendwie ist mir das Suspeckt, über Softwareleaks liegt das Schwert der Moderation, aber bei Hardware ist jede Moral vergessen :bigok:

Aber ich muß schon mal anmerken, eine versorgliche Wasserkühlung anzubieten ist wirklich ääh..mutig und schafft vertrauen lol, zwei PCIe Stecker, ohje.
 
Aus welchem Entwicklungslabor hats da wieder geleacked?
Irgendwie ist mir das Suspeckt, über Softwareleaks liegt das Schwert der Moderation, aber bei Hardware ist jede Moral vergessen :bigok:

Naja, mit Software kann man ja was anfangen und hat etwas, was man normal nicht haben sollte... Das hier sind nur ein paar Bilder, die Hardware hat man deshalb noch lange nicht....

und zum Thema: Abgesehen von der Leistung die noch unbekannt sind ist die große Länge und die 2 Stromstecker schonmal 2 klare negativ-Gründe, ich weiß nicht warum manche hier gleich große Augen bekommen, wenn sie das sehen...
 
releasemodell abwarten, der ganze Rest ist per definition nur spekulation - interressante, aber dennoch nur spekulation
 
mir kommt auf der 1 seite komisch vor das da ein altes nvidia logo drauf ist :p
 
Zuletzt bearbeitet:
2 6800gt: 110W
2 7800gt: 122W
2 7950gt: 98W
2 7900gtx: 190W
2 7950gx²: 288W

kann nicht sein

eine 6800ultra brauch 130W
da wird eine 6800GT nicht unter 100W brauchen
also 2 x 6800GT = über 200W !!!
und eine 7950GT brauch 98w also x 2 doch mehr als der G80 :)
.
Nachtrag (mir ist noch was dazu eingefallen):

Ich warte erst auf denn R600 und dann werde ich entscheiden welche Next gen Karrte ich mir kaufen werde.Wird zu 99 % die Ati sein aber mall gucken,vielleicht ist die Nvidia ja doch schneller was aber wohl nicht so sein wird...Ich rate auch allen anderen erst auf denn R600 zu warten,wenn der R600 dann doch schneller ist hat man umsonst Geld ausgegeben.

lol du bist mir n fritz :)

die ati kommt 3 monate später.
wenn die 3 monate später kommt wird sie wohl kaum lahmer werden :wink:
und geldverschwendung weil 3 monate ein schnelleres produkt raus kommt ? dann lohnt sich deiner meinung ja nie dass kaufen einer neuen graka weil alle paar monate was schnelleres fürs gleiche geld raus kommt. und eine graka hat jeden tag einen wertverlust. also dein these ist pures ati fan geblubber :coolblue:
 
Zuletzt bearbeitet:
Soll das die Final Version sein? Ich kann mir noch gut vorstellen das verschiedene Hersteller verschiedene Kühler auf die Karte draufkloppen.
 
Soll das die Final Version sein? Ich kann mir noch gut vorstellen das verschiedene Hersteller verschiedene Kühler auf die Karte draufkloppen.

dass ist evtl nur ein betha kühler oder schon die entgültige referenz obwohl bei GTX bzw Ultra und GT wohl unterschiedliche kühler im referenz kommen sollen, den herstellern bleibt überlassen ob sie ihre eigene lösung benutzen. denke ich aber weniger
seid der 7800gtx512 und 7900gtx und x1900xtx und x1950xtx haben die hersteller alle die referenz kühler dran gelassen,
bei der 7800GTX Top von asus war noch ein silencer drauf und bei der X1800XT von asus war auch mal ein geiler kühler drauf. aber sowas ist nicht zu erwarten, wird den herstellern wohl doch zu heiss bei den absoluten high end modellen,
bei den GT modellen ist eher der fall von eigenen lösungen
 
Soll das die Final Version sein? Ich kann mir noch gut vorstellen das verschiedene Hersteller verschiedene Kühler auf die Karte draufkloppen.
Normalerweise bleiben die High-End Teile unangetastet ... siehe 6800U, 7800GTX, 7900GTX, 7950GX2 ...

Die Kleineren Modelle bekommen ein eingenes Design.
 
kann nicht sein

eine 6800ultra brauch 130W
da wird eine 6800GT nicht unter 100W brauchen
also 2 x 6800GT = über 200W !!!
und eine 7950GT brauch 98w also x 2 doch mehr als der G80 :)
Das ist leider völliger Quatsch xD
http://xbitlabs.com/articles/video/display/power-noise_4.html

und hier:
http://geizhals.at/a135056.html Maximaler Verbrauch: 55W

Die 7950gt is bei geizhals leider falsch angegeben :(
http://www.computerbase.de/artikel/..._gt_570m_extreme/23/#abschnitt_stromverbrauch
Die X1900GT verbraucht 75W, (246-235 = 11W) Wirkungrad noch mit einberechnet dürfte die 7950gt (Overclocked!) knapp 65W verbrauchen. Eine normale 7950gt wird sich dann wohl so 50-55W gönnen. Link (Gesamtsystem)

PS: Ne 6800Ultra brauch 72W :)

PSS: Um die riesige Linksammlung des Grafikkarten Stromverbrauchs noch abzuschließen:
http://www.xbitlabs.com/articles/video/display/gpu-consumption2006.html
 
Zuletzt bearbeitet:
die angaben kannste knicken, die angaben sind nicht korekt, oder bedeutet 130w tpm nicht = 130w verbrauch bei vollast :confused:
 
?
Gib mal nen Link.
Wo hast du die angaben her?
Ich hab nun 4 unabhängige(!) Seiten verlinkt (xbitlabs, computerbase, geizhals und neoseeker), die alle auf das selbe hinauslaufen...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh