nVidia GK100/Geforce 6xx [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
@axelchen
Für mich wäre das so wen ich für 1000-1200 Euro die Leistung nicht umsetzen könnte im SLI nur weil mir der Ram aus geht.
Für Leute mit einer Karte reichen die 2GB ja.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@bomann
Da ich auf SLI setzen würde könnte ich mir den Speicher auch zu nutze machen zb.3840*2160 Auflösungen verwenden im Single Player da konnte ich zb bei BF3 mit 2* HD7970ern locker an die 2400-2700MB füllen je nach Setting MSAA 0,2,4 oder FXAA.
Da die Karten aber gefiept hatten wie Sau habe ich sie zurück geschickt und warte nun auf das was NV bringt.

ich kann bei meiner karte keinen mucks hören ist halt kein referenzmodell (bin kein fan von solchen mein letztes war ne 580gtx von evga die ging ja gar nicht ) .

MfG
 
Ich bin dafür falls Nvidia wirklich in diesem Jahr eine Grafikkarte vorstellt das sie GTR genannt wird das erinnert mich an den Nissan ^^
 
hmm

Schon beängstigend, der letzte Absatz aus:

Debüt von Nvidias

"Wie viel die Gerüchte aber wirklich wert sind, kann aktuell keiner einschätzen. Denn viele Boardpartner haben auf der CeBIT eher die Journalisten gefragt, ob diese denn schon Informationen hätten, da man selbst noch ziemlich im Dunkeln steht. Und so sind letztlich sowohl die Bezeichnung GeForce GTX 680 als auch alle anderen Details weiterhin höchst fraglich. Am Ende ist letztlich also nur eines sicher: Nichts ist sicher!"

Falls die Boardpartner wirklich nichts wissen, wie wollen die dann Karten bauen. Wahrscheinlich gibs keine Chips (siehe SA) und somit wirds wohl nur ne "Techdemo" der Karte,
 
Sie bauen keine Karten. Sie kleben eher ihre Sticker-Folien auf die Karten.

Das nVidia so dicht hält, liegt wohl daran, dass sie diesesmal nicht wollten, dass ein AIB eine kleine Benchmarksession abhält wie es mit Fermi auf der Cebit der Fall war. Demnach sollte man den Leistungssaussagen von Heise nicht viel Gewicht beifügen.
 
Falls die Boardpartner wirklich nichts wissen, wie wollen die dann Karten bauen. Wahrscheinlich gibs keine Chips (siehe SA) und somit wirds wohl nur ne "Techdemo" der Karte,

Die Boardpartner bauen keine Referenzkarten!

Die bekommen die fertig geliefert und schmeissen nur individuell nach "Hersteller" ihr Zubehör dazu und kleben ihr Label drauf.
 
Stimmt die Partner bauen keine Ref.-Karten, aber verkaufen wollen sie diese doch. Da will die Werbetrommel gerührt sein, aber ohne Karten zum labeln und Specs für die Homepage, Layout für die Druckerei um die Verpackung mit schönen Bildern zu erstellen, Handbuch, CD usw.? Ich denke nicht das Nvidia die Partner mit nem Rundrumsorglos-Paket ausstattet. Somit finde ich das dieses doch nicht so unkritsch zu sehen ist.
 
Zuletzt bearbeitet:
Neue Bilder: 3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Kepler - 28nm - 2012

2x6PIN als Turm, Kühlung der GTX580, leicht kürzer als die GTX570/GTX580. Aufjedenfall sollte die Karte sehr leise - mindesten GTX570 Niveau. Und dank Radial lässt sich dann auch SLI vernünftig verwenden.

Stimmt die Patrner bauen keine Ref.-Karten, aber verkaufen wollen sie diese doch. Da will die Werbetrommel gerührt sein, aber ohne Karten zum labeln und Specs für die Homepage, Druckerei für die Verpackung mit schönen Bildern, Handbuch, CD usw.? Ich denke nicht das Nvidia die Partner mit nem Rundrumsorglos-Paket ausstattet. Somit finde ich das dieses doch nicht so unkritsch zu sehen ist.

Also Verpackungen und Bilder werden vorher angefertigt. Zubehör und Co schon fertig in die Kartons gepackt. Die Karten kommen an, werden verziehrt und dann in die Kartons gelegt. Da die Verfügbarkeit angeblich erst in 14 Tage sein soll, also genug Zeit für die AIBs.
 
Zuletzt bearbeitet:
Wenn diese schon jetzt fertig sind, dann weiß ich auch was drauf steht, zB: 700Mhz, 2 GB, 1536 Shader usw. Warum dann das angebliche Unwissen? Ich glaube die Partner wissen mit Ausnahme von evt. EVGA wirklich nichts.
 
Zuletzt bearbeitet:
Wenn diese schon jetzt fertig sind, dann weiß ich auch was drauf steht, zB: 700Mhz, 2 GB, 1536 Shader usw. Warum dann das angebliche Unwissen? Ich glaube die Partner wissen mit Ausnahme von evt. EVGA wirklich nichts.

Die Daten kennt doch jeder, oder? :d

Ich glaube, viele AIBs wollen mehr wissen: Leistung z.B.
 
Für Werbung ala:

" World fastest Single-Gpu ever!" ;-)

Das geht schnell. Und ich wette, dass die Leute, die davon wissen müssen, auch schon von nVidia gebrieft wurden. Manchmal nehmen sich Leute für wichtiger als sie es wirklich sind. Daher sollte man dem normalen Standmitarbeiter nicht gerade als Maßstab sehen.
 
Woher weisst Du das die leicht kürzer ist? Geschätzt?

Neue Bilder: 3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Kepler - 28nm - 2012

2x6PIN als Turm, Kühlung der GTX580, leicht kürzer als die GTX570/GTX580. Aufjedenfall sollte die Karte sehr leise - mindesten GTX570 Niveau. Und dank Radial lässt sich dann auch SLI vernünftig verwenden.



Also Verpackungen und Bilder werden vorher angefertigt. Zubehör und Co schon fertig in die Kartons gepackt. Die Karten kommen an, werden verziehrt und dann in die Kartons gelegt. Da die Verfügbarkeit angeblich erst in 14 Tage sein soll, also genug Zeit für die AIBs.
 
Hab mal durchgewischt... Die Diskusion über Moderationsentscheidungen hat hier nix verloren ;)
:btt:
 
also der kühler sieht schonmal gut aus. Wenn die Stromanschlüsse neben einandere gewesen wären,dann hätte die Karte länger sein müssen, wenn man mal richtig hinguckt.

Lochabstände sehen auch gut aus,vielleicht passt der Peter ja trotz Turm-Stromanschluss drauf. Hoffe ja der GPU ist nicht tiefer als der Rahmen,wie es bei AMD momentan der Fall ist. Denke aber auch die Karte wird ruhiger sein wie eine 580/7970.
 
Zu den TMUs: Wieviele TMUs hat GF114 und wieviele GF110? Beide 64. So könnte es auch bei GK110 sein. Wobei ich mich frage, woher der dann seine Performance nimmer. Bandbreite, mehr ROPs und mehr Shader? 128 TMUs@800MHz sollten eigentlich erstmal reichen.

Wenn es 128 TMUs werden OK, aber beim GF114 zu GF110 sieht man ja schon, ersterer hat minimal mehr Filterleistung, aber ~20% weniger ALU Performance. Gerade in Filterlastigen Games kommt man mit ein wenig Takt auf dem 560TI Karten schon ziemlich nahe an die GF110er ran. Logisch kompensiert man allein durch TMUs nicht die ALU Leistung, das sollte klar sein, dennoch würde ich den Schritt nicht begrüßen, wenn man hier zuungunsten der TMU Leistung agieren würde ;)
Die ALU Power dürfte ja nach aktuellen Gerüchten durchaus auf das doppelte anwachsen... Je nach Takt auf der GPU und Anzahl der TMUs könnten diese aber weniger Leistungszuwachs bekommen... Mal gucken was ist ;)


Zum Turbo, also nach der Meldung im 3DCenter scheint das Feature ziemlich sinnfrei zu sein. 3-7% oder was da stand an Leistungsplus gehen da irgendwie leicht unter :fresse:
Dann lieber die GPU werksseitig mit dem Turbotakt befeuern, und alles was über die Stränge schlägt obenraus wegdrosseln... (letzteres macht man ja so oder so schon)
Dann könnte man sich den Turbo auch sparen...

Lochabstände sehen auch gut aus,vielleicht passt der Peter ja trotz Turm-Stromanschluss drauf. Hoffe ja der GPU ist nicht tiefer als der Rahmen,wie es bei AMD momentan der Fall ist. Denke aber auch die Karte wird ruhiger sein wie eine 580/7970.

Also ruhiger als ne 580er dürfte durchaus im Rahmen des Möglichen sein... Weil der Verbrauch wohl deutlcih niedriger liegen wird, und somit auch die Wärmeabgabe. Bei den AMDs ist der Vergleich halt nur schwer möglich. Vor allem, weil dort andere Leute die Lüftersteuerung austüfteln und sich andere Sachen bei denken ;)
Wenn der Verbrauch aber unter Tahiti XT liegen sollte, dann wäre das sicher auch schaffbar.
 
Zuletzt bearbeitet:
naja ich habe die 7970 als sehr laut empfunden, das wird nicht schwer werden für NV. Die NV Ref lüfter sind eh was ruhiger bzw angenehmer. Was auch wichtig ist das die Karte nicht fiept.



Zum Thema Hersteller,ich glaube die richtigen Leute wissen da schon mehr. Die Leute auf Cebit usw sind ja nur Mitarbeiter oder Vertreter.
 
Zum Turbo, also nach der Meldung im 3DCenter scheint das Feature ziemlich sinnfrei zu sein. 3-7% oder was da stand an Leistungsplus gehen da irgendwie leicht unter :fresse:
Dann lieber die GPU werksseitig mit dem Turbotakt befeuern, und alles was über die Stränge schlägt obenraus wegdrosseln... (letzteres macht man ja so oder so schon)
Dann könnte man sich den Turbo auch sparen...

Na, wenn man dieses dynamische Clocking nicht versteht, wird man auch nicht die Vorteile begreifen. :d
Es ist die logische Konserquenz aus den Limitierungstechniken von GF110 und Cayman - Das Ausnutzen der kompletten TDP. Und 5% kostenlos mitnehmen, ist doch klasse. Und mit dem Schalter kann man das ganze doch pro Spiel/Anwendungen nach eigenen Wünschen einstellen.

Problematisch wird es nur, wenn man bei Übertaktung behindert wird, da es sich nicht abschalten lässt.
 
Radial für SLI, Axial für Single-Karten.

Bei weniger als 200 Watt kann wohl auch gut mit Radial leben.
 
Unterm Strich muss bei Vergleichen natürlich die Basis gleich sein...
Sprich die Temperaturen oder ähnliches sollten schon als Indikator rangezogen werden. Mir persönlich nutzt es nix, wenn ich NV mit AMD Vergleiche, und die AMD zwar laut, dafür aber kühl bleibt, es bei NV aber genau andersrum ist, NV dabei dann als besser hinzustellen.
Vor allem aus OC Sicht (für mich persönlich sehr interessant) muss der Kühler bei 100% das Teil halbwegs im Rahmen kühlen... Meine zwei GF100 GPUs bring ich mit default Lüfter in gewissen Games auf über 100°C bei 100% Lüfterspeed. Das ist nicht wirklich brauchbar ;) Trotz das die Karten per default Takt/Spannung/Lüftersteuerung vllt ruhig sein mögen...

Es bleibt aber durchaus interessant. GK104 mit gutem OC Potential, wenn es denn so kommt, und dazu dann immernoch Verbrauchsregionen im Rahmen wirken sich direkt auf die Temperatur aus... Sollte schon schaffbar sein. So viel kleiner/anders als die GF100/110 Kühler sieht die Konstruktion auf den Bildern nämlich nicht aus...

Was ist besser, Radial- oder Axiallüfter?

lässt sich so nicht pauschal sagen. Der Radiallüfter braucht eine gewisse Höhe, damit er genügend Luftstrom erzeugen kann. Der Axiallüfter braucht eine gewisse Fläche, damit er genügend Luftstrom erzeugen kann. Beides ist grundverschieden.
Bei Grafikkarten sind Axiallüfter in meinen Augen leicht hinderlich, einfach weil man diese oben auf den Kühlblock packen muss, der Luftstrom aber im 90° Winkel abgeführt werden muss. Es entsteht eine Verwirblung.
Der Radiallüfter bläßt ala 19" Servertechnik quer/längs durch den ganzen Kühlblock...

Na, wenn man dieses dynamische Clocking nicht versteht, wird man auch nicht die Vorteile begreifen. :d
Es ist die logische Konserquenz aus den Limitierungstechniken von GF110 und Cayman - Das Ausnutzen der kompletten TDP. Und 5% kostenlos mitnehmen, ist doch klasse. Und mit dem Schalter kann man das ganze doch pro Spiel/Anwendungen nach eigenen Wünschen einstellen.

Nur welchen Sinn hat es, in Szenen, welche nicht durch die GPU limitiert werden (und genau das sind die Szenen, wo die GPU nicht ihre volle Leistung ausschöpfen kann, und somit auch nicht in Regionen der angedachten TDP vordringt) den Takt weiter anzuheben.

Als Beispiel, ich hab ein leichtes CPU Limit, mir bringt mehr GPU Takt nahezu nix.
Ich hab ein VRAM Limit, mir bringt mehr GPU Takt gar nix.

Einzig, ich hab ein hartes GPU Limit, sich das Teil läuft auf Anschlagt, dann bringt mir mehr GPU Takt was... nur liegt bei diesem Punkt idR auch die Auslastung so hoch, das der Turbo nur bedingt überhaupt greifen wird. Man wäre aus meiner Sicht selten dämlich, die Karte künstlich einzudrosseln, damit man mit dem Turbo werben kann. Sprich rein logisch gesehen ist der Toleranzspielraum, den der Turbo nutzt so oder so sehr gering.

Unterm Strich bleibt mir da die Sinnfrage... Wenn 30FPS anliegen, dann sind 5% mal echt riesige 1,5FPS... :eek: Das macht die Sache gleich unheimlich flüssiger :wall: ;)
 
Zuletzt bearbeitet:
Nur welchen Sinn hat es, in Szenen, welche nicht durch die GPU limitiert werden (und genau das sind die Szenen, wo die GPU nicht ihre volle Leistung ausschöpfen kann, und somit auch nicht in Regionen der angedachten TDP vordringt) den Takt weiter anzuheben.

Als Beispiel, ich hab ein leichtes CPU Limit, mir bringt mehr GPU Takt nahezu nix.
Ich hab ein VRAM Limit, mir bringt mehr GPU Takt gar nix.

In diesen Szenen sollte die Technik den Takt herunterdrehen. Es muss anhand von Auslastung entschieden werden, ob eine weitere Anhebung noch möglich ist, um im TDP Bereich zu bleiben. Da die Grafikerzeugung in den einzelnen Schritten ein serieller Prozess ist, entstehen auch immer unterschiedliche Flaschenhälse.
Cypress und Tessellation ist hier z.B. ein solcher Fall. Dort limitiert das Front-End so stark, dass bei bestimmter Last trotz voller Auslastung der Geometriepipeline der Stromverbrauch sinkt, da die Recheneinheiten (=Transistoren) sehr viele Ruhephasen haben. Dynamic Clocking soll jetzt dafür sorgen, dass in solch einem Fall der Takt für das Front-End erhöht werden kann.

Unterm Strich bleibt mir da die Sinnfrage... Wenn 30FPS anliegen, dann sind 5% mal echt riesige 1,5FPS... :eek: Das macht die Sache gleich unheimlich flüssiger :wall: ;)

Darum geht es nicht. :d
 
da haste schon recht fdsonne.

Die meisten benutzen die karten @ stock und da macht das angenehmere lüftergeräusch schon sinn. OK muss uach sagen das die 7970 bei 100% super laut ist,aber auch super kühlt :d. Bei mir wird eh nen anderer Kühler drauf kommen,also egal.

Die Lüfter der 79xx und der 6x0 kann man die Tage ja denke ich dann mal vergleichen, wenn man mehr weiss. Weil die 4xx/5xx Lüfter und Kühlung kann man mit der 79xx nicht vergleichen,da es nen neuer Kühlerer Chip ist. Die 69xx kann man schon eher vergleichen und die ist auch sehr laut und nicht super Kühl.
 
Ich bin dennoch skeptisch, was das rumtakten angeht. Denn Taktänderungen kosten Zeit.
Und da es sich dazu noch mehr oder weniger um eine Pipeline handelt, würde eine Taktänderung auch direkt weitere Arbeiten, die schon weiter in der Pipe sind oder eben weniger weit sind, beeinflussen.
Gerade in Bezug auf Filterleistung oder ROP Leistung. Der Schritt macht in meinen Augen sinn, wenn man wirklich verschiedene Teile der GPU unterschiedlich takten könnte. Sprich die ALUs loslösen, die TMUs loslösen, die ROPs loslösen usw.
Hab ich ein ALU Limit, kann dort mehr drauf und woanders leicht was runter. Hab ich ein TMU Limit, kann ich die ALUs womöglich leicht senken, um mehr LUft zu haben usw.

Im Moment schaut das aber eher in Richtung ganzer Chip aus. Sprich entweder der Turbo greift für alles (mit Ausnahme vllt der ALUs) oder eben er greift nicht...
 
@fdsonne
zumindest kann man sich auf die Verpackung drucken'' Schnellste Grafikkarte der Welt mit super duper Turbotechnologie''

Es sind mehr als genug Lemminge in dieser Welt vorhanden die dem Werbeslogan verfallen und up zu nächsten Händler um die Eierlegendewollmichsau zu kaufen. :lol:
Tolle Werbeslogans haben unglaubliche Wirkung.

MfG Jaimewolf3060
 
Hat mal jemand die Bohrungen der vermeintlichen GK104 mit bisherigen Modellen verglichen? GF1x4-Bohrungen sind es ja schonmal nicht. Sieht eher nach GF110-Style aus.
 
Die Lüfter der 79xx und der 6x0 kann man die Tage ja denke ich dann mal vergleichen, wenn man mehr weiss. Weil die 4xx/5xx Lüfter und Kühlung kann man mit der 79xx nicht vergleichen,da es nen neuer Kühlerer Chip ist. Die 69xx kann man schon eher vergleichen und die ist auch sehr laut und nicht super Kühl.

Das kommt halt hinzu... Wobei der Chip nicht per se einfach kühler ist ;) Der braucht halt einfach weniger Strom und erzeugt somit weniger Verlustleistung in Form von Wärme. Zwar sollte mit 28nm die Effizienz von Leistungsaufnahme zu Verlustleistung leicht verbessert werden, nur behaupte ich, ist das minimal.
Wenn das Teil 210W braucht, dann müssen auch annähernd 210W weggekühlt werden.


PS: nicht zu unterschätzen sind auch die anderen Bauteile auf der Karte. Die GPU allein braucht wohl zwar am meisten und erzeugt auch am meisten Wärme, dennoch können hier schon 20W beispielsweise drastische Unterschiede in der Temperatur aufzeigen. Die Tahiti XT sind ja mit 210W angegeben. Kommen aber mit breiterem SI daher. Könnte also sein, das man hier nen Vorteil rein auf die GPU bezogen hat. GK104 mit 256Bit SI und gleicher TDP wird dann wohl allein auf die GPU bezogen etwas mehr Wärme erzeugen. Oder aber, die HighClock VRAM Chips fressen hier deutlchi mehr mit rein als die 50% mehr Bausteine bei AMD...

@fdsonne
zumindest kann man sich auf die Verpackung drucken'' Schnellste Grafikkarte der Welt mit super duper Turbotechnologie''

Es sind mehr als genug Lemminge in dieser Welt vorhanden die dem Werbeslogan verfallen und up zu nächsten Händler um die Eierlegendewollmichsau zu kaufen. :lol:
Tolle Werbeslogans haben unglaubliche Wirkung.

Ob schnellste oder nicht, muss sich ja noch zeigen ;)
Aber ich behaupte auch, das der Verpackungsaufdruck zu Zeiten des Inetverkaufs ziemlich uninteressant ist. Selbst in den gut sortieren Computerfachhändlern stehen idR die Verpackungen nicht aus... Sondern die lagern das irgendwo hinten im Lager.
Aber sei es drum... Ich hoffe der Turbo spuckt einem beim OC nicht in die Suppe ;) Dann ist alles schick...
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh