Kepler: NVIDIAs Partner sind besorgt

PS: ich gehe davon aus, das die erste Kepler Karte, welche wohl den GK104 bekommen wird, ~40-50% schneller ner 580er liegen wird. Und somit grobe 20-30% wohl über der letzten AMD.:


LOL ist das Ironie oder meinst du das ernst ? GK 104 50% vor der GTX 580 ja klar träum weiter ^^

Je nachdem wie wichtig NV der Verbrauch ist wird der GK 104 bestenfalls knapp unter der 7970 sein.

Wird am Ende vermutlich wie seit der 4870 sein, die schnellste AMD Karte ist gleich schnell wie die 2t schnellste ( GTX 770 ) von NV.

Alles andere sind Traumfantasien von NV Fanboys.

---------- Post added at 08:21 ---------- Previous post was at 07:56 ----------

Was erzählst du da schon wieder für mist?
Die 7970 ist in FullHD mit AA, AF Durchschnittlich nur 20% schneller als die GTX580...
Nvidia letzte Generation war in kleineren Strukturen 60-80% schneller als der Vorgänger.


ht4u.net

ja dafür ist damals der Verbrauch auch deutlich hochgegangen zwischen GTX 285 und GTX 480.

am Ende bleibt da auch nimmer soviel über, laut HT4u +30% Verbrauch und +60% FPS
sind also ganze wahnwitzige 23% mehr FPS je Watt!

MSI N470 GTX: NVIDIA GeForce GTX 400 Reloaded - Index 3D-Performance (Seite 36) - HT4U.net

PS: wer ist eigentlich dieser Ailuros?
Ist das jemand von NV?

Ailuros ist ein User aus dem 3dCenter Forum, hat angeblich gute Kontakte zu NV, tut zumindest immer so als ob er nachdem er was verraten hat nen tadel dafür bekommen hat. Was man davon halten soll kA. Er ist aber jedenfalls sehr rechthaberisch wenn es um seine Spekulationen geht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich für meinen teil würde mir auf jeden fall wünschen wenn nvidia das bei notebooks sehr gut funktionierende optimus auch für den desktop umsetzt, von mir aus auch nur für dafür lizensierte mobos, z.b. ab Z77 chipsatz oder so

@KlausW: man kann es sich auch einfach machen, die neue amd hig end gen ist enttäuschend gegenüber der GTX 580 ,der vorgänger der GTX 580 war 80% langsamer als diese, die neue nv gen wird sicherlich min 60% schneller sein als der vorgänger, in sehr hohen einstellungen noch mehr.
jetzt was von performance pro watt zu reden und das das da ganz andrs aussähe ist absurd, die gtx 580 und die 6970 sind beides stromschleudern und recht laut ,die nehmen sich da kaum was, wenn man bedenkt wieviel grösser der nvidia chip ist, ist der nv chips sogar ziemlich sparsam.

naja amd kann ja gerne weiter seine kleinen gpus bauen wo immer irgendwoe gespart wurde um die grösse zu erhalten ,sei es an tess units oder es wird dann eben mieses af geliefert ,ich unterstütze sows nicht..
 
Zuletzt bearbeitet:
ja nur sagt +80% nichts aus wenn dafür der Verbrauch auch um 40% steigt, da man dieses spiel nicht immer weitertreiben kann, und der der höher ist eben weniger spielraum hat da nochmal ordentlich reinzupulvern.

Lastverbrauch ist mir auch sogut wie egal, nur muss man das halt in der betrachtung mit aufnehmen, das selbe gilt auch für die DIE größe, den je größer ein DIE ist umso sparsamer, 100% Einheiten brauchen linear mehr Leistung, höher getaktete ( was die alternative wäre ) aber exponentiell mehr Leistung

Aber scheinbar trollst du eh nur sonst wüsstest du doch eh das am AF nicht gespart wurde, ATI benutzt da sogar schon immer mehr Samples als NV, sondern es einfach nur verbuggt war...
Oder das sich NV DX 10.1 gespart hat oder den vorläufer der tesselation Trueform diese Liste könnt man auf Seiten von NV und AMD/ATI ewig weiterführen ...
 
ja nur sagt +80% nichts aus wenn dafür der Verbrauch auch um 40% steigt, da man dieses spiel nicht immer weitertreiben kann, und der der höher ist eben weniger spielraum hat da nochmal ordentlich reinzupulvern.

Lastverbrauch ist mir auch sogut wie egal, nur muss man das halt in der betrachtung mit aufnehmen, das selbe gilt auch für die DIE größe, den je größer ein DIE ist umso sparsamer, 100% Einheiten brauchen linear mehr Leistung, höher getaktete ( was die alternative wäre ) aber exponentiell mehr Leistung

Aber scheinbar trollst du eh nur sonst wüsstest du doch eh das am AF nicht gespart wurde, ATI benutzt da sogar schon immer mehr Samples als NV, sondern es einfach nur verbuggt war...
Oder das sich NV DX 10.1 gespart hat oder den vorläufer der tesselation Trueform diese Liste könnt man auf Seiten von NV und AMD/ATI ewig weiterführen ...

mehr lächerlcihkeit geht nicht oder ? ganz zufällig ist bei der neuesten amd gen das af monatelang verbuggt (verbuggt= es geht eniwandfrei ,nur eben nicht mehr in der standarteinstellung ,da wird man nicht misstrausich oder ?..) und das nur weil dei karte nicht genug power hat und sonst in benches noch weiter zurückfallen würde..

wenn du informiert wärst wüsstest du auch das manche nv gpus dx 10.1 konnten ,was das aber oder trueform mit der aktuellen generation zu tun hat ?
achja die X800 konnte kein sm3.0 sollen wir das auch in die diskussion einbauen ? :stupid:
 
darfst du gerne einbauen wie gesagt NV war und ist dort um nichts besser. DX 10.1 gab es ja auch nur für den OEM Markt, da die OEM Partner da massiv Druck ausgeübt haben, da es ein wichtig Checklisten Feature für den OEM Markt war.

Zur Thematik AF bei AMD würde ich wirklich bitten dich mal ordentlich zu informieren ...
Wie gesagt das AF kostet bei AMD mehr Leistung, da sie mehr Samples als NV benutzen und es bei AMD komplett Winkelunabhängig ist. Leider nutzte das nur in der Theorie was, in der Praxis war es leider verbuggt und das direkt in der Hardware worauf sie aber scheinbar niemand hingewiesen hat. Erst der 3dcenter Coda hat sie mit dem 3DCenter Filtertest darauf hingewiesen worauf sie es dann gleich für die nächste Generation gefixt haben.
 
Nicht nur die Partner sind besorgt, ich bin auch besorgt! Hoffentlich gibts nächste Woche wenigstens handfeste Infos...einen vorzeigbaren Prototypen haben die ja sowieso nicht, das kommt erst im März!
 
Nicht nur die Partner sind besorgt, ich bin auch besorgt! Hoffentlich gibts nächste Woche wenigstens handfeste Infos...einen vorzeigbaren Prototypen haben die ja sowieso nicht, das kommt erst im März!

ach das sie keinen prototpen haben heisst doch nicht das sie keinen vorzeigen können, ne alte platine, irgend nen ES costum lüfter und nen paar holzschrauben + leim haben die bestimmt da :fresse:
 
Zuletzt bearbeitet:
CES soll es wohl ne vorführung für partner und presse unter NDA geben hoffentlich ohne Holzdummi ^^
 
ja, gibt ja kein hotclock mehr, NV nähert sich stark AMDs GCN Ansatz an. Wird so um 2000 rum sein.

kein hotclock mehr dafür ein wenig mehr takt und ~4 mal soviel shader macht nicht ganz die doppelte pratkische Shader Leistung.

4 mal soviele Shader skalieren ja nicht so besonders, bestenfalls 3,5 fache Leistung abseits von GPGPU
 
kann mir einer mal aerklären was ein hotclock ist ? sind das nur spekus das das wegfällt oder bestätigt ?

bisher ist och nv gut gefahren und amd egal was sie geändert haben, hing bei der leistung hinterher
 
Vielleicht braucht Kepler ja sogar schon ein eigenes Netzteil und es ist NVIDIA zu peinlich dies der Öffentlichkeit zu zeigen. :fresse:
 
kann mir einer mal aerklären was ein hotclock ist ? sind das nur spekus das das wegfällt oder bestätigt ?

bisher ist och nv gut gefahren und amd egal was sie geändert haben, hing bei der leistung hinterher


Der Hotclock ist der bisherige Shadertakt gewesen dieser lag bei Nvidia höher wie der Kerntakt

Da man aber mit Fermi und hohen Shadertakt das selbe Debakel im Energiehunger erleben musste wie P4 bei Intel oder Bulldozer bei AMD hat man sich wohl dazu entschlossen statt auf viel Takt nun auf Masse zu setzen
 
Zuletzt bearbeitet:
Vielleicht braucht Kepler ja sogar schon ein eigenes Netzteil und es ist NVIDIA zu peinlich dies der Öffentlichkeit zu zeigen. :fresse:

voodoo volts ftw^^

also ich hab in meinem case platz fürn 2tes netzteil und nen adapter um beide zu betreiben ,nur her damit :coolblue:

@scully1234: und warum kann man ohne einfach mal die shader vervierfachen statt verdoppeln ?
 
@scully1234: und warum kann man ohne einfach mal die shader vervierfachen statt verdoppeln ?

Was soll das für ein Chip werden ne Bratpfanne als Heatspreader:fresse:

Ich denke ein bisschen mehr als verdoppeln eventuell verdreifachen ist machbar:)

GK100 könnte eine vervierfachung erleben aber dann wohl am oberen Ende der TDP Grenzen
 
Zuletzt bearbeitet:
Der Hotclock ist der bisherige Shadertakt gewesen dieser lag bei Nvidia höher wie der Kerntakt

genauer gesagt immer beim doppelten mit Ausnahme beim G80 dort MINDESTENS beim doppelten normale Takt. Hotclock braucht aber ähnlich wie hoher takt bei cpus aber längere "pipelines" wodurch er auch mehr platz und Transistoren benötigt als ein anderer der nicht so hohe Frequenzen hat.
 
Nun mittlerweile hat wohl jede Firma ihren Prescott gehabt und musste einsehen das zuviel Takt nicht gut tut
 
Was soll das für ein Chip werden ne Bratpfanne als Heatspreader:fresse:

Ich denke ein bisschen mehr als verdoppeln eventuell verdreifachen ist machbar:)

GK100 könnte eine vervierfachung erleben aber dann wohl am oberen Ende der TDP Grenzen

sone bratpfanne als kühler wo amn dann alle 10 min neues eis draufmachen muss das dann zügig verdampft wär doch mal was, isja auch langweilig ds die graka immer läuft ohne das man was tun muss oder ?
 
also wenn Kepler im SLI mein 3-Way SLI topt, werde ich mir ernsthaft überlegen umzusteigen...
 
Zuletzt bearbeitet:
Wenn der Vollausbau wirklich,mit prognostizierten 2304 Units,bei knapp 1GHZ Kerntakt daher kommt,ist das im Rahmen des Möglichen
 

Anhänge

  • nvidiakepler.jpg
    nvidiakepler.jpg
    55,3 KB · Aufrufe: 66
Zuletzt bearbeitet:
LOL ist das Ironie oder meinst du das ernst ? GK 104 50% vor der GTX 580 ja klar träum weiter ^^

Je nachdem wie wichtig NV der Verbrauch ist wird der GK 104 bestenfalls knapp unter der 7970 sein.

Wird am Ende vermutlich wie seit der 4870 sein, die schnellste AMD Karte ist gleich schnell wie die 2t schnellste ( GTX 770 ) von NV.

Alles andere sind Traumfantasien von NV Fanboys.

Ich bin also "NV Fanboy" weil ich versuche anhand derzeitiger Gerüchte mögliche Leistung zu spekulieren? Na dann... ;)
Nur mal zusammengefasst. Es stehen für den GK104 ~1000 ALUs, keine HotClocks, dafür aber deutlich über Tahiti als Basistakt sowie über 2TFlops/s im Raum. Dazu womöglich 64 TMUs und 32 ROPs + 256Bit SI und 2GB VRAM.
Mögliche 1024 ALUs wäre ne Verdopplung der 580er in Sachen ALUs, der Wegfall der HotClocks wiegt diesen Vorteil wieder auf. In Summe wäre es quasi ohne tiefgründige Architekturänderungen eine GTX580 in 28nm mit beschnittenem SI und beschnittenen ROPs, dafür aber mit spekulierten ~40% mehr Takt.
Ich als von dir betitelter NV Fanboy gehe stark davon aus, das man durch 40% mehr Takt im Vergleich dazu nicht nur 10% mehr Leistung rausbekommt im Vergleich. Das wäre in Sachen Performance pro Ausführungseinheiten ein deutlicher Rückschritt zum GF110. Daher die Ansage auf die 40-50% inkl. hier und da ner Optimierung.
Das würde sogar zum bisherigen Newsstand passen, das GK104 womöglich sehr lange Zeit die schnellste Kepler Karte wird und der GK100 erst gegen Ende des Jahres kommt (vllt auch noch später)

Ansonsten habe ich heut früh schon geschrieben, ich spekuliere damit, das NV das womöglich interne "Taktziel" nicht erreicht und die GPU irgendwo im Bereich 950-1000MHz ansetzt. Das wären dann grobe 20-25% mehr Takt. Durch die verminderte ROP Leistung könnte hier ein kleiner Flaschenhals entstehen in Sachen AA... Womöglich liegt hier der Hund begraben und das Teil als Performancekarte lässt hier leicht Federn (was nicht zu verdenken wäre)

Ansonsten zum Verbrauch steht was von TDP von 160W im Raum. Lässt sich zwar so nicht 1:1 rechnen, wäre aber gut unter der AMD... Ob das passt, ist fraglich. Damit wäre NV erstmals seit dem R600 und den Performance/HighEndkarten effizienter als die AMDs...

Das ist/sind die erste Folien die mal ein Bisschen seriös rüber kommen.Ohne gleich Dualkartenmonster,die noch nichtmal in der Phantasie existieren,mit lächerlichen Balkendiagrammen zu presentieren

Mir scheinen die ALU Angaben etwas fehl am Platze...
Vier GPCs, 16 SMs und 64 TMUs (als "gerade" Werte) passen nicht so recht zu den 1536 ("krummen") ALUs...
Da klingen 1024 ALUs eher realistisch...

Ich glaube nicht daran, das es so viele Ausführungseinheiten werden... Der Größenfaktor wäre wohl recht enorm. Und es macht den Anschein, als würde NV hier ähnlich den Vorgängergenerationen agieren. Sprich es gibt keine Vectorunits, die die Größe selbst verkleinen. Auch wenn durch weniger Takt und die womöglich kürzere Pipeline der Spaß pro Fläche durchaus etwas kleiner sein dürfte, halte ich den Vorteil in Sachen Größe da nicht für gegeben. Sprich vier mal so viele ALUs ohne HotClocks mit kürzerer Pipeline wären wohl trotzdem deutlich größer als herkömmliche HotClock ALUs.
Wobei dem gegenüber steht diese eine News von vor ner Weile, das GK100 wohl riesig werden könnte :fresse: dafür Leistungstechnisch richtig rockt. Das wäre mit so nem 2000 ALU Teil durchaus gegeben :fresse:
 
Ich glaube nicht daran, das es so viele Ausführungseinheiten werden... Der Größenfaktor wäre wohl recht enorm. Und es macht den Anschein, als würde NV hier ähnlich den Vorgängergenerationen agieren. Sprich es gibt keine Vectorunits, die die Größe selbst verkleinen. Auch wenn durch weniger Takt und die womöglich kürzere Pipeline der Spaß pro Fläche durchaus etwas kleiner sein dürfte, halte ich den Vorteil in Sachen Größe da nicht für gegeben. Sprich vier mal so viele ALUs ohne HotClocks mit kürzerer Pipeline wären wohl trotzdem deutlich größer als herkömmliche HotClock ALUs.
Wobei dem gegenüber steht diese eine News von vor ner Weile, das GK100 wohl riesig werden könnte :fresse: dafür Leistungstechnisch richtig rockt. Das wäre mit so nem 2000 ALU Teil durchaus gegeben :fresse:

Ja das wäre wohl wieder ne "Bratpfanne",aber falls es so kommt,ist mit 1GHZ Core Takt "im Rahmen des Möglichen" noch ne leichte Untertreibung

~1024 bräuchte man ohne Hotclock um in etwa mit der GTX580 gleichzuziehen bei annähernd selben Takt,2304 wäre das Doppelte und dazu steigt auch noch der Takt.Mmh schwer zu glauben das man solch ein Monster noch innerhalb der 300Watt Grenze halten könnte.

Das wäre defakto ein 580 SLI Replacement gefallen würde es mir schon:)

Das ein 2000er Teil möglich ist mit ähnlichen Kerntakt,zeigt ja bereits die Radeon.Die Frage ist wie gut kommt Nvidia mit dieser ambitionierten Shaderzahl auf der zu Verfügung stehenden Die Fläche klar

Nach Abkehr vom Hotclock kann das z.Zt wohl keiner recht beurteilen bei Nvidias Architektur
 
Zuletzt bearbeitet:
Wenn der Vollausbau wirklich,mit prognostizierten 2304 Units,bei knapp 1GHZ Kerntakt daher kommt,ist das im Rahmen des Möglichen

Finde ja schon lustig, dass laut deiner angehangenen Tabelle Kepler wieder den Shadertakt an den GPU-Takt gekoppelt hat. Vielleicht kann man NV und AMD wirklich wieder miteinander vergleichen. Ohne den zusätzlichen Shadertakt sähen die aktuellen Modelle sicher alt aus. ;)
Oder ist das bloß ein Fehler?
 
na da kommt sicher was. und schneller wird die karte sicher auch. das letzte jahr kam mir wie ne ewigkeit vor. grakastillstand zuzusagen. die GTX 580 hat sicher ihr geld verdient. nv wird selbst wenn die 7xxxer gut laufen dann noch was über den preis versuchen (deutliche preissenkung) und erst wenn dann auch die karten liegen bleiben gibbtet was neues. genug zeit war ja nun vorhanden und geschlafen haben se sicher nedd.

einzig in sachen leistungsaufnahme könnte es interessant werden ;)
 
Nun ich kenne nur eine Gruppe die besorgt ist wegen Keppler, das sind nicht die Partner von NVIDIA sondern die Leute die auch die meisten Problem Threads im CPU-Forum haben, falls das keinem auffällt.
Es gibt nix zu Berichten also dichtet man was zusammen um von seinen Fehlern abzulenken. Ja jetzt kommt wieder die fermiholzatrappe , aber nur Monate später wurde sehr gut abgeliefert, während 3 jahre Hype um(bulli) E-Schrott gemacht wurde. Ich denk Ihr werdet wieder belehrt, wie so oft. AMD hat offiziell den Kampf auf gegeben und sollten auch bei den GPUs die Füße still halten. Gebt endlich Ruhe AMD Fanboys es bringt nix! LG

PS klar steh ich zu Intel und Nvidia, zu Recht
 
Wieso lustig das ist nur konsequent wenn zu hoher Takt zuviel Leistungsaufnahme bedeutet

Dann wäre ein Netzteil extra für Kepler im Vollausbau schonmal gar nicht mehr soooo schwachsinnig.
 
Es wird vermutet, dass Nvidia den Hotclock nicht aus Stromverbrauchsgründen aufgegeben hat, sondern, dass sie DP stark steigern wollen und dafür bedeutend mehr ALUs verbauen wollen/müssen. Stichwort Tesla. Schließlich hat man da mit AMD und Intel bald ernstzunehmende Konkurrenz.
 
Dann wäre ein Netzteil extra für Kepler im Vollausbau schonmal gar nicht mehr soooo schwachsinnig.

Weiß zwar nicht wie du darauf kommst aber ok

Eigentlich sollte man bei den Maßnahmen die ergriffen wurden in andere Richtung tendieren

Oder geht es jetzt rein nur um den hypothetischen GK100?

---------- Post added at 18:52 ---------- Previous post was at 18:47 ----------

Es wird vermutet, dass Nvidia den Hotclock nicht aus Stromverbrauchsgründen aufgegeben hat, sondern, dass sie DP stark steigern wollen und dafür bedeutend mehr ALUs verbauen wollen/müssen. Stichwort Tesla. Schließlich hat man da mit AMD und Intel bald ernstzunehmende Konkurrenz.

Das könnte sie aber ebenso über den Takt und das DP Shaderverhältniss erreichen bei gleicher Architektur wie bisher.

Ich denke schon das der geringe Takt eher dem Energiekonsum von Fermi geschuldet ist

Die Katze selbst hat ja schon zu verstehen gegeben das der bisherige Ansatz in eine Sackgasse führen würde über kurz oder lang
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh