NVIDIA verrät weitere Details zu Pascal-GPUs

Zum Beispiel die Programmierbarkeit der GPU ;) Weg von fixed function pipelines hin zu universellen "Alleskönner" (wobei es nicht ganz richtig ist es gibt ja nach wie vor Scalar-ALUs und SFUs für bestimmte Operationen die ein Rechenwerk nur unnütz aufblähen würden).
Die Idee eine GPU für massive parallelisierte Prozesse zu verwenden ist alt, aber auch hier war nVidia einfach schneller am Markt (die Durchdringung war nur durch Unabhängigkeit so schnell möglich).
Edit: Damit meine ich natürlich neben der Architektur auch CUDA als Entwicklerplattform.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.



Macht echt spass, mit dir über etwas zu diskutieren... -.-





BTT

wirklich interessant ist ja eigentlich vielmehr die frage, wieso sie evtl. eine Attrappe präsentieren.
ists aus Sicherheitsgründen, oder ist das layout der karten einfach noch nicht soweit fertig, dass es vorzeigbar ist.

denke nv ist aktuell etwas in Zugzwang um im Gespräch zu bleiben. amd hat viele News und sogar ein laufendes muster gezeigt, wärend nv aktuell nicht wirklich viel zeigt.
die CES dürfte wohl eine sehr lohnenswerte Plattform für erste Propaganda sein und da hat man wohl in den sauren apfel gebissen und die erwähnte karte gezeigt.

finde das ganze wird momentan etwas überbewertet. es sähe anders aus, wenn sie näher am release wären, aber ca. ein halbes jahr vorher ists zwar wiedermal ein nettes Fettnäpfchen, mehr aber auch nicht.



btw. amd hat bestätigt, dass auch polaris in hbm/hbm2 und gddr5 kommen wird.
 
Meine Herren mal gut das man manchen Inhalt hier nicht riechen kann.
An die Leute denen es stinkt einfach nicht mehr auf diese Provokativen anspielungen Antworten dann verzieht sich der Gestank von ganz alleine.

Ich hab es ja auf der Seite zu vor versucht von dem Geruch abzulenken .
Leider scheint ehr manchen aber dermassen in die Nase zu kriechen das man ihn sogar schmeckt.
Was auch verständlich ist.

3 Seiten Brechreiz geh dann mal:kotz:
Ich will hier was über den Pascal erfahren und nicht über XXX.
 
Das lässt sich einfach mit concurrent engineering beantworten. Man baut soweit alles schon fertig und ändert am Ende nur noch das was drauf gesteckt wird. GP104/106 ist noch im debugging, da macht es keinen Sinn das schon zu verbauen.
Okay ist etwas stark vereinfacht, aber habe weder Zeit noch Lust alles zu erklären. Stell dir vor du könntest das erst entwickeln wenn Pascal fertig ist. Dann hast du 80% an andere Bewerber verloren.

Das was den GM204 trägt ist eine Art Modul welches per PCIE mit dem Mainboard kommuniziert. Das wird später einfach getauscht, Software (Treiber) angepasst und halt Evaluierung.

Edit: Ich warte noch dass Menschen kapieren, dass nVidia einen eigenen Zeitplan hat, der sich herzlich wenig an AMD anlehnt.
 
Zuletzt bearbeitet:
Macht echt spass, mit dir über etwas zu diskutieren... -.-
So bin ich halt^^^

wirklich interessant ist ja eigentlich vielmehr die frage, wieso sie evtl. eine Attrappe präsentieren.
Weil beim Tapeout nur NIX funktionierender Müll gefertigt wurde?

aber ca. ein halbes jahr vorher ists zwar wiedermal ein nettes Fettnäpfchen, mehr aber auch nicht.
Naja, bei AMD ist es ca. ein halbes Jahr, bei NVIDIA wird man vor 2017 NIX von Pascal sehen.
 
finde das ganze wird momentan etwas überbewertet. es sähe anders aus, wenn sie näher am release wären, aber ca. ein halbes jahr vorher ists zwar wiedermal ein nettes Fettnäpfchen, mehr aber auch nicht.

Aktuell gehen alle von min. 1/2 Jahr, eher mehr, bis zum Release aus. Wenn aber Huang das Teil hoch hällt, mehrfach behauptet es sei Pascal und dann noch den Spruch los lässt, man könnte es nächste Woche im Auto haben (schau dir den CES stream an, relativ am Ende) ist das meiner Meinung nach schon grenzwertig.

Sei dass auch nur als Witz gemeint gewesen, ist es der falsche Ort und das falsche Publikum für so etwas.

Nach aktuellen Leaks sieht die Situation folgendermaßen aus:
- AMD validiert 4 Karten und zeigt ein lauffähiges System
- Nvidia hat gerade einmal 2 Chips zur Validierung verschickt

Sieht also relativ schlecht für Nvidia aus und unter diesem Gesichtspunkt, wäre so eine "Lüge" noch schlimmer zu bewerten.
 
Ich nehme an dass du wenig bis keine Einblicke hast. Also kennzeichne dass als hoch spekulativ. Ich würde jede Wette mit dir eingehen dass du sehrwohl dieses Jahr Pascal mit HBM sehen wirst. JEDE Wette!
Es ist durchaus möglich dass man jetzt beim A2 Stepping ist, weil neue Prozesse schwieriger zu designen sind (vor allem jetzt mit neuen rules), aber das sind doch keine Anfänger dort. Was denkst du dir eigentlich?:stupid:
NV ist null und nichtig im Zugzwang. Wie kommst du überhaupt auf den Trichter? Weil AMD einen Prototypen zeigt muss das doch nicht jeder nachahmen. Argumentativ und strategisch einfach nicht schlüssig.
 
Ist doch super, gegen Ende 2016 hat AMD mit ihren Super GPUs Nvidia quasi erledigt und mit Zen Intel fast in die Insolvenz getrieben. Da wird mir als Intel/Nvidia Käufer schon Angst und Bange :(
 
Ehrlich gesagt bin ich auch heiß auf Zen und würde sofort wechseln wenn der taugt. Ich gönne AMD den Erfolg, nur kommt der halt nicht von alleine. Früher hatte ich immer AMD / ATi und ich bin garantiert nicht zur Konkurrenz weil die schlechte ist. Als würden Intel und nVidia nur klauen. :rolleyes:
 
@Hübie: Also besteht laut dir die möglichkeit, das AMD Zen versaut, aber NVIDIA wird niemals irgendwelche Probleme mit Pascal haben, weil sie ja keine Anfänger sind? :fresse:
 
Eine CPU zu designen ist ungleich komplexer.
Ich spreche da niemanden Kompetenzen ab, nur ist Intel ein verdammt harter Konkurrent, welcher beinahe unendliche Geldmittel hat.
Bitte hört auf mir so einen Scheiß in die Schuhe zu schieben, aber wenn man die Wirklichkeit beleuchtet kommen halt die Lieblinge nicht immer gut weg.

PS: Bei mehr VRAM und mehr OC wäre ich definitiv zu Fiji gewandert.

Edit: Wenn ich schreibe dass NV A2 hat heißt es für euch dass ich sage die hätten nie Probleme? Also manchmal Zweifel ich echt an den Lesefähigkeiten bzw. dem allgemeinen Textverständnis. :rolleyes:
 
Zuletzt bearbeitet:
Dito ... und ich bin richtig gespannt auf Polaris ... schon wegen Freesync.

Einen gewissen Vorsprung in Sachen HBM/HBMv2 würde ich AMD schon zugestehen.

Ist doch toll wenn in einem Jahr absehbar so viele Neuerungen und Produkte kommen ... 2016 wird richtig spannend bzw. ist es schon. ;)
 
Zuletzt bearbeitet:
Natürlich, wenn es mal NVIDIA betrifft wird die Schuld auf den Fertiger geschoben!
Komisch, kein anderer Kunde hatte solche Probleme, sicher eine geheime Verschwörung gegen NVIDIA...

Nvidia blames TSMC for Fermi's Failures - SemiAccurate

Stellst du dich dumm? A2 heißt das ein metal layer geändert werden musste und rate mal wer das macht. :rolleyes: Großkotzig posaunen dass andere keine Ahnung haben und dann so unqualifizierte Beiträge ohne Hand und Fuß.

Polaris wird sicher eine sehr gute Weiterentwicklung der GCN Architektur.
 
So bin ich halt^^^

ich weiss... ^^
aber einer Diskussion helfen solche 1wort-antworten nicht wirklich weiter.


Weil beim Tapeout nur NIX funktionierender Müll gefertigt wurde?

hoffentlich.
auch wenns jetzt wieder nach grakakrieg riecht, würde ich es AMD wirklich gönnen, wenn sie mit polaris wieder so richtig fuss fassen können, und nicht mehr ständig am bankrott entlang kriechen müssen.




Naja, bei AMD ist es ca. ein halbes Jahr, bei NVIDIA wird man vor 2017 NIX von Pascal sehen.
uiuiui, da nehm ich dich beim wort.
was machst du, wenn sies trotzdem schaffen? :xmas:
würde vorschlagen, wenn nv auch nur einen Pascal chip vor ende jahr released, musst du einen Monat lang "i love nvidia" in maximal grösse und gut leserlich in deiner Signatur drin stehen lassen. :fresse2:
Deal?
 
würde ich es AMD wirklich gönnen, wenn sie mit polaris wieder so richtig fuss fassen können, und nicht mehr ständig am bankrott entlang kriechen müssen.
Ich würde mir genau 50:50 wünschen, gibt halt leider nur noch die beiden Hersteller.

was machst du, wenn sies trotzdem schaffen? :xmas:
NIX wissen:\

würde vorschlagen, wenn nv auch nur einen Pascal chip vor ende jahr released, musst du einen Monat lang "i love nvidia" in maximal grösse und gut leserlich in deiner Signatur drin stehen lassen. :fresse2:
Deal?
Ja!
Die Graka muß aber funktionieren und sie darf NIX aus Holz sein!!!!!
 
Ja!
Die Graka muß aber funktionieren und sie darf NIX aus Holz sein!!!!!


nicht aus holz... hmmm, das wird schwierig für nvidia. :asthanos:

jep, der chip muss zu kaufen sein (kein paperlaunch) und natürlich funktionieren.
aber nicht nur bei grakas, sondern alle pascalchips (inkl. Auto Hardware.)
 
Ich frage ich mich nach wie vor, wie man AMD so schlecht machen kann?!?! Wann gab es das letzte mal bei AMD derartige Probleme wie bei NVIDIA… und wenn jetzt einer kommt mit der Ausrede, dass die Treiber von AMD "mist" sein sollten, der lebt noch im jahr 2006, da gab es nämlich Probleme. Unter anderem betreibe ich eine AMD GPU und habe weder treiberprobleme (von Crimson jetzt mal abgesehen), gräusch oder hitzeprobleme. Und jetzt zu Nvidia, auch wenn die Produkte seit neustem sehr wenig Strom verbrauchen, solltet ihr mal auf die Probleme schauen, die SLI und das momentane Speicherproblem achten. Nur weil NVIDIA sich die rechte der Spielehersteller erkaufen, damit in Zusammenarbeit mit NVIDIA die Spiele optimiert werden und somit gegen AMD gearbeitet wird, heisst es nicht, dass AMD schlechte Produkte herstellt. Beide Hersteller stellen sehr gute Produkte her, Nvidia genießt nur den besseren Ruf (Paradoxon)… den die Aktien von Nvidia sprechen anderes, die stehen nur sogut, da Nvidia ihre eigenen Aktien kaufen, was in der Jahresbilanz besser aussieht…. aber da sind wir beim anderen Thema ...

@BennofreakSBB ...
"Konkurrenz belebet das Geschäft wa?"

Bezogen auf die Holzschraube 2.0 von NVIDIA ist dies natürlich als erfrischende Ironie zu verstehen, denn was dort präsentiert wurde ist mit Sicherheit eben keine Konkurrenz für AMD bezogen auf die next Gen.


@thunderburne
"3 Seiten Brechreiz geh dann mal
Ich will hier was über den Pascal erfahren und nicht über XXX."

Das sind die letzten Details zu Pascal und darüber wird hier diskutiert, was verstehst du daran nicht, den mittleren Teil?: http://www.smartredirect.de/redir/c...weitere-details-zu-pascal-gpus-1096178-6.html
 
Zuletzt bearbeitet:
Welches Speicherproblem? :hmm: Und wenn du SLi anführst kannst du auch über CF sagen, dass es mindestens genau so beschissen, wenn nicht sogar noch beschissener läuft. AFR ist in jeder Hinsicht Müll. Weiterhin lebt keiner in 2006, da Crimson der aktuelle Treiber ist und der aktuell Probleme macht. Was soll diese Fanboy-Schei*e immer?
nVidia-Treiber haben dafür PRobleme mit idle-Takt bei >1 x 144-Hz-Monitor und DSR+SLi+G-Sync oder auch 3DV @Win10. Aber in all den Bereichen sieht es mit AMD nicht besser aus. Kochen halt alle nur mit Wasser. Hat alles nix mit Pascal zu tun.

AMD schafft es oft sich selbst schlecht zu machen - genau wie nVidia. Ich persönlich finde deren Hardware für GPGPU sehr gut, aber du kannst die nicht nutzen, weil es einfach an der Basis krankt.
 
@Josedan

Weißt du was mich das interessiert ob eine 970er 3,5 oder 3,6 oder 4gb vram hat? Ich nehme dir das überlegen mal besser ab, gibt nur hässliche Falten. Null es interessiert mich NULL. Ich habe keine 970er. Ich habe sie nicht gekauft weil sie nicht das ist was ich gesucht habe. Aber was ich sagen kann ist dass die Leistung der Karte in Verbindung mit dem OC Potenzial absolut den Preis der Karte wiederspiegelt. Das einzige was scheisse ist dass sie halt nicht die angegebenen 4 sondern 0,5 gb vram weniger hat. Aber da du ja die Mega Peilung hast( im ernst) weisßt du auch dass diese 0,5gb nicht ausschlaggebend sind denn die 4 gb nutzt du niemals mit einer vernünftigen Fps Rate. Die Karte dafür ist zu schwach. Und im Sli ist das Problem dass sich der Speicher nicht addiert. Leider. Deshalb fehlen dir da auch nur 0,5 gb. Die Karte ist für FHD und bedingt auch für Whqd absolut i.O. Im Gegensatz zu dir bin ich nämlich kein Fanboy. Daher sehe ich das sehr viel Objektiver. Hatte eigentlich immer das Graka Lager gewechselt von System zu System. Mal Sli dann wieder TripleFire, dann Quad Sli, dann wieder Sli und dann wieder CF und nun eine Titan X. Und die reicht mir 3x. Ich kann auch sagen dass meine nächste wieder ne NV wird. Hat aber auch bisschen mit dem TFT zu tun.

Und der Hammer ist dein Spruch
„Gibt das Bankkonto fett was her,
fliegt man glatt auf Intel und NVidia Hardware.
Will man dagegen preiswert Clocken,
wird man nur mit AMD Rocken.“

Also Amd Karten sind für vieles bekannt. Zb. Preiswert da gebe ich dir recht. Bedingt. Aber Clocken... jo preiswert clocken ja. Aber richtig Clocken.. dann gehste besser nach NV

Und zum Abschluss. Die letzten Gen. haben immer gezeigt dass NV IMMER das bessere Paket hatte. Immer. Ab der 680er war das schon so. Egal ob Treiber /Kühlung oder sonst was. Die waren einfach besser. Und natürlich haben sie ein gutes Marketing. Aber ich persönlich kenne niemanden der das Marketing eines Herstellers entscheiden lässt welche Karte in seinem Case platz hält
 
Naja, CPU's dagegen kann man bei AMD schon gut Clocken :fresse2:

Sind aber trotzdem schwach auf der Brust ^^
 
Dito. Und weißt du warum inner Konsole kein Intel arbeitet? Weil da keine Arbeit von nöten ist. Es wird keine Leistung benötigt wie in einem PC. Schon garnicht im HIgh End PC. AMD macht mm nach gute Prozzis wie den Kaveri für den Low und mid End bereich. Gerade in Verbindung mit der integrierten Grafikeinheit. FInde ich wirklich gut und würde ich jedem der so etwas sucht auch empfehlen. Aber für Highend Pc´s sind Amd Prozzis mm nach nicht geeignet. Zuviel Stromverbrauch bei zu wenig Leistung. Da ist Intel mindestens 3 Jahre voraus und das wird sich auf absehbare Zeit auch nicht ändern. Ich hatte mal einen 1090T BE. Schön auf einem alten Crosshair 4. Geiles Teil... bis ich meinen Sandy bekam. Das waren Welten. Und weil ich in den letzten 15 Jahren nunmal bestimmt 10x mein System gewechselt habe kann ich mir darüber auch eine objektive Meinung bilden und poste nicht irgendwelche dummen Sprüche über andere Hersteller die Null zutreffen nur damit ich mir daruaf ein pellen kann
 
Zuletzt bearbeitet:
So, das wars! Ich schließe temporär den Thread, bis sich jeder beruhigt hat. Räume hier auf und melde JEDEN der andere User beleidigt hat. So geht das gar nicht!!!
 
Zuletzt bearbeitet:
Aufgeräumt.
Thread nun wieder offen.
:btt2:
 
Zuletzt bearbeitet:
@bennofreak
Du kannst mich ja verklagen, aber zieh dir ne Nummer und stell dich gefälligst hinten an :btt:
 
Hach Josedan unser lieber Troll mit Format - mit dir macht das diskutieren wenigstens noch Spaß :)

Zu deinem letzten Posting mit Inhalt: Probleme im Treiber bei AMD? Also ich mag mich irren, aber warst nicht du auch einer derjenigen die direkt mit Crimson die A-Karte gezogen haben? Gut, dir ist nicht wie anderen die GPU gegrillt worden aber da von keinen Problemen zu sprechen ist leicht überzogen :)

Ich habe keine Ahnung warum nVidia diesen exorbitant höheren Marktanteil hat gegenüber AMD - es hieß früher immer nur wenn du was vernünftiges willst kauf nVidia und ATI ist scheiße. Ich meine 80% kommen nicht von ungefähr. Jeder der Hersteller leistet sich mal nen Fehler und am Ende ist es wie beim Auto - da galt Opel jahrelang als Schrott und Billigkarren die dir unterm Hintern wegrosten ... die haben wie lange gebraucht? Gut 20 Jahre?! ... naja ich würde mir wünschen das AMD mal nen paar gute Karten rausbringt und endlich mal die Effizienz in den Griff kriegt. Eine Monopolstellung ist immer scheiße - egal aus welcher Sicht man diese betrachtet!

Ich jedenfalls bin sowohl auf Pascal als auch Polaris gespannt, auch wenn ich der CES Präsentation der Polaris keinen Glauben schenken mag mit 95w load Verbrauch fürs komplette System :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh