NVIDIA verrät weitere Details zu Pascal-GPUs

o man .. wieso werden links von gulli nicht zugelassen?
Bitte klärt mich auf, wenn ich diesen Link verbotener WEise so poste oO

www.g u l l i.com/news ....
**********/news/27012-hat-nvidia-schwierigkeiten-bei-der-produktion-der-pascal-chips-2016-01-18

Das ist keine News sondern die Meinung eines Herren der wenig bis keine Einblicke in Unternehmensprozesse hat. Hier gibt es einfach nichts zu berichten.

Es wird überall wild spekuliert was die 24 Deep-Learning Flops sind, ob HBM2 auf GP102 kommt, in welchen Kapazitäten, ob 2 oder 4 FP16-ALUs loopen um FP32/64 zu erreichen oder ob ein Teil der FP32 ALUs gesplittet wird, wann welches Modell erscheinen wird und und und. Nur hier mockieren sich ein paar mit Ihren angeblichen Wissen und versauen damit jede Diskussion im Keim.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wohl eher nicht ;)

Fakt ist doch das derzeit nicht wirklich etwas bekannt ist. Das bisschen Information was bisher nach außen getreten ist reicht zumindest mal nicht für ein fundiertes Meinungsbild. Bisher wissen wir nur das es 2 Hersteller geben wird und wohl AMD und nVidia in der neuen Generation sowohl auf GDDR5(x) und HBM2 setzen werden. Alles andere beruht nur darauf, Prozesse der Vergangenheit 1:1 auf die Zukunft zu übertragen - von wegen welcher Chip kommt zu erst oder sowas in die Richtung.

Ich bin eher gespannt auf die ersten Details zu ner wirklichen Karte - dann hoffentlich ohne Holzschraube :d
 
Und wieder aufgeräumt. Post incl Ermahnung gehen in den nächsten Minuten raus. Die Kollegen haben bereits mehrfach gesagt:

Back to topic, wer das nicht versteht oder verstehen will, hat hier nichts zu suchen!
 
Dann werd ich der mod folge leisten und gleich plumb fragen: Denkt ihr das die Pascal Karten noch effizienter in der Architektur werden ?
Weil bei der jetzigen 9xx serie könnte man meinen, dass sie optimierungen in effizienz bereits reingesteckt haben und vielleicht für Pascal garnicht mehr soviel in der Hinterhand bleibt außer die shrink.

Und nebenbei haben sie noch garnichts gepreviewd, weder auf papier noch in der praxis :wut:
 
Glaube man wird die 75W anpeilen für die kleineren Karten ala 1050/1060 um eine Versorung durch PCIx16 ohne Zusatzstecker zu schaffen. Ob es zu einer 1Slot Grafikkarte reicht bezweifle ich aber.
Das Stromsparen beim Maxwell kam ja auch über Zeit und nicht mit den ersten Chips. Wahrscheinlich wird man das gelernte auf Pascal übernehmen aber an eine Weiterentwicklung glaube ich erst wenn man Leistungstechnisch wieder an seine Grenzen kommt.
 
Zuletzt bearbeitet:
Dann werd ich der mod folge leisten und gleich plumb fragen: Denkt ihr das die Pascal Karten noch effizienter in der Architektur werden ?

Die Leistung pro ALU wird wohl gar nicht so viel steigen... Ich meine mal gelesen zu haben, das Pascal "nur" Maxwell in NEU sein soll. Also mehr Ausführungseinheiten, angepasster Prozess, aber am Background wird sich ggf. gar nicht sooo viel ändern. Für den Profibereich erwarte ich aber nach wie vor wieder GPUs mit DP Power. Man geht für die Dickschiffe von größer 15Mrd. Transistoren aus. Das ist mal grob doppelt so viel wie Maxwell GM200 aktuell liefert. Eine Shaderverdopplung bzw. annähernd eine Verdopplung dürfte durchaus realistisch sein. Durch den hohen Sprung in der Fertigung wird die Energieeffizienz mit skalieren. HBM(v2) anstatt GDDR5 dürfte ebenso leicht Strom, vor allem aber Transistoren und Platz sparen.

Lassen wir uns überraschen. Bleibt nur die Frage, wann das Dickschiff kommt. -> wohl nicht im ersten Anlauf :fresse:

Glaube man wird die 75W anpeilen für die kleineren Karten ala 1050/1060 um eine Versorung durch PCIx16 ohne Zusatzstecker zu schaffen. Ob es zu einer 1Slot Grafikkarte reicht bezweifle ich aber.
Das Stromsparen beim Maxwell kam ja auch über Zeit und nicht mit den ersten Chips. Wahrscheinlich wird man das gelernte auf Pascal übernehmen aber an eine Weiterentwicklung glaube ich erst wenn man Leistungstechnisch wieder an seine Grenzen kommt.

Zumindest der echte Nachfolger der 750(TI) sollte ohne Stromanschluss auskommen könnne und dabei sogar deutlich schneller werden...
Schade finde ich, dass man mittlerweile fast ausschließlich diese Anschlusstürme auf das PCB lötet -> es hätte schon was, so ne Renderworkstation mit 7x Pascal GPUs unter Wasser :fresse:

Naja, hätte MS was davon sowas einfach zu erfinden? Es ist ja klar dass dies erst mit echter Software untermauert und getestet werden muss.
Dein Argument mit dem Cache macht recht viel Sinn, das stimmt.
Hmm.. Eventuell hebt man dieses Prinzip aber doch auf.

Hab dazu auch mal was im Technikthread geschrieben...
http://www.hardwareluxx.de/communit...sthread-502478-post24256063.html#post24256063
 
Zuletzt bearbeitet:
Naja heutzutage kannst auch 3 Slots nur mit Anschlüssen voll knallen und trotzdem findet sich einer dem etwas fehlt. Ich habe 3 ungenutzte Displayport Ausgänge und die nehmen mal 50% des Slots ein. Anderseits frisst der DVI Stecker unheimlich viel Platz. DVI soll ja letzlich verschwinden und durch Displayport ersetzt werden dann könnte ich mir etwaige 1 Slot Grafikkarten vorstellen mit 1-2DP und 1 HDMI Anschluss.
 
Blos nicht, ich brauch den DVI noch :fresse:
Ne im Ernst, 2x DP (ggf. mini) und 1x DVI (mit der Möglichkeit, auch ein VGA Monitor anzuklemmen) wäre doch der optimale Ansatz... Dann legt man einfach nen DP zu HDMI Adapter in den Karton und fertig die Laube... Von mir aus auch 3x mini DP und 1x DVI -> sollte dicke auf einem Slot Platz finden...

Oder ein modulares Anschlusssystem -> wo man die obere Reihe abnehmen kann. Tät mir ebenso gefallen.
Wenn meine Workstation mal ausgedient hat, wird das Ding mit GPUs voll geknallt und ergibt die ideale Renderworkstation. 3x DualGPU Karten oder 7x SGPU Karten könnte ich mir vostellen... Klappt aber halt nur, wenn das mit der Slothöhe passt. Mit Wakü ist zumindest die Kühlung kein Problem.
 
lol 7x Pascal Titans in einem Renderstation ? xD
Nasa called, they want their pc back :d

@Topic
Displayport wird ja inzwischen zum langsamen standard, aber viele würden denke ich trotzdem meckern, weil evtl. die flexilibität etwas verschwindet.
Und nebenbei glaube ich tatsächlich sogar das Nvidia wieder schwierigkeiten mit der Produktion etc. wie vor einigen Jahren mit der 4xx hat, weil bisjetzt wirklich nichts gezeigt wurde. Man hätte ja auf ne Antwort gegen AMD's Polaris video hoffen können aber noiii xD
AMD hat sich da aber auch etwas Luft geschaffen mit der vorarbeit am Interposer über die Fury Karten. Da blieb denen der stress bestimmt aus.

BTW: so ne Renderstation für Blender wäre schon edel, kanns mir aber als Abiturent schlecht leisten :S
 
Wann bitte haben die vorab mal eine Karte live gezeigt? Entweder es waren mockups oder einfach nur Renderbilder. Die müssen nix zeigen, werden nix zeigen und wollen nix zeigen. Es gab hier und da in der Vergangheit leaks, aber nix offizielles. Nur weil AMD da jetzt eine lauffähige Karte zeigt muss doch nVidia nicht gleich reagieren. Die haben Pascal. Der hatte Ende August 2015 sein tapeout.
 
Wenn die jetzt damit anfangen, wird man bis Jahresende keine Grakas mit HBM2 von Samsung sehen.
Jetzt müßte man noch wissen ab wann SK Hynix HBM2 ausliefern kann.
Das wird Hynix meiner Ansicht nach erst mal exklusiv für AMD machen.

Dass NV Fertigungsprobleme haben soll, würd ich nicht nur auf NV schieben, wie der Gulli-Autor das tat, sondern auch auf TSMC. Der TSMC-Prozess scheint aber auch schon seit geraumer Zeit Probleme mit großen Chipsgrößen zu haben. Da AMD diesmal voll auf GloFo setzt und hat man wohl einfach zur Abwechslung mal auf das richtige Pferd gesetzt.
Polaris11 ist auch ziemlich sicher 14LPP, AMD hat ja nur bekanntgegeben, dass man Grafikchips in 14/16nm macht und hat zugegeben, dass der dort gezeigt Polaris10 in 14LPP gefertigt wurde. Das heißt also gar nix für Polaris11, dazu hat man sich gar nicht geäußert, daber daraus wurde dann in der Communiy und der Presse "Polaris11 = 16FF" (was ja per se Unsinn war, da 16FF durch FF+ ersetzt wurde).

@Hübie beim GP100 war sogar Juni. Seither sind keine Tapeouts von weiteren Chips bekannt.
 
Zuletzt bearbeitet:
Wieso braucht man in Zeiten von Daisychaning überhaupt 3x DP?
 
Ich bin mir sicher das Nvidia ihre Marktstärke gerne ausgenutzt hätte, wenn sie brauchbare Benchmarks/praxistests/news/whatever hätten. Ich könnte mich aber auch täuschen und die Abteilung bei Nvidia betrinkt sich gerade, weil sie schon mit Pascal gegen Polaris mehr als ausgesorgt haben.

Who knows xD
 
Naja, so riesen Tamtam mit benchmarks o.ä. haben doch beiden Hersteller so gut wie nie vor der Veröffentlichung gemacht. Es wäre ja auch ein wenig Unsinn, schließlich wäre die Veröffentlichung selbst dann ja ein wenig langweilig wenn dann nicht der Großteil der Daten kommen.

Ja, AMD hat ein Polaris System - eine einzige Karte aus dem gesamten Porfolio - vorgeführt, aber dabei die FPS fixiert und nur den Verbrauch hervorgehoben. Die Karte selbst wurde auch nur dem Reporter im Geheimen gezeigt (ohne Fotos).

Also ne richtige Demonstration o.ä. war das nicht unbedingt. Es war ein Teaser.
Darauf muss der Konkurent nicht wirklich Antworten. Höchstens wenn man sich weit aus dem Fenster lehnt, könnte man aus dem Schweigen ableiten dass NV zumindest im Punkto Verbrauch nicht signifikant übertrumpfen wird, aber auch das steht in den Sternen.
 
Zuletzt bearbeitet:
nVidia fährt eine Strategie. Schon seit Jahren. Das die vorab so Engineering Samples zeigen ist einfach nicht deren Weg.

Zweite Jahreshälft klingt btw. realistisch.
 
Mal ganz davon ab, was soll man denn für Werte zeigen?
Die lassen doch erstmal AMD die Katze aus dem Sack packen um dann bei Bedarf nochmal an den Stellschrauben zu drehen... Hat bei GK104 seinerzeit 1A funktioniert ;) Warum also nicht wieder so machen? -> Wenn die Pascal GPU im Silizium dafür taugt, das AMD Gegenstück zumindest nicht deutlich hinterher zu hinken, dann wird man diesen Umstand auch sicher nicht eintreten lassen. Nur muss man eben dazu auch wissen, was die Konkurenz liefert.

Abwarten ist angesagt...
 
nVidia fährt eine Strategie. Schon seit Jahren. Das die vorab so Engineering Samples zeigen ist einfach nicht deren Weg.

Zweite Jahreshälft klingt btw. realistisch.

NV war aber auch immer später dran in den letzten Jahren, wenn es um neue Fertigung ging. AMD war bei 40nm sogar mehr als ein geschlagenes Jahr früher, weil man den RV740 schon in Risc-Produktion gestartet hat, bei 28nm war man ebenfalls deutlich später als Tahiti. Ich gehe stark davon aus, dass das diesmal nicht anders ist. Vorm Weihnachtsgeschäft wird das nix mit consumer-Pascal, wenn das überhaupt noch in 2016 was wird. Volta hat man ja vorsorglicherweise schon auf 2018 verschoben. Der angesprochene GP100 wird es im 2. HJ schaffen, vielleicht kriegen sie die Massenproduktion von dem Ding noch in Q2 hin, aber Wetten würd ich darauf keine abschließen, da sie ja direkt in die vollen gegangen sind - den Fehler machen sie ja jetzt auch schon seit Jahren.
Und bei GP100 wird sich zeigen, ob der für Titan taugt oder ob das, wie Gerüchte ja sagen, ein reiner Compute-Chip ist, also erst mal nur als NV-Link-Modul und Tesla-Karte kommt.

Wenn NV nicht den Apple-Faktor hätte, hätten sie schon längst vom User mal die Rote Karte bekommen, aber die fallen eben immer auf die Füße, egal was die für ne Scheisse abziehen. Das Timing ist auch wieder perfekt, wenn die ersten Spiele kommen, die 4GB VRAM benötigen, und die Ruckelei auf der 970 überhand nimmt wegen dem verkackten Speicherinterface rennen die Lemminge alle schön wieder in die Läden und kaufen sich 4GB GP104-Salvage-Mist, damit NV 2 Jahre später Voltas absetzen kann, weil auch die 4GB zu knapp geworden sind. Wer da immer noch nicht begriffen hat, dass da System hintersteckt, der tut mir auch nicht leid, der hat es verdient, das ihm die Kohle aus der Tasche gezogen wird. Diese Verarschetaktik fahren sie auch schon seit Jahren. GT100-Salvage war im Speicher beschnitten, GF100 war knapp mit VRAM, GK104 ebenfalls - spätestens bei GM204 wär ich mir beim Kauf ernsthaft blöde vorgekommen, aber die Lemminge kaufen halt alles, was sie von ihrer Gottgleichen Superfirma angeboten bekommen.
GTX980 Desktop -> maximal 4GB, damit die Lemminge schön GTX980ti kaufen
GTX980(M) Notebook -> Normalausstattung 8GB, wieder mal verarscht worden die Desktop-Nutzer
Muss ich da noch irgendwas zu sagen?
Und die gleichen Leute werfen AMD vor, dass sie die Entwicklung langsamer vorantreiben - mit welchem Geld? Sry für den Frustpost, aber es ist schon der Hammer, dass so viele Leute das einfach nicht wahr haben wollen.
 
Zuletzt bearbeitet:
nein die schaffen das ;D ich möchte im April ne neue Leistungsstarke Kate kaufen. .! ;D
 
Also eine Kate würde ich mir eher anlachen als sie zu kaufen :fresse:
 
Herbst wäre ein gutes Ding im Sommer zocke ich eh kaum bis garnicht darum wird die 980Ti im Mai auch wieder verkauft:d
 
Wenn NV nicht den Apple-Faktor hätte, hätten sie schon längst vom User mal die Rote Karte bekommen, aber die fallen eben immer auf die Füße, egal was die für ne Scheisse abziehen. Das Timing ist auch wieder perfekt, wenn die ersten Spiele kommen, die 4GB VRAM benötigen, und die Ruckelei auf der 970 überhand nimmt wegen dem verkackten Speicherinterface rennen die Lemminge alle schön wieder in die Läden und kaufen sich 4GB GP104-Salvage-Mist, damit NV 2 Jahre später Voltas absetzen kann, weil auch die 4GB zu knapp geworden sind. Wer da immer noch nicht begriffen hat, dass da System hintersteckt, der tut mir auch nicht leid, der hat es verdient, das ihm die Kohle aus der Tasche gezogen wird. Diese Verarschetaktik fahren sie auch schon seit Jahren. GT100-Salvage war im Speicher beschnitten, GF100 war knapp mit VRAM, GK104 ebenfalls - spätestens bei GM204 wär ich mir beim Kauf ernsthaft blöde vorgekommen, aber die Lemminge kaufen halt alles, was sie von ihrer Gottgleichen Superfirma angeboten bekommen.
GTX980 Desktop -> maximal 4GB, damit die Lemminge schön GTX980ti kaufen
GTX980(M) Notebook -> Normalausstattung 8GB, wieder mal verarscht worden die Desktop-Nutzer
Muss ich da noch irgendwas zu sagen?
Sicher hat NV ein Stück weit so was wie den Apple Faktor, aber etwas übertrieben scheint mir das schon. Was ist denn mit so Sachen wie 2x2 Downsampling, AA-Bit Spielereien, 3D Vision -> in meinem Fall 3DTV Play, HDMI 2.0/HDCP 2.2, GPU based PhysX, Cuda usw.?
Es gibt neben der reinen Basis in Form von FPS Leistung, Leistungsaufnahme und Kühlung/Lautstärke sowie dem Preis noch ne Menge Sachen, die dem potentiellen Käufer wichtig sein KÖNNEN. Was hat der NV Käufer von vor Monaten und Jahren bitte davon, das AMD nach und nach mit Features nachzieht? Das wirkt für mich sehr konfus muss ich sagen.
Es scheint mir wenig zielführend, alle NV Käufer als Lemminge abzustempeln, ohne auch nur mal ansatzweise nach dem Grund pro NV zu fragen.

Auch den Part mit der Mittelklasse kann ich nicht nachvollziehen, GF104/114 = 1GB, GK104 = 2GB, GM204 = 4GB -> geht sich irgendwie aus, nicht oder? Es liegt auch jeweils ganz grob eine Leistungsverdopplung vor. Analog im übrigen von GF100/110 = 1,5GB, GK110 = 3GB, GM200 = 6GB. Gespannt darf man dabei wohl auf Pascal sein, 8GB für den GP104 währen konsequent, ob es so kommen wird, abwarten. Bleibt es beim GDDR5 Ansatz für die Mittelklasse, ist es zumindest recht wahrscheinlich.

PS: weil du Verarschetaktik anspricht, verarsascht wird genau der, der sich verarschen lässt ;) ich für meinen Teil fühle mich keineswegs verarscht, denn ich entscheide selbst, ob das Produkt meine Ansprüche deckt und ich den Preis dafür aufbringen will. Wieso sollte ich mich da verarscht fühlen?
Wenn es nicht den Anspruch deckt, wird es genau so wenig gekauft, wie wenn es zu teuer ist. Völlig egal, ob da NV, Intel, AMD oder wer auch immer drauf steht... den meisten hier dürfte es ähnlich gehen sonst hätten hier ausschließlich ALLE 4x TitanX oder Fury X verbaut...

Und die gleichen Leute werfen AMD vor, dass sie die Entwicklung langsamer vorantreiben - mit welchem Geld? Sry für den Frustpost, aber es ist schon der Hammer, dass so viele Leute das einfach nicht wahr haben wollen.

Soweit würde ich nicht gehen, allerdings finde ich die Entwicklungen hier durchaus erstaunlich. Den Leuten wird hier vorgeworfen, das sie Lemminge wären und NV ohne Sinn und Verstand kaufen, dabei ist bis dato offenbar Niemand auf die Idee gekommen, ob es zum Kaufzeitpunkt überhaupt eine Alternative bei AMD gab? Man kann doch nicht ernsthaft annehmen, dass 50+% der dGPU Käufer schlicht dumm seien!?
Beispiel: du sprichst den mauen VRAM bei Fermi an, erwähnst aber nicht dass RV870 damals auch nur 1GB default bot. Du sprichst 4GB beim GM204 an, die doch idR. schnellere Fury X hat auch nicht mehr. Zum GM204 Release gab's nur Hawaii und GK110 in gleicher Klasse -> Hawaii mit 4GB, GK110 mit 3GB. Dann noch so Themen wie oben erwähnt, VSR gibt DS Möglichkeiten bei AMD, das läuft bei NV seit Jahren schon. Letztens gab's mit dem Crimson Treiber ein paar Sachen, bspw. PreRenderlimit Change -> geht bei NV seit 2009, wenn ich das richtig sehe. Aktive Frametimeglättung für MGPU gibt's seit der HD7990, bei NV wohl seit G80 usw. -> um nur ein paar Sachen zu nennen.

Ich lehne mich sogar soweit aus dem Fenster und würde behaupten, dass viele der NV Käufer durchaus wissen was sie da kaufen. Genutzte Features gibt man eben nicht gern wieder her. 1x Cuda benutzt, Software mit ausschließlich Cuda oder CPU only Support angeschafft und AMD ist keine Alternative mehr. Und wenn sich die halbe Welt auf den Kopf stellt, wird das nix ändern. :wink: Reines Preis pro FPS Verhältnis ist lange doch nicht mehr ausschließlich der Ansatz im GPU Bereich.
 
Wie bitte? "Die Mittelklasse geht sich aus"? Na wenn du das sagst... Die Leute kauften sich 2012 eine 680, die war da HighEnd mit 2GB und war schon in 2014 unbrauchbar deswegen. Wie praktisch, dass da grad die nächsten Kastraten auf den Markt kamen, mit denen mal das tolle Produkt ersetzen konnte. Ähnliches dürfte auch der GTX970 blühen, die ist zwar obere Mittelklasse, aber sobald über 3,5GB Speicher gebraucht werden, geht das nicht nur zu Lasten der Performance, sondern auch noch der Frametimes - welch tolles Produkt. Aber relativier du das nur alles, dein Bier. Ich muss ja mit sowas nicht leben ;). Ich hab hier auch noch ne Tahiti-Pro in Betrieb, die kommt dank der 3GB noch hervorragend mit den meisten Aufgaben klar, selbst bei Speicherfressern gehts noch gut. Das Teil hat zwar seine Grenzen, aber die Speichermenge ist dem Produkt wenigstens angemessen.
Ach ja und wenn du schon Vorteile bei NV erwähnst, dann doch bitte welche, mit denen man auch was anfangen kann, beispielsweise die deutlich effizientere Treibersoftware. CUDA ist doll, aber der Markt orientiert sich langsam aber sicher richtung offene Standards. Für normale Anwendungssoftware uninteressant. GPU-PhysX ist quasi tot, HDMI in UHD+HDCP 2.2 geht nicht, Downsampling konnte die Konkurrenz 1/2 Jahr später auch...

4GB für ein Produkt, dass 500€ kostet und ohne Not nicht als 8GB-Variante angeboten wird, obwohl das sicherlich mal nützlich sein wird ist für mich Verarsche - übrigens auch auf der anderen Seite, aber da gibts ja nunmal dieses technsiche Limit. Kaufen oder empfehlen würd ich deshalb aber dennoch keine Fury.
Und ach ja, die tolle HDMI2.0 + HDCP 2.2 Nummer, schade dass das gar nicht funktioniert, sondern nur über DP ;).

Ich diskutier da nicht drüber, das war nur ein Frustposting und dabei bleibe ich auch. Und der Apple-Faktor ist gigantisch, sonst wären die Marktanteile nicht so wie sie sind und das schon seit Jahren.
 
Zuletzt bearbeitet:
Ja und? Es gab doch auch das 4GB Modell gegen Aufpreis... analog auch bei AMD. Wo ist das Problem? Welcher Zwang besteht btw. bestand damals, eine Mittelklasse GPU mit einem Namen der HighEnd andeuten sollte zu kaufen? Jeder wusste, wenn er das wollte, dass GK110 folgen wird. Macht doch Jeder aus freiem Willen... mal ganz davon ab sagte ich nicht, dass sich die Mittelklasse ausgeht, sondern die Abfolge seit zumindest Fermi -> Leistungsverdopplung und VRAM Verdopplung. Der Markt richtet sich doch nach verfügbaren Modellen. 2GB waren damals halbwegs zeitgemäß, heute sind's halt 4GB und morgen dann mehr... dass dabei sowohl GK104 als auch GM204 mal die schnellsten Gamermodelle waren, ist doch wenig relevant.

PS: ich relativiere im übrigen nicht, sondern versuche dir zu erklären dass deine Pauschalaussage einfach nix mit der Praxis zu tun hat. Alle als dumme Lemminge hinzustellen, ist leicht daneben. Frag doch stattdessen, warum die Leute es so taten? Ich gab dir dazu mehrere Beispiele, dass es eben nur bedingt taugt, heute eine Alternative zu kennen, wo der Kauf doch womöglich schon Monate oder Jahre zurück liegt. Sollen die Leute nun ihre NV Hardware wegschmeißen, weil AMD Modelle hat, die ebenfalls in Frage kommen? Ich glaube mal nicht... oder schenkt du mir und Anderen zwei Fury X? Dann nehme ich die natürlich gern... wenn nicht, dann lass doch einfach die Leute entscheiden, was sie wollen und was nicht. Mich nervt es ehrlich mir alle Nase lang vorwerfen lassen zu müssen, wie blöd die Entscheidung für dies und jenes doch wäre, ohne das mal Jemand nach dem Grund dafür fragt. Wenn man es dann skizziert kommt die, ist doch unwichtig Keule? Wo leben wir bitte hier???

EDIT, wo konnte AMD bitte DS ein halbes Jahr später? Ich meine nicht DSR, sondern die Möglichkeit DS via Customauflösung einzubiegen. Wie schaffte zu Cypress/Fermi Zeiten AMD Downsampling? -> irgend so ne Zusatzsoftware ließ das in einigen Titeln möglich machen, das stimmt, bei NV konnte man das IMMER haben. Custom Auflösung rein und los.

EDIT2: PeterS@NVIDIA hat im geforce Forum HDCP 2.2@HDMI bestätigt für die GM206 GPU... ob es stimmt, keine Ahnung. ;)
 
Zuletzt bearbeitet:
Das was ihr als Apple-Faktor nennt ist der s.g. Snob-Effekt. Er ist ein Spiegel einer integralen, gesellschaftlichen Befriedigung zu einem Status, welcher dem Geltungsbedürfnis zuzuschreiben ist. Das passt hier meiner Meinung nach nicht. Ansonsten beteilige ich mich nicht weiter an dieser off-topic Diskussion, die jedes Mal ausbricht.

nVidia hatte bisher stets seine Gründe wieso die "zu spät" sind. Mittlerweile ist es halt einfach so, dass die faktisch die Nase vorn haben. Damit meine ich nicht explizit Features oder Technologie. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh