Ampere-Architektur von NVIDIA soll im April starten – Turing als Codename der ersten GeForce-Karte

Ähm nein, Vega konkurriert mit keiner Pascal und erst recht nicht mit einer Ampera Karte.
Ach echt, und ich dachte der konkurriert mit dem GP104...und legt zuweilen auch mit dem GP102 an wenn man auf sein Featureset eingeht, aber was soll's...

Wenn's nicht die Effizienz ist, dann ist es morgen was anderes. ATI/AMD war über ein Jahrzehnt effizienter als Nvidia, hat keine Sa* interessiert. Ist halt nicht grün...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ATI/AMD war über ein Jahrzehnt effizienter als Nvidia, hat keine Sa* interessiert.

Jetzt bin ich aber gespannt, auf welchen Zeitraum beziehst du dich?

Früher hatten die Karten eine TDP im 2-stelligen Bereich... in Zeiten von > 300W GraKas ist die Frage nach der Effizienz berechtigter denn je.

Aber grundsätzlich wird von AMD Leuten ja gerne mit zweierlei Maß gemessen, wie man hier schön sieht.
 
Aber grundsätzlich wird von AMD Leuten ja gerne mit zweierlei Maß gemessen, wie man hier schön sieht.

das lässt sich wunderbar auf beiden seiten beobachten, da nehmen sich die lager absolut nichts.
 
das lässt sich wunderbar auf beiden seiten beobachten, da nehmen sich die lager absolut nichts.

Ja aber mal ganz ehrlich, wie begründet der Nvidia Käufer aktuell seine Wahl?
=> er wollte das Beste haben

Wie begründet der AMD Käufer aktuell seine Wahl?
=> 100-150W Mehrverbrauch interessieren mich nicht, ich hab das Geld
=> mein Netzteil war eh schon 4 Jahre alt, daher war es sowieso an der Zeit nen neues 650W NT zu kaufen, ich hab das Geld
=> undervolting FTW
=> habe eh ne Wakü daher interessiert mich Lautstärke nicht, ich hab das Geld
=> die Treiber werden es richten
=> Freesync, denn ich hab das Geld für nen Gsync Monitor nicht
 
Zuletzt bearbeitet:
Aber grundsätzlich wird von AMD Leuten ja gerne mit zweierlei Maß gemessen, wie man hier schön sieht.

Bißchen komisch sowas von dir zu lesen, wenn du vorher gerade deine grüne Brille auf oder ab hast. Ich kenne Bilder auf denen man auf Nvidia Eier gebraten hat, wie lange ist das her? Man konnte sich die Haare fönen und vieles mehr...

Es gibt über all was zu meckern, daher. Gerade die Frage was Karten verbrauchen oder nicht verbrauchen sollten, habe ich weiter oben schon beantwortet. Es macht keinen Sinn immer weiter massiv zu shrinken, Ressourcen zu verpulvern, VRAM ohne Ende draufzuklatschen oder einen draufzusetzen bei Effizienz und daraus resultierender Leistung, dass ist irgendwann nicht mehr bezahlbar, bekommen tust du es - aber spaltest damit die Community in arm und reich. Wobei nicht mehr als 10% reich sind.

Es macht mehr Sinn in die günstigeren Softwareumfelder zu investieren, den Overhead zu minimieren, Bottlenecks zu beseitigen, dass liegt noch immer zu oft brach. Sich mit den Entwicklern auseinander zu setzen und sie zu fragen, was sie brauchen und sie sich wünschen.

Viel von dem R&D Buget das Nvidia aufwendet fließt dabei nicht in open source Gedanken sondern in Werbung und Gelder, das ihre Hardware auch verwendet wird und das finanziert man sich auch gegen. Bezahlen tust du es.

Lange moralische Reede kurzer Sinn, es bringt mehr im Mainstream zu investieren, viele ti und Titan User wechseln nicht mehr bei jeder Gen, dass weiß auch Nvidia und nach oben raus kostet wenig verdammt viel.
 
Zuletzt bearbeitet:
Man konnte sich die Haare fönen und vieles mehr...

Gute alte Zeiten... :d

 
@satuan

Und jetzt willst du deine Aussage von #31 nicht mal mit ein paar Zahlen untermauern?

Oder war das so ein aus der Luft gegriffenes "Notwehr Argument" da sich jemand erdreistet hat den Lieblings-Hersteller zu kritisieren?
 
Gute alte Zeiten... :d

Flameware oder Shitstorm's machen keinen Sinn (wir müssen das nicht jedes mal tot diskutieren), beide haben genug Böcke geschossen...mal der eine, dann wieder der andere. Man kann nicht behaupten sie hätten draus nicht gelernt.

Es ist richtig, AMD verschenkt viel Potential, auch was Vega angeht. Eine bessere Fertigungsstrategie hätte Sinn gemacht, aber man muss sehen was man bezahlen kann und wo man seine Prozesse auch buchen kann.

In der frühen Vergangenheit hat sich bewiesen (an Maxwell und Pascal) das eine Designoptimierung auf Fertigungsverfahren und umgekehrt viel Potential bietet. Da ist Nvidia tatsächlich weiter, wenn man nur umher prollen will, erkennt das sicher nicht. Also lassen wir das...;).

- - - Updated - - -

Wie begründet der AMD Käufer aktuell seine Wahl?
=> 100-150W Mehrverbrauch interessieren mich nicht, ich hab das Geld
=> mein Netzteil war eh schon 4 Jahre alt, daher war es sowieso an der Zeit nen neues 650W NT zu kaufen, ich hab das Geld
=> undervolting FTW
=> habe eh ne Wakü daher interessiert mich Lautstärke nicht, ich hab das Geld
=> die Treiber werden es richten
=> Freesync, denn ich hab das Geld für nen Gsync Monitor nicht
@satuan

Und jetzt willst du deine Aussage von #31 nicht mal mit ein paar Zahlen untermauern?

Oder war das so ein aus der Luft gegriffenes "Notwehr Argument" da sich jemand erdreistet hat den Lieblings-Hersteller zu kritisieren?
Solange du so einen Schrott schreibst, untermauer ich gar nichts, da landest du eher auf ignor.
 
Ähm nein, Vega konkurriert mit keiner Pascal und erst recht nicht mit einer Ampera Karte.

Der Chip, der in Sachen Leistung und Effizienz mit einer Pascal/Ampera Karte konkurrieren kann, muss erst noch gebaut werden.

Ich tippe mal auf 2019 für den Pascal Konter.

Hä??Sie konkurrieren mit ihrem aktuellsten (Gaming) Produkt mit dem aktuellsten (Gaming)Produkt, was der Konkurrent in dieser Leistungsklasse bietet. Mit was sollen sie den sonst konkurrieren? Intel onboard Grafik? Maxwell? 3dfx? Matrox?:rofl:
 
Zuletzt bearbeitet:
Ja aber mal ganz ehrlich, wie begründet der Nvidia Käufer aktuell seine Wahl?

wer redet denn von aktuell?

über die letzten jahre betrachtet ist das nunmal so, dass sich jeder das sucht was ihm passt.
mit jeder generation kann sich das dann aber schnell wieder ändern.

und auf die polemik gehe ich mal nicht weiter ein.
 
Wenn's nicht die Effizienz ist, dann ist es morgen was anderes. ATI/AMD war über ein Jahrzehnt effizienter als Nvidia, hat keine Sa* interessiert. Ist halt nicht grün...

Unsinn, das war die Zeit, als AMD die Modelle entsprechend auch gut losgeworden ist - späte, weil günstige HD38xx, zeitgleich zu NV mit der 48xx Reihe und eher als NV mit der 58xx Reihe.
DAS brachte AMD gute Absatzzahlen und entsprechend hohen Anteil in den Umfragestatistiken. Die HD48xxer Reihe war bei Steam sogar phasenweise die Reihe mit den meisten Einheiten...

Warum müsst ihr euch den Spaß immer schön reden? Die Welt läuft nicht nach rot oder grün. Wer das bessere Produkt abliefert, hinterlässt den besseren Eindruck. DAS zählt langfristig... Wenn du dir nur mal die jüngere Vergangenheit anschaust, irgendwas war immer. Verbrauch, Kühler, Temperatur, Effizienz, Featureset, Zeitpunkt.
Mr. Lederjacke sagt es doch selbst schon ganz treffend, NV ist 10x mal größer als AMD im GPU Geschäft. Ob das exakt stimmt, mal außen vor. Aber ihr erwartet einfach zu viel. Da kommt bei AMD nicht das Überprodukt was auf den Punkt in ALLEN Märkten die Konkurrenz übertrumpft. Ist nunmal nicht... Und GPUs sind immernoch keine CPUs, wo du EINEN DIE entwickelst und von ganz unten bis ganz oben im Regal skalieren kannst. -> das hat Intel mit LRB/Xeon Phi versucht. Für GPUs langte es nicht. Für Compute auch nicht mehr...
 
Flameware oder Shitstorm's machen keinen Sinn (wir müssen das nicht jedes mal tot diskutieren), beide haben genug Böcke geschossen...mal der eine, dann wieder der andere. Man kann nicht behaupten sie hätten draus nicht gelernt.

Sehe ich ebenfalls so. Ich bin aber auch keiner, der zwingend einer Marke treu bleibt. Ich kaufe das, was zum Kaufzeitpunkt am ehesten meine Anforderungen abdeckt. Völlig egal welcher Sticker draufklebt. Deshalb läuft hier grade eine GTX 1060 und keine RX480, weil ich die 2gb extra Vram nicht brauchte aber 30W weniger in einem ITX Case viel Wert sind. Wo wir dann wieder bei der leicht schlechteren Performance pro Watt von Polaris ggü. Pascal sind.

Dafür hab ich mir letztens ne günstige HD 7870 Ghz fürn Zweitpc geschossen... Die war so günstig das ich nicht verzichten konnte :d
 
U Da kommt bei AMD nicht das Überprodukt was auf den Punkt in ALLEN Märkten die Konkurrenz übertrumpft.

Mit der HD5850/5870 hat AMD doch Nvidia in allen (zumindest für mich) relevanten Punkten übertroffen?

Also ganz ausschließen sollte man das nicht.
Allerdings erwarte ich so ein Comeback nicht in absehbarer Zeit.
 
Die war so günstig das ich nicht verzichten konnte :d
CPU & GPU Stress Testing: Benchmarks & Results - AMD Raven Ridge Thermal/Power Analysis: Ryzen CPUs With Vega

Gigabyte Radeon RX Vega 64 Gaming OC 8G: Power Consumption

Mich kotzt so was einfach an. Ich bin auch offen, derzeit eben wegen Freesync AMD. Wenn Nvidia sich dafür entscheiden würde, würden sie vermutlich den Burner bringen. Aber nee, man muss lieber melken (mit irgendeinem Modul das keine Sa* braucht).

Und nur mal nebenbei, die 250Watt sind ein TortureLoop kein GamingLoop! Ja 1000Watt verbrauchen sie mehr, ich muss mir drei Netzteile mehr einbauen als bei Nvidia.

Wieder Gigabyte die da einen guten Weg gehen. Leider nur in homöopathischen Dosen und derzeit Miningpreise, dass muss man ganz klar kritisieren. Aber meine hat nur 499 gekostet, ist gemoldet (damit wahrscheinlich eine anfängliche FE) und lässt sich mit 1500MHz auf 910mV drücken, da sieht man wie viel Potential AMD verschenkt/verschenken muss (Fertigung halt).

Ich vermute das weder Fiji noch Vega in dem Fertigungsverfahren erschienen sind, in dem sie geplant waren. Das war für die Fertiger einfach zu gering im Auftragsvolumen um dort teifergreifende Optimierungen vorzunehmen und der Mainstream braucht das nicht. Nach oben raus wird's dann enger. Wir werden sehen was Vega in 7nm reisst.
 
Zuletzt bearbeitet:
Wer absolutes High-End haben will, der muss im Moment eben zu NV greifen.

Nun abgesehen von der Verfügbarkeit: Ab GTX 1080/Vega 64 müssen dann persönliche vorlieben beachtet werden.

Jede Karte hat eine Daseinsberechtigung...

Bei NV sind die karten eben effizienter, dafür muss man für G-Sync blechen. Bei AMD gibts halt dann Freesync für lau.

jeder der sich für einen Hersteller festnagelt und um jeden Preis bei dem kauft, wird früher oder später eine wenigerpassende Hardware verbauen
 
AMD hat seine RTG kürzlich neu aufgestellt und Navi wird eine neue Architektur bringen, denke das Potential zu was gutem ist da.

Dazu kommt, das Vega wirtschaftlich für AMD alles andere als negativ ist. Man kann nur nochmal betonen, dass Vega völlig ausgebucht ist und sein monetäres Ziel wohl übertreffen wird.

Aus der Sicht eines Gamers rechne ich jetzt auch mit keinem Wundertreiber mehr, jedoch besteht noch genug "headroom" für Optimierung zusammen mit den Entwicklern, Stichwort: "Rapid Packed Math" Far cry5 zb wird noch spannend für Vega. :)
 
Wenn du dir nur mal die jüngere Vergangenheit anschaust, irgendwas war immer. Verbrauch, Kühler, Temperatur, Effizienz, Featureset, Zeitpunkt.
Mr. Lederjacke sagt es doch selbst schon ganz treffend, NV ist 10x mal größer als AMD im GPU Geschäft. Ob das exakt stimmt, mal außen vor. Aber ihr erwartet einfach zu viel. Da kommt bei AMD nicht das Überprodukt was auf den Punkt in ALLEN Märkten die Konkurrenz übertrumpft.

Dafür hat Koduri oder Su keine Holzatrappe hochgehalten oder so stumpfe Sprüche wie, its not a Bug, its a Featrue gebracht...und damit die eigenen Jünger fortgestoßen.

Was hat denn VLIW mit GCN zu tun? Nvidia lebt heute noch von der 3DFX Übernahme und deren Image, dem G80...man brauch kein Gsync Modul um das Protokoll zu unterstützen, oder wie machen sie das Mobile?

Was interessiert mich als Gamer irgendwelche Märkte, dort interessiert mich annehmbare Spielleistung zu annehmbaren Preis offen für jeden, der Rest ist Anleger, Investoren und Analystengequatsche.

Und wenn du dir die Vergangenheit anschaust macht Nvidia dort auch nicht immer eine gute Figur, trotz ihres ganzem Knowhow das hier immer so großspurig vorgehalten wird. Es gibt immer Phasen in denen halt die Konkurrenz mal besser oder schlechter ist, normal. Nur muss man nicht alles von vornherein schlecht reden und übertreiben, das wird hier zielgerichtet getan.

Und wenn es nicht die Lautstärke, Effizienz, Leistung oder sonst die Farbe Rot ist, die einen stört - ist es was anderes, Geld, Macht, Marktanteil...
 
Zuletzt bearbeitet:
Turing wird wohl eher ein GV100-Nachfolger, das wird kein Chip für Spiele sein. Da wird der Name Programm sein. Das ist sicherlich ein 7nm-GV100-Nachfolger. Vielleicht hat das Ding sogar gar keine GPU-Funktionen wie TMUs mehr.

Dass NV aus rein poltischen Gründen kein Freesync untersützt, obwohl sie es könnten und dafür keinen Cent bezahlen müssten, ist wirklich das allerletzte. So bleibt einem echt nur auf Adaptive-Sync zu verzichten (also auf FastSync auszuweichen) oder auf Navi zu warten. Denn einen GSync-Monitor würd ich aus Prinzip nicht kaufen, 100€ für NV nochmals extra wegen schlechten Benehmens seitens NV seh ich da einfach nicht ein.
 
Zuletzt bearbeitet:
Turing wird wohl eher ein GV100-Nachfolger, das wird kein Chip für Spiele sein. Da wird der Name Programm sein. Das ist sicherlich ein 7nm-GV100-Nachfolger. Vielleicht hat das Ding sogar gar keine GPU-Funktionen wie TMUs mehr.

Dass NV aus rein poltischen Gründen kein Freesync untersützt, obwohl sie es könnten und dafür keinen Cent bezahlen müssten, ist wirklich das allerletzte. So bleibt einem echt nur auf Adaptive-Sync zu verzichten (also auf FastSync auszuweichen) oder auf Navi zu warten. Denn einen GSync-Monitor würd ich aus Prinzip nicht kaufen, 100€ für NV nochmals extra wegen schlechten Benehmens seitens NV seh ich da einfach nicht ein.
Ich vermute eher eine abgespeckte Karte zwischen HPC und Titan aufgrund der Treiberlizensierung für Deep Learning, dort hat Nvidia professionell Tesla kanibalisiert und das stört bestimmte Prosumer gewaltig.

Die Monitore sind grundsätzlich nicht schlecht, nur lässt Nvidia gerne heiße Kartoffeln auch mal fallen ohne darauf Rücksicht zu nehmen was aus dir wird. Man muss verkaufen, alles andere ist scheißegal.

Ich frage mich wie sie Jahrelang ASync im mobile Bereich unterstützt haben. Die spinnen doch...aber anderes Thema.
 
gibt echt noch Leute die gegen G-Sync Aufpreis ranten - kaufen aber für 150€ mehr eine Vega64 statt die 1080 bei gleicher Performance

macht Sinn ja
 
gibt echt noch Leute die gegen G-Sync Aufpreis ranten - kaufen aber für 150€ mehr eine Vega64 statt die 1080 bei gleicher Performance
macht Sinn ja

Wer tut oder hat das den getan?
 
Dass NV aus rein poltischen Gründen kein Freesync untersützt, obwohl sie es könnten und dafür keinen Cent bezahlen müssten, ist wirklich das Allerletzte.

Das stimmt. Wobei ich mich Frage ob das wirtschaftlich wirklich so sinnvoll ist?

Es werden sicherlich mehr Freesync als gsync Monitore verkauft und die Nutzer halten diese meist über Jahre.

Viele sehen sich dann gezwungen weiterhin AMD Karten zu kaufen... ob das unterm Strich wirklich so sinnvoll ist?
 
Aus meiner Sicht wird das langfristig Verkäufe verhageln. Die behindern sich selber. Momentan läuft das sicherlich noch gut, aber versuch mal bei einem der größten Monitorherstellern, Samsung, einen GSync-Monitor zu bekommen... NV bleibt gar nichts anderes übrig als sich für andere Scaler zu öffnen (denn die Monitorhersteller tun abseits einzelner Spielermonitore einen Teufel, NV-Scaler zu verbauen), wie sie es schon im Mobilbereich von Anfang an taten (Mobile GSync = Freesync, da steht nur GSync dran). Proprietär wird man bei HDR bleiben, da ist es AMD dann aber auch mit Freesync 2.
 
Zuletzt bearbeitet:
Das stimmt. Wobei ich mich Frage ob das wirtschaftlich wirklich so sinnvoll ist?

Es werden sicherlich mehr Freesync als gsync Monitore verkauft und die Nutzer halten diese meist über Jahre.

Viele sehen sich dann gezwungen weiterhin AMD Karten zu kaufen... ob das unterm Strich wirklich so sinnvoll ist?
Jeder der ein wenig rechnen kann wird feststellen, dass GSync tatsächlich gar nicht so teuer ist wie immer propagiert wird. Ein Monitor überlebt im Schnitt mehrere Karten, womit sich der Aufpreis pro Karte entsprechend reduziert.
Außerdem ist Freesync auch nicht kostenlos. Oder hat das etwa jeder Monitor?
Abgesehen davon interessieren die allermeisten Spieler diese Syncgeschichten gar nicht.
Unterm Strich ist es also nicht unrentabel für Nvidia. Das beweisen alleine die Marktanteile von AMD.
 
Habe ich etwas anderes behauptet?

Die Frage war halt einfach, würde Nvidia nicht mehr verdienen wenn ihre Grakas (zusätzlich) Freesync unterstützen würden?
 
Wenn die Dinger scheiße beim Minen werden (zu 99% werden sie es aber) könnte ich sogar meine 1080ti mit Gewinn verkaufen und mir ne 2080 holen (hätte zwar lieber ne Ti aber die wirds erst in gut nem Jahr geben)... mal schauen.
 
Habe ich etwas anderes behauptet?

Die Frage war halt einfach, würde Nvidia nicht mehr verdienen wenn ihre Grakas (zusätzlich) Freesync unterstützen würden?

Nein weil dann die exklusiven Lizenzgebühren, die NV verlang nicht mehr "begründet" wären und das Marktpotential an weiteren adoptern zu NV nicht größer ist im Verhältnis.
 
Nein weil dann die exklusiven Lizenzgebühren, die NV verlang nicht mehr "begründet" wären und das Marktpotential an weiteren adoptern zu NV nicht größer ist im Verhältnis.
Und das doppelt, verlangen 100 $ fürs Modul und 20% mehr vom Käufer. Eigentlich lassen sie die Partner mit dem Mehrpreis nur das Modul bezahlen und sie könnten einfach einen Scaler benutzen der schon vorhanden ist wenn ASync unterstützt würde, dabei müssen sie nicht mal Freesync als Werbeslogan benutzen (ginge sowieso nicht), sondern könnten es Nvidia AdaptivSync nennen oder was auch immer. Free passt nun mal nicht zu Nvidia das muss Cudasync heißen.


gibt echt noch Leute die gegen G-Sync Aufpreis ranten - kaufen aber für 150€ mehr eine Vega64 statt die 1080 bei gleicher Performance

macht Sinn ja
Und nein ich habe eine 64 für 499 gekauft und Freesync für 390 vorher (weil Fiji - der wird also schon über 2 Gens quersubvensioniert). Bin mal gespannt was Nvidia da so bietet.:fresse2:

Ich darf also "ranten"...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh