NVIDIA-GPU mit 7.552 CUDA-Cores zeigt sich

Gut, die Zeit von 8800GT vs HD3870 bis GTX 275 va HD4890 war auch die bei weitem heftigste Kampfzeit der beiden. So weit unten waren die Preise nie vorher und nie wieder danach.

Ich wünsche mir nur Preise wie zu Zeiten von Fermi und Kepler oder vorher G71 vs R580, das war noch ok und vertretbar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
:shot:
Damit hätten wir dann die 450€ Einstiegskarte der 60er Leistungsklasse :d
3050er dann für schlappe 329€ :bigok:

~500€ war damals mal Highend :hmm:
8800GT, also quasi ~ 20% unterhalb von Highend gabs für 140€...
Ich hasse ja diese Vergleiche ja, Highend zu der Zeit war die 8800Ultra, die hat von BFG schon 699€ gekostet, EVGA hat da mal eben 799€ für aufgerufen, die hatte ich nämlich. 799€ und 13 Jahre später sowie mal 2% Inflation drauf gerechnet sind? 1050€, passt also alles oder? ;)
Ich habe sogar 2005 für eine gainward 6800GT GS GLH noch 580€ bezahlt, das währe heute von dem Chip eine 2070S oder 2080 das sind 15 Jahre und wären heute bei 2% Inflation 780€, passt auch??? Ich sehe kein, bis kaum ein Problem an den Preisen heute...
 
Zuletzt bearbeitet:
Niemals für den Endverbraucher. Ich weiß, träumen macht Spaß aber man sieht schon am Vram, dass das nicht passen kann. Die würden ja mehrere tausend Euro kosten. Vorallem wäre das ja geschenkte Leistung. Bei 20% mehr wird doch eh schon gekauft.
 
Wenn man kein raytracing verwendet,dann morgen doch die tensor kerne brach. Heist die werden dann bei keinem spiel dann genutzt. Hat man dann etwa weniger leistung Weil weniger shader für den rest übrig bleibt. Also ich habe nut ältere games die mich nie was von raytracing gehört haben. Auch windows 7 verwende ich noch immer. Bringt Mir dann die gpus hier überhaupt dann mehrleistung Oder doch nicht ?
 
Nope - AMD macht Raytracing auf Shader-Level. Nvidia hat dafür dedizierte RT-Cores. Die Pipeline ist unterschiedlich und je nachdem welche du befeuerst, werden da unterschiedliche Leistungsdaten bei rauskommen.

Du kannst deine Reflektionen nicht einfach auf "Shader-Niveau" ausführen lassen (Was ein eigener Befehlssatz ist) und dann im nächsten Moment auf dedizierte RT-Kerne verlagern (was praktisch eine in sich geschlossene API darstellt).

Du kannst in beiden Fällen den Raycast-Befel an die GPU senden und in beiden Fällen wirst du eine Antwort bekommen. Aber je nachdem, ob du das in der Gameworks-API oder in der DX-12 API machst, passiert das in unterschiedlichen Geschwindigkeiten. Wie groß diese Differenzen sein werden, können wir dann in den Benchmarks betrachten. Aber lass dir jetzt schon mal gesagt sein: Dir werden die Ergebnisse von AMDs Raytracing auf Gameworks-Titeln *nicht* gefallen. Umgekehrt genauso.

PS: Es ist durchaus möglich, dass AMD gar kein Raytracing auf Gamework-Titeln anbietet. (Und das liegt dann nicht daran, dass AMD es nicht kann, sondern weil Nvidia halt kein AMD unterstützt - duh)

nix anderes machen pascal karten... aber navi2 bekommt zufälligerweise RT in hardware, un nicht über shader "emuliert"...

wie gesagt, RT ist ne softwareschnittstelle, so wie AVX auch.... jede CPU kann AVX rechnen, auch wenn sie keine hardware dafür hat, einfach unsäglich langsam, wärend CPUs mit AVX in hardware den spass blitzschnell runterrechnen.
 
Naja, mal sehen was der Spaß am Ende kostet. Der Preis ist ja auch nicht ganz unerheblich, wenn ich zu viel drauf legen muss um von meiner RTX 2080 upzugraden, macht das auch nicht so viel Sinn, außer man braucht die Leistung wirklich um jeden Preis. Als 4K und VR Gamer kann ich zwar mehr Leistung immer gebrauchen, aber ich schwimme jetzt auch nicht gerade im Geld. ;)
 
wie gesagt, RT ist ne softwareschnittstelle, so wie AVX auch.... jede CPU kann AVX rechnen, auch wenn sie keine hardware dafür hat, einfach unsäglich langsam, wärend CPUs mit AVX in hardware den spass blitzschnell runterrechnen.
Mumpitz. RT ist keine Softwareschnittstelle,(AVX auch nicht :o ) sondern die Renderart die verwendet wird, ähnlich wie die Rasterisierung, nur halt für Lichtstrahlen. Theoretisch allerdings unendlich skalierbar, weil alles was der Mensch sieht aus Lichtstrahlen besteht.
Für die separat Pipeline gibt es DXR als Teil von DirectX 12 und VKRay als Teil von Vulkan.
Software ist im Prinzip nur OptiX als Teil der Gameworks Familie um den Entwicklern an die Hand zu gehen, weil keine Hände keine Kekse(Spiele).

Was AMD aus dem Hut zaubert wird man sehen, den Kits der Konsolen zu urteilen bei denen Raytracing versprochen wurde kann es eigentlich nur eine Art RT mittels OpenGL Compute Shading sein wie man es auch bei der Crytek Demo gesehen hat, das würde aber eher für sporadischen "low quality" Einsatz von RT sprechen.
Die 2. Theorie wäre, GPU interne Recheneinheiten wie RT Kerne die deutlich leistungsstärker sind als die Nvidia's, ich glaube aber nicht das RT bei RDNA auf der Speisekarte jemals war, aber denkbar.
 
Ich hasse ja diese Vergleiche ja, Highend zu der Zeit war die 8800Ultra, die hat von BFG schon 699€ gekostet, EVGA hat da mal eben 799€ für aufgerufen, die hatte ich nämlich. 799€ und 13 Jahre später sowie mal 2% Inflation drauf gerechnet sind? 1050€, passt also alles oder? ;)
Ich habe sogar 2005 für eine gainward 6800GT GS GLH noch 580€ bezahlt, das währe heute von dem Chip eine 2070S oder 2080 das sind 15 Jahre und wären heute bei 2% Inflation 780€, passt auch??? Ich sehe kein, bis kaum ein Problem an den Preisen heute...

Nea, was früher die 8800Ulta war, ist heute eher die Titan RTX, und die kostet nicht 1050€ sondern 2800€. So gesehen hat undervolter schon recht. Nvidia nutzt halt sein Monopol, egal wie die Preise sind, die Leute kaufen ja scheinbar trotzdem. Intel hat es Jahre lang genauso gemacht. Aber kann jeder sehen wie er mag. :)
 
Zuletzt bearbeitet:
Don't hate the player, hate the game :d

Ohne richtige Konkurrenz, gibt es solche Preise. So einfach.

Hört auf rum-zu-heulen wie kleine Mädchen, bringt nix :p
 
Ohne Player auch kein game, lol.
"Nicht jedes schlau klingende Zitat ist wahr" - Ich.
Rumheulen bringt nichts, korrekt. Nicht kaufen hingegen schon,
Ich sorge für Konkurrenz und kaufe beim roten Lager, egal wie viel schneller die Geforces wieder werden.
Außer paar Scheichs haben sich wieder zusammengetan und amd Aktien für ein paar Milliarden gekauft, dann muss der Player auch nicht versuchen für Gleichgewicht zu sorgen, sodass es wieder Preissteigerungen gibt.

Zur News: Das wird doch nie eine Geforce, auch kein ti-Modell. Das 24 GB Modell eine Titan für 3000 € und das andere Modell eine Quadro?
30 Tflops bei 2GHz gpu-Takt? :banana:
 
....Ich sorge für Konkurrenz und kaufe beim roten Lager, egal wie viel schneller die Geforces wieder werden.

Könnte für AMD aber auch das Signal sein, das man mit der Konkurrenz nicht mitzuhalten braucht, wird ja eh gekauft. Für Nvidia könnte es wiederum heissen, weniger in Forschung und Entwicklung von Consumergrakas zu stecken, da der erwartete Absatz und Gewinn nicht im Verhältniltnis dazu steht.
 
Scherzkeks du :d
Damit solch eine Fantasie zustande kommt, müssten alle Käufer eine Art Sachwarmintelligenz an den Tag legen und zeitgleich entscheiden nur noch im 100 - 700 € Preisbreich und nur bei amd zu kaufen,
Holzmann würde als Anführer den Schwarm kommandieren 🦸‍♂️
 
Ich freu mich schon endlich meine Vega56 abzulösen. Ne 3080 sollte durchaus attraktiv sein gesetzt der Preis ist nicht so hoch.
 
AMD hat schon Schwierigkeiten an der drei Jahre alten 1080Ti dran zu bleiben,
Schlechtes Argument. Eher ein Argument was gegen Nvidia spricht.

1080TI 12 Mrd. Transistoren, 3584 Shader ~800€
28 Monate später kommt eine
5700XT 10,3 Mrd. Transistoren, 2560 Shader ~400€
Mit ~28% weniger Shader liegt die 5700XT nur 6% hinter der 1080Ti
Wir sehen wie AMD mit der Mittelklasse, 28% weniger Shader und 50% günstiger eine 2 Jahre und 4 Monate alte High-End Karte so alt aussehen lässt, als wäre die 1080Ti aus dem Jahr 1990. :d
 
Geht natürlich auch mit AMD Grakas untereinander:

Radeon V 13,2 Mrd Transistoren, 3840 Shader ~ 700€
5 Monate später kommt eine
5700XT 10,3 Mrd. Transistoren, 2560 Shader ~400€
Mit ~43% weniger Shader liegt die 5700xt nur 8% hinter der Radeon V
Wir sehen wie AMD mit der Mittelklasse, ~43% weniger Shader und 42% günstiger eine 5 Monate alte AMD High-End Karte so alt aussehen lässt, als wäre die Radeon V aus dem Jahr 1989.

Also eher ein Argument, was gegen AMD spricht.

Oder ist es einfach weniger rabulistisch ausgedrückt der stetigen Entwicklung geschuldet ?
 
@RoBBe07
Danke für den Vergleich. Selbst innerhalb von AMDs GPU Historie ist die Aussage von @KriegerDesHimmels , der mit den Vergleich 1080Ti vs. 5700XT eine Überlegenheit von Nvidia argumentieren will, praktisch ein schlechter Vergleich. AMD zeigt mit der neuen Architektur wie man die alte Architektur bei Spiele in den Schatten stellt.
Dein Vergleich ist also eine perfekte Bestätigung meiner Aussage. Nur deine Rückschlüsse sind nicht wirklich überlegt.
 
Ich bin sehr gespannt wan NV ihre neue Serie bringt und ob die Ti auch gleich kommt wie bei der RTX2000 Serie oder ob man da dann ein halbes oder gar ganzes Jahr dazwischen hat bis die Ti sich zeigt.
Es wäre echt Hammer wenn die dann um die 6000 Shader hätte.
Vielleicht wird die ja Zeitnah mit Cyberpunk gelauncht.
Dazu den neuen LG CX48 Oled mit Gsync Freesync und 120 Hertz ......lecker:love:
 
Zuletzt bearbeitet:
Ich bin sehr gespannt wan NV ihre neue Serie bringt und ob die Ti auch gleich kommt wie bei der RTX2000 Serie oder ob man da dann ein halbes oder gar ganzes Jahr dazwischen hat bis die Ti sich zeigt.
das wird einzig und alleine von Amd abhängen und was Big Navi wirklich kann, liegt man "nur" auf 2080ti Niveau wird Nvidia zuerst nur 3070 und 3080 bringen, falls die so heißen werden - kann Big Navi an der 2080ti vorbeiziehen und min 10-20% Vorsprung rausholen (was ich leider nicht glaube) wird man auch gleich die 3080ti bringen...
 
Glaub nicht das es an AMD liegt!
Zur Zeit der 1080Ti gab es ja auch keine Konkurrenz seitens AMD und man kämpfte mit der Leistung der GTX1080 zu diesem Zeitpunkt und dennoch hat NV das ganze Lineup der RTX 2000 rausgehauen.

Ich glaube es hängt er davon ab wie gut sich das neue Design der BIG Chips fertigen lässt.
AMD spielt da erstmal überhaupt keine Rolle meiner Meinung nach .
 
Zuletzt bearbeitet:
Die 5700 XT liegt mindestens 20 % hinter der 1080 Ti, was angesichts der Shaderzahl dennoch erstaunlich ist.

Ich habe bis Turing jede Ti gekauft, von Kepler bis Pascal war man bei 800 € meist gut dabei und bekam das Topmodell wie die EVGA FTW. 2017 direkt nach Erscheinen kostete jene Karte 879 €. Dafür satt Mehrleistung und 11 GB Speicher - Wie üblich, denn seit Kepler verdoppelte sich der Speicher und die Mehrleistung lag bei rund 60 % pro neuer Generation - Dann kam Turing und eine vergleichbare Karte kostete plötzlich 1500 € und bot nur 30 % Mehrleistung. Mittlerweile liegen die Karten bei 1,2 - 1,3 K, immer noch viel zu viel. Dank der geringen Mehrleistung juckt es zum Glück nicht so stark, eine gebraucht kaufen ginge ja immer noch. Es wird dringend Zeit dass AMD mal wieder richtig konkurriert.

Einen 4K90-TV hätte ich auch gern, dafür muss aber erstmal der passende Grafikbeschleuniger her. Die 5700 XT liefert gut was ab für ihren Preis, aber ohne IPC-Steigerung wird auch eine verdoppelte Version davon keine 90 FPS schaffen.
 
:popcorn: Die Preise sind ja schon jetzt Jenseits von Gut und Böse. Bin gespannt wie sich das Ganze preislich weiterentwickelt.

Speichermäßig ist ja die Titan RTX am lukrativsten oder? Obwohl zwei Wochen Malediven auch schön sind.
 
Zuletzt bearbeitet:
Nea, was früher die 8800Ulta war, ist heute eher die Titan RTX, und die kostet nicht 1050€ sondern 2800€. So gesehen hat undervolter schon recht. Nvidia nutzt halt sein Monopol, egal wie die Preise sind, die Leute kaufen ja scheinbar trotzdem. Intel hat es Jahre lang genauso gemacht. Aber kann jeder sehen wie er mag. :)
Eben nicht die 2080TI von heute war eine 8800Ultra, die normale GTX 8800 eine 2080 und die 8800GTS 640MB die 2070, die 8800GTS/320MB sowie 8600GT die 2060/1660. Es passt alles...
 
Schlechtes Argument. Eher ein Argument was gegen Nvidia spricht.

1080TI 12 Mrd. Transistoren, 3584 Shader ~800€
28 Monate später kommt eine
5700XT 10,3 Mrd. Transistoren, 2560 Shader ~400€
Mit ~28% weniger Shader liegt die 5700XT nur 6% hinter der 1080Ti
Wir sehen wie AMD mit der Mittelklasse, 28% weniger Shader und 50% günstiger eine 2 Jahre und 4 Monate alte High-End Karte so alt aussehen lässt, als wäre die 1080Ti aus dem Jahr 1990. :d

Das ist wirklich ein blödsinniger Vergleich. Du musst mit 2060S, 2070 und 2070S vergleichen, die sind aktuell und im Fall der 2070 auch schon lange auf dem Markt. Alle schlagen die 1080Ti deutlich, mit ähnlich vielen Shadern wie die 5700(XT).

Die 5700XT liegt ~7% vor der 2070 mit 2304 Shadern als Maximalausbau des TU106. Ich finde die 2070 etwas besser, weil sie im allgemeinen mehr OC-Potential hat, während die 5700XT beinahe am Limit läuft. Die ist aber leider ein Auslaufmodell, von vielen Herstellern garnicht mehr am Markt. Von den verbliebenen Modellen liegen nur einige sehr günstige preislich auf dem gleichen Niveau von 400-450€, einzelne zwar auch drunter, der Großteil geht aber mehr in Richtung 500€ oder drüber.
Die 2060S ist eigtl. eine 2070 mit einem deaktivierten SMX und dafür minimal mehr Takt, viele Modelle sind 1:1 identisch mit ihren 2070-Vorgängern, sie dürften also gleichviel kosten in der Herstellung. Sie liegt fast auf dem Niveau der 2070, auch preislich tun sie sich nichts, es gibt nur noch mehr lieferbare Modelle und damit geht es im Durchschnitt mehr Richtung 450€ als 500€. Ist aber durchweg die schlechtere Karte, sie scheint auch geringere Taktraten zu schaffen. Die 2060S ist 3% schneller als die 5700, die 2070 5%. Wenn man die 5700 auf XT-BIOS flasht, ist sie erstmal schonmal 7-9% schneller (die XT ist trotzdem nochmal 7% schneller), mit OC 11%, ggü. OC ohne XT-BIOS 5%. So ist sie also schonmal einige % schneller als die 2060S und 2070, kostet aber eher 300-350€ mit weniger Ausreißern darüber.
Die 2070S schließlich ist mit ebenfall 2560 Shadern etwa 10% schneller als die 5700XT, kostet aber mindesten 500€, eher 550€+, ist also definitiv in einer anderen Preiskategorie also die 5700XT. Wie bei 2070 und 2060S ist die 2070S eigentlich auch eine 2080 mit zwei deaktivierten SMX, die Modelle sind ebenfalls sehr oft identisch mit alten 2080ern, aber auch tlw. mit 2070ern.

Da muss man definitiv sagen, dass in diesen Segmenten AMD die grundsätzlich attraktiveren Angebote platziert hat und Nvidia uns aus nicht nachvollziehbaren, modellpolitischen Erwägungen die schlechteren Karten anbietet, ohne daraus selbst einen offensichtlichen Vorteil zu ziehen. Hätte man die 2070 einfach auf den Preis der 2060S reduziert, hätte sie die 5700 locker geschlagen und hätte mit der 5700XT noch konkurrieren können, die 2080 hätte zum Preis der 2070S die 5700XT sehr alt aussehen lasssen. Die Produktionskosten dürften jeweils nicht signifikant anders sein.
Natürlich hätte dann die 2080S noch weniger Daseinsberechtigung gehabt. Das ist wohl der einzige Grund, weshalb Nvidia sein Programm so umgestaltet hat. Im Endeffekt hat AMD Nvidia also dazu gezwungen, suboptimale GPU-Konfigurationen anzubieten und Nvidia hat es nicht hinbekommen, diese attraktiv zu gestalten. Momentan bietet Nvidia mit der 2080S nur einen wirklichen Vollausbau seiner Chips im Consumer-Markt an, 1650S, 1660S, 2060, 2060S und 2070S sind alle Salvation-Lösungen, dafür sind drei Vollausbau-Lösungen quasi bedeutungslos geworden (1650, 1660Ti, 2070).
Die Verkaufszahlen zeigen deutlich, dass 5700 und 5700XT in ihrem Preissegment sehr viel beliebter sind, während darüber die 2070S mangels Alternativen ähnlich beliebt ist. Die 2060S ist eine Totgeburt.

CB hat übrigens in einem tollen Vergleich herausgefunden, dass zumindest im Performancerating bei identischer Konfiguration (5700 und 2070 bei gleichem Takt) Navi minimal schneller ist als Turing. Da allerdings die 5700XT im normalen Test im Durschnitt sogar minimal häher als die 2070S taktet und ansonsten ja wirklich alles identisch ist, frage ich mich schon, wie die 2070S 10% schneller sein kann. Bei 2070 und 5700 passt es ebenfalls nicht, die 2070 (FE) im Test taktet oft bis zu ~100MHz niedriger, da ist es unerklärlich, wenn die 2070 5% schneller als die 5700 ist.

EDIT:
Eben nicht die 2080TI von heute war eine 8800Ultra, die normale GTX 8800 eine 2080 und die 8800GTS 640MB die 2070, die 8800GTS/320MB sowie 8600GT die 2060/1660. Es passt alles...
Naja, vielleicht vom Preisgefüge damals, aber der Unterschied von 8800Ultra zur GTX war bei weitem nicht so groß (10%) wie heute zwischen 2080Ti und 2080(S) (24%), da die Ultra nur minimal mehr Takt hatte.
Das ist aber auch irrelevant, denn Ihr betrahctet die falsche Zeit. Zur Zeit des G80 war Nvidia erstmals seit langem wieder mit Abstand obenauf, nachdem die HD2900 stark verspätet gekommen war und nur gerade so mit der 8800GTS 640 mithalten konnte. Erst danach mit G92 vs RV670 und dann G200 vs RV770 gab es den richtig heftigen Konkurrenzkampf, obwohl AMD jeweils gegen NVs (Singlechip-)Topmodell keinen Konkurrenten hatte. 8800GT für 229€, 8800GTS 512 für 299€, gegen HD3870 für 210€ und HD3850 für 140€, 8800GTX und Ultra vorher für 375€ und 555€. GTX 280 anfangs wieder für 550€, GTX 260 aber schon nur 265€, dagegen HD 4870 für anfangs 210€ und HD4850 für 150€, am Ende GTX 275 vs HD4890 für 239€ vs 209€, zu dem Zeitpunkt GTX 260² für 160€ und GTX 285 für 285€ (lol), HD4850 für 115€ (vs GTS 250 für 130€) und HD4870 für 160€.
War wahrscheinlich ruinös für die beiden, aber das komplette Gegenteil von heute.
 
Zuletzt bearbeitet:
Die 5700 XT liegt mindestens 20 % hinter der 1080 Ti, was angesichts der Shaderzahl dennoch erstaunlich ist.

Ich habe bis Turing jede Ti gekauft, von Kepler bis Pascal war man bei 800 € meist gut dabei und bekam das Topmodell wie die EVGA FTW. 2017 direkt nach Erscheinen kostete jene Karte 879 €. Dafür satt Mehrleistung und 11 GB Speicher - Wie üblich, denn seit Kepler verdoppelte sich der Speicher und die Mehrleistung lag bei rund 60 % pro neuer Generation - Dann kam Turing und eine vergleichbare Karte kostete plötzlich 1500 € und bot nur 30 % Mehrleistung. Mittlerweile liegen die Karten bei 1,2 - 1,3 K, immer noch viel zu viel. Dank der geringen Mehrleistung juckt es zum Glück nicht so stark, eine gebraucht kaufen ginge ja immer noch. Es wird dringend Zeit dass AMD mal wieder richtig konkurriert.

Einen 4K90-TV hätte ich auch gern, dafür muss aber erstmal der passende Grafikbeschleuniger her. Die 5700 XT liefert gut was ab für ihren Preis, aber ohne IPC-Steigerung wird auch eine verdoppelte Version davon keine 90 FPS schaffen.


nö du, im schnitt sinds 9% ---> https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160

und gut vergleichbar, da beides sone ätzenden FE versionen sind :d
 
Eben nicht die 2080TI von heute war eine 8800Ultra, die normale GTX 8800 eine 2080 und die 8800GTS 640MB die 2070, die 8800GTS/320MB sowie 8600GT die 2060/1660. Es passt alles...

Genau genommen waren 8800 Ultra und GTX ( beide Vollausbau, Unterschied lediglich bei den Taktraten) das was heute die Titan ist, die GTS640/320 die 2080Ti, 8800GT/GS die 2080/2070 (S) und die 8600GT die 2060.. So wirklich vergleichbar ist das alles aber heute nicht mehr.


Btt: bin gespannt was da diesen Sommer auf uns zu rollt. Egal aus welchem Lager, ich freu mich drauf.
 
Natürlich ist das nicht mehr 100% vergleichbar, mir ging es im Endeffekt nur um die Preise, es ist nicht exorbitant teurer als früher, wie manchmal behauptet wird. Es gab halt Phasen, wo der der Markt niedrige Preise hatte, generell waren aber GPUs immer Teuer. Meine Geforce 3 hat auch unfassbare 1300DM gekostet damals zu relase, das war ein kleines Vermögen, rechnet mal da 20 Jahre Inflation drauf, ist man wieder bei den heutigen preisen...
 
Aktuell sehe ich die Situation so. Ja, ich bin davon absolut überzeugt, dass dies eine objektive Betrachtung ist.
Stand heute hat AMD sehr gut aufgeholt. AMD hat in der Mittelklasse geliefert, mehr hat man nicht versprochen. Nvidia hat im Leistungsbereich der Mittelklasse keine Überlegenheit mehr.
Es wird spannend. Wie stark kann AMD in die Oberklasse einsteigen um auch dort mit Nvidia mitspielen zu können. Wir Tastaturhelden sehen natürlich mehr Vorteile bei Nvidia als bei AMD. Der größte Vorteil liegt augenscheinlich in der 7nm Fertigung. Während AMD jetzt schon bei 7nm ist, trotzdem bei der Leistungsaufnahme etwas, aber nicht entscheidend zurück liegt, geht es bei Nvidia mit der 3000 Serie erst los. Da sehe ich das stärkste Argument pro Nvidia. Beide bringen eine neue Architektur. AMD muss also deutlich mehr bringen um auch in der Oberklasse in Konkurrenz zu Nvidia gehen zu können.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh