GeForce Special Event: NVIDIA stellt am 1. September die Ampere-Grafikkarten vor

Nicht schon wieder, das war doch schon lange klar, dass BN noch kein HDMI 2.1 bekommt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nur zu welchen Preis?

Mit nem 32 Zoll+ IPS Panel? so 1,5k+.... dazu noch HDR? 2.5k? ;-)
Nicht, dass ich danach gesucht hätte und auf einen Kandidaten warten würde.... *hust*
 
Der Knaller wäre ja, wenn die neuen Karten kein HDMI2.1 bekommen, glaube dann würden so einige Leute ausflippen. :fresse2:
Na bloss nicht möchte mir ja den CX48 holen wen fest steht das 10bit 4:4:4 120HZ geht!
Und weg von meinem geliebten Sony AF8 65Zoll zurück von Couch an den grossen Schreibtisch!:bigok:
 
Nicht schon wieder, das war doch schon lange klar, dass BN noch kein HDMI 2.1 bekommt.
Auf jeden dann wäre ich sofort raus und zögere keine Sekunde Ampere zu holen.

Bin aber der Meinung gelesen zu haben das BIG N 2.1 bekommt!
Selbst PS5 und Xbox X bekommen 2.1.
 
Aber AMD geht von einer Nutzung am Desktop, außerhalb von einer TV Umgebung aus, dafür sollen die Konsolen da sein.
 
Aber AMD geht von einer Nutzung am Desktop, außerhalb von einer TV Umgebung aus, dafür sollen die Konsolen da sein.
Wen so dann bekommt NV die €
Weil ein LCD geht für mich garnicht mehr!
 
Wo habt ihr das den her, dass bn 2.1 support bieten soll?
 
Aber AMD geht von einer Nutzung am Desktop, außerhalb von einer TV Umgebung aus, dafür sollen die Konsolen da sein.

Ist halt doof.
Nun, oder sie meinen nicht genug Leistung zu bieten, dass sich 2.1 lohnt.
Das wiederum wäre deprimierend und vielsagend.

Also ehrlich: Welchen Grund gibt es auf 2.1 zu verzichten, wenn die Leistung so einen Port benötigen würde?
Losgelöst von NVidia und AMD mal. Gibt es irgendeinen Grund? Ist der Port so viel teurer, dass man den Marketinghit akzeptiert für den Preis?
 
Ich glaube kaum das da kein HDMI 2.1 drin sein wird.
 
ich meine, dass laut AMD Navi für eine Integrierung von HDMI 2.1 schon zu weit in der Entwicklung fortgeschritten war, als die finalen Spezifikationen bekannt gegeben worden sind, aber ich kann mich auch irren ...
 
 
Vielleicht kann man mit einem kleinen Pfännchen wieder Eier braten :fresse:

Welche Karte war das damals nochmal?
 
 
doom.... das läuft auch auf nem toaster in 4k. :fresse:

Würden deutlich mehr Games machen wenn die Programmierer was könnten oder wollten, leider zeigen wieder Flight Simulator und Horizon das das nicht die Regel ist..
Die Doom Optik und FPS auch auf älterer HW sind schon seehr beeindruckend.. Wünsche mir mehr solcher Games.
 
Ich möchte nicht nur viele FPS, sondern viele FPS beim Ultra-Setting
 
Ich verstehe einfach weniger auch nicht.
Das kam aber erst, wo ich weniger am PC sitzen konnte, weil zu viel anderes zu tun. Da dachte ich irgendwann, die Zeit, die ich aber davor sitze, da "will" ich, dass es geil aussieht
 
Vielleicht kann man mit einem kleinen Pfännchen wieder Eier braten :fresse:

Welche Karte war das damals nochmal?
:ROFLMAO: :lol:
 
Bitte keine Wiederholung davon. Egal bei welchem Hersteller.

Weniger ist oft Mehr!

Oder mehr von wenigem? Noch wertvoller^^

Sorry, aber wir können bei einer 1.500EUR Graka nicht mehr von Minimalismus, oder sich sinnvoll reduzieren, sprechen.
 
Zuletzt bearbeitet:
die GTX580 war auch ein Monster
 
Es gab ein Monster, dass noch größer war: 7970 :d
 
naja da würde ich eher sagen 9800Pro&XT
 
Monster waren für mich eigentlich immer die Dual-GPUs, da gabs von beiden Darstellern tolle Teile 😍
 
Gibt doch 120HZ für 4K !
Mit Gsync Free Sync läuft das doch geschmeidig .
Doom lief bei mir mit Ti OC auf über 100Fps Average .
Aufwendige Singleplayer will man eh max Grafik haben da läuft es dann halt mit weniger!

Und darum macht es auch kaum Sinn. Auch wegen der Kosten, wozu die Hz wenn man sie niemals füllt (außer auf dem Desktop)? Für mich ist klar, erst die Grafikkarte, dann der Monitor. Ich hatte zwischenzeitlich schon mal auf IPS mit Gsync gewechselt, letztlich ein Fehler, da es inzwischen durchaus Optionen. Leider alles sehr klein, selbst mein Desktop hat 32". Das Optimum wäre ein großes und vor allem "günstiges" (um die 1 K) Gerät mit 90 Hz - Das ist für mich die angestrebte Bildrate, die auch grafikkartentechnisch eher realisierbar ist. Von 60 auf 90 sind ein riesiger Sprung, aber oberhalb von 100 Hz wird es dann langsam unnötig. Außer man ist ein "Pro-Gamer" der in CSGO ohne seine 360 Hz nicht spielen kann.

Bei aufwendigen Open-Worlds reicht es heute meist für um die 40 FPS auf Ultra-Einstellungen. Selbst mit Runterstellen wird man da maximal an den 60 kratzen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh