Nach Dell gibt auch Apple nVidia einen Tritt in den Hintern

Status
Für weitere Antworten geschlossen.

Asuka Sohryu L.

Semiprofi
Thread Starter
Mitglied seit
22.04.2008
Beiträge
2.474
Ort
Dortmund
Daß Dell von nVidia die Schnauze voll hat und jetzt zu Ati gewechselt ist, ist ja schon bekannt - daß ein großer Teil der 5800er Karten jetzt an Dell geht, ist auch mit ein Grund für deren schlechte Verfügbarkeit.
http://www.theinquirer.net/inquirer/news/1137463/nvidia-dell

Nun bin ich gerade auf einen Artikel gestoßen, daß auch Apple nVidia einen fetten Tritt in den Hintern gegeben hat. Ein Grund dafür soll das weit verbreitet Video-Problem des Macbook Pro sein:
http://support.apple.com/kb/TS2377

Beginnend mit den Nehalem-Laptops und den neuen iMacs soll nVidia Geschichte sein:
The word is that Nvidia is out of Apple designs, starting with the Nehalem laptops and iMac type things. We are told the arrogance and bluster of Nvidia proposals were greeted with a response that, paraphrased, said, "Go away and don't come back for 3-4 years if you are still around as a company. Lose our number, and if you do call, we will laugh at you again."

Actually, that wasn't how it happened, the conversations we were told about were not nearly that nice, and involved far less friendly words. The 3-4 years bit was true, the rest was far more forceful. Why? Start out reading this.

Apple to Nvidia: Don't let the door hit your ass on the way out
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anscheinend ist NVIDIA basierend auf ihren Erfolgen ziehmlich arrogant geworden.

Naja, solche Sachen,die mit Sicherheit NVIDIA finanziell weh tun, helfen mit Sicherheit wieder freundlicher zu werden.
 
habe da irgendwie nicht verstanden, woher dieses Zitat "The word is ..." wirklich stammt, es wird aus "SemiAccurate" zitiert ohne den Bezug zu nennen, woher sie das haben, man kann sich dadurch sehr schnell irgendetwas erfinden oder als Wahrheit/Gegebenes annehmen :)
 
Anscheinend ist NVIDIA basierend auf ihren Erfolgen ziehmlich arrogant geworden.
niVida war immer schon arrogant, aber wo Ati jetzt mit den 5800ern das große Meisterstück gelungen ist, haben die großen Hersteller (Dell, Apple...) keine Lust mehr, sich noch länger damit abzugeben :shot:
 
die 5800er sind schon gut, aber so der überhammer wie damals ist das mit dem g80 sind die jetzt auch nicht! außerdem sind gerade für apple die mobilen gpus wichtig und davon gibts soweit ich weiss noch keine...
 
Der Überhammer? Die Rechenleistung einer Single GPU hat sich verdoppelt bei diesem Schritt. Ist kein Hammer oder?

Ihr solltet euch mal die Gedanken um die Relationen machen über die hier gejammert wird :hmm:
 
außerdem sind gerade für apple die mobilen gpus wichtig
Was auch für Apple offenbar der Hauptgrund war, niVida einen Fußtritt zu geben, denn diese haben in den Macbooks oft Probleme:
http://support.apple.com/kb/TS2377

Das hat Apple natürlich ein heftiges Sümmchen gekostet, vom Image-Schaden mal ganz zu schweigen - kein Wunder, daß sie sauer sind.

und davon gibts soweit ich weiss noch keine
Natürlich gibt's Notebook-Gpus von Ati/Amd.
 
die 5800er sind schon gut, aber so der überhammer wie damals ist das mit dem g80 sind die jetzt auch nicht!
Aber ziemlich nah dran und das zu einem viel besseren Preis. :d

Zudem war/ist DX10 ein ziemlicher Reinfall, für DX11 sieht die Zukunft etwas besser aus. ^^


Ich könnte mir vorstellen, dass NVidia in einigen Jahren hauptsächlich für spezielle Anwendungsgebiete GPUs baut, zB für GPU Computing Superrechner für Forschung und Militär.

Naja, mal schauen.
 
Daß Dell von nVidia die Schnauze voll hat und jetzt zu Ati gewechselt ist, ist ja schon bekannt - daß ein großer Teil der 5800er Karten jetzt an Dell geht, ist auch mit ein Grund für deren schlechte Verfügbarkeit.
http://www.theinquirer.net/inquirer/news/1137463/nvidia-dell

Wir benutzen in der Firma ja nur noch DELL, also habe ich mich gerade mal auf deren Seite bequemt und kann die Aussagen vom Inquirer nicht so wirklich nachvollziehen. Durch die Bank gibt es nach wie vor sowohl ATI-bestückte, als auch nVidia-bestückte Rechner. Sei es Vostro, Optiplex oder XPS. Von wegen "über Nacht alle Karten gestrichen" kann ich da nichts sehen. Precisions haben auch nach wie vor Quadro oder FireGL, wahlweise.

Alienware (DELL) auch wie gehabt mit 285er GTX oder GTS, etc. Wie mans gerne will. Auch mit AMD Prozessor.
 
Aber ziemlich nah dran und das zu einem viel besseren Preis.
Eine HD5870 schlägt nicht mal die GTX295, die schnellste Karte der Konkurrenz. An der GTX285 zieht sie im Schnitt auch "nur" mit 15-20% vorbei. Die 88GTX dagegen hat mit der X1950XTX den Boden gewischt (+50-70%).
 
Eine HD5870 schlägt nicht mal die GTX295, die schnellste Karte der Konkurrenz. An der GTX285 zieht sie im Schnitt auch "nur" mit 15-20% vorbei. Die 88GTX dagegen hat mit der X1950XTX den Boden gewischt (+50-70%).

Es gibt ja auch viele Singlecores, die einem Dualcore das Wasser reichen...
ich möcht auch gern sehen wie Nvidia mit ner SingleGPU-Karte die 295er überholt^^


Das mit Apple und den ATI-Karten freut mich, vll gibts ja dann man ein MacBook mit einer ATI-Mobile. Jetzt noch die AMD CPUs ins Sortiment nehmen und die Entscheidung welches Notebook ich kaufe ist getroffen. :d
 
Eine HD5870 schlägt nicht mal die GTX295, die schnellste Karte der Konkurrenz. An der GTX285 zieht sie im Schnitt auch "nur" mit 15-20% vorbei. Die 88GTX dagegen hat mit der X1950XTX den Boden gewischt (+50-70%).

Hahahaha... omg. Das muss ein Scherz sein.
 
Nicht mal ne Dual GPU Karte.
Ja das sind die argumente die brummen :d:d:d:d
Vielleicht steht da der falsche Name.:d
 
Zuletzt bearbeitet:
Eine HD5870 schlägt nicht mal die GTX295...

immer diese Äpfel mit Birnen Vergleiche :rolleyes:

Der GT300er Chip ist bisher nur auf dem Papier schnell, mehr nicht!

An der GTX285 zieht sie im Schnitt auch "nur" mit 15-20% vorbei.

Ach ja? Welches Game, welche Auflösung vergleichst du denn hier "im Schnitt"?

Die 88GTX dagegen hat mit der X1950XTX den Boden gewischt (+50-70%).

Fanboygesülze! Wovon träumst du denn eigtl. Nachts?
 
Zuletzt bearbeitet:
Der 300er Chip ist bisher nur auf dem Papier schnell, mehr nicht!
Habe auch nichts anderes behauptet.
Hahahaha... omg. Das muss ein Scherz sein.
Wie kommst du darauf? :)
ich möcht auch gern sehen wie Nvidia mit ner SingleGPU-Karte die 295er überholt
Eine GTX295 ist "nur" 40-60% vor einer GTX285, das sollte Fermi schaffen, alles andere wäre lächerlich. Eine 88GTX hat ja auch eine 7950GX2 platt gemacht und eine GTX280 eine 98GX2 eingeholt.

Welches Game, welche Auflösung vergleichst du denn hier "im Schnitt"?
1680 und 1920 mit 4x MSAA in 10+ Spielen aus 10+ Reviews.
Du redest Bullshit. Realität anyway?

2009-10-04_224438_crddfc.png

2009-10-04_224442_crwh78.png
 
Zuletzt bearbeitet:
@y33H: 1920x1200 8xAA/16xAF : HD5870 +44% ggü. GTX285. hauptsächlich DX10, unter DX9 ist der Unterschied ne Ecke größer glaub ich.

Also schon ein ähnlicher Leistungssprung.
 
@ vento

Mit 8x MSAA, ok. Reines Benchsetting, da höchster vergleichbarer AA-Modus. Zockt aber keiner imo, da 4x TAA besser aussieht und weniger kostet ...


Duplex schrieb:
Außerdem hat die 5870 viele Vorteile gegenüber einer Dual GPU Karte!
Das ist klar, ne X2 wie GX2/295 sind MGPU-Krüppel.
Duplex schrieb:
8AA Modus viel besser als Geforce
Nur von den Fps her ;)
Mit neuem Treiber wird die 5870 mind. 10-15% an Leistung gewinnen
Oh ja, die übliche Mär des Wundertreibers ...warte 6 Monate, dann hast du mehr Fps. Aber nicht von jetzt auf gleich.
 
Zuletzt bearbeitet:
Mit neuem Treiber wird die 5870 mind. 10-15% an Leistung gewinnen
http://hardware-infos.com/news.php?news=3221

Außerdem hat die 5870 viele Vorteile gegenüber einer Dual GPU Karte!

- unter 2D nur 27w Verbrauch
- keine Mickroruckler
- 1024MB & 2048MB DDR5 Speicher pro GPU
- weniger abwärme
- 8AA Modus viel besser als Geforce

Na klar. Das wird bei jeder Karte behauptet. Stimmt sicher auch. In einzelnen Spielen. Sonst sind es eher ~5%, nach Monaten. Groß wird sich nichts mehr tun.

@Schmetze
Computerbase.de
Die Quelle sollte man kennen.

Dieser Thread geht allgemein in Richtung Nvidia-Bashing. Man muss die Firma nicht mögen, sollte aber objektiv bleiben.
Die 5870 ist die beste SingleGPU Karte, 25% schneller als die GTX285 sind auch gut - das sie mit MGPUs nicht mithalten kann, ist doch OK. Nvidia muss erstmal Fakten nachreichen.
Abgesehen davon ist der Idleverbrauch der GTX28x so übel auch nicht. 10W über den 5870.
 
@y33H@

Bist du ein Fanboy?

Ich finde die HD5870 in jedem test sehr gut, obwohl ich eine GTX295 hatte ;)
 
Duplex schrieb:
Bist du ein Fanboy?
Nein, ich benenne Tatsachen basierend auf Reviews und eigenen Werten. Die HD5870 ist eine sehr gute Karte, der Vergleich mit der 88GTX ist mir nur zu weit hergeholt - einen solchen Leistungssprung gegenüber der Konkurrenz stellt die Radeon nun wirklich nicht da.
 
Da ihr euch hier scheinbar nicht zusammenreißen könnt und der Sinn des Threads definitiv nicht darin liegt, die User über die Sache mit nVidia und Apple zu informieren, beende ich die Diskussion!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh