Warum ihr aktuell lieber eine Grafikkarte von AMD anstatt von Nvidia kaufen solltet

Warum ihr aktuell lieber eine Grafikkarte von AMD anstatt von Nvidia kaufen solltet

Black Friday, die CyberWeek von Amazon und Co stehen vor der Tür und viele wollen sich eine Grafikkarte anschaffen. Doch wer eine Grafikkarte kaufen möchte, könnte jetzt vor allem bei AMD gute Angebote finden.

Wenn ihr aktuelle Games zocken möchtet, braucht ihr eine Grafikkarte mit ordentlicher Performance. Denn die GPU übernimmt wichtige Aufgaben, wie das Rendern von Grafiken, wenn ihr am Zocken seid.

Wer sich aktuell überlegt, zu Black Friday oder CyberWeek eine neue Grafikkarte zu kaufen, der könnte derzeit vor allem bei AMD fündig werden. MeinMMO erklärt euch, warum ihr gerade einen besonderen Blick auf „Team Rot“ werfen solltet.

Das gilt vor allem für Gamer, die dieses Jahr noch eine Grafikkarte kaufen wollen und nicht mehr auf RX 7000 oder RTX 4000 warten wollen.

AMD gilt mit RX-6000-Grafikkarten als echter Preis-Leistungs-Tipp

Wie sieht die aktuelle Lage aus? Mittlerweile haben sowohl AMD als auch Nvidia ihre neuesten Grafikkarten vorgestellt. Doch diese Karten sind entweder so teuer, dass die Spieler auf die Barrikaden gehen, oder noch gar nicht offiziell im Handel erhältlich. Und die Mehrheit unserer User ist 2022 nicht bereit, mehr als 800 Euro für eine Grafikkarte zu zahlen.

Aktuell solltet ihr aber euren Blick auf die verfügbaren Grafikkarten werfen und hier gibt es mit der RTX-3000er-Reihe und der RX-6000er-Reihe eine potente Auswahl. AMD hat obendrein die Preise für die RX 6000er-Reihe gesenkt, um Platz für die nächste Generation zu schaffen.

Welche Grafikkarten lohnen sich derzeit besonders? Vor allem in der Mittelklasse und im unteren Highend-Bereich könnt ihr mit AMD-Grafikkarten viel Geld sparen. Anders ausgedrückt: Wer hauptsächlich in Full-HD (1080p) spielen möchte oder an WQHD (1440p) interessiert ist, der findet bei AMD momentan das bessere Preis-Leistungs-Verhältnis (via geizhals.de):

  • Wer für Full-HD eine Grafikkarte kaufen möchte, der zahlt für die RX 6600 XT rund 330 Euro. Für die vergleichbare RTX 3060 werden über 400 Euro fällig.
  • Wer nach einer WQHD-Grafikkarte sucht, der zahlt für die RX 6700 XT derzeit rund 500 Euro. Für die vergleichbare GeForce RTX 3070 zahlt ihr mindestens 100 Euro mehr, je nach Modell und Verfügbarkeit.
  • In 4K gelten ähnliche Preisunterschiede: Für eine RX 6900 XT zahlt ihr derzeit rund 750 Euro, für die ähnliche RTX 3080 zahlt ihr mindestens 850 Euro.

Ein ähnliches Bild ergibt sich, wenn ihr bei den aktuellen Strompreisen auf Effizienz achten wollt: AMDs 6900 XT ist effizienter als RTX 3090, dafür sind Nvidias GPUs in der Mittelklasse etwas besser. Im Budget-Bereich (RX 6500 XT) bietet AMD wiederum die effizienteren Karten an. Nvidia übertrifft AMD leicht bei der Leistung pro Watt, aber AMD gewinnt bei der Leistung pro Euro.

Nvidia bietet Features, die AMD (noch) fehlen

Wo hat Nvidia weiterhin die Nase vorn? Ihr solltet euch im Klaren sein, dass Nvidia in bestimmten Bereichen weiterhin die Nase vorn hat, wenn es um Grafikkarten geht:

  • Die Raytracing-Leistung von Nvidia-Grafikkarten ist besser als die von AMD-GPUs, auch wenn die Radeon-Modelle den Abstand langsam, aber sicher etwas verringern
  • Nvidias DLSS-Technik ist aktuell noch besser als AMDs FSR-Technik. Mit FSR 2.0 hat AMD aber kräftig aufgeholt und dürfte mit FSR 3.0 den Abstand weiter verringern.
  • Bestimmte Sofware-Suiten, wie etwa Blender, setzen derzeit eine Nvidia-Grafikkarte voraus (via blender.org).

Diese Unterschiede solltet ihr im Auge behalten. Interessiert euch weder Raytracing noch DLSS und benötigt eure Grafikkarte nicht für professionelles Rendering, dann ist AMD aus unserer Sicht mit Blick auf den Vergleich zwischen RTX 3000 und RX 6000 aktuell oft das bessere Angebot, wenn ihr aufrüsten wollt.

Weitere Details und Unterschiede zwischen AMD und Nvidia erklären wir euch in folgendem Artikel:

Wie wichtig ist bei einer Grafikkarte, ob ich AMD oder Nvidia kaufe?

Deine Meinung? Diskutiere mit uns!
12
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
32 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
Renoon

„Wer billig kauft, kauft zwei Mal“ sagt man. Also lieber noch warten, als nur für billig auf AMD umzusteigen…

Veoh

ACHTUNG!
Man sollte aber auch bedenken das die aktuellen Grafikkarten richtig Leistungshungrig sind, und ein gutes System vorraussetzen!

Also alles was unter 5,2 GHz im Prozessor werkelt und ohne die ganzen aktuellen features, so wie ein gutes Netzteil von mind. 850 watt liefern, wird da keine große Freude haben, bzw. Endlos in den “Bottleneck” laufen.

Es sei denn man vertraut auf die kleine Karten und spielt auf niedrigere Auflösung- was aber dann logischerweise auch nicht die heftigste Leistung hat (trotzallem dennoch ein mäßig gutes System voraussetzt).

-> klar, man kann es ja noch mit diesen ganzen künstlichen FPS schummelleien versuchen mit FSR, Dlss, XESS…
Ist aber trotzallem rein vorgegaukelt.

fraqment

Ich habe ein 6 Jahren Alten Spiele Rechner selbst gebaut und eine ältere Karte von AMD 580RT wo ich wohl Glück hatte gut ausgestattet mit RAM und habe meinen Spaß udn hätte nicht mehr Spaß wenn ich ein 20k Euro Gamer PC hätte die ich selber sogar früher gebaut habe ^^
Der Spaß hängt nicht vom Wert deines Computers ab sondern vom Wert des Spieles.

Todesklinge

Mit der 4090 kann man mehr Leistung für die gleiche Wattzahl bekommen als bei der 7900 XTX.
Die 4090 läuft auch prima mit ca. 360 Watt (ähnlich wie die 7900 XTX von AMD) und ist dabei noch viel schneller.

Hatte bisher leider kein Glück gehabt eine von Asus zu bekommen 🙁

T.M.P.

Du hast schon unabhängige Spielebenchmarks von der 7900 XTX?

Todesklinge

Die 7900 XTX entspricht einer 4080. Siehe IgorsLab.

Der8auer hat die 4090 Founders Edition von 450 Watt auf 283 Watt gedrosselt und dabei nur 5% FPS verloren.
Bei 271 Watt nur 2% FPS verlust.

Das ist extrem gut und man könnte das Negative noch weiter reduzieren (also mehr FPS).

T.M.P.

AMD Radeon RX 7900XTX im virtuellen Benchmark

.

Und so ist der gesamte Artikel natürlich trotzdem noch hochspekulativ,…

.

Die GeForce RTX 4080 FE 16 GB bräuchte eine andere Betrachtung…

Hier liegt die Sache leider komplett anders. Ich schrieb ja schon: NDA. Aus den bereits von NVIDIA selbst veröffentlichten Benchmarks kann man aber ableiten,

Naja, Fakten sehen aber anders aus.

Die Zahlen von Der8auer machen so auch keinen Sinn. Meinst du vielleicht 5% + 2% für 271 Watt? Hab die Info auf die schnelle nicht gefunden, der Typ ist ja anscheinend son YouTube-Hansel. Weiß der Geier wie der gemessen hat.^^

Den Verbrauch um 35-40% zu reduzieren, glaubst du nicht Nvidia hätte das selbst auch gemacht wenn es denn immer stabil laufen würde? Oder zumindest mal angemerkt das es möglich ist, bei dem Shitstorm bezüglich des Verbrauchs in letzter Zeit?

Ich mein, mach was du willst. Ich würde solche Dinge nicht als Fakten weiterverbreiten..

EDIT: Hast du dich vielleicht um 100 Watt vertan? Weiter oben redest du von 360 Watt.

Zuletzt bearbeitet vor 1 Jahr von T.M.P.
Todesklinge

Der “Hansel” ist sehr Seriös, sehr bekannt, erfolgreich und bietet zuverlässige Informationen.

Ja ich habe mich um ca. 100 Watt verschätzt. Ich dachte es wären rund 360 Watt Verbrauch, jedoch sind es noch weniger mit ca. 270+ Watt.

Ist ja auch egal, jedenfalls ist die Ada Generation superp geworden.

T.M.P.

Mag sein, aber ich schau mir keine 5 Stunden Videos an um mir deine Infos rauszusuchen. Sehr unpraktisch als Diskussionsgrundlage. Da ist mir geordneter Text lieber. =)

Ich kenn den Typen nicht, ich glaub dir aber gern, dass er was drauf hat.
Am Ende weiß ich so aber weder ob die 270 Watt wirklich Vollauslastung ist (Raytracing, Speicher..) noch ob sie wirklich stabil sind. Oder ob das nur geschönte Youtube-Zahlen sind, die keiner längeren Belastung standhalten.

Und schlussendlich weiß ich auch nicht, ob man mit den anderen Karten nicht das Gleiche machen kann.

Todesklinge

Wenn du nur spielen magst. Reicht die xx80er Varianten oder weniger von Nvidia locker aus. Bei AMD entsprechend den Gegenpart.

Wenn man content Creator ist, erst dann braucht man xx90er (frühers Titan Serie).

Es ist ein Unterschied wenn man damit Arbeitet und die neuen Technologien (4000er, DLSS 3 und AV1) einen massiven Vorteil geben, gegenüber der vorherigen (3000er, DLSS 2 und kein AV1 Generation) geben.

tjdetti

Naja, Fakten sehen aber anders aus

Fakten,Fakten,Fakten, Hoecker sie sind dran.😃 Sry aber der musste raus!

Die Zahlen von Der8auer machen so auch keinen Sinn. Meinst du vielleicht 5% + 2% für 271 Watt?

Genauso ist es gemeint 5% bzw 7%.

Den Verbrauch um 35-40% zu reduzieren, glaubst du nicht Nvidia hätte das selbst auch gemacht wenn es denn immer stabil laufen würde?

Nein das würde Nvidia nicht, es geht hier um den längsten FPS-Balken, da ist es egal wie weit man vom Sweetspot entfernt ist.
Die 1000er Serie von Nvidia war auch sehr gut zum Undervolten geeignet, fast schon Legendär war aber die Vega 56 bzw. 64 hier konnte man 30% und mehr runtergehen und das bei gleichzeitig leichten Overclocking.

Du hast schon unabhängige Spielebenchmarks von der 7900 XTX?

Braucht man doch garnicht, AMD hat doch selbst bestätigt das die XTX gegen die 4080 antritt und nicht gegen die 4090.

BacktoTopic….. Ich würde aktuell auch keine 6000er oder 3000er mehr kaufen, wer seine GPU nicht mit jeder Generation ersetzt, wird langfristig von FSR 3.0, DLSS 3.0, Nvidia Reflex, AMD Hypr RX profitieren.

T.M.P.

“Also, bei den afrikanischen Elefanten, da..”
“Hoecker!”

Braucht man doch garnicht, AMD hat doch selbst bestätigt das die XTX gegen die 4080 antritt und nicht gegen die 4090.

Was nicht heissen muss, dass sie genau gleichschnell sind.

Ich mag halt Fakten, und kauf möglichst nicht auf Grund von hörensagen. =)
Momentan fahr ich noch eine 1070, langsam wirds Zeit, aber bei den Preisen würde mich ein Fehlkauf ärgern…^^

tjdetti

Also, bei den afrikanischen Elefanten, da..“
„Hoecker!“

😂You made my Day!

Was nicht heissen muss, dass sie genau gleichschnell sind.

Nein muss es nicht, aber die 4090 wird halt nicht erreicht.

Ich mag halt Fakten, und kauf möglichst nicht auf Grund von hörensagen. =)

Ich auch nicht, aber eine Statement vom Hersteller ist auch kein hörensagen. 😉

Momentan fahr ich noch eine 1070

In meinem Zweitsystem steckt auch noch eine 1070 Palit Super Jetstream 😊.
Für mich sind die aktuellen GPUs eh uninteressant, Ich werde erst mit GTA6 bzw. den neuen Witcher Titeln aufrüsten.
Ich hoffe dass bis dahin die 3nm noch mehr Effizienz bringen.

Zuletzt bearbeitet vor 1 Jahr von tjdetti
T.M.P.

Ist wohl ne gute Idee zu warten bis man es braucht. Die 1070 hab ich damals für den “baldigen” Release von Squadron 42 gekauft. Aber bald ist die nur noch n Briefbeschwerer, und wenn ich warte bis es wirklich rauskommt muss ich ja noch 1,2,3 Generationen warten…^^

Todesklinge

Roberts sagt 2025!

X2K

Rechne doch mal wieviel Strom du für die differenz der beiden kaufpreise bekommst.

Ich hab die gunst genutzt und verdammt Günstig eine rx6900tx geschossen. Hab sie alleine schon aus Prinzip gekauft. Einfach weil ich nvidia nicht für deren Preispolitik und deren umgang mit den kunden belohnen wollte. Und weil ich nicht einsehe diese Mondpreise zu bezahlen. (Hätte ich die nicht uber kontakte für 580€ bekommen hätte ich auch die nicht gekauft)
Dazu kommt noch das die amd treiber für linux besser sind.
Ich bin mal gespannt wie sie sich so halten wird, es ist meine erste karte von amd und wenn die ihren job gut machen wird vermutlich nicht die letzte.

T.M.P.

Na, wenn ihr schon dabei seid, dann solltet ihr aber erwähnen, dass es bei AMD momentan zwei Spiele als Zugabe gibt.
Das wären “Dead Island 2” für alle RX 6000 und zusätzlich “The Callisto Protocol” für RX 6600 und höher.
Beides nagelneue Vollpreistitel.

Und trotzdem kauf ich mir jetzt keine GraKa ;p

lIIIllIIlllIIlII

Ne danke, ich muss mit dem Teil arbeiten. Da könnte ich auch genau so gut einfach beruflich in den Sack hauen.

Higi

Und wenn Nvidia halt mehr kostet, ich bleib bei Nvidia, war immer zufrieden. Genauso gibt es viele die mit AMD zufrieden sind, jeder entscheidet selbst was er kaufen möchte. Daher find ich den Titel auch nicht gut gewählt. Hätte lauten können: Wenn ihr preisgünstig eine Graka kaufen möchtet, schaut euch mal bei Amd um oder irgendwie so.

Zuletzt bearbeitet vor 1 Jahr von Higi
Stephan Schmuck

DSLR, FSR und co .. sch##ss drauf, wer sich heut eine dieser Karten kauft, holt die sich entsprechend der Leistung die man jetzt + ~3/4 Jahre braucht . Und *dann* hat wohl jedes Spiel Unterstützung für das AI Zeug. Also spielt das *heute absolut keine Rolle. Ja, nice to have, aber ähnlich sinnvoll wie n Kühlschrank am Nordpol

Veoh

Ich find das auch nicht richtig. Vorallem wird hier dann nicht viel bessere Hardware besser vorgegaukelt.

Das Geld für die ganzen KI kerne ect. hätte man stattdessen in mehr effizienterer Rohleistung investieren können. Preislich das selber.

Weil egal was da noch kommt, irgendwann FSR 20 oder Dlss 20 was auch immer, dann wird mittlerweile von nur 360P aus hochskalliert und das sieht man IMMER an der qualität,- sei es Artefakte, Bildfehler oder künstlich errechnete Pixel die vieleicht orginal so nicht wiedergegen werden.

Das ist der neue Trend und ich hasse es…

Kixing

Bei dem Thema DLSS und FSR sollte man immer bedenken, dass nicht alle Spiele alle Technologien untertützen.
FSR holt recht gut auf an unterstützten Spielen, trotzdem hat Nvidia aktuell mehr Spiele.
Bei den bisher angekündighten Titel geben sich beide hersteller nicht viel an anzahl, jedoch sind viele DLSS 3 dabei, und diese ist RTX 4000 exklusiv.
FSR 3 liest sich dagegen eher seltener ist aber auch vorerst RX 7000 only.
Mit anderen Worten, es werden in zukunft weniger DLSS 1/2 spiele erscheinen als FSR 1/2.
Und die ersten beiden Generationen beider Hersteller sind für diese Karten Relevanter.

Caliino

Ziemlich irreführender Titel, mag sein dass Nvidia mehr kostet, dafür bekommst du aber auch mehr Features….

Kixing

Der Titel ist doch gar nicht so Relevant, da das wichtige im Artikel steht. Wenn man nur den Titel liest und daraus Kaufentscheidungen zieht, darf man sich nicht ärgern, dass Features fehlen.
Man sollte aber auch eindeutig erstmal an seiner Medien-Kompetenz, sowie an der Textverständnis arbeiten.

Zumal die Anzahl an Features die es exklusiv (und ohne Gegenstück) bei Nvidia gibt, sind dann doch überschaubar und meist nur noch Niesche.
Man könnte NVenc vllt. Dazu zählen, aber da hat AMD auch bereits ein Gegenstück vorgestellt, wird nur ander heißen, da Nvidia ihre technologien exklusiv nehmen, von anderen Herstellern die Features gerne übernimmt (z.B. FreeSync)

Caliino

[Mod-Edit: Gelöscht]

Zuletzt bearbeitet vor 1 Jahr von Schuhmann
Schuhmann

Genau wegen solchen völlig unsinnigen Definitionen des Wortes “Clickbaits” haben wir die Verwendung des Wortes hier untersagt und löschen jeden Kommentar, der damit kommt.

Lies dir bitte die Regeln durch.

Nach deiner Definition ist Clickbait offenbar: “Der Titel gibt mir nicht alle Informationen – ich muss tatsächlich den Artikel anklicken und lesen – also Clickbait!”

“Clickbait” ist ein ernster Vorwurf an den Autor, der würde seine Leser betrügen. Das ist nichts, was man mal eben so leicht in einen Kommentar schreibt.

“Clickbait” entspricht der Situation, dass du in eine Kneipe gehst und dem Wirt sagst: “Du panscht dein Bier – du kippst da heimlich Wasser rein!”

Danach kannst du dich nicht einfach hinsetzen und was bestellen. Wenn du sagst “Clickbait”, musst du, wenn du konsequent bist, die Seite sofort verlassen und darfst da nie wieder hingehen, weil du sagst: “Du bist ein Betrüger”

Das ist ein ehrverletzender Vorwurf – eine echte Beleidigung. Bitte lest euch die Regeln durch – so Kommentare sind super-ärgerlich

Zuletzt bearbeitet vor 1 Jahr von Schuhmann
Caliino

Dann versteht ihr unter “Clickbait” etwas völlig anderes als vermutlich 75% der Leser hier…

Ein Clickbait besteht in der Regel aus einer reißerischen Überschrift, die eine sogenannte Neugierlücke (englisch curiosity gap) entstehen lässt. Sie teilt dem Leser gerade genügend Informationen mit, um ihn neugierig zu machen, aber nicht ausreichend, um diese Neugier auch zu befriedigen, ähnlich einem Cliffhanger. Die Überschrift kann durch grafische Elemente mit gleicher Funktion ergänzt oder ersetzt werden.

Von einem “Betrug” war hier nie die Rede und der Titel hat (für mich) eindeutig etwas von:
“Hey, mit Nvidia hast du einen Nachteil/mehr Probleme als mit AMD, also kauf das besser lieber nicht!”

Aber nein, Nvidia mag zwar etwas teurer sein, dafür bekommst du aber auch mehr.
(Preis/Leistung mal außen vor, weil zu viele Faktoren)

Schuhmann

Das ist wieder deutsche Wikipedia – die Experten am Start.

Auf der US-Wikipedia heißt es: Clickbait is a text or a thumbnail link that is designed to attract attention and to entice users to follow that link and read, view, or listen to the linked piece of online content, being typically deceptive, sensationalized, or otherwise misleading.

“Betrügerisch – irreführend” – das sind die Merkmale von typischem Clickbait. Wie diese typischen “Promi-Magazine” titeln -> Wo 70-mal drinsteht, dass sich Andrea Berg scheiden lässt und am Ende ist sie immer noch mit ihrem Mann zusammen.

Schon allein, weil Wikipedia hier so zwei grundverschiedene Definitionen kennt und jeder Leser noch mal eine andere hat, wollen wir den Begriff einfach auf unserer Seite nicht. Sondern Leute sollen formulieren, was sie an Titeln stört. Daher gibt es die Regel.

Ich hab nämlich schon Definitionen von Clickbait gesehen, die auf “Ich stimme mit dem Text nicht überein. Er macht mich so wütend, dass ich draufklicken muss. Das ist Clickbait!” hinauslaufen.

Die Verwendung des Wortes nervt einfach. Sie tötet jede Diskussion im Keim, es ist eine Unterstellung, die dem Autor eine üble und betrügerische Absicht unterstellt. Deshalb wollen wir das Wort hier nicht.

Das sind die Regeln hier. Haltet euch bitte dran.

lIIIllIIlllIIlII

Was für ein Unsinn.
Etwas suggerieren was dann nicht geliefert wird = Clickbait

Beispiel: ein YT Video zeigt eine attraktive Frau mit großen Brüsten auf dem Thumbnail. In dem Video kommt die Frau nicht vor.

Headline: Mit diesem Trick werden sie Millionär.
Text: Versucht sein Produkt zu verkaufen.

Zuletzt bearbeitet vor 1 Jahr von lIIIllIIlllIIlII
Schuhmann

So versteh ich das Wort auch. Diese Art von Titel finden wir auch wirklich nicht gut. Titel sollten auf keinen Fall zu viel versprechen oder falsche Erwartungen wecken – das sind auch genau die Sachen, die wir intern ständig diskutieren.

Wir sind auch echt bereit über Titel zu sprechen und Feedback der Leser anzunehmen, wenn ein Titel zu weit drüber ist oder einen falschen Eindruck erweckt. Das kann wirklich passieren, dass Leser einen Titel auf eine Art verstehen, wie er gar nicht gemeint war.

Das ist echt okay. Titel ist immer so ein Ding Aber meienr Ansicht killt das Wort echt jede vernünftige Diskussion.

K-ax85

Also verstehe ich deine Interpretation des Begriffs “Clickbait” zusammengefasst so: In einem Titel wird eine Sache suggeriert, die sich dann in dem Artikel als gar nicht wahr / nicht dem Titel entsprechend herausstellt und in dem Artikel sind dann letztendlich nur ein Dutzend Affiliate Links um Produkte zu verkaufen? Das wäre dann also “Clickbait” für dich?

Dann verweise ich mal dezent auf den aktuellsten Artikel des Autors dieses Artikels.

Cabaal

Liebäugel gerade mit der tuf 6800XT von Asus.
Diese Karte soll verdammt gut sein. In meinem Fall spielt Rtx und 4k keine Rolle. Und diese wucherpreise zahle ich bestimmt nicht. Dafür würde ich mir lieber ne neue Couch + Soundbar von Teufel + nen neuen Kühlschrank kaufen. Wohl gemerkt alles zusammen für den selben Preis. Vielleicht wäre da sogar noch nen neuer Geschirrspüler mit drinnen. Kein Verständnis für die aktuellen gpu preise. Wirklich 0 

Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

32
0
Sag uns Deine Meinungx