TEILEN

Nvidia hat erwartungsgemäß heute in einer Keynote die ersten Grafikkarten der neuen Ampere-Generation vorgestellt. Nicht ganz zu erwarten war aber, dass neben der GeForce RTX 3080 und RTX 3090 auch bereits die GeForce RTX 3070 angekündigt wurde. Ebenfalls überraschend ist das mögliche gute Preis-Leistungs-Verhältnis. Verliert AMD nun eventuell den Anschluss? (Via)

Preislich gestaltet sich das wie folgt: Die GeForce RTX 3080 (10GB GDDR6X-RAM), die ab dem 17. September zu kaufen ist, kostet 699 Dollar. Die GeForce RTX 3070 mit 8GB GDDR6-RAM (Start im Oktober) kostet 499 Dollar. Und die GeForce RTX 3090 (24GB DDR6X-RAM) für 8K-Gaming kostet 1499 Dollar und erscheint am 24. September.

Good old Marris ist gestern bei der Keynote schon auf Twitter eskaliert und wird wohl sicher zuschlagen. Für meine Bedürfnisse reicht meine Ventus 2070 Super. Werdet Ihr Euch eine der neuen Karten zulegen?




Anzeige

18 KOMMENTARE

  1. Verstehe eigentlich nicht, warum sich die Leute über den Preis aufregen.
    Die 3090 hätte ich teurer erwartet.
    Und die 3070 kostet UVP sogar 100$ weniger als die 2070 damals mit der Leistung einer 2080Ti, welche aktuell noch 1400€ kostet.
    Ich glaube dass der Preis für die 3070 nur durch die anstehende AMD Konkurrenz 100$ geringer als bei der 2070 ausgefallen ist. Das ist nämlich exakt das Segment, was AMD angreifen wird.

  2. Hole mir die 3080 sobald ne gescheite Wasserkühlung verfügbar ist und dann ne schöne Komplett WaKü in ein Lian Li O11 mit dem neuen Intel 10850k und erstmal die nächsten Jahre Ruhe haben. Fühlt sich wie eine Last von den Schultern an, wenn das Teil endlich komplett ist.

  3. Bin ich der Einzige, der die Preise und vor allem die Leistungsaufnahme einfach zu hoch finden?
    Gefühlt sind die Preise seit dem Miningboom so nach oben geschossen und einfach nie wieder runter gegangen.
    Aber gut, Nvidia kann es sich leider erlauben, gekauft wird ja trotzdem.

    • Ja, bist du.
      Ich finde diesen hype auch komisch. Bei der 1080 haben sie über die Preise noch geweint, jetzt wirds gefeiert.
      Die 1080, welche diese Preisstruktur vorgab, war noch vor dem mining-boom – da gibts also keinen Zusammenhang.
      Die lower end Modelle wirds eben erst in 6 Monaten geben, ansonsten kann man zur alten Generation greifen. Eine 1080TI kostet teils nur 200€ und reicht für 2k-4k gaming für die meisten vollkommen aus. Es gibt also in jedem Segment was zu holen.

  4. Die große frage an die hardware experten hier bitte echt um hilfe:

    Ich hab eine 1080ti mit 11gb von ichill
    zocce seit ich einen neuen 4k 32 zoll curved 120HZ monitor habe alles in 4k
    mitlerweile für wow , wicher anno 1800 sind die fps so swischen 140- 60 (60 bisher nur bei star war jedi fallen order) Selbst MW Warzone sind es gute 80fps
    Ist die 3080 wirklich soviel besser für 4k gaming? Denn RTX ist meiner ansicht nach immer noch zu sehr niche gibt kaum games die das haben. oder sollte man auf nächstes jahr und die 4080 warten? oder doch zur 3090 greifen?

  5. Na ja meine GTX 1660 6GB mit max. 120Watt Last, wird noch 1 Jahr Minimum für 1080p Gaming ausreichen. Aktuell sehe ich kein Grund ein 350W Fresser nach zurüsten, da ich bis auf Cyberpunk Ende des Jahres, nur Leistungsarme Titel zocke und beim PC habe ich den Vorteil, dass ich einfach ein paar Details auf mittel stellen kann und damit auch Cyberpunk noch super laufen wird (-;

    • Bisher muss ich mit meiner 1070 auf FullHD nichts runterstellen und bin da eigentlich recht optimistisch was Cyberpunk angeht. Witcher 3 lief damals auf meiner 290 auch auf Hohen Details sehr gut.
      Es wird immer so getan, als ob die 1000er Karten zu nichts mehr zu gebrauchen sind 😀

      • Die 1000 reihe ist Super! :), aber niemand sagt das die 1000 reihe zu nichts mehr zu gebrauchen ist, liegt halt immer an den Ansprüche der Leute.

  6. Zwei Sachen machen mich stutzig.

    Wieso sind die Karten so Powerhungrig (600 Watt Netzteil schon für 3070) und wieso sind sie im Vergleich zur vorherigen Generation so „günstig“.

    Ich glaube AMD hat da was in der Hinterhand und die neuen Nvidia Karten wurden bis auf Anschlag gehauen um mit AMD zu konkurrieren.

    • Ich mochte ja Nvidia die Letzten Jahre, wegen der niedrigen Hitzeentwicklung und der dadurch niedrigeren Lautstärke. Mal abwarten ob Nvidia nun AMD in Sachen Heizkraftwerke ablöst und wie sich das Ganze so in der Praxis entwickelt.

    • Die Angaben der benötigten Watt von Nvidia waren schon immer übertrieben und sollten nur als grober Richtwert gesehen werden. Da will Nvidia halt einfach auf Nummer sicher gehen. Was hast du denn für ein Netzteil?
      Es gibt verschiedene Theorien warum die Karten so „günstig“ werden. Erstens ist das die zweite Generation einer Karte mit der „neuen“ RTX-Architektur, man kennt den Produktionsprozess und hat ihn wohl effizienter gemacht (=weniger Kosten). Auch die neue Partnerschaft mit Samsung und das neue PCB sollen Kosten eingespart haben.
      Dann sollen die Karten extra VOR dem Konsolen-Launch erscheinen um den PC, den Nvidia dominiert, als Spieleplattform attraktiver machen. (In den Konsolen stecken AMD-Karten).

      Ich glaube nicht, dass AMD Nvidia mit ihren kommenden Karten das Wasser reichen kann. (Reine Spekulation meinerseits im Hinblick auf vergangene Generationen). Jedenfalls werden sie bestimmt keine RTX 3090 schlagen können/wollen. Und derjenige „gewinnt“ in der öffentlichen Wahrnehmung, der die dickste Karte im Portfolio hat, jedenfalls funktioniert das bei mir 😛 . (Auch wenn AMD beispielsweise einen 3080-Konkurrenten releasen würde, der fast die gleiche Leistung aber den deutlich günstigeren Preis hat).

      Ich freue mich schon darauf mir im November einen neuen PC mit einer 3090 zusammenzubauen 🙂 . Ich weiss nicht wie wahrscheinlich es ist, aber ich hoffe, dass es bis dahin auch schon die neuen AMD-CPUs gibt die ich mit der 3090 kombinieren würde.

      @Hans: RTX ist geil und wird meiner Meinung nach bei kommenden AAA-Titeln der Standard werden. DLSS ein Gimmik?? Die Technik ist so was von innovativ! Man sieht allein beim Sprung von der ersten auf die zweite Generation deutliche Verbesserung, siehe Death Stranding. Ich sags dir: Spätestens mit der kommenden 3. Generation von DLSS wirst du keinen Unterschied mehr zu nativen höheren Auflösungen sehen können wenn du im Blindest vor dem Monitor sitzen würdest.
      Was meinst du mit „native“ und keinem AA im Vergleich? Gibt es momentan eine bessere AA-Technik als TAA? Wenn nicht, dann sind Vergleiche zwischen z.B. 4k+TAA und DLSS-4k doch in Ordnung? DLSS schärft doch das Bild UND glättet es. Warum also nicht mit der „native“ Auflösung + AA vergleichen?
      Und du brauchst auch nicht Nvidia’s „manipulierter“ Werbung zu vertrauen. Sieh dir einfach praktische Beispiele und Tests an. Z.B. https://www.gamestar.de/artikel/nvidia-dlss-20-death-stranding-pressespiegel,3359942.html.

      • Naja also die nvidia Marketing-Slides die ich gesehen habe hatten als Vergleich zum DLSS Bild alle TAA Kantenglättung. Ich weiß nicht ob du mal ingame zwischen TAA und keinem AA Umgeschaltet hast. Für mich ein riesiger Unterschied. Während TAA in einigen Games gefühlt für das lighting wichtig ist(wieso auch immer) und zugegeben Kanten halbwegs performant glättet legt es einfach einen riesigen Weichzeichner effekt über das Ganze Bild. Alles ist ein Blur. Finde ich einfach schrecklich. Deswegen wundert es mich nicht, dass beim DLSS vs TAA-Native vergleich das DLSS Bild nah herangezoomt besser aussieht. Das heißt halt nicht das DLSS „better than native“ ist, sondern lediglich das DLSS „better than TAA“ ist. Und das ist ja wohl überhaupt keine Leistung.
        Bei DLSS 3.0 mag es dann wirklich nett sein, wer weiß, aber momentan geht es ja um 2.0. Ich bezweifle auch stark, dass 3.0 auf der 3000er Reihe funktionieren wird. Siehe RTX-Voice. Angeblich läuft das nicht auf meiner 1080ti, aber mit 3 gelöschten Zeilen einer config funktioniert es plötzlich super. Nvidia ist einfach zu greedy.

        Journalisten traue ich im Videospiel- und damit auch zu großen Teilen im Technikbereich nicht. Die haben entweder keine Ahnung wovon sie da schreiben oder haben sich gut was bezahlen lassen oder, wie das ja nachweislich bei TLOU2 der Fall war, einfach Angst davor das nächste mal kein Vorab-Sample zu bekommen wenn man nicht 10/10 gibt.

    • Die 600 Watt Angabe sind die empfohlenen Werte, um die gesamten Komponenten im PC zu versorgen, selbst wenn man einen Chinaböller ohne 80+ Zertifizierung nutzt :3

      Hier die exakten Verbrauchsdaten der Grafikkarten:
      GeForce RTX 3090 350 Watt
      GeForce RTX 3080 320 Watt
      GeForce RTX 3070 220 Watt

  7. Ansonsten finde ich es komisch den Vergleich mit AMD zu ziehen und das Preis/Leistungs-Verhältnis zu loben.
    Die Interpretationen die ich gelesen habe schließen aus der Tatsache das es jetzt direkt eine 3090 gibt, die ja nun kein 2080ti Ersatz, sondern eher eine neue Titan ist, dass AMD mit ihrer neuen Generation genug liefern um Nvidia wieder konkurrenz zu machen. Was ich mir allerdings beim besten AMD Fanboy Willen einfach nicht vorstellen kann. Ich hab meinen Ryzen wirklich gern, aber Grafikkartentechnisch müsste AMD einfach sehr viel liefern um auch nur annähernd auf Nvidia Niveau zu kommen. Aber dann bleibt jetzt natürlich die Frage wieso direkt eine „Titan“ kommt.

    Das Preis-Leistungs-Verhältnis finde ich lächerlich. Die 2000er Reihe war schon hart überteuert und während ich es nachvollziehen kann, dass Nvidia weiterhin greedy ist, weiß ich nicht wieso man das als Consumer gut finden soll. Mir kann einfach niemand erzählen, dass die Kosten auch nur annähernd so hoch sind diese Preise zu rechtfertigen.
    Man darf halt auch einfacht nicht vergessen dass bei Hardware Listenpreisen 1$ meist zu ~1.1€ wird.

    Ich werde wohl erstmal bei meiner 1080ti bleiben. 3090 ist zu teuer und 3080 kann für den Preis nicht ausreichend mehr. RTX ist immernoch ein witz und DLSS 2.0 ist mMn auch nur ein Gimmik.

    Das DLSS Marketing mit dem ganzen „better than native“ geht mir btw auch richtig auf die Nerven.
    „native“ ist bei den Vergleichen halt einfach native auflösung mit entweder garkeinem AA oder TAA(also noch schlimmer als garkein AA). Sehe ich nicht als Repräsantativ.
    Ich wäre da eher überrascht wenn jemand etwas findet das schlechter aussieht als nvidias „native“ Vergleichsbilder.

    Es scheint für die benötigte Leistung ja wirklich ganz nette Arbeit zu leisten(hab nur eine 1080ti, kann es also leider nicht selber testen), ich verstehe nur nicht wieso es dann so manipulativ beworben wird. Wäre es wirklich so gut, bräuchte man dem unwissenden Consumer doch keine schlechten Vergleiche vorsetzen, sondern würde einfach mit der Wahrheit marketing betreiben. Das dies nicht passiert sehe ich als Zeichen dafür, dass DLSS 2.0 einfach noch nicht ist, was es behauptet.

  8. Wollte mir eh im Herbst nen neuen Rechner bauen und will damit garantierte 60 FPS+ bei 4k auf die nächsten Jahre. Hatte erst die 2080Ti im Auge, aber bin froh, dass ich gewartet habe. Jetzt wirds wohl die 3080 für 700 € und damit sollteich dann auch auf der sicheren Seite sein.

    PS: Ich glaub im Text ist ein Typo, die erste Karte soll vermutlich ne RTX 3080 und nicht 2080 sein.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here