...dass NVidia mit dem Riva128 und dem TNT die ersten sehr guten Kombikarten Chips hatte, während die VooDoo2 Karten nur wegen drei(!) Grafikprozessoren soviel Power hatten, während ne TNT fast die gleiche Leistung aus einem geholt hat.
Das ist ja wohl ein schlechter Scherz. Die Riva128 war absoluter Schrott... Und der Unterschied zwischen einem Chip und 3 Chips lag lediglich in der Fertigung. Man hätte das genauso gut in einen Chip bringen können. Wäre nur teurer geworden, also wozu?
Von den VooDoo Rush Karten (vs. Riva 128) will ich garnicht erst reden...
Voodoo Rush war im Prinzip ne Voodoo1, die auch im Fenster rendern konnte. Stimmt aber, sie war keine Meisterleistung.
Und der Banshee war (bis auf Glide) auch schlechter als der TNT.
Schon klar. Die Karte wurde aber auch als billige Alternative zum Voodoo2 auf den Markt gebracht, und auch nie als Konkurrenz zur TNT plaziert.
Ausserdem hatte NVidia schon viel eher 32bit und grosse Texturen (ja, das hat ja nix gebracht... aber technologisch isses halt besser gewesen).
Genau das ist es, was mich so stört. Ich kauf mir heut eine Grafikkarte, die 8x AGP, 4096*4096 Texturen, 56bit Rendering und 128MB hat, damit ich in 1 Jahr alle Spiele in voller Qualität spielen kann. Daß das Rendering zu langsam ist, damit die Spiele überhaupt laufen ist nebensächlich. Und 4096er Texturen werden wahrscheinlich nie eingesetzt, und und und... Aber Hauptsache man hat die (zu diesem Zeitpunkt absolut unnötigen) Features.
Und in einem Jahr hätte ich eine Karte bekommen, die diese Features auch alle unterstützt, und das in einer annehmbaren Geschwindigkeit.
Siehst du, wo das Problem liegt? Das war nur Marketing. Der Chip hat die Funktionen zwar unterstützt, aber er konnte sie nicht so schnell, damit die Spiele auch spielbar sind... Also wozu das ganze? Das nennt sich Marketing und
Beschiss...
Wie kann man Q3A nur mit FSSA spielen? Da nehm ich doch lieber ne GeForce2 und stell die Auflösung zwei Stufen höher und sie is immer noch vieeeeel schneller
...


Ich glaube, du hast noch nie Benchmarks gesehen... 1024*768, 32bit, volle Details, 2*FSAA -> ca. 45fps in demo001.
Ne GF2 wird zwar schneller sein, aber an die Bildqualität wird sie nicht rankommen...
Noch dazu, wenn sie nen extremen Fehler bei der Texturkomprimierung hat... Man kann keine Lightmaps einsetzen (und die sehen weit besser aus, als das Vertex-Lighting), weil sie entweder zu langsam ist (wenn die Lightmap unkomprimiert ist), oder die Grafik erbärmlich schlecht aussieht (bei komprimierter Lightmap). Das ist ein wirklich schwerer Fehler, und es ist wirklich peinlich, so etwas zu übersehen.
So weit ich weiß, gab es bei 3dfx
nie derartige Hardware-Bugs.
Noch was zu den Innovationen:
Wer brachte als erster Multitexturing?
Wer hatte die erste T&L Unit? (nVidia nicht...)
Wer hatte zuerst FSAA?
Wer hat zuerst HSR?
Wo gab es zuerst 32bit Rendering?
Wer hat zuerst den Stencil Buffer eingeführt?
Welcher Chip konnte zuerst Motion Blur?
Wer konnte überhaupt zuerst wichtige 3D-Funktionen(Weichzeichner, etc.) vernünftig in Hardware?
Also einige von diesen Fragen lassen sich mit 3dfx, andere mit SGI, Diamond, etc. beantworten. Aber keine mit nVidia. Also wo bitte bleiben die Innovationen?
------------------
Doc
<FONT size="1">We have killed, and will kill again to defend our destiny. We believe the end will justify the means.</FONT s>
<FONT COLOR="red">Join the Brotherhood and let Kane come alive for you!</FONT c>
[Dieser Beitrag wurde von Doc am 29. Dezember 2000 editiert.]