Registriert: Mo Sep 23, 2002 19:27 Beiträge: 5812
Programmiersprache: C++
Hab etwas gezögert diese Newsmeldung zu bringen,aber da wir hier eine Community sind die sich mit einer modernen 3D-API beschäftigt,könnte es dein ein oder anderen doch interessieren was so am Grafikkartenmarkt läuft :
Zum einen wäre da die neue Herbstkollektion von ATI und Nvidia,namentlich Radeon 9600XT (Mainstream) und Radeon 9800XT (High-End) sowie NV36 (Mainstream) und NV38 (High-End),welche ab Oktober um die Krone im Grafikkartenmarkt kämpfen.Wie dünn die Luft dort oben inzwischen ist, lässt sich in diesem Review von AnandTech nachlesen,in welchem Radeon9800XT und der NV38 auf Herz und Nieren gebenchmarkt wurden (mit leichtem Vorteil für ATI).Allerdings dürfte sich dieser Vorteil bei kommenden DX9-Titeln aufgrund der sehr guten Shaderperformance der Radeonserie in Zunkunft noch etwas in Richtung ATI verschieben.
Außerdem scheint sich in naher Zukunft ein weiterer Grafikkartenhersteller in diesen all-halbjährlichen Wettstreit mit einmischen zu wollen, nämlich XGI,eine Tochterfirma von SiS.Die haben nämlich bereits funktionsfähige Prototypen ihrer High-End Dual-Chip-Lösung namens Volari Duo V8 Ultra vorgestellt, der laut 3DMark2003 (~6000 Punkte) auch konkurrenzfähig sein dürfte.Ein erstes Preview gibts hier.
Man darf sich also auf einen heissen Herbst in Sachen 3D-Grafik freuen und hoffen das sich neben ATI und Nvidia mit XGI endlich mal wieder brauchbare Konkurrenz zeigen wird.
P.S. : Wenn jemand was dagegen hat,das ich solche Dinge auf DGL post (ist ja im Endeffekt auch eher Sache von Hardwareseiten),dann solle er bitte einen Komentar hinterlassen.
Registriert: Sa Jan 04, 2003 21:23 Beiträge: 674 Wohnort: Köln
ich finds im Gegenteil eine interessante News (was natürlich nicht heißt, das die anderen uninteressant sind )
ich habe also nichts dagegen und finde auch nicht, das es dadurch im News-Bereich zu unübersichtlich werden würde...
Ich persönlich halte ja den Konkurrenzkampf um die Highend- Grafikkarten für etwas unsinnig, bzw. Geschäftemacherei (ob ein Titel nun 120 oder 150 FpS zeigt, geht mir ziemlich hintenrum vorbei, irgendwelche Ultra Versionen, die 20% schneller getaktet und doppelt so teuer sind, sind ohnehin Blödsinn).
Interessanter sind hier schon neue Technologien, die neue Möglichkeiten eröffnen (etwa Hardware T&L vor einiger Zeit, oder Fragment- und Vertexshader) - die nicht unbedingt in der Hardware verankert sein müssen, wie ATIs TruForm Technologie zeigt.
Allerdings dürfte bei dir kaum die Gefahr bestehen (wie auf vielen "Hardware" Seiten) vor lauter synthetischen Benchmarks und den Leistungen in grad mal den zwei beliebtesten Spieletiteln (muss, glaub ich, keine Namen nennen) den Sinn fürs Wesentliche zu verlieren.
Wenn ich mir in dieser Beziehung etwas wünschen dürfte, wären dies künftig mehr persönliche Reflektionen über Vor- und Nachteile des Gebotenen, dann könnte man auch besser drüber diskutieren .
Die "neuen" Serien hauen mich jedenfalls nicht vom Hocker, wird doch eigentlich nichts Neues geboten, im Hinblick auf Preis/Leistung dürfte man mit der Radeon 9500 immer noch am Besten liegen - wenn man sie denn bekommt (weswegen ich mich etwa für eine GeforceFX entschieden habe). Mehr Konkurrenz in Form von SiS (was ist eigentlich mit Matrox passiert?) ist jedenfalls begrüßenswert, auch wenn ich aus dem Artikel nicht recht schlau geworden bin, was diese Chips nun eigentlich konkret können.
AnandTechs Idee eine Spielesuite aus ~15 Titeln zu verwenden ist sicher der richtige Weg, das Ganze sollte aber noch vereinheitlicht werden, um bei einem Review nicht gezwungen zu werden, die Benchmarks vom 15 verschiedenen Titeln durchackern zu müssen.
Vielleicht könnte ja auch DGL eine Hardwaresektion einrichten, in der dann auf Besonderheiten und Leistung der einzelnen Grafikkarten in OpenGL eingegangen werden könnte. Insbesondere sind für Programmierer ja nicht nur die Leistung der neuesten und tollsten Grafikkarten interessant, sondern vielmehr, ob die eigene Applikation auch überall läuft - dies schließt auch OnBoard Chips von Intel oder SiS mit ein, die z.B. in vielen Notebooks verbaut werden. Parallel dazu könnte man dann auch einen DGL Benchmark entwickeln, der die wichtigsten Extensions inkludiert und erweitert wird, sobald neue Fähigkeiten in OpenGL Einzug finden.
Registriert: Mo Sep 23, 2002 19:27 Beiträge: 5812
Programmiersprache: C++
Da ich mich recht intensiv mit Hardware (und dabei besonders Grafikkarten) beschäftige geb ich auch mal meinen Senf ab, sage aber vorweg das ich da mit Mars einer Meinung bin.
Ich find den Konkurrenzkampf an der Spitze eigentlich nicht schlecht, auch wenn ich mir niemals ne Grafikkarte für über 500€ zulegen würde (die Radeon9800TX kostet von Asus z.B. 595€),hat er doch den Vorteil das sich die Hardwarehersteller nicht nur in Sachen Performance sondern auch Features irgendwie und irgendwo überbieten müssen.Als Nvidia zu Zeiten von GeForce3/4 noch den Markt beherrschte,sah das alles noch etwas trostlos aus,und technische Innovationen waren aufgrund von Konkurrenzmangel eher selten (die GeForce4 war ja nix weiter als ne aufgebohrte GF3 mit u.a. ner zweiten Pixelshadereinheit).Konkurrenz drückt also nicht nur Preise,sondern fördert oft auch neue Features zu Tage (über deren Sinn man sich allerdings manchmal streiten kann).
Und Innovatives ist weder bei der Radeon9800TX noch beim NV38 zu finden,sind halt beide wie mans inzwischen (leider) gewohnt ist nur aufgebohrte Nachfolgekarten,also vom orogrammiertechnischen Standpunkt her total uninteressant.
Zitat:
Mehr Konkurrenz in Form von SiS (was ist eigentlich mit Matrox passiert?) ist jedenfalls begrüßenswert, auch wenn ich aus dem Artikel nicht recht schlau geworden bin, was diese Chips nun eigentlich konkret können.
Ich hätte eigentlich auch gern Infos geliefert, allerdings haben XGI noch nicht wirklich viel zu ihrem neuen Chip verlauten lassen, aber immerhin gibts nen funktionierenden Protoypen.In diesem Artikel gibts noch einiges zu dem neuen Chip für alle Interessierten.Ich bescheinige XGI allerdings keine lange Marktpräsenz,zumal die Treiber vom SiS Xabre (quasi dem Vorgänger des Volari) der letzte Müll waren,und zum anderen weil ich daran zweifle das die Firma die Resourcen hat um mit den Produktzyklen von ATI & Nvidia mitzuhalten.Aber es bleibt abzuwarten. Und zu Matrox : Nach dem Flop mit dem Parhelia (so ganz ohne Bandbreitenoptimierungen wars klar das der flopt) haben die sich jetzt komplett aus diesen Bereich zurückgezogen und man kehrt wieder zum CAD-Bereich zurück.Den 1%-Marktanteil den man im Desktopsegment hatte,hätten die eh noch verloren.Eigentlich Schade,war doch die G400 (ich war stolzer Besitzer so einer Karte) eine richtig schöne 3D-Karte.
Zitat:
AnandTechs Idee eine Spielesuite aus ~15 Titeln zu verwenden ist sicher der richtige Weg, das Ganze sollte aber noch vereinheitlicht werden, um bei einem Review nicht gezwungen zu werden, die Benchmarks vom 15 verschiedenen Titeln durchackern zu müssen.
Der Benchmark ist sowieso mit einer gewissen Vorsicht zu geniessen,haben sie den NV38 doch mit dem bösen 51.75er Treiber getestet,der bis zum Erbrechen voll mit Optimierungen auf spezielle Titel (und wohl auch Shader) ist.Er funktioniert oft mit vielen Spielen gar nicht, und verringert z.B. in UT2003 und Aquanox stark die Bildqualität um mehr Leistung zu bringen. Ansonsten ist der Ansatz wirklich gut,denn durch eine breite Auswahl an Benchmarktiteln ist gewährleistet das einzelne Optimierungen nicht so sehr ins Gewicht fallen. Hier gibts übrigens einen für uns Programmierer wohl interessanteren Artikel (+Benches) zur Radeon9800TX von beyond3d.com.
Zitat:
Vielleicht könnte ja auch DGL eine Hardwaresektion einrichten, in der dann auf Besonderheiten und Leistung der einzelnen Grafikkarten in OpenGL eingegangen werden könnte. Insbesondere sind für Programmierer ja nicht nur die Leistung der neuesten und tollsten Grafikkarten interessant, sondern vielmehr, ob die eigene Applikation auch überall läuft - dies schließt auch OnBoard Chips von Intel oder SiS mit ein, die z.B. in vielen Notebooks verbaut werden. Parallel dazu könnte man dann auch einen DGL Benchmark entwickeln, der die wichtigsten Extensions inkludiert und erweitert wird, sobald neue Fähigkeiten in OpenGL Einzug finden.
Das ist sicher interessant, und war auch schonmal intern irgendwo (LossyEx hatte da mal was) geplant.Es sollte ein DGL-Tool geschrieben werden,welches die Leistungen einer Grafikkarte unter OpenGL in verschiedenen Sitationen testet und diese Ergebnisse dann öffentlich bereitstellt.Wenn daraus nichts wird, könnte man ja ne kleine Forumsecke eröffnen,in der die Forenmitglieder ihre Erfahrungen mit verschiedenen Grafikkarten schildern.Das könnte auch hilfreich sein.
Registriert: Mo Mai 06, 2002 20:27 Beiträge: 479 Wohnort: Bremen
Ich möchte auch nochmal erwähnen, das ich solche News mit besonderem Interesse lese. Allerdings bin ich dafür die persönliche Meinung erst per Kommentar anzubringen! (aber Mars meinte das wohl eh so, oder?)
Aber zum eigentlichen Grund meines Kommentars: Die Karten über die wir hier sprechen sind ja Consumer-Karten wie's so schön heißt. Sowohl ATI als auch NVIDIA haben darüber hinaus ja noch die QuadroFX bzw FireGL die sich (angeblich) durch besonders gute OpenGL Performance und zusätzliche Features bezahlt machen. Hat da jemand zufällig Erfahrung mit? Ist die OpenGL Performance wirklcih nachweislich besser, als bei vergleichbaren Consumerkarten? (nicht das ich das Geld über hätte)
Btw: Ich war kürzlich in Hamburg auf der Präsentation von 3dsMax 6. Da hatte dann auch Nvidia nen 15-Minütigen Auftritt und hat mich glatt zum Schmunzeln gebracht!
Man bekam den Eindruck das ihnen die Kunden für die Workstationkarten untreu werden und lieber FX5900 etc oder gar ATI einsetzen. So hat der Nvidianer die beiden Karten verglichen und mächtig über die Consumerkarten hergezogen. Ein Paar Details die vielleicht den ein oder anderen interessieren/amüsieren:
- Dass die Workstationkarten seltener Treiberupdates haben, sei ein Zeichen für die Ausgereiftheit eben dieser. Die werden einfach intensiver getestet und sind wesentlich stabiler. (lol - ich denke eher, man spart sich hier die Performance-Tweaks für einzelne Programme und Shader! )
- Workstationkarten werden unter Aufsicht von Nvidia von PNY gefertigt. Bei Consumerkarten "geht man ein großes Risiko ein" weil "diese ganzen Hersteller aus Fernost" nicht sorgfältig arbeiten und keine Markenbauteile einsetzen. (lol - no Comment!)
- Dann kamen Benchmarks wo eine FX5900 Ultra mit dem Toppmodel aus dem Workstationbereich verglichen wurden. Die OpenGL-Leistung wäre demnach je nach Programm mind. 100% (bis zu ca. 300%) besser...
Man beachte dabei, dass das QuadroFX-Topmodell keine Multi-GPU Lösung war und die GPU's von QuadroFX und FX afaik ganz ähnlich (gleich?) aufgebaut sind.
Hat jemand zufällig unabhängige Benchmarks parat? Denn das zu glauben fällt mir schwer!
- Der Knaller zum Schluss. Die Quadrokarten seien bedeutend leiser als die Consumerkarten und eignen sich deshalb besser für's Büro! (dazu ein Bild FX5800 mit dem bekanntermaßen Fön-lauten Kühler vs. Quadro-Karte mit EXAKT dem gleichen Kühler der auch bei der FX5900-Referenzkarte Verwendung findet). Zur Erklärung der Lautstärke bei der FX5800: "Die Produktmanager in Amerika sind der Meinung, dass schnelle Grafikkarten laut sein müssen so wie auch die Rennwagen der Formel 1 laut sind!" Dies sei eine reine Designentscheidung!
LOOOL - leider war ich an der Stelle der einzige der laut gelacht hat und so hab ich schnell wieder aufgehört! =)
Die Quadro Karten von NVidia sind die ganz normalen Karten aus dem Consumerbereich mit ein paar Abänderungen. Meistens ist sogar der Takt gleich, wer im Internet sucht wird für die meisten GeForce Modelle Bauanleitungen finden, wie man von Geforce nach Quadro kommt. Dass zwischen diesen Karten ein größerer Unterschied besteht, abgesehen von ein paar Features, die im Quadro Modus aktiviert sind und im Geforce(imho überwiegend Kantenglättung, etc. ) nicht und vielleicht noch unterschiedliche Standardtakte, ist damit irgendwo blödsinn. Zu Geforce 2 Zeiten stammten die Boards aus der selben Produktlinie - wobei die Quadrokarten "ausgewählte" Stücke waren. Naja....
Die FireGL Karten haben dagegen eine Komplett andere Geschichte und haben bis heute imho kaum Gemeinsamkeiten mit den ATI Consumerboards. Da ich die Geschichte dieser Karten jedoch schon länger nicht mehr verfolge, sind meine Informationen sicher nicht mehr ganz up to date, jedoch waren FireGL Karten lange Zeit reine OpenGl Karten, schon zu Zeiten, als es Direct3D noch gar nicht gab. Bis vor ein paar Jahren gab es auch für neue FireGL Modelle keine Direct3D Treiber, was sich inzwischen geändert hat(und irgendwo ab diesem Zeitpunkt kenn ich mich nicht mehr aus, was dann passiert ist). Jedenfalls muss dieser Treiber schrecklich langsam gewesen sein, jedoch waren die FireGL Karten bis dahin immer wesentlich schneller als die zur gleichen Zeit aktuellen Consumer 3D Karten.
@Reflektion der Artikel
der Forumbereich ist völlig ok. Es sollte nur vermieden werden diverse Hardwareseiten völlig unkommentiert anzugeben, da deren Urteile ziemlich subjektiv sein dürften (und evtl. auch davon abhängig, welcher Hersteller grad wieder mal ein neues Stück "gespendet" hat). DGL muss ja nicht grad unbeabsichtigte Schleichwerbung für irgendein Produkt machen.
Nicht dass mir dies jetzt negativ aufgefallen wäre, SoS Kommentare sind informativ, interessant und berufen sich auf mehrere unabhängige Quellen - ich möchte nur, dass dies auch in zukünftigen Hardwarekommentaren so bleibt, denn leider steckt hier halt auch viel Geschwindel, Blenderei und Geschäftemacherei dahinter, was man ja nicht unbedingt unterstützen muss.
@Präsentation
da hätten wir ja grad einen Beleg für das zuletzt Angeführte, das wirkt ja schon direkt peinlich .
@professionelle OpenGL Karten
genaugenommen nützen die eigentlich ohnehin eher CAD-Anwendern als uns, die unsere Applikationen ja auf so ziemlich allen PCs zum laufen bringen wollen.
Zumindest vor zwei Jahren scheint es noch so gewesen zu sein, dass die FireGL Karten einen extrem schnellen Geometriedurchsatz hatten, während eher spieleorientierte Karten (ich glaube im Vergleich waren Geforce2 oder Geforce3) bei wenigen Polygonen mit komplexen Texturen sogar die Nase vorn hatten.
Das macht ja auch Sinn, wenn man bedenkt dass Modeller ja eher komplexe Geometrie darstellen müssen, und diverse Tricks wie Bumpmaps erst dann die Geometrie vereinfachen können, wenn das komplexe Modell fertiggestellt ist.
Ich hab's aber auch nicht im Auge behalten, da mir eine CAD-Karte ohnehin nichts nutzen würde - die werden ohnehin eher für eine schnelle Vorschau genutzt (oft ohne Texturierung) - während das fertige Bild/ der fertige Film dann nicht in Echtzeit gerendert wird. Die Applikationen der meisten User hier sollen hingegen ja zumeist in Echtzeit ablaufen.
etwas OT: mir fällt grad ein, dass die neuen programmierbaren Grafikchips mit den TIGA Karten eigentlich schon einen Vorgänger mit seehr langem Bart haben - es kommt halt alles irgendwann wieder -
vielleicht bekommen ja einige bei der Ansicht des folgenden Links nostalgische Gefühle http://www-vs.informatik.uni-ulm.de/Lehre/SS03/SysprogI/Kap8.pdf
@Quadro: das war ja nun wirklich ein schlechter Scherz. Denn die Treiber sind für GeForce und Quadro gleich! Außerdem hab' ich auf 'ner Messe auch mal so'n nVidia Typ getroffen. Hab' dann ein Gespräch nach dessen Auftritt mitbekommen, wo er gesagt hat, dass beim Quadro-Chip ein paar Leitungen mit einem Laser durchtrennt werden und schon hat man 'ne GeForce! Aber hallo! Und da wurde Dir was von getestet, ausgereift und 'ner Story vom Pferd erzählt. Traurig! Kommt einem gerade so vor, als würde nVidia anstatt mit Leistung mit irgend welchen Pseudo-Argumenten versuchen, den Abstiegt gegenüber ATi zu verhindern! Und was die Lautstärke angeht: das hat der Typ auf der Messe mit 'nem Porsche verglichen. Wenn sich jetzt noch dursetzt, dass mehr Leistung = mehr Lautstärke bzw. anhand der Lautstärke zu "höhren" ist wie gut die Karten sind, dann braucht man in Zukunft zum Zocken wohl Ohrschoner! Und nVidia entwickelt keine neuen Chips mehr sondern nur noch lautere Lüfter!
_________________ Und was würdest Du tun, wenn Du wüsstest, dass morgen Dein letzter Tag auf dieser Erde ist?
Registriert: Mo Sep 23, 2002 19:27 Beiträge: 5812
Programmiersprache: C++
Huch...da gibts ja wirklich rege Reaktionen auf mein Newsposting Also bitte nicht drüber aufregen wenn ich auf irgendwas in euren Posts nicht genau eingehe...bin grade erst aufgestanden.
@"Professionelle"-Karten : Das meiste zu den Karten wurde ja bereits gesagt,aber oft ist es sogar noch schlimmer.Bei den GeForce-Karten ists nämlich sogar schon seit der GeForce2 (bei der GeForce1 musste man so weit ich mich erinnern kann noch minimal was löten) möglich die Karte per Software (siehe Tools wie RivaTuner) zu einer professionellen Quadro umzumodeln.Der größte Unterschied liegt dann AFAIK darin,das diese Karten AA-Linien weitaus schneller darstellen als ihre Consumer-Pendants,was sich natürlich in CAD-Anwendungen die ja viele solcher Linien darstellen stark bemerkbar machen.Daher wohl auch die angeglich überdimensionalen Geschwindigkeitsvorsprünge in CAD-Anwendungen die Lith da aus der Nvidia-Präsentation zitiert.Da das Ganze allerdings über einen Software-Hack zu machen ist,bin ich mir fast sicher das da einfach nur irgendwelche Register durch den Treiber umprogrammiert werden oder evtl. feste Vertexprogramme zur Beschleunigung von CAD-Funktionen geladen werden.Im Endeffekt ist also der Mehrwert der Quadro-Karten in meinen Augen Abzocke.Bei den FireGL-Karten von ATI ists wie Delphic bereits gesagt hat leicht anders.So weit ich informiert bin arbeitet an diesen Karten ein anderes Team,welches sich nur im Grunddesign bei den Consumer-Grakacores bedient.
@Reflektion der Artikel : Ich hab mir einen Kommentar zu den Artikeln extra erspart,da ich nicht parteiischen wirken wollte.Wer meine Postings der letzten Zeit gelesen hat,wird merken das ich momentan klar für ATI bin.Allerdings bin ich kein "Fanboy",und sobald ein anderer Hersteller ein besseres Produkt bringt bin ich bereit zu wechseln (in meiner Laufbahn hab ich schon recht oft den Graka-Hersteller gewechselt).
Allerdings ists heutzutage auch recht schwer zu sagen,welche Hardwareseiten parteiisch und welche dies nicht sind.Wer sich ein wenig auskennt,dem ist TomsHardware z.B. bestimmt ein Begriff,die teilweise (so sagen Gerüchte) von Intel gesponsort werden damit deren CPUs in Benchmarks besser abschneiden.Sowas ist in meinen Augen verwerflich,allerdings haben AnandTech einen eher "guten" Ruf und scheinen weniger parteiisch zu sein.Allerdings stört mich wie bereits erwähnt die Verwendung des 51.75er Detonators,der für Privatleute nicht freigegeben ist und so auch nie veröffentlicht wird (ausser als Leak),da er dank seiner "Optimierungen" starke Kompatibiliätsprobleme hat und die Bildqualität stark verringert.
Registriert: Mo Sep 23, 2002 19:27 Beiträge: 5812
Programmiersprache: C++
Falls sich noch jemand für diesen Thread interessiert : elitebastards.com haben noch ein paar Infos zum Volari ausgegraben, und anscheinend sind auch schon erste Testboards an die Reviewer gegangen (allerdings gibts von Seiten XGIs noch ein NDA).Ich poste hier mal die Daten der Spitzenkarten im Anhang der drei Hersteller,damit man sich evtl. mal ein Bild machen kann.Die Infos die ich da ausgebuddelt hab dürften soweit stimmen,wobei beim NV38 allerdings noch nicht alles feststeht,da er erst am 10.Oktober vorgestellt wird.
Wenn aber die Werte der XGI-Karte stimmen und auch deren Treiber brauchbar sind (sowie der Preis),dann dürfte diese Karte ATI und Nvidia ganz schön ins Schwitzen bringen.
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Mitglieder in diesem Forum: 0 Mitglieder und 5 Gäste
Du darfst keine neuen Themen in diesem Forum erstellen. Du darfst keine Antworten zu Themen in diesem Forum erstellen. Du darfst deine Beiträge in diesem Forum nicht ändern. Du darfst deine Beiträge in diesem Forum nicht löschen. Du darfst keine Dateianhänge in diesem Forum erstellen.