3D Labs P10 Benches

daniel_droege

Commodore Special
Mitglied seit
11.11.2001
Beiträge
431
Renomée
0
Standort
Unna (Ruhrpott)
Hi!

Es gibt ja nun auch schon erste Reviews, des neuen Grafikchips aus der 3D Labs Schmiede! Aber nirgends gibt es Benchmarks dazu!

Hat jemand von euch schon ein Review gesehen, wo Benchmarks mit der Karte gemacht wurden? Würde mich mal interessieren!!!
 
Nö, bis jetzt noch nicht, aber ich nehme an, selbst wenn es da schon entsprechende Testsamples gibt, dann stehen die noch unter NDA, dh, die Presse hat unterschrieben noch nicht drüber zu berichten.
 
zumal es sich bei den momentanen kartenum die professionellen opengl-karten handelt, die p9 für den consumermarkt kommt nach wie vor erst zum ende des jahres
 
die consumer version heißt p9??? was ist der genaue unterschied zur professionellen variante? weniger takt? und was kostet die professionelle version?
 
die p10 wird, wie alle anderen opengl-karten auch, mehrere tausend $ kosten


wie genau die p9 gegenüber der p10 beschnitten sein wird, ist noch nicht klar, es könnte sogar sein, daß sie sich(wie die quadro-karten von nvidia) nur in den treibern unterscheiden werden
 
Original geschrieben von [P3D] Sub-Zero
die p10 wird, wie alle anderen opengl-karten auch, mehrere tausend $ kosten

So teuer sind die Karten nun auch nicht.



Preise laut Geizhals:

Wildcat VP760 632€
Wildcat VP870 850€
 
Abgesehen davon sind die jetztigen P10 Karten der Wildcat Serie noch alle für den Professionellen Bereich konzipiert, auch preislich!
Einen P9 gibt es nicht, die Consumer Version des P10 wird auch P10 heißen. Bin mal gespannt was 3D Labs respektive Creative aus der Consumer Version macht.
Denke mal das die Treiber speziell aus Games hin programmiert werden.
Damit ist beim P10, der ja 100% programmierbar ist, sicherlich viel zu machen!
 
ja, wobei ich glaube dass die technik der vollen preogrammierbarkeit jetzt noch nicht wirklich nötig ist. erst wenn sich DX9.0 oder vielleicht sogar schon DX10.0 durchgesetzt und etabliert haben rechne ich damit dass alle chips auf volle programmierbarkeit setzen werden und erst dannmacht das sinn denn für nvidia und ati werden die games programmiert.
dann die zeitfrage: nicht einmal die doom3 engine ist auf dx9 ausgelegt, ich kenne keine engine die bisher angekündigt wurde die dx9.0 beherrscht.
also bis effekte die über dx9.0 hinausgehen in spielen einzug erhalten wird der p10 wohl performancemäßig nicht mehr interessant sein.
momentan kann man doch vom kauf dieser karten die >500 € kosten wirklich abraten. bis doom3 veraltet ist und dx9 standard sind 2 jahre vergangen und dann gibts entsprechende karten zum ramschpreis.
kauft jetzt ne radeon8500(LE/XT) 128 MB oder gf4ti4200, genießt alle games die es gibt und bis in einem jahr geben wird in voller pracht und spart dabei 100te von € :)
 
Hi

Nuja, so teuer sind die OGL Karten wirklich nicht, ich hab mich mal nach ner Wildcat III 6210 umgeguckt (leider nirgends gefunden) aber die Kleinere Wildcat III (glaub 5110) hats schon für ~7200 $$ gegeben, die Wildcat II waren immerhin schon für ~5000$$ zu haben.... Ich will nicht wissen, was die große Wildcat mit 410MB Speicher kostet.

Ach, der John C. von id-Software hat wohl schon eine getestet, der meinte wohl, dass er wegen der einen OGL 2 Renderer einbauen will, in D3. und ist wohl vollkommen überzeugt von dem Teil.

Greetz
 
Original geschrieben von ice_cool69

dann die zeitfrage: nicht einmal die doom3 engine ist auf dx9 ausgelegt,
Scherzkeks ;)
Das könnte daran liegen dass Carmack schlauerweise noch nie ne Dx Engine gemacht hat sondern immer nur Open GL Engines und Doom3 wird genau eine solche Engine sein.
Da kannste lang nach DX9 Features suchen ;)
Chatt (der wo Carmack verehrt)
 
klar benutzt jc nur ogl aber damit habe ich ja auch gemeint dass er die features die unter dem namen dx9 neu dazukommen, also die sogenannten dx9-grakas beherschen, nicht in seine doom3-engine einbauen wird.ne dx9 graka kann man die nächsten jahre wohl für den 3dmark2003 verwenden, mit spielen is nich ;D
 
das tollen schema f tritt wieder in kraft. ich würde sagen wir befinden uns etwa auf stufe f)


a) gerücht: firma xy bringt den mega-chip raus
b) spekulationen: der neue chip soll x% schneller sein als alles dagewesene
c) spekulation: der neue chip soll sogar x% schneller sein als das was firma yz erst in einem halben jahr rausbringt!!!
d) erste photos tauchen auf: es wird aufgrund der chipfarbe spekuliert: der chip muss mindestens abc millionen transistoren haben! die experten überschlagen sich.
e) die firma xy macht eine vorankündigung, erste enttäuschung: die marktnische "powergamer um jeden preis" wird überhaupt nicht berücksichtigt.
f) wilde spekulationen: bis zum launch soll sich die leistung mindestens noch VERDOPPELN!! alle warten auf den neuen chip (oder sollen sie doch eine geforce xy kaufen? fegefeuer...)
g) auf ersten messen wird der neue chip gezeigt. natürlich ist die verwendete plattform schuld dass der chip nicht mindestens die VIERFACHE leistung bringt. trotzdem hysterie!!!
h) erste pre-samples kommen, einige selbsterannte hardware-experten testen die karte (mit tollen benches wie quake 3, aquanox etc). enttäuschung. "firma xy verarscht uns!!!!!!!" (mindestens 10 rufezeichen um der fundierten aussage nachdruck zu verleihen) firma xy hat noch nie was zur erwarteten ACHTFACHEN leistung des chips gesagt
i) erste serien kommen in die regale, die leistung ist wie anfangs zu erwarten nicht SECHZEHNFACH sondern im rahmen des technologisch und preislich möglichen. die karte ist aber leider soooo enttäuschend, da ja die ZWEIUNDDREISSIGFACHE leistung überall prognostiziert wurde. die wirklichen qualitäten der karte werden nicht erkannt, denn sie bringt ja nicht die VIERUNDSECHZIGFACHE leistung!!! FRECHHEIT!!!
 
Original geschrieben von realxray
das tollen schema f tritt wieder in kraft. ich würde sagen wir befinden uns etwa auf stufe f)


a) gerücht: firma xy bringt den mega-chip raus
b) spekulationen: der neue chip soll x% schneller sein als alles dagewesene
c) spekulation: der neue chip soll sogar x% schneller sein als das was firma yz erst in einem halben jahr rausbringt!!!
d) erste photos tauchen auf: es wird aufgrund der chipfarbe spekuliert: der chip muss mindestens abc millionen transistoren haben! die experten überschlagen sich.
e) die firma xy macht eine vorankündigung, erste enttäuschung: die marktnische "powergamer um jeden preis" wird überhaupt nicht berücksichtigt.
f) wilde spekulationen: bis zum launch soll sich die leistung mindestens noch VERDOPPELN!! alle warten auf den neuen chip (oder sollen sie doch eine geforce xy kaufen? fegefeuer...)
g) auf ersten messen wird der neue chip gezeigt. natürlich ist die verwendete plattform schuld dass der chip nicht mindestens die VIERFACHE leistung bringt. trotzdem hysterie!!!
h) erste pre-samples kommen, einige selbsterannte hardware-experten testen die karte (mit tollen benches wie quake 3, aquanox etc). enttäuschung. "firma xy verarscht uns!!!!!!!" (mindestens 10 rufezeichen um der fundierten aussage nachdruck zu verleihen) firma xy hat noch nie was zur erwarteten ACHTFACHEN leistung des chips gesagt
i) erste serien kommen in die regale, die leistung ist wie anfangs zu erwarten nicht SECHZEHNFACH sondern im rahmen des technologisch und preislich möglichen. die karte ist aber leider soooo enttäuschend, da ja die ZWEIUNDDREISSIGFACHE leistung überall prognostiziert wurde. die wirklichen qualitäten der karte werden nicht erkannt, denn sie bringt ja nicht die VIERUNDSECHZIGFACHE leistung!!! FRECHHEIT!!!

;D Hat man ja erst letztens bei der Parhelia gesehen. Jeder dachte, daß das DIE Grafikkarte wird, obwohl Matrox nie etwas in der Richtung behauptet hat. Und dasselbe glaube ich wird auch mit dem P10 so sein. Die einzige Firma die angekündigt hat alles in den Schatten zu stellen (und sich somit ordentlich unter Druck gesetzt hat) ist ATI. Ich denke mal daß außer dem R300 und dem NV30 keine der bald kommenden Karten wesentlich schneller als eine Ti4600 sein wird. Aber vielleicht gibts ja auch eine Überraschung. Ich lasse mich jedenfalls lieber positiv überraschen als zuviel zu erwarten und dann enttäuscht zu sein.

Alexander
 
genauso wie man von einem fußballspiel oder einem schlechten essen enttäuscht sein kann kann man doch auch von einer grafikkarte enttäuscht sein. irgendwie hab ich das gefühl ich soll mich hier unterwerfen und doch bitte nix erwarten damit ich dann nicht enttäuscht bin.

wenn matrox nicht will dass ich enttäuscht bin dann sollen sie nciht vorher die fresse soweit aufreißen verdammt!!!!!und dein schema f haste jetzt 1000mal gepostet und in meinen augen ist es absoluter schwachsinn und total übertrieben.
jegliche hoffnungen und erwarrtungen werden vom HERSTELLER absichtlich erzeugt um das interesse und aufmerksamkeit zu steigern. wenn der chip dann nicht die erwartungen erfüllt => enttäuschung. das ist ein menschlicher prozess und ich bin wenn ich enttäuscht bin sicher nicht bereit das zu unterdrücken und mir vorzuspielen so übel is der gar nicht weils mich ÄRGERT.

und mir kann kein mensch auf gottes erdboden erzählen der parhelia wäre nicht für powergamer gedacht (bzw. diese anzulocken) wenn matrox die daten 512bit speicherbus und displacement bump mapping und was weiß ich alles vorher rauspfeffert!!!!
 
Original geschrieben von ice_cool69
wenn matrox nicht will dass ich enttäuscht bin dann sollen sie nciht vorher die fresse soweit aufreißen verdammt!!!!!

Aber Matrox hat meines Wissens nach nie behauptet, daß die Parhelia für Powergamer ist und die Ti4600 alt aussehen läßt. Diese Erwartungshaltung wird durch Threads wie diesen, hirnlose Previews (wo nur das Marketinggeschreibsel nachgebetet und drauflosgeraten wird) und (die wie immer sehr zuverlässigen :] ) Inquirer Gerüchte aufgebaut. Und darauf wollte realxray doch eigentlich nur hinweisen, stimmts? ;D

Alexander
 
Original geschrieben von ice_cool69

und dein schema f haste jetzt 1000mal gepostet und in meinen augen ist es absoluter schwachsinn und total übertrieben.

genau 2mal (also nur 0,2% von dem was du gezählt haben willst), an passender stelle und ich werd's wieder tun wenn's dazu passt, also z.b. wenn gemunkelt wird dass amd's neuer chip mindestens... ach lassen wir das ;-)

natürlich ist es übertrieben, ich mach ab sofort die ironie-tags drumrum, damit jedes es so versteht wie ich es gemeint hab. und "übertrieben" ist relativ. wenn ich mir anhöre wie in manchen threads jenseits des himmels spekuliert wird ist schema f gar nicht mehr *sooo* übertrieben...
 
du sagst es doch selber es wird das zeug de marketing abgeschrieben. WAS IST DENN MARKETING, ISTDAS ETWA NICHT MATROX????
hat matrox nicht mit den superfetten details um sich geworfen?
wieso haben sie kein 128bit speicher benutzt wenn sie performancemäßig eh nie toll sein wollten?
jungens wacht auf diese große enttäuschung in diesem ausmaß gibts nur ganz selten, bei der radeon8500 war sie nicht und bei der gf4 uch nicht. klar wurden diese auch kritisiert (radeon2: treiber, gf4: mangelnde innovation) aber das gehört dazu. aber was die parhelia abliefert ist nunmal einfach enttäuschend.
wer nichts erwartet ist auch nicht enttäuscht, ich erwarte aber einiges und das ist auch mein recht wenn jemand offensichtlich versucht ati und nvidia anzugreifen!!!

schema ´habe ich noch nie erlebt. ich weiß nur dass halt gerüchte verbreitet werden und die theoretischen möglichkeiten immer sehr viel versprechen. ati und nvidia hjalten diese aber zu einem großen teil ein im gegensatz zu matrox!!!
 
Ich hab da mal ne Frage, isses eigendlich der Chip der so verbaut is, oder vielleicht sonst was im Hardware Bereich der Parhelia?

Is der Ram schlecht?


Oder isses doch nur der niedrige Takt?
 
Ich glaube da kommt alles zusammen, wobei der niedrige Chiptakt wohl die größte Rolle spielt! Wenn der auf Gf4 Niveua angesiedlt wäre, dann sähe die Sache vielleicht nicht ganz so schlimm aus.
Aber bei 80 Mio. Transis in einem 0,15 mikron Prozess, läßt es sich wohl net anders regeln.
Bin mal gespannt wie ATi ihr über 100 Mio. Transi Monster in einem 0,15 Mikron Prozess fertigen lassen will und dabei einen Chiptakt von über 300 Mhz zustande bekommen will.

Die Zeit wird es uns allen zeigen..............
 
naja die meisten gehen davon aus dass ati den r300 wohl doch schon im 0,13 micron herstellen werden
 
Ich hoffe (auch) das sie ihn mit 0.13µ herstellen werden

Denn dann wird er sicherlich ein Meilenstein in der GraKageschichte :)

(wobei man das ja besser nicht einfach so behaupten sollte - naja, ich hoffe`s mal :))
 
Zuletzt bearbeitet:
naja ein meilenstein ist der computergeschichte nicht aber ein meilenstein für AMD möglicherweise, schließlich verzögert sich der NV30 auf 2003.

wenn ati bis dahin nicht euch noch unerwartete probleme haben dann sind sie die nr1 im geschäft für fast ein halbes jahr.

meilenstein ist für mich der p10 mehr als der r300, wobei der r300 sicherlich der bessere gamerchip ist (vor allem preislich!).
 
Für mich is der P10 nicht so sehr n Meilenstein

Denn die Idee gab`s ja früher auch schon


Nur eben noch keine Umsetzung (weil sich das wohl anscheinend noch nicht gelohnt hat - sonst gäb `s ja schließlich schon was in der Art - und "angeblich" sollen in n paar Jahren die GraKas (von ATI/NV) "alle" sowas können - aber ich denke dass das nur noch nicht umgesetzt wurde weil wer soll dann bitte neue Updates für 2-3 Jahre alte GraKas schreiben? - und wohl keine GraKafirma würde das gerne machen - aber hingegen wenn es so ne art algemeine Programmiersprache gäbe - dann wäre das wohl schon viel leichter :))
 
Mmh, mit dem 0,13 Mikron Prozess habe ich so meine Probleme, da immer gesagt wird das sich der NV30 nur so sehr verschiebt weil der Hersteller TMSC Probleme mit eben diesem Prozess hat!
Nun, ATi läßt seine Chips auch dort fertigen! Wieso sollten die ihre Chips dann in 0,13 bekommen und Nvidia nicht?
Leuchtet mir persönlich nicht ein!
 
Zurück
Oben Unten