Physik-Karten ???

  • Moin Mädelz,


    hat eigentlich schon einer von Euch Erfahrungen mit diesen Physik Karten gemacht, die schon ne Weile angeboten werden ???
    Ich wurde "gezwungen" bei der Installation von Ghost Recon:AW die Ageia-Treiber mitzuinstallieren, sonst hätte ich das Game nicht installieren können, obwohl ich die Hardware gar nicht besitze...
    Klärt mich mal wer auf ???


    ?( ?( ?( ?( ?( ?( ?( ?( ?( ?( ?( ?( ?( ?(

  • Hallo,


    Nvidia und ATi werden das Ganze in ihre Grafikkarten packen.....eine zusätzliche Karte jetzt schon zu kaufen wäre dämlich, vor allem, da es kaum Spiele gibt, die das unterstützen....


    Gruss INDY

  • Jo, würd auch sagen. Die Ageia Karten sind jetzt schon Geschichte.
    Manche würden auch Totgeburt sagen. ;)


    Einerseits schade, denn der prinzipielle Ansatz ist gut.
    Andererseits gut, weil ich eigentlich keine 200 Euro für eine weitere lärmende Karte ausgeben will,
    wenn nach wie vor einer meiner beiden CPU-Kerne brachliegt.


    Die Spieleentwickler sollen erstmal die inzwischen weitverbreiteten Dualcore-CPUs komplett auslasten.
    Da liegt noch jede Menge Potenzial.

  • Entweder, die Physikeffekte des Spiels sind nur zur besseren Grafik da, dann kann man sie auch in die Graka mit reinpacken. Oder aber sie sind spielwichtig, gerade bei Multiplayertiteln müssten dann aber ALLE Mitspieler die Effekte habe, womit sie in die CPU sollten und einen der Kerne ausnutzen können.
    Bisher sind sie nur Grafikeffekte, daher lohnen sich die Karten nicht. Wären sie spielwichtig und nicht alle Spieler haben die Karten, würde sich entweder keiner das Spiel holen (wenn man mit Karte besser als ohne ist), oder alle stellen die Effekte aus (wenn man ohne Karte besser als mit ist), womit man sich die Karte nicht holen braucht. Da momentan die Spielehersteller doch ein wenig Geld aus dem Verkauf erhalten möchten, entscheiden sie sich höchstens für zweiteres, womit den Effekten dassselbe Schicksal wie den Schatten bei OFP bescherrt ist: Man stellt sie einfach aus.

  • Also diese Karten sind überflüssig


    Ich habe mal in der PC Powerplay einen bericht drüber gelesen


    GR2 nutzt ja solch eine Karte, die Hauptengine der Physik setzt allerdings auf Havok :rofl:
    Dann gab es dies andere Spiel, was nur mir der Karte lief
    Das haben die aber über irgendwelche Tricks dann doch am laufen bekommen und war in Benchmarks dann sogar schneller :rofl:


    also wer sich so ein Teil hohlt, kann sein Geld genauso gut in ablage P packen

  • Zitat

    Original von |Team²|[LW]King_Loui
    Wären sie spielwichtig und nicht alle Spieler haben die Karten, würde sich entweder keiner das Spiel holen (wenn man mit Karte besser als ohne ist), oder alle stellen die Effekte aus (wenn man ohne Karte besser als mit ist), womit man sich die Karte nicht holen braucht.


    und ich dachte immer, zweck der übung wäre es, dass alle diese hardware wollen WEIL man sich davon entweder einen spielvorteil oder ein besseres spielerlebnis oder beides verspricht.


    oder weshalb glaubst du, werden jedes jahr noch teuerere grafikkarten auf den markt geworfen?


    und überhaupt: wie kommst du darauf, dass physikeffekte, die für mehr grafische pracht sorgen, in die grafikkarte gehören und andere nicht?
    die zweckentfremdung von grafikkarten für andere zwecke ist doch nur der versuch, sich marktanteile zu sichern, falls physikcoprozessoren tatsächlich einen stellenwert erreichen (was beim aktuellen preis-/leistungsverhältnis nicht zu erwarten ist).


    cu/shaftoe

  • Zitat

    Original von [BR]-Shaftoe
    und überhaupt: wie kommst du darauf, dass physikeffekte, die für mehr grafische pracht sorgen, in die grafikkarte gehören und andere nicht?


    Wenns nur Eyecandy ist braucht die CPU nicht die Positionsdaten der Objekte, wenn es das Spielgeschehen beeinflusst schon.


    Aber wie gesagt, ist das Preis/Performance derzeit so schlecht, dass es sich es nicht lohnt. Wäre schön, wenn man alte Graphikkarten als Physikbeschleuniger nutzen könnte, aber was ich gelesen habe lohnt sich für den Unterschied noch nichtmal der Stromverbrauch. Auch auf meinem zweiten CPU-Kern hätte ich lieber ne bessere KI-Berechnung als physikalische Effekte - und das sag sogar ich als alter Physiker.

  • na das ist ja das problem mit den physikengines und der schere zwischen besitzern eines beschleunigers und den nichtbesitzern: es muss bei beiden funktionieren, ohne dass das spiel darunter leidet. also bleiben wir auf sparsames eyecandy beschränkt. andererseits sollten herumfliegende partikel natürlich auch mit ihrer umgebung interagieren, sonst macht das ja alles keinen sinn. insofern ist es schon richtig, dass der ganze schmarrn in die graka ausgelagert wird - die hat nun mal jeder.


    vor jahren gab es mal eine kurze zeitspanne, wo 3D-beschleuniger ebenfalls extern dazugekauft werden konnten. damals hat man sich auch gefragt, was das soll und ob es sinn macht. eben weil alle spiele auch ohne diese beschleuniger funktionieren mussten und die unterschiede nur marginal waren. die entwicklung wurde aber von sich selbst überholt, indem man die beschleunigungsfunktionen direkt in die grafikhardware verbaute und somit zum standard wurde.
    genau an dem punkt befinden wir uns wieder.


    in 2 jahren kräht kein hahn mehr danach und karten ohne ausreichende power für eine physikbeschleunigung oder rechner ohne multicore cpu werden einfach nicht mehr gamertauglich sein - je nachdem, welches prinzip sich durchsetzen wird (ich tippe auf die grafikkartenlösung).


    cu/shaftoe

  • die teile bringen schon was - nur eben nicht in realen spielen. ;)
    die demos, die massiv die neuen möglichkeiten nutzen, sind schon beeindruckend. es wird aber aus verschiedenen gründen von spieleentwicklern noch nicht berücksichtigt (aufwand/nutzen sowie mangelnde erfahrung mit den möglichkeiten).


    cu/shaftoe

  • Zitat

    je nachdem, welches prinzip sich durchsetzen wird (ich tippe auf die grafikkartenlösung).


    Wobei ich nichts dagegen hätte, wenn die CPU wieder einen größeren Teil der Leistung bei Spielen ausmachen würde. Ein Großteil der Doppelkerne verbraucht zur Zeit wohl hauptsächlich Strom ...

  • dummerweise eignen sich offensichtlich die grafikkartenprozessoren für so "ungenaue" rechenoperationen (wo schon mal aus performancegründen mit viel rundung und verkürzten datentypen) gearbeitet viel besser, als eine normale CPU.

  • Zitat

    Original von [BR]-Shaftoe
    dummerweise eignen sich offensichtlich die grafikkartenprozessoren für so "ungenaue" rechenoperationen (wo schon mal aus performancegründen mit viel rundung und verkürzten datentypen) gearbeitet viel besser, als eine normale CPU.


    kleiner, gleichbleibender code und viele Daten die damit parallel verarbeitet werden können. Da ist der Unterschied zwischen Graphik und Physik nicht so gross.


    Aber bald kommen ja AMDs speziallisierte multicores. Dann läuft wahrscheinlich garnix mehr, weil sich GraKa, Prozessor-Cores und PhysiX-Karten um die Berechnung streiten. Stell ich mir vor wie ein vote im Forum.

  • Hehe, echt gut zu sehen, dass hier viele Leute funktionsfähige Kristallkugeln haben. ;)


    Also ich bin eigentlich fest davon überzeugt, dass die Physikberechnugn auch in Zukunft von der CPU übernommen wird.


    Warum ? Nun, weil die Spieleentwickler wissen, für was sie da entwickeln. Und eine standardmässige CPU hat nunmal jeder. Je mehr Kerne, desto besser und ausgefeilter die Physikberechnungen.


    Und wie Shaftoe schon sagte, die Grafikkarten-Physik-Features sind doch nur "Me too"-Features der Hersteller, um zumindest mal einen Fuss in dem Geschäft zu haben.


    Unterstützung seitens der Spiele-Hersteller wirds dafür sicherlich auch irgendwann mal geben, aber sicher nicht in großem Umfang.
    Warum ? Weil jeder eine andere Grafikkarte hat, und es dafür sicherlich keinen einheitlichen Physikstandard geben wird.

  • ...hatte mir auch nicht vor so einen KRam zu kaufen...
    Ageia Treiber hab ich gerade deinstalliert und Game läuft noch...Blöd nur, das man gezwungen wird die Dingerns überhaupt erst zu installen....??? Danke für die Antworten, da lag ich doch ausnahmsweise mal nicht so falsch in meiner Denke... :rolleyes: