Ich behaupte nicht, ein Experte auf diesem zu sein, aber hoffentlich kann das Sie in eine hilfreiche Richtung weisen.
Ist es möglich? Ja. Sie wissen wahrscheinlich bereits, dass die GPU bei solchen Berechnungen gut ist (daher die Frage) und Sie können die GPU tatsächlich mit XNA steuern. Ob es Ihren Bedürfnissen entspricht oder nicht, ist eine andere Sache.
Um die GPU nutzen zu können, werden Sie vermutlich Shader mit HLSL schreiben wollen. Es gibt eine anständige Einführung in HLSL im Kontext von XNA unter Reimers, die Sie vielleicht durchlaufen möchten. Bemerkenswerterweise konzentriert sich dieses Tutorial darauf, dass die GPU Grafik-bezogenes Knirschen ausführt, aber was Sie in den Shadern schreiben, liegt ganz bei Ihnen. Wenn Ihre vektorbasierte Gleitkomma-Mathematik zum Rendern dient (und somit in der GPU-Domäne bleiben kann), haben Sie Glück und können hier aufhören.
Wahrscheinliches Rendering auf dem Bildschirm ist nicht das, wonach Sie suchen. Nun, Sie haben eine Menge Flexibilität in HLSL, soweit es Ihre Mathematik geht. Die Ergebnisse wurden jedoch nicht an die CPU ausgegeben. Dies wird für mich unscharf, aber Shawn Hargreaves (ein XNA-Entwickler) gibt unter more als one occasion an, dass die Ausgabe von der GPU (außer auf dem Bildschirm gerendert) nicht trivial ist und Auswirkungen auf die Leistung hat. Das Abrufen von Daten beinhaltet einen Aufruf von GetData, der cause a pipeline stall lautet.
So kann es gemacht werden. Das XNA-Framework lässt Sie Shader für die 360 schreiben (die Shader Model 3.0 plus ein paar Erweiterungen unterstützt) und ist möglich, um diese Ergebnisse zu erhalten, obwohl es möglicherweise nicht effizient genug für Ihre Bedürfnisse ist.