Ich arbeite an einer Multitouch-App mit Monogame, wo mehrere Benutzer gleichzeitig auf einem größeren Multi-Touch-Bildschirm mit separaten Dokumenten/Bildern/Videos arbeiten können, und ich frage mich, ob es möglich ist, Gesten "kontextbewusst" zu machen Das heißt, zwei Finger, die ein Dokument auf einer Seite der Wand einklemmen, sollten niemanden davon abhalten, die andere Seite der Wand zu schwenken.Ist es möglich, "kontextuelle" Gesten in Monogame/XNA zu erhalten?
Die Art und Weise monogame funktioniert, werden alle Eingangspunkte in Gesten übersetzt, die ausgelesen werden können:
if (TouchPanel.IsGestureAvailable)
{
var gesture = TouchPanel.ReadGesture();
// do stuff
}
Gibt es eine Möglichkeit Gesten auf dem Bildschirm zu einem bestimmten Punkt zu machen, beschränkt, oder ich tun muss ich das selbst umsetzen? Wenn Sie sich beispielsweise den Quellcode ansehen, scheint es, dass die TouchPanelState
Klasse die ganze Arbeit erledigt, aber leider sind ihre Konstruktoren internal
.
Ich weiß nicht und habe keine XNA oder Monogame Programmierung, aber für die Aufzeichnung, es scheint, gibt es eine 'TouchPanel' statische Klasse, die eine' GetState() 'Methode hat. Vielleicht könnte das helfen, die gewünschte 'TouchPanelState'-Klasse zu instanziieren? –