différences de système de coordonnées libgdx entre le rendu et l'entrée tactile

J'ai un écran (BaseScreen implémente l'interface de l'Écran) qui rend une image PNG. Sur le clic de l'écran, il se déplace le caractère à la position touché (à des fins de test).

public class DrawingSpriteScreen extends BaseScreen {
    private Texture _sourceTexture = null;
    float x = 0, y = 0;

    @Override
    public void create() {
        _sourceTexture = new Texture(Gdx.files.internal("data/character.png"));
    }

    .
    .
}

Lors du rendu de l'écran, si l'utilisateur a touché l'écran, je prends les coordonnées de la touche, puis utilisez-les pour rendre le personnage de l'image.

@Override
public void render(float delta) {
    if (Gdx.input.justTouched()) {
        x = Gdx.input.getX();
        y = Gdx.input.getY();
    }

    super.getGame().batch.draw(_sourceTexture, x, y);
}

Le problème est que les coordonnées de dessin de l'image de démarrage en bas à gauche de la position (comme indiqué dans le LibGDX Wiki) et les coordonnées de la touche d'entrée démarre à partir du coin supérieur gauche. Donc la question que je vais avoir, c'est que je clique en bas à droite, il déplace l'image vers le haut à droite. Mes coordonnées peut être X 675 Y 13, qui, sur touch près du haut de l'écran. Mais le personnage montre au fond, puisque les coordonnées démarrer en bas à gauche.

Pourquoi est-ce? Pourquoi les systèmes de coordonnées inversée? Suis-je utiliser le mauvais objets pour déterminer ce?

source d'informationauteur Brian Mains