Comment faire pour appliquer le filtre à la Vidéo en temps réel à l'aide de Swift

est possible d'appliquer le filtre à AVLayer et l'ajouter à vue comme addSublayer? Je veux changer les couleurs et ajouter du bruit à la vidéo de la caméra à l'aide de Swift et je ne sais pas comment.

J'ai pensé, qu'il est possible d'ajouter filterLayer et previewLayer comme ceci:

self.view.layer.addSublayer(previewLayer)
self.view.layer.addSublayer(filterLayer)

et cela peut peut-être créer une vidéo avec mon filtre personnalisé, mais je pense que c'est possible de le faire plus efficacement avec la AVComposition

Donc ce que j'ai besoin de savoir:

  1. Quelle est la façon la plus simple d'appliquer le filtre de la caméra vidéo de sortie en temps réel?
  2. Est possible de fusionner AVCaptureVideoPreviewLayer et CALayer?

Merci pour toutes les suggestions..

Vous n'avez pas beaucoup d'info sur ce que vous faites, mais il est possible de modifier le flux vidéo en direct à l'aide d'un GLKView au lieu d'un AVCapturePreviewLayer et en appliquant le filtre à chaque image dans captureOutput(capptureOutput: didOutputToSampleBuffer: fromConnection connection:).
Merci! GLKView regarder mieux pour moi. 🙂 Tout simplement: j'ai besoin d'appliquer le filtre d'images vidéo en direct et d'avoir un choix pour l'enregistrer dans un fichier. Je suis de faire une sorte de caméra vidéo avec des filtres.

OriginalL'auteur David Sýkora | 2015-09-03