Devenez magicien des visages avec ce tutoriel Deepfake !

Find AI Tools in second

Find AI Tools
No difficulty
No complicated process
Find ai tools

Devenez magicien des visages avec ce tutoriel Deepfake !

Table des matières

  1. Introduction
  2. Comment générer une vidéo deepfake en un seul clic
  3. Configuration requise
  4. Installation des prérequis
  5. Clonage du référentiel DeepFace
  6. Création d'un environnement virtuel
  7. Utilisation de l'interface utilisateur automatique1111 (Automatic1111 UI)
  8. Amélioration de la qualité du visage avec CodeFormer
  9. Reconstruction de la vidéo avec DaVinci Resolve Free Edition
  10. Conclusion

Introduction

Dans cette vidéo, je vais vous montrer comment générer une vidéo deepfake en un seul clic, sans avoir à utiliser des services payants ou en ligne. Tout ce qui sera démontré dans cette vidéo fonctionne directement sur votre ordinateur et reste 100% privé. Le workflow que je vais vous révéler est très convivial et ne nécessite pas de GPU ni de formation spécifique. Tout ce dont vous avez besoin, c'est de votre ordinateur et de la volonté de suivre mes instructions. De plus, j'ai préparé un référentiel GitHub parfaitement fonctionnel pour vous guider à travers toutes les étapes. Le lien vers ce référentiel sera dans la description de la vidéo, alors assurez-vous de l'ouvrir.

Comment générer une vidéo deepfake en un seul clic

Avant de commencer à utiliser Deepfake sur votre ordinateur, il y a quelques choses que vous devez faire. Alternativement, j'ai également préparé un Google Colab que vous pouvez utiliser pour cloner le référentiel. Je vais aussi vous montrer comment l'utiliser dans le prochain chapitre de la vidéo.

Tout d'abord, nous commencerons par l'installation et l'utilisation de ce merveilleux référentiel sur notre ordinateur. Tout d'abord, vous devez installer Python. J'utilise la version 3.10.9 de Python. Si vous ne savez pas comment installer Python et le définir comme installation Python par défaut, consultez cette formidable vidéo tutorielle.

Une fois que vous ouvrez une nouvelle invite de commande comme ceci et que vous tapez Python, vous devriez obtenir une version de Python comme celle-ci. J'utilise la version 3.10.9. Cela peut également fonctionner avec d'autres versions de Python, mais cela a fonctionné pour moi.

Ensuite, vous devez avoir un Git. Les liens sont ici, comme vous pouvez le voir. Lorsque vous ouvrez une invite de commande et que vous tapez git, vous devriez obtenir git comme disponible.

Vous devez également installer le Package redistribuable Visual Studio. Voici le lien direct ainsi que les outils de construction Microsoft C++. Lorsque vous ouvrez ce lien, vous verrez télécharger les outils de construction, téléchargez-le et installez-le.

Une fois que vous avez tout cela installé, il y a encore une chose que vous devez installer, c'est FFmpeg. FFmpeg est largement utilisé. Une fois que vous l'avez configuré, cela vous sera très utile à l'avenir. Il y a d'autres référentiels que vous pouvez utiliser. Allez donc sur ce lien, téléchargez la dernière version de construction. Par exemple, vous pouvez télécharger ce fichier zip. Décompressez-le dans n'importe quel dossier comme ça. Je l'ai extrait ici, puis allez dans cet environnement, modifiez les variables système, comme ça, vous verrez variable d'environnement ouvrir les variables d'environnement, ici vous verrez la variable d'environnement PATH comme ça, cliquez sur modifier et ajoutez-le comme un chemin pour voir. Une fois que vous avez fait cela et que vous avez cliqué sur OK et OK, ouvrez une nouvelle commande, tapez FFmpeg et vous devriez obtenir des résultats comme celui-ci. Cela signifie qu'il est installé correctement et que le chemin en est défini.

OK, après tout cela, nous allons commencer par cloner le référentiel DeepFace. Le lien est ici. Copiez cette commande, créez un nouveau dossier dans n'importe quel disque où vous voulez l'installer. Je vais l'installer sur mon disque F, donc je vais taper DeepFace à l'intérieur de ce dossier, vous pouvez également cloner directement dans le disque, ouvrir une nouvelle invite puis vous voyez où je suis actuellement. Cliquez avec le bouton droit de la souris et collez le lien et il sera cloné dans ce dossier. Ensuite, copiez cette commande, collez-la, vous verrez que le dossier dans lequel nous sommes a été modifié. Nous allons l'installer avec la création d'un nouvel environnement virtuel afin de ne pas affecter vos autres installations. Par exemple, Stable Diffusion continuera à fonctionner comme il est. Exécutez la commande, cela créera un nouvel environnement virtuel avec votre version par défaut de Python, puis accédez au dossier scripts, cd venv, cd scripts. Tapez activate et l'environnement virtuel sera activé. Quoi que vous installiez et lorsque vous exécutez l'application, vous devrez avoir activé cet environnement virtuel, puis tapez cd.., cd.. il ira dans le répertoire parent, et exécutez cette commande. Cela installera toutes les dépendances. Cependant, vous pouvez rencontrer quelques erreurs, comme un avertissement de réessayer. Ces erreurs sont causées par le mauvais fonctionnement de la connexion à pypi.org. Ce serveur est assez instable, donc vous devrez peut-être exécuter cette commande plusieurs fois. À chaque fois, il téléchargera l'un des fichiers cachés dans le cache. Donc après un certain temps, vous pourrez installer toutes les dépendances. Vous voyez même maintenant j'ai ça. Donc, il a réessayé de télécharger et cela a réussi. L'installation est terminée. Maintenant, il ne reste plus qu'une étape, nous devons télécharger ce fichier IIS Wapper onnx. Cliquez simplement sur ce lien, cela téléchargera le fichier. Une fois le fichier téléchargé, faites un clic droit et coupez-le, placez-le dans votre dossier cloné, ici, directement dans le dossier racine comme ceci. Et maintenant, nous sommes prêts.

Il existe plusieurs arguments pour exécuter cette application. C'est à partir du référentiel officiel de ce projet. Donc, je préfère l'exécuter de cette façon. Donc, que fait ce "hou_frames"? Lorsque cette application s'exécute, elle extraira chaque frame de la vidéo d'entrée, puis remplacera le visage et reconstruira la vidéo. "hou_frames" signifie qu'il gardera les frames générées. Cela peut être très utile car ensuite vous pouvez appliquer un peu de rehaussement du visage comme CodeFormer d'Automatic1111. Je vais aussi vous montrer cela. "hou_fps" signifie qu'il gardera le FPS de la vidéo. Maintenant, c'est important. Si vous ne le définissez pas, il utilisera tous vos cœurs SVE et cela utilisera beaucoup de mémoire RAM. Je suggère donc de commencer par prendre un petit extrait court et de le convertir en une vidéo deepfake. Si cela fonctionne, vous pouvez augmenter le nombre de cœurs. Donc, je vais commencer mon application avec cette commande.

Pour démarrer l'interface utilisateur, nous devons d'abord activer l'environnement virtuel. Entrez donc dans le répertoire de l'environnement virtuel, entrez dans le répertoire scripts, tapez CMD. Cela démarrera dans ce répertoire. Entrez ensuite cette commande activate, puis cd.., cd.. et vous êtes dans le répertoire racine. Copiez ensuite ceci, par exemple, collez-le et cela démarrera l'interface utilisateur pour vous. Vous devriez obtenir un message comme celui-ci. Donc, l'interface utilisateur est assez facile à utiliser. Je vais choisir le visage. À titre d'exemple, je vais utiliser face2 et sélectionner votre vidéo cible. Je vais utiliser video2. Ceci est donc le visage sélectionné et c'est la vidéo sur laquelle il sera appliqué. Cliquez ensuite sur Start. Lorsque vous cliquez sur Start, il vous demandera le nom du fichier vidéo de sortie. Je vais utiliser face_changed2. Cliquez sur Save et cela commencera à traiter. Donc, lorsque cela commence à traiter, il générera un dossier avec le nom de votre fichier vidéo d'entrée, video2 et video2 comme vous le voyez. Il extraira donc d'abord chaque frame, puis il commencera à les remplacer. Donc c'est la frame d'origine et après un certain temps, vous verrez qu'elle est remplacée. Soyez patient et ne touchez pas à l'ordinateur jusqu'à ce que vous voyiez que la vidéo est sauvegardée. Donc c'était la frame d'origine et c'est la frame avec le visage échangé. Actuellement, le principal inconvénient est que la résolution du modèle de changement de visage est très basse. Par conséquent, nous pouvons utiliser un améliorateur de visage ou le visage doit être tourné un peu plus loin. Actuellement, nous regardons la comparaison côte à côte de la vidéo d'origine et de la vidéo modifiée. Si vous rencontrez des problèmes, vous pouvez utiliser ces fichiers vidéo et ces images que vous voyez ici comme cas de test. J'ai partagé ces extraits vidéo et ces images sur mon Patreon. Le lien est ici. Si vous me soutenez également sur Patreon, je l'apprécierais beaucoup. Rejoignez également notre serveur Discord et posez-moi toutes les questions que vous souhaitez. N'oubliez pas de mettre une étoile à notre référentiel et de le regarder après cela.

Maintenant, je vais vous montrer comment utiliser ce merveilleux référentiel sur Google Colab. J'ai donc créé un Colab comme ceci, cliquez sur le lien ici, puis ouvrez-le dans Colab. L'utilisation de Colab est très facile. Cliquez d'abord sur Connect et assurez-vous que vous avez un GPU. Si vous n'avez pas de GPU ici, cliquez sur Change Runtime Type et choisissez le GPU ici. Cliquez sur Save. Cela peut nécessiter de se connecter à nouveau. En fait, oui, il s'est reconnecté. Une fois qu'il est reconnecté, il effacera tout et lorsque vous cliquerez ici et vous verrez le RAM de la GPU et le RAM du disque, cela signifie que vous êtes prêt. Ensuite, cliquez sur cette icône Play ici. Lancez-le de toute façon, tout ce que nous chargeons ici sera effacé après avoir terminé notre session. Donc, ne vous inquiétez pas de la confidentialité. Il téléchargera et installera tout en un seul clic. Vous verrez également un message d'erreur et d'avertissement comme ceci. Vous pouvez les ignorer, cela fonctionnera simplement et tout sera installé et téléchargé. Maintenant, nous sommes prêts à générer notre vidéo deepfake. Donc, tout sera dans notre répertoire runtime. Pour l'ouvrir, cliquez ici comme vous le voyez. Nos fichiers seront téléchargés dans ce répertoire. Faites un clic droit, cliquez sur Upload. Donc, pour cet exemple, je vais utiliser face1 et video1. Je vais télécharger, cliquez sur Upload. Vous verrez qu'il dit de s'assurer que vos fichiers sont enregistrés car tout sera effacé après notre session. Pendant que le fichier est en cours de chargement, vous verrez une progression comme ça. Bien, le chargement est terminé. Maintenant, vous devez modifier ces paramètres d'entrée. Le visage que je vais utiliser est face1.png. L'extension est également importante, ne l'oubliez pas. La vidéo d'entrée est video1.mp4, ne l'oubliez pas, et la sortie sera face_changed_video. Vous pouvez taper n'importe quel nom que vous voulez. Je vais garder les frames, garder le FPS et utiliser le GPU. Cliquez simplement sur l'icône Play et maintenant nous verrons plus de RAM système et plus de RAM GPU utilisée. Tout d'abord, cela téléchargera les modèles nécessaires. Ce n'est qu'une fois. Cela se produira également sur votre ordinateur, mais c'est seulement un téléchargement unique. Ensuite, il extraira tous les frames. Il a donc commencé à extraire les frames. Vous verrez que les frames sont extraites dans le répertoire vidéo1. Vous pouvez également télécharger ce répertoire. Pour le télécharger, vous avez besoin d'un code spécial. En fait, je vais obtenir ce code avec ChatGPT. Donnez-moi un code Google Colab pour télécharger un répertoire. Vous voyez, je vous montre comment l'utiliser également. Copiez simplement le code, ajoutez un code, collez-le ici et voyons ce qu'il dit. Copiez le chemin. C'est donc le chemin et cela nous permettra de télécharger tous les frames comme ça. Je vais vous montrer une fois que c'est fait. Donc lorsque vous voyez comment l'échange se passe, cela signifie qu'il commence à échanger les visages pour que toutes les frames soient extraites. Cela n'utilise que trois gigaoctets de RAM GPU. Une fois que l'auteur découvre comment l'utiliser sur notre ordinateur, même avec quatre gigaoctets de VRAM de la GPU, vous pouvez l'utiliser sur votre ordinateur. Bien, le fichier est généré. Il est dans le répertoire cloné. Gesig veranderde video, clic droit et télécharger. Et téléchargeons également le répertoire de nos frames. Ici. Oui. Cliquez sur l'icône Play. Il générera un fichier vidéo.zip. Le fichier zip est généré mais ne se télécharge pas automatiquement. Faites simplement un clic droit et téléchargez-le et à l'intérieur, nous aurons toutes les frames. Bien sûr, ce fichier est plus gros. Maintenant, je vais vous montrer la vidéo avec le visage échangé. Bien, nous voyons maintenant la vidéo avec le visage échangé. Le son est également présent comme vous pouvez le voir. C'est une qualité assez décente si l'on considère que nous utilisons seulement une seule image sans aucune formation. Nous pouvons même améliorer la qualité. Comment? Maintenant, je vais vous montrer avec l'amélioration du visage de Automatic1111 Web UI. Donc, je vais commencer mon interface utilisateur automatique11 depuis ici. Si vous ne savez pas comment utiliser Automatic1111 Web UI, j'ai d'excellents tutoriels pour cela sur mon référentiel Stable Diffusion. Vous verrez presque tout ce dont vous avez besoin avec l'interface utilisateur automatique1111. Je vais aussi mettre le lien de cette page dans le fichier lié pour que vous puissiez regarder toutes ces vidéos et apprendre beaucoup plus de choses sur l'interface utilisateur automatique1111, y compris la formation, la formation de visage, quelques scripts personnalisés comme celui-ci, et beaucoup plus de choses. Je les ai également ajoutés dans ce fichier, vous verrez le lien dans la description de la vidéo. Alors, mon interface utilisateur automatique1111 a commencé. Bien, le fichier zip de la frame a également été téléchargé. Apposons-le dans notre dossier. Extrayons ce fichier vidéo1.zip. Donc toutes les frames sont ici. Vous voyez le visage a été échangé. Cependant, nous pouvons améliorer la qualité du visage. Nous allons donc aller à l'onglet Extras ici, par exemple, faisons glisser et déposons cette première frame ici et vous pouvez l'échelonner si vous le souhaitez. Je vais juste vous montrer sans l'échelle. C'est la résolution d'origine. Ce que nous allons donc faire, c'est que nous allons choisir notre améliorateur d'ici. Vous n'avez pas besoin de choisir cela si vous ne voulez pas. Je vais utiliser 4x Ultra Sharp et la visibilité de CodeFormer. Je vais tout remplir et générer. Donc, sans mise à l'échelle, cela corrigera simplement le visage et comparons-le. Il fonctionne très bien surtout si votre visage est proche. Alors jetons un coup d'œil. C'est donc la frame d'origine et ensuite la frame corrigée. Vous voyez qu'il y a une différence significative en termes de qualité. Passons maintenant à une comparaison côte à côte. Ici, le code est le résultat précédent que vous voyez. Il semble beaucoup mieux. Alors maintenant, je vais les traiter en lot. Pour le traitement en lot, allez-y à partir de ce répertoire, donnez votre dossier zip comme ça, puis le résultat, disons, sera amélioré. Bien, et vous voyez les mêmes paramètres sont appliqués. Appuyez simplement sur Générer. Cela traitera chaque frame de ce dossier et ensuite nous utiliserons ces frames pour reconstruire notre vidéo. Cela peut prendre un certain temps en fonction de votre matériel informatique. De plus, si vous trouvez que le visage est trop modifié, vous pouvez réduire la visibilité du CodeFormer et à partir de là, codez les pondérations comme 50 pour cent. Vous pouvez jouer avec ces valeurs dans les deux cas et décider de quel effet CodeFormer doit appliquer à vos visages fixes. De plus, une fois que vous avez fini avec Google Colab, cliquez ici, déconnectez-vous et effacez le temps d'exécution. Il effacera tout et vous n'aurez pas de problèmes de confidentialité. L'amélioration du visage est terminée. Toutes les frames sont ici. 318. Cependant, j'ai remarqué autre chose. Lorsque j'ouvre actuellement le fichier vidéo de sortie du référentiel, lorsque je clique sur Propriétés, je vois que la vidéo a un FPS de 23. Cependant, lorsque j'ouvre la vidéo d'origine, le FPS est de 23,976, donc il y a un problème significatif ici qui peut causer un désalignement audio, donc la reconstruction de la vidéo à partir des frames extraites semble actuellement être une meilleure façon au lieu de dépendre de la sortie vidéo du référentiel deepfake. Donc pour reconstruire la vidéo, je vais utiliser DaVinci Resolve Free Edition et je vais renommer toutes les frames. Pour être sûr, copiez et collez simplement et faites une sauvegarde, puis sélectionnez-les toutes. Cliquez droit Renommer en tant que a1. Donc toutes les frames sont renommées de cette façon. Démarrez un nouveau projet. Allez ici, dans le premier onglet ici dans ces trois onglets. Faites le dernier ordre d'affichage des images, puis cliquez avec le bouton droit de la souris en bas sur les paramètres de projet et configurez les paramètres comme vous le souhaitez. Je vais régler le taux d'images ici comme ça. Enregistrez et faisons également notre résolution comme ceci. Vous pouvez définir n'importe quelle résolution puis faites glisser toutes les frames ici et déposez-les. Maintenant, il est importé dans l'ordre et faites simplement glisser ici et maintenant nous pouvons voir la vidéo générée avec la valeur FPS correcte. Lorsque je clique avec le bouton droit de la souris et que je vois les paramètres du clip, je verrai le taux de trame vidéo qui est l'original et maintenant c'est notre vidéo corrigée du visage. Maintenant, je vais le comparer avec la sortie du référentiel. Donc, ajoutons-le également ici à notre DaVinci Resolve qui est ici. Faites glisser et déposez ici. Faites de même ici. Vous voyez que cela a une durée plus longue que la vidéo reconstruite en raison de la mauvaise valeur FPS. Donc, positionnons-le ici afin que nous puissions visualiser côte à côte. Le côté gauche est donc l'amélioration du visage et le côté droit est la sortie originale du référentiel deepfake. Voyons cela. Bien, à gauche, nous voyons maintenant notre deepfake et à droite, nous voyons la vidéo d'origine. Vous pouvez voir comment les lèvres sont synchronisées, les émotions et tout semble assez bon et précis. Et ensuite vous pouvez exporter cela. J'ai déjà un excellent tutoriel pour DaVinci Resolve Free Edition également. Vous pouvez utiliser n'importe quel logiciel que vous voulez. Donc, les deux tutoriels pour Automatic1111 Web UI et Davinci Resolve tutoriel sont également inclus dans le fichier que vous trouverez le lien dans la description de la vidéo. Maintenant, tout ce que vous avez à faire est d'exporter la vidéo comme vous le souhaitez une fois que vous l'avez configurée. Il aura également le son synchronisé de la vidéo d'origine. C'est tout pour aujourd'hui. J'espère que vous avez apprécié cela. Veuillez vous abonner, rejoindre et me soutenir sur Patreon. C'est vraiment très important si vous me soutenez sur Patreon, cela m'aide beaucoup. Je partage également du contenu exclusif sur Patreon. Vous pouvez les voir ici. Vous ne le regretterez pas de me soutenir sur Patreon. Le lien vers ce fichier sera également dans la description de la vidéo. Laissez-moi vous montrer un exemple. Vous verrez cela dans cette vidéo et vous le verrez également dans la section des commentaires. Je suis ouvert à 100% pour la consultation et je vous aiderai en privé, un par un. Devenez simplement notre partisan Patreon. Veuillez également rejoindre notre serveur Discord. Vous pouvez rejoindre notre serveur Discord en cliquant sur ce lien ici, cela ouvrira notre serveur Discord comme vous le voyez. C'est la meilleure façon de me contacter. Vous pouvez également cliquer sur le serveur Discord dans la description de la vidéo et également dans le commentaire épinglé de la vidéo. Si vous avez des questions, laissez simplement un commentaire. Demandez-moi. Vous pouvez également vous joindre à notre serveur Discord comme je l'ai dit. J'espère vous revoir dans un autre tutoriel génial.

Most people like

Are you spending too much time looking for ai tools?
App rating
4.9
AI Tools
100k+
Trusted Users
5000+
WHY YOU SHOULD CHOOSE TOOLIFY

TOOLIFY is the best ai tool source.