Exploring Audio Transcription & Subtitle Tools
Join Corben in exploring audio transcription tools like Whisper by OpenAI, simplifying video subtitling with AI advancements for content creators.
File
Retranscrire de laudio vidéo facilement avec lIA de Whisper
Added on 01/27/2025
Speakers
add Add new speaker

Speaker 1: Et salut les Patréons, ici Corben de Corine.info, et je suis heureux de vous retrouver pour une nouvelle vidéo. Alors avant de commencer, déjà je voulais vous dire que j'étais en vacances, mais je pense quand même à vous, donc je vais faire cette vidéo pour votre plus grand plaisir, j'espère. Je voulais aussi vous remercier pour votre soutien, c'est super cool, merci pour tous ceux qui s'abonnent au Patréon, qui me permettent de faire ces vidéos et de continuer à alimenter mon site, et voilà, qui reçoivent les newsletters tous les jours, etc. C'est vraiment très cool, merci à vous. Et aujourd'hui, je vous propose qu'on parle de sous-titrage et notamment de reconnaissance audio, c'est-à-dire transformer de l'audio, ça peut être le son d'une vidéo, le son d'une chanson, etc., en texte, pour ensuite pouvoir par exemple en faire des paroles, ou des paroles pour mettre sur un site par exemple, ou plus cool encore, pouvoir faire des sous-titres, ou une retranscription pour un article, etc. Donc ça c'est super cool, c'est comme ça que moi je bosse par exemple sur certaines de mes vidéos. Alors j'avais historiquement plusieurs moyens de faire une retranscription d'un fichier audio ou d'une vidéo, donc je vais vous les présenter rapidement, comme ça à l'oral, vite fait, parce que je pense que vous utilisez les mêmes. Il y a des outils qui permettent, par exemple quand on écoute une vidéo, d'écrire en même temps le sous-titre, de faire barre-espace ou entrée, et puis ça va mettre les petits time-codes là, vous savez, le temps là qui vous dit de telle minute, telle seconde, telle milliseconde, on affiche telle phrase, etc. Donc c'est des outils que j'ai déjà présentés sur le site, qui permettent de faire ça, mais c'était un peu pénible. Quand c'est pas ton métier, c'est un peu galère de devoir tout retranscrire au clavier, s'arrêter, réécouter, et continuer. Bon moi c'est pas mon truc, donc ce que je faisais jusqu'à présent, c'est que je passais par quelqu'un, une indépendante, qui fait ça très bien, qui écoute et qui fait de la retranscription. Alors c'est pas de la retranscription qui est horodatée malheureusement, parce qu'elle sait pas faire, mais bon c'est pas grave, après moi je me débrouille, etc. Mais voilà, c'est quand même le son, l'audio qui revient en mode extra. Une autre technique qui est accessible et que j'utilise aussi souvent, c'est YouTube. En fait YouTube, quand vous mettez une vidéo sur YouTube, vous pouvez récupérer comme ça les sous-titres, qui sont générés automatiquement par YouTube. Alors je vous montre rapidement, quand on est sur mon ordinateur, je suis dans la partie YouTube Studio, donc je peux gérer toutes mes vidéos. Et là en fait ici, j'ai la section sous-titres. Et quand je clique dessus, bon bah moi j'ai pas fait les sous-titres dans cette vidéo, mais je peux voir que YouTube a bossé et m'a fait des sous-titres. Donc je peux comme ça, soit mettre mes propres sous-titres, soit dupliquer et modifier les sous-titres. Donc on va faire continuer. Et là vous voyez, j'ai tout mon texte qui a été retranscrit automatiquement. Et là lui ensuite, il se débrouille et il arrive à me recaler ça. Donc bon, c'est un moyen de le faire assez facilement. Voilà, comme ça vous voyez, chaque partie. Et ça c'est automatiquement fait par Google. Donc il y a les codes temporels qui sont mis, et ensuite évidemment, on peut l'enregistrer. Par exemple ici, publier. Comme ça, si j'y retourne, vous allez voir, j'ai les sous-titres qui sont ordonnés. Donc après on peut faire des modifications. Donc ça c'est assez simple à faire. Et puis vous pouvez, en cliquant ici, là sur les trois petits points, les télécharger. Donc quand on les télécharge, on récupère soit au choix un SRT, un VTT, un SBV, etc. en fonction d'eux. Donc il y a toujours moyen, quand on veut retranscrire un truc, d'utiliser Google. Mais c'est-à-dire qu'il faut uploader votre vidéo qui est, par exemple si vous voulez des sous-titres d'une série, il faut uploader votre série, la laisser en privé pour pas que ça apparaisse, et puis pouvoir comme ça après récupérer les SRT, sachant que c'est pas parfait. Des fois, si vous mangez un peu vos mots, etc., il y a des trucs ou des expressions qu'il va pas forcément comprendre. Mais globalement, ça reste hyper correct. Moi, c'est la technique que je préconise et que j'utilise le plus souvent. Mais j'ai quand même trouvé une technique encore plus cool, qui permet de faire, je pense, un peu ce que Google autorise. C'est-à-dire pouvoir retranscrire nous-mêmes, avec de l'intelligence artificielle, l'audio d'un fichier MP3 par exemple, ou d'une vidéo MP4, ou ce que vous voulez. Donc ça c'est super cool. Et donc je vous propose qu'on fasse ensemble un petit tuto, qu'on aille voir un peu ce que c'est que ce truc. Alors ce truc, c'est une technologie qui est développée par OpenAI, qui s'appelle Whisper. Alors Whisper, c'est quoi ? C'est écrire, c'est un système de reconnaissance de speech, donc de parole, avec de l'intelligence artificielle. Donc comment ça fonctionne ? Ça permet, en utilisant des modèles qui ont été entraînés avec, je crois, plus de 680 000 heures d'audio, de reconnaître la langue utilisée dans l'audio. Donc si c'est une chanson en anglais, ça va reconnaître que c'est de l'anglais, si c'est du français, ça va reconnaître que c'est du français. Et puis, ça va permettre comme ça de retranscrire tout ça, et notamment de l'orodater. Donc bon, tout est expliqué. On voit qu'on a différents modèles. On a le modèle Tiny, qui est un tout petit modèle, très léger, de moins d'un giga. Enfin, de 39 mégas, pardon, et qui demande moins d'un giga de mémoire RAM. Modèle de base, modèle small, médium et large, qui est beaucoup plus balèze, qui demande 10 gigas de RAM, et qui permet comme ça de reconnaître beaucoup plus de choses, en tout cas de manière plus fine, puisque le modèle a été plus entraîné, donc comme il est plus gros, il est plus entraîné. On a ici toutes les langues qui sont supportées. Voilà, le français est dispo, au même titre que l'espagnol, l'italien, l'anglais, etc. Et puis après, on a les commandes ici. Donc moi, ce que je vais vous montrer, en fait, dans cette vidéo, c'est comment on fait pour installer Whisper, comment on peut l'utiliser, et puis vous montrer un peu des résultats de tout ça. Donc déjà, Whisper, vous n'avez pas besoin de clé API, ce genre de truc, comme on peut l'avoir avec des systèmes comme GPT-3, etc. chez OpenAPI. Même si c'est un logiciel d'OpenAPI, voilà, ça reste un truc open source. Les modèles sont disponibles, donc vous pouvez tout télécharger, tout tester. C'est du Python, donc il vous faudra Python, il vous faudra PyTorch, et puis des outils comme FFmpeg, etc. pour l'exploitation des fichiers audio et compagnie. Donc c'est un truc que vous pouvez faire sur votre machine, mais nous, on va utiliser Google Collab, qui est un outil de Google qui permet de faire des notebooks Python. Donc ça, c'est cool, parce que comme ça, ça va vous montrer aussi comment on peut utiliser Google Collab. C'est gratos, donc il faut que vous soyez connectés à votre compte Google et que vous alliez sur l'URL collab.research.google.com. Donc là, on va créer un nouveau notebook et on va lui donner un petit nom. Donc, Whisper en anglais, c'est-à-dire Murmur, donc je vais l'appeler Murmur. Voilà, donc ça, c'est un code qu'après, vous pouvez exporter et compagnie. Et ici, on peut taper soit du code, soit du texte. Alors si je fais du texte ici, je leur montre, voilà, vous pouvez écrire des choses dedans, on va dire, on double-clique et on dit « Mon premier Collab de l'art transcription ». Donc là, vous mettez ce que vous voulez, en fait, c'est vous qui voyez, mais ça vous permet, par exemple, de documenter un peu ce que vous êtes en train de faire, histoire de vous retrouver. Je vous recommande de faire ça, ça va être pas mal. Et ensuite, on va passer à l'exécution du code. Donc le code, à proprement dit, il est assez simple, en fait. Vous allez voir, ça va pas chercher bien loin. On va d'abord aller récupérer le code source de Whisper. Donc si je me remets sur la documentation de Whisper ici, je peux voir qu'en fait, si je veux l'installer, je fais un pip install-git-https, suivi, enfin voilà, avec l'URL, en fait, du dépôt. Donc pour lancer ça, si je fais ça comme ça, ça va fonctionner, mais bon, parce que là, c'est un pip, mais après, si on lance des commandes shell vraiment pures et dures, comme par exemple un sudo apt-update, ce genre de trucs, il faut préfixer la commande avec un point d'exclamation. Pour dire à Google Collab, c'est une commande shell. Si vous installez Whisper, ou si vous voulez faire des trucs sur votre propre machine, vous n'avez pas besoin de ce point d'exclamation devant. Donc là, ensuite, à côté, à gauche, vous avez un petit bouton lecture. Donc si on clique dessus, ça va, en fait, exécuter la commande qui est juste là. Donc ça peut être plus ou moins long en fonction de ce que vous faites, mais voilà, donc là, on voit, il récupère le script, il télécharge tout ce qu'il faut, il installe les paquets récupérés, et puis une fois que c'est bon, vous voyez la petite encoche verte ici qui dit que c'est terminé. Donc là, on a installé, enfin, on a installé, en tout cas, on a récupéré les sources et on l'a installé. On va faire maintenant une nouvelle ligne. Donc pour faire une nouvelle ligne, on clique ici, là-haut, sur le plus code, voilà, en dessous, donc je recommence par un point d'exclamation, et cette fois, je vais installer, enfin, je vais mettre à jour mon système. Donc on va faire un apt-update, suivi des double E commerciaux, les petites esperluettes, pour enchaîner sur une deuxième commande, qui sera un sudo apt install, et là, on va avoir besoin de ffmpeg. Pour tout ce qui est conversion, ça, c'est un outil qui est utilisé pour la lecture, pour la conversion de fichiers vidéo, etc. Ça marche aussi avec l'audio, enfin bref, c'est assez merveilleux. Donc là, pareil, on lance, on voit qu'on est sur une Ubuntu, donc il est parti télécharger ça, et il va nous l'installer. Une fois que c'est installé, pareil, petite encoche verte, c'est bon, et alors moi, j'ai récupéré des fichiers. Je vous montre un peu ce que j'ai. Donc j'ai récupéré trois fichiers vidéo, une chanson de William Scheler, une chanson de Jean-Louis Aubert, et une vidéo de Paul Mirabelle, qui fait son petit sketch, voilà. Je vais essayer de vous le monter rapidement, mais bon, voilà. Après là, on est plutôt sur de l'audio, donc là, c'est une chronique à la radio, donc voilà. C'est du blabla, quoi. On n'est pas sur de la musique, et puis là, le reste, on est sur de la musique. C'est des clips récupérés avec YouTube DL sur YouTube. Donc ça, c'est pas très compliqué. Si ça vous intéresse, un jour, je vous refais une vidéo là-dessus, mais je crois que j'en avais fait une sur YouTube DL, donc allez fouiller dans les archives de la chaîne YouTube, vous retrouverez tout ce qu'il faut sur YouTube DL, je pense, sans aucun souci. Alors, évidemment, moi, pour mes tests, j'ai envie de... Je vais uploader mes fichiers. Alors ici, à gauche, vous avez un petit dossier, là. Vous cliquez dessus et vous voyez un peu les fichiers qui sont dans votre projet. Enfin, voilà, le répertoire dans lequel on peut uploader les trucs. Donc ce que je vais faire, c'est que je vais commencer par uploader un MP3. Donc on va prendre, par exemple, la chanson de Jean-Louis Aubert pour MP3. Ah, il me dit, les fichiers importés seront supprimés lorsque l'environnement d'exécution sera recyclé, évidemment. Là, en fait, on fait tourner du code sur les serbes de Google. Quand on aura terminé, Google vide tout, supprime tout pour qu'ils puissent continuer à proposer leurs services gratuitement en faisant un peu de platin. Et donc là, on a JL.MP3 qui est la chanson, je crois que c'est... Voilà, c'est fini. On va créer une nouvelle ligne de code et cette fois, on va appeler la commande Whisper. Donc pour ça, rebelote, on fait un point d'exclamation, Whisper, donc W-H-I-S-P-E-R. Vous mettez, entre guillemets, le nom de votre MP3. Là, j'ai JL.MP3. Et ensuite, vous faites tout simplement lecture, là. On exécute et on attend. Donc là, il va utiliser le modèle de base pour commencer à transcrire l'audio du morceau en texte. Donc là, ce qui est intéressant, c'est qu'il dit qu'il est en train de détecter la langue parce que je ne vais pas spécifier de langue. On peut, avec un paramètre "--language", derrière la commande Whisper, spécifier quelle langue on veut traiter. Mais il est suffisamment malin, intelligent, pour détecter la langue en utilisant les 30 premières secondes de mon audio. Donc là, il a bien détecté que j'étais sur du français. Alors, on est sur des choses qui demandent quand même beaucoup de ressources, donc c'est normal que ce soit long. Et si vous êtes sur votre propre machine, ça peut être encore plus long. Et donc là, voilà, il commence à transcrire le truc. Il me dit, voilà, c'est fini, on attend ressasser les mêmes théories. On a tellement tiré chacun de notre côté. Donc ça, c'est la retranscription. Après, le minutage, en fait, si vous voulez. Alors, il me fait une petite alerte au début, que je n'ai pas relevé tout de suite. Mais vous voyez, il me dit, attention, F16 n'est pas supporté sur le CPU. Il utilise F32, etc. C'est très, très lent. Beaucoup plus lent que ce que ça devrait être. C'est normal parce que j'ai oublié de configurer la méthode de retranscription. Enfin, la méthode d'exécution. Donc, je vais le stopper. Je vais vous montrer ce qu'il faut faire. Et après, on va relancer cette commande. En fait, au niveau de Google Collab, au niveau de l'exécution, vous pouvez modifier le type d'exécution ici. Et vous avez le choix de l'accélérateur matériel. Donc, on avait le GPU. Donc là, il n'y avait rien. Donc, ça utilisait le CPU de la machine. Donc, ce n'était pas très efficace. On va utiliser le processeur graphique, le GPU, pour que ça booste un peu plus. Donc, vous voyez, il faut faire ça. Vous allez ici dans Exécution. Vous faites Modifier le type d'exécution. Et dans la liste, vous choisissez GPU. Et vous faites Enregistrer. Et là, on va le relancer. Ça sera un peu plus rapide. Donc, je vais devoir relancer toutes les commandes parce qu'il m'a tout vidé. Donc, je relance cette commande-là. Ensuite, je vais relancer la deuxième. Pendant ce temps-là, je vais re-uploader mes fichiers parce que comme il m'a tout vidé, il a tout remis à zéro. Je re-uploade mon mp3. Je lance l'apt-get update avec l'installation de fmpeg derrière. J'ai mon fichier jl.mp3 qui est bien arrivé en même temps. Et là, je vais lancer la commande Whisper. Sans oublier le point d'exclamation devant, jl.mp3. Donc, ça qui est bien avec les notebooks, c'est qu'on peut repasser étape par étape dans chaque truc et voir un peu ce que ça nous dit, si ça fonctionne ou pas, etc. Donc là, comme on est sur du GPU, il est en train de récupérer le modèle et ça devrait aller un peu plus vite. Donc déjà, j'ai pris la petite erreur concernant le problème de CPU-GPU. Il détecte la langue. Voilà, ça a été plus vite. Il a détecté le français. Et puis après, c'est parti pour la retranscription. Vous voyez, c'est beaucoup plus rapide que ce que j'ai eu tout à l'heure parce que j'utilisais le GPU. Alors vous voyez, il y a des petites boulettes quand même parce qu'on est sur un modèle de retranscription qui est petit, qui est léger. Par exemple, là, on ne va pas se dire au revoir comme sur le Keddinger. Il me dit le Keddinger. Je ne sais pas ce que c'est que le Keddinger. Ça doit être un nom breton. Je n'en sais rien. Mais en tout cas, voilà. Par exemple, chevelu en nuit, il traduit ça par cheveuil urné. Bon, on est sur un peu du raté là. Donc, ce qu'on va faire, c'est qu'on va changer de modèle. On va faire Whisper.jlmp3 et on va faire "-modèle". Et là, on va lui dire qu'on veut le modèle qui est spécifié ici dans la liste, le modèle large. Il est plus balèze. Il fait 1,5 giga et il demande beaucoup plus de mémoire. Et on va voir si ça s'améliore. Donc, je lance avec le gros modèle. Donc, je disais que ça faisait 1,5 giga, mais on est plutôt sur 2,8 maintenant. Il a grossi par rapport à ce qu'ils ont mis à jour sur leur GitHub. Là, c'est à 3 jours. Donc, il est un peu plus balèze. Mais c'est Google qui télécharge. Donc, même si vous êtes en ADSL ou des petites connexions, ce n'est pas grave. Ça n'a pas changé grand-chose. Tout se passe sur les serveurs de Google. Et donc, ce modèle large est normalement censé nous proposer des meilleurs résultats. Donc, c'est un peu plus long parce que le modèle est plus balèze. Il détecte encore la langue. On repart sur du français. Et c'est reparti. Il nous refait la retranscription. Et là, vous voyez, le Keddinger s'est transformé sur le Keddingar. Donc, il a bien compris. Là, il a un peu plus bossé le sujet. Et il s'est dit « Tiens, Keddinger, c'est peut-être un peu con. On va faire un truc qui est plus français quand même. » Donc, voilà. Donc, le modèle large est plus long et plus lourd et plus balèze. Mais les résultats sont meilleurs, évidemment. L'IA est beaucoup plus entrainée. « Je ne vois plus rien avec tes cheveux lurs nus. » Je crois que c'était ça. Je ne me souviens plus des paroles. Je ne sais plus si c'est « cheveux lurs nus », « cheveux lurs nus ». Petite faute d'orthographe quand même. Mais globalement, voilà. Et donc, on récupère comme ça les paroles et surtout la retranscription. Donc, après, vous avez un SRT que vous pouvez télécharger ou un TXT ou un VTT, etc. Et donc, vous avez vos sous-titres qui sont générés. Donc, ça, c'est super cool. Enfin, moi, je trouve ça cool. Vous téléchargez le fichier comme ça. Et après, en l'ouvrant avec n'importe quel bloc-notes, vous voyez, on retrouve la structure d'un fichier SRT de manière tout à fait classique. Donc, ça vous donne beaucoup de possibilités de pouvoir faire ça parce que déjà, vous pouvez faire de la retranscription, on va dire, assez propre. On peut spécifier ici la langue. On a le paramètre ELP. Je n'ai pas été voir, je vous avoue, les paramètres. On va aller voir ça. Par exemple, si je fais « tire et tire ELP », vous voyez, j'ai tous ces paramètres-là. Donc, tout ce qui concerne le modèle, évidemment. La langue parlée, évidemment. Après, on est sur des trucs un peu techniques. Mais vous pouvez comme ça tout personnaliser, tout régler. Donc, pour ceux qui veulent vraiment entrer un peu dans la technique, c'est possible. Ça peut s'utiliser en Python dans vos scripts aussi. Donc, ça, c'est plutôt cool. Vous pouvez l'importer, en fait. Et vous faire tout un petit script pour automatiser un process, par exemple, de retranscription automatique. Ça, c'est super cool. Admettons que vous fassiez, par exemple, des vidéos TikTok. Vous avez un script pour récupérer un SRT et le mettre en dur sur la vidéo, c'est-à-dire avec du texte vraiment incrusté dans la vidéo. Bon, vous pouvez faire une petite moulinette qui va utiliser Whisper pour retranscrire automatiquement vos trucs et l'incruster ensuite avec un outil, avec du script. Pas des outils comme Final Cut ou ce genre de trucs. Peu importe ce que vous utilisez après pour avoir les sous-titres incrustés dans votre vidéo. Donc, pour de l'automatisation, c'est super cool. On va tester maintenant sur une vidéo. Donc, je vais prendre, par exemple, la vidéo de Paul Mirabelle. Voilà. Et cette fois, un MP4. Donc, je le transfère. Pareil. Et puis, moi, je vais modifier ma commande en attendant. Donc, j'ouvre les guillemets. Elle va s'appeler vidéo.mp4. Donc là, on est sur un format vidéo. On n'est plus sur du MP3. Et en modèle, je ne vais pas spécifier de modèle parce que je veux que ça aille vite pour les besoins de cette vidéo. Mais je veux quand même... Enfin, j'aurais quand même un truc qui sera de bonne qualité, mais pas au top du top. Si je voulais le top du top, vous vous souvenez, je fais "-model". Et là, je mets large, le gros modèle. Après, on peut toujours trouver un truc... Il y a toujours des modèles intermédiaires, comme vous pouvez le voir ici sur la page GitHub, avec le Medium, le Small, le Base, le Tiny, etc. Donc, ma vidéo est presque envoyée. On voit ici le petit rond jaune, là. On est presque à la fin. Et voilà, ça a disparu. Donc, c'est bon, c'est envoyé. Bon, j'enlève ce truc, là, modèle large, parce que je n'ai pas envie que ça soit trop long. Je relance. Je n'ai pas spécifié la langue. Donc, j'ai toujours ce paramètre... Enfin, j'ai toujours cette phase de détection. Si vous voulez aller un peu plus vite et que vous savez que vous traitez une langue spécifique, que ce soit du français ou de l'anglais, vous faites "-language", et vous l'aurez direct. Et puis, voilà, là, c'est en train de convertir la chronique de Paul Mirabelle, qui dure quelque chose comme 3 minutes... Enfin, presque 4 minutes. Donc, on va arriver bientôt à la fin. Et puis, après, on va la tester. On va l'ouvrir dans VLC. Pourquoi pas ? Je vais l'ouvrir tout de suite, d'ailleurs. Ça sera saté. Voilà, c'est ouvert dans VLC. Je vais faire pause. Donc, là, vous voyez, je n'ai pas mis le son. Vous avez la vidéo, mais vous ne savez pas de quoi ça cause, parce que vous n'avez pas les sous-titres. Je rafraîchis mon répertoire en cliquant ici, et je vois que j'ai des sous-titres qui sont arrivés, là. Donc, je récupère, par exemple, celui-ci, le SRT, téléchargé. Et ensuite, j'ai juste à glisser-déposer... Je vous montre, hein. J'ai juste à glisser-déposer le SRT sur le truc, ici. Hop, voilà. Et maintenant, si je fais lecture, voilà, j'ai les sous-titres qui sont intégrés directement à la vidéo. Enfin, en tout cas, avec VLC, on peut les importer comme ça. Voilà. Donc, ça, c'est plutôt cool. Moi, je trouve ça intéressant. Pour tous les gens, par exemple, qui s'amusent à faire des sous-titres pour des séries, pour des films, pour des animés, etc., bon, ben, c'est ce genre de truc qui peut vous faire gagner grave du temps. Après, évidemment, ça n'empêche pas la relecture, parce que c'est comme tout système automatisé, ce n'est jamais parfait. Mais, là, on est sur un niveau d'IA avec un petit modèle, finalement. On est à un peu plus de 2Go le modèle, un peu moins de 3Go. Ce ne sont pas des gros modèles, et on a un résultat vraiment bluffant. Donc, voilà. Je continuerai quand même à faire travailler les gens qui font de la retranscription pour moi quand j'en ai besoin, etc. Ça reste assez exceptionnel. Mais pour des petits besoins, des trucs rapides, etc., ça coûtera un peu moins cher, on va dire ça. Donc, voilà. Je pense qu'avec cet outil, vous serez indépendants, comme ça, pour faire vos sous-titres, pour faire vos retranscriptions, etc., etc. Je trouve ça plutôt cool. Voilà, j'espère que ce tuto vous aura intéressé, que ça vous aura plu. Ça vous montre aussi comment on utilise Google Collab, de manière, on va dire, très simple. Voilà, n'oubliez pas d'activer le GPU, ce que j'avais oublié en début de vidéo. Mais, vous voyez, ce n'est pas très compliqué de commencer à faire des choses un peu gourmandes, qui utilisent notamment du Deep Learning ou ce genre de trucs, qu'on ne peut pas forcément faire tourner sur nos machines, parce qu'on n'a pas la carte graphique qui va bien, le GPU, etc., pour envoyer de la puissance là-dedans. Donc, Google Collab est là, même si ça reste assez limité. Après, on peut développer ça de manière un peu plus sérieuse en payant pour avoir plus de puissance, etc., plus de temps et compagnie. Mais, en tout cas, pour des petits besoins comme ça, ponctuels, c'est le genre d'outil super cool. Sachant que ce script, d'ailleurs, une fois que vous avez votre fichier, je vous remontre rapidement, mais une fois que vous avez votre fichier Murmur, là, ici, pour un IPYNB qui est en place, vous pouvez comme ça, après, le sauvegarder, l'enregistrer, le repartager, faire un peu ce que vous voulez avec. Après, on reste sur un fichier que vous pouvez ensuite importer dans vos propres systèmes ou l'utiliser, le partager avec vos potes, le mettre en ligne, enfin, vous faites ce que vous voulez. Donc voilà, encore une fois, bien joué à OpenAI pour tout ce qu'ils font dans le domaine de l'IA, du Deep Learning, etc., du Machine Learning. Ça met ça à portée de tous, parce que vous voyez, même si vous n'êtes pas habitués au développement, à la ligne de commande et tout ce truc-là, très simplement, là, il y a trois lignes. La première ligne, on installe le système, on installe Whisper, la deuxième ligne, on installe FFmpeg, on met à jour le système, et la dernière ligne, on appelle juste la commande avec le paramètre de fichier qu'on veut traiter. Donc, c'est vraiment pas sorcier. Une fois encore, voilà, mon but, à moi, c'est de vulgariser toutes les technos, ce genre de trucs pour vous, et puis, sachez que tout ce que je vous montre, c'est vraiment, on va dire, la surface. Après, vous pouvez creuser, aller beaucoup plus loin et vous éclater, faire des trucs beaucoup plus complexes, notamment si vous vous intéressez un peu aux pythons et que vous faites vos propres scripts. Voilà, j'espère que ça vous aura plu. Encore merci à tous les Patreon pour le soutien. Merci à tous les nouveaux qui vont débarquer bientôt grâce à cette vidéo, qui vont se dire, c'est trop cool ce que fait Corben, je veux participer au Patreon. C'est simple, vous allez sur patreon.com slash Corben et vous suivez les instructions, il n'y a rien de plus simple. Et puis, comme ça, vous aurez ces merveilleuses vidéos avant tout le monde, voilà. Si vous avez des questions, n'hésitez pas à laisser des commentaires. Et puis, moi, je vous dis à très bientôt. Allez, ciao .

ai AI Insights
Summary

Generate a brief summary highlighting the main points of the transcript.

Generate
Title

Generate a concise and relevant title for the transcript based on the main themes and content discussed.

Generate
Keywords

Identify and highlight the key words or phrases most relevant to the content of the transcript.

Generate
Enter your query
Sentiments

Analyze the emotional tone of the transcript to determine whether the sentiment is positive, negative, or neutral.

Generate
Quizzes

Create interactive quizzes based on the content of the transcript to test comprehension or engage users.

Generate
{{ secondsToHumanTime(time) }}
Back
Forward
{{ Math.round(speed * 100) / 100 }}x
{{ secondsToHumanTime(duration) }}
close
New speaker
Add speaker
close
Edit speaker
Save changes
close
Share Transcript