Question:
Options de démixage des sons (séparation des sources)?
Michael Hansen Buur
2017-09-04 11:39:01 UTC
view on stackexchange narkive permalink

Quelles solutions (autonomes ou plugins) existent pour le démixage / démixage des sources?

Disons que j'ai une piste avec guitare acoustique et synthé à cordes en mono, et je veux que chaque source soit séparée. Quels outils me permettent de faire cela?

(note: avant de dire que c'est impossible, consultez le champ de recherche des algorithmes de séparation de sources)

Bien que j'aie entendu parler du dé-mixage il y a environ 15 ans, je n'ai toujours pas rencontré de plugins ou d'effets externes qui effectuent cette tâche, à l'exception des dé-bruits de toutes sortes qui sont techniquement des dé-mixeurs spécialisés dans la suppression de sons très spécifiques comme les clics. , rayures (à partir de disques vinyles) ou bruit
J'ai essayé avec des débruiteurs qui peuvent "apprendre" les profils de bruit, puis les "apprendre" des parties solistes d'un instrument que je veux sortir. Cela fonctionne dans une certaine mesure, mais ils ne sont pas faits pour des matériaux à large spectre et finissent par être inutiles.
Yo Michael, @Schiz cela pourrait être dupliqué; https: //sound.stackexchange.com/questions/40005/what-is-the-current-state-of-the-art-in-source-separation-what-tools-are -availa / 40053 # 40053 Que pense tout le monde ??
@MarcW Ouais, je pense que tu as raison.
@MichaelHansenBuur J'ai pensé à suggérer ceci mais je ne l'ai pas fait parce que je ne l'ai pas vraiment essayé. Il est bon de connaître votre expérience avec.
-1
Reproduction possible de [Quel est l'état actuel de la technique en matière de séparation des sources? Quels outils sont disponibles?] (Https://sound.stackexchange.com/questions/40005/what-is-the-current-state-of-the-art-in-source-separation-what-tools-are-availa )
Quatre réponses:
Schizomorph
2017-09-04 14:48:23 UTC
view on stackexchange narkive permalink

Réponse rapide - Non, je n'en ai pas entendu parler mais j'ai entendu parler de recherches en cours sur le terrain.

Le plus grand problème théorique avec le démixage est de savoir quoi soustraire.

Lorsque nous mixons, nous ajoutons A et B qui sont tous deux des signaux connus. Mais lorsque nous essayons de faire le contraire, nous devons savoir à l'avance ce qu'est B. Cela rendrait le processus inutile dans la plupart des cas car, en utilisant votre cas comme exemple, si nous avions déjà le signal de guitare isolé, nous n'aurions pas besoin de le démixer.

Quand nous savons quoi B est, alors c'est un processus aussi simple que le mélange. Par exemple, il existe des plugins qui analysent le «sifflement», les clics ou tout bruit régulier et le soustraient (démixage) du signal d'origine.

Je crois que c'est le raison pour laquelle nous n'avons pas vu beaucoup de progrès dans la technologie de démélange. Il faudrait beaucoup d'auto-corrélation très complexe (comparer un signal à lui-même) pour identifier correctement les sons complexes comme les voix ou les instruments.

Pourtant, nous semblons le faire assez bien tous les jours ;-) Quelque chose me dit que l'approche des "dé-bruits" est fausse. Il s'agit de continuité ou de contenu. Dans le domaine du traitement d'image, le traitement sensible au contenu existe depuis un certain temps déjà. Et c'est "2D", pas "1D" comme l'audio (sans tenir compte de l'aspect stéréo). Quelqu'un doit avoir travaillé là-dessus ...
Si seulement nous savions ** comment ** nous le faisons, nous pourrions avoir des ordinateurs pour le faire pour nous :)
Oui, si nous connaissons B, alors nous pouvons retirer pour obtenir A. Mais oui, il faudrait un système d'auto-apprentissage je pense. J'ai écrit une réponse similaire à celle-ci, mais il y a un peu plus longtemps. C'est ici quelque part.
Oh, c'est ici; https://sound.stackexchange.com/questions/40005/what-is-the-current-state-of-the-art-in-source-separation-what-tools-are-availa/40053#40053 Pourrait être dupe réellement. Je vais commenter la question.
@MarcW Oui, j'ai entendu parler d'algorithmes d'auto-corrélation qui sont utilisés pour calculer le rapport S / N (ou quelque chose du genre - cela fait des années que j'ai entendu cela dans une classe et je ne l'ai jamais utilisé). Peut-être que cela ferait une très bonne question @ https://dsp.stackexchange.com/
Combien de nombres ai-je additionnés pour obtenir 100? Pouvez-vous préciser quels étaient ces chiffres?
audionuma
2017-09-04 16:29:12 UTC
view on stackexchange narkive permalink

Il y a en fait un éditeur de logiciels qui prétend fournir un démixage crédible: audionamix.

Je ne suis pas affilié à eux, je ne peux pas non plus confirmer leurs affirmations, mais il y a des démos sur leur site Web.

Maintenant, nous parlons :-) Cela semble intéressant et certainement le genre de logiciel que j'avais en tête.
C'est très intéressant en effet, mais je pense avoir entendu les mêmes artefacts que vous entendez lorsque vous poussez un peu trop un antibruit. Si cela est correct, alors c'est un algorithme très similaire où vous obtenez «l'empreinte» spectrale d'un son et vous utilisez un ensemble (comme des centaines) de BPF très étroits pour le supprimer.
_Personnellement_, je ne lui ferais pas confiance avant de l'avoir essayé par moi-même. J'ai déjà entendu des affirmations comme celle-ci. Imaginez l'explosion des remix de vieilles chansons quand cela devient vraiment utilisable. Je reviendrais certainement sur quelques vieux projets qui se sont arrêtés!
Caius Jard
2017-09-04 18:48:49 UTC
view on stackexchange narkive permalink

En accord avec d'autres réponses; généralement "pas vraiment faisable" est la réponse. J'ai joué avec iZotope RX5, un éditeur très intéressant; dessine le signal sous forme de graphique de fréquence 2D et dispose d'outils pour sélectionner des régions (y compris des régions changeantes) pour isoler certains sons et les amplifier ou les atténuer, mais dans le contexte où j'opérais, il s'est avéré impossible de supprimer les dommages à un enregistrement original de sources mixtes (un entretien téléphonique où un bébé hurlant, jouant, un micro-ondes et une télévision de fond l'avaient pollué)

Vos oreilles ne peuvent "entendre que le piano", donc vous supposez que quelqu'un a dû être capable de créer un logiciel qui peut "juste entendre le piano" et l'isoler dans sa propre piste. Aucun logiciel ne le fait correctement, ni automatiquement; sur le plan informatique, c'est un problème énorme, largement enraciné dans des sons qui n'existent pas sous forme de nombres bruts dans le flux source, grâce à la psychoacoustique et à la façon dont votre cerveau interprète l'audio de vos oreilles

Plus de discussion: Un logiciel peut-il supprimer efficacement les bruits d'une personne / intermittents d'un enregistrement audio d'une conversation à trois?

RX6 a ajouté des algorithmes d'intelligence artificielle censés aider dans des situations comme celle que vous avez décrite. Je ne sais pas si cela fonctionne bien.
@leftaroundabout J'ai rx6 (et je l'adore). Il ne gère toujours pas bien ce problème, mais mieux que tout ce que j'ai utilisé
user22883
2017-09-04 14:04:33 UTC
view on stackexchange narkive permalink

Vous ne dites pas comment vos sources ont été mélangées. Si nous parlons de session multipiste avec des sources panoramiquées en place (le genre de mix studio populaire dans les années 70), la séparation fonctionne très bien.

Si nous parlons d'une seule session multipiste avec une bande master disponible où nous voulons traiter le saignement dans les "mauvais" microphones, il est toujours possible de faire des choses.

Si vous avez juste un enregistrement "acoustique" de tout le groupe où le "mixage" se produit en étant dans la même pièce , les choses sont assez sans espoir pour des résultats agréables : vous pouvez toujours obtenir des améliorations si le but est le prétraitement pour des tâches de reconnaissance.

"Chanson avec guitare acoustique et synthé à cordes" dit très peu: "chanson" implique-t-il aussi "chanter"? Combien de microphones ont été utilisés? Le synthé est-il mixé en tant que piste numérique, en tant que piste d'entrée analogique, ou était-il également présent dans le signal acoustique? Quelle quantité de post-traitement numérique, redigitisé et analogique a été effectué?

En tout cas: à l'heure actuelle, la loi sur le droit d'auteur est tellement stupide que vous devez négocier pour chaque échantillonnage trivial de tout, donc si vous l'êtes en pensant au remixage commercial, vous pouvez simplement essayer de négocier l'accès aux bandes master originales également si cela peut aider.

Il serait donc plus judicieux de reformuler votre question en référence à un scénario beaucoup plus spécifique : dans "J'ai une chanson avec guitare acoustique et synthé à cordes" est trop peu spécifique en ce qui concerne "chanson" et trop peu spécifique en ce qui concerne "j'ai": quel type de matériel / média avez-vous réellement, et quel type de légal situation actuelle?

J'ai un peu réduit mon exemple, mais je pense que la nature générique de ma question vous manque. Je ne suis pas vraiment intéressé par les approches spéciales ad hoc, mais quelque chose qui fonctionne en général avec une variété de sources.
Pire encore. Une certaine séparation peut parfois être obtenue par une approche échelonnée et des erreurs et des essais, appliquant une variété de techniques différentes. Un système entièrement automatisé est encore assez loin, je pense.


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...