"AI Mastering" Update

Begrenzungsfehlerspektrogramm

AI Mastering wurde aktualisiert.

Oversampling-Funktion hinzugefügt

Oversampling-Funktion wurde hinzugefügt. Die Verwendung von Oversampling verringert den Abstand zwischen "True Peak" und "Peak". Die Bearbeitungszeit wird jedoch verzögert. Wenn Sie Oversampling auf 1x setzen, wird dasselbe Verhalten wie zuvor angezeigt.

Wenn Sie sich Sorgen wegen True Peak machen, versuchen Sie es bitte.

Oversampling-Einstellungen

"Limiter Error Spektrogram" hinzugefügt

"Limiter Error Spectrogram" wird in Form eines Spektrogramms visualisiert, zu welchem Zeitpunkt und welche Bande den Limiter-Fehler beeinflusst. Ich denke, es wird einfacher sein, den Limiter-Fehler zu reduzieren, wenn Sie dies verwenden.

Begrenzungsfehlerspektrogramm

Da der relative Wert angezeigt wird, müssen Sie sich keine Sorgen machen, wenn "Limiter-Fehler" überhaupt klein ist. In Bereichen, in denen kein Originalton vorhanden ist, wie z. B. ein extrem hoher Frequenzbereich und leiser Anteil, wird die Farbe tendenziell dicker, aber es ist kein Problem, wenn es egal ist, ob Sie zuhören.

Wichtig ist der dichte Teil der Farbe, der im dunklen Teil vorhanden ist. Dieses Bild enthält viele vertikale Linien unter 15 kHz. Diese Linie ist eine Verzerrung, die auftrat, ohne die Spitze eines starken Attack-Sounds vollständig komprimieren zu können.

Im folgenden Artikel erfahren Sie, wie Sie den Limiter-Fehler reduzieren können.

Was ist ein Limiter-Fehler?

Fügen Sie Dissonanzindikator hinzu

Der Dissonanzindex ist ein Indikator für den Dissonanzgrad des Tons. Der Dissonanzindex neigt dazu, klein zu werden, da es viele Töne gibt, deren Spektrum in Frequenzrichtung dicht konzentriert ist, z. B. Schlaginstrumente und Rauschen, und kleiner werden, da viele Töne mit Tonlagen wie Klavier und Streicher vorhanden sind.

Dissonanzindex des Tones

Beschleunigen Sie die Audioanalyse

Beim AI-Mastering beginnt das Mastering nach dem Hochladen von Audio, sobald die Audioanalyse abgeschlossen ist. Da wir die Analyse des Audiomaterials beschleunigen, sollte das Mastering schneller beginnen.

Perzeptuelle Bewertung der Audioqualität (PEAQ)

Wir werden PEAQ (Perceptual Evaluation of Audio Quality) vorstellen.

PEAQ

Kann PEAQ den Unterschied zwischen Referenzton und Zielton wahrnehmen? Es ist eine Methode zur objektiven Bewertung durch Berechnung. Ich denke, dass man damit die Leistung des Limiters und die Leistung des mp3-Encoders bewerten kann.

PEAQ (Wikipedia)

ITU-R BS.1387

PEAQ-Lizenz

Laut Wikipedia scheint PEAQ durch Patente geschützt zu sein. Sie können es also nicht frei verwenden. Gemäß der unten aufgeführten Website können Sie möglicherweise eine Lizenz über OPTICOM signieren.

PEAQ (OPTICOM)

Licensing (OPTICOM)

Implementierung von PEAQ

Im folgenden Artikel werden die Genauigkeit mehrerer PEAQ-Werte und die Berechnungszeit miteinander verglichen. Es scheint, dass GstPEAQ für die Genauigkeit gut ist.

GstPEAQ – An Open Source Implementation of the PEAQ Algorithm

GstPEAQ

Es ist eine PEAQ-Implementierung, die als GStreamer-Plugin erstellt wurde. Es ist in C-Sprache implementiert und die Lizenz ist LGPL 2.

HSU-ANT/gstpeaq (Github)

PEAQ-Testdaten

Die ZIP-Datei, die über den folgenden Link heruntergeladen werden kann, enthält Testdaten. Laut der Lizenznotation in der ZIP-Datei sollte sie anscheinend nicht zur Bewertung der PEAQ-Implementierung verwendet werden.

ITU-R BS.1387

Zusammenfassung

Wir haben über PEAQ eingeführt. Ich dachte darüber nach, es in AI Mastering einzuführen, aber ich habe es aufgegeben, weil ich es nicht frei benutzen kann.

Audio Commons - Wiederverwendung von Audioinhalten

Ich werde Audio Commons vorstellen.

Audio Commons

"Audio Commons Initiative" ist eine Initiative zur Bereitstellung von Audio-Inhalten, die im Rahmen der Creative Commons-Lizenz für die Kreativbranche bereitgestellt werden. Ich kenne die Bedeutung von Initiative nicht, aber ich denke, dass sie wahrscheinlich in einer Art Organisation verwendet wird.

Audio Commons Einführung Zusammenfassung

· Wiederverwendbare Audioinhalte (Soundeffekte, Field Recordings, Audio-Samples, Songs) sollten ursprünglich mehr sein, es gibt jedoch nur wenige aktuelle Situationen.

· Die Ursache ist ein Mangel an gemeinsamer Kultur bei der Wiederverwendung von Inhalten und technischen Problemen (Suche, Lizenzklärung).

· Die Audio Commons-Initiative löst diese Probleme und fördert die Wiederverwendung von Audioinhalten.

Audio Commons (offizielle Website)

Audio Commons (Twitter)

Audio Commons Ökosystem

Audio Commons Ecosystem (ACE) ist ein Ökosystem aus Audioinhalten, Benutzern und Tools, das von der Audio Commons Initiative unterstützt wird. Audio Commons Ecosystem erleichtert die Wiederverwendung von Audio-Inhalten, die unter der Creative Commons-Lizenz bereitgestellt werden, in professionellen, nicht professionellen und persönlichen Bereichen.

Quelle

Charakter des Ökosystems

Content Creator: eine Person, die Inhalte erstellt. Komponisten usw.

Inhaltsanbieter: die Person, die den Inhalt liefert. Jamendo, Freesound usw.

Inhaltsbenutzer: Die Person, die den Inhalt verwendet. Spielehersteller etc.

Audio-Commons-Ontologie

Die Audio Commons-Ontologie ist eine Ontologie von Audio-Inhalten, die im Audio Commons-Ökosystem verwendet wird. Mit der Audio Commons-Ontologie können Sie Audioinhalte kommentieren (Metadaten angeben).

Teilnehmer an Audio Commons

Neben der Universität beteiligen sich auch Personen, die zu Waves, Jamendo und AudioGaming gehören, an Audio Commons.

Audio Commons Team

Github-Repository von Audio Commons

Audio Commons verteilt verschiedene Bibliotheken mit Github.

Audio Commons (GitHub)

Ein interessantes Werkzeug von Audio Commons

Timbral Explorer

Mehrere Audio-Samples werden in zwei Dimensionen visualisiert. Ein Kreis repräsentiert ein Audio-Sample und ist so angeordnet, dass Klänge einander ähneln. Wenn Sie auf den Kreis klicken, wird ein Ton ausgegeben. Wenn Sie in der Nähe auf einen Kreis klicken, ertönt ein ähnlicher Klang, und durch Klicken auf einen Kreis in der Ferne ertönt ein nicht ähnlicher Klang.

Wenn Sie es von DAW aus verwenden können, scheint es einfach zu sein, Audio-Samples auszuwählen.

Quelle

Timbral Explorer

Zusammenfassung

Audio Commons eingeführt.

Sprecher für hörgeschädigte Patienten, "Mirai-Sprecher"?

Wir stellen Lautsprecher "Mirai-Lautsprecher" für Patienten mit Hörverlust und ähnlichen Produkten vor.

Was ist "Mirai Speaker"?

"Mirai speaker" ist ein barrierefreier Lautsprecher. Es ist ein Produkt der Sound Fun Corporation.

Sound Fan offizielle Website

Wie erwerbe ich 'Mirai Speaker' selbst?

Es ist möglich, es für 2980 Yen / Monat zu mieten.

"Mirai-Sprecher" mieten

Prinzip des "Mirai-Sprechers"

Ich denke, dass es auf den folgenden Patenten beruht. Die Details des Prinzips scheinen unbekannt zu sein.

Patent (Universallautsprecher)

Was ist Comuoon?

"Comuoon" ist ein Gerät zur Unterstützung des Dialogs. Es ist ein Produkt von Universal · Sound Design Co., Ltd.

Universal · Sound Design Corporation Offizielle Website

Wie bekomme ich "Comuoon" alleine?

Es scheint, dass es bei 7.600 Yen + 36 * 5.800 Yen = 216.400 Yen kaufen kann. Es scheint, dass es Zeiten gibt, in denen Sie das "Täglich lebende Zahnrad-Werkzeugsystem" verwenden können.

Über die Kaufmethode (offizielle Comuoon-Website)

Prinzip 1 von "Comuoon" - Umwandlung von Ton

comuoon löscht die Klangeingaben des Mikrofons deutlich und wandelt sie in einen klar hörbaren Klang um.

Quelle

Es scheint, dass der Eingangston so umgewandelt wird, dass er leichter zu hören und auszugeben ist. Wenn Sie aus den auf der Quellenquelle veröffentlichten Bildern schätzen, besteht die Möglichkeit, die für das Hören durch EQ wichtige Frequenz zu verstärken.

Prinzip von "Comuoon" 2 - Querwellenlautsprecher

"Susumushi speaker" ist ein Sprecher, der das Prinzip anwendete, dass Sumushi Flügel schleift und Klänge erzeugt, scheint ein Hauch von Comuoon zu sein.

Kopernikus-Produkte für hörgeschädigte Menschen zur Verbesserung der Hörschwäche

Ich fand eine Arbeit von Prof. Yoshihiro Muto, der in dem oben genannten Artikel "Susumushi speaker" vorstellte. In dieser Arbeit werden die akustischen Eigenschaften der an die Spieluhr gebogenen Unterlage analysiert. Es ist dem Aufbau von "Mirai-Sprecher" ähnlich. Ist die Wurzel von "Comuoon" und "Mirai speaker" gleich?

"Querwellenlautsprecher" mit einer Struktur, die ein piezoelektrisches Element und eine Membran kombiniert, wird ebenfalls eingeführt. Vielleicht nennt man das "Sumushi-Sprecher" oder "Yokonowa-Sprecher"?

Bekannte und unbekannte Phänomene nichtlinearen Verhaltens in der Power Harvesting-Matte und im Querwellenlautsprecher

Es scheint, dass das Ergebnis der Messung der Schallintensität für jede Entfernung mit dem Ergebnis übereinstimmt, wenn angenommen wird, dass Querwellen in der Luft erzeugt werden. Da jedoch das Verfahren zum Ableiten der drei in der Simulation verwendeten Parameter nicht beschrieben wird und die Gültigkeit des abgeleiteten Parameters nicht erörtert wird, ist nicht bekannt, ob das Simulationsergebnis tatsächlich existieren kann oder nicht.

Es gibt auch die Theorie, dass es keine transversale Schallwelle gibt. Es kommt daher vor, dass das Berechnungsergebnis und das Ergebnis des Experiments übereinstimmen. Möglicherweise basiert das Prinzip auf einem anderen Prinzip.

Lautsprecher, der ebene Wellen erzeugen kann

Einige Lautsprecher verfügen über Lautsprecher, die ebene Wellen erzeugen können. Als Ergebnis der Untersuchung wird es mit verschiedenen Namen wie Flachlautsprecher, Flachlautsprecher, Flachwellenlautsprecher usw. bezeichnet. Es scheint keine einheitliche Anrufweise zu geben.

Angenommen, der wesentliche Punkt von "Mirai Speaker" und "Transverse Wave Speaker" sind ebene Wellen und nicht transversale Wellen. Andere Lautsprecher, die ebene Wellen erzeugen können, sind wahrscheinlich auch für Patienten mit Hörverlust wirksam.

Ich habe Lautsprecher geprüft, die ich einzeln kaufen kann.

F. P. S.

FPS-Online-Shop

TOA Corporation

TOA PW-1230 DB Plane Wave-Lautsprecher, Schwarz

Zusammenhang zwischen Hörverlust und ebener Welle

Wenn eine ebene Welle von "Mirai speaker" oder "Transverse wave speaker" kommt, besteht die Möglichkeit, dass die ebene Welle für den Patienten mit Hörverlust gehört werden kann. Wenn ja, denken Sie über den Grund nach.

Hypothese 1 - Weil es für das Volumen schwierig ist, mit der Entfernung zu schwächen

Im Vergleich zu sphärischen Wellen neigen ebene Wellen dazu, das Volumen in Abhängigkeit von der Entfernung zu schwächen. Auch wenn es weit vom Sprecher entfernt ist, ist es leicht zu hören, so dass der hörgeschädigte Patient möglicherweise leicht zu hören ist.

Wir können diese Hypothese verifizieren, indem wir die Leichtigkeit des Zuhörens mit der ebenen Welle und der auf die gleiche Lautstärke angepassten kugelförmigen Welle an der Position des Subjekts in Bezug auf das Subjekt an derselben Stelle vergleichen.

Hypothese 2 - Die Änderung der Lautstärke, wenn die Ohren leicht bewegt werden, ist klein

Es ist der Hypothese 1 ähnlich, aber aufgrund des Einflusses der Ohrstruktur und der Raumreflexion wird die ebene Welle mit der sphärischen Welle verglichen, wobei sich die Volumenänderung im Innenohr ändert, wenn die Richtung des Ohrs oder die Ohrposition gegenüber der sphärischen Welle geringfügig geändert wird Es besteht die Möglichkeit, dass es klein ist.

Es scheint, dass es niemanden gibt, der die Ohrposition und -richtung perfekt fixiert hat, sodass die Lautstärkeänderung beim Bewegen ein wenig die Hörfähigkeit beeinträchtigen kann.

Das Experiment der Hypothese 1 kann verifiziert werden, wenn der Zustand des Ohres in perfekt fixierter Position und Richtung und der Zustand nach und nach bewegt werden.

Hypothese 3 - Weil es wenig Nachhall gibt

Flache Wellen haben eine starke Richtwirkung, so dass im Raum nur wenige Reflexionen auftreten und der Nachhallklang möglicherweise reduziert wird. Es besteht die Möglichkeit, dass die Nachhallmenge die Hörfähigkeit beeinflusst.

Dies kann durch Messen des Nachhalls der sphärischen Welle und der ebenen Welle und durch Vergleich der Hörbarkeit mit dem korrigierten Klang überprüft werden, sodass der Nachhallbetrag mit dem Nachhall usw. identisch wird.

Hypothese 4 - Weil der Nachhall einfach ist

Sie ähnelt der Hypothese 3, es besteht jedoch die Möglichkeit, dass die Struktur des Nachhalls die Leichtigkeit des Hörens und nicht den Nachhall beeinflusst. Bei Nachhall und kurzer Verzögerung kann beispielsweise die Hörfähigkeit auch bei gleichem Nachhall unterschiedlich sein.

Es ist möglich, dies zu überprüfen, indem die Impulsantwort der Kugelwelle und der ebenen Welle gemessen und die Leichtigkeit des Hörens mit dem Klang verglichen wird, der die Struktur des Nachhalls durch Faltung usw. simuliert.

Zusammenfassung

Wir haben einen Lautsprecher "Mirai-Lautsprecher" für Patienten mit Hörverlust und ähnlichen Produkten eingeführt.

※ Preis usw. sind Informationen zum Zeitpunkt des Artikelschreibens. Für die neuesten Informationen besuchen Sie bitte die offizielle Website.

SoundBridge - Kostenlose DAW wurde 2018 veröffentlicht

SoundBridge-Wiedergabe

Wir werden SoundBridge vorstellen, eine kostenlose DAW, die 2018 veröffentlicht wurde.

Was ist SoundBridge?

SoundBridge ist eine kostenlose DAW, die 2018 veröffentlicht wurde. Es entspricht Windows und Mac. Laut hier scheint SoundBridge über 3 Jahre hergestellt worden zu sein.

Offizielle SoundBridge-Website

Funktionen von SoundBridge

Da DAW mit Musikunterrichtsmaterial überwacht wird, zeichnet sich DAW selbst dadurch aus, dass es kostenlos genutzt werden kann .

So verwenden Sie SoundBridge

Kostenlose Mitgliederregistrierung für SoundBridge

Wir werden uns als kostenloses Mitglied auf der offiziellen SoundBridge-Website registrieren.

SoundBridge Registrieren

Laden Sie SoundBridge herunter

Nach Abschluss der Mitgliederregistrierung wird der Download-Link des SoundBridge-Installationsprogramms entsprechend dem verwendeten Betriebssystem angezeigt. Wenn die automatische Beurteilung des Betriebssystems falsch ist, können Sie das SoundBridge-Installationsprogramm für jedes Betriebssystem vom Bildschirm Meine Konten herunterladen.

SoundBridge-Download

SoundBridge installieren

Starten Sie das SoundBridge-Installationsprogramm und installieren Sie es entsprechend dem Bildschirm. Alle Standardeinstellungen sind OK.

SoundBridge installieren

SoundBridge starten

Wenn Sie SoundBridge starten, wird der folgende Bildschirm angezeigt. Geben Sie Ihre Kontoinformationen ein und melden Sie sich an.

SoundBridge-Start

SoundBridge-Beispielprojekt

Bei der Installation mit der Standardeinstellung wird das Beispielprojekt im Verzeichnis Dokumente installiert. Öffnen Sie dies über das Menü Datei in der linken unteren Ecke von SoundBridge. Einige Projekte konnten aufgrund von Fehlern nicht geöffnet werden. ExampleProject.soundbridge wurde geöffnet.

SoundBridge-Datei öffnen

Ich werde es spielen.

SoundBridge-Wiedergabe

Wenn Sie versuchen, das Popup-Beispielprojekt zu bearbeiten, das Sie zur Registrierung in SkyTracks.io auffordert, wird es angezeigt und Sie können es nicht bearbeiten. Öffnen Sie ein neues Projekt, wenn Sie es bearbeiten möchten.

Klavierrolle von SoundBridge

Es ist dasselbe wie eine allgemeine DAW-Klavierrolle.

SoundBridge Klavierrolle

SoundBridge Mixer

Es ist das gleiche wie der allgemeine DAW-Mixer.

SoundBridge Mixer

Was ist die SoundBridge Academy?

SoundBridge Academy ist ein kostenpflichtiges Online-Videomaterial, das Sie über Musikproduktion lernen können. Es kann nützlich sein, die DAW-Projektdatei anzufügen. Es ist möglicherweise möglich, eine Ansicht namens DAW mit einem reich bezahlten Handbuch zu sehen.

SoundBridge Academy

SoundBridge's Ruf

Ich hatte Probleme mit Ozone 8-Plugins, die die Anwendung v1.09 einfrieren, und eine einfache E-Mail erzeugte eine schnelle Antwort und ein rechtzeitiges Update, um dies zu beheben.

Quelle

Es scheint, dass wenn Sie einen Fehler melden, dieser durch Eile behoben wird.

Ich würde gerne eine monatliche Gebühr zahlen, um Zugriff auf Ihre Lerninhalte und Lernprogramme zu haben, und Sie können es für Anfänger interessant halten Lernende mit monatlichen Vergünstigungen / Musterkits usw.

Quelle

Der Ort, um Musiktheorie zu lernen, scheint der Charme von SoundBridge zu sein.

Lädt SoundBridge für die Zukunft auf?

Um all dies für möglichst viele Menschen zugänglich zu machen, haben wir uns entschlossen, die Software komplett kostenlos zu machen.

Quelle

Obwohl es keine Garantie dafür gibt, dass es in Zukunft nicht in Rechnung gestellt wird, da es mit Musikunterrichtsmaterial überwacht, ist die DAW selbst wahrscheinlich lange Zeit kostenlos, wenn diese Methode gut läuft.

Ableton und PreSonus bieten Tipps und hilfreiche Inhalte zu kostenlosen Blogs und können mit DAW zusammenarbeiten. SoundBridge kann es möglicherweise in umgekehrter Reihenfolge anzeigen.

Zusammenfassung

Wir haben die kostenlose DAW, SoundBridge, die 2018 veröffentlicht wurde, eingeführt.

Ich habe Videos und Demonstrationsaudios erstellt, die den Effekt von "ClearMixer" zeigen.

ClearMixer

Wir werden Filme und Demo-Audio vorstellen, die die Wirkung von "ClearMixer" verstehen.

Einführungsvideo "ClearMixer"

"ClearMixer" - Einführungsvideo

Statuseinstellung

Im Film klingeln Band Noise (Schmalbandrauschen) und Sinuswelle (Sinuswelle) gleichzeitig. Normalerweise können Sie in dieser Situation Trübungen hören, wenn die Lautstärke von Band Noise und Sinus etwa gleich ist, aber es wird gezeigt, dass die Verwendung von "ClearMixer" die Trübung verringert.

Steuerung der Interferenz mit dem Parameter "Intensität"

Von 0: 21 bis 0: 37 manipuliere ich den Parameter "Intensität" von "ClearMixer" und kontrolliere die Interferenz zwischen Bandrauschen und Sinuswelle. Durch Erhöhen der "Intensität" von "ClearMixer" wird die Lautstärke des Bandrauschens in der Band verringert, in der Sine Wave klingelt. Ich denke, es ist leicht zu verstehen, wenn Sie mit Kopfhörern hören. Sie können es mit dem Spektrumanalysator von "ClearMixer" sehen, der im Film gezeigt wird. Dies macht Sine Wave leichter zu hören.

Ausgangston über Parameter "Output" umschalten

Von 0: 38 bis 0: 47 wird der Ausgangston durch Betätigen des Parameters "Output" von "ClearMixer" umgeschaltet. Sounds, die von Dry nicht mit ClearMixer verarbeitet werden, und Wet steht für Sounds, die von ClearMixer verarbeitet werden. Wet - Dry steht für den Differenzton vor und nach der ClearMixer-Verarbeitung. Interferenz repräsentiert die Interferenzkomponente. Ich denke, dass der Effekt der Interferenzreduzierung beim Hören von Wet - Dry leicht zu verstehen ist.

Hören Sie nur Bandrauschen

Von 1: 00 bis 1: 12 stelle ich Sine Wave stumm und spiele nur Bandrauschen wieder, dann kontrolliere ich Interferenzen. Ich denke, dass der Interferenzreduzierungseffekt von ClearMixer besser verstanden wird, wenn Sine Wave stummgeschaltet wird.

Ändern Sie die Lautstärke von Sinus

1: 18 ~ 1: 38 ändert sich die Lautstärke von Sine Wave. Wenn Sie den Spektrumanalysator von "ClearMixer" betrachten, können Sie sehen, dass sich der Interferenzreduzierungsgrad des Bandrauschens abhängig von der Lautstärke der Sinuswelle ändert. Ich denke, dass ich mich fast unwohl fühle, weil es sich reibungslos ändert.

Demo-Audio "ClearMixer"

Ursprüngliches Audio

Audio nach dem Anwenden von "ClearMixer"

Audio (überzogen) nach dem Anwenden von "ClearMixer"

Kommentar

Obwohl der Unterschied zwischen Original-Audio und Audio nach der Anwendung von "ClearMixer" ein subtiler Unterschied ist, denke ich, dass es leicht zu hören ist, wenn man die Interferenz zwischen dem Basis-Oberton und dem Mittenbereich des Klaviers beachtet. Ich denke, dass es insgesamt sauber ist.

Nach dem Anwenden von "ClearMixer" denke ich, dass Sie das Hören von Audio verstehen können (übermäßige Anwendung). Wenn jedoch die Interferenz zu stark reduziert wird, ist der Klang etwas unangenehm. Ich denke, dass es gut ist, die Anzahl der Interferenzen zu kontrollieren, während der Index "Total Interference" von "ClearMixer" betrachtet wird. Zum Vergleich: "Total Interference" des Originalaudios beträgt etwa 15%, "Total Interference" des Audios nach dem Anwenden von "ClearMixer" beträgt etwa 8%, "Total Interference" des Audios nach dem Anwenden von "ClearMixer" beträgt etwa 3%. Es ist

Ich denke, es ist ein Vorteil, dass "ClearMixer" verwendet werden kann, um objektiv zu mischen, während Indizes betrachtet werden.

"ClearMixer" neueste Version herunterladen

Demo-Version

Produktversion

Produktversion kaufen

* Update-Methode: Führen Sie install.bat aus und es ist OK.

* Bitte beachten Sie die mitgelieferte README.

Zusammenfassung

Wir haben Videos und Demonstrationsaudios eingeführt, die die Wirkung von "ClearMixer" zeigen.

"AI Mastering" Update

AI Mastering wurde aktualisiert. Unten ist der Update-Inhalt.

Löschfunktion meistern

Die Funktion zum Löschen des Masterings wurde hinzugefügt. Sie können in jedem Mastering-Detailbildschirm vom "Master-Listenbildschirm" oder vom "Bearbeiten-Button" löschen. Bitte beachten Sie, dass es nicht rückgängig gemacht werden kann. ※ Kann nicht in der Smart-Version verwendet werden

Mastering-Bearbeitungsschaltfläche

Mastering Delete-Schaltfläche

Schutzfunktion beherrschen

Wir haben eine Funktion hinzugefügt, die das Mastering schützt und verhindert, dass es automatisch gelöscht wird. Mit der Funktion "Premium Plan Limited" können Sie bis zu 100 gleichzeitig schützen. Die Aufbewahrungsfrist ist die Vertragslaufzeit des Prämienplans. ※ Kann nicht in der Smart-Version verwendet werden

Wie zu verwenden

Sie können über die Schaltfläche "Bearbeiten" auf dem Mastering-Listenbildschirm oder jedem Mastering-Detailbildschirm "schützen".

Mastering-Bearbeitungsschaltfläche

Mastering Preserve-Taste

Ob es geschützt ist oder nicht, wird in der Mastering-Liste mit "Status" angezeigtSie können mit überprüfen.

Mastering Check Wenn erhalten

Hinweise

Es ist nicht vorgesehen, wichtige Daten mit der Schutzfunktion zu speichern. Ich empfehle, wichtige Daten herunterzuladen und Sicherungskopien aufzubewahren.

Videocodierung mit angemessenen Prioritäten

Wir haben uns dazu entschieden, Videocodierung mit angemessener Priorität durchzuführen. Selbst wenn es mehr Meister gibt, ist es schwer, davon betroffen zu sein.

Der Mastering-Prozess selbst wurde mit angemessenen Prioritäten durchgeführt, seine Prioritäten wurden jedoch nicht auf die Videocodierung angewendet. Wenn es jemanden gab, der beherrschte, wurde die Tonquelle so schnell wie möglich fertiggestellt, aber es gab das Phänomen, dass das Bewegtbild langsam fertiggestellt wurde. Es ist ein Fix, um es zu lösen.

Anzeigeinhalt der Abrechnungsliste ändern

Der Anzeigeinhalt der Abrechnungsliste auf der Seite "Benutzereinstellung" wurde korrigiert.

Wenn Sie den PayPal-Link öffnen, die Abrechnung jedoch nicht abschließen, wurde "unbezahlt" angezeigt. Dies war jedoch schwer zu verstehen und wurde daher überhaupt nicht angezeigt.

Fehler behoben, bei dem die Anmeldung fehlgeschlagen ist

Es wurde ein Fehler behoben, bei dem die Anmeldung bei der Desktopversion oder bei einigen Browsern fehlgeschlagen ist. Wir entschuldigen uns für etwaige Unannehmlichkeiten. Laden Sie die neueste Version von dem Link unten herunter.

Laden Sie die neueste Desktopversion herunter

Was ist ein Limiter-Fehler?

Limiter-Fehler

Wir führen den "Begrenzerfehler" von AI Mastering ein.

Was ist "Begrenzerfehler"?

"Limiter-Fehler" ist der Klangfehler, der durch den Begrenzungsprozess von AI Mastering verursacht wird .

Wenn der Schalldruck mit dem Limiter zu stark angehoben wird, wird der Klang im Allgemeinen verzerrt, aber der Limiter-Fehler drückt diese Verzerrung quantitativ aus. Es ist auf der Grundlage der Psychoakustik so konzipiert, dass es dem menschlichen Sinn möglichst nahe kommt. Die Einheit ist dB. Wenn der Begrenzerfehler 1 dB oder weniger beträgt, sollten Sie den Unterschied nicht hören können.

Die Figur ist vereinfacht, berechnet aber etwas komplizierter.

Limiter-Fehler

Ursache des Auftretens eines "Begrenzerfehlers"

Die Ursache des Begrenzerfehlers besteht darin, dass die Wellenform verzerrt wird, wenn versucht wird, den Schalldruck näher an den Zielschalldruck zu bringen, während die Spitze der Wellenform durch Begrenzen der Verarbeitung auf weniger als die Obergrenze begrenzt wird.

Es gibt einige Klänge, die mit Begrenzung verzerrt und verzerrungssicher sind. Ob Verzerrungen einfach sind, hängt vom Limiter ab. Im Fall von AI Mastering sind Percussion-Instrumente jedoch schwer zu verzerren, Bass, Sinuswellen nahe, anhaltende Sounds sind leicht zu verzerren .

Tipps, um keinen "Begrenzerfehler" zu erzeugen

Soll-Schalldruck verringern

Durch Absenken des Zielschalldrucks können Sie den Begrenzerfehler leichter reduzieren. Dies ist das Beste, wenn Sie den Schalldruck senken können.

"Deckenmodus" ist auf "Spitze" eingestellt.

Beim benutzerdefinierten Mastering von AI Mastering können Sie zwischen der Begrenzung basierend auf True Peak oder Normal Peak mit der Option "Ceiling Mode" wählen.

Da der Peak aufgrund von True Peak konservativer unterdrückt wird, sinkt die Obergrenze und es treten tendenziell Limiter-Fehler auf.

Der Begrenzerfehler kann reduziert werden, indem "Deckenmodus" auf "Spitze" gesetzt wird . Es ist eher wahrscheinlicher, dass es durch verlustbehaftete Kompression verzerrt wird.

Kleiner Basisgipfel

Der Bass ist ein tiefer, anhaltender Klang nahe der Sinuswelle, so dass der Limiter leicht verzerrt werden kann.

Obwohl dies nicht auf AI Mastering beschränkt ist, können Sie, wenn Sie einen Amp-Simulator usw. verwenden, um die Obertöne des Basses zu erhöhen , den Peak unter Beibehaltung der hörbaren Lautstärke verringern. Stattdessen ändert sich die Klangqualität.

Mir ist es egal, dass der "Limiter-Fehler" groß ist

Es gibt musikalisch akzeptable und nicht akzeptable Fälle, in denen ein "Begrenzerfehler" auftritt.

Zum Beispiel ist der Sound des Basses vorübergehend zu groß und der Peak tritt hervor. Wenn Sie also den Bass insgesamt absenken, wird ein "Limiter-Fehler" auftreten, aber ich denke, dass er musikalisch akzeptabel ist.

Auf der anderen Seite denke ich, dass es musikalisch nicht akzeptabel ist, wenn es verzerrt wird, indem der Basispeak in derselben Situation zwangsweise unterdrückt wird.

"Wenn kein Begrenzerfehler aufgetreten ist, gibt es kein Problem" wird festgestellt (zumindest obwohl er eingerichtet werden soll), "Es ist ein Problem aufgetreten, wenn ein Begrenzerfehler aufgetreten ist" .

Es ist also auch eine Hand, dass Sie nichts dagegen haben, dass der "Limiter-Fehler" groß ist, wenn Sie mit Ihren Ohren hören und kein Problem haben.

Verbesserungsplan "Limiter-Fehler-Spektrogramm"

"Ein Begrenzerfehler", der von AI Mastering angezeigt wird, ist der Durchschnitt der gesamten Klangquelle. In Wirklichkeit unterscheidet sich der lokale "Begrenzerfehler" für jede Zeit und jedes Band.
Wenn es so etwas wie ein Spektrogramm des "Begrenzerfehlers" gibt, können Sie sehen, zu welcher Zeit und in welchem Bereich der "Begrenzerfehler" auftritt, und Sie können die Ursache leicht ermitteln.

Es wird geprüft.

Zusammenfassung

Wir haben den "Begrenzerfehler" von AI Mastering vorgestellt.

PhonicMind - ein Online-Dienst, mit dem Gesang aus Tonquellen extrahiert / entfernt werden kann

Wir stellen PhonicMind vor, einen Onlinedienst, der nur Gesang aus der Tonquelle extrahiert und entfernt, und andere ähnliche Software / Dienste.

Was ist PhonicMind?

PhonicMind ist ein Onlinedienst, der automatisch Gesang aus 2-Mix-Klangquellen extrahieren und entfernen kann.

Beim Hochladen der Tonquelle können Sie zwei Tonquellen herunterladen. Die Tonquelle hat nur den Gesang aus der Tonquelle extrahiert und die Tonquelle, die nur den Gesang entfernt hat.

PhonicMind offizielle Website

Phonic Minds Ruf

Wenn man sich die Antwort des Links unten ansieht, scheint der Ruf von PhonicMind gut zu sein.

PhonicMind, ein Vocal-Remover, der wirklich funktioniert, wenn es darum geht, den Gesang zu isolieren. HOHE EMPFEHLUNG! von vaporwave machen

Hat jemand PhonicMind ausprobiert? von IsolatedVocals

Wie funktioniert PhonicMind?

PhonicMind scheint ein tiefes neuronales Netz zu verwenden.

PhonicMind’s vocal remover uses deep neural networks to do vocal elimination.

Source: https://phonicmind.com/faq/

Andere Software zum Entfernen und Extrahieren von Gesang

Vocal Remover (vocalremover.org)

Wie auch PhonicMind ist VocalRemover ein Onlinedienst, der automatisch Vocals aus 2-Mix-Klangquellen entfernen bzw. extrahieren kann.

Sie können Vocals aus "Vocal Remover" im linken Menü und die Vokalextraktion aus "Vocal Extractor" entfernen.

Gesangsentferner

Als ich es ausprobierte, ist die Band nahe am Gesang und der Sound mit der Lokalisierung in der Mitte wird zusammen mit dem Gesang extrahiert. Bei der Vocal-Entfernung sind noch Hallkomponenten vorhanden.

Wie Sie sich vorstellen können, denke ich, dass Sie die traditionelle Methode zum Extrahieren von Vocals verwenden, indem Sie Informationen zu Lokalisierung, Frequenzband und Transienten verwenden.

VocalRemover (vocalremover.com)

Wie auch PhonicMind ist VocalRemover ein Onlinedienst, der automatisch Vocals aus 2-Mix-Klangquellen entfernen bzw. extrahieren kann.

VocalRemover

Ich habe es ausprobiert, die Qualität ist höher als bei vocalremover.org. Die Hallkomponente nach der Stimmentfernung ist ebenfalls schwach. Ich fühlte die gleiche Qualität wie PhonicMind.

Lakeside Audio Isola Pro FX

Lakeside Audio Isola Pro FX ist ein VST-Plug-In, mit dem verschiedene Instrumente aus 2-Mix-Klangquellen halbautomatisch extrahiert werden können.

Lakeside Audio Isola Pro FX

Es gibt "MIDI-Modus", der Hinweise zum Midi- und Automatikmodus gibt, um das Frequenzband festzulegen, und "MIDI-Modus" scheint eine höhere Qualität zu haben. Da es sich um VST handelt, kann es in Echtzeit verarbeitet werden.

Es ist ein Vergleichsvideo von PhonicMind und Lakeside Audio Isola Prox FX. Ein kleines Artefakt ist aufgetaucht, aber ich fühlte die gleiche Qualität wie PhonicMind.

iZotope RX 7

iZotope RX 7 ist eine eigenständige Software zum Reparieren und Anpassen von 2-Mix-Klangquellen, die sowohl die Musikproduktion als auch die Postproduktion unterstützt.

iZotope RX 7

Die erste Version von iZotope RX wurde 2007 angekündigt . Mit der Veröffentlichung von RX 7 im Jahr 2018 wurde die Funktion zum automatischen Extrahieren von Gesang, Bass, Percussion usw. aus der 2 - Mix - Klangquelle und zur Anpassung der Lautstärke hinzugefügt.

Gemäß den folgenden Informationen scheint es, dass ein neuronales Netz für einen Schallquellentrennungsalgorithmus verwendet wird.

The evolution of our intelligent audio technology continues with the Music Rebalance module in RX 7. Music Rebalance is a new tool that gives users the ability to boost, attenuate, or even isolate musical elements from audio recordings. It is a natural progression of our neural network-based source separation technology, first introduced in the forms of Dialogue Isolate and De-rustle in RX 6 and now evolved to extract multiple musical components from complex mixes.

Source: https://www.izotope.com/en/blog/music-production/exploring-the-technology-that-makes-rx-7-music-rebalance-possible.html

Audionamix XTRAX STEMS

Audionamix XTRAX STEMS ist eine eigenständige Software, die 2-Mix-Klangquellen vollständig in drei Vocals, Schlagzeug und andere Instrumente trennt.

Audionamix XTRAX STEMS

Nach diesen Informationen scheint es, dass Sie ein neuronales Netzwerk verwenden, das ADX TRAX überlegen ist.

Audionamix ADX TRAX

Audionamix ADX TRAX ist eine eigenständige Software, die Gesang extrahiert. Wir sind auf die Stimmextraktion spezialisiert. Im Gegensatz zu PhonicMind können Sie die Feineinstellung manuell vornehmen, während Sie das Spektrum beobachten.

Audionamix ADX TRAX

BlueLab-Ausgleich

BlueLab REBALANCE ist eine VST, mit der Sie die Lautstärke jeder 2 - Mix - Klangquelle einstellen können, die in 4 Vocals, Bass, Schlagzeug und andere Instrumente unterteilt ist. Es wird im Januar 2019 veröffentlicht. Es ist VST und kann somit in Echtzeit verarbeitet werden.

Ich habe es ausprobiert, es war weniger Qualität als PhonicMind. Ich denke, Sie verwenden einen traditionellen Algorithmus.

BlueLab-Ausgleich

Welcher Sprachentfernungs- / Extraktionsdienst sollte verwendet werden?

Ich möchte eine Karaoke-Klangquelle machen

Ich finde PhonicMind oder VocalRemover gut.

Da es sich um einen Webservice handelt, ist die Installation von Software und anderen Problemen nicht erforderlich.

Ich möchte mein Ohr kopieren

Ich denke, dass Lakeside Audio Isola Pro FX, IZotope RX 7 oder Audionamix XTRAX STEMS gut ist.

Andere Musikinstrumente als Gesang können auch extrahiert werden. Ich weiß nicht, welche davon besser ist, weil ich sie nicht benutze.

Zusammenfassung

Wir haben die Software / den Dienst zum Extrahieren und Entfernen von Vocals im Auftrag von PhonicMind eingeführt.

Anteil der DAW

DAW-Aktie

Ich habe die DAW-Aktie geprüft. Auf globaler Ebene ist Ableton Live, Logic Pro, beliebt. In Japan wurde festgestellt, dass Cubase und Studio One beliebt sind.

Anteil der DAW

DAW-Aktie
Es fasste die DAW-Aktie zusammen. Basierend auf dem Fragebogenergebnis von ask.audio in den Jahren 2015 und 2018 und dem Fragebogenergebnis von dtmstation.com in den Jahren 2016 und 2017.

Twitter-Anhänger der DAW

Twitter-Anhänger von DAW-Entwicklern

Ich habe die Anzahl der Follower für den Twitter-Account der DAW zusammengestellt.

Wenn es einen Twitter-Account von DAW gibt, haben wir die Anzahl der Follower des Twitter-Kontos der DAW und die Anzahl der Follower des Twitter-Kontos des Unternehmens angegeben, wenn es keinen Twitter-Account der DAW und den Twitter-Account der DAW gibt, 0 wenn nicht. Bitte beachten Sie, dass der Twitter-Account des Unternehmens tendenziell mehr Follower hat als der DAW-Twitter-Account. Daher ist er nicht unbedingt beliebt, da es viele Follower gibt.

DAW-Veröffentlichungsjahr

Erstes Veröffentlichungsdatum der DAW

Ich habe das Jahr zusammengefasst, in dem die DAW veröffentlicht wurde.

Viele Unternehmen haben Midi Sequencer als Vorgänger der DAW entwickelt, aber in diesem Fall ist das Erscheinungsjahr von Midi Sequencer das Veröffentlichungsjahr. Digital Performer stellt 1984 als Vorgänger von Midi Sequencer die Software zur Erstellung von "Professional Composer" -Produkten her, die jedoch nicht in der ursprünglichen Version enthalten ist.

Aktienbetrachtung der DAW

Cubase und Studio One sind in Japan beliebt

Laut dem Fragebogenergebnis von dtmstation.com sind Cubase und Studio One in Japan beliebt. Ich hatte erwartet, dass Cubase und Studio One in Japan sinnlicher sein würden, aber die Ergebnisse waren genau wie erwartet.

Ableton Live ist weltweit beliebt

Ableton Live ist laut Fragebogenergebnis von ask.audio weltweit beliebt. Obwohl dieses Ergebnis nicht so vernünftig war, war Ableton Live aufgrund der Anzahl der Follower auf Twitter- und ähnlichen Web-Daten durchaus beliebt. ※ Ähnliche WEB-Daten werden nicht veröffentlicht.

Warum unterscheidet sich populäre DAW zwischen Japan und global?

Es besteht die Möglichkeit, dass zwischen der globalen und der japanischen DAW-Aktie unterschieden wird, ob sie sich auf japanisches Marketing oder auf japanisches Marketing konzentriert. Unterschiede in der populären Musik können eine der Ursachen sein.

Grund dafür, dass Ableton Live der weltweit beliebteste ist

Ich habe es mit Ableton Live versucht

Ich habe tatsächlich versucht, Ableton Live zu nutzen, um herauszufinden, warum Ableton Live weltweit an Popularität gewonnen hat.

Im Vergleich zu Cubase, Studio One und FL Studio wurde kein großer Unterschied festgestellt. Orte, an denen Muster platziert werden können, befinden sich in der Nähe von FL Studio, Piano Rolls und Mixer in der Nähe von Cubase und Studio One. Es ist möglich, dass Sie den Unterschied nicht kennen, es sei denn, Sie verwenden ihn längere Zeit.

Klicken Sie hier für die Ableton Live-Testversion

Stimme des Ableton Live-Benutzers

Ableton Live ist gut in Sachen Audio

Not the best when it comes to dealing with actual audio clips, as opposed to MIDI. Still very capable, but a little more scattered and convoluted than Ableton and Logic.

Honestly? I use FL because I torrented a copy in high school, and got used to the workflow. I did eventually buy a copy because I’m not a douche. I use ableton as well now, because it’s much better for working with audio clips and live performance.

Source: https://www.reddit.com/r/edmproduction/comments/6lp1ix/what_daw_do_you_use_and_why/

Ableton Live scheint im Ton besser zu sein als FL Studio.

Ableton Live braucht Zeit, um es zu meistern

Ableton is a bit more expensive and might be more harder to learn, FL is less expensive and it’s lifetime + kind if beginner friendly at first.

Source: https://www.reddit.com/r/edmproduction/comments/6lp1ix/what_daw_do_you_use_and_why/

Haha that’s the normal first reaction to opening Ableton — “wtf is this”

Source: https://www.reddit.com/r/WeAreTheMusicMakers/comments/82qf7i/which_daw_is_right_for_me/

Ableton Live scheint Zeit zu lernen.

Ableton Live benötigt weniger Zeit zum Meistern

I really dislike the fact that people call FL beginner friendly compared to Ableton. Having used both for years, Ableton is so much easier to get into. Could be just me tho.

Source: https://www.reddit.com/r/edmproduction/comments/6lp1ix/what_daw_do_you_use_and_why/

Es gibt auch die Meinung, dass Ableton Live tatsächlich einfach zu bedienen ist.

Ableton Live eignet sich für die Hip-Hop-Produktion

Now that being said….Ableton….w/Push 2 is the goat DAW if you are into sample based production…specifically chopping samples…real hip hoppy stuff. My beef with Ableton is its archaic windows 98 looking interface.

Source: https://www.reddit.com/r/edmproduction/comments/6lp1ix/what_daw_do_you_use_and_why/

Die Verwendung von Ableton Live mit Ableton Push 2 scheint für die Hip-Hop-Produktion gut zu sein. Es besteht die Möglichkeit, dass Ableton Live im Trend der in den Vereinigten Staaten beliebten Hip-Hop-Szene beliebt ist.

Ableton Live-Benutzer sind freundlich

Ableton user forums are generally quite helpful and the community will treat a newcomer with some respect. You better put on your bulletproof vest when using the FL Studio user forums because I’ve never seen that many arrogant pricks in one place in all my life! They’d rather ridicule you than answer your simple question (even the Image-Line employees!). Thankfully I know the software pretty well now so I avoid their forums at all costs.

Source: https://www.quora.com/Why-is-Ableton-Live-more-popular-than-FL-studio

Ableton Live-Benutzer scheinen freundlicher zu sein als FL Studio-Benutzer.

Ableton Live fördert das Wachstum von Künstlern

What makes Ableton makes so good is number 1 its relationships with simple and complex ways of doing things, it has a germen quality about it t, in other words, the UI, the look and feel is very high, enabling high flow ie its easy to “waste” hours playing with sounds, there are crucial in becoming a better producer, a weekend playing and making sounds rather than “songs” is more valuable in learning, than a 6 month class (or do both)h.

Source: https://www.quora.com/Why-is-Ableton-Live-more-popular-than-FL-studio

Da Ableton Live seit langem auf natürliche Weise verwendet wird, besteht die Meinung, dass es einfach ist, als Künstler zu wachsen.

DAW von Top-Künstlern genutzt

Wenn Sie Ableton Live als Sehnsuchtskünstler verwenden, wird Ableton Live möglicherweise populär.

Marshmello: Ableton Live, FL Studio, Logic Pro

Nach diesen Informationen verwendet Marshmello möglicherweise Ableton Live, FL Studio und Logic Pro.

Travis Scott: FL Studio

Laut diesen Informationen verwendet Travis Scott möglicherweise FL Studio.

Andere Künstler

Laut diesen Informationen scheinen Calvin Harris, David Guetta, Armin van Buuren, Skrillex und Zedd Pro Tools, FL Studio, Ableton Live, Logic Pro, Cubase und Studio One zu verwenden.

Referenzen

DAW-Fragebogen

https://ask.audio/articles/top-12-most-popular-daws-you-voted-for
https://ask.audio/articles/the-top-11-most-popular-daws-you-voted-for

Fragebogen-Ergebnisse

DAWs Twitter

Ableton Twitter: https://twitter.com/Ableton
Pro Tools Twitter: https://twitter.com/AvidProTools
Steinberg Twitter: https://twitter.com/steinbergmedia
FL Studio Twitter: https://twitter.com/fl_studio
PreSonus Twitter: https://twitter.com/presonus
Propellerhead Software Twitter: https://twitter.com/propellerheadsw
Cockos Twitter: https://twitter.com/cockos
Cakewalk Inc. Twitter: https://twitter.com/cakewalkinc
Bitwig Twitter: https://twitter.com/bitwig
MOTU Twitter: https://twitter.com/motutech

DAW-Veröffentlichungsjahr

Ableton Live Initial Release Date: https://en.wikipedia.org/wiki/Ableton_Live
Logic Pro Initial Release Date: https://en.wikipedia.org/wiki/Logic_Pro
Pro Tools Initial Release Date: https://en.wikipedia.org/wiki/Pro_Tools
Cubase Initial Release Date: https://en.wikipedia.org/wiki/Steinberg_Cubase
FL Studio Initial Release Date: https://en.wikipedia.org/wiki/FL_Studio
Studio One Initial Release Date: https://en.wikipedia.org/wiki/Studio_One_(audio_software)
Reason Initial Release Date: https://en.wikipedia.org/wiki/Reason_(software)
Reaper Initial Release Date: https://en.wikipedia.org/wiki/REAPER
Sonar Initial Release Date: https://en.wikipedia.org/wiki/Cakewalk_(sequencer)
Garage Band Initial Release Date: https://en.wikipedia.org/wiki/GarageBand
Bitwig Studio Initial Release Date: https://downloads-as.bitwig.com/stable/1.0.1/release-notes-1.0.1.html
Digital Performer Initial Release Date: https://en.wikipedia.org/wiki/Digital_Performer

Zusammenfassung

Ich habe die DAW-Aktie geprüft.

Ich habe festgestellt, dass sich die beliebte DAW zwischen der Welt und Japan unterscheidet. Global, Ableton Live, Logic Pro sind beliebt, in Japan Cubase ist Studio One beliebt. Dafür gibt es viele Gründe, aber ich wusste nicht, was klar war.