00:00:00: Das beste Format gibt es natürlich in dem Sinn nicht, aber es sollte nicht zu komprimiert sein.
00:00:06: Also entweder ein unkomprimiertes Format, also FLAC oder WAV.
00:00:11: FLAC hat den Vorteil, dass es kleiner ist von der Größe her und trotzdem die gleiche Qualität hat.
00:00:16: Oder eben ein komprimiertes Format wie MP3, Opus, AAC.
00:00:22: Dann ist vielleicht gut, wenn man nicht die kleinste Bitrate verwendet,
00:00:26: weil dann wird das das Material natürlich vorher schon schlechter gemacht und
00:00:30: das will man natürlich vermeiden.
00:00:32: Music.
00:00:38: Hallo und herzlich willkommen beim Podcast übers Podcasten.
00:00:44: Mein Name ist Brigitte Hagedorn, ich bin Autorin und Podcast-Trainerin.
00:00:50: Heute spreche ich mit Georg Holzmann, dem Gründer von Auphonic, über Auphonic.
00:00:57: Auphonic ist ein Webdienst für die Audio-Postproduktion und wirklich einfach anzuwenden.
00:01:04: Also Audio hochladen, sagen was man möchte und Audio in verbesserter Qualität wieder herunterladen.
00:01:14: Ich bin wirklich Fan von Auphonic und freue mich, dass Georg Holzmann aus Graz
00:01:18: sich heute die Zeit für ein Gespräch mit mir nimmt.
00:01:23: Hallo Georg. Hallo Brigitte, danke für die Einladung.
00:01:27: Sehr gerne. Wir haben vor einigen Jahren schon mal über Auphonic gesprochen
00:01:33: und mittlerweile hat sich da eine ganze Menge geändert und viele neue Parameter
00:01:39: sind dazugekommen und ich nehme an,
00:01:42: dass ihr da noch weitere Dinge plant.
00:01:46: Vielleicht, um das nochmal deutlich zu machen,
00:01:49: ihr, also Auphonic, entwickelt Algorithmen und diese werden auf die Audios,
00:01:58: die man bei euch hochladen kann, quasi losgelassen.
00:02:03: Ist das richtig? Ja.
00:02:05: Ja, genau. Also wie man da schon im Hintergrund hört, zum Beispiel so Katzen,
00:02:12: die dann reinfunken, das wollte ich gerade raus.
00:02:14: Also wie man zum Beispiel da im Hintergrund vorher gehört hat,
00:02:17: so Katzenschreie kann man, wenn man will, ganz einfach mit unserem System rausrechnen lassen.
00:02:24: Aber jetzt mal kurz zum Überblick, was wir überhaupt so tun.
00:02:27: Also gestartet hat es eben, um die Audiobearbeitung leichter zu machen,
00:02:34: vor allem für Podcaster und ähnliche Audioaufnahmen.
00:02:38: Also wir versuchen im Lautstärkenamt zugleich zwischen verschiedenen Sprechern
00:02:42: Hintergrundgeräusche rauszurechnen oder Hall und Reverb oder eben auch so nicht
00:02:49: statische Geräusche wie Katzen und so weiter.
00:02:53: Und da kann man alles Mögliche spezifizieren, wie genau man sein Audio haben will.
00:02:59: Weil manchmal will man ja solche Soundeffekte auch drinnen haben,
00:03:02: manchmal will man sie herausnehmen.
00:03:03: Das ist immer unterschiedlich natürlich.
00:03:06: Dann haben wir auch noch so andere Dienste, alles was zur Automatisierung von
00:03:11: Aufnahme- und Nachbearbeitungsworkflow dazugehört.
00:03:14: Also Metadaten richtig reinschreiben in verschiedene Audioformate oder gewisse
00:03:20: Sachen rausschneiden, schneiden, so wie viel Wörter oder so viel Stille, wenn man das will.
00:03:26: Und dann auch so das Publizieren der Produktionen auf verschiedenen Servern,
00:03:31: sei es YouTube, Soundcloud, einen eigenen Server, was es da alles halt gibt.
00:03:38: Und zusätzlich machen wir auch noch so Spracherkennung, also Transkription von
00:03:43: einem Gespräch oder von einer Aufnahme.
00:03:46: Und daraus leiten wir dann auch noch so automatische Shownotes,
00:03:52: also Notizen ab und Kapitelmarken, wo was passiert, damit dann alles möglichst automatisch passiert.
00:04:00: Das ist ein großes Überview einmal über unser System.
00:04:05: Dankeschön für den Überblick. Und dann würde ich direkt mal zu dem Dienst oder
00:04:11: zu dem Service oder ich weiß mal nicht, wie ich das nennen soll,
00:04:15: der Spracherkennung kommen.
00:04:19: Ja. Ich weiß, dass ihr das nicht selbst gemacht habt, sondern man musste sich
00:04:27: mit einem anderen Service verbinden.
00:04:30: Macht ihr das jetzt selber?
00:04:33: Ja, beides. Früher haben wir eben externe Spracherkennungsdienstleister angebunden.
00:04:39: Das haben wir noch immer, das geht ja noch immer. Da haben wir Speechmatics,
00:04:43: das ist eine englische Firma, die ganz viel in dem Bereich machen.
00:04:46: Und ansonsten auch die üblichen Größen wie Google, Cloud Speech API oder Amazon
00:04:52: hat auch so eine Spracherkennungs-API.
00:04:55: Dann BTI, das ist von Facebook eigentlich oder von Meta.
00:04:59: Und mittlerweile haben wir aber ein eigenes Service, was auf WISPA aufbaut,
00:05:04: das ist das Modell von OpenAI, wie wir es ja Open Source gestellt haben,
00:05:09: und das verwenden wir als Basis und darauf haben wir eben noch einige Vor- und
00:05:15: Nachbearbeitungsalgorithmen die das dann mit mehreren Sprechern.
00:05:21: Ansteuern und alle möglichen Nach- und Vorbereitungen, damit das dann besser
00:05:26: dass es funktioniert oder einigermaßen gut funktioniert.
00:05:29: Euer Service ist bis zwei Stunden im Monat kostenfrei,
00:05:36: aber für diese Spracherkennung zum Beispiel braucht man einen kostenpflichtigen
00:05:42: Account nicht, aber muss man zahlender Nutzer sein.
00:05:47: Da würde mich interessieren, ob ich da so ein Abo für haben muss oder ob ich
00:05:53: auch einen zeitbegrenzten Credit kaufen kann und dann auch die Spracherkennung nutzen kann.
00:06:03: Das stimmt. Die Spracherkennung ist eines der wenigen Sachen,
00:06:06: die nicht für freie Accounts sind, weil wir einfach irgendwie eine Einschränkung
00:06:10: brauchen bei der Spracherkennung.
00:06:12: Also bei den Audi-Algorithmen, das ist ja wirklich unsere eigene Entwicklung.
00:06:16: Spracherkennung verwenden wir hauptsächlich zu diesem Open-Air-Whisper-Model. Genau.
00:06:22: Das kann man auch bei anderen Dienstleistern oder selbst halt probieren.
00:06:25: Insofern geht es uns natürlich hauptsächlich um die Audio-Verarbeitung,
00:06:30: weil das unser Hauptsteckenpferd ist.
00:06:32: Die kann man mit einem freien Account auch probieren, bis zu zwei Stunden pro Monat.
00:06:37: Dann kann man eben so eine Subscription kaufen, also monatliche Zahlung oder
00:06:41: auch One-Time-Credits nennen wir das. Also einfach einmal Käufe.
00:06:46: Und egal was du jetzt hast, ob du eine Subscription hast oder One-Time-Credits,
00:06:50: Also sobald man irgendwie gekaufte Credits hat, dann kann man auch die Spracherkennung
00:06:55: verwenden und alle anderen Features.
00:06:58: Wunderbar. Dann gehen wir doch mal auf eure Plattform, auf aphonic.com.
00:07:06: Alles startet quasi mit dem Upload des eigenen Audios.
00:07:11: Was wäre denn hier immer das beste Format, was man hochladen sollte?
00:07:17: Das beste Format gibt es natürlich in dem Sinn nicht, aber es sollte nicht zu komprimiert sein.
00:07:23: Also entweder ein unkomprimiertes Format, also Flak oder Waff.
00:07:27: Flak hat den Vorteil, dass es kleiner ist von der Größe her und trotzdem die gleiche Qualität hat.
00:07:33: Oder eben ein komprimiertes Format wie MP3, Opus, AC.
00:07:39: Dann ist es vielleicht gut, wenn man nicht die kleinste Bitrate verwendet,
00:07:43: weil dann wird das Material natürlich vorher schon schlechter gemacht und das
00:07:47: will man natürlich vermeiden.
00:07:49: Dann kann man auch das Outro und das Intro hinzufügen, das Podcast-Cover und Metadaten.
00:07:59: Beim Podcasten werden die beim Hosten ja in der Regel eingetragen,
00:08:03: aber wenn man ein Audio eben nicht als Podcast veröffentlicht,
00:08:07: kann ich bei Metadaten Infos zum Audio hinzufügen.
00:08:12: Werden diese in allen Audioformaten angezeigt? Ja.
00:08:19: Genau, wir mappen die eben auf verschiedene Audio-Formate. Es gibt verschiedene
00:08:23: Metadatensysteme, eben für MP3 oder Videos oder Opus-Files,
00:08:29: also in einem OQ-Container oder AT-Files, was meistens in einem MP4-Container ist.
00:08:35: Und dann mappen wir die eben so hin, dass das überall passt.
00:08:38: Was du zum Hostel gesagt hast, die meisten Hoster schreiben keine Metadaten
00:08:44: in die Audio-Dateien. Das ist aber überall unterschiedlich.
00:08:48: Die Hoster schreiben halt meistens oder auf alle Fälle die Metadaten in den Feed,
00:08:54: aber zusätzlich sind dann in der Audiodatei meistens zusätzliche Metadaten,
00:08:59: wie zum Beispiel die Chapters die sind dann oft nicht im Feed und nur in der
00:09:02: Audiodatei deswegen muss man das dann meistens in der Audiodatei hinterlegen weil sonst kannst du,
00:09:08: Podcast-Player meistens nicht anzeigen aber das ist von Hoster zu Hoster und
00:09:12: von Player zu Player natürlich unterschiedlich Aber das ist sehr interessant, das wusste ich nicht.
00:09:17: Ich dachte, die würden dann quasi auch immer wie die Metadaten in der Datei sein.
00:09:23: Nein, nein, das sind zusätzliche Metadaten. Also in einem Feed stehen ja Metadaten,
00:09:27: die der Podcast-Client herunterladert und im Feed ist ja dann nur der Link zur
00:09:32: Audit-Datei drinnen und dann wird die Audit-Datei heruntergeladen und dort sind
00:09:36: nochmal extra Metadaten drin.
00:09:38: Und das wäre auch gut, die da drinnen zu haben? Oder ist das dann überflüssig? Genau.
00:09:43: Also Chapters werden zum Beispiel sonst, glaube ich, gar nicht angezeigt. Ah.
00:09:47: Zum Beispiel bei den anderen. Das kommt dann wiederum auf den Player natürlich
00:09:51: drauf an, welche Metadaten er nimmt.
00:09:53: Ob er jetzt die Metadaten vom Feed nimmt oder direkt von der Audiodatei,
00:09:56: das ist sehr kompliziert. Ja.
00:09:59: Aber wie so oft, denke ich dann auch immer, doppelt gemoppelt hält besser. Ja, genau.
00:10:06: Genau, Kapitelmarken kann man eben auch bei euch eintragen, die werden aber
00:10:12: eben nicht von jedem Player angezeigt.
00:10:14: Ich kann auch Bilder zu den einzelnen Kapiteln hochladen und da würde mich mal
00:10:22: interessieren, ich habe das noch nie ausprobiert,
00:10:25: aber könnte ich dann theoretisch ein Video,
00:10:30: also eine Diashow mithilfe eures Dienstes erstellen?
00:10:36: Ja genau, das machen ja einige, dass ich quasi so wie Slides zu den Chapters
00:10:42: einfach hinzufüge und dann werden diese Bilder eben in der zeitlichen Reihenfolge, wie man es will,
00:10:49: eingestellt, abgespielt zum Audio. Großartig.
00:10:54: Aber, ich meine, es gibt sicher einfachere Tools, um das zu machen, sage ich mal.
00:10:59: Ja gut, aber wenn man jetzt sowieso schon bei euch ist?
00:11:04: Ja, sicher. Es wird halt sicher schwierig, wenn du 200 Chapters hast oder 300.
00:11:09: Dann wird das Editieren ein bisschen müde.
00:11:12: Ich dachte jetzt vielleicht auch nur, wenn man so ein kleines Video macht, vielleicht von,
00:11:17: einem O-Ton, ja, und Und wenn man da dann nochmal so ein bisschen was wie ein
00:11:23: bewegtes Bild hat, sich Bilder wechseln, ist das doch ganz schön.
00:11:27: Ja, das stimmt. Dann wähle ich auf eurem Interface das Output-Format.
00:11:34: Also das Format, als das das Audio dann am Ende ausgeworfen wird.
00:11:40: Und hier bin ich immer etwas irritiert, weil ihr bei MP3 112 Kbit pro Sekunde
00:11:48: als Voreinstellung habt.
00:11:50: Und ich denke immer, ist das nicht ein bisschen niedrig oder schätze ich das vollkommen falsch ein?
00:11:58: Wenn du Sprachcontent hast, dann sollte das eigentlich reichen.
00:12:02: Und wenn ich noch Musik dazwischen habe, also Jingle und so,
00:12:06: dann? Das ist kein Problem.
00:12:08: Die Frage ist, ob du jetzt wirklich High-Quality-Musik-Content ausspielen willst.
00:12:15: Wahrscheinlich nicht. Oder ob du eben eher podcastmäßig Sprache bist.
00:12:22: Also ich persönlich finde 112 ein guter Kompromiss.
00:12:27: Du kannst natürlich gerne höher oder niedriger nehmen. Viele nehmen ja noch viel niedriger.
00:12:32: Noch niedriger. Weil wenn du lange Dateien hast, ist es natürlich von Vorteil,
00:12:37: wenn du niedrige Bitrate hast, wenn es eh nicht schlechter klingt,
00:12:42: weil dann die Dateien natürlich viel kleiner werden.
00:12:47: Und was ist der Vorteil, wenn ich eine variable Bitrate einstelle?
00:12:55: Ja, das ist auch eine lange Diskussion. Also prinzipiell gibt es ja bei mp3
00:13:00: auch variable bitrate, das heißt, dass je nachdem was gerade für ein Audio ist,
00:13:06: werden teilweise mehr Bits verwendet, um das zu enkodieren und teilweise weniger.
00:13:10: Das heißt, wenn zum Beispiel nur Stille ist, braucht man ja natürlich schon
00:13:13: weniger Bits, weil da nicht viel passiert.
00:13:15: Aber wenn jetzt ganz viel passiert, also verschiedene Instrumente oder verschiedene
00:13:19: Hintergrundgeräusche und Sprecher, bräuchte man theoretisch mehr Bits.
00:13:25: Also mehr daten um das zu modellieren und es gibt es auch schon ewig lang bei
00:13:31: mp3 konstante und variable bitrate und es ist auch eigentlich von allen unterstützt
00:13:36: insofern wäre theoretisch eigentlich variable bitrate besser.
00:13:40: Aber variable bitrate hat leider ein paar andere
00:13:43: probleme dass vor allem das
00:13:46: seeking in den files dann nicht mehr so gut funktioniert das
00:13:50: heißt wenn man jetzt zum beispiel im web player eine
00:13:53: mp3 datei spielt dann wird
00:13:56: er nicht zuerst die gesamte datei heruntergeladen sondern das
00:13:59: wird gleich mal angespielt und in chunks heruntergeladen und
00:14:03: wenn man dann irgendwo anders hinspringt zum beispiel zwei stunden später dann
00:14:07: funktioniert es mit variable bitrate mp3 files oft nicht weil dann die die falsche
00:14:13: stelle angesprungen wird und dann hat man wieder so ein versatz und das passt
00:14:17: dann wieder nicht so ganz zusammen und so weiter.
00:14:21: Deswegen ist bei Podcast eigentlich fast überall Constant Bitrate im Einsatz,
00:14:26: weil das einfach das Handling ein bisschen leichter macht beim Streamen.
00:14:31: Ah, sehr interessant. Bei Variabler Bitrate kann man eigentlich so eine Art
00:14:37: Qualität einstellen, die man haben will und der Encoder nimmt dann automatisch
00:14:42: die Datenmenge, die notwendig ist, um diese Qualität zu erreichen.
00:14:46: Und bei Constant Bitrate ist das ein bisschen anders. Also da sagt man halt
00:14:49: einfach nur ein Bitrate und gewisse Sachen kann man nur mit dieser Bitrate einfach
00:14:53: abbilden, so wie zum Beispiel Sprache ist natürlich einfacher als irgendein
00:14:56: komplexes Musikstück, wo alles mögliche passiert.
00:14:59: Genau, dann könnte ich eben über Auphonic auch ein Transkript erstellen und
00:15:06: Shownotes erstellen und sowas.
00:15:08: Und ich habe die Möglichkeit, sozusagen aus Auphonic mein Audio oder mein Video
00:15:16: direkt zu meinem Hoster oder auf einer anderen Plattform zu veröffentlichen.
00:15:21: Genau. Das finde ich auch total praktisch.
00:15:25: Plant ihr dann noch andere Plattformen, also YouTube ist dabei, Facebook?
00:15:30: Wir haben natürlich, keine Ahnung, ich glaube 20, 30 Services und da kann man
00:15:37: natürlich auch services dazu. zu mir.
00:15:40: So, und wenn man das jetzt alles ausgewählt hat, angeklickt hat.
00:15:45: Dann kommen diese Algorithmen, von denen du auch schon am Anfang gesprochen hast.
00:15:52: Was können die und wo sind die Grenzen?
00:15:56: Zum Beispiel hattest du vorhin einmal den Begriff Reverb genannt.
00:16:03: Ich versuche das jetzt mal sinnvoll ins Deutsche zu übersetzen,
00:16:06: also die Störgeräuschentfernung.
00:16:09: Und jetzt gibt es natürlich verschiedene Arten von Störgeräuschen.
00:16:13: Das kann jetzt natürlich ein konstanter Hintergrundrauschen sein.
00:16:18: Irgendwie so ein konstantes Rauschen von einer Aufnahme oder ein Lüfter,
00:16:22: der jetzt konstant hinten rauscht.
00:16:27: Dann können es natürlich so nicht stationäre Geräusche sein.
00:16:31: Zumindest nennen wir das so. Also zum Beispiel Klatschen oder wenn ich jetzt
00:16:34: auf den Tisch klopfe oder am Keyboard herumklopfe.
00:16:39: Also die nicht konstant über die Zeit ziehen.
00:16:43: Dann gibt es natürlich mit Reverb, also nach Hall am Aude, wenn man im Raum
00:16:51: aufnimmt, da hat man ja den Raum dann mit, das Hallige vom Raum oder in einer Kirche zum Beispiel.
00:16:59: Und dementsprechend gibt es verschiedene Möglichkeiten, die man jetzt im Moment
00:17:03: bei uns spezifizieren kann, was man eben genau raushaben will.
00:17:07: Also wir haben zum Beispiel diesen Static Denoiser, nennen wir das.
00:17:10: Der nimmt eben nur die statischen Geräusche raus, also alles was jetzt konstant ist, rauschend ist.
00:17:16: Dabei bleiben diese nicht stationären Geräusche, wie eben Klatschen oder sonst irgendwas über.
00:17:21: Oder wenn man eben so Soundeffekte einspielt, den mag man ja manchmal auch drinnen haben natürlich.
00:17:27: Dann die nächste Stufe wäre bei uns eben der Dynamic Denoiser, heißt der.
00:17:33: Der lässt jetzt Musik drinnen und Sprache drinnen, löscht aber alles andere raus.
00:17:39: Also der erkennt dann zuerst, wo Musikpassagen sind, weil Musik kann ja natürlich
00:17:44: auch nicht stationäre Geräusche beinhalten, wenn man irgendeinen Rhythmus klopft und so weiter.
00:17:49: Ich lasse das sozusagen drinnen, aber im Sprachbereich, wo jetzt kein Hintergrundmusik
00:17:54: ist und nur Sprache ist, da werden diese rausgenommen, also stationäre und nicht stationäre Geräusche.
00:18:01: Und er nimmt jetzt auch den Reverb natürlich raus bei der Sprache.
00:18:06: Und die letzte Stufe, die aggressivste Stufe, wäre dann sozusagen das Speech
00:18:12: Isolation, also Sprachisolation. In dem Fall nehmen wir alles bis auf Sprache raus.
00:18:18: Also auch wenn da jetzt Musik ist oder Hintergrundmusik oder irgendein Katzengejammer
00:18:22: oder was auch immer, dann wird das alles rausgelöscht und es bleibt nur mehr die Sprache übrig.
00:18:28: Und bei welchem Algorithmus würde ich das auswählen? Man muss zuerst das Noise
00:18:33: Reduction auswählen und dann sieht man die ganzen Parameter dafür.
00:18:37: Also man kann eben diese Methode auswählen und dann kann man auch auswählen,
00:18:41: wieviel entfernt werden soll, also ob wir jetzt alles Neues,
00:18:45: das ganze Rauschen rausnehmen sollen oder eben nur einen gewissen Teil.
00:18:50: Das werden wir in näherer Zukunft auch so machen, dass man das ein bisschen besser,
00:18:55: spezifizieren kann, also dass man sagen kann, okay ich will zum Beispiel den
00:18:58: Reverb komplett rausnehmen oder ein bisschen weniger rausnehmen und den Noise
00:19:03: komplett, dass man ein bisschen unterscheiden kann zwischen den Klassen.
00:19:07: Dann haben wir noch so eine Funktion Remove Breathings, also das Atmen in der
00:19:12: Aufnahme, was ja bei Podcaster oft da ist.
00:19:16: Wenn ich inzwischen immer einatme, das wollen viele leiser haben oder entfernen.
00:19:20: Das ist jetzt im Moment auch so ein Spezialfeature, das kann man eben fragen,
00:19:23: ob man das drinnen lassen will oder rausnehmen will.
00:19:26: Und so Sachen wie Mouse Noises, als ein Mäuse am Mund, Geroge.
00:19:32: Sowas wird dann auch rausgefiltert. Und Hall, sagst du, kann man auch rausfiltern?
00:19:39: Lange hieß es immer, Hall kriegt man nicht mehr weg aus so einer Aufnahme.
00:19:44: Ja. Ist das besonders schwierig?
00:19:48: Besonders schwierig. Vor zwei Jahren hätte man es sicher noch hier angesagt.
00:19:53: Aber im Moment ist es relativ ähnlich.
00:19:56: Bei dem automatischen Schneiden, Automatic Cutting,
00:20:02: Da fällt mir in letzter Zeit leider immer auf, dass ich Podcasts höre und da
00:20:08: sind irgendwie zu viele Pausen rausgeschnitten.
00:20:13: Das heißt, ich finde immer, bevor der Gast antwortet, kann man ihm ruhig eine
00:20:19: Sekunde Bedenkzeit lassen.
00:20:21: Könnte ich sowas nochmal überprüfen oder sage ich halt jetzt diesen Algorithmus,
00:20:28: also Cutten und dann wird halt rausgeschnitten, wo rausgeschnitten wird oder kann ich sagen,
00:20:35: nur Pausen, die länger als zwei Sekunden sind oder sowas? Wie funktioniert das?
00:20:42: Prinzipiell bin ich auch Fan von Pausen, aber viele wollen das halt einfach
00:20:47: nicht haben oder wenn du vor allem so einen Radiobeitrag hast,
00:20:50: wo es gedaktet sein muss.
00:20:53: Ja, du kannst bei uns auch so machen, dass du eben diese automatischen Schnitte
00:20:57: nicht anwendest, sondern dir die Schnittlisten exportieren lässt und dann in
00:21:02: deinem Audioeditor das noch einmal anschaust und nachbearbeitest,
00:21:06: beziehungsweise werden wir jetzt in näherer Zukunft auch bei uns dann direkt
00:21:11: online die Nachbearbeitungsmöglichkeit haben, dass du halt einfach sagen kannst, okay,
00:21:14: diesen Cut will ich nicht haben und diesen schon und so weiter. Toll.
00:21:20: Und bei Filmwörtern ist es natürlich ähnlich. Also da erkennen wir halt,
00:21:24: wo bestimmte Filmwörter sind.
00:21:27: Und dann werden die eben rausgeschnitten oder du kannst es eben als Schnittlisten
00:21:33: exportieren lassen oder in Zukunft dann auch direkt bei uns im Webinterface
00:21:37: dann einfach noch bearbeiten.
00:21:40: Großartig, das ist also wirklich eine wahnsinnige Zeitersparnis.
00:21:46: Noch eine Frage habe ich zu den, Moment, was war das? Bei dem Filtering kann
00:21:55: ich einen Adaptive High Pass Filter auswählen.
00:22:00: Das heißt, dass tiefe Frequenzen unterdrückt werden, ist das richtig? Genau.
00:22:09: Dieser Adaptive Hi-Pass Filter schaut einfach, wo ist die tiefste Sprachfrequenz, zum Beispiel.
00:22:16: Also bei Frauen ist die Grundfrequenz oft höher als bei Männern und dann schneidet
00:22:22: man einfach darunter ab und bei Musik natürlich nicht, weil sonst würde man
00:22:25: die ganzen Bässe der Musik entfernen.
00:22:29: Und dann gibt es eben noch die andere Variante vom Filtering,
00:22:32: das das ist der Voice Auto EQ.
00:22:34: Also der macht jetzt wirklich einen Auto EQ, also der macht einen EQ auf die
00:22:40: gesamte Bandbreite der Sprache.
00:22:42: Genau, ein EQ ist ein Equalizer. Ein Filter, ja, genau.
00:22:47: Also wenn jetzt die Sprache zum Beispiel sehr dumpf klingt, dann wird er eben
00:22:50: automatisch oben die Höhen hochziehen, damit es wieder heller klingt.
00:22:54: Oder vor allem, der macht auch De-Essing, also wenn so scharfe S's drinnen sind,
00:22:59: werden die runtergezogen. und der funktioniert auch komplett dynamisch.
00:23:03: Also wenn zwei Sprecher sich total schnell abwechseln und ein total anderes
00:23:08: Profil haben, dann wechselt der mit den Sprechern ganz einfach mit.
00:23:12: Für mich ist das echt Magie. Nur ein bisschen.
00:23:17: Hört ihr noch Audios an, die hochgeladen werden?
00:23:23: Also irgendwie ist das ja auch Audiobearbeitung auch ein bisschen subjektiv, oder?
00:23:31: Das stimmt, aber zu deiner Frage, ob wir noch Audios anhören,
00:23:36: wir tun den ganzen Tag nichts anderes im Endeffekt.
00:23:39: Also es wird halt natürlich immer geschaut, wo Probleme sind und wie man sie noch bessern kann.
00:23:45: Und ja, klar, gewisse Sachen sind natürlich sehr subjektiv, vor allem auch beim Filtering.
00:23:52: Da kann man oft eh nichts machen, Aber gewisse Sachen sind schon auch einfach
00:23:58: entscheidbar, also wenn gewisse Sachen nicht so gut funktionieren,
00:24:01: wie sie funktionieren könnten.
00:24:03: Also wir versuchen generell technische Entscheidungen zu machen und nicht jetzt
00:24:08: irgendwie künstlerische oder subjektive Entscheidungen.
00:24:14: Aber da ist die Grenze natürlich irgendwie fließend, sogar in gewissem Bereich.
00:24:19: Ich habe mal so ein kleines Coaching gemacht und wollte eben besser lernen,
00:24:27: wie man so einen Equalizer bedient mit der Audioschnittsoftware.
00:24:34: Und ich habe ganz schnell festgestellt, dass mein Gehör dafür gar nicht reicht.
00:24:39: Also wir haben eine Einstellung vorgenommen und dann hieß es so besser oder
00:24:43: so besser und ich habe es gar nicht mehr gehört. Das ist ja ganz normal.
00:24:48: Also wenn du so herumspielst und dann dauerbar ein paar dB runter und rauf,
00:24:51: dann hörst du das natürlich irgendwann oder ziemlich schnell nicht mehr.
00:24:55: Also du musst halt, wenn du jetzt wirklich Probe hörst, auch immer ein guter
00:24:59: Trick ist, quasi gegen einstellen und mit bisschen extremeren Einstellungen
00:25:04: und dann schauen, ob du den Unterschied hören kannst.
00:25:09: Also wenn du zum Beispiel eine Störfrequenz hast und du weißt nicht,
00:25:12: wo das ist, versuch die Die Frequenz einfach zu erhöhen irgendwo,
00:25:16: anstatt sie abzusenken und dann irgendwann hörst du, dass sie viel mehr wird.
00:25:21: Also wenn du jetzt mit dem Filter weiter aufziehst.
00:25:24: Und genau bei dieser Frequenz kannst du dann absenken, aber nur ein bisschen
00:25:29: natürlich. So, dass du es wahrscheinlich vorher gar nicht gehört hättest.
00:25:33: Ja, wir Podcaster sind ja in der Regel auch keine Toningenieure.
00:25:39: Ja, manche schon. Ja, stimmt, manche schon. Ich bin jedenfalls total begeistert von Auphonic.
00:25:46: Es spart nicht nur Zeit bei der Bearbeitung von Audios, sondern für viele Effekte,
00:25:51: die ich in den Schnittprogrammen nutzen kann, fehlt mir einfach auch oft das
00:25:56: Know-how und das geschulte Gehör, wie ich eben schon gesagt habe.
00:26:01: Ich danke dir also, Georg, sehr herzlich für Auphonic und natürlich für das Interview.
00:26:08: Ja, dann vielen Dank für das Interview. Und bei Ihnen bedanke ich mich fürs
00:26:14: Zuhören und freue mich, wenn Sie nächstes Mal wieder dabei sind.
00:26:17: Dann spreche ich mit der Expertin für Ferienimmobilien Annik Rau über ihren
00:26:24: Podcast, den Fevo Angels Podcast, über spitze Zielgruppen, Funnels und mehr.
00:26:32: Ich habe Annik Rau gerade auf dem Podcamp in Essen kennengelernt und freue mich
00:26:37: schon sehr auf das Gespräch.
00:26:39: Also, am besten abonnieren Sie meinen Podcast, denn der kommt nur einmal im
00:26:43: Monat und Sie könnten ihn sonst schnell aus den Augen verlieren.
00:26:48: Eine gute Zeit bis dahin wünscht Ihnen Brigitte Hagedorn.
00:26:53: Mehr über mich und meine Arbeit finden Sie auf www.audiobeiträge.de.
00:27:01: Music.