Speaker 1: Ja, vielen Dank. Man kann, glaube ich, auch schon mal erwähnen, dass wir im Gesund-FDM-Projekt auch mit Nosecribe gearbeitet haben, davon sehr begeistert waren und deswegen uns sehr, sehr freuen, den Entwickler dieses Programms heute hier zu haben. The floor is yours, würde ich sagen.
Speaker 2: Ja, wunderbar. Ganz herzlichen Dank für die Einladung. Herzlich willkommen an alle. Genau, vielleicht eine kleine Einführung ein bisschen in das Thema Transkription, nochmal so ein bisschen Hintergrund. Genau, also ein bisschen Hintergrund, vielleicht nochmal kurz und dann soll es vor allem aber auch um eine Demonstration dieser Software gehen und eben auch Raum für Fragen, für Debatten. Vielleicht sind ja einige unter Ihnen, unter euch, die das auch schon genutzt haben, die noch Fragen haben oder so. Das können wir dann gucken, ganz genau. Etwas verwirrend vielleicht. Im Programm stehe ich, glaube ich, mit dem Institut für Sozialforschung hier aus Frankfurt, wo ich auch gerade bin. Das ist auch richtig. Ansonsten verdiene ich mein Geld allerdings im Wesentlichen in der Schweiz, nämlich an der Hochschule Luzern, wo ich unter anderem eben auch qualitative Methoden lehre. Deswegen ist das natürlich auch immer ein großes Thema gewesen, diese automatische Transkriptionsmöglichkeiten. Genau, also nochmal ganz kurz. Ich glaube, was Transkription sind, glaube ich, muss ich den Leuten hier nicht erzählen, aber einfach nochmal erinnert, auch was für verschiedene Formen von Transkription wir kennen und verschiedene Daten, die irgendwie transkribiert werden müssen. Da muss man immer auch sehen, also KI-gestützte Transkriptionssysteme eignen sich einfach nur, auch nur für einen bestimmten Ausschnitt der Daten, die wir in der qualitativen Forschung verwenden. Und das sind in allererster Linie Interviews. Also dafür funktioniert es ganz gut, aber bei Gruppendiskussionen wird es zum Teil schon etwas schwieriger, gerade dann, wenn es wirklich so hoch hergeht und die Leute reden ein bisschen durcheinander und so. Das kann funktionieren, aber hat Grenzen. Aber es gibt natürlich eben noch viele andere Transkriptionssysteme, auch wenn es dann zum Beispiel um beobachtete Interaktionen geht, um Videoaufzeichnungen, um Filme oder sowas, die transkribiert werden, wo dann auch sowas wie Schnitte, wie Kameraproduktionen auch so eine Rolle spielen. Also es gibt da ein Riesenfeld und man muss einfach auch gucken, da gibt es einen gewissen Ausschnitt, für den sich diese KI-gestützten Systeme im Moment zumindest eignen. Das kann sich vielleicht auch noch ändern auf Zukunft hin, aber das würde ich erst mal darauf beschränken. Hier rechts sehen wir mal so ein Beispiel eines solchen Transkriptes. Man sieht eben auch schon, es gibt noch so gewisse Besonderheiten auch sozialwissenschaftlicher Transkripte, wie eben, dass sowas wie Lachen auch mit transkribiert wird oder dass Pausen hier markiert sind mit diesen Punkten in der Klammer und ein Punkt steht dann für eine Sekunde Pause und so weiter. Also da gibt es eben einige Besonderheiten und das kann natürlich noch sehr viel aufwendiger werden. Ich glaube, das kennen auch viele. Aber grundsätzlich kann man sagen, also eine sorgfältige Transkription ist eigentlich die Grundlage für jede ernsthafte, qualitative Analyse. Ich weiß nicht, wer schon mal versucht hat, vielleicht direkt mit den Audiodaten zu arbeiten, wird glaube ich festgestellt haben, dass es total schwierig ist, in einer Audioaufnahme hin und her zu springen, an bestimmte Stellen wieder und so. Wir können in einem Text viel besser irgendwie querlesen, ein bisschen hin und herspringen, verschiedene Passagen miteinander verknüpfen und so weiter. Also ich finde, man kann mit Audioaufnahmen direkt eigentlich relativ wenig anfangen in der Analyse. Man muss diesen Zwischenschritt der Transkription machen, der ja immer etwas mühsam ist. Es gibt dann verschiedene Transkriptionssysteme und Regeln und ich habe natürlich schon versucht, in dieser Software auch ein bisschen eben, ich meine, man muss sagen, also wozu werden diese KI-gestützten Transkriptionssysteme sonst viel verwendet? Das hat man zum Beispiel, um Untertitel für Videos zu erzeugen. Da braucht man bestimmte Eigenheiten der sozialwissenschaftlichen Transkripte braucht man natürlich nicht, beziehungsweise sie würden eher stören. Oder, keine Ahnung, jetzt hat mich jemand angesprochen, er würde mit meiner Software also in seinem Callcenter die Anrufe aufzeichnen und gucken, ob die Beschäftigten sich auch an die Skripte halten. Da habe ich so ein bisschen ethische, eine kurz ethische Krise gebekommen, ob ich meine Software eigentlich dafür, wirklich, ob die dafür eigentlich gedacht sein sollte, also die Effizienz in der Überwachung von Beschäftigten zu steigern. Er hat mich dann beruhigt, dass das alles doch ganz freiwillig sei und so weiter. Nun ja, aber das sind natürlich auch so Einsatzgebiete von Transkriptionssystemen. Aber da haben wir dann oft eben nicht die Regeln und Besonderheiten, die wir in der qualitativen Forschung brauchen. Es gibt noch sehr viel aufwendigere Systeme. Ich habe hier rechts mal ein Beispiel, so eines GATT-Transkriptes, einer gesprächsanalytischen Transkription. Da gibt es auch noch verschiedene, gerade dann, wie sehr man noch in lautsprachliche Äußerungen hineingehen kann. Also das untere Beispiel, das sogenannte Basistranskript, das enthält dann schon auch gewisse lautsprachliche oder Sprachbesonderheiten nochmal und so. Ehrlich gesagt, für mich ist das dann auch kaum noch lesbar. Das kann sehr speziell werden. Und da, muss man sagen, ist dann KI einem auch ganz schnell an der Grenze. Ja, das macht dann eigentlich keinen Sinn mehr. Da sollte man direkt mit dem Original-Audio-Opfer arbeiten. Aber wenn es eben um einfachere Transkripte geht, also hier auf der Folie, wofür sich KI-gestützte Transkriptionen finde ich wirklich gut eignet, sind Einzelinterviews, Gruppendiskussionen mit gewissen Einschränkungen. Dann, wenn es um eine wörtliche Transkription geht, allerdings keine Lautsprache. Und ich habe eben meine Software noch so ein paar Besonderheiten quasi ergänzt. Also zum Beispiel, dass auch Pausen und gleichzeitiges Sprechen ein wenig auch transkribiert werden, funktioniert so einigermaßen. Das zeigen wir gleich. Füllwörter auch mit transkribiert werden, auch das funktioniert nicht immer 100 Prozent, aber doch einigermaßen. Allerdings gibt es bestimmte Sachen, wie bestimmte nonverbale Äußerungen, die müssen in jedem Falle noch manuell ergänzt werden. Also wenn jemand zum Beispiel lacht im Interview oder so, wird das in der Regel nicht mit transkribiert. Und das muss man dann eben noch manuell einfügen. Ich glaube, das ist überhaupt etwas ganz Wichtiges, was man sich immer vergegenwärtigen muss, aber auch an dem Beispiel nochmal sehen kann. Eine Transkription ist eigentlich schon eine Interpretation. Es ist nicht einfach eine Übertragung aus einem Medium in das andere. Es ist schon eine Form der Interpretation. Man muss Entscheidungen treffen. Transkribiert man jetzt wirklich jedes mit? Wenn draußen ein Auto vorbeifährt, ist das relevant für das Interview? Transkribiert man das? Markiert man das? Wahrscheinlich eher nicht. Wenn auf den Tisch eine Tasse Kaffee umkippt und alles unter Wasser setzt, dann ist das wahrscheinlich schon irgendwie noch wichtig zu markieren. Also man muss Entscheidungen treffen. Das ist schon eine Form von Interpretation. Und auch die KI nimmt natürlich eine Interpretation vor. Und diese Interpretation müssen wir eben auch anschauen und prüfen. Das finde ich ganz wichtig. Das sehe ich auch bei meinen Studierenden oft. Es gibt dann immer welche, die lassen das einfach drüberlaufen, geben dann das Transkript ab und dann gucken wir zusammen das Transkript. Und dann denke ich, das wird die Person wirklich so gesagt? Das ist doch ein bisschen seltsam. Und dann, ah ja, das muss ich nochmal angucken. Also das ist wirklich ein ganz entscheidender Punkt und war mir auch sehr, sehr wichtig, weshalb eben auch so ein spezieller Editor nochmal mitkommt, den wir gleich anschauen, wo man das dann eben auch prüfen kann. Das sehen wir gleich. Ein bisschen generelle Worte zu KI-basierter Transkription. Ich meine, ich glaube, alle haben das mitbekommen, dass sich bei der KI-basierten Spracherkennung sehr, sehr viel getan hat in den letzten Jahren. Prinzipiell gibt es das ja schon sehr lange, computerbasierte Spracherkennung. Aber es hat sich eben da sehr, sehr viel getan. Und es gibt auch viele Online-Plattformen schon, die das anbieten. Es gibt auch eine Integration in Apps wie Teams, wie Zoom, wie Office 365 und so weiter. Ja, also man könnte sich natürlich ein bisschen fragen, wozu braucht man jetzt eigentlich noch eine extra Transkriptionssoftware? Nun, das Problem ist bei diesen, zumindest kostenlosen Angeboten, ist die Qualität oft eher mittelmäßig und dann wird schnell der Überarbeitungsaufwand ziemlich hoch. Außerdem werden bestimmte Sachen nicht mittranskribiert, die wir aber brauchen in der qualitativen Forschung, also Pausen beispielsweise oder so. Es gibt gute Dienste, die auch auf qualitative Interviews fokussiert sind, wie zum Beispiel audiotranskription.de in Deutschland. Einige kennen sicherlich diese F4-Transkriptionssoftware, aber die bieten ja auch eine KI-gestützte Transkription inzwischen an. Das ist aber eben kostenpflichtig, auch nicht ganz günstig. Und, also ein großes Problem finde ich eben, gut, Audiotranskription finde ich machen das okay, die haben auch ihre Server in Deutschland stehen, aber bei diesen kostenlosen Angeboten ist es eben so, dass eigentlich immer die Audioaufnahmen in die Cloud geladen werden müssen und die Anbieter sich auch vorbehalten in aller Regel, dass sie diese Audioaufnahmen auch zum Training der KI weiter auch nutzen und auswerten und so weiter. Und das ist natürlich sehr problematisch vor dem Hintergrund der Vertraulichkeit, die wir den InterviewpartnerInnen ja in der Regel zusagen, was diese Audioaufnahmen betrifft. Das ist natürlich sehr sensibles Material und damit, finde ich, sollten wir vorsichtig umgehen und das sollten wir nicht einfach irgendwo in die USA, irgendwo in eine Cloud laden und dort bleibt das für Jahre irgendwie, wird das weiter für KI-Training genutzt und so weiter. Also da muss man, glaube ich, ein bisschen vorsichtig sein und das war für mich auch so der Punkt, weshalb ich auch meinen Studierenden immer eher abgeraten habe von diesen Transkriptionsdiensten und dann eben sehr toll das fand, als ich jetzt vor einem Dreivierteljahr ungefähr ein bisschen zufällig eigentlich drauf gestoßen bin auf ein KI-Modell von OpenAI, der Firma hinter JGBT, sehr, glaube ich, bekannt. Das heißt eben Whisper, diese KI und die ist eben spezialisiert auf die Transkription von Audiodaten und ist eben frei verfügbar und kann eben auch lokal auf dem eigenen Rechner laufen. Das war eigentlich das, was mich daran sehr interessiert hat. Ja, man kann die wirklich auf einem eigenermaßen aktuellen Laptop zum Laufen bringen und die Qualität ist wirklich ganz hervorragend, diese Transkripte. Und das fand ich dann doch sehr spannend und habe gedacht, okay, da könnte man jetzt wirklich etwas bauen da drumherum und also meine Software ist eigentlich nur wie eine Oberfläche für diese KI von OpenAI, die Open Source eben auch zur Verfügung gestellt wird. Das war ja eigentlich mal das Prinzip von OpenAI, deswegen auch der Name nicht, also alles offen und frei zur Verfügung zu stellen, KI im Dienste der Menschheit und so. Bei JGBT verdienen sie einfach zu viel Geld damit, dass sie das machen, aber eben Whisper ist frei verfügbar. Und ich habe das dann noch kombiniert mit einem anderen KI-Modell von Hervé Bredin von der Universität Toulouse aus Frankreich. Der hat eben eine KI und entwickelt die auch schon seit vielen Jahren jetzt. Die ist spezialisiert darauf, SprecherInnen zu unterscheiden, Stimmen zu unterscheiden, weil das natürlich auch noch ein wichtiger Punkt ist, dass wir nicht nur den Text haben, sondern das auch noch nach SprecherInnen unterschieden haben. Und das habe ich quasi miteinander kombiniert und in diese Software gepackt, die selbst natürlich auch Open Source und frei verfügbar ist. Und ja, jetzt inzwischen eigentlich weltweit relativ viel im Einsatz ist und ist doch interessant, die Rückmeldung, die ich da auch manchmal bekomme und glaube ich recht erfolgreich geworden ist. 99r Sprachen, das ist ein Tippfehler klar, unterstützt Whisper im Prinzip, wobei man da immer sagen muss, dass natürlich die großen Weltsprachen sehr viel besser unterstützt werden. Interessanterweise am besten Spanisch, das passt eigentlich auch, also gar nicht Englisch. Deutsch ist auch relativ oben mit dabei, Englisch wird auch sehr gut unterstützt und die großen Weltsprachen eben ja. Und dann je spezieller die Sprachen werden, desto fehleranfälliger wird die Transkription auch. Aber es ist eigentlich wirklich sehr, sehr, sehr, sehr breit. Genau, hier noch der Download-Link, vielleicht noch ein paar, bevor wir uns die Software jetzt dann auch in Aktion anschauen, vielleicht noch ein paar Hinweise einfach, worauf man achten sollte, wenn man das benutzt. Also ich glaube ein Punkt, das muss man wirklich klar sagen, man braucht einen relativ aktuellen, relativ schnellen Rechner oder vor allem relativ aktuellen Rechner. Also wenn man jetzt fünf Jahre einen Laptop hat, so dann wird es irgendwann echt schwierig. Ja gut, aber ich würde auch jetzt gerne eigentlich wirklich auch gleich dazu übergeben, es einfach mal kurz zu demonstrieren, dann können wir auch gerne ein bisschen darüber sprechen und gerne rückfragen. Also ich würde gar nicht jetzt, soll ruhig interaktiv sein. Noch ein paar Tipps kurz, bevor wir dann das uns direkt anschauen. Eben, ich glaube ein relativ aktueller Rechner, das ist schon, das ist schon wichtig. Ich bin gerade noch dabei eine Grafikkarten-Unterstützung auch zu implementieren. Mal gucken, das könnte noch mal unter Windows zumindest deutliche Geschwindigkeitsvorteile bringen, wenn man eine einigermaßen aktuelle Nvidia-Grafikkarte hat, was ich selber nicht habe. Deswegen ist es für mich etwas schwer zu testen, aber das war noch so ein Wunsch von vielen. Aber ansonsten ja, also keine so wahnsinnigen Ansprüche an den Rechner, aber er sollte einfach relativ aktuell sein, so aus den letzten, sagen wir mal drei, vier Jahren oder sowas. Dann werden bestimmte Funktionen unterstützt, Beschleunigungsfunktionen, die dann doch noch einen großen Unterschied machen. Trotzdem muss man einfach auch sagen, ja also man muss bei einer Stunde Audio drei bis fünf Stunden Transkriptionszeit rechnen. Ja, aber da kann der Rechner dann vor sich hin, vor sich hin transkribieren. Da muss man ja dann nicht daneben sitzen. Ja, kann man mit dem Hund spazieren gehen oder was auch immer machen. Genau. Was man einfach sagen muss, ich meine, das sage ich sowieso immer, ja, egal ob man manuell transkribiert oder mit KI oder was auch immer. Eine gute Audioaufnahme macht einfach einen riesen Unterschied. Ja, auch wenn man es manuell transkribiert, so mühsam, wenn man schlechte Aufnahmen hat. Und das gilt schon auch für KI. Es funktioniert auch mit schlechteren Aufnahmen, aber der Überarbeitungsaufwand nimmt einfach zu. Das muss man sich klar sein. Das heißt, ich glaube, jede Minute, die man investiert im Vorfeld, eine gute Aufnahme hinzukriegen, zahlt sich mehrfach aus. Kann ich nur empfehlen. Genau. Und eben, wir müssen diese Transkripte auch anschauen und kontrollieren. Aber das zeigen wir gleich noch den Editor, der da mitgeliefert wird. Genau. Ich glaube, das war jetzt hier meine letzte Folie. Und dann würde ich jetzt wirklich mal die Software selber zeigen. Und wir probieren auch mal direkt hier live etwas aus. Also so sieht die aus. Und ich habe jetzt hier schon mal eine Audio-Datei geladen. Ja, und starte das auch gleich mal hier. Und während das läuft, damit wir auch mal ein bisschen sehen, wie lange das dauert. Aber während das läuft, kann ich noch ein paar Sachen erläutern. Also erst mal, das ist eine Aufnahme. Ich habe mal was, ich lehre ja in der Schweiz und mache auch manchmal Forschung in der Schweiz. Ich habe mal was Schweizerdeutsches mitgebracht. Aber noch so, dass, glaube ich, auch man das außerhalb der Schweiz noch einigermaßen versteht. Aber auch, um mal ein bisschen zu zeigen, was diese KI doch kann, auch im Umgang mit solchen Dialekten. Das finde ich schon ganz erstaunlich. Ich bin jetzt gar nicht speziell auf Schweizerdeutsch trainiert. Ich kann auch nicht Schweizerdeutsch auswählen als Sprache. Aber trotzdem schafft es die KI dann doch ganz gut, das zu transkribieren. Das ist ein Interview. Ich habe natürlich, ich kann jetzt keine eigenen Interviews zeigen. Wir können nicht in eigene Audio-Dateien reinhören. Das wäre natürlich ein bisschen heikel. Deswegen, ich habe jetzt was genommen aus dem Schweizer Fernsehen. Ein Bericht über Alltagsrassismus in der Schweiz. Und eine schwarze Schweizerin, Angelique Beldner, eine recht bekannte, glaube ich, Fernsehmoderatorin, genau berichtet da eben aus eigener Erfahrung. Und wir sehen jetzt hier schon, der erste Schritt ist eben, dass die Sprecher identifiziert werden. Also es läuft diese KI, dieses Kollegen aus Frankreich, darüber. Und jetzt beginnt eben die Transkription. Wir werden dann gleich hier auch den ersten Text schon sehen. Genau, was kann ich noch sagen? Ich habe jetzt hier mal etwas mehr als eine Minute nur ausgewählt, damit man eben auch, ja sonst würde das einfach zu lange dauern. Man kann also hier das begrenzen. Start und Ende innerhalb der Datei. Wenn man das offen lässt, also hier, dann wird einfach bis zum Ende transkribiert. Hier kann man noch verschiedene Sprachen auswählen. Da sieht man sie. Hier ist zum Beispiel Arabisch dabei. Da, weil das eben gefragt wurde. Türkisch. Ja, ich weiß nicht, müsste ich jetzt gucken. Da kann man die halt auswählen. Dann gibt es hier noch zwei Modelle. Es gibt ein präzises, es gibt ein etwas schnelleres. Ich würde immer empfehlen, das präzise Modell zu nehmen. Das ist einfach ein größeres KI Modell, das eine bessere Qualität liefert. Und hier kann man noch einstellen, wenn man Pausen markiert. Also will man überhaupt markiert haben oder gar nicht oder eben nur lange Pausen. Also alles, was länger als drei Sekunden ist, markiert haben. Das wird dann so markiert wie hier. Das ist irgendwie ein Fehler. Ich weiß nicht, warum da keine Klammern sind. Das wird so markiert, wie man hier sieht. Ich hoffe, der Mauszeiger wird mit übertragen. Also diese Klammern, die Punkte in Klammern. Ja, ein Punkt ist eine Sekunde Pause. Genau, überlappende Sprache, Zeitmarken. Schauen wir uns gleich noch an. Jetzt ist diese Transkription, dieser Paar, erstmal abgeschlossen. Dieser ein bisschen über eine Minute. Und ich öffne das jetzt mal. Wenn man hier drauf klickt, wird das in dem Editor, der dabei ist, geöffnet. Ich mache das mal etwas größer. Und jetzt hoffe ich, dass wir das mit dem Audio hinkriegen, weil das hatten wir eben schon mal ausprobiert. Das sollte eigentlich gehen, weil wenn man jetzt hier reingeht, irgendwo in den Text reingeht und eben hier auf Play, Pause, Audio klickt, dann wird die passende Stelle aus der Audioaufnahme abgespielt. Und dann können wir mal gerade hören, wie das übersetzt wird.
Speaker 3: Weil ich mir über all die Jahre irgendeine Strategie zurechtgelegt habe, die mir möglichst nicht weh tut. Und das zeigt sich, in dem ich über Rassismus praktisch nie gesprochen habe und
Speaker 2: nicht haben wollen. Ja, ich bin gespannt, ob jetzt die Nicht-SchweizerInnen unter Ihnen, unter euch, das einigermassen verstanden haben. Vielleicht haben Einzelne auch gemerkt, dass es hier einen kleinen Fehler gab. Ich bin inzwischen schon lange in der Schweiz auch tätig und natürlich mehr das Schweizerdeutsche auch gewohnt. Und da gab es einen kleinen Fehler. Ich hoffe, das Audio ist rübergekommen. Und zwar, glaube ich, hier. Hören wir uns das nochmal hier an. Genau, da sagt sie, in dem, dass ich über Rassismus, also das würde ich übersetzen mit eigentlich dadurch, dass ich über Rassismus praktisch nie gesprochen habe und so weiter. So ist es einfach. Man muss wirklich das nochmal anhören und solche kleinen Korrekturen dann eben vornehmen. Aber ansonsten, finde ich, funktioniert es wirklich ziemlich gut. Ich möchte noch eine andere Sache zeigen. Und zwar hier unten. So ein bisschen eine Besonderheit. Gehen wir mal hier in den Text. Hier haben wir jetzt erstmal eine neue Sprecherin. Ja, aber genau. Hören wir auch da nochmal rein. Da gibt es ein bisschen etwas Seltsames. Es ist Mitte August. Angelique Feldner
Speaker 4: ist auf dem Weg ins Berner Oberland. Ja, ich glaube, man hat es mitbekommen. Was ist da passiert?
Speaker 2: Sie ist in Frutting. Das wurde nie gesagt. Ich spiele das nochmal ab hier, glaube ich. Okay, also was man hier merkt ist, oder was wir hier haben, ist eigentlich das, was wir von Chat-GPT auch kennen. Es gibt eben auch bei dieser KI das Phänomen der Halluzination. Letzten Endes ist auch technisch das Prinzip hierhinter sehr ähnlich wie bei diesen Sprachmodellen, die auch hinter Chat-GPT stehen. Und ja, wenn es hier eben so einen Zeit gibt, wo nur so Hintergrundgeräusche ist, kein Text, es kann passieren, dass die KI tatsächlich etwas erfindet. Und sie erfindet interessanterweise auch hier etwas durchaus Passendes. Das hätte im Interview auch so gesagt werden können. Ja, es wurde aber eben nicht gesagt. Nochmal ein Grund mehr, weshalb man wirklich diese Transkripte auch anschauen muss. Ja, genau. Interessant auch finde ich, dass sie jetzt hier schon diese Bahnhofsdurchsage dann auch noch aufnimmt. Ja, das funktioniert schon. Das ist ganz spannend. Genau. Aber das ist natürlich falsch. Das muss man einfach auslöschen. Ja, also auf solche Dinge muss man achten, auf jeden Fall. Vielleicht machen wir hier mal einen kleinen Cut. Und ich hätte noch eine andere Sache zu zeigen, kurz ein anderes Interview. Ja, vielleicht können wir nochmal ganz kurz zwei Minuten noch in das eine andere Transkript hier reinschauen. Genau, da haben wir nämlich ein Beispiel solcher sprachlicher Überlappungen. Hier, das ist ein Interview mit Heike Dienekötting. Manche, die vielleicht drei Fragezeichen Hörspiele gehört haben und so, werden die Stimme möglicherweise erinnern. Aber hören wir mal kurz
Speaker 5: hier rein. Okay, ja, also man sieht hier tatsächlich gleichzeitiges Sprechen wird so
Speaker 2: transkribiert mit diesen doppelten Schrägstrich dort. Ja, so ein Einwurf. Das funktioniert bei so kleinen Einwürfen ganz gut. 100 Prozent ist es nicht. Also auch ein Punkt, wo man noch einen gewissen Nachbearbeitungsbedarf hat. Aber es funktioniert einigermaßen. Ja, das auch zeigt, wie gut auch diese Zeitstempel sind und so, dass das unterschieden werden kann. Das ist eben hier, können Sie das an- und ausschalten oder könnt ihr das an- und ausschalten, ob wir diese überlappende Sprache auch so transkribiert haben. Gut.
Generate a brief summary highlighting the main points of the transcript.
GenerateGenerate a concise and relevant title for the transcript based on the main themes and content discussed.
GenerateIdentify and highlight the key words or phrases most relevant to the content of the transcript.
GenerateAnalyze the emotional tone of the transcript to determine whether the sentiment is positive, negative, or neutral.
GenerateCreate interactive quizzes based on the content of the transcript to test comprehension or engage users.
GenerateWe’re Ready to Help
Call or Book a Meeting Now