Qualitative Marktforschung
Was ist Voice Analytics?
In der Marktforschung wird das Verbraucher:innen-Feedback meist durch die Beantwortung von Skalen und dem Verfassen von Texten erhoben. Auch in der qualitativen Marktforschung wird das Verbraucher:innen-Feedback überwiegend mit der traditionellen Inhaltsanalyse analysiert.
Bei dieser traditionellen Analyse spielt allerdings die Tonlage in der Stimme des Verbrauchers meist keine oder nur eine untergeordnete Rolle.
Das sollte anders sein!
Denn die Sprache der Verbraucher:innen impliziert wichtige Informationen über deren emotionalen Zustand, wenn sie über Marken, Produkte, Konzepte, Motivationen für ihr Verhalten oder zum Beispiel Produkt- oder Verpackungsdesigns sprechen.
Voice Analytics ist eine implizite Methode, die die Stimme von Sprechern:innen analysiert, um eine objektive Einschätzung des affektiven Zustands der Verbraucher:innen zu liefern.
Wenn wir die emotionale Wirkung eines Stimulus verstehen, können wir nicht nur nachvollziehen, was die Verbraucher:innen sagen, sondern auch besser verstehen, ob sie wirklich meinen, was sie sagen.
Die von uns eingesetzte Voice Analytics-Technologie basiert auf modernster KI-Maschinenlerntechnologie, die akustische Muster von emotionalen Ausdrücken in der Sprache fortlaufend lernt. Denn die Vielfalt der Trainingsdaten ist ein wichtiger Faktor bei der Evaluation von Audioaufnahmen: So berücksichtigt die Technologie Sprecher:innen unterschiedlichen Geschlechts, zahlreiche Sprachen und Dialekte, sowie unterschiedliche ethnische Gruppen. Dies geschieht auf Basis von vielen tausend Stunden Trainingsdaten, welche kontinuierlich erweitert werden.
Die Genauigkeit der Analyse wird laufend durch Testreihen und anhand eines von einem Pool menschlicher Expert:innen zugewiesenen emotionalen Etiketts validiert.
Wie funktioniert Voice Analytics?
Setup & Durchführung
Wir implementieren die Aufnahmetechnologie sowohl in quantitativen Fragebögen bei allen relevanten Fragen mit offenen Antworten, sowie bei Aufnahmen von Gruppendiskussionen oder Interviews. Die Aufnahme erhöht die Motivation und Bereitschaft der Testpersonen und führt zu einer höheren Datenqualität
Für eine korrekte persönliche Kalibrierung wird vor der eigentlichen Befragung von jeder Testperson eine Übungsaufnahme erstellt.
Analyse
Mithilfe des Emotions-Algorithmus wird der affektive Zustand von Sprecher:innen anhand der Grundfrequenz der Stimme, Stimmqualität, Lautstärke und spektralen Eigenschaften wie Klangfarbe und Rhythmus analysiert.
Dabei wird die Stimmkalibrierung dazu verwendet, um einen neutralen, individuellen, emotionalen Zustand zu definieren.
Zusätzlich werden alle Aufnahmen automatisch transkribiert. Die Emotionsanalyse identifiziert die positive oder negative Bedeutung des gesprochenen Textes und markiert die Äußerungen entsprechend.
Segmentierung
Die Audiodaten werden anschließend auf der Grundlage der Erkennung von Stimmaktivität (und Ausschluss von Audiosegmenten mit schlechter Audioqualität) segmentiert und mit der ermittelten klassenbasierten Emotion markiert
Ergebnis
Es wird ein emotionales Profil jeder Testperson erstellt, während sie über einen Test-Stimulus spricht. Der Stimulus kann dabei z. B. eine Marke, ein Konzept, ein Packungsdesign oder sonstige Kommunikation sein.
Zusätzlich zu den verschiedenen Emotionen wird auch deren Aktivierungs-Level und Valenz ermittelt, also die Stärke einer Aktivierung und die emotionale Stimmung. So kann gemessen werden, ob ein Produkt z. B. eher Gelassenheit oder Erregtheit, Desinteresse oder Begeisterung, Nachdenklichkeit oder Irritation auslöst – und in welchem Maße.
Die Software erstellt automatisch emotionsbezogene Audiozusammenfassungen und ordnet diese in einer Datenbank. Dies ermöglicht ein schnelles Auffinden aller relevanten Aufzeichnungen z. B. von Begeisterungsmomenten: So können die jeweiligen Zitate sowohl als Audio-File oder Textdatei ausgegeben und