planung&analyse Insights 2020 - Tag 2

Mit künstlichen Stimmen forschen

   Artikel anhören
© pixabay.com
Tag 2 der planung&analyse Insights 2020 beginnt mit dem Thema: Voice. Was kann Stimme? Und insbesondere die künstliche? Wo kann Künstliche Intelligenz helfen? Prof. Dr. Holger Lütters von der HTW führt aus, wie und wo Marktforschung mit Sprachassistenten möglich ist. Im Anschluss schildern Dr. Carolin Kaiser und René Schallner vom NIM über die Einsatzmöglichkeiten von Sprachassistenten beim Shoppen.
 Prof. Dr. Holger Lütters von der HTW
© Thomas Fedra
Prof. Dr. Holger Lütters von der HTW
Der Morgen startet mit Prof. Dr. Holger Lütters. In seinem Vortrag spricht der Professor der Hochschule für Technik und Wirtschaft Berlin über Emotionsmessung mit Künstlicher Intelligenz in der Werbewirkungsforschung. Er ist der Meinung: Autonome Marktforschung ist schon seit zwei Jahren möglich – aber die Akzeptanz ist noch nicht da. Rund 30.000 Interviews mit Voice Anteil hat Lütters bereits durchgeführt. Teilnehmer brauchen nur ein Gerät mit Mikrofon – die Verweigerungsrate sei jedoch bei Antworten in Form des Sprechens noch relativ hoch. APIs wandeln mit dem Speech-to-Text-Prozess dann Sprache in geschriebene Wörter um und wertet emotionale Facetten aus. „Mittlerweile sind die Transkripte sogar so gut, dass sie Sprachfehler korrigieren – was wir eigentlich gar nicht wollen“, so Lütters. Er ist der Meinung: „Wir müssen erstmal besser verstehen, wie diese künstliche Intelligenz das macht.“

planung&analyse Insights 2020: Die Zukunft ist jetzt!


Dr. Carolin Kaiser und René Schallner vom Nürnberg Institut für Marktentscheidungen (NIM) schließen hier mit ihrem Vortrag „Emotionale Sprachassistenten: Der Ton macht das Einkaufserlebnis“ thematisch an. Die beiden Forscher untersuchen, wie Mensch und Computer zusammen am POS kommunizieren. Hierbei gehen sie vor allem der Frage nach, inwieweit eine emotionale Stimme das Kaufverhalten der Konsumenten beeinflussen kann.
Dr. Carolin Kaiser war zugeschalten
© Thomas Fedra
Dr. Carolin Kaiser war zugeschalten
Untersucht wurde dies in drei Experimenten, die dem gleichen Schema folgen: Zuerst wurden emotionale Stimmen synthetisch mit Hilfe von Deep Learning erzeugt. In einem zweiten Schritt testeten Kaiser und Schallner, ob die Emotionen auch so wahrgenommen werden wie erhofft. Eine Testgruppe von Experten hat hierbei die Emotionen mit einer Genauigkeit von 98 Prozent erkannt. Anschließend wurde eine „Alexa-inspirierte“ App gebaut, bei der ein Kaufvorgang simuliert und im Anschluss Fragebögen beantwortet wurden. Die Ergebnisse waren eindeutig: eine emotionale Stimme führt zu einem veränderten Kaufverhalten beim Konsumenten. Bei der fröhlichen Stimme fühlten sich die Konsumenten am wohlsten – die begeisterte Stimme hingegen löste die höchste emotionale Erregung aus und führte zu einem impulsiveren Kaufverhalten. Dies gilt jedoch nur für die Teilnehmer aus Deutschland. In den Ländern UK, USA und Indien seien große Unterschiede zu sehen. In Indien sei der Tonfall der künstlichen Stimmen beispielweise egal und ändere nichts. Erklären ließe sich das, so Kaiser, durch die kulturellen Unterschiede.


Bitte loggen Sie sich hier ein, damit Sie Artikel kommentieren können. Oder registrieren Sie sich kostenlos für H+.
Ich habe die Datenschutzbestimmungen zur Kenntnis genommen und akzeptiere diese.
stats