To disclose or not disclose, is no longer the question, effect of AI-disclosed brand voice on brand authenticity and attitude

Kirkby, A., Baumgarth, C., & Henseler, J. (2023). To disclose or not disclose, is no longer the question – effect of AI-disclosed brand voice on brand authenticity and attitude. Journal of Product & Brand Management, 32(7), 1108–1122. https://doi.org/10.1108/JPBM-02-2022-3864

Mots-clés : intelligence artificielle, voix de marque, authenticité de marque, attitude envers la marque, divulgation, transparence, marketing de marque, modélisation par équations structurelles

Objectif

L’article vise à examiner comment la divulgation de la source d’un texte (IA ou humain) affecte la perception de l’authenticité de la voix de marque, l’authenticité globale de la marque et l’attitude envers la marque. Il explore également le rôle modérateur de l’émotivité du texte (spécification, description de produit, texte de chatbot) sur ces perceptions, dans le contexte de la transparence croissante et des attentes réglementaires concernant l’IA.

Méthodologie

L’étude utilise une approche expérimentale avec un plan factoriel 3×3 :

  • Design expérimental : 3 niveaux de divulgation de la source (IA, humain, non divulgué) x 3 niveaux d’émotivité du texte (faible : spécification, moyen : description de produit, élevé : texte de chatbot). Les textes, sourcés sur le site d’Adidas, étaient identiques mais étiquetés différemment.

  • Échantillon : 624 étudiants anglophones (50,3 % hommes, 48,7 % femmes, âge moyen 27 ans) recrutés dans des universités allemandes, britanniques et via Prolific.

  • Collecte de données : Enquête en ligne (septembre 2020-janvier 2021) avec un logiciel Tivian. Les participants répondaient à des questions sur l’authenticité de la voix de marque, l’authenticité de la marque et l’attitude envers la marque après exposition à un texte.

  • Mesures : Échelles adaptées de Bruhn et al. (2012) pour l’authenticité (voix et marque) et de Spears et Singh (2004) pour l’attitude envers la marque, toutes sur une échelle de Likert à 5 points. La fiabilité des échelles a été vérifiée par Cronbach’s alpha.

  • Analyses : Pré-test pour valider les manipulations (source et émotivité). Analyse factorielle confirmatoire (CFA) et modélisation par équations structurelles (SEM) avec R et Lavaan pour tester les hypothèses. Vérifications des manipulations via Chi-carré et ANOVA.

Résultats

  1. Manipulation checks : Les participants ont correctement identifié la source divulguée (92 % pour IA, 77,1 % pour humain, p = 0,00). L’émotivité variait significativement entre les textes (spécification : 2,06 ; description : 2,18 ; chatbot : 2,95, p = 0,00).

  2. Modèle de mesure : Après ajustement (suppression d’un item), le modèle CFA montre un bon ajustement (CFI = 0,938, TLI = 0,932, RMSEA = 0,043, SRMR = 0,054).

  3. Hypothèses :

    • H1b soutenu : La divulgation d’une source IA n’a pas d’impact négatif sur l’authenticité de la voix de marque par rapport à une source humaine ou non divulguée (p = 0,161 pour divulgation, p = 0,057 pour IA vs humain).

    • H2b soutenu : La divulgation d’une source IA n’affecte pas négativement l’attitude envers la marque (p = 0,382 pour divulgation, p = 0,111 pour IA vs humain).

    • H3 soutenu : L’authenticité de la voix de marque a un effet positif sur l’authenticité globale de la marque (β = 0,518, p = 0,000).

    • H4 soutenu : L’authenticité de la marque a un effet positif sur l’attitude envers la marque (β = 0,837, p = 0,000).

    • H5 non soutenu : L’émotivité du texte n’a pas d’effet modérateur sur l’impact de la source sur l’authenticité de la voix de marque (p = 0,264 pour divulgation, p = 0,101 pour IA vs humain).

Limites

  1. Échantillon limité : L’étude se concentre sur des étudiants anglophones en Europe, limitant la généralisation à d’autres âges ou contextes culturels (Kirkby et al., 2023).

  2. Source ambiguë : Les textes, bien que présentés comme IA ou humains, provenaient du site d’Adidas sans divulgation réelle de leur origine, ce qui pourrait influencer les perceptions.

  3. Focus sur le texte écrit : L’étude n’explore pas d’autres formes de communication (audio, vidéo) ou interactions bidirectionnelles.

  4. Marque unique : L’utilisation exclusive d’Adidas limite l’applicabilité à d’autres types de marques (par exemple, nouvelles ou en repositionnement).

Implications managériales

  • Transparence sans risque : Les marques peuvent divulguer l’utilisation d’IA pour les textes (spécifications, descriptions, chatbots) sans craindre une perte d’authenticité ou une attitude négative des consommateurs.

  • Économies potentielles : L’IA permet de réduire les coûts et le temps de production de contenu tout en maintenant une voix de marque cohérente, particulièrement pour les grandes quantités de descriptions.

  • Renforcement de l’authenticité : Investir dans une voix de marque authentique via l’IA peut améliorer l’authenticité globale de la marque et l’attitude des consommateurs.

  • Préparation réglementaire : Avec l’émergence de lois sur la transparence de l’IA (par exemple, proposition de l’UE), les marques doivent se préparer à divulguer l’utilisation de l’IA.

Références

Aaker, D. A. (1991). Managing brand equity: Capitalizing on the value of a brand name. New York, NY: Free Press.

Armstrong, J. S., Brodie, R. J., & Parsons, A. G. (2001). Hypotheses in marketing science: Literature review and publication audit. Marketing Letters, 12(2), 171–187. https://doi.org/10.1023/A:1011169104290

AX Semantics. (2022). Case studies. Retrieved from https://en.ax-semantics.com/casestudies

Baumgarth, C., Kirkby, A., & Kaibel, C. (2021). When fake becomes real: The innovative case of artificial influencers. In E. Pantano (Ed.), Creativity and marketing: The fuel for success (pp. 149–167). Bingley, UK: Emerald Publishing Limited. https://doi.org/10.1108/978-1-80071-330-720211010

BBC. (2020). MP proposes law on labels for digitally-altered body images. Retrieved from https://www.bbc.co.uk/news/uk-england-leicestershire-53959130

BBC. (2021). Influencers told not to use ‘misleading’ beauty filters. Retrieved from https://www.bbc.co.uk/news/uk-england-55824936

Bentler, P. M. (1990). Comparative fit indexes in structural models. Psychological Bulletin, 107(2), 238–246. https://doi.org/10.1037/0033-2909.107.2.238

Berger, B., Adam, M., Rühr, A., & Benlian, A. (2021). Watch me improve—Algorithm aversion and demonstrating the ability to learn. Business & Information Systems Engineering, 63(1), 55–68. https://doi.org/10.1007/s12599-020-00678-5

Bigman, Y. E., & Gray, K. (2018). People are averse to machines making moral decisions. Cognition, 181, 21–34. https://doi.org/10.1016/j.cognition.2018.08.003

Bogert, E., Schecter, A., & Watson, R. T. (2021). Humans rely more on algorithms than social influence as a task becomes more difficult. Scientific Reports, 11(1), 1–9. https://doi.org/10.1038/s41598-021-87480-9

Brown, S., Kozinets, R. V., & Sherry, J. F., Jr. (2003). Teaching old brands new tricks: Retro branding and the revival of brand meaning. Journal of Marketing, 67(3), 19–33. https://doi.org/10.1509/jmkg.67.3.19.18657

Bruhn, M., Schoenmüller, V., Schäfer, D., & Heinrich, D. (2012). Brand authenticity: Towards a deeper understanding of its conceptualization and measurement. Advances in Consumer Research, 40, 567–576.

Busser, J. A., & Shulga, L. V. (2019). Involvement in consumer-generated advertising: Effects of organizational transparency and brand authenticity on loyalty and trust. International Journal of Contemporary Hospitality Management, 31(4), 1763–1784. https://doi.org/10.1108/IJCHM-04-2018-0319

Cambier, F., & Poncin, I. (2020). Inferring brand integrity from marketing communications: The effects of brand transparency signals in a consumer empowerment context. Journal of Business Research, 109, 260–270. https://doi.org/10.1016/j.jbusres.2019.11.006

Castelo, N., Bos, M. W., & Lehmann, D. R. (2019). Task-dependent algorithm aversion. Journal of Marketing Research, 56(5), 809–825. https://doi.org/10.1177/0022243719851788

Chander, A., Wang, J., Srinivasan, R., Uchino, K., & Chelian, S. (2018). Working with beliefs: AI transparency in the enterprise. IUI Workshops. Retrieved from http://ceur-ws.org/Vol-2068/

Cheng, Y., & Jiang, H. (2021). Customer–brand relationship in the era of artificial intelligence: Understanding the role of chatbot marketing efforts. Journal of Product & Brand Management, 31(2), 252–264. https://doi.org/10.1108/JPBM-05-2020-2907

Cheng, X., Bao, Y., Zarifis, A., Gong, W., & Mou, J. (2022). Exploring consumers’ response to text-based chatbots in e-commerce: The moderating role of task complexity and chatbot disclosure. Internet Research, 32(2), 496–517. https://doi.org/10.1108/INTR-08-2020-0460

Clerwall, C. (2014). Enter the robot journalist. Journalism Practice, 8(5), 519–531. https://doi.org/10.1080/17512786.2014.883116

Davenport, T. H. (2019). Can we solve AI’s ‘trust problem’? MIT Sloan Management Review, 60(2), 18–19.

Dutton, D. (2003). Authenticity in art. In J. Levinson (Ed.), The Oxford handbook of aesthetics (pp. 258–274). New York, NY: Oxford University Press. https://doi.org/10.1093/oxfordhb/9780199279456.003.0014

European Commission. (2021). Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts [2021] COM 206 final, 2021/0106(COD). Retrieved from https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

Fardad, F. (2019). In a digitalized world, consumers yearn for authenticity from brands. Adweek. Retrieved from https://www.adweek.com/brand-marketing/in-a-digitalized-world-consumers-yearn-for-authenticity-from-brands/

Gilmore, J. H., & Pine, B. J. (2007). Authenticity: What consumers really want. Boston, MA: Harvard Business Review Press.

Götz, S. (2019). Bitte entschuldige mein Unvermögen [Please excuse my inability]. Zeit Online. Retrieved from https://www.zeit.de/mobilitaet/2019-06/roboter-semmi-deutsche-bahn-kundenservice-test

Graefe, A., Haim, M., Haarmann, B., & Brosius, H.-B. (2018). Readers’ perception of computer-generated news: Credibility, expertise, and readability. Journalism, 19(5), 595–610. https://doi.org/10.1177/1464884916641269

Harris, G. (1987). The implications of low-involvement theory for advertising effectiveness. International Journal of Advertising, 6(3), 207–221. https://doi.org/10.1080/02650487.1987.11107020

Henderson, G. R., Iacobucci, D., & Calder, B. J. (1998). Brand diagnostics: Mapping branding effects using consumer associative networks. European Journal of Operational Research, 111(2), 306–327. https://doi.org/10.1016/S0377-2217(98)00151-9

Hustvedt, G., & Kang, J. (2013). Consumer perceptions of transparency: A scale development and validation. Family and Consumer Sciences Research Journal, 41(3), 299–313. https://doi.org/10.1111/fcsr.12016

Imma. (2023). Imma.gram Instagram profile. Retrieved from https://www.instagram.com/imma.gram/

Inbar, Y., Cone, J., & Gilovich, T. (2010). People’s intuitions about intuitive insight and intuitive choice. Journal of Personality and Social Psychology, 99(2), 232–247. https://doi.org/10.1037/a0020215

Insider. (2021). Influencers in Norway will soon have to disclose when paid posts include edited or manipulated body photos. Retrieved from https://www.insider.com/norway-law-social-media-influencers-advertisers-disclose-edited-images-2021-7

Iwama, K., & Kano, Y. (2018). Japanese advertising slogan generator using case frame and word vector. Proceedings of the 11th International Natural Language Generation, 197–198. https://doi.org/10.18653/v1/W18-6523

Jago, A. S. (2019). Algorithms and authenticity. Academy of Management Discoveries, 5(1), 38–56. https://doi.org/10.5465/amd.2017.0002

Juniper Research. (2021). Conversational commerce channels to facilitate spending of over $290 billion globally by 2025, as omnichannel strategies drive interest. Retrieved from https://www.juniperresearch.com/press/conversational-commerce-channels-to-facilitate

Khawar, S. (2022). Biggest sportswear brands—Ranked according to 2021 yearly revenue. TotalSportal. Retrieved from https://www.totalsportal.com/list/biggest-sportswear-brands/

Knapp, P. (2017). AI, meet brand voice. Landor. Retrieved from https://landor.com/thinking/ai-meet-brand-voice

Köbis, N., & Mossink, L. D. (2021). Artificial intelligence versus Maya Angelou: Experimental evidence that people cannot differentiate AI-generated from human-written poetry. Computers in Human Behavior, 114, 106553. https://doi.org/10.1016/j.chb.2020.106553

Kohli, G. S., & Yen, X. (2020). Brand voice. In P. Foroudi & M. Palazzo (Eds.), Contemporary issues in branding (pp. 116–131). New York, NY: Routledge. https://doi.org/10.4324/9780429429156-8

Kotenidis, E., & Veglis, A. (2021). Algorithmic journalism—Current applications and future perspectives. Journalism and Media, 2(2), 244–257. https://doi.org/10.3390/journalmedia2020014

Kotler, P., & Armstrong, G. (1994). Principles of marketing (6th ed.). Englewood Cliffs, NJ: Prentice-Hall.

Laakasuo, M., Palomäki, J., & Köbis, N. (2021). Moral uncanny valley: A robot’s appearance moderates how its decisions are judged. International Journal of Social Robotics, 13(7), 1679–1688. https://doi.org/10.1007/s12369-020-00738-6

Lee, A. Y., & Labroo, A. A. (2004). The effect of conceptual and perceptual fluency on brand evaluation. Journal of Marketing Research, 41(2), 151–165. https://doi.org/10.1509/jmkr.41.2.151.28665

Lil Miquela. (2023). Lil Miquela Instagram profile. Retrieved from https://www.instagram.com/lilmiquela/?hl=en

Little, T. D., Bovaird, J. A., & Widaman, K. F. (2006). On the merits of orthogonalizing powered and product terms: Implications for modeling interactions among latent variables. Structural Equation Modeling: A Multidisciplinary Journal, 13(4), 497–519. https://doi.org/10.1207/s15328007sem1304_1

Longoni, C., & Cian, L. (2020). Artificial intelligence in utilitarian vs. hedonic contexts: The “word-of-machine” effect. Journal of Marketing, 86(1), 91–108.