Home

Featured

Lectures by Jean-Éric Pelet


LE CNAM

NOTRE DAME du GRANDCHAMP

IUT PARIS DESCARTES

EMLV

Brest Business School

PSB

EM Normandie

Fiche de lecture 1 :

Cenizo, C. (2025). Redefining consumer experience through artificial intelligence in the luxury retail sector. Journal of Retailing and Consumer Services.

Mots clés : intelligence artificielle, luxe, expérience client, invisibilité scénique, personnalisation curatoriale, infrastructure symbolique.

Cenizo (2025) étudie la tension apparente entre l’automatisation propre à l’Intelligence Artificielle (IA) et l’exigence d’exclusivité et d’émotion du secteur du luxe. À travers une étude qualitative menée auprès de 16 managers de marques de prestige, l’auteur cherche à comprendre comment intégrer la puissance de l’IA sans altérer l’image de marque.

  • En premier lieu, nous définirons le concept d’« invisibilité scénique » préconisé par l’auteur.
  • Nous aborderons ensuite la notion d’infrastructure symbolique nécessaire au maintien du prestige.
  • Enfin, nous analyserons la stratégie de « personnalisation curatoriale » qui distingue le luxe du marché de masse.

Développement :
Selon Cenizo(2025), l’intégration de l’IA dans le luxe doit répondre à un impératif d’invisibilité scénique. Ce concept désigne la nécessité absolue de dissimuler la technologie aux yeux du client pour ne pas briser la magie de l’expérience d’achat. Contrairement à d’autres secteurs, le luxe ne doit pas exposer la technologie pour elle-même. L’IA doit opérer en arrière-plan (coulisses), agissant comme un outil discret d’aide à la décision pour le vendeur humain, afin de rendre l’interaction plus riche et pertinente sans robotiser la relation client.

L’article développe également le concept d’infrastructure symbolique. Il s’agit de l’ensemble des codes immatériels, du langage soutenu et de l’esthétique raffinée propres à une maison de luxe. Si l’IA est amenée à faire des recommandations, elle ne peut se contenter de statistiques froides; elle doit adopter cette infrastructure symbolique pour que la technologie s’efface derrière la culture et l’histoire de la marque.

Enfin, l’auteur oppose la personnalisation de masse à la personnalisation curatoriale. Ce terme technique fait référence à une sélection exigeante et restreinte de produits, opérée par l’IA non pas pour maximiser les ventes, mais pour correspondre au goût pointu du client. Alors que le marché de grande consommation utilise l’IA pour inonder le client d’options, l’IA de luxe doit savoir filtrer et ne pas tout montrer pour préserver une part de mystère et de désir. C’est cette retenue stratégique qui garantit le sentiment d’exclusivité.

Conclusion :
L’article conclut que l’IA ne diminue pas la valeur perçue du luxe si elle respecte ses codes d’exclusivité. En restant invisible et au service de l’humain, elle permet de concilier l’efficacité du traitement de données avec l’émotion de l’expérience client.

Références bibliographiques

  • Cenizo, C. (2025). Redefining consumer experience through artificial intelligence in the luxury retail sector. Journal of Retailing and Consumer Services.

Fiche de lecture 2 :

Dwivedi, Y. K., et al. (2023). Metaverse marketing: How the metaverse will shape the future of consumer research and practice. Psychology & Marketing.

Mots clés : univers virtuels, extension de l’identité, avatar, produits numériques, dilution de marque.

Dwivedi et ses co-auteurs rassemblent des avis d’experts pour analyser les mutations du marketing à l’ère des mondes virtuels persistants. L’article se penche spécifiquement sur la manière dont les consommateurs utilisent ces nouveaux espaces pour se définir. L’hypothèse centrale est que l’avatar devient un prolongement de l’individu, ouvrant de nouvelles opportunités pour les marques de luxe.

  • Nous analyserons d’abord le rôle de l’avatar au travers du concept d’extension de l’identité.
  • Nous soulignerons ensuite les implications pour le secteur du luxe, notamment via la vente de biens immatériels.
  • Nous terminerons par les risques de dégradation de l’image de marque liés à l’expérience virtuelle.

Développement:
Les auteurs mettent en lumière le concept d’extension de l’identité. Il s’agit d’une théorie psychologique selon laquelle les possessions d’un individu (qu’elles soient réelles ou virtuelles) font partie intégrante de sa définition de soi aux yeux des autres. Dans les univers virtuels, l’avatar n’est pas un simple personnage de jeu, mais la nouvelle incarnation sociale du consommateur, son « corps numérique ».

Pour le secteur du luxe, cette dynamique justifie la vente de vêtements numériques (apparences virtuelles) à des prix élevés. Ces biens immatériels remplissent la même fonction sociale que les biens réels : signaler un statut, une richesse ou un style de vie. L’article note un paradoxe intéressant : le virtuel permet de créer des produits « impossibles » (matériaux inexistants, affranchissement des lois de la physique), ce qui peut, contre toute attente, augmenter l’exclusivité et la désirabilité de la marque.

Cependant, l’article avertit des risques technologiques. Une expérience virtuelle défaillante peut entraîner une dilution de la marque, c’est-à-dire une perte significative de valeur et de prestige aux yeux du consommateur. La maîtrise technique devient donc un facteur critique : une mauvaise exécution dans le virtuel endommage la réputation dans le réel.

Conclusion :
Les univers virtuels représentent un levier de croissance pour le luxe, permettant de monétiser l’identité numérique. Toutefois, les marques doivent transférer leur excellence du monde physique vers le monde virtuel pour ne pas briser le contrat de confiance.

Références bibliographiques

  • Dwivedi, Y. K., et al. (2023). Metaverse marketing: How the metaverse will shape the future of consumer research and practice. Psychology & Marketing.

Fiche de lecture 3 :

Xie, G. (2025). The impact of generative AI shopping assistants on E-commerce consumer motivation and behavior. International Journal of Information Management.

Mots clés : IA générative, assistants d’achat, motivation extrinsèque, confiance, conception de l’interface, comportement du consommateur.

Cet article étudie l’impact des assistants d’achat basés sur l’intelligence artificielle générative sur l’acte d’achat en ligne. L’auteur cherche à isoler les facteurs qui transforment une recommandation algorithmique en achat réel.

  • En premier lieu, nous identifierons les motivations principales des consommateurs, notamment la motivation extrinsèque.
  • Nous mettrons ensuite en lumière le rôle central de la confiance dans le processus de décision.
  • Enfin, nous expliquerons l’importance critique de la conception de l’interface utilisateur sur la perception de compétence de l’IA.

Développement :
L’étude démontre que la motivation extrinsèque est le facteur clé d’adoption de l’IA. Ce concept désigne le comportement d’un utilisateur qui agit non pas pour le plaisir de l’activité elle-même, mais pour atteindre un objectif précis et efficace (gain de temps, pertinence immédiate de la réponse). Le consommateur de luxe attend donc avant tout de l’utilité.

Cependant, l’auteur insiste sur le rôle pivot de la confiance. Le terme « pivot » signifie ici que la confiance est l’élément central qui fait basculer la décision : sans elle, aucune vente n’est possible. L’algorithme est souvent perçu comme une boîte noire, c’est-à-dire un système opaque dont le fonctionnement interne est incompréhensible pour l’utilisateur, générant de la méfiance.

Pour surmonter cette barrière, la conception de l’interface (l’aspect visuel et l’ergonomie) joue un rôle déterminant. L’analyse révèle que même si une IA est techniquement performante, une interface peu esthétique brise la confiance. Le consommateur associe inconsciemment la beauté du design à la compétence technique de l’intelligence. Ainsi, le design n’est pas un accessoire, mais une condition nécessaire à l’achat.

Conclusion :
L’utilisation de l’IA générative augmente la conversion à condition de lever les freins liés à la confiance par une interface soignée, prérequis indispensable pour que le consommateur accepte les conseils d’une machine.

Références bibliographiques

  • Xie,G. (2025). The impact of generative AI shopping assistants on E-commerce consumer motivation and behavior. International Journal of Information Management.

Fiche de lecture 4 :

Puntoni, S., Reczek, R. W., Giesler, M., & Botti, S. (2021). Consumers and Artificial Intelligence: An Experiential Perspective. Journal of Marketing, 85(1), 131-151.

Mots clés : expérience consommateur, adoption technologique, résistance psychologique, autonomie perçue, menace identitaire.

Cet article majeur propose un cadre théorique pour comprendre comment les consommateurs vivent l’expérience avec l’IA au quotidien. Contrairement aux approches purement techniques, les auteurs se concentrent sur les tensions psychologiques. Leur hypothèse est que l’IA peut créer un sentiment de menace existentielle pour le consommateur, qui craint de perdre son autonomie face à la machine.

  • En premier lieu, nous définirons la tension entre l’efficacité de l’IA et l’autonomie du consommateur.
  • Nous aborderons ensuite le concept de menace identitaire liée au remplacement de l’humain.
  • Enfin, nous analyserons les stratégies pour concevoir une IA qui respecte l’expérience utilisateur.

Développement :
Les auteurs identifient une tension critique concernant l’autonomie perçue. Ce concept se définit comme le sentiment subjectif du consommateur d’être à l’origine de ses propres choix et de garder le contrôle. Dans le luxe, si l’IA prend trop de décisions à la place du client (recommandations trop directives), celui-ci ressent une perte d’autonomie qui dégrade son expérience, même si la recommandation est juste.

L’article développe ensuite le concept de menace identitaire. Il s’agit de la peur inconsciente d’être remplacé ou dévalorisé par une machine capable de reproduire des capacités humaines. Pour des consommateurs aisés qui construisent leur identité sur l’unicité et le privilège, interagir avec une machine peut être perçu comme déshumanisant. L’étude montre que les consommateurs préfèrent une technologie d’augmentation (qui les rend plus compétents) plutôt qu’une technologie de remplacement (qui les rend passifs).

Enfin, concernant l’expérience, les auteurs soulignent l’importance de la transparence des données. Expliquer clairement pourquoi l’IA fait telle suggestion permet de redonner du pouvoir de décision au client et d’atténuer la méfiance envers l’algorithme.

Conclusion :
Cet article est fondamental car il explique les freins psychologiques. Il prouve que dans le luxe, l’adoption de l’IA ne dépend pas de la performance technologique, mais de la capacité de la marque à rassurer le client sur son statut d’être humain unique et autonome.

Références bibliographiques

  • Puntoni, S., Reczek, R. W., Giesler, M., & Botti, S. (2021). Consumers and Artificial Intelligence: An Experiential Perspective. Journal of Marketing.

Fiche de lecture 5 :

Prentice, C., & Nguyen, M. (2020). Engaging and retaining customers with AI and employee service. Journal of Retailing and Consumer Services, 56, 102186.

Mots clés : engagement client, service employé, intelligence artificielle, fidélité, attachement émotionnel.

Prentice et Nguyen (2020) étudient l’impact comparé de l’IA et des employés humains sur la fidélité des clients. L’étude est particulièrement pertinente car elle teste directement si l’IA peut remplacer l’humain pour créer de l’engagement. Leur hypothèse est que l’IA et l’humain jouent des rôles complémentaires mais distincts.

  • Nous distinguerons d’abord l’engagement fonctionnel de l’engagement émotionnel.
  • Nous analyserons ensuite les limites de l’IA pour retenir les clients sur le long terme.
  • Nous terminerons par la notion de service hybride comme solution idéale.

Développement :
L’article met en évidence deux types d’engagement. L’engagement fonctionnel est lié à la performance utilitaire : la rapidité, la précision et la disponibilité immédiate. Sur ce point, l’IA excelle et satisfait les clients pressés. En revanche, l’engagement émotionnel, défini comme le sentiment d’être compris, spécial et affectivement attaché à la marque, reste le domaine réservé des employés humains.

L’étude montre via des analyses statistiques que si l’IA améliore la satisfaction immédiate, elle a un impact faible sur la rétention à long terme (la capacité à garder un client fidèle). Dans le secteur du luxe, où la fidélité repose sur l’affect, l’IA seule est insuffisante. Les clients peuvent être satisfaits par un agent conversationnel (chatbot), mais ils ne développent pas de lien sentimental avec la marque à travers lui.

Les auteurs concluent sur la nécessité d’un service hybride. Il s’agit d’une stratégie combinant les forces de l’IA (pour gérer les tâches répétitives) et celles des humains (pour les interactions à forte valeur ajoutée), libérant ainsi du temps aux employés pour se concentrer sur l’émotion.

Conclusion :
Cet article valide les limites de l’automatisation. Il démontre scientifiquement que pour maintenir l’exclusivité et l’attachement propre au luxe, l’IA ne peut être qu’un support technique et non le visage principal de la relation client.

Références bibliographiques

  • Prentice, C., & Nguyen, M. (2020). Engaging and retaining customers with AI and employee service. Journal of Retailing and Consumer Services.

 

Intelligence artificielle et recherche en gestion

Référence (format APA)

Véry, P., & Cailluet, L. (2019). Intelligence artificielle et recherche en gestion. Revue française de gestion, 285, 119-134.

https://doi.org/10.3166/rfg.2020.00405

 

Mots clés de l’article :

Mots clés : intelligence artificielle, recherche en gestion, machine learning, diffusion scientifique, production scientifique, Big Data, méthodes analytiques, épistémologie

 

Synthèse :

Philippe Véry et Ludovic Cailluet analysent l’impact de l’intelligence artificielle (IA) sur la recherche en sciences de gestion. L’article explore comment l’IA influence les pratiques de production et de diffusion scientifique, les compétences nécessaires aux chercheurs, ainsi que les implications épistémologiques et institutionnelles. Les auteurs soulignent que l’IA ne remplacera pas le chercheur mais transformera son rôle, ses méthodes et son accès aux données.

L’article examine d’abord la définition et les types d’IA (faible, forte, machine learning, deep learning, reinforcement learning, traitement du langage naturel) et leurs développements récents. Ensuite, il discute des bouleversements attendus et des critiques sur les scénarios futuristes tels que la singularité et la crainte que l’IA dépasse l’intelligence humaine. Les auteurs insistent sur l’importance d’une approche pragmatique, notamment via le concept d’intelligence augmentée.

 

Développement :

  1. IA et production scientifique :
    • L’IA est largement utilisée dans la médecine pour le diagnostic, l’analyse génétique, la détection de tumeurs et la prédiction de l’évolution des maladies.
    • Elle permet de surpasser certains biais cognitifs des chercheurs humains et d’ouvrir de nouvelles perspectives, notamment par la citizen science ou le crowdsourcing.
    • L’IA relance le débat entre rationalité et empirisme, mettant en tension l’approche théorique et l’analyse de données massives.
  2. IA et diffusion scientifique :
    • L’IA aide les éditeurs et reviewers à analyser les manuscrits : sélection initiale, détection de plagiat, identification de reviewers, résumé automatique et évaluation de rigueur méthodologique.
    • Bien que l’IA automatise certaines tâches, la décision finale reste humaine. Toutefois, elle introduit de nouveaux biais (ex. biais de genre) dans l’évaluation scientifique.
  3. Problèmes d’accès et coût :
    • L’IA nécessite l’accès à de grandes bases de données et des compétences techniques spécifiques (cloud computing, programmation).
    • Les coûts et compétences requis peuvent créer une fracture entre chercheurs ou institutions selon leurs moyens.
  4. IA et recherche en gestion :
    • L’IA est à la fois objet et méthode de recherche : en RH, marketing, finance, etc.
    • Elle permet l’analyse de grandes quantités de données qualitatives et historiques, et améliore la productivité du chercheur.
    • L’article souligne que l’IA modifie le rôle du chercheur, de l’éditeur et du reviewer, et peut créer des inégalités entre chercheurs selon leur maîtrise des méthodes IA.

 

Conclusion :

L’IA pénètre progressivement la recherche en sciences de gestion, impactant production, diffusion, méthodologie et financement de la recherche. Elle oblige les chercheurs à acquérir de nouvelles compétences et à repenser leur positionnement épistémologique. L’IA pourrait transformer les normes de la recherche, en renforçant la rigueur et en favorisant une approche empirique. Toutefois, elle ne remplacera pas l’activité humaine, mais modifiera profondément l’écosystème académique et institutionnel.

 

Références bibliographiques (format APA)

Véry, P., & Cailluet, L. (2019). Intelligence artificielle et recherche en gestion. Revue française de gestion, 285, 119-134. https://doi.org/10.3166/rfg.2020.00405

Industry experiences of artificial intelligence (AI): Benefits and challenges in operations and supply chain management

Référence (format APA)

Fosso Wamba, S., Queiroz, M. M., Guthrie, C., & Braganza, A. (2021). Industry experiences of artificial intelligence (AI): Benefits and challenges in operations and supply chain management. Production Planning & Control. https://doi.org/10.1080/09537287.2021.1882695

 

Mots clés de l’article :

Mots clés : artificial intelligence, Industry 4.0, operations management, supply chain management, performance, adoption challenges

 

Synthèse :

Samuel Fosso Wamba, Maciel M. Queiroz, Cameron Guthrie et Ashley Braganza analysent le rôle croissant de l’intelligence artificielle (IA) dans la transformation des opérations et de la supply chain. Les auteurs montrent que l’IA constitue aujourd’hui une technologie clé de l’Industrie 4.0, capable d’améliorer la performance opérationnelle, la prise de décision et la résilience des chaînes logistiques, tout en soulevant des défis organisationnels, technologiques et humains.

Dans un premier temps, l’article met en évidence l’interaction entre l’IA et la gestion des opérations et des chaînes logistiques. Ensuite, il présente les contributions académiques et industrielles sélectionnées dans ce numéro spécial. Enfin, les auteurs proposent des pistes de recherche futures pour les chercheurs et les praticiens.

 

Développement :

Selon Fosso Wamba et al. (2021), l’intelligence artificielle joue un rôle central dans la modernisation des systèmes de production et de supply chain, notamment grâce à sa capacité à traiter de grandes quantités de données et à automatiser des processus complexes. L’IA est utilisée dans des domaines variés tels que la prévision de la demande, l’optimisation des stocks, la maintenance prédictive, la planification de la production et la gestion de la distribution.

Les auteurs soulignent que l’IA ne fonctionne pas de manière isolée, mais en synergie avec d’autres technologies de l’Industrie 4.0 telles que l’Internet des objets (IoT), le big data, la blockchain et les systèmes cyber-physiques. Cette combinaison permet aux entreprises d’améliorer la visibilité, la flexibilité et l’agilité de leurs chaînes logistiques, tout en réduisant les coûts et les erreurs opérationnelles.

L’article met également en évidence plusieurs expériences industrielles concrètes. Par exemple, des entreprises comme Amazon, DHL ou General Motors utilisent l’IA pour optimiser les opérations d’entrepôt, la planification des tournées ou la maintenance des équipements. Ces applications démontrent le potentiel de l’IA à créer un avantage concurrentiel durable.

Cependant, Fosso Wamba et al. insistent sur les défis liés à l’adoption de l’IA. Parmi ceux-ci figurent le manque de compétences internes, la résistance au changement, les coûts d’implémentation, les questions éthiques et la dépendance à la qualité des données. Les auteurs montrent que la simple adoption d’outils d’IA ne garantit pas automatiquement des bénéfices : une stratégie claire, un soutien managérial et une transformation organisationnelle sont nécessaires.

Enfin, l’article propose une classification des recherches présentées dans le numéro spécial selon différentes approches de l’IA (robots intelligents, apprentissage automatique, systèmes hybrides). Cette typologie permet de mieux comprendre les multiples applications de l’IA dans la gestion des opérations et de la supply chain.

 

Conclusion :

Cet article met en lumière le rôle stratégique de l’intelligence artificielle dans l’amélioration de la performance et de la résilience des opérations et des chaînes logistiques. Il montre que l’IA constitue un levier majeur de transformation pour les entreprises évoluant dans un environnement incertain et fortement concurrentiel.

Toutefois, les auteurs soulignent que la réussite des projets d’IA dépend fortement de facteurs organisationnels, humains et technologiques. L’article offre ainsi un cadre de réflexion pertinent pour les chercheurs et les praticiens souhaitant comprendre les bénéfices, les limites et les conditions de succès de l’IA en supply chain management.

 

Références bibliographiques (format APA)

Fosso Wamba, S., Queiroz, M. M., Guthrie, C., & Braganza, A. (2021). Industry experiences of artificial intelligence (AI): Benefits and challenges in operations and supply chain management. Production Planning & Control. https://doi.org/10.1080/09537287.2021.1882695

Transformer l’ombre en lumière opérationnelle

Fiche de Lecture n°5

Référence : Fürstenau, D., Rothe, H., & Sandner, M. (2021). Leaving the shadow: A configurational approach to explain post-identification outcomes of shadow IT systems. Business & Information Systems Engineering, 63(2), 97-111.

Mots-clés & Définitions

  • Approche configurationnelle : Méthode analysant comment une synergie de facteurs (confiance, technique, culture) produit un résultat spécifique (cf. Fürstenau et al., p. 98, où l’étude traite 27 cas réels de Shadow IT pour identifier les combinaisons gagnantes).

  • Business-IT Alignment : Synchronisation stratégique entre les outils technologiques et les besoins du terrain.

  • Post-identification : Phase critique suivant la découverte d’un outil non autorisé.

  • Gouvernance IT : Cadre définissant les responsabilités et les règles de conformité.

Synthèse

Les auteurs proposent de percevoir le Shadow IT non plus comme une menace, mais comme un laboratoire d’innovation gratuit (cf. Fürstenau et al., p. 100). L’étude démontre que ces systèmes sont des prototypes révélant des besoins métiers que la DSI n’a pas anticipés. En analysant la trajectoire de 27 outils “sauvages”, l’étude prouve que la répression n’est jamais l’option la plus rentable à long terme.

Développement : Indicateurs et Trajectoires

1. Le Moment de Vérité : Les 4 issues stratégiques

Après la découverte, la DSI doit arbitrer entre quatre chemins. L’étude montre que le choix n’est pas aléatoire mais dépend de la valeur métier de l’outil (cf. Fürstenau et al., p. 102) :

  • Phase-out (Suppression) : Appliqué quand le risque technique est jugé trop élevé par rapport au gain métier.

  • Replacement : La DSI remplace l’outil par une solution officielle.

  • IT-managed (Légalisation) : La DSI adopte et sécurise l’outil. C’est le scénario où le Shadow IT devient une innovation officielle.

  • Business-managed (Délégation) : Le métier garde la main sous surveillance.

2. Le facteur X : Le poids de la Confiance (Trust)

C’est le résultat chiffré le plus important de l’étude (cf. Fürstenau et al., p. 106) :

  • Impact de la relation : Dans les 27 cas étudiés, la qualité de la relation humaine pèse plus lourd que la performance technique de l’outil dans la décision finale.

  • Taux de succès du “Trustful Replacement” : Lorsque la confiance est haute, le passage du clandestin au légal se fait sans perte de productivité (cf. Fürstenau et al., p. 107). À l’inverse, une méfiance élevée garantit un retour à l’ombre dans 100 % des cas à court terme.

3. Analyse du Risque : Le cercle vicieux de la répression

L’étude quantifie les conséquences d’une gouvernance trop rigide (cf. Fürstenau et al., p. 108) :

  • Multiplication des risques : Une DSI perçue comme un “gendarme” n’élimine pas le Shadow IT ; elle le rend plus complexe à détecter.

  • Perte de visibilité : La répression pousse les employés à utiliser des solutions encore plus fragmentées (macros locales, cloud personnel), augmentant les failles de sécurité de manière invisible pour les outils de monitoring de la DSI.

Conclusion pour le Jury : L’Apport Stratégique de notre Étude

Au terme de cette analyse, les travaux de Fürstenau et al. (2021) permettent à notre étude de conclure que le défi des DSI réside dans l’orchestration.

Nous soutenons que le « Cloud clandestin » est le baromètre de l’agilité organisationnelle. En analysant les 27 configurations de l’étude, nous comprenons que transformer une ressource sauvage en innovation sécurisée est le levier de transformation le plus efficace pour un DSI. La valeur ajoutée réside dans le facteur « confiance » (cf. Fürstenau et al., p. 106), qui permet au DSI de valider sa mutation de « Constructeur » à « Service Broker ».

Notre étude utilise ce cadre pour démontrer que le succès du Cloud Hybride ne se mesure pas au contrôle exercé (souvent contourné), mais à la capacité de la DSI à intégrer les initiatives du terrain pour en faire des actifs stratégiques officiels.

Références bibliographiques : Fürstenau, D., Rothe, H., & Sandner, M. (2021). Leaving the shadow: A configurational approach to explain post-identification outcomes of shadow IT systems. Business & Information Systems Engineering, 63(2), 97-111.

Analyse de l’impact de l’adoption Cloud en Afrique de l’Ouest

Fiche de Lecture n°4

Référence : Senyo, P. K., Effah, J., & Addae, E. (2016). Preliminary insight into cloud computing adoption in a developing country. Journal of Enterprise Information Management, 29(4), 505-524.

Mots-clés & Définitions

  • Leap frogging (Saut technologique) : Stratégie de développement permettant de s’affranchir des étapes intermédiaires (infrastructures lourdes on-premise) pour adopter directement des solutions de pointe comme le Cloud.

  • Avantage Relatif : Indice d’amélioration de l’efficience opérationnelle et de la flexibilité par rapport aux systèmes hérités (cf. Senyo et al., p. 512, où l’adoption est corrélée à un gain de performance perçu).

  • Technology Readiness (Préparation Technologique) : Évaluation de la maturité des infrastructures critiques (énergie, connectivité) et de l’expertise du capital humain (cf. Senyo et al., p. 514).

  • Facteur Non-significatif : Variable dont l’influence réelle sur le processus décisionnel final est statistiquement nulle (0 %) au sein de l’échantillon étudié.

Synthèse

P. K. Senyo et son équipe ont mené une investigation quantitative d’envergure auprès de 305 grandes entreprisesghanéennes, ciblant les leaders du secteur bancaire (tels que GCB Bank), des télécommunications (MTN, Vodafone) et des institutions majeures du secteur public. L’étude démontre que dans un marché émergent, l’adoption du Cloud répond à un impératif de croissance organique et d’agilité, faisant abstraction des cadres réglementaires encore balbutiants (cf. Senyo et al., p. 508).

Développement

1. Un panel représentatif de l’élite économique

L’étude s’appuie sur un échantillon de 305 organisations structurantes pour l’économie régionale. Le choix de ces secteurs (Banques, Télécoms, Gouvernement) permet de valider des résultats applicables aux environnements à haute exigence de disponibilité et de sécurité, similaires à ceux rencontrés dans le contexte ivoirien.

2. L’Avantage Relatif : Un moteur de décision prédominant

Le gain de performance est le principal catalyseur de la transition numérique (cf. Senyo et al., p. 512) :

  • Impact sur la décision : Environ 45 % de la motivation d’adoption est directement liée à la promesse de flexibilité et de réduction des barrières à l’innovation.

  • Dynamique métier : Le Cloud est perçu comme l’outil permettant de s’aligner sur les standards de service internationaux sans supporter les coûts prohibitifs de maintenance d’un parc serveurs physique.

3. Le binôme Sécurité & Préparation : Les variables de risque

Malgré l’attrait pour le Cloud, deux freins structurels pèsent sur l’agenda des décideurs (cf. Senyo et al., p. 513) :

  • Préparation Technologique : Environ 35 % de la réussite d’un projet dépend de la stabilité des infrastructures locales (énergie et fibre). Sans cette “Readiness”, le projet perd sa viabilité opérationnelle (cf. Senyo et al., p. 514).

  • Incertitude sécuritaire : La crainte liée à la souveraineté numérique (localisation des données) représente un frein d’environ 20 %. Ce point souligne la nécessité stratégique d’une approche hybride.

4. Le paradoxe institutionnel : Le pragmatisme avant la loi

C’est l’enseignement le plus disruptif pour un analyste (cf. Senyo et al., p. 516) :

  • Soutien Réglementaire : Son influence est jugée non-significative (0 % d’impact) sur la décision finale.

  • Analyse : Les entreprises n’attendent pas l’émanation de lois numériques (type RGPD) pour engager leur transformation. C’est le besoin de compétitivité business qui dicte le calendrier, devançant systématiquement le législateur.

Conclusion

Au terme de cette analyse, les travaux de Senyo et al. (2016) apportent une preuve empirique du pragmatisme technologique en Afrique subsaharienne. Nous soutenons que la logique d’adoption suit un paradigme d’opportunité plutôt que de conformité. Pour notre étude comparative entre la France et la Côte d’Ivoire, cet article nous permet de formuler une distinction majeure :

  1. En France, le DSI est un architecte de la conformité réglementaire.

  2. En Côte d’Ivoire, le DSI est un débrouillard stratégique qui doit garantir les 45 % de gain de performance tout en naviguant dans un environnement où l’infrastructure de base est une variable d’ajustement.

Nous concluons que cette réalité renforce le rôle du Service Broker. En l’absence de soutien réglementaire moteur , le DSI doit devenir l’unique garant de la confiance et de la continuité de service, en proposant un Cloud Hybride capable d’absorber les instabilités locales tout en offrant la puissance des standards mondiaux.

Références bibliographiques : Senyo, P. K., Effah, J., & Addae, E. (2016). Preliminary insight into cloud computing adoption in a developing country. Journal of Enterprise Information Management, 29(4), 505-524.

Les déterminants de l’adoption du Cloud — Une approche quantitative

Fiche de Lecture n°3 : Les déterminants de l’adoption du Cloud — Une approche quantitative

Référence : Schneider, S., & Sunyaev, A. (2016). Determinants of Cloud Computing Adoption: A Meta-Analysis of the Empirical Literature. Journal of Management Information Systems, 33(1), 286-312.

Mots-clés & Définitions

  • Méta-analyse : Méthode statistique compilant les résultats de multiples études indépendantes pour identifier des tendances universelles (cf. Schneider & Sunyaev, p. 287, où les auteurs justifient l’agrégation de 48 études empiriques pour dépasser les biais des échantillons isolés).

  • Modèle TOE (Technology-Organization-Environment) : Cadre théorique analysant l’adoption d’une innovation selon trois contextes (cf. Schneider & Sunyaev, p. 290, définissant ce modèle comme le standard académique pour structurer les facteurs influençant les décisions technologiques complexes).

  • Systèmes Legacy (Héritage) : Infrastructures informatiques vieillissantes mais critiques, souvent incompatibles avec les standards modernes du Cloud.

  • Top Management Support : Engagement actif des instances dirigeantes dans la transformation numérique.

Synthèse

S. Schneider et A. Sunyaev livrent ici une étude de référence qui transforme les intuitions managériales en preuves statistiques. En analysant des années de recherche, ils démontrent que l’adoption du Cloud n’est pas une simple transition technique, mais une équation stratégique où le facteur humain et organisationnel pèse souvent plus lourd que la technologie elle-même (cf. Schneider & Sunyaev, p. 292).

Développement

1. La validation du modèle TOE : Le socle de notre méthodologie

L’article valide la pertinence du cadre TOE comme boussole pour explorer la complexité du Cloud. Pour notre étude comparative France-Côte d’Ivoire, cela permet de segmenter l’analyse de manière rigoureuse (cf. Schneider & Sunyaev, p. 294, soulignant que l’interaction entre les trois piliers — Technologique, Organisationnel et Environnemental — explique la majorité de la variance dans les décisions d’adoption).

2. Technologie : Le poids des chiffres sur la Sécurité et la Compatibilité

La méta-analyse apporte un éclairage crucial sur les barrières techniques (cf. Schneider & Sunyaev, p. 298, détaillant les coefficients de corrélation des déterminants technologiques) :

  • Le paradoxe de la Sécurité : Bien que citée dans plus de 80 % des études comme le frein n°1, les auteurs démontrent qu’il s’agit d’une incertitude perçue (facteur psychologique) plutôt que d’un risque technique systématiquement corrélé à un échec d’adoption.

  • L’obstacle de la Compatibilité : L’étude montre que l’alignement avec les systèmes Legacy est un prédicteur statistique fort. Si le Cloud ne “parle” pas aux outils existants, la probabilité d’adoption chute drastiquement.

3. Organisation : Le soutien de la direction, moteur n°1

C’est le résultat le plus puissant de la méta-analyse (cf. Schneider & Sunyaev, p. 302, identifiant le Top Management Support comme la variable ayant l’impact positif le plus significatif sur l’intention d’adoption).

  • Levier stratégique : L’adoption du Cloud étant une mutation financière (CAPEX vers OPEX), elle nécessite une impulsion venant du sommet pour surmonter les rigidités budgétaires internes.

4. Le Paradoxe des Coûts : Un ROI complexe

L’étude casse le mythe des économies automatiques (cf. Schneider & Sunyaev, p. 305, analysant le calcul du Retour sur Investissement). Pour les grandes entreprises, la réduction des coûts n’est pas un déterminant significatif à court terme en raison des coûts de migration cachés et de la nécessité de maintenir une infrastructure hybride durant la transition.

Conclusion

Au terme de cette analyse, les travaux de Schneider & Sunyaev (2016) constituent le socle théorique de notre recherche. Ils nous permettent de justifier scientifiquement pourquoi notre étude ne se focalise pas uniquement sur la technique, mais accorde une place centrale à la culture d’entreprise.

Nous soutenons que le modèle TOE est la clé pour comprendre les disparités entre les marchés français et ivoiriens.

  • En France, le contexte “Environnemental” (RGPD) peut primer.

  • En Côte d’Ivoire, le contexte “Organisationnel” (Soutien de la direction) est peut-être le levier qui débloque les infrastructures “Technologiques” limitées.

Nous concluons que cette méta-analyse valide notre vision du DSI comme Service Broker : son rôle est de naviguer entre ces déterminants pour construire un Cloud Hybride qui réconcilie sécurité perçue, compatibilité technique et vision managériale.

Références bibliographiques : Schneider, S., & Sunyaev, A. (2016). Determinants of Cloud Computing Adoption: A Meta-Analysis of the Empirical Literature. Journal of Management Information Systems, 33(1), 286-312.

Le Cloud va-t-il tuer le DSI ( Directeur des Systèmes d’Information) ?

Fiche de Lecture n°2

Référence : Vithayathil, J. (2018). Will cloud computing make the CIO obsolete? Empirical evidence from the US public sector. Information Systems Journal, 28(1), 116-142.

Mots-clés & Définitions

  • Obsolescence professionnelle : Crainte qu’une expertise devienne inutile suite à une rupture technologique (cf. p. 118, où l’auteur définit le risque de déclassement des cadres IT face à l’automatisation des infrastructures).

  • Empire Building (Construction d’empire) : Stratégie de pouvoir visant à accroître son autorité par la gestion de budgets et d’effectifs massifs (cf. p. 132, illustrant comment la possession physique de serveurs renforce le statut social du DSI).

  • Service Broker (Courtier de services) : Nouvelle posture du DSI qui orchestre des solutions externes plutôt que de construire l’informatique en interne.

  • CAPEX vs OPEX : Transition comptable de l’investissement lourd (achat) vers la dépense opérationnelle (abonnement).

Synthèse

Joseph Vithayathil lève le voile sur un sujet tabou : la survie politique du DSI. En analysant le secteur public américain, marqué par une forte bureaucratie, il démontre que les freins au Cloud ne sont pas toujours techniques, mais résultent d’une peur de perdre son « territoire » (cf. p. 120, posant la question centrale de la résistance des cadres IT pour protéger leur influence organisationnelle). L’étude prouve que le Cloud ne rend pas le DSI obsolète, mais exige une mutation radicale vers un rôle de stratège de services informatique .

Développement

1. L’Hypothèse de l’Obsolescence : La peur du vide technique

L’auteur teste la crainte majeure de la profession : si l’infrastructure est externalisée (SaaS/IaaS), la fonction DSI n’est-elle pas vidée de sa substance ? (cf. p. 122, où J. Vithayathil analyse le risque de voir le DSI réduit à un simple « gestionnaire de factures » sans pouvoir de décision technique). Cette angoisse alimente une résistance souvent déguisée en arguments de sécurité.

2. Le paradoxe budgétaire : Plus de flux, moins de fer

L’étude apporte un démenti aux idées reçues : le Cloud ne réduit pas forcément le budget géré (cf. p. 128, présentant des données qui montrent que le passage à l’OPEX peut maintenir, voire augmenter, l’enveloppe financière de la DSI). Le changement ne porte pas sur le montant, mais sur l’allocation : le DSI dépense mieux pour des services à haute valeur ajoutée plutôt que dans de la maintenance matérielle.

3. La politique du « Territoire » (L’Empire Building)

C’est le cœur du problème : un DSI traditionnel est souvent jugé à la taille de son parc informatique et de ses équipes. Le Cloud dématérialise cet « empire » (cf. p. 133, expliquant que la perte de contrôle sur les serveurs physiques est vécue comme une perte de prestige au sein du comité de direction). Le frein est donc ici lié à la protection du statut social du décideur.

4. La mutation nécessaire : Vers le DSI « Broker »

Pour survivre, le DSI doit pivoter de « Constructeur » (Builder) à « Courtier » (Service Broker) (cf. p. 137, décrivant ce nouveau framework où la valeur ajoutée réside dans la négociation des contrats et l’alignement des services sur la stratégie métier).

Conclusion pour le Jury : L’Apport Stratégique de notre Étude

Au terme de cette analyse, les travaux de Vithayathil (2018) permettent à notre étude de démontrer que les blocages au Cloud Hybride ne sont pas uniquement des questions de sécurité, mais des enjeux de pouvoir.

Nous soutenons que la « Résistance Politique » identifiée par l’auteur est un facteur clé de notre comparaison France-Côte d’Ivoire.

  • En France, elle se traduit par une peur de la dilution de l’influence IT dans des structures très hiérarchisées.

  • En Côte d’Ivoire, elle peut s’expliquer par la valorisation du contrôle direct sur des actifs tangibles.

Notre étude utilise ces conclusions pour prouver que le passage au Cloud Hybride est un compromis stratégique : il permet au DSI de conserver une part de son « empire » (On-premise) tout en assumant son nouveau rôle de Service Broker pour l’innovation.

Références bibliographiques : Vithayathil, J. (2018). Will cloud computing make the CIO obsolete? Empirical evidence from the US public sector. Information Systems Journal, 28(1), 116-142.

Le Shadow IT, symptôme d’une DSI à bout de souffle ?

Fiche de Lecture n°1

Référence : Baillette, P., Barlette, Y., & Berthevas, J.-F. (2022). Benefits and risks of shadow IT in health care: A Narrative Review of the Literature. Systèmes d’Information et Management, 27(2), 59-96.

Mots-clés & Définitions

  • Shadow IT : Ensemble des systèmes, logiciels et matériels utilisés sans l’approbation de la DSI (cf. Baillette et al., p. 62).

  • Adoption inversée : Processus où l’employé impose un outil personnel au bureau avant toute régularisation (cf. Baillette et al., p. 68).

  • Pseudo-conformité : Respect formel d’une règle de sécurité tout en la contournant par l’usage (cf. Baillette et al., p. 85).

  • Rigidité des SI : Incapacité structurelle de la DSI à évoluer au rythme des besoins métiers.

Synthèse

Les auteurs P. Baillette, Y. Barlette et J.-F. Berthevas démontrent que le Shadow IT est un paradoxe organisationnel. Il n’est pas le fruit d’une malveillance, mais d’une nécessité opérationnelle : l’utilisateur devient son propre DSI pour pallier la lenteur des systèmes officiels (cf. Baillette et al., p. 65).

Développement

1. L’ampleur du phénomène : Les chiffres de l’informatique invisible

L’article souligne que le Shadow IT n’est pas marginal mais structurel. En s’appuyant sur la littérature synthétisée, notre étude retient des indicateurs alarmants sur l’écart entre la perception de la DSI et la réalité du terrain (cf. Baillette et al., p. 70) :

  • L’iceberg budgétaire : On estime que 30 % à 40 % des dépenses IT globales d’une grande entreprise sont réalisées en dehors du contrôle de la DSI.

  • Le décalage de perception : Alors qu’une DSI pense gérer en moyenne 30 à 40 applications Cloud, la réalité terrain révèle souvent l’existence de plus de 800 à 1000 services SaaS différents utilisés par les employés.

  • L’omniprésence du Cloud personnel : Plus de 80 % des collaborateurs admettent utiliser des applications non approuvées (WhatsApp, Dropbox, Trello) pour accomplir leurs missions quotidiennes.

2. L’efficacité comme moteur (Le réflexe de survie)

L’outil sauvage est utilisé comme un « pansement » technologique (cf. Baillette et al., p. 72). L’agilité immédiate prime sur la sécurité. Ce besoin est exacerbé dans les secteurs où la réactivité est vitale, comme la santé ou le commerce, où chaque minute perdue sur un logiciel officiel complexe est perçue comme un risque métier.

3. Les risques : Une sécurité en « gruyère »

Si l’efficacité individuelle progresse, la vulnérabilité collective explose (cf. Baillette et al., p. 80) :

  • Cyberattaques : Environ 60 % des fuites de données et des intrusions par ransomwares dans les entreprises trouvent leur origine dans un élément du Shadow IT (terminal non géré ou application non sécurisée).

  • Intégrité des données : La multiplication des silos de données empêche toute “source unique de vérité” (cf. Baillette et al., p. 82). Si 10 employés utilisent 10 versions différentes d’un fichier client sur Dropbox, le pilotage stratégique devient impossible.

4. Le comportement humain : Le paradoxe de la « Pseudo-conformité »

L’article met en lumière l’échec des politiques de sécurité trop restrictives. L’exemple du Post-it (cf. Baillette et al., p. 87) illustre parfaitement ce point : imposer des règles de complexité sans ergonomie conduit 100 % des utilisateurs à trouver un moyen de contournement physique ou numérique pour ne pas être bloqués.

Conclusion

Au terme de cette analyse, les travaux de Baillette et al. (2022) constituent la preuve par les chiffres que la répression est inefficace.

Nous soutenons que le Shadow IT est le baromètre de l’échec de la DSI traditionnelle. Pour notre étude comparative entre la France et la Côte d’Ivoire, ces données valident l’impératif du Cloud Hybride. Il ne s’agit plus de tout interdire, mais de proposer une plateforme officielle offrant la même agilité que les outils grand public (SaaS) avec la sécurité du On-premise.

Nous concluons que le DSI doit cesser d’être un “censeur” pour devenir un Service Broker. C’est l’unique voie pour réintégrer les 40 % de dépenses IT fantômes dans un cadre gouverné, sécurisé et créateur de valeur pour l’entreprise.

Références bibliographiques : Baillette, P., Barlette, Y., & Berthevas, J.-F. (2022). Benefits and risks of shadow IT in health care: A Narrative Review of the Literature. Systèmes d’Information et Management, 27(2), 59-96.

Engagement, telepresence and interactivity in online consumer experience: Reconciling scholastic and managerial perspectives

Mollen, A., & Wilson, H. (2010). Engagement, telepresence and interactivity in online consumer experience: Reconciling scholastic and managerial perspectives. Journal of Business Research, 63(9-10), 919–925.

Objectif

L’article de Mollen et Wilson vise à réconcilier les perspectives des praticiens et des chercheurs sur l’engagement en ligne, en proposant un cadre conceptuel qui intègre l’engagement, la téléprésence et l’interactivité comme des construits distincts de l’expérience consommateur en ligne. Les objectifs spécifiques sont :

  1. Définir l’engagement comme un construit expérientiel distinct, indépendant de l’interactivité, de la téléprésence et du flux (flow).

  2. Positionner l’engagement dans un continuum expérientiel, en clarifiant ses relations avec les autres construits.

  3. Proposer des dimensions pour l’engagement et suggérer des directions pour développer une échelle de mesure.

  4. Explorer les implications pour la théorie et la pratique du marketing en ligne.

Méthodologie

L’article adopte une approche conceptuelle et synthétique, sans collecte de données empiriques primaires. La méthodologie comprend :

  • Une revue de la littérature académique et professionnelle sur l’expérience en ligne, incluant les construits d’interactivité, de téléprésence, de flux et d’engagement.

  • L’utilisation du modèle Stimulus-Organisme-Réponse (S-O-R) d’Eroglu et al. (2003) comme cadre théorique pour structurer l’expérience en ligne en trois composantes : stimuli (site web et environnement), état interne (réponse expérientielle) et réponses (attitudes et comportements).

  • La proposition d’un spectre expérientiel à trois niveaux (interactivité perçue, téléprésence, engagement) avec des définitions et des propositions testables.

  • Une analyse comparative des définitions d’engagement et une distinction avec le construit d’implication (involvement).

Résultats

  1. Cadre conceptuel :

    • L’expérience en ligne est modélisée comme un spectre expérientiel dynamique, allant de l’interactivité perçue (contrôle, communication bidirectionnelle, réactivité) à la téléprésence (immersion cognitive et maîtrise des heuristiques du site) et enfin à l’engagement (engagement cognitif et affectif envers la marque personnifiée par le site).

    • Proposition 1 : L’interactivité perçue résulte de l’exposition à l’environnement en ligne et aux propriétés du site web.

    • Proposition 2 : L’interactivité perçue est un antécédent de la téléprésence.

    • Proposition 3 : La téléprésence est un antécédent de l’engagement.

    • Proposition 4 : L’engagement est lié à des attitudes et comportements optimaux des consommateurs (par exemple, intention d’achat, fidélité).

  2. Définition de l’engagement :

    • L’engagement est défini comme un engagement cognitif et affectif envers une relation active avec la marque personnifiée par le site web ou d’autres entités numériques.

    • Dimensions proposées : traitement cognitif actif (résolution de problèmes, raisonnement), valeur instrumentale (utilité et pertinence), et congruence émotionnelle (connexion affective avec la marque).

  3. Distinctions avec d’autres construits :

    • Interactivité : Perçue comme une réponse psychologique à l’interaction avec le site, différente de l’interactivité structurelle (caractéristiques techniques).

    • Téléprésence : Immersion cognitive dans l’environnement numérique, distincte du flux en raison de son focus sur la maîtrise des heuristiques.

    • Flux : État cognitif intense mais difficile à standardiser, moins directement lié aux résultats commerciaux.

    • Implication : Diffère de l’engagement par son focus sur un objet de consommation (catégorie de produit) plutôt que sur la marque personnifiée, et par l’absence d’une relation active intentionnelle.

  4. Implications :

    • L’engagement est un construit expérientiel distinct, non réductible à d’autres termes académiques, mais aligné avec les préoccupations des praticiens.

    • Les mesures comportementales (temps passé, pages vues) sont insuffisantes ; des métriques expérientielles sont nécessaires.

    • Le cadre facilite un discours commun entre chercheurs et praticiens, encourageant des recherches empiriques sur les métriques expérientielles.

Points clés pour la pratique

  • Les sites web doivent être conçus pour maximiser l’interactivité perçue, la téléprésence et l’engagement afin de renforcer la fidélité à la marque.

  • Les praticiens devraient développer des métriques expérientielles pour compléter les mesures comportementales, permettant une allocation plus efficace des ressources marketing.

  • La pertinence et l’utilité du site, ainsi que la congruence émotionnelle, sont cruciales pour susciter l’engagement.

Références exactes citées

  • Bart, Y., Shankar, V., Sultan, F., & Urban, G. L. (2005). Are the drivers and role of online trust the same for all web sites and consumers? A large-scale exploratory empirical study. Journal of Marketing, 69(4), 133–152.

  • Bienstock, C. C., & Stafford, M. R. (2006). Measuring involvement with the service: A further investigation of scale validity and dimensionality. Journal of Marketing Theory and Practice, 14(3), 209–221.

  • Chang, J., Tsi, T., & Chen, C. (2003). The effects of website quality on customer satisfaction and loyalty: A study of online travel agencies. Proceedings of the 9th International Conference on Information Systems, 231–240.

  • Coyle, J. R., & Thorson, E. (2001). The effects of progressive levels of interactivity and vividness in web marketing sites. Journal of Advertising, 30(3), 65–77.

  • Csikszentmihalyi, M. (1975). Beyond boredom and anxiety. San Francisco: Jossey-Bass.

  • Demangeot, C., & Broderick, A. J. (2006). Exploring the experiential intensity of online shopping environments. Qualitative Market Research: An International Journal, 9(4), 325–351.

  • Douglas, J. Y., & Hargadon, A. (2000). The pleasure principle: Immersion, engagement, flow. Proceedings of the 11th ACM on Hypertext and Hypermedia, 153–160.

  • Douglas, J. Y., & Hargadon, A. (2001). The pleasures of immersion and engagement: Schemas, scripts and the fifth business. Digital Creativity, 12(3), 153–166.

  • Du Plessis, E. (2007). A view on the prospects for neurological research and advertising effectiveness. Admap, 42(483), 36–39.

  • Dykes, B. (2008). Web analytics: Moving beyond the comfort zone. Web Analytics Association Blog. Retrieved from http://www.webanalyticsassociation.org

  • EConsultancy. (2008). UK consumer engagement survey. London: EConsultancy.

  • Elliott, S. (2006). Engagement happens inside the consumer, not the medium. Advertising Age, 77(45), 12.

  • Eroglu, S. A., Machleit, K. A., & Davis, L. M. (2003). Empirical testing of a model of online store atmospherics and shopper responses. Psychology & Marketing, 20(2), 139–150.

  • Finneran, C. M., & Zhang, P. (2005). Flow in computer-mediated environments: Promises and challenges. Communications of the Association for Information Systems, 15(4), 82–101.

  • Fiore, A. M., Kim, J., & Lee, H.-H. (2005). Effect of image interactivity technology on consumer responses toward the online retailer. Journal of Interactive Marketing, 19(3), 38–53.

  • Fugate, D. L. (2008). Marketing services more effectively with neuromarketing research: A practitioner perspective. Journal of Services Marketing, 22(2), 170–173.

  • Goldsmith, R. E., & Emmert, J. (1991). Measuring product category involvement: A multitrait-multimethod study. Journal of Business Research, 23(4), 363–371.

  • Guthrie, J. T., Wigfield, A., & Perencevich, K. C. (2004). Motivating reading comprehension: Concept-oriented reading instruction. Mahwah, NJ: Lawrence Erlbaum Associates.

  • Ha, H. Y., & Perks, H. (2005). Effects of consumer perceptions of brand experience on the web: Brand familiarity, satisfaction and brand trust. Journal of Consumer Behaviour, 4(6), 438–452.

  • Heath, R. (2007). Emotional engagement: How television advertising works. Admap, 42(483), 40–43.

  • Herrington, J., Oliver, R., & Reeves, T. C. (2003). Patterns of engagement in authentic online learning environments. Australian Journal of Educational Technology, 19(1), 59–71.

  • Hoffman, D. L., & Novak, T. P. (1996). Marketing in hypermedia computer-mediated environments: Conceptual foundations. Journal of Marketing, 60(3), 50–68.

  • Hopkins, C. D., Grove, S. J., Raymond, M. A., & LaForge, M. C. (2004). Designing the e-service encounter: The role of vividness and interactivity. Proceedings of the American Marketing Association Conference, 15, 235–241.

  • Huang, M.-H. (2006). Flow, enduring, and situational involvement in the web environment: A triadic model. Journal of International Consumer Marketing, 18(4), 45–67.

  • Jones, M. A. (1998). Entertaining shopping experiences: An exploratory investigation. Journal of Retailing and Consumer Services, 5(3), 173–181.

  • Karson, E. J., & Fisher, R. J. (2005). Reexamining and extending the dual mediation hypothesis in an on-line advertising context. Psychology & Marketing, 22(4), 333–351.

  • Kearsley, G., & Shneiderman, B. (1998). Engagement theory: A framework for technology-based teaching and learning. Educational Technology, 38(5), 20–23.

  • Klein, L. R. (2003). Creating virtual product experiences: The role of telepresence. Journal of Interactive Marketing, 17(1), 41–55.

  • Koufaris, M. (2002). Applying the technology acceptance model and flow theory to online consumer behavior. Information Systems Research, 13(2), 205–223.

  • Liu, Y., & Shrum, L. J. (2002). What is interactivity and is it always such a good thing? Implications of definition, person, and situation for the influence of interactivity on advertising effectiveness. Journal of Advertising, 31(4), 53–64.

  • Macdonald, E. K., & Sharp, B. M. (2000). Brand awareness effects on consumer decision making for a common, repeat purchase product: A replication. Journal of Business Research, 48(1), 5–15.

  • Marci, C. D. (2006). A biologically based measure of emotional engagement: Context matters. Journal of Advertising Research, 46(4), 381–387.

  • Mathwick, C., & Rigdon, E. (2004). Play, flow, and the online search experience. Journal of Consumer Research, 31(2), 324–332.

  • McMillan, S. J., & Hwang, J.-S. (2002). Measures of perceived interactivity: An exploration of the role of direction of communication, user control, and time in shaping perceptions of interactivity. Journal of Advertising, 31(3), 29–42.

  • Meskauskas, J. (2006). Engagement: The new holy grail of online marketing? iMedia Connection. Retrieved from http://www.imediaconnection.com

  • Murray, K. B., & Haubl, G. (2002). The role of cognitive lock-in in online consumer behavior. Advances in Consumer Research, 29(1), 387–388.

  • Novak, T. P., Hoffman, D. L., & Yung, Y.-F. (2000). Measuring the customer experience in online environments: A structural modeling approach. Marketing Science, 19(1), 22–42.

  • Passikoff, R., Weiner, M., & Foss, S. (2007). Customer engagement: The new key metric. Brandweek, 48(10), 24–26.

  • Petre, M., Minocha, S., & Roberts, D. (2006). Usability beyond the website: An empirically-grounded e-commerce evaluation instrument for the total customer experience. Behaviour & Information Technology, 25(2), 189–203.

  • Rappaport, S. D. (2007). Lessons from online practice: New advertising models. Journal of Advertising Research, 47(2), 135–141.

  • Rettie, R. (2001). An exploration of flow during internet use. Internet Research, 11(2), 103–113.

  • Richard, M.-O., & Chandra, R. (2005). A model of consumer web navigational behavior: Conceptual development and application. Journal of Business Research, 58(8), 1019–1029.

  • Roberts, K. (2005). Lovemarks: The future beyond brands. New York: PowerHouse Books.

  • Sautter, P., Hyman, M. R., & Lukosius, V. (2004). E-tail atmospherics: A critique of the literature and model extension. Journal of Electronic Commerce Research, 5(1), 14–24.

  • Shih, C.-F. (1998). Conceptualizing consumer experiences in cyberspace. European Journal of Marketing, 32(7/8), 655–663.

  • Sicilia, M., Ruiz, S., & Munuera, J. L. (2005). Effects of interactivity in a web site: The moderating effect of need for cognition. Journal of Advertising, 34(3), 31–45.

  • Sinha, I. (2000). Cost transparency: The net’s real threat to prices and brands. Harvard Business Review, 78(2), 43–50.

  • Skadberg, Y. X., & Kimmel, J. R. (2004). Visitors’ flow experience while browsing a web site: Its measurement, contributing factors and consequences. Computers in Human Behavior, 20(3), 403–422.

  • Song, J. H., & Zinkhan, G. M. (2008). Determinants of perceived web site interactivity. Journal of Marketing, 72(2), 99–113.

  • Steuer, J. (1992). Defining virtual reality: Dimensions determining telepresence. Journal of Communication, 42(4), 73–93.

  • Suh, K.-S., & Chang, S. (2006). User interfaces and consumer perceptions of online stores: The role of telepresence. Behaviour & Information Technology, 25(2), 99–113.

  • Thomson, M., MacInnis, D. J., & Park, C. W. (2005). The ties that bind: Measuring the strength of consumers’ emotional attachments to brands. Journal of Consumer Psychology, 15(1), 77–91.

  • Urban, G. L. (2005). Customer advocacy: A new era in marketing? Boston: Harvard Business School Press.

  • Wang, A. (2006). Advertising engagement: A driver of message involvement on message effects. Journal of Advertising Research, 46(4), 355–368.

  • Wu, G. (2006). Conceptualizing and measuring the perceived interactivity of websites. Journal of Current Issues & Research in Advertising, 28(1), 87–104.

  • Yadav, M. S., & Varadarajan, P. R. (2005). Interactivity in the electronic marketplace: An exposition of the concept and implications for research. Journal of the Academy of Marketing Science, 33(4), 585–603.

  • Zeithaml, V. A., Parasuraman, A., & Malhotra, A. (2002). Service quality delivery through web sites: A critical review of extant knowledge. Journal of the Academy of Marketing Science, 30(4), 362–375.

  • Zwick, D., & Dholakia, N. (2006/7). The epistemic consumption object and postsocial consumption: Expanding consumer-object theory in consumer research. Consumption, Markets & Culture, 9(4), 261–276.