La matrice Llosa pour mieux comprendre la satisfaction client vis-à-vis des services proposés

La notion de la satisfaction revêt une importance particulière en entreprise dans la mesure où elle peut être à l’origine de la fidélité des clients et de leur recommandation des services expérimentés. Ce dernier point est facilité par les options du web 2.0 permettant de partager plus facilement retours d’expérience, critiques et avis des consommateurs.

Pour bien appréhender cette notion de satisfaction, il est nécessaire d’identifier les facteurs qui contribuent à sa formation et d’en déterminer le niveau d’influence. Plusieurs études ont été réalisées dans ce sens. Nous faisons le point dans cet article sur une méthode appelée matrice Llosa, développée en 1996 par une chercheure en sciences de gestion qui porte le même nom.

Qu’est-ce que la matrice Llosa ?

La matrice Llosa consiste à classer les facteurs susceptibles d’agir sur le couple satisfaction-insatisfaction des consommateurs vis-à-vis d’un service d’une manière générale selon deux critères : le niveau de performance des facteurs et leur influence sur la satisfaction globale.

Cette mise en relation donne lieu à une carte composée de quatre quadrants qualifiés ainsi :

  • Quadrant des éléments Plus (facteurs d’excellence) : regroupe les facteurs qui contribuent fortement à la satisfaction lorsqu’ils sont perçus positivement ; faiblement à l’insatisfaction lorsqu’ils sont perçus négativement.
  • Quadrant des éléments Clés (facteurs moteurs) : comprend les critères qui exercent une forte influence sur la satisfaction lorsqu’ils sont perçus positivement et sur l’insatisfaction lorsqu’ils sont perçus négativement.
  • Quadrant des éléments basiques (facteurs essentiels) : contient les critères qui contribuent fortement à l’insatisfaction lorsqu’ils sont perçus négativement et faiblement à la satisfaction lorsqu’ils sont perçus positivement.
  • Quadrant des éléments secondaires (facteurs neutres) : regroupe les facteurs qui exercent une faible influence sur la satisfaction quelle qu’en soit la perception.

 Figure 1 : Matrice Llosa (Windal, 2011)

L’affectation des facteurs aux quadrants se fait sur la base d’une analyse multi-variée de type AFC, réalisée à partir d’un tableau récapitulant les contributions de ces mêmes facteurs à la satisfaction ou à l’insatisfaction vis-à-vis des services expérimentés.

Illustration

Pour mieux comprendre la matrice Llosa, prenons l’exemple d’une enquête menée par un distributeur de produits alimentaires auprès de sa clientèle. L’objectif de cette étude est de connaître le niveau de satisfaction vis-à-vis de l’entreprise d’une manière globale et d’un ensemble de facteurs censés influencer cette satisfaction (voir l’enquête Valibest dans la bibliothèque des exemples de Sphinx iQ).

Les résultats se présentent ainsi :

  Figure 2 : Notes moyennes de satisfaction

La matrice Llosa réalisée sur ces données (voir carte ci-dessous) permet de tirer les conclusions suivantes :

  • Absence d’éléments clés jouant un rôle moteur sur la satisfaction ou l’insatisfaction des clients.
  • La qualité des fruits et légumes est un élément plus ou un facteur d’excellence, cela veut-dire que lorsque les clients en sont contents, leur satisfaction globale s’améliore et lorsqu’ils n’en sont pas contents, leur satisfaction globale ne s’en trouve pas ressentie. Ceci peut paraître surprenant mais la structure des données et notamment les bons niveaux de satisfaction enregistrés peuvent expliquer ce constat.
  • Le respect des engagements, la réactivité commerciale, la disponibilité au téléphone, le professionnalisme du représentant, la sécurité et la traçabilité sont des éléments basiques ; c’est le minimum attendu par le client.
  • Le choix des fruits et légumes, le respect des horaires et des conditions de livraison, le professionnalisme du chauffeur sont des éléments secondaires qui n’ont qu’une faible influence sur le niveau de satisfaction globale.

Figure 3 : Matrice Llosa du cas Valibest

L’intérêt de cette méthode réside dans son caractère opérationnel comme on peut le constater à partir de l’exemple. Il est en effet facile, grâce à la classification obtenue, d’identifier les facteurs à améliorer en priorité.

D’une manière générale, il est à noter que lorsque le niveau des services rendus par l’entreprise est élevé, ce sont les éléments clés (moteurs) et les éléments plus (d’excellence) qu’il convient d’améliorer ; en cas de performances moyennes, ce sont les éléments basiques (minimum) et les éléments clés (moteurs) qui sont prioritaires.

>>> Plus d'informations sur www.lesphinx.eu

L’arbre de composition : un outil efficace pour segmenter et caractériser vos clients

Que ce soit pour segmenter une population, pour déterminer les comportements caractéristiques d’une cible, pour qualifier les opinions et les attitudes des consommateurs vis-à-vis d’un produit ou d’un service, l’arbre de composition révèle son utilité. Outil de datamining, il est utilisé pour explorer les données issues des enquêtes marketing, du système d’information (identité des clients, équipement, historique des échanges…) ou des deux.

L’arbre de composition consiste à mettre en relation une variable Y (ex : consommation, satisfaction) avec une multitude de variables X (ex : classe d’âge, genre, CSP, contexte ou motifs de consommation)  afin de mettre en évidence leurs principales associations et faire ressortir les modalités correspondant au mieux à la cible que l’on souhaite caractériser. Ainsi, la population est découpée en groupes aussi homogènes que possible vis-à-vis de la variable Y.

Visuellement, l’arbre de composition se présente sous forme d’un organigramme hiérarchique composé de plusieurs niveaux allant de la population globale (sommet) aux groupes identifiés (base) comme le montre le schéma suivant.

 Figure 1 : Arbre de composition

Exemple : l’arbre de composition pour segmenter les consommateurs de vin

Pour illustrer la lecture de l’arbre de composition, nous prendrons l’exemple ci-dessous, tiré de l’étude Européenne sur les rapports entre consommation et culture menée en 2010 dans le cadre du projet COBEREN (Consumer Behavior European NetWork)[1].

Les répondants devaient indiquer les motifs de consommation de leur boisson préférée en se positionnant sur une échelle de quatre niveaux allant de « Je suis totalement en désaccord » à « Je suis totalement d’accord » ; ils pouvaient également choisir l’option « Je ne sais pas » s’ils n’avaient pas d’avis arrêté sur la proposition.

Figure 2 : Propositions sur les motifs de consommation des boissons alcoolisées

L’objectif à travers la mise en place d’un arbre de composition dans ce contexte est double : segmenter les consommateurs selon leurs boissons préférées et leurs motifs de consommation, identifier les motifs associés à chaque type de boisson (le vin et la bière sont arrivées en tête des boissons préférées mais nous avons limité l’exploration aux vins pour des raisons pédagogiques).

Il est possible de constater, grâce au graphique, que la consommation de la bière et du vin ne remplissent pas les mêmes fonctions : la première est d’ordre instrumental (je consomme la bière pour étancher sa soif), la seconde est d’ordre social (je consomme le vin pour faire comme ses amis). Par ailleurs, les consommateurs de vins sont segmentés en groupes distincts selon les critères « obtenir quelque chose de bien pour soi » et « se maintenir en bonne santé » ; le critère « obtenir quelque chose de bien pour soi » étant le plus important.

 Figure 3 : Arbre de composition centré sur les consommateurs de vins

Comment construit-on un arbre de composition ?

Le processus qui mène à la définition de l’arbre de composition se déroule, selon la méthode CHAID (CHi-squared Automatic Interaction Detector), en trois temps : la fusion, la division, l’arrêt. Ces trois phases sont appliquées d’une manière répétitive sur chaque segment, en commençant par la population globale.

  • La fusion : cette étape consiste à regrouper les modalités d’une variable X selon leur similarité. Pour cela, plusieurs tableaux croisés entre la variable Y et les couples des modalités de la variable X sont construits et les liaisons associées à ces tableaux sont calculées. Sont considérées comme proches, les modalités correspondant au tableau croisé ayant obtenu la plus forte mesure de liaison, celle-ci est notée p-value.
    Comme pour tous les tests statistiques, cette p-value est comparée à un seuil de  référence fixé par l’utilisateur et si elle le dépasse, les modalités sont considérées comme similaires.
    De nouvelles variables, ayant comme modalités les combinaisons retenues, sont ainsi obtenues. A l’issue de cette opération, une p-value ajustée est calculée sur le tableau croisant la variable Y à la nouvelle variable X formée des modalités composites.
    Dans l’exemple précédent, la variable Y représente la boisson préférée, les variables X renvoient aux motifs de consommation. Les calculs effectués sur ces derniers lors de la phase de fusion ont abouti au regroupement des modalités « Je suis totalement d’accord / Plutôt d’accord » et « Je suis totalement en désaccord / Plutôt pas d’accord » pour les quatre variables X et ce, en raison de leur similarité ; Il est à préciser que la modalité « Je ne sais pas » a été écartée volontairement.
  • La division : elle consiste à sélectionner la variable X qui divisera au mieux la population. Pour cela les p-value ajustées correspondant au croisement entre la variable Y et les différentes variables X, calculées à l’étape précédente, sont comparées. La meilleure variable de division est celle qui obtient la plus petite p-value ajustée ; si cette p-value ajustée est inférieure à un seuil fixé par l’utilisateur, la division est effectuée, sinon le segment est considéré comme terminal.
    Dans l’exemple plus haut, la première variable de division est « étancher ma soif », la seconde est « faire comme mes amis », « obtenir quelque chose de bien pour moi » arrive en 3ème position et « pour être en bonne santé » occupe le dernier niveau.
  • L’arrêt : à chaque création d’un nouveau segment, les conditions d’arrêt suivantes sont vérifiées : constance des variables étudiées sur les différents segments, profondeur de l’arbre et taille du segment ; ces deux dernières conditions restent à l’appréciation de l’utilisateur.
    Cinq groupes homogènes sont identifiés dans l’exemple précédent : ceux qui consomment la bière pour étancher leur soif (814 personnes), ceux qui consomment le vin pour faire comme les amis (157 personnes), ceux pour qui la consommation du vin n’est pas synonyme « d’obtenir quelque chose de bien pour soi » (399 personnes), ceux qui consomment le vin pour obtenir quelque chose de bien pour soi et pour ses bienfaits sur la santé (360 personnes), ceux qui ne consomment pas le vin pour des raisons de santé mais qui cherchent tout de même à obtenir quelque chose de bien pour soi (238 personnes).
    Il est à préciser que le découpage en quatre niveaux a été choisi par l’utilisateur.

 Les logiciels d’analyse de données, notamment Sphinx iQ, permettent d’automatiser le processus de construction de l’arbre de composition dans sa totalité. L’utilisateur se contente de choisir les variables X et Y et d’indiquer la profondeur de l’arbre ; l’outil identifie les variables de segmentation et découpe la population en groupes homogènes.

Pour conclure

L’arbre de composition est un outil d’exploration des données pratique et efficace dans la mesure où il permet de segmenter rapidement et automatiquement un ensemble d’individus selon leurs caractéristiques.

Contrairement aux méthodes factorielles ou de classification courantes (AFCM, classification hiérarchique) qui dressent le profil général des répondants et les regroupe de façon synthétique, l’arbre de composition fournit d’une manière exacte le profil des groupes identifiés ; la lecture hiérarchique de l’arbre aidant en cela. Il demeure toutefois intéressant de trianguler les méthodes pour une meilleure validation des résultats.


[1] Pour en savoir plus sur ce projet, voir Ganassali &  Rodriguez-Santos (2013), Research Intentions are Nothing without Technology : Mixed-Method Web Surveys and the Coberen Wall of Pictures Protocol, in In Sappleton, N. (ed.): Advancing Research Methods with New Technologies. IGI Global., pp. 138-156

>>> Plus d'informations sur www.lesphinx.eu

Quels apports de la netnographie et de la twetnographie en marketing ?


Les méthodes de recherche en marketing se renouvellent régulièrement pour s’adapter aux comportements émergents des consommateurs tout en saisissant les opportunités de collecte offertes par les technologies de l’information. Les techniques classiques d’entretien en face-à-face et d’observation in-situ se voient de ce fait enrichies par l’exploitation des données qualitatives disponibles sur Internet, notamment sur les forums de discussion et les réseaux sociaux. C’est ainsi que sont apparues la netnographie vers la fin des années 90 et la twetnographie, plus tard au début des années 2010.

La netnographie : méthode de recherche ethnographique sur des sites de communautés virtuelles

Cette méthode se base sur l’étude des échanges entre les membres d’une communauté virtuelle (groupe d’individus partageant des valeurs, des passions, des centres d’intérêt communs, réunis dans le temps sur un site web) postés sur des blogs, des forums, des salons de discussion ou des réseaux sociaux bien identifiés. Elle passe par l’implication du chercheur/enquêteur dans le groupe pour une meilleure compréhension du sujet étudié : en effet, en intégrant la communauté, le chercheur/enquêteur apprend le langage utilisé par ses membres, découvre leur vision des produits et services évoqués ainsi que les significations accordées aux attitudes ou comportements communiqués.

Utilisée dans le cadre d’une étude exploratoire, la netnographie est menée auprès d’une communauté focalisée sur l’objet de consommation étudié ; l’objectif étant de faire émerger des problématiques ou des propositions à préciser ultérieurement grâce à des recherches complémentaires.

Mobilisée dans le cadre d’une étude avancée, les résultats d’une démarche netnographique viennent appuyer les conclusions obtenues dans des études qualitatives ou quantitatives antérieures.

Prenons l’exemple d’une recherche longitudinale (conduite dans le temps) sur la consommation des cafés expresso et starbucks menée par Kozinets en 2002 auprès des amateurs de grand café.

Cette étude vise à comprendre le sens et les symboles accordés à la consommation du café par des consommateurs exigeants. Elle analyse entre autres un échantillon de 179 messages échangés entre les membres de la communauté virtuelle « alt.coffee » (communauté des adeptes du café), le contenu d’entretiens menés en face-à-face avec des consommateurs de café et des observations de terrain relevées par le chercheur/enquêteur.

Menée sur une durée de 33 mois, cette recherche permet d’identifier les quatre thèmes décrivant la culture de la consommation du café chez des consommateurs exigeants (Bernard, 2004) :

  • La distinction à travers des échanges décrivant les spécificités d’un bon café et prodiguant des conseils de préparation.
  • La consommation à travers des messages portant sur le plaisir de déguster un bon café, l’éducation du palais, le développement d’une expertise autour de ce produit.
  • La marque à travers des posts portant sur l’image de la marque et l’image de soi reflétée par la consommation d’un produit donné.
  • La passion pour le café à travers des messages vénérant ce produit.

Ces conclusions ont une application directe en termes de communication, de conception de nouveaux produits, de définition de stratégies de positionnement ou de tactiques de distribution (Bernard, 2004).

D’une manière générale, comme le chercheur/enquêteur se fond dans le groupe et intègre son fonctionnement, sa présence devient presque transparente pour les membres de la communauté, ce qui favorise leur spontanéité et la qualité de leurs interventions. Les données collectées par ce biais constituent ainsi un matériau riche permettant de mieux percer la logique des consommateurs.

Nous renvoyons les lecteurs désirant en savoir plus sur cette méthode vers l’article de Bernard (voir références ci-dessous), qui présente une revue de littérature synthétique et une bibliographie riche sur le sujet : Bernard (2004), LA NETNOGRAPHIE : Une nouvelle méthode d'enquête qualitative basée sur les communautés virtuelles de consommation, Décisions Marketing, n° 36 Octobre-Décembre 2004

La twetnographie : méthode de recherche ethnographique sur le site de microblogging Twitter

La twetnographie est une méthode de recherche qualitative née de la montée en puissance du site de microblogging Twitter. Elle s’intéresse à l’analyse des tweets (ou posts) communiqués par les utilisateurs de ce service. Ces posts concernent une actualité donnée et font émerger une communauté virtuelle éphémère dont l’existence est liée à la pertinence du sujet de l’échange.

Ceci en fait une démarche voisine mais assez différente de la netnographie. En effet, les deux méthodes utilisent le même support de collecte de l’information (sites web) mais se distinguent par la nature de l’information étudiée : la profondeur de l’investigation qui caractérise la netnographie, l’analyse massive de micro-news dans le cadre de la twetnographie.

L’abondance de l’information sur Twitter impose une organisation permettant d’en tirer profit, c’est dans ce sens que sont apparues  les marqueurs appelés hashtag, retweet ou arobase symbolisés respectivement par #, RT @ et @.

  • Un post contenant un # fait référence à un concept général comme par exemple  #politique, #environnement ou #EP2014 qui renvoie aux élections européennes de mai 2014.
  • Un tweet contenant RT @ indique la source de l’information communiquée lorsque l’utilisateur n’en est pas à l’origine ; par exemple RT @lemondefr précise que l’information a été communiquée initialement par le quotidien Le Monde.
  • Un message contenant un @ s’adresse à une personne précise ; par exemple « @lemondefr un WE sans travail, pardon c'est vrai que pour la France d'en bas ça ne change pas de la semaine ! Au désespoir des politiques ! » est une réponse au post « C'est quoi un week-end réussi pour les Français ? » publié par le quotidien Le Monde.

Ces marqueurs constituent une aide précieuse pour le chercheur/enquêteur qui s’en sert pour catégoriser les posts pertinents (qui ne sont pas hors-sujet) selon les recommandations de Kozinet (2002).

En effet, la présence de l’arobase indique que le message est social, c’est-à-dire qu’il s’agit d’un échange entre deux individus alors que son absence renvoie à un contenu informationnel auquel il convient d’accorder une attention particulière. Il est toutefois à noter que les contenus relationnels peuvent également contenir des informations utiles sur le sujet étudié. L’utilisation de mots clés aide le chercheur/enquêteur à faire la part entre messages à retenir ou à éliminer.

Par ailleurs, la présence de hashtag met en évidence les grandes thématiques structurant les échanges mais une analyse des mots-clés s’impose pour mieux appréhender le contenu.

Enfin, la présence de retweet indique que le message a été relayé par d’autres utilisateurs ce qui montre son intérêt et son intégration dans un processus de communication virale. Le chercheur/enquêteur peut décider de se concentrer uniquement sur les RT ayant été relayés un grand nombre de fois.

Dans leur recherche intitulée « Twitter Power : Tweets as Electronic Word of Mouth », Jansen et al. (2009) étudient le bouche à Oreille concernant les marques sur Twitter. Ils dressent une liste de 50 marques dont principalement H&M, Toyota, Dell, Microsoft, Sony, Exxon, Starbucks, Kellogg’s, Google, Oral-B, Adidas et FedEx. Les auteurs recueillent, grâce à une requête, les posts qui évoquent les marques étudiées sur une période de 13 semaines, obtenant ainsi 149472 énoncés.

L’analyse de ce matériau met en évidence les mots associés aux différentes marques et qualifie les tweets à l’aide d’une échelle de mesure des sentiments composée de cinq niveaux allant de lamentable jusqu’à génial en passant par mauvais, bof et super.

D’autres chercheurs, notamment Galan et Vignolles (2009) se sont intéressées à la structure sociale des utilisateurs de Twitter. Ils ont suivi 2000 personnes avec l’intention de mettre en place un indicateur permettant de qualifier les micro-bloggeurs. C’est ainsi qu’ils identifiés des influenceurs, des suiveurs et des connecteurs, ayant des habitudes d’utilisation différentes de Twitter.

Les influenceurs utilisent moins les hashtags, postent surtout des réponses et communiquent facilement leurs opinions sur la vie politique ou économique que sur leur vie privée contrairement aux suiveurs. Les connecteurs, quant à eux, disposent d’un réseau d’amis large et ont plus d’interactions sociales.

Ces résultats sur les marques et le leadership ont des applications directes en marketing en ce qui concerne la définition des stratégies de communication, de relation client voire même de produit.

Les lecteurs souhaitant en savoir plus sur la twetnographie peuvent consulter l’article de Galan et Vignolles (2009) : Twetnographie - Utilisation de Twitter pour la recherche en marketing, Journées de Recherche en Marketing de Bourgogne.

Pour conclure, rappelons que les données utilisées dans le cadre de la netnographie et de la twetnographie sont librement accessibles sur Internet et qu’il est facile de les collecter grâce aux outils technologiques disponibles sur le marché (Sphinx Quali par exemple). Toutefois, avant de se lancer dans une étude de ce type, il est important de repérer les communautés virtuelles pertinentes à intégrer (en netnographie) et d’identifier les mots-clés sur lesquels baser la recherche (en twetnographie).

>>> Plus d'informations sur www.lesphinx.eu

L’étude des spécificités ou l’analyse textuelle par contexte

Dans une analyse des données textuelles, la méthode de l’analyse lexicale constitue une étape indispensable pour la compréhension du contenu du texte analysé. Elle est souvent appuyée par une analyse par contexte connue sous le nom « étude des spécificités ». Celle-ci consiste à comparer le contenu du corpus selon les modalités d’une variable fermée (variable d’identification comme la profession par exemple).

Le principe de cette étude part de l’hypothèse d’une répartition « au hasard » des mots sur l’ensemble des catégories de la variable fermée. Son objectif est d’identifier les mots qui sont distribués au hasard et ceux qui ne le sont pas, c’est-à-dire ceux dont la présence est significativement plus forte dans une catégorie donnée.

Les algorithmes de spécificité sont fondés sur des tests statistiques de rapports ou de comparaison de fréquences et opèrent selon les calculs suivants :

Figure 1 : Illustration des calculs de spécificité

Sont considérés comme spécifiques les mots dont le rapport de fréquence dépasse un seuil fixé par le chargé d’études.

Application

Dans l’enquête de consommation menée en 1992 par le CREDOC[1], la question « Si vous gagniez le gros lot au Loto, que feriez-vous ? » est posée. L’objectif de cette étude est d’identifier le comportement du consommateur une fois affranchi des contraintes financières grâce à ses gains au loto. 990 réponses sont collectées.

Une analyse des mots spécifiques par contexte a été effectuée à partir de la variable « situation matrimoniale ». Celle-ci révèle que l’importance des intentions diffère selon que l’on est célibataire, en couple ou séparé (voir figure ci-dessous) :

  • Les célibataires utilisent d’une façon remarquable les mots cadeau, appartement, banque, immobilier, placement et voiture.
  • Les personnes en couple pensent principalement aux vacances.
  • Les personnes séparées ont des priorités différentes si l’on considère les termes surutilisés chez eux : œuvre, pauvre, enfant, cancer, don, gens et pays.

Il faut noter que ces mots précédents ne sont pas exclusifs d’une catégorie, mais ils sont présents d’une manière importante pour en être représentatifs.

Figure 2 : Calcul des spécificités pour l'enquête de consommation

L’étude des spécificités permet d’identifier à partir du lexique, les différences entre les catégories comparées, ce qui en facilite la qualification et l’illustration via des verbatim différenciés.

Il est à noter que cette étude des spécificités peut s’effectuer également à partir d’une analyse sémantique. L’objectif dans ce cas est de représenter le corpus par un ensemble de concepts et d’en identifier les plus représentatifs par catégorie (voir l’article Ontologies et thésaurus pour modéliser un corpus textuel pour plus d’information sur la notion de concepts).


[1] Lahlou, Collerie, Beaudouin (1993) Où en est la consommation aujourd'hui, Cahier de recherches n° 46, CREDOC

>>> Plus d'informations sur www.lesphinx.eu

La mise en place d’une recherche twetnographique avec Sphinx Quali

Comme évoqué dans un autre article du blog[1], l’utilisation de Twitter dans le domaine du marketing prend de l’ampleur avec l’évolution des comportements des consommateurs et la tendance croissante à partager ces opinions sur le net.

Sphinx Quali s’adapte à cette évolution et propose un module d’aspiration du contenu de Twitter[2]. Le principe est de définir une requête contenant des mots-clés, le moteur de recherche de Sphinx Quali se chargeant de repérer les posts[3] pertinents et de les structurer dans une base de données contenant les informations suivantes :

  • Texte du tweet
  • Auteur du tweet
  • Nombre de fois où le tweet a été partagé
  • Mention indiquant si l’utilisateur est à l’origine de l’information communiquée
  • Nombre de suiveurs de la personne ayant posté le tweet

Les posts collectés sont classés par date. Il est possible d’obtenir jusqu’à 1500 tweet par requête et de relancer la recherche plusieurs fois par jour pour couvrir la totalité des posts communiqués dans une journée.

Ci-dessous un exemple illustrant la procédure de recherche dans Twitter.

 Figure 1 : Chemin d’accès à l’option d’aspiration du contenu de Twitter

Figure 2 : Interface de définition des mots clés

Figure 3 : Résultat de la recherche

L’exploitation des données collectées peut se faire en utilisant les protocoles d’analyse (exploration, synthèse, codification) disponibles dans Sphinx Quali.

Le nuage de mots ci-dessous est issu d’une synthèse automatique de 100 tweets contenant le mot clé Nespresso, aspirés le 15/05/2014. L’évocation récurrente de « Cannes » renvoie à la présence de Nespresso au festival de Cannes et à sa promotion pendant cet évènement.

Figure 4 : Nuage de mots

D’une manière générale, l’analyse des tweets permet de capter une information précise et actuelle à un moment « t », elle aide de ce fait le chargé d’étude à gagner du temps dans sa démarche de recherche en allant droit à l’essentiel.



[1] La netnographie et la twetnographie en marketing : méthodes de recherche basées sur l’exploitation des forums de discussion et des réseaux sociaux

[2] Le module prévoir également une liaison avec Google+

[3] Un post est un message envoyé sur twitter et composé de 140 caractères au maximum, y compris les espaces.

 

>>> Plus d'informations sur www.lesphinx.eu

Quand l’image supporte les études sur la consommation et les consommateurs

Les méthodes d’enquête se renouvellent constamment avec le développement continu des technologies de l’information et de la communication : depuis l’émergence des enquêtes en ligne dans les années 90, les techniques de recherche, tant quantitatives que qualitatives, s’adaptent et tirent profit des nouvelles opportunités de collecte d’information offertes par le web :

  • utilisation de l’interactivité possible grâce au web pour simuler les échanges interpersonnels entre l’enquêteur et le répondant et ainsi obtenir des contenus textuels plus riches ;
  • mise en place d’entretiens individuels et de focus group en ligne, économisant le temps nécessaire à la retranscription et au formatage des données collectées ;
  • intégration des techniques projectives telles que les tests d’association de mots ou d’images ;
  • immersion dans l’univers du répondant à travers la collecte de corpus multimédia de type image ou vidéo permettant de mieux appréhender les expériences vécues par le répondant,
  • etc

Nous pouvons conduire des analyses différentes et parfois complémentaires sur les données collectées afin d’en extraire les informations clés. Les méthodes utilisées pour ce faire sont variées. Ainsi, à titre d’exemple, les données textuelles peuvent être appréhendées grâce à une analyse lexicale, complétée d’une analyse des sentiments, le tout représenté sur des cartes factorielles ; les données multimédia, quant à elles, peuvent être décodées par le biais d’une analyse de contenu ou d’une analyse sémiotique doublées d’une synthèse factorielle… Ce ne sont là que des pistes d’analyse, il est à retenir qu’à chaque type de données et à chaque problématique correspond un ensemble de traitements possibles.

En s’appuyant sur une recherche académique intitulée « Une nouvelle méthode de groupe pour interpréter le sens d’une expérience de consommation : l’Album On-Line (AOL) », menée par Vernette en 2007, l’article suivant, illustre la mise en place d’un protocole de collecte et d’analyse d’un corpus d’images provenant d’Internet (nous précisons que cette recherche n’utilise pas les logiciels d’enquêtes Sphinx, ceux-ci pourraient faciliter les échanges entre chercheurs et répondants et fluidifier le processus d’étude).

La collecte d’images en ligne représentant des expériences de consommation

Les répondants sont invités à explorer le Web à la recherche d’images correspondant à une expérience affective ou cognitive liée à l’achat ou à la consommation du parfum. Ces images doivent être commentées (justification des choix, précisions des associations mentales et des émotions qu’elles provoquent) pour une meilleure compréhension de l’expérience vécue.