Le satisficing comme indicateur de la non qualité des réponses

Le terme satisficing désigne le fait de répondre à un questionnaire avec un minimum d’effort par manque de motivation ou désintérêt, par lassitude ou impatience.

Cette pratique qui traduit le manque d’implication du répondant, se répercute sur la qualité de ses réponses. En effet, au lieu de parcourir toutes les possibilités de réponse et choisir celle qui reflète le plus sa position, le satisficer se contente de choisir la dernière modalité énoncée ou la première réponse acceptable d’une liste de choix possibles. Il peut également être enclin à acquiescer ou à répondre de la même façon aux questions échelles présentées sous forme de tableaux.

Voici trois des techniques utilisées pour détecter les satisficers, tirées de l’article de Lapeyre, Malas et Guiot (2015) [*] : le test de lecture des instructions, le test de l’item inversé, le temps de réponse global.

Le test de lecture des instructions

Ce test consiste à introduire un item du type « il est demandé de ne pas répondre à cette question », et que le répondant ne doit pas renseigner. Une réponse donnée à cet item indique une lecture superficielle des questions qui pourrait nuire à la qualité des réponses.

Figure 1 : Test de lecture des instructions (Lapeyre, Malas et Guiot, 2015)

Le test de l’item inversé

Ce test consiste à introduire dans le questionnaire deux items de formulation opposée pour mesurer une même idée (exp. le chocolat noir contribue à la prise de poids, le chocolat noir contribue à la perte de poids). Une réponse identique donnée aux deux formulations dénote d’un manque d’attention et par conséquent d’un satisficing.

Figure 2 : Test de l’item inversé (Lapeyre, Malas et Guiot, 2015)

Il est préconisé de placer ces tests dans la 2ème moitié du questionnaire lorsque les questions centrales de l’étude sont abordées. Il est toutefois déconseillé de les utiliser de façon répétitive dans un même questionnaire pour éviter d’agacer le répondant.

Le temps de réponse global

Ce test consiste à identifier le temps de réponse nécessaire à l’obtention d’un questionnaire fiable. Un répondant ayant consacré moins de temps au remplissage de son questionnaire pourrait en effet être considéré comme satisficer.

Il est à préciser que le temps minimum acceptable est estimé à partir de l’enquête pilote réalisée en amont de la campagne de collecte.

Pour finir, les trois tests présentés ci-dessus ne sont pas exclusifs. Ils gagneraient à être utilisés en parallèle pour un meilleur filtrage des réponses non fiables.

[*] LAPEYRE A., MALAS Z., GUIOT D., Le satisficing dans les enquêtes par questionnaire : Mesures et effets sur la qualité des réponses, Revue Française du Marketing, Mars 2015, n°251.

>>> Plus d'informations sur www.lesphinx.eu

Mobiliser les salariés autour d’un projet d’enquête interne

Les démarches de baromètre social sont de plus en plus nombreuses au sein des entreprises. Que ce soit sur le bien-être au travail ou le climat interne, sur l’évaluation de compétences ou de formations, elles permettent toutes de mieux comprendre le ressenti et les besoins de ses collaborateurs dans le but d’améliorer leurs conditions de travail et donc leur efficacité au sein de l’entreprise.

Pour crédibiliser ces enquêtes, il faut parvenir à susciter l’intérêt et obtenir la confiance des collaborateurs autour du projet pour mobiliser un maximum de collaborateurs. Alors que de nombreux freins apparaissent, quelles sont alors les étapes indispensables pour sensibiliser un maximum de participants sur ces enquêtes internes ?

1. Sensibiliser les salariés à l’étude interne

Avant le lancement de l’enquête, il est important de communiquer autour de celle-ci afin de mobiliser les collaborateurs. En effet, ces derniers seront plus disposés à participer s’ils ont en leur possession un maximum d’information à ce sujet.

Il est donc important de présenter clairement les objectifs de l’enquête, les personnes ou services à l’initiative du projet et préciser s’il y a une éventuelle intervention d’un prestataire externe.

Dès le départ, il s’agit également de rassurer les salariés sur la confidentialité de leurs réponses, soit en passant par un tiers qui garantira l’anonymat, soit en choisissant des modes de diffusion favorisant un climat de confiance.

2. S’assurer de l’efficacité du questionnaire

La construction du questionnaire a toute son importance pour parvenir à impliquer les répondants. En effet, si certaines questions se montrent trop intrusives ou trop orientées, elles créeront une réticence du côté des collaborateurs interrogés.

En amont de la rédaction du questionnaire, des entretiens qualitatifs peuvent être réalisés auprès de différentes parties de l’entreprise : des partenaires sociaux, des managers et des collaborateurs afin de définir au mieux les questions en fonction des problématiques de l’entreprise.

Le questionnaire doit être organisé pour créer une évolution dans la réflexion et l’implication du répondant. On préfèrera au début des questions factuelles comme l’ancienneté, la vérification concernant la réalisation de formation ou d’entretiens pendant l’année…
Puis, on passera à des questions plus engageantes où l’on va demander au salarié de se positionner sur différents points : son épanouissement au travail, ses relations avec son manager, sa charge de travail, son sentiment sur la reconnaissance au travail… On pourra alors utiliser des échelles ludiques pour aider le salarié ou encore des techniques de projection (expression, murs d’images, méthode du portrait chinois…) pour faciliter l’expression du salarié.
Enfin, l’enquête doit se terminer par des questions ouvertes où le collaborateur prend part et livre son ressenti ou ses suggestions. Souvent très enrichissantes, ces questions ouvertes libèrent la parole et contribuent à l’émergence d’idées nouvelles.

3. Optimiser la diffusion de l’enquête

En fonction des postes des collaborateurs, tous n’ont pas accès à un poste informatique ou alors certains sont hyper-connectés et peu sur leur lieu de travail. On privilégiera alors la combinaison des modes de diffusion (papier, web, SMS) pour favoriser le retour de chacun.

Pour les enquêtes web, il est très important de respecter et de bien communiquer sur l’anonymat des réponses. C’est ce qui vous garantira une meilleure participation à l’enquête, une plus grande crédibilité et des réponses non biaisées.

Selon la durée de la campagne de recueil, il est important d’envoyer une relance pour mobiliser les salariés restants et donc maximiser le taux de retour. Il est préférable d’effectuer cette relance auprès de l’ensemble des salariés même dans le cas où la relance automatique auprès des personnes n’ayant pas répondu est possible. En effet, il ne faut pas engendrer de doute quant à une possible identification des répondants.

4. Capitaliser avec des résultats tournés vers l’action

La communication des résultats est une étape décisive dans le sens où elle concrétise l’étude vis-à-vis de tous et par là même l’attention portée à l’opinion des salariés. Souvent très attendus, les résultats de l’enquête interne donnent une vision du climat social, de l’opinion et de l’engagement des équipes, et doivent être communiqués de manière claire et synthétique.

Il s’agit donc de tirer le meilleur parti des données d’enquêtes, en explorant différents axes :

  • Mesurer la perception interne en termes de climat social, conditions de travail, management, rémunération à travers la présentation d’indicateurs de satisfaction, calculés pour l’ensemble des salariés ou par service ;
  • Préciser le ressenti des collaborateurs en analysant l’ensemble des commentaires ou des entretiens ; par exemple en représentant des nuages de mots ou des tops 3 des mots les plus cités par les salariés pour représenter le bien-être au travail.
  • Identifier les points forts et comprendre les pistes d’amélioration du bien-être et de la motivation avec des mappings,
  • Enfin, pour répondre efficacement aux équipes, il s’agira de traduire les opinions exprimées par les salariés en actions, et in fine, de mesurer l’efficacité des actions menées à travers d’autres enquêtes ponctuelles qui viendront compléter le baromètre social de l'entreprise.

Parce que le lancement d’une étude interne représente un coût et des enjeux sociaux importants pour l’entreprise, ces bonnes pratiques sont des repères pour vous assurer de leur réussite. Ces enquêtes doivent permettre de mesurer et de comprendre l’opinion des collaborateurs, dans le but d’identifier les points d’amélioration et de prioriser les actions qui impacteront les indicateurs clés de satisfaction et de performance.

>>> Plus d'informations sur www.lesphinx.eu

La modélisation par équations structurelles avec Sphinx iQ

La modélisation par équations structurelles est une méthode d’analyse de données utilisée pour représenter les hypothèses d’un modèle conceptuel complexe car composé de deux sous-modèles regroupant chacun une multitude de variables appelées manifestes (items prenant la forme carrée dans le schéma ci-dessous) ou latentes (format rond). Alors que les premières peuvent être mesurées directement, les secondes ne le sont qu’à travers les variables, dites manifestes.
Le premier sous-modèle appelé externe relie les variables latentes aux variables manifestes qui les mesurent ; le second, appelé interne, relie les variables latentes entre elles comme le montre le schéma suivant.

Figure 1 : Représentation du modèle

Les techniques de calcul des équations structurelles sont basées sur l’analyse de la covariance ou des moindres carrés partiels. Le choix de l’approche adaptée tient compte du type d’étude réalisée (prédictive, visant à former une théorie ou confirmatoire), de la taille de l’échantillon (plus ou moins de 100) et de la nature des modèles testés (formatifs ou réflectifs ). Selon Gefen et al. (2000), l’approche des moindres carrés, appelée également approche PLS est adaptée aux études prédictives ou visant à former des théories, menées sur des échantillons de petite taille et des modèles mixtes, à la fois formatifs et réflectifs.

Les résultats de la modélisation par équations structurelles sont évalués au regard de la variance expliquée, du score de concordance qui indique la qualité de l’ajustement entre les modèles interne et externe et du coefficient de détermination R² rendant compte de l’exhaustivité des variables latentes étudiées. L’Alpha de Cronbach, quant à lui, mesure la fiabilité et la convergence des mesures ; il est à considérer en premier lieu.

Application

Dans une étude sur les outils électroniques d’achat public (Boughzala, 2010), il est demandé aux répondants d’indiquer leur niveau d’accord sur 40 items relatifs à la problématique de l’adoption des applications informatiques. Ces items manifestent 8 variables latentes comme le montre le schéma ci-dessous.

Figure 2 : Représentation du modèle conceptuel testé

En raison de la visée de l’étude (formation d’une théorie) et de la nature du modèle testé (formatif et réflectif à la fois), l’approche PLS pour la modélisation par équations structurelles est retenue. Son application donne les résultats suivants.

Figure 3 : Valeur de l’Alpha de Cronbach des variables latentes

Les valeurs des alphas de Cronbach, supérieures à 0.6 montrent que les mesures convergent pour chaque variable latente, ce qui dénote de leur validité. Les équations du modèle peuvent donc être interprétées.

Figure 4 : Equations issues de la modélisation PLS

Le modèle montre que l’adoption est expliquée de façon quasi-égale par l’utilité et la facilité d’utilisation perçues (coefficients de régression proches, 0.34 et 0.37 respectivement).

A leur tour, ces variables sont influencées par la qualité du système (1er facteur), par la confiance dans l’interaction (2ème facteur), par les actions managériales d’accompagnement et de pilotage (3ème facteur) et par la réceptivité aux TIC (dernier facteur).

La somme des coefficients de régression de l’équation de l’adoption (0.34 pour l’utilité perçue + 0.37 pour la facilité d’utilisation perçue <> 1) montre que ces deux critères sont loin d’apporter une explication exhaustive. Ce qui se confirme à travers la moyenne de la variance expliquée obtenue (voir tableau ci-dessous).

Figure 5 : Indicateurs de validation du modèle

Le modèle explique en moyenne 51% de la variance, ce qui est jugé comme acceptable dans le domaine de recherche dans lequel s’inscrit cette étude. Par ailleurs, la concordance, de 0.83 en moyenne, indique un bon ajustement entre les modèles interne et externe. Enfin, le coefficient de détermination, de 0.41 en moyenne laisse entrevoir l’existence d’autres facteurs pouvant influencer l’adoption des outils électroniques.

Pour finir, la méthode de la modélisation par équations structurelles est utilisée principalement dans les recherches académiques mais elle est parfaitement transposable aux études professionnelles portant notamment sur la satisfaction. Leur mobilisation permettra d’appréhender avec précision les facteurs d’influence et de les hiérarchiser afin d’apporter les améliorations nécessaires au maintien d’un bon niveau de service.

>>> Plus d'informations sur www.lesphinx.eu

Les technologies mobiles, un nouveau souffle pour vos études multicanal !

Année après année, le web s’est clairement imposé comme le principal mode de recueil des données quanti. Aujourd’hui, nous assistons à l’émergence d’une nouvelle génération d’études, portée par la multiplication des modes de connexion et la généralisation de l’Internet mobile qui tend à dépasser l’accès fixe (réseau 3/4G, smartphone, tablette, SMS, mail…). Cette nouvelle forme d’études prend place pour s’adapter aux évolutions que connait le comportement du consommateur.

Plus informé, plus exigeant, plus connecté, mais aussi plus courtisé, le client est au cœur de toutes les préoccupations de l’entreprise, qui n’a pas d’autre choix que de renforcer sa connaissance du marché pour réagir au mieux et au plus vite à toutes ses évolutions.

Face à cette nécessité de disposer rapidement d’éléments tangibles, reflétant la tendance actuelle, les nouvelles technologies et le mobile en particulier offrent de nouvelles possibilités pour appréhender et comprendre le client, mais aussi pour échanger avec lui.

Comment repenser vos études à l’ère du mobile ?

Devenant ainsi le device principal et le vecteur incontournable des études online, le mobile entraine de nouvelles exigences pour le design des études. En effet, les questionnaires de nouvelle génération sont des questionnaires qui s’ajustent au support mobile : temps de réponse ne dépassant pas les 5 minutes, mise en forme adaptée à la taille de l’écran, nombre réduit d’images, taille minimale des vidéos et autres objets multimédia… Telles sont les règles à respecter pour optimiser le degré d’attention et réduire les taux d’abandon des répondants.

Au-delà des aspects techniques et méthodologiques, les technologies mobiles offrent également de nouvelles opportunités pour les études à chaud en permettant de capter l’instant présent dans toute sa richesse : ressenti du client en situation, photos et enregistrements vidéos, localisation géographique…

Qu’il s’agisse d’enquêtes client mystère documentées par des images ou des vidéos, d’études de satisfaction menées à chaud suite à des expériences de consommation, de tests de produits en situation réelle, de tracking passif des données client (ex. géolocalisation, traçage du comportement de réponse), nombreux sont les exemples de situations dans lesquelles l’utilisation d’un support mobile améliore la qualité et la variété des données collectées.

Les technologies du Webreporting pour l’accélération des process de restitution

Parce que la nécessité première des entreprises est de réagir rapidement et conformément aux informations remontées, les présentations de résultats d’études évoluent naturellement vers un format opérationnel et directement exploitable par les différents services, du manager à l’opérationnel.

Ces derniers apprécient de disposer de résultats clairs et synthétiques, accessibles en temps réel, contenant des indicateurs pertinents pour le suivi du ressenti et permettant de s’assurer en permanence de la conformité des décisions prises aux tendances soulignées dans les résultats d’études.

En ce sens, la diffusion des reportings sur Internet et sur tous les supports mobiles est une réponse efficace aux exigences croissantes dans le monde des études. Elle offre de réels bénéfices en permettant la restitution, la communication et le partage en temps réel de résultats d’études et en accélérant la prise de décision, validée par des données collectées.

De la collecte à la diffusion, le mobile intervient à tous les niveaux de l’étude

Bien entendu, le mobile ne s’affranchit pas de toutes les règles liées aux études, mais offre une réelle valeur ajoutée en matière de collecte et d’analyse de données.

Plus qu’un usage à part entière, le mobile prend toute sa valeur quand il est combiné à d’autres approches, et devient alors un élément clef du marketing et des études pour mieux appréhender et comprendre le consommateur.

>>> Plus d'informations sur www.lesphinx.eu

Quelle représentativité pour les échantillons d’access panel ?

Le recours aux access panels [1] dans le cadre des études marketing est de plus en plus fréquent en raison de leurs avantages (maîtrise des coûts et des délais, connaissance des répondants, qualité des réponses collectées). Ces outils ne sont toutefois pas exempts de limites, notamment sur le plan de la représentativité des échantillons interrogés. Des biais peuvent en effet intervenir lors de la constitution du panel, d’autres peuvent être liés à son évolution ou à la mise en place des enquêtes. Le papier de DIVARD (2013) fait le point sur cette problématique clé. En voici un résumé.

Biais liés à la constitution du panel

Les biais liés à la constitution du panel sont relatifs aux erreurs de couverture et d’auto-sélection. Les premières renvoient à l’exclusion des consommateurs non-internautes de l’access panel, les secondes concernent l’exclusion des consommateurs internautes qui ne souhaitent pas rejoindre le panel de sondage.

Toutes les études ne sont pas concernées par ces erreurs. Seules celles qui mobilisent une population de base constituée de consommateurs internautes et non-internautes ou celles qui traitent de sujets pouvant être affectés par l’usage des technologies Internet y sont sensibles. Pour éviter ce biais, deux solutions sont proposées :

  • recruter les panélistes à l’occasion d’enquêtes en face à face hors ligne ;
  • procéder au recrutement des panélistes via un échantillonnage aléatoire, à partir d’une base téléphonique, et équiper les membres potentiels d’un accès Internet s’ils n’en ont pas.

Concernant les études menées exclusivement auprès des consommateurs internautes, le risque encouru est d’interroger un profil particulier de répondants en raison de leur fréquentation de certains sites, notamment ceux sur lesquels a été postée l’invitation à participer à l’enquête. Il est donc recommandé :

  • de diversifier les sites support et d’y générer des invitations à tirage aléatoire pour faire varier les profils ;
  • de privilégier les invitations par voie d’emailing ;
  • d’interdire les démarches d’inscription volontaires pour éviter l’effet « professionnalisation » du panel.

Enfin, pour des raisons de qualité, les invitations à rejoindre le panel devraient mettre l’accent sur l’intérêt de l’étude et valoriser la compétence du répondant pour éviter d’attirer des consommateurs motivés uniquement par les récompenses monétaires. [2]

Biais liés à l’évolution du panel

Les panélistes se professionnalisent au fur et à mesure de leur participation aux enquêtes et leur ancienneté peut induire des erreurs appelés biais de conditionnement. Des études ont en effet montré que les anciens membres sont plus réceptifs aux informations qui leur sont communiquées par les cabinets d’études, qu’ils s’impliquent davantage dans leurs réponses aux questionnaires et qu’ils sont moins critiques concernant les tests de concept. Il est donc recommandé de tenir compte de l’expertise des panélistes dans la constitution de l’échantillon et de ne pas solliciter ceux qui ont participé à des enquêtes récentes ou dont la problématique est similaire à celle étudiée.

Par ailleurs, les panels de sondage se renouvellent régulièrement, certains membres s’en vont de leur plein gré, d’autres sont évincés du fait de leur inactivité, de l’inexactitude de leurs réponses ou de leur manque d’implication dans le questionnaire [3]. Ce phénomène, connu sous le nom de l’attrition, peut affecter la représentativité du panel, ce qui implique un recrutement régulier pour combler les profils sortants et une politique de rétention efficace pour fidéliser les membres restants et limiter les coûts de recrutement.

Il est en effet recommandé, pour éviter les départs volontaires de :

  • prévoir des récompenses matérielles et non matérielles pertinentes et les faire varier pour maintenir la motivation des panélistes ;
  • adopter des outils de communication [4] de qualité et veiller à faire vivre [5] le panel en vue de fidéliser les membres ;
  • communiquer l’identité et l’objectif du propriétaire du panel et être transparent sur l’objet et la longueur des questionnaires ;
  • solliciter le plus rapidement possible les nouveaux panélistes tout en maintenant un volume de sollicitations raisonnable chez les anciens ;
  • faire varier les sujets traités, le type d’études et la forme des questionnaires utilisés pour maintenir l’effet nouveauté et éviter la lassitude des membres ;

Biais liés à la gestion de l’enquête

Les biais liés à la gestion de l’enquête sont dus aux erreurs de constitution de l’échantillon et de non-réponses générées par les enquêtés.

L’erreur de sélection dépend de la différence, sur les variables étudiées, entre les panélistes retenus dans l’échantillon et ceux qui ne le sont pas alors qu’ils correspondent au profil recherché. Le principe à privilégier pour éviter ce biais est celui de l’équiprobabilité entre les panélistes répondant au profil concerné par l’étude. Dans la pratique, les invitations sont envoyées à un nombre légèrement supérieur à la taille de l’échantillon souhaitée et l’utilisation des quotas est courante. Le fait d’interdire l’accès à l’enquête lorsque le quota est atteint est déconseillé car il favorise les répondants réactifs. Il est plutôt conseillé de permettre à tous les invités de répondre et de redresser l’échantillon à postériori.

L’erreur de non-réponse se pose d’une part lorsque le panéliste invité est dans l’impossibilité de répondre à l’enquête et d’autre part lorsqu’il choisit d’abandonner le questionnaire en cours de route. Pour l’éviter, il est recommandé de :

  • veiller à mettre à jour des coordonnées des panélistes pour s’assurer de la bonne délivrabilité des invitations ;
  • tester le questionnaire sous différents environnements techniques pour éliminer les risques d’inaccessibilité ;
  • allonger la durée de l’enquête pour permettre à tous les panélistes, quelle que soit leur fréquence d’utilisation de leur messagerie de pouvoir répondre à l’invitation ;
  • présenter agréablement le questionnaire pour rendre positive l’expérience du répondant ;
  • concevoir un message d’invitation motivant pour inciter les panélistes à participer.

Pour conclure

Les précisions méthodologiques contenues dans cet article permettent de faire le point sur les limites possibles des access panels pour une utilisation consciente et raisonnée. Par ailleurs, les recommandations avancées donnent des pistes utiles pour constituer un panel de qualité et limiter les biais de représentativité lors de la mise en place des enquêtes.


[1] L’access panel est un échantillon permanent et qualifié de consommateurs volontaires interrogés régulièrement sur des problématiques variées.

[2] Deux grandes catégories de motivations peuvent amener un consommateur à rejoindre un panel :
- Les motivations intrinsèques sont relatives au fait de participer à une action intéressante ou agréable visant à améliorer des produits et services, d’exprimer son opinion sur des sujets variés et d’influencer les décisions.
- Les motivations extrinsèques renvoient principalement à la recherche de récompenses monétaires.

[3] Ceci peut être évalué par le temps de remplissage et la longueur des réponses aux questions ouvertes.

[4] Invitations, questionnaires de recrutement, de mise à jour, d’enquêtes et de satisfaction, rubriques d’aide et de support.

[5] Newsletters, forum de discussion, blog.

>>> Plus d'informations sur www.lesphinx.eu

L'avis du consommateur, le nouveau concept-phare du marketing ?

Est-ce que mes clients sont satisfaits et fidèles à ma marque ? Quelles sont leurs attentes / besoins ? Quelle image est véhiculée par les prescripteurs et les détracteurs sur les réseaux sociaux, les forums ?
Autant de questions au cœur des préoccupations quotidiennes des entreprises, qui se trouvent aujourd’hui face à des clients plus exigeants, mieux informés et de plus en plus sollicités.

1/ La voix du consommateur, un élément-clé de la relation client

Vous l’avez compris, dans un contexte de concurrence accru, le client est placé au cœur des décisions stratégiques des entreprises. Celles-ci considèrent la satisfaction client comme le principal levier de fidélisation, et comme un outil d’optimisation de la relation avec ses clients.
En ce sens, le concept de voix du client, qui fait référence au processus dynamique de recueil et d’analyse des avis de consommateurs, constitue un moyen efficace d’atteindre cet objectif, en vue de s’adapter au mieux aux évolutions du marché.

2/ Le témoignage client, une mine d’informations au service de vos décisions

Qu’ils aient une connotation positive ou négative, les feedbacks clients permettent à l’entreprise de connaitre ses clients (ses consommateurs), comprendre leur comportement, anticiper leurs attentes, mesurer leur satisfaction et leur propension à opter pour la concurrence, dans le but d’adopter au bon moment la meilleure attitude et les meilleures décisions.
Ainsi, un client qui manifeste son mécontentement sur un produit ou un service permettra à l’entreprise d’identifier les problèmes exprimés et de résoudre rapidement les défauts, par un plan d’actions personnalisé, alors qu’un client satisfait doit être considéré comme un ambassadeur de la marque / entreprise.

3/ L'avis du consommateur, l’affaire de tous au sein de votre entreprise

Qu’il s’agisse du pilotage en temps réel des actions de fidélisation ou de l’optimisation de la relation client, la réussite d’une démarche d’écoute client repose sur la sensibilisation et l’implication de tous les collaborateurs, quelle que soit leur fonction.
En effet, les réclamations ou les demandes d’information peuvent mobiliser plusieurs services (que ce soit le front office ou le back office). Il s’agit avant tout de mobiliser les collaborateurs au quotidien pour s’assurer du traitement rapide et efficace des retours clients, qu’ils soient positifs ou négatifs.
Ainsi, plus qu’un baromètre marketing, l’écoute client reflète une démarche globale d’amélioration continue, et offre de nouvelles opportunités pour décider et agir.

4/ L’écoute client, un challenge opérationnel et stratégique

S’appuyant sur l’expérience client, certaines entreprises mettront en place des engagements de qualité de service, d’autres activeront des leviers d’amélioration de la satisfaction client ou d’autres encore lanceront des actions de promotion illustrées par le témoignage de clients fidèles.
L’enjeu du système d’écoute client consiste donc à exploiter de manière optimale toutes ces informations recueillies au fil de l’eau sur les clients, qu’elles proviennent de questionnaires, de commentaires, de réclamations clients…
Avec deux objectifs à la clef : offrir un suivi dynamique et en temps réel des indicateurs clé de satisfaction et de fidélité en vue d’optimiser les interactions avec le client, mais aussi d’être réactif dans la prise de décisions stratégiques face à la tendance actuelle.

Pour en savoir plus sur les méthodologies proposées par Sphinx Institute pour recueillir la Voix du Client, nous vous invitons à vous inscrire à notre Petit Déjeuner Méthodologique qui aura lieu le 9 juin à Paris. Pour vous inscrire, cliquez ici.

>>> Plus d'informations sur www.lesphinx.eu

Le test McNemar pour contrôler l’efficacité d’une action

Principe du test

Pour étudier l’efficacité d’une action marketing (changement de packaging, promotion sur lieu de vente ou publicité), d’une campagne de sensibilisation ou d’un traitement médical,  des questionnaires d’opinion ou d’attitude avant/après se présentent comme la solution idéale. Ceux-ci sont adressés aux mêmes répondants en deux vagues successives séparées par l’action entreprise.

La démarche vise à observer les variations (ou non) de réponse d’une vague à l’autre et par conséquent à évaluer la pertinence de l’action.

Exemple d’utilisation

On a demandé l’intention d’achat d’une huile alimentaire à base de chanvre à 250 personnes avant et après la diffusion d’un reportage télévisé sur la question. On souhaite savoir si le reportage a modifié les intentions d’achat des répondants.

Les données collectées ont permis de compter le nombre de réponses différentes entre les situations avant et après et le nombre de personnes n’ayant pas changé d’avis suite à la diffusion du reportage. Ci-dessous les résultats obtenus.

 Il est à noter que :

  • 62 personnes avaient l’intention d’acheter une huile alimentaire à base de chanvre avant le reportage mais ont changé d’avis après.
  • 92 personnes n’avaient pas l’intention d’acheter une huile alimentaire à base de chanvre avant le reportage mais ont changé d’avis après.

Les données collectées sont analysées grâce à un test statistique nommé McNemar, visant à identifier les variations des réponses suite à la diffusion du reportage et par conséquent l’effet de celui-ci sur l’intention d’achat de l’huile de chanvre alimentaire.

Application du test

Pour rappel, le test utilise la statistique suivante : ,

  • B correspond au nombre d’individus qui sont passés de l’état 1 à l’état 2 (ex. de « intention d’achat » à « pas d’intention d’achat »).
  • C correspond au nombre d’individus qui sont passés de l’état 2 à l’état 1 (ex. de « pas d’intention d’achat » à « intention d’achat »).

La valeur obtenue est comparée à la statistique de référence disponible dans la table de la loi Chi² (1 degré de liberté et risque α).

Lorsque la statistique observée dépasse la statistique de référence, cela veut dire que l’action mise en place a un effet sur l’opinion ou l’attitude du répondant.

Appliquons-le à notre exemple :

 Statistique de référence : Chi² = 3,84 avec ddl = 1 et α = 5%.

Statistique observée : Chi² = 5,46 avec ddl = 1 et α = 2%.

Le Chi² observé est supérieure au Chi² de référence, le α observé est inférieur α de référence.

Le test permet ainsi de démontrer que le reportage sur le chanvre a modifié l’intention d’achat des téléspectateurs. Le commanditaire de l’étude n’a donc plus qu’à adapter ses actions en fonction des conclusions formulées.

Il est à noter que les logiciels d’analyse de données proposant ce type de tests statistiques réalisent les calculs et les comparaisons nécessaires pour restituer à l’utilisateur le résultat qui l’intéresse : significativité (ou non) du test, autrement dit association (ou non) entre les variables étudiées.

>>> Plus d'informations sur www.lesphinx.eu

La matrice Llosa pour mieux comprendre la satisfaction client vis-à-vis des services proposés

La notion de la satisfaction revêt une importance particulière en entreprise dans la mesure où elle peut être à l’origine de la fidélité des clients et de leur recommandation des services expérimentés. Ce dernier point est facilité par les options du web 2.0 permettant de partager plus facilement retours d’expérience, critiques et avis des consommateurs.

Pour bien appréhender cette notion de satisfaction, il est nécessaire d’identifier les facteurs qui contribuent à sa formation et d’en déterminer le niveau d’influence. Plusieurs études ont été réalisées dans ce sens. Nous faisons le point dans cet article sur une méthode appelée matrice Llosa, développée en 1996 par une chercheure en sciences de gestion qui porte le même nom.

Qu’est-ce que la matrice Llosa ?

La matrice Llosa consiste à classer les facteurs susceptibles d’agir sur le couple satisfaction-insatisfaction des consommateurs vis-à-vis d’un service d’une manière générale selon deux critères : le niveau de performance des facteurs et leur influence sur la satisfaction globale.

Cette mise en relation donne lieu à une carte composée de quatre quadrants qualifiés ainsi :

  • Quadrant des éléments Plus (facteurs d’excellence) : regroupe les facteurs qui contribuent fortement à la satisfaction lorsqu’ils sont perçus positivement ; faiblement à l’insatisfaction lorsqu’ils sont perçus négativement.
  • Quadrant des éléments Clés (facteurs moteurs) : comprend les critères qui exercent une forte influence sur la satisfaction lorsqu’ils sont perçus positivement et sur l’insatisfaction lorsqu’ils sont perçus négativement.
  • Quadrant des éléments basiques (facteurs essentiels) : contient les critères qui contribuent fortement à l’insatisfaction lorsqu’ils sont perçus négativement et faiblement à la satisfaction lorsqu’ils sont perçus positivement.
  • Quadrant des éléments secondaires (facteurs neutres) : regroupe les facteurs qui exercent une faible influence sur la satisfaction quelle qu’en soit la perception.

 Figure 1 : Matrice Llosa (Windal, 2011)

L’affectation des facteurs aux quadrants se fait sur la base d’une analyse multi-variée de type AFC, réalisée à partir d’un tableau récapitulant les contributions de ces mêmes facteurs à la satisfaction ou à l’insatisfaction vis-à-vis des services expérimentés.

Illustration

Pour mieux comprendre la matrice Llosa, prenons l’exemple d’une enquête menée par un distributeur de produits alimentaires auprès de sa clientèle. L’objectif de cette étude est de connaître le niveau de satisfaction vis-à-vis de l’entreprise d’une manière globale et d’un ensemble de facteurs censés influencer cette satisfaction (voir l’enquête Valibest dans la bibliothèque des exemples de Sphinx iQ).

Les résultats se présentent ainsi :

  Figure 2 : Notes moyennes de satisfaction

La matrice Llosa réalisée sur ces données (voir carte ci-dessous) permet de tirer les conclusions suivantes :

  • Absence d’éléments clés jouant un rôle moteur sur la satisfaction ou l’insatisfaction des clients.
  • La qualité des fruits et légumes est un élément plus ou un facteur d’excellence, cela veut-dire que lorsque les clients en sont contents, leur satisfaction globale s’améliore et lorsqu’ils n’en sont pas contents, leur satisfaction globale ne s’en trouve pas ressentie. Ceci peut paraître surprenant mais la structure des données et notamment les bons niveaux de satisfaction enregistrés peuvent expliquer ce constat.
  • Le respect des engagements, la réactivité commerciale, la disponibilité au téléphone, le professionnalisme du représentant, la sécurité et la traçabilité sont des éléments basiques ; c’est le minimum attendu par le client.
  • Le choix des fruits et légumes, le respect des horaires et des conditions de livraison, le professionnalisme du chauffeur sont des éléments secondaires qui n’ont qu’une faible influence sur le niveau de satisfaction globale.

Figure 3 : Matrice Llosa du cas Valibest

L’intérêt de cette méthode réside dans son caractère opérationnel comme on peut le constater à partir de l’exemple. Il est en effet facile, grâce à la classification obtenue, d’identifier les facteurs à améliorer en priorité.

D’une manière générale, il est à noter que lorsque le niveau des services rendus par l’entreprise est élevé, ce sont les éléments clés (moteurs) et les éléments plus (d’excellence) qu’il convient d’améliorer ; en cas de performances moyennes, ce sont les éléments basiques (minimum) et les éléments clés (moteurs) qui sont prioritaires.

>>> Plus d'informations sur www.lesphinx.eu

L’arbre de composition : un outil efficace pour segmenter et caractériser vos clients

Que ce soit pour segmenter une population, pour déterminer les comportements caractéristiques d’une cible, pour qualifier les opinions et les attitudes des consommateurs vis-à-vis d’un produit ou d’un service, l’arbre de composition révèle son utilité. Outil de datamining, il est utilisé pour explorer les données issues des enquêtes marketing, du système d’information (identité des clients, équipement, historique des échanges…) ou des deux.

L’arbre de composition consiste à mettre en relation une variable Y (ex : consommation, satisfaction) avec une multitude de variables X (ex : classe d’âge, genre, CSP, contexte ou motifs de consommation)  afin de mettre en évidence leurs principales associations et faire ressortir les modalités correspondant au mieux à la cible que l’on souhaite caractériser. Ainsi, la population est découpée en groupes aussi homogènes que possible vis-à-vis de la variable Y.

Visuellement, l’arbre de composition se présente sous forme d’un organigramme hiérarchique composé de plusieurs niveaux allant de la population globale (sommet) aux groupes identifiés (base) comme le montre le schéma suivant.

 Figure 1 : Arbre de composition

Exemple : l’arbre de composition pour segmenter les consommateurs de vin

Pour illustrer la lecture de l’arbre de composition, nous prendrons l’exemple ci-dessous, tiré de l’étude Européenne sur les rapports entre consommation et culture menée en 2010 dans le cadre du projet COBEREN (Consumer Behavior European NetWork)[1].

Les répondants devaient indiquer les motifs de consommation de leur boisson préférée en se positionnant sur une échelle de quatre niveaux allant de « Je suis totalement en désaccord » à « Je suis totalement d’accord » ; ils pouvaient également choisir l’option « Je ne sais pas » s’ils n’avaient pas d’avis arrêté sur la proposition.

Figure 2 : Propositions sur les motifs de consommation des boissons alcoolisées

L’objectif à travers la mise en place d’un arbre de composition dans ce contexte est double : segmenter les consommateurs selon leurs boissons préférées et leurs motifs de consommation, identifier les motifs associés à chaque type de boisson (le vin et la bière sont arrivées en tête des boissons préférées mais nous avons limité l’exploration aux vins pour des raisons pédagogiques).

Il est possible de constater, grâce au graphique, que la consommation de la bière et du vin ne remplissent pas les mêmes fonctions : la première est d’ordre instrumental (je consomme la bière pour étancher sa soif), la seconde est d’ordre social (je consomme le vin pour faire comme ses amis). Par ailleurs, les consommateurs de vins sont segmentés en groupes distincts selon les critères « obtenir quelque chose de bien pour soi » et « se maintenir en bonne santé » ; le critère « obtenir quelque chose de bien pour soi » étant le plus important.

 Figure 3 : Arbre de composition centré sur les consommateurs de vins

Comment construit-on un arbre de composition ?

Le processus qui mène à la définition de l’arbre de composition se déroule, selon la méthode CHAID (CHi-squared Automatic Interaction Detector), en trois temps : la fusion, la division, l’arrêt. Ces trois phases sont appliquées d’une manière répétitive sur chaque segment, en commençant par la population globale.

  • La fusion : cette étape consiste à regrouper les modalités d’une variable X selon leur similarité. Pour cela, plusieurs tableaux croisés entre la variable Y et les couples des modalités de la variable X sont construits et les liaisons associées à ces tableaux sont calculées. Sont considérées comme proches, les modalités correspondant au tableau croisé ayant obtenu la plus forte mesure de liaison, celle-ci est notée p-value.
    Comme pour tous les tests statistiques, cette p-value est comparée à un seuil de  référence fixé par l’utilisateur et si elle le dépasse, les modalités sont considérées comme similaires.
    De nouvelles variables, ayant comme modalités les combinaisons retenues, sont ainsi obtenues. A l’issue de cette opération, une p-value ajustée est calculée sur le tableau croisant la variable Y à la nouvelle variable X formée des modalités composites.
    Dans l’exemple précédent, la variable Y représente la boisson préférée, les variables X renvoient aux motifs de consommation. Les calculs effectués sur ces derniers lors de la phase de fusion ont abouti au regroupement des modalités « Je suis totalement d’accord / Plutôt d’accord » et « Je suis totalement en désaccord / Plutôt pas d’accord » pour les quatre variables X et ce, en raison de leur similarité ; Il est à préciser que la modalité « Je ne sais pas » a été écartée volontairement.
  • La division : elle consiste à sélectionner la variable X qui divisera au mieux la population. Pour cela les p-value ajustées correspondant au croisement entre la variable Y et les différentes variables X, calculées à l’étape précédente, sont comparées. La meilleure variable de division est celle qui obtient la plus petite p-value ajustée ; si cette p-value ajustée est inférieure à un seuil fixé par l’utilisateur, la division est effectuée, sinon le segment est considéré comme terminal.
    Dans l’exemple plus haut, la première variable de division est « étancher ma soif », la seconde est « faire comme mes amis », « obtenir quelque chose de bien pour moi » arrive en 3ème position et « pour être en bonne santé » occupe le dernier niveau.
  • L’arrêt : à chaque création d’un nouveau segment, les conditions d’arrêt suivantes sont vérifiées : constance des variables étudiées sur les différents segments, profondeur de l’arbre et taille du segment ; ces deux dernières conditions restent à l’appréciation de l’utilisateur.
    Cinq groupes homogènes sont identifiés dans l’exemple précédent : ceux qui consomment la bière pour étancher leur soif (814 personnes), ceux qui consomment le vin pour faire comme les amis (157 personnes), ceux pour qui la consommation du vin n’est pas synonyme « d’obtenir quelque chose de bien pour soi » (399 personnes), ceux qui consomment le vin pour obtenir quelque chose de bien pour soi et pour ses bienfaits sur la santé (360 personnes), ceux qui ne consomment pas le vin pour des raisons de santé mais qui cherchent tout de même à obtenir quelque chose de bien pour soi (238 personnes).
    Il est à préciser que le découpage en quatre niveaux a été choisi par l’utilisateur.

 Les logiciels d’analyse de données, notamment Sphinx iQ, permettent d’automatiser le processus de construction de l’arbre de composition dans sa totalité. L’utilisateur se contente de choisir les variables X et Y et d’indiquer la profondeur de l’arbre ; l’outil identifie les variables de segmentation et découpe la population en groupes homogènes.

Pour conclure

L’arbre de composition est un outil d’exploration des données pratique et efficace dans la mesure où il permet de segmenter rapidement et automatiquement un ensemble d’individus selon leurs caractéristiques.

Contrairement aux méthodes factorielles ou de classification courantes (AFCM, classification hiérarchique) qui dressent le profil général des répondants et les regroupe de façon synthétique, l’arbre de composition fournit d’une manière exacte le profil des groupes identifiés ; la lecture hiérarchique de l’arbre aidant en cela. Il demeure toutefois intéressant de trianguler les méthodes pour une meilleure validation des résultats.


[1] Pour en savoir plus sur ce projet, voir Ganassali &  Rodriguez-Santos (2013), Research Intentions are Nothing without Technology : Mixed-Method Web Surveys and the Coberen Wall of Pictures Protocol, in In Sappleton, N. (ed.): Advancing Research Methods with New Technologies. IGI Global., pp. 138-156

>>> Plus d'informations sur www.lesphinx.eu

L’étude des spécificités ou l’analyse textuelle par contexte

Dans une analyse des données textuelles, la méthode de l’analyse lexicale constitue une étape indispensable pour la compréhension du contenu du texte analysé. Elle est souvent appuyée par une analyse par contexte connue sous le nom « étude des spécificités ». Celle-ci consiste à comparer le contenu du corpus selon les modalités d’une variable fermée (variable d’identification comme la profession par exemple).

Le principe de cette étude part de l’hypothèse d’une répartition « au hasard » des mots sur l’ensemble des catégories de la variable fermée. Son objectif est d’identifier les mots qui sont distribués au hasard et ceux qui ne le sont pas, c’est-à-dire ceux dont la présence est significativement plus forte dans une catégorie donnée.

Les algorithmes de spécificité sont fondés sur des tests statistiques de rapports ou de comparaison de fréquences et opèrent selon les calculs suivants :

Figure 1 : Illustration des calculs de spécificité

Sont considérés comme spécifiques les mots dont le rapport de fréquence dépasse un seuil fixé par le chargé d’études.

Application

Dans l’enquête de consommation menée en 1992 par le CREDOC[1], la question « Si vous gagniez le gros lot au Loto, que feriez-vous ? » est posée. L’objectif de cette étude est d’identifier le comportement du consommateur une fois affranchi des contraintes financières grâce à ses gains au loto. 990 réponses sont collectées.

Une analyse des mots spécifiques par contexte a été effectuée à partir de la variable « situation matrimoniale ». Celle-ci révèle que l’importance des intentions diffère selon que l’on est célibataire, en couple ou séparé (voir figure ci-dessous) :

  • Les célibataires utilisent d’une façon remarquable les mots cadeau, appartement, banque, immobilier, placement et voiture.
  • Les personnes en couple pensent principalement aux vacances.
  • Les personnes séparées ont des priorités différentes si l’on considère les termes surutilisés chez eux : œuvre, pauvre, enfant, cancer, don, gens et pays.

Il faut noter que ces mots précédents ne sont pas exclusifs d’une catégorie, mais ils sont présents d’une manière importante pour en être représentatifs.

Figure 2 : Calcul des spécificités pour l'enquête de consommation

L’étude des spécificités permet d’identifier à partir du lexique, les différences entre les catégories comparées, ce qui en facilite la qualification et l’illustration via des verbatim différenciés.

Il est à noter que cette étude des spécificités peut s’effectuer également à partir d’une analyse sémantique. L’objectif dans ce cas est de représenter le corpus par un ensemble de concepts et d’en identifier les plus représentatifs par catégorie (voir l’article Ontologies et thésaurus pour modéliser un corpus textuel pour plus d’information sur la notion de concepts).


[1] Lahlou, Collerie, Beaudouin (1993) Où en est la consommation aujourd'hui, Cahier de recherches n° 46, CREDOC

>>> Plus d'informations sur www.lesphinx.eu