Résultats du Prix de thèse Sphinx 2015


1. Prix de thèse Sphinx

Dans le cadre de sa politique d’encouragement de l’enseignement et de la recherche universitaire, la société Le Sphinx (www.lesphinx.eu) décerne chaque année deux prix aux meilleurs travaux doctoraux en sciences de gestion, en sciences de l’Information et de la Communication et en sciences de l’Education.

Le Prix de thèse Sphinx a pour but de distinguer de jeunes chercheurs dont les travaux sont d’une grande qualité scientifique et notamment méthodologique. L’objectif est de valoriser la recherche et les publications scientifiques et de renforcer la collaboration entre les grandes écoles/universités et la société Le Sphinx dans le domaine des techniques d’enquêtes et de l’analyse des données. Les thèses éligibles doivent être rédigées en langue française et avoir été soutenues dans une université française ou francophone.

Les critères pris en compte par le jury pour sélectionner les lauréats sont notamment la pertinence des résultats, l'originalité et la richesse des méthodes utilisées lors de l’étude empirique (combinaison des approches Quali/Quanti, protocoles innovants de collecte et d’analyse, expérimentation…), l'impact théorique et managérial des résultats obtenus, et la qualité de la rédaction. L’usage des logiciels Sphinx n’est pas un critère de sélection pour ce prix.

2. Compte-rendu

La procédure de sélection est pilotée par Dr. Younès Boughzala et présidé par Pr. Jean Moscarola, professeur émérite à l’Université de Grenoble. 15 enseignants-chercheurs d’institutions françaises ou étrangères sont sollicités dans le cadre du processus de sélection.

La procédure de sélection s’est déroulée en trois étapes : l’information sur la production d’un dossier de Prix thèse, une étape de pré-sélection et une étape de désignation des deux lauréats.

Au total, nous avons reçu 16 dossiers de candidature. 7 thèses en Marketing, 3 thèses en Stratégie, 2 thèses en Economie, 1 thèse en Systèmes d’Information, 1 thèse en Psychopédagogie, 1 thèse en Ressources Humaines et 1 thèse en Architecture.

Ces candidatures proviennent d’universités françaises (11) et étrangères (5).

Les universités françaises : Université Paris-Dauphine (2), Université Panthéon Sorbonne (2), Université de Grenoble (1), Université Paris Ouest Nanterre La Défense (1), Université de Nantes (1), Université Jean Moulin (1), Conservatoire National des Arts et Métiers (1), Université Aix-Marseille (1), Université d’Auvergne (1).

Les universités étrangères : Université Laval – Canada (1), Faculté des Sciences Economiques et de Gestion de Sfax – Tunisie (1), Université Moulay Ismaïl de Meknès – Algérie (1), Ecole Polytechnique d’Architecture et d’Urbanisme – Algérie (1), Faculté des Sciences Economiques, de Gestion et des Sciences Commerciales – Algérie (1).

Le jury de pré-sélection qui s'est tenu le 18 octobre 2015 sous la présidence de Pr. Jean Moscarola et a sélectionné 8 finalistes. Toutes les thèses se distinguent par une grande qualité et rigueur méthodologiques. 70% des travaux combine l’approche qualitative avec l’approche quantitative. 30% des candidats utilise les logiciels Sphinx.

3. Les finalistes :

Alice AUDREZET, Université Paris-Dauphine (France), «L’ambivalence des consommateurs : Proposition d’un nouvel outil de mesure», sous la direction de Pr. Christian PINSON.

Aurélie HEMONNET-GOUJOT, Université Paris 1 Panthéon-Sorbonne (France), «La collaboration entre le marketing et les agences de design : Quelle influence sur le processus de développement de nouveaux produits ?», sous la direction de Pr. Delphine MANCEAU.

Bruno Emanuel MORGADO FERREIRA, Université d’Auvergne (France), «L’influence de la texture d’un emballage : une approche par des méthodes explicites et implicites», Sous la direction des Pr. Sonia CAPELLI et Olivier TRENDEL

Caroline MORRONGIELLO, Université de Grenoble (France), «De l’empowerment à l’engagement du client sur les plateformes en ligne : Ou comment favoriser l’activité des clients sur Internet», Sous la direction des Pr. Gilles N’GOALA et Dominique KREZIAK.

Marie-Eve LAPORTE, Université Paris 1 Panthéon-Sorbonne (France), «La Perception du Risque Nutritionnel par le consommateur, un nouveau levier pour expliquer les comportements alimentaires», sous la direction des Pr. Géraldine MICHEL et Sophie RIEUNIER.

Matthias PEPIN, Université Laval (Canada), «Apprendre à s’entreprendre en milieu scolaire : Une étude de cas collaborative à l’école primaire», sous la direction de Pr. Serge DESGAGNE.

Mondher FEKI, Université Paris Ouest Nanterre La Défense (France), «Configurations stratégiques et contribution du système d’information à la performance des entreprises industrielles», sous la direction de Pr. Rolande MARCINIAK.

Wejdene YANGUI, Faculté des Sciences Économiques et de Gestion Sfax (Tunisie), «Consommation alimentaire moderne et besoin de réassurance : proposition et test d'un modèle intégrateur», sous la direction de Pr. Nibrass HAJTAÏEB EL AOUD.

4. Les lauréats :

Après examen des évaluations des membres de jury, le président de jury Pr. Jean MOSCAROLA s’est réuni avec le comité d’organisation le 25 février 2016 et a retenu deux lauréats :

Le premier prix de 1000 euros est attribué à Mme Marie-Eve LAPORTE pour sa thèse intitulée « La Perception du Risque Nutritionnel par le consommateur, un nouveau levier pour expliquer les comportements alimentaires » (Université Paris 1 Panthéon-Sorbonne, sous la direction des Pr. Géraldine MICHEL et Sophie RIEUNIER).

Ce travail de grande qualité se distingue particulièrement par la pertinence et l’originalité du sujet (risque nutritionnel et comportement alimentaire) et la rigueur de l’étude empirique. Sur le plan méthodologique, c’est un très bon exemple de combinaison des approches qualitatives (exercices projectifs, immersion et entretiens approfondies) et quantitatives (2 expérimentations avec des échantillons de 280 et 296 personnes) pour la collecte et l’analyse de données. Les analyses sont effectués avec les logiciels INVIVO et SPSS. Les résultats et implications de ce travail sont très intéressants en matière de santé publique. Ils incitent les pouvoirs publics à intégrer les dimensions culturelle et sociale de l’alimentation pour améliorer les comportements des consommateurs.

Le second prix de 500 euros est attribué à M. Matthias PEPIN pour sa thèse intitulée « Apprendre à s’entreprendre en milieu scolaire : Une étude de cas collaborative à l’école primaire » (Université Laval, sous la direction de Pr. Serge DESGAGNE).

Ce travail se distingue par une très bonne connaissance de la problématique étudiée, la pertinence du sujet (entreprenariat), la qualité des outils de recherche mobilisés (entretiens, conseils de classe, création de magasins, observation participante, études de cas…), les implications proposées, le parcours professionnel du candidat et le potentiel de publication.

>>> Plus d'informations sur www.lesphinx.eu

Le satisficing comme indicateur de la non qualité des réponses

Le terme satisficing désigne le fait de répondre à un questionnaire avec un minimum d’effort par manque de motivation ou désintérêt, par lassitude ou impatience.

Cette pratique qui traduit le manque d’implication du répondant, se répercute sur la qualité de ses réponses. En effet, au lieu de parcourir toutes les possibilités de réponse et choisir celle qui reflète le plus sa position, le satisficer se contente de choisir la dernière modalité énoncée ou la première réponse acceptable d’une liste de choix possibles. Il peut également être enclin à acquiescer ou à répondre de la même façon aux questions échelles présentées sous forme de tableaux.

Voici trois des techniques utilisées pour détecter les satisficers, tirées de l’article de Lapeyre, Malas et Guiot (2015) [*] : le test de lecture des instructions, le test de l’item inversé, le temps de réponse global.

Le test de lecture des instructions

Ce test consiste à introduire un item du type « il est demandé de ne pas répondre à cette question », et que le répondant ne doit pas renseigner. Une réponse donnée à cet item indique une lecture superficielle des questions qui pourrait nuire à la qualité des réponses.

Figure 1 : Test de lecture des instructions (Lapeyre, Malas et Guiot, 2015)

Le test de l’item inversé

Ce test consiste à introduire dans le questionnaire deux items de formulation opposée pour mesurer une même idée (exp. le chocolat noir contribue à la prise de poids, le chocolat noir contribue à la perte de poids). Une réponse identique donnée aux deux formulations dénote d’un manque d’attention et par conséquent d’un satisficing.

Figure 2 : Test de l’item inversé (Lapeyre, Malas et Guiot, 2015)

Il est préconisé de placer ces tests dans la 2ème moitié du questionnaire lorsque les questions centrales de l’étude sont abordées. Il est toutefois déconseillé de les utiliser de façon répétitive dans un même questionnaire pour éviter d’agacer le répondant.

Le temps de réponse global

Ce test consiste à identifier le temps de réponse nécessaire à l’obtention d’un questionnaire fiable. Un répondant ayant consacré moins de temps au remplissage de son questionnaire pourrait en effet être considéré comme satisficer.

Il est à préciser que le temps minimum acceptable est estimé à partir de l’enquête pilote réalisée en amont de la campagne de collecte.

Pour finir, les trois tests présentés ci-dessus ne sont pas exclusifs. Ils gagneraient à être utilisés en parallèle pour un meilleur filtrage des réponses non fiables.

[*] LAPEYRE A., MALAS Z., GUIOT D., Le satisficing dans les enquêtes par questionnaire : Mesures et effets sur la qualité des réponses, Revue Française du Marketing, Mars 2015, n°251.

>>> Plus d'informations sur www.lesphinx.eu

Echelles positives ou négatives ? Quels effets sur les réponses

Une recherche menée en 2015 à l'université d'Utrecht aux Pays Bas [*] a étudié l’effet de la formulation des questions échelles sur les réponses.
Les 12 expérimentations réalisées avaient comme objectif de tester des formulations variées à partir de 13 paires d’adjectifs :

  • Une formulation positive associée à une échelle de Likert croissante ; exp. Cet ouvrage est intéressant => Pas d’accord [ ] [ ] [ ] [ ] [ ] D’accord.
  • Une formulation négative associée à une échelle de Likert croissante ; exp. Cet ouvrage n’est pas intéressant => Pas d’accord => Pas d’accord [ ] [ ] [ ] [ ] [ ] D’accord.
  • Une formulation bipolaire associée à une échelle sémantique différentielle ; exp. Cet ouvrage est inintéressant => [ ] [ ] [ ] [ ] [ ] Intéressant.

Selon l’analyse statistique, les répondants ont plus tendance à exprimer leur désaccord avec les propositions négatives que leur accord avec les propositions positives ou leur choix des échelons positifs dans une question bipolaire. Ceci était vrai pour la moitié des adjectifs testés, d’où les recommandations suivantes :

  • La lecture des réponses aux questions échelles doit rester proche des formulations et éviter toute interprétation absolue. En effet, être en désaccord avec l’item « cet ouvrage est fascinant » ne veut pas dire que l’ouvrage est ennuyeux mais qu’il n’est tout simplement pas fascinant.
  • Pour bien évaluer une idée, il est recommandé de multiplier les items qui s’y rapportent (exp. Cet ouvrage est fascinant, cet ouvrage est intéressant, cet ouvrage est prenant…). Toutefois, il est déconseillé d’alterner les formulations positives et négatives pour une interprétation homogène des réponses.

De quoi apporter plus de méthode dans la rédaction du questionnaire et de précision dans la lecture des réponses.

[*] Kamoen N., Holleman B., van den Bergh H., Positive, negative, and bipolar questions: The effect of question polarity on ratings of text readability, Survey Research Methods, 2013, Vol. 7, No. 3, pp. 181-189.

>>> Plus d'informations sur www.lesphinx.eu

Etudes internes : effets de l’outil de mesure sur les résultats

Avec l’essor des études internes et la multiplication des approches d’évaluation de climat social, la recherche académique s’est penchée sur l’impact du choix de ces outils sur les données recueillies et sur les résultats.

Ainsi, des psychologues suisses [*] des universités de Genève et Neuchâtel ont réalisé une étude comparative de quatre instruments de mesure qui peuvent être utilisés pour mesurer la satisfaction au travail.

Tous développés et validés par de sérieux travaux publiés dans des revues scientifiques de renom, les quatre outils évalués sont les suivants :

  • le Minnesota Satisfaction Questionnaire (MSQ)
  • l’échelle de Satisfaction de Vie Professionnelle (ESVP)
  • l’échelle de Satisfaction globale au travail (ESGT)
  • l’échelle de Baillod et Semmer (PUR)

L’ensemble de ces échelles - accompagné d’autres mesures de perception du travail et de tests de personnalité - a été compilé dans trois livrets et soumis à un échantillon de 300 employés de la fonction publique en Suisse Romande : postiers, secrétaires, agents de détention et enseignants-chercheurs. Les questionnaires ont été distribués en main propre et la participation donnait accès à une tombola.

Les résultats sont quelque peu surprenants car ils montrent que certaines conclusions peuvent varier en fonction du questionnaire utilisé pour mesurer la satisfaction au travail.

Par exemple, si l’on se réfère au MSQ et au PUR, les femmes seraient significativement plus satisfaites que les hommes. Les deux autres instruments ne conduisent à aucune différence.

De même, la variable « lieu de contrôle » présente des résultats différents selon le questionnaire mobilisé. Le lieu de contrôle interne est significatif seulement pour l’ESVP et le MSQ et non pour les deux autres échelles. Rappelons que le lieu de contrôle représente la perception du degré de contrôle de sa vie. Il est dit « interne » si l’on pense que l’on a soi-même la capacité d’orienter sa vie, ou « externe » si l’on croit que celle-ci est surtout guidée par les autres, le hasard ou la destinée.

A partir de ces éléments et d’une série de comparaisons, portant sur des facteurs liés au travail mais aussi sur des critères liés à la personne, les auteurs concluent que les différentes échelles ne se réfèrent pas exactement aux mêmes définitions de la satisfaction au travail et appellent les chercheurs à parvenir à un consensus dans le futur.

Pour finir, nous recommanderons de notre côté aux praticiens d’avoir conscience des possibles différences de résultats en fonction de l’outil mobilisé. Nous suggérons de repérer plusieurs échelles de mesure et de choisir collectivement celle qui correspond le mieux à la définition la mieux partagée au sein de leur organisation.

[*] Référence : Iglesias Katia, Renaud Olivier et Tschan Franziska (2010), La satisfaction au travail: une conséquence du choix des outils statistiques et des instruments de mesure en GRH, Revue internationale de psychosociologie, 16(40) : 245-270.

>>> Plus d'informations sur www.lesphinx.eu

Le projet d'enquête des prestations internes à la Caisse d'Epargne Aquitaine Poitou-Charentes

Afin d’illustrer la mise en place d'un baromètre social d'entreprise, nous vous proposons le témoignage de Véronique Dumontelle, Responsable du département Qualité de la Caisse d’Epargne Aquitaine Poitou-Charentes.

Dans le but de promouvoir dans l’ensemble de l’entreprise une démarche d’amélioration continue, à la fois dans les processus internes mais aussi vis-à-vis des clients finaux, la Caisse d’Epargne Aquitaine Poitou-Charentes a mis en place un baromètre annuel de mesure de la satisfaction de ses collaborateurs (appelés aussi clients internes) à l’égard des prestations livrées par l’ensemble des unités de l’entreprise.

Depuis 2014, Sphinx Institute, pôle composé de chargés d’études, est mandaté pour accompagner la Caisse d’Epargne Aquitaine-Poitou Charentes dans la conception de l’étude, réaliser le paramétrage du questionnaire, sa diffusion à l’ensemble des collaborateurs et l’analyse des résultats.

Madame Dumontelle, vous nous confiez, depuis 2014, votre Enquête des Prestations Internes (EPI). Pouvez-vous nous présenter les enjeux de ce projet ?

L’Enquête des Prestations Internes, lancée en 2013, doit répondre à plusieurs enjeux, parmi lesquels :

  • Doter chaque direction de l’entreprise d’une écoute de ses clients internes, afin de disposer d’un retour sur la qualité des prestations délivrées. Ce retour doit être objectivé afin de les placer dans une démarche d’amélioration continue.
  • Améliorer la satisfaction interne, et ce qu’on appelle « l’expérience collaborateur ».
  • Prendre en compte l’avis des consommateurs internes afin d’optimiser la qualité du service rendu et contribuer au développement de l’attitude orientée client.

Le questionnaire a été co-construit avec l’ensemble des directions, autour de thématiques importantes (ex : l’accessibilité des fonctions support) et sur lesquelles elles ont un levier d’action. Chaque année, nous travaillons sur la modification de ce questionnaire avec les directions, en gardant la ligne directrice de l’année précédente afin de pouvoir suivre les tendances d’évolution. L’enjeu est d’identifier les principales prestations internes, en les croisant avec nos problématiques actuelles afin de faire ressortir les services à améliorer en priorité pour satisfaire au mieux nos clients finaux.

Quelle a été la méthodologie déployée pour cette enquête ?

L’enquête est adressée par e-mailing à l’ensemble des collaborateurs, qu’ils soient du siège ou du réseau : ils sont tous clients des fonctions support internes.

De manière générale, nous effectuons une à deux relances, ce qui nous permet d’obtenir des taux de retour satisfaisants de l’ordre de 35-50%. Les relances sont bénéfiques car elles permettent une hausse non-négligeable du nombre de répondants.

L’anonymat est aussi une notion primordiale lors de la réalisation de ce type d’enquête. Il favorise l’expression libre des collaborateurs. Les questions ne doivent pas permettre d’identifier, d’une manière ou d’une autre, le répondant. Par exemple, nous ne demandons pas l’agence d’appartenance des collaborateurs, mais plutôt leur direction de groupe.
Cet anonymat peut également favoriser les suggestions d’amélioration de la part des collaborateurs.

Avez-vous communiqué sur le projet auprès de vos collaborateurs afin de favoriser leur implication ?

Nous communiquons avant chaque édition sur notre réseau Intranet. L’idée est de rappeler les enjeux et objectifs de cette écoute, les principes de mises en œuvre telles que la garantie de l’anonymat, les nouveautés du questionnaire mais aussi les actions mises en place les années précédentes. Ce dernier point est d’ailleurs un facteur de motivation pour l’ensemble des collaborateurs. Nous les prévenons également de la réception prochaine d’un email contenant un lien renvoyant vers l’enquête en question.

Nous restituons les principaux résultats de l’enquête, à l’ensemble des collaborateurs et aux directions concernées pour analyse et mise en œuvre d’actions d’amélioration. Nous sommes parfois invités à présenter ces analyses statistiques au sein de réunions managériales, afin de les mettre en perspective et de leur donner un sens.

Quel a été pour vous l’apport de Sphinx Institute sur ce projet ?

Chaque année, Sphinx Institute nous accompagne dans la réalisation de notre Enquête des Prestations Internes, leurs conseils d’experts sont importants.

Par exemple, Sphinx Institute nous a conseillé sur le contenu du questionnaire, l’enchainement des questions, le type et le nombre de questions à poser, notamment en s’assurant de ne pas intégrer trop de questions ouvertes, ou encore sur la pertinence de questions de satisfaction globale dans telle ou telle partie de l’enquête.

Nous sommes allés chercher chez Sphinx Institute une réelle plus-value, à travers la fiabilité, et les compétences des chefs de projets en matière de conception de questionnaires et d’analyse statistique.
C’est un vrai plus que ce type d’enquête soit mené par un prestataire extérieur car il apporte davantage de crédibilité et de garantie (impartialité, expertise…) tant auprès des collaborateurs interrogés que des directions impactées.

Véronique Dumontelle
Responsable département Qualité
Caisse d’Epargne Aquitaine Poitou-Charentes

>>> Plus d'informations sur www.lesphinx.eu

Mobiliser les salariés autour d’un projet d’enquête interne

Les démarches de baromètre social sont de plus en plus nombreuses au sein des entreprises. Que ce soit sur le bien-être au travail ou le climat interne, sur l’évaluation de compétences ou de formations, elles permettent toutes de mieux comprendre le ressenti et les besoins de ses collaborateurs dans le but d’améliorer leurs conditions de travail et donc leur efficacité au sein de l’entreprise.

Pour crédibiliser ces enquêtes, il faut parvenir à susciter l’intérêt et obtenir la confiance des collaborateurs autour du projet pour mobiliser un maximum de collaborateurs. Alors que de nombreux freins apparaissent, quelles sont alors les étapes indispensables pour sensibiliser un maximum de participants sur ces enquêtes internes ?

1. Sensibiliser les salariés à l’étude interne

Avant le lancement de l’enquête, il est important de communiquer autour de celle-ci afin de mobiliser les collaborateurs. En effet, ces derniers seront plus disposés à participer s’ils ont en leur possession un maximum d’information à ce sujet.

Il est donc important de présenter clairement les objectifs de l’enquête, les personnes ou services à l’initiative du projet et préciser s’il y a une éventuelle intervention d’un prestataire externe.

Dès le départ, il s’agit également de rassurer les salariés sur la confidentialité de leurs réponses, soit en passant par un tiers qui garantira l’anonymat, soit en choisissant des modes de diffusion favorisant un climat de confiance.

2. S’assurer de l’efficacité du questionnaire

La construction du questionnaire a toute son importance pour parvenir à impliquer les répondants. En effet, si certaines questions se montrent trop intrusives ou trop orientées, elles créeront une réticence du côté des collaborateurs interrogés.

En amont de la rédaction du questionnaire, des entretiens qualitatifs peuvent être réalisés auprès de différentes parties de l’entreprise : des partenaires sociaux, des managers et des collaborateurs afin de définir au mieux les questions en fonction des problématiques de l’entreprise.

Le questionnaire doit être organisé pour créer une évolution dans la réflexion et l’implication du répondant. On préfèrera au début des questions factuelles comme l’ancienneté, la vérification concernant la réalisation de formation ou d’entretiens pendant l’année…
Puis, on passera à des questions plus engageantes où l’on va demander au salarié de se positionner sur différents points : son épanouissement au travail, ses relations avec son manager, sa charge de travail, son sentiment sur la reconnaissance au travail… On pourra alors utiliser des échelles ludiques pour aider le salarié ou encore des techniques de projection (expression, murs d’images, méthode du portrait chinois…) pour faciliter l’expression du salarié.
Enfin, l’enquête doit se terminer par des questions ouvertes où le collaborateur prend part et livre son ressenti ou ses suggestions. Souvent très enrichissantes, ces questions ouvertes libèrent la parole et contribuent à l’émergence d’idées nouvelles.

3. Optimiser la diffusion de l’enquête

En fonction des postes des collaborateurs, tous n’ont pas accès à un poste informatique ou alors certains sont hyper-connectés et peu sur leur lieu de travail. On privilégiera alors la combinaison des modes de diffusion (papier, web, SMS) pour favoriser le retour de chacun.

Pour les enquêtes web, il est très important de respecter et de bien communiquer sur l’anonymat des réponses. C’est ce qui vous garantira une meilleure participation à l’enquête, une plus grande crédibilité et des réponses non biaisées.

Selon la durée de la campagne de recueil, il est important d’envoyer une relance pour mobiliser les salariés restants et donc maximiser le taux de retour. Il est préférable d’effectuer cette relance auprès de l’ensemble des salariés même dans le cas où la relance automatique auprès des personnes n’ayant pas répondu est possible. En effet, il ne faut pas engendrer de doute quant à une possible identification des répondants.

4. Capitaliser avec des résultats tournés vers l’action

La communication des résultats est une étape décisive dans le sens où elle concrétise l’étude vis-à-vis de tous et par là même l’attention portée à l’opinion des salariés. Souvent très attendus, les résultats de l’enquête interne donnent une vision du climat social, de l’opinion et de l’engagement des équipes, et doivent être communiqués de manière claire et synthétique.

Il s’agit donc de tirer le meilleur parti des données d’enquêtes, en explorant différents axes :

  • Mesurer la perception interne en termes de climat social, conditions de travail, management, rémunération à travers la présentation d’indicateurs de satisfaction, calculés pour l’ensemble des salariés ou par service ;
  • Préciser le ressenti des collaborateurs en analysant l’ensemble des commentaires ou des entretiens ; par exemple en représentant des nuages de mots ou des tops 3 des mots les plus cités par les salariés pour représenter le bien-être au travail.
  • Identifier les points forts et comprendre les pistes d’amélioration du bien-être et de la motivation avec des mappings,
  • Enfin, pour répondre efficacement aux équipes, il s’agira de traduire les opinions exprimées par les salariés en actions, et in fine, de mesurer l’efficacité des actions menées à travers d’autres enquêtes ponctuelles qui viendront compléter le baromètre social de l'entreprise.

Parce que le lancement d’une étude interne représente un coût et des enjeux sociaux importants pour l’entreprise, ces bonnes pratiques sont des repères pour vous assurer de leur réussite. Ces enquêtes doivent permettre de mesurer et de comprendre l’opinion des collaborateurs, dans le but d’identifier les points d’amélioration et de prioriser les actions qui impacteront les indicateurs clés de satisfaction et de performance.

>>> Plus d'informations sur www.lesphinx.eu

Garantissez l’anonymat, diffusez vos enquêtes avec le lien libre !

Les études internes sont une pratique courante dans les entreprises soucieuses des conditions de travail de leurs salariés. Qu’elles prennent la forme de baromètre social d’entreprise, qu’elles interrogent les relations avec les collègues ou la communication interne, elles ont toutes la même obligation : respecter l’anonymat des répondants en raison de la sensibilité des sujets traités.

L’utilisation de l’e-mailing peut garantir ce besoin mais les salariés y demeurent sceptiques. En effet, la disponibilité des adresses mails est pour eux synonyme d’identification des répondants. Ceci n’est en réalité qu’une option, libre à l’utilisateur de l’activer ou non.

Pour éviter tout amalgame, il est possible de diffuser son enquête en utilisant le lien libre du questionnaire. Celui-ci est généré à la publication de l’étude.

Ci-dessous les étapes à suivre pour obtenir ce lien :

Figure 1 : Ouverture de l’assistant de publication depuis le stade Diffusion et Collecte.

Figure 2 : Définition des paramètres de publication : nom du serveur et de l’étude, identifiant et mot de passe du compte SphinxOnline à utiliser.

Figure 3 : Récupération du lien libre depuis le stade Diffusion & Collecte et la rubrique Accueil de SphinxOnLine.

Ce lien peut être intégré au site Intranet et Internet de l’entreprise, inséré dans un document papier qui sera diffusé ultérieurement,…

Cette solution assure aux répondants la plus grande confidentialité et un anonymat total sur les réponses apportées à l’enquête. Le lien libre offre ainsi une liberté d’expression aux répondants peu importe les sujets abordés.

L’anonymat est légitime dans les études internes et il est important de ne pas négliger cet aspect. Ne pas prendre en compte cette notion d’anonymat mettrait en péril votre enquête. Dans le même sens, vos résultats risqueront d’être biaisés.

Pour découvrir plus en détails les bonnes pratiques à suivre lors de la mise en place d’un projet d’études internes consultez l’article Méthode : Mobiliser les salariés autour d'un projet d'étude interne.

>>> Plus d'informations sur www.lesphinx.eu

Enquêtes web : Effet du sujet de l’étude et son énonciation sur les réponses des panélistes

Une question qui fait débat dans le domaine des enquêtes en ligne est celle de savoir s’il faut énoncer le thème de l’enquête dans le mail d’invitation et quel en est l’effet sur le taux de participation et la qualité des données recueillies. Voici des éléments de réponse à partir d’une recherche menée en 2009 par Keusch [*].

Le chercheur met en place deux questionnaires, le premier sur la thématique du tourisme, le second sur celle de l’assurance. Les deux interrogent également sur les centres d’intérêt des répondants et les raisons de leur adhésion au panel, les mobiles de leur participation à l’enquête et de leur abandon du questionnaire le cas échéant. Ces questionnaires sont accompagnés d’un email d’invitation énonçant explicitement le thème de l’étude, y faisant allusion ou carrément abstraction. Les six versions issues des combinaisons possibles entre le thème du questionnaire (tourisme/assurance) et la nature du mail (thème explicite, moyennement explicite, non explicite) sont adressées au hasard à des panélistes australiens. 1672 réponses complètes sont collectées.

Participation à l’enquête

Les résultats montrent que les panélistes ayant un très fort intérêt pour le sujet de l’étude (5 ou 6 sur une échelle de 6 niveaux) participent à hauteur de 79.2% contre 72.4% pour ceux qui en ont un très faible intérêt (1 ou 2 sur une échelle de 6 niveaux). L’énonciation du sujet de l’étude, quant à elle, joue différemment selon l’ancienneté des panélistes.

En effet, les membres nouvellement adhérents (6 mois au plus) participent d’une manière significative lorsque le thème de l’étude est explicitement communiqué dans l’email (77.2% contre 68.2% lorsque le sujet n’est pas communiqué) tandis que les membres experts (ancienneté de 6 mois ou plus) sont moins sensibles à son énonciation (73.5% quand le thème est explicite contre 77.3% lorsqu’il ne l’est pas).

Enfin, l’interaction entre l’intérêt pour le sujet et sa communication dans l’email n’a pas d’effet sur le taux de participation ; les membres ayant un fort intérêt pour le sujet de l’étude ne participent pas plus à l’enquête lorsque le thème est explicitement énoncé, de la même façon, ceux ayant un faible intérêt pour le sujet de l’étude n’y participent pas moins lorsqu’ils connaissent d’avance le sujet.

Qualité des réponses

Pour rendre compte de la qualité des réponses, trois critères sont retenus : le temps et le taux de remplissage ainsi que la systématisation des réponses aux questions échelles.

Le temps moyen de réponse à l’ensemble du questionnaire est de 13min45s. Les analyses montrent que ce temps de réponse est influencé par le sujet de l’étude. En effet, les répondants au questionnaire sur l’assurance sont plus rapides que ceux qui participent à l’enquête sur le tourisme. Si l’on considère le seuil de 6min, fixé pour différencier les répondants expéditifs de ceux qui prennent le temps nécessaire pour remplir le questionnaire, le thème de l’assurance générerait 5.8% de répondants expéditifs contre seulement 2.3% pour le tourisme.

Le taux de remplissage varie également selon le sujet de l’étude ; lorsque celui-ci intéresse particulièrement les répondants, les non-réponses sont moindres. C’est dans ce sens que le questionnaire sur le tourisme enregistre 2.4% de non-réponses contre 3.8% pour celui de l’assurance. En outre, énoncer explicitement le thème de l’étude contribue à améliorer cet indicateur. Les personnes n’ayant pas d’intérêt pour le sujet et pour qui le thème de l’enquête n’a pas été énoncé génèrent plus de non-réponses d’une manière significative.

L’intérêt pour le sujet affecte également la façon de remplir le questionnaire. Il y a en effet moins de réponses systématiques chez les répondants portant un intérêt très prononcé pour le sujet de l’étude (1 sur une échelle de six niveaux) que chez ceux qui y portent un faible intérêt (5 ou 6 sur une échelle de 6 niveaux). Le taux des réponses systématiques est respectivement de 4.3% et 8.5% dans ces deux cas. L’expertise, c’est-à-dire le fait d’avoir participé à des enquêtes antérieures au courant de l’année influence légèrement cette tendance. L’âge et le niveau d’éducation l’atténuent toutefois.

Pour finir, il serait pertinent de rappeler qu’un fort intérêt pour le sujet de l’étude se répercute non seulement sur la décision de participer à l’enquête mais également sur la qualité des réponses (taux de remplissage et variété des réponses). L’énonciation du sujet, quant à elle, n’a d’effet que sur le comportement des nouveaux panélistes ; les anciens, habitués au processus sont moins regardants sur le contenu du mail d’invitation.

[*] Keusch, F., The role of topic interest and topic salience in online panel web surveys, International Journal of Market Research Vol. 55 Issue 1, 2013, pp. 59-80

>>> Plus d'informations sur www.lesphinx.eu

Et si répondre à une enquête était un jeu ?


L’utilisation des jeux dans le cadre des enquêtes en ligne est perçue comme une solution idéale pour rendre agréable et ludique la participation aux études. En contrecarrant le sentiment d’ennui que peut ressentir le répondant au moment où il remplit le questionnaire, cette solution contribue à modifier sa perception des enquêtes et à l’impliquer davantage dans le processus.

L’étude de Harms et alii (2015) [*] fait le point sur cette tendance et présente les résultats d’une expérimentation autour de la pratique des sports et des loisirs chez les adolescents et les jeunes adultes, menée auprès de 47 participants. Deux versions de l’enquête sont mises en place – l’une gamifiée, l’autre conventionnelle - ; le répondant arrive au hasard sur l’une ou l’autre.

Le questionnaire gamifié prend la forme de mini-jeux visant à stimuler le répondant à travers des sensations visuelles et des challenges rencontrés tout au long de l’étude. Des feed-back sur l’avancement dans le questionnaire et des récompenses sont prévus pour garder la motivation du répondant. Concrètement, l’enquête se déroule ainsi : le répondant crée d’abord un avatar, il répond ensuite au questionnaire à travers des mini-jeux récompensés, puis il passe au magasin pour convertir ses gains contre les accessoires de son avatar. Ce dernier est décoré de la médaille d’or en fin de parcours.

Ci-dessous des captures d’écran correspondant aux différentes étapes de l’enquête.

A l’issue du questionnaire, une évaluation de la démarche est menée auprès de 40 répondants. Ceux-ci s’expriment sur la facilité d’utilisation du jeu, son caractère amusant et l’intention de recommander l’étude à leurs connaissances.

Contrairement aux attentes, les résultats de cette expérimentation montrent que l’enquête gamifiée obtient un taux de réponse de 70% contre 86% pour l’enquête conventionnelle et nécessite le double du temps de réponse (19.20 min contre 9.18 min). Elle génère par ailleurs plus d’abandon que l’enquête conventionnelle (43% contre 15% respectivement).

Concernant la facilité d’utilisation, sur les dix items évalués, deux sont en faveur de l’enquête gamifiée. Il s’agit de la volonté de réutiliser le système et de la confiance qui lui est accordée. La complexité, la lourdeur ou la simplicité du système, l’intégration ou l’incohérence des fonctionnalités, la facilité d’apprentissage ou le besoin de support et la nécessité d’avoir des prérequis sont évalués de la même façon dans les deux types d’enquêtes.

L’intention de recommander est par contre plus importante pour les enquêtes gamifiées. Les répondants apprécient particulièrement la nouveauté de la démarche ainsi que la variété des jeux et l’interactivité. Certains souhaiteraient même continuer à jouer après avoir fini de répondre au questionnaire.

Finalement, les résultats obtenus montrent une contre-performance des enquêtes gamifiées mais une meilleure perception de l’expérience de participation à l’enquête. La gamification contribue donc à créer une ambiance positive permettant de mieux impliquer le répondant et de favoriser le partage de son expérience, ce qui n’est pas sans effet sur le marketing viral. Des recherches supplémentaires devraient être menées pour identifier les bonnes pratiques permettant de contrecarrer les manques de performance constatés.

[*] Harms, J., Biegler, S., Wimmer, C., Kappel, K., and Grechenig, T. Gamification of online surveys: Design process, case study, and evaluation. In Proceedings of the 15th IFIP TC 13 International Conference Human-Computer Interaction – INTERACT’15, J. Abascal, S. D. J. Barbosa, M. Fetter, T. Gross, P. Palanque, and M. Winckler, Eds., vol. 9296 of Lecture Notes in Computer Science. Springer, 2015, pp. 214–231

>>> Plus d'informations sur www.lesphinx.eu

La modélisation par équations structurelles avec Sphinx iQ

La modélisation par équations structurelles est une méthode d’analyse de données utilisée pour représenter les hypothèses d’un modèle conceptuel complexe car composé de deux sous-modèles regroupant chacun une multitude de variables appelées manifestes (items prenant la forme carrée dans le schéma ci-dessous) ou latentes (format rond). Alors que les premières peuvent être mesurées directement, les secondes ne le sont qu’à travers les variables, dites manifestes.
Le premier sous-modèle appelé externe relie les variables latentes aux variables manifestes qui les mesurent ; le second, appelé interne, relie les variables latentes entre elles comme le montre le schéma suivant.

Figure 1 : Représentation du modèle

Les techniques de calcul des équations structurelles sont basées sur l’analyse de la covariance ou des moindres carrés partiels. Le choix de l’approche adaptée tient compte du type d’étude réalisée (prédictive, visant à former une théorie ou confirmatoire), de la taille de l’échantillon (plus ou moins de 100) et de la nature des modèles testés (formatifs ou réflectifs ). Selon Gefen et al. (2000), l’approche des moindres carrés, appelée également approche PLS est adaptée aux études prédictives ou visant à former des théories, menées sur des échantillons de petite taille et des modèles mixtes, à la fois formatifs et réflectifs.

Les résultats de la modélisation par équations structurelles sont évalués au regard de la variance expliquée, du score de concordance qui indique la qualité de l’ajustement entre les modèles interne et externe et du coefficient de détermination R² rendant compte de l’exhaustivité des variables latentes étudiées. L’Alpha de Cronbach, quant à lui, mesure la fiabilité et la convergence des mesures ; il est à considérer en premier lieu.

Application

Dans une étude sur les outils électroniques d’achat public (Boughzala, 2010), il est demandé aux répondants d’indiquer leur niveau d’accord sur 40 items relatifs à la problématique de l’adoption des applications informatiques. Ces items manifestent 8 variables latentes comme le montre le schéma ci-dessous.

Figure 2 : Représentation du modèle conceptuel testé

En raison de la visée de l’étude (formation d’une théorie) et de la nature du modèle testé (formatif et réflectif à la fois), l’approche PLS pour la modélisation par équations structurelles est retenue. Son application donne les résultats suivants.

Figure 3 : Valeur de l’Alpha de Cronbach des variables latentes

Les valeurs des alphas de Cronbach, supérieures à 0.6 montrent que les mesures convergent pour chaque variable latente, ce qui dénote de leur validité. Les équations du modèle peuvent donc être interprétées.

Figure 4 : Equations issues de la modélisation PLS

Le modèle montre que l’adoption est expliquée de façon quasi-égale par l’utilité et la facilité d’utilisation perçues (coefficients de régression proches, 0.34 et 0.37 respectivement).

A leur tour, ces variables sont influencées par la qualité du système (1er facteur), par la confiance dans l’interaction (2ème facteur), par les actions managériales d’accompagnement et de pilotage (3ème facteur) et par la réceptivité aux TIC (dernier facteur).

La somme des coefficients de régression de l’équation de l’adoption (0.34 pour l’utilité perçue + 0.37 pour la facilité d’utilisation perçue <> 1) montre que ces deux critères sont loin d’apporter une explication exhaustive. Ce qui se confirme à travers la moyenne de la variance expliquée obtenue (voir tableau ci-dessous).

Figure 5 : Indicateurs de validation du modèle

Le modèle explique en moyenne 51% de la variance, ce qui est jugé comme acceptable dans le domaine de recherche dans lequel s’inscrit cette étude. Par ailleurs, la concordance, de 0.83 en moyenne, indique un bon ajustement entre les modèles interne et externe. Enfin, le coefficient de détermination, de 0.41 en moyenne laisse entrevoir l’existence d’autres facteurs pouvant influencer l’adoption des outils électroniques.

Pour finir, la méthode de la modélisation par équations structurelles est utilisée principalement dans les recherches académiques mais elle est parfaitement transposable aux études professionnelles portant notamment sur la satisfaction. Leur mobilisation permettra d’appréhender avec précision les facteurs d’influence et de les hiérarchiser afin d’apporter les améliorations nécessaires au maintien d’un bon niveau de service.

>>> Plus d'informations sur www.lesphinx.eu