Qu'est-ce que le test de préférence ?

En bref

Dans le test de préférence, les contributeurs interagissent avec plusieurs modèles et les examinent afin de déterminer celui qu'ils préfèrent et pourquoi. Ils peuvent comparer l'esthétique, les interactions et/ou le contenu.

 

Quand utiliser le test de préférence

Le test de préférence est utilisé pour demander aux contributeurs de comparer deux ou plusieurs modèles et de choisir celui qu'ils préfèrent. Un test de préférence peut être utilisé pour comparer :

  • Conceptions de produits
  • Navigation sur le site web
  • Pages de renvoi
  • Images
  • Annonces
  • Messagerie

Vous pouvez tester, par exemple, la page de renvoi d'un site web par rapport à la page de renvoi d'un concurrent. Vous pouvez également tester si les contributeurs préfèrent une nouvelle version d'une fonctionnalité de l'appli à celle que vous avez déjà mise en place. Il ne s'agit là que de quelques scénarios dans lesquels un test de préférence peut s'avérer utile pour votre objectif de test.

Le test de préférence peut être réalisé tout au long du processus de création, quel que soit le type d'actif testé. Pour les conceptions de produits et les prototypes, ces tests sont particulièrement utiles dans les premières phases de développement, lorsqu'il est plus important de comprendre les impressions des contributeurs sur une conception globale que de savoir si le produit ou le service fonctionne correctement.

Voici des exemples de questions de recherche qui guident souvent les tests de préférence :

  • Quelle est la conception du produit, l'annonce ou le message que les contributeurs ont préféré ?
  • Quelle conception les contributeurs ont-ils trouvé la plus attrayante visuellement ? Pourquoi ?
  • Quel message les contributeurs ont-ils jugé le plus convaincant ?

Éléments à prendre en compte lors de la réalisation d'un test de préférence

Avant de mettre en place votre test, vous devez prendre en compte quelques éléments :

  • Tenez compte de la quantité des éléments à tester : la meilleure pratique consiste à limiter le nombre d'éléments à trois. En testant plus que cela, le test sera plus long et risque de fatiguer les contributeurs. Cela prend également beaucoup de temps aux chercheurs : tester quatre éléments, par exemple, signifie qu'il faut parfois lancer jusqu'à 16 versions pour tenir compte du biais de la commande.
  • Testez des éléments similaires : lorsque vous choisissez les éléments à tester, veillez à comparer des pommes avec des pommes, sélectionnez deux éléments du même type, par exemple une image comparée à une autre image, une vidéo comparée à une autre vidéo. Il n'est pas souhaitable de tester une vidéo par rapport à une image fixe, car les contributeurs risquent de choisir l'option en fonction du support qu'ils préfèrent, plutôt que du contenu.
  • Considérez le nombre de contributeurs : supposons que vous réalisiez un test de préférence avec deux éléments/options. Si votre objectif est de répartir les tests de manière égale entre deux groupes des contributeurs, choisissez un nombre pair de contributeurs. Mais si votre but est de choisir un « gagnant » entre les deux éléments, alors choisissez un nombre impair de contributeurs.pair de contributeurs. Mais si votre but est de choisir un « gagnant » entre les deux éléments, alors choisissez un nombre impair de contributeurs.

Mise en place d'un test de préférence

Pour lancer un test de préférence, utilisez la fonction de comparaison par affichage aléatoire de la plateforme UserTesting sur la page de formule de test Builder lors de la configuration de votre test de préférence.

L'activation de cet outil permet de minimiser l'influence des préjugés de commande, la façon dont les choses apparaissent peut influencer la façon dont les contributeurs perçoivent leur valeur. (Certains individus ont tendance à privilégier la deuxième option parmi deux choses qui leur sont présentées, pensant que la chose la plus récente qu'elles ont vue est plus récente ou meilleure). Si les contributeurs doivent choisir entre deux images, par exemple, l'outil de comparaison par affichage aléatoire contrebalancera le test pour vous en présentant l'image A en premier à la moitié des contributeurs et l'image B en premier à l'autre moitié.

Après avoir activé l'outil de comparaison par affichage aléatoire et décidé des éléments à tester et du nombre de contributeurs à tester, le reste de la planification des tests de préférence doit suivre le schéma suivant :

  • Ajouter des tâches préliminaires : la plupart des tests commencent par de telles tâches, qui apparaissent avant qu'un contributeur n'explore les éléments ou les options comparés. Ces tâches peuvent à la fois servir de questions d'échauffement et valider vos questions de présélection en obtenant des informations sur les antécédents du contributeur.
  • Demandez aux contributeurs d'interagir avec le premier actif : vous poserez ici des questions sur la fonctionnalité, la clarté ou la facilité d'utilisation des éléments comparés. (Le domaine sur lequel vous vous concentrez peut varier en fonction du type d'actif testé).
  • Posez la même question pour le deuxième actif : formulez la question pour le deuxième actif exactement comme vous l'avez fait pour le premier. Ce faisant, vous vous assurez de produire la comparaison la plus précise possible.
  • Demandez aux contributeurs de comparer les éléments/expériences. Une fois qu'ils ont vu les éléments, les contributeurs sont prêts à choisir l'actif ou l'expérience qu'ils préfèrent. Si nécessaire, ajoutez une image pour rappeler aux contributeurs les options qu'ils comparent.

En savoir plus

Avez-vous besoin de plus d'informations ? Lire ces articles associés.

Vous voulez en savoir plus sur ce sujet ? Jette un coup d'œil à nos cours sur University.

 

Cet article vous a-t-il été utile ?
Utilisateurs qui ont trouvé cela utile : 0 sur 0