J’ai fait une longue réponse à un mail, je me dis que je vais en conserver une trace ici !
La question était : « quelle méthodologie vous semble la plus adaptée à la création d’une cartographie facilitant l’orientation des patients au sein d’une CPTS ? »
Ma réponse :
Pour la thèse, la première condition est que la fiche de thèse soit validée : il faut donc (à Lille au moins) interagir directement avec des médecins et/ou patients. Tu ne peux donc pas « juste » créer un outil recensant tout ça et en faire la promotion, au titre de ta thèse : soit tu dois avoir une étape de conception avec les utilisateurs avant la création de l’outil ; soit tu dois avoir une étape d’évaluation après… soit les 2 !
Il reste donc en gros 4 possibilités que je vois (mais sûrement plus en vrai) :
Possibilité 1 – étude qualitative auprès des praticiens / patients (l’un, l’autre ou les deux) pour savoir comment ils verraient ça, quels sont leurs besoins… (certains voudront peut-être une plaquette PDF, un livret avec des numéros de téléphones, des flyers à distribuer aux patients, etc.)
Tu peux faire ça et conclure ta thèse en disant que la perspective sera de créer le site ou (si tu l’as créé), de l’évaluer.
Possibilité 2 – étude quantitative d’évaluation du site. Par habitude, je propose d’utiliser le score SUS, qui est un score simple, validé, qui parle de l’utilisabilité du site (ergonomie en fait).
Tu peux faire ça, mais en mettant dans la section Discussion > Limite que ça n’est pas basé sur des attentes des utilisateurs recherchées (ça peut être légitime si c’est basé sur un cahier des charges décidé par le bureau de la CPTS par exemple : on considère alors qu’ils répondent à leurs besoins identifiés).
(Tu as le droit d’anticiper qu’il y a des limites à ton travail : il faut juste les reconnaître honnêtement !)
Petite info utile : à Lille on a un labo d’ergonomie (CIC-IT) dirigé par le Pr Sylvie Pelayo, qui peut apporter une aide sur l’évaluation ergonomique. Ils ne font pas un score SUS, mais carrément une évaluation dans leurs locaux : un utilisateur est sur le site, accomplit des tâches en commentant à voix haute ce qu’il fait, et un assistant est derrière et prend des notes (là le bouton est difficile à trouver, il y a trop de clics pour cette tâche, etc.).
Possibilité 3 – ou l’ensemble, qui se rapproche alors d’une étude ergonomique de « conception centrée sur l’utilisateur » plus complète avec 3 phases :
1/ phase qualitative d’évaluation des besoins où tu « prends la température » auprès des potentiels utilisateurs futurs (5 à 10) avec 3-4 questions très concrètes :
« quelle forme ? » (site web, plaquette, etc.) ;
« quelle mise en forme ? » (carte interactive ? annuaire ? quelle couleur ? en français / multilingue ?)
« quel fond ? » (les MG qui font des visites par ville, les kinés qui font de la rééducation périnéale, numéro de téléphone, mail perso, etc.) ;
« pour qui ? » (1 seule version pour praticiens / 1 version prat, 1 patient)
ou autre question qui te semblerait pertinente.
J’insiste sur le fait que ça n’est pas une vraie étude qualitative, dans le sens où tu ne vas pas chercher à atteindre une suffisance / saturation des données, mais plutôt dresser un rapide portrait robot de ce qu’attendront les futurs utilisateurs. (Je dis 5 à 10, mais en réalité pour ce projet très long, ça vaudrait le coup d’avoir l’avis de 2-3 IDE, 2-3 médecins, 2-3 kiné, SF, enseignant APA, et patients… ça peut monter à 15-20 personnes sondées de façon courte, sur 5 minutes d’entretien).
Tu peux aussi décider de la remplacer par du semi-qualitatif, c’est-à-dire un questionnaire avec des propositions toutes faites et des zones de commentaire libre, là encore pour essayer de ne rien oublier et de réaliser un outil qui réponde réellement aux besoins des utilisateurs. (Faire des outils qui ne répondent pas aux besoins des utilisateurs, c’est de la politique actuellement).
2/ phase de création de l’outil, en s’appuyant sur le cahier des charges défini par les besoins des utilisateurs ;
3/ phase d’évaluation de l’outil (qui permet d’en faire la promotion). Le plus simple pour moi c’est d’évaluer l’utilisabilité (score SUS), mais bien sûr tu peux aussi décider d’évaluer un autre critère !
C’est ensuite censé être itératif : les commentaires d’évaluation permettent de retourner à l’étape 2 (mise à jour de l’outil, création de nouvelles pages, etc.), puis réévaluer, etc. Il y a 6 modèles ici sur Pepite.
Une alternative peut être de faire l’étude en binôme avec étape 1 plus poussée + création de l’outil pour l’un ; étape 3 + correction de l’outil avec les remarques des utilisateurs sur l’outil final.
Possibilité 4 – étude qualitative pour créer l’outil + étude quantitative sur son contenu
Je n’ai jamais fait ça, mais c’est bigrement malin pour éviter de se taper 2 thèses en une.
C’est ce qu’a fait Mélanie Dieu a fait une cartographie sous la direction de Maurice Ponchant, via Google My Maps – mise ensuite sur le site du Collège des Enseignants de MG ici : https://www.clustermsu.com/fr/cartographie-des-directeurs-de-theses
En gros : étude qualitative mieux faite (« possibilité 1 ») et au lieu de rester focus sur l’outil, c’est ensuite une description du territoire de la CPTS, au moyen de cet outil… Tu peux voir sur sa thèse comment elle s’y est prise.
Ca me semble un très bon compromis, même si du coup tu ne profites pas tout à fait du levier promotionnel qui consiste à diffuser le site pour l’évaluation, et prouver par cette évaluation qu’il a bien diffusé et qu’il a été testé/utilisé…
Si vous voyez d’autres possibilités, n’hésitez pas à commenter 😉
