Nous procédons actuellement au transfert de nos services et de nos renseignements sur le Web vers Canada.ca.

Le site Web du Secrétariat du Conseil du Trésor du Canada restera accessible jusqu’à  ce que le transfert soit terminé.

Guide d’évaluation des petits organismes

Informations archivées

Les informations archivées sont fournies aux fins de référence, de recherche ou de tenue de documents. Elles ne sont pas assujetties aux normes Web du gouvernement du Canada et n’ont pas été modifiées ou mises à  jour depuis leur archivage. Pour obtenir ces informations dans un autre format, veuillez communiquez avec nous.



Guide d'évaluation
des petits organismes


Remerciements

Première section : Introduction

Deuxième section : Définition de l'évaluation

Troisième section : Élaboration d'une fonction d'évaluation

Quatrième section : Cycle d'évaluation

Cinquième section : Gestion des évaluations

Sixième section : Utilisation des évaluations

Annexe A – Types de petits organismes
Annexe B – Initiatives horizontales
Annexe C – Obtention des conseils et du soutien externes
Annexe D РLes sept crit̬res du Comit̩ d'examen des d̩penses
Annexe E РRenseignements sur la planification et l'ex̩cution des ̩valuations
Annexe F РMod̬le de mandat
Annexe G – Glossaire
Annexe H РLiens concernant l'̩valuation

 



Première section : Introduction

Première section : Introduction

Le présent guide se veut un ouvrage de référence conçu pour aider les petits organismes à élaborer leur capacité de planifier, de mettre en œuvre et de gérer les évaluations. Il devrait aussi les aider à respecter les exigences de la Politique d'évaluation du Conseil du Trésor du Canada (CT).

Ce guide pratique présente des méthodes efficaces de planification et de gestion des projets d'évaluation, fournit des stratégies qui favoriseront le recours à l'information obtenue des évaluations pour la prise de décisions stratégiques au sein des petits organismes et donne des exemples de documents qui sont utilisés dans le processus d'évaluation.  

Le guide tire parti des travaux qui ont été menés en 2003-2004 concernant l'élaboration de modèles satisfaisants d'évaluation et de mesure du rendement dans les petits organismes [1]. Il constitue la prochaine étape de l'aide accordée aux petits organismes pour qu'ils renforcent leur capacité de planifier, de mettre en œuvre et de gérer les évaluations.

1.1  Objet du guide

Le présent guide devrait vous aider à atteindre les objectifs suivants :

  • comprendre la pertinence et le rôle de l'évaluation à l'appui des régimes efficaces de contrôle et de mesure du rendement dans votre organisme;
  • planifier, concevoir, mettre en œuvre et gérer une évaluation appropriée à votre organisme;
  • communiquer et favoriser le recours aux résultats de l'évaluation dans votre organisme.

 

1.2  Public cible du guide

Le présent guide s'adresse aux petits organismes qui ont besoin d'aide pour mettre en œuvre les exigences de la Politique d'évaluation du Conseil du Trésor du Canada (CT). Il vise en premier lieu les employés qui y sont chargés de l'évaluation. Les lecteurs qui ont une expérience restreinte dans ce domaine trouveront que cet ouvrage fournit des renseignements détaillés sur la plupart des volets de l'évaluation et contient de l'information utile comme le contexte, des définitions, des listes de contrôle, des conseils à la direction ainsi que des renvois permettant d'obtenir plus de précisions sur certains sujets. Les lecteurs ayant plus d'expérience en matière d'évaluation trouveront que certaines parties ou sections du guide sont plus utiles que d'autres, comme les listes de contrôle. Reconnaissant le caractère varié des besoins en matière d'évaluation et d'information des petits organismes, le guide tente d'y répondre.

1.3  Contexte des petits organismes

La plupart des petits organismes ont été mis sur pied par le gouvernement fédéral afin de remplir des mandats précis de manière autonome. Par exemple, certains organismes prennent des décisions impartiales (notamment les tribunaux), d'autres s'acquittent d'un rôle de facilitateur ou d'intermédiaire et d'autres encore exécutent des mandats de réglementation et d'inspection. L'annexe A présente un aperçu des différents types de petits organismes.

En ce qui a trait à l'évaluation, des études antérieures [2] ont signalé que beaucoup de petits organismes étaient confrontés à des défis lors de l'élaboration de leurs fonctions d'évaluation et de mesure du rendement. Le manque de ressources et de capacité suffisantes, la nécessité d'adapter les modèles de plus grands organismes ainsi que l'intégration de la fonction à leurs activités quotidiennes sont autant de défis que ces petits organismes ont dû relever.

En tant que groupe, les petits organismes ont également des défis et des caractéristiques uniques par rapport aux ministères fédéraux de taille moyenne et importante. Une de ces différences tient au fait que les petits organismes ont souvent un ou deux secteurs d'activité principaux alors que les ministères de taille moyenne et importante en ont souvent un grand nombre, qui regroupent de nombreux programmes, initiatives et politiques. De plus, par rapport à ces ministères, les petits organismes jouissent d'une moins grande marge de manœuvre en matière de ressources financières. Compte tenu de ces différences et de nombreuses autres, bien des aspects des modèles qui permettent de répondre aux exigences sur le plan de la responsabilisation et du rendement des ministères de taille moyenne et importante ne s'appliquent pas aux petits organismes.

Lorsqu'il s'agit de déterminer le genre de modèle d'évaluation et de mesure du rendement à appliquer à la collectivité des petits organismes, il convient de noter qu'en dépit des points communs entre cette collectivité et celles des ministères de taille moyenne et importante, il existe également une grande diversité au sein même de ce groupe. La collectivité des petits organismes du gouvernement du Canada est diversifiée sur de nombreux plans dont la structure organisationnelle, les rapports avec les grands ministères, la nature du travail et la taille de l'organisation. Outre ces dimensions, d'autres entrent aussi en jeu en ce qui a trait au genre et à la nature de l'information dont les organismes ont besoin pour prendre des décisions et assurer la responsabilisation dans leurs organisations.  

En 2003, dans le cadre d'un projet intitulé Modèles d'évaluation et de mesure du rendement des petits organismes [3], le Secrétariat du Conseil du Trésor du Canada a présenté trois modèles de fonction d'évaluation et de mesure du rendement pour les petits organismes fédéraux. Deux éléments principaux ont été pris en compte lors de l'élaboration des modèles, à savoir les types de décisions prises par la gestion et les types de renseignements dont avaient besoin les organismes pour prendre des décisions.

Voici ces modèles :

Modèle A – Besoins en renseignements routiniers

Modèle B – Besoins en renseignements routiniers et complexes

Modèle C – Besoins en renseignements complexes.

Pour obtenir une description plus détaillée des modèles et connaître la classification de votre organisme, veuillez consulter le site Web du SCT


1.4 Structure du guide

  • La Première section contient la présente introduction.
  • La Deuxième section présente un aperçu de l'évaluation, des concepts pertinents et du contexte.
  • La Troisième section décrit comment élaborer une fonction d'évaluation et passe brièvement en revue les exigences de la politique d'évaluation. Elle présente en outre des stratégies de renforcement de la capacité d'évaluation interne.
  • La Quatrième section présente un aperçu de la préparation et de la réalisation des évaluations. Les cadres de gestion et de responsabilisation axés sur les résultats, la conception des évaluations, les méthodes de collecte des données, l'analyse et la rédaction de rapports sont au nombre des sujets abordés.
  • La Cinquième section donne un aperçu de la gestion des ressources externes. Elle porte notamment sur des sujets comme la préparation du mandat, les options en matière de passation de marchés, les méthodes de sélection des entrepreneurs et les pratiques exemplaires en matière de gestion des experts-conseils en évaluation.
  • La Sixième section présente un aperçu des stratégies de communication et d'utilisation des résultats des évaluations au sein de votre organisation.

 

De plus, le guide compte un certain nombre d'annexes renfermant des renseignements détaillés qui peuvent servir de références.

  • L' Annexe A contient une description des différents types de petits organismes.
  • L' Annexe B contient de l'information sur les initiatives horizontales et leur évaluation.
  • L' Annexe C contient de l'information sur l'obtention des conseils et du soutien externes pour les évaluations.
  • L' Annexe D contient les sept critères du Comité d'examen des dépenses.
  • L' Annexe E contient des renseignements plus détaillés sur la planification et l'exécution des évaluations.
  • L' Annexe F contient un modèle de mandat.
  • L' Annexe G contient un glossaire des termes se rapportant à l'évaluation.
  • L' Annexe H contient des liens concernant l'évaluation .

 

1.5  Utilisation du guide

Le guide est conçu pour être utilisé de différentes manières. Les lecteurs qui ont joint depuis peu la collectivité de l'évaluation désirent peut-être consulter systématiquement l'ensemble du présent guide, tandis que ceux ayant plus d'expérience dans le domaine peuvent juger plus utile de consulter immédiatement la section voulue. Quelle que soit la manière que vous choisissez pour consulter le guide, nous vous prions de noter les symboles qui sont utilisés dans le texte dont les suivants :

Les faits saillants des petits organismes sont contenus dans des encadrés ombrés qui sont précédés de ce symbole.

Les faits saillants des petits organismes sont contenus dans des encadrés ombrés qui sont précédés de ce symbole.

Les listes de contrôle sont contenues dans un gabarit qui est précédé de ce symbole.

Les listes de contrôle sont contenues dans un gabarit qui est précédé de ce symbole.

Cette icône met en évidence les extraits de la Politique d'évaluation du CT.

Cette icône met en évidence les extraits de la Politique d'évaluation du CT.

Cette chemise contient des rappels sur les principaux points d'apprentissage.

Cette chemise contient des rappels sur les principaux points d'apprentissage.

Cette icône met davantage en lumière les points d'apprentissage.

Cette icône met davantage en lumière les points d'apprentissage.

Vous trouverez à l'annexe E un guide plus détaillé de la planification et de la mise en œuvre de l'évaluation.

Terminologie

Dans le présent guide, le terme « programme Â» désigne les programmes, les politiques ou les initiatives.

Principaux ouvrages de référence

Secrétariat du Conseil du Trésor du Canada, Modèles d'évaluation et de mesure du rendement des petits organismes, Rapport sommaire , 2003.

Secrétariat du Conseil du Trésor du Canada, Indépendance et partenariat – À la recherche de l'équilibre : un dialogue sur la prise de décisions axées sur les valeurs et l'éthique au sein des petits organismes , 2003.

Secrétariat du Conseil du Trésor du Canada, Politique d'évaluation et normes , 2001.




Deuxième section : Définition de l'évaluation

 

Deuxième section : Définition de l'évaluation

La présente section :

  • définit l'évaluation;
  • décrit les différents types d'évaluations;
  • compare l'évaluation à d'autres activités de responsabilisation, dont la mesure du rendement, la vérification interne et les examens de la gestion ou les examens opérationnels;
  • situe l'évaluation dans le contexte des autres initiatives gouvernementales comme le Cadre de responsabilisation de gestion (CRG) et la Structure des ressources et des résultats de gestion (SRRG).

2.1 Définition de l'évaluation

L'évaluation désigne la collecte et l'analyse systématiques de l'information sur le rendement d'une politique, d'un programme ou d'une initiative permettant de porter des jugements sur sa pertinence, ses progrès et succès et son efficacité en fonction du coût ou d'éclairer des décisions sur la conception et la mise en œuvre de programmes.

Outil d'apprentissage en ligne de la GAR , site Web du SCT

Il convient de signaler ce qui suit au sujet de l'évaluation :

L'évaluation fournit l'occasion d'examiner périodiquement et en détail l'évolution de la politique, du programme ou de l'initiative. L'évaluation doit, en premier lieu, permettre d'apporter des améliorations qui faciliteront l'atteinte des résultats prévus, ou de déterminer la mesure dans laquelle la politique, le programme ou l'initiative a permis d'atteindre les résultats escomptés (c'est-à-dire attribution).

Outil d'apprentissage en ligne de la GAR , site Web du SCT

2.2  Objectif de l'évaluation

Après la publication du document intitulé Des résultats pour les Canadiens et les Canadiennes : Un cadre de gestion pour le gouvernement du Canada en avril 2001, le CT a émis une Politique d'évaluation pour « faire en sorte que le gouvernement dispose en temps voulu de renseignements stratégiques, objectifs et solides au sujet du rendement de ses politiques, programmes et initiatives pour produire de meilleurs résultats pour les Canadiens et les Canadiennes. Â»

L'évaluation a deux objectifs principaux :

1.  Amélioration : aider les gestionnaires à concevoir dès le départ de meilleurs programmes, politiques et initiatives et à les améliorer par la suite.

2.  Responsabilisation : fournir périodiquement, le cas échéant, des évaluations de l'efficacité des politiques, des programmes ou des initiatives, en ce qui a trait aux répercussions intentionnelles ou fortuites et aux autres méthodes qui permettent d'obtenir les résultats attendus.

Dans le contexte des petits organismes, les objectifs d'amélioration et de responsabilisation sont pertinents. Les évaluations peuvent les aider à ce qui suit :

 

2.3  Évaluation et cycle d'élaboration des programmes

Les procédés de planification et d'évaluation sont idéalement interdépendants. L'évaluation peut et devrait être intégrée au procédé de planification des organismes. De concert avec les commentaires sur les activités de mesure du rendement, l'information recueillie grâce aux évaluations peut orienter la planification au sein de l'organisme.

Évaluation et cycle d'élaboration des programmes

 

2.4 Aperçu des tâches liées à l'exécution des évaluations

L'illustration qui suit présente un aperçu des tâches liées à l'exécution d'une évaluation. Les quatrième, cinquième et sixième sections du présent guide examinent ces tâches de manière plus approfondie.

Aperçu des tâches liées à l'exécution des évaluations

2.5  Types d'évaluations

Il existe deux principaux types d'évaluations : l'évaluation formative et l'évaluation sommative.

Évaluation formative

Les évaluations de ce genre portent sur l'efficacité de la mise en œuvre afin de faciliter l'amélioration. L'évaluation formative peut être menée au milieu du cycle d'un programme, d'une politique ou d'une initiative (c'est-à-dire, avant deux ans). Elle vise à fournir l'information qui permettra d'améliorer le programme, la politique ou l'initiative.  

Les évaluations formatives devraient être utilisées de façon judicieuse. Elles pourraient ne pas être nécessaires pour les programmes permanents ni dans les cas où les vérifications de la conformité traitent de questions d'ordre opérationnel. Elles peuvent également cibler des aspects particuliers d'un programme, par exemple, le système de mesure du rendement.  

Les évaluations formatives mettent l'accent sur les éléments suivants :

  • les questions de gestion, à savoir comment la politique, le projet ou l'initiative est mis en œuvre et offert;
  • la mesure dans laquelle le risque est géré adéquatement;
  • la validité et la fiabilité des données sur le rendement produites par le système de mesure du rendement;
  • la détermination du bien-fondé des rajustements;
  • la mesure dans laquelle des progrès sont réalisés en vue de l'atteinte des résultats souhaités.

Les « Ã©valuations formatives complètes Â» doivent aborder les extrants, les résultats préliminaires, la validation du modèle logique du programme et la probabilité d'atteindre les résultats à long terme [4] .

Toutes les évaluations, qu'elles soient formatives ou sommatives, devraient comprendre les questions utilisées par le Comité d'examen des dépenses. (Voir l'annexe D.)

 

Évaluation sommative

Les évaluations de ce type portent sur les répercussions et permettent de prendre une décision quant à l'efficacité globale. Elles exercent principalement une fonction de responsabilisation et sont en général menées vers la fin du cycle.

Les évaluations sommatives mettent l'accent sur les éléments suivants :

  • Pertinence : Est-ce que le programme est toujours compatible avec les priorités de l'organisme et de l'ensemble du gouvernement et répond véritablement à un besoin réel?
  • Succès : Dans quelle mesure les résultats escomptés ont-ils été atteints et dans quelle mesure la politique, le programme ou l'initiative a-t-il contribué à l'atteinte des résultats?
  • Rentabilité : Utilise-t-on les moyens les plus appropriés et les plus efficients pour atteindre les objectifs ou y aurait-il lieu d'envisager d'autres modes de conception et d'exécution?

Toutes les évaluations, qu'elles soient formatives ou sommatives, devraient comprendre les questions utilisées par le Comité d'examen des dépenses. (Voir l'annexe D.)

Dans le contexte fédéral, on fait souvent référence à un autre genre d'évaluation, l' évaluation horizontale , c'est-à-dire l'examen d'initiatives qui supposent des activités coordonnées de plusieurs ministères ou organismes. Si vous désirez obtenir plus d'information à cet égard, veuillez consulter l'annexe   B .  

2.6  Autres activités en matière de responsabilisation

Comme nous l'avons déjà précisé, l'évaluation est un genre d'activité ou d'outil dont peuvent se servir les gestionnaires pour faire état de la responsabilisation. La présente section contient de brèves descriptions d'autres outils (par exemple, la mesure du rendement ou la vérification), un exposé sur la manière de savoir quand chaque outil est le plus approprié et un exposé sur la manière de les utiliser conjointement.

2.6.1  Mesure du rendement

La mesure du rendement désigne la collecte périodique de renseignements pour surveiller l'état d'une politique, d'un programme ou d'une initiative à un moment donné. En général, elle met l'accent sur la communication d'information sur le rendement opérationnel aux gestionnaires de programmes. Dans le cas de nombreux petits organismes, une des premières tâches que suppose la mise au point d'une fonction d'évaluation est l'élaboration d'une stratégie de mesure du rendement qui englobe l'évaluation périodique.

L'évaluation et la mesure du rendement sont deux mesures qui se complètent. L'évaluation assure la responsabilisation en veillant à ce que la mesure du rendement soit au point et à ce que les indicateurs soient appropriés. Pour leur part, les données de mesure du rendement représentent souvent d'importantes sources de renseignements pour les évaluations périodiques.

Les petits organismes n'accordent pas tous la même importance relative à la mesure du rendement et à l'évaluation. Certains d'entre eux s'appuient davantage sur la mesure continue du rendement, tandis que d'autres donnent plus de poids aux évaluations périodiques. Ce qui importe le plus, c'est d'établir quels sont les besoins en information de l'organisme pour la prise de décisions, puis de veiller à ce que les stratégies de mesure du rendement et d'évaluation comblent ces exigences.

2.6.2  Vérification interne

La vérification interne est une fonction qui donne des assurances quant à la stratégie de gestion des risques d'un ministère ou d'un organisme et à son cadre de contrôle et d'information de gestion, tant sur le plan financier que non financier, et ce, pour la prise de décisions et l'établissement des rapports.

La fonction de vérification interne :

Dans beaucoup de petits organismes , la planification, la mise en œuvre et la gestion de la mesure du rendement, des évaluations, des vérifications et des examens peuvent être confiées à une seule personne ou à de petits groupes de personnes.

 

«  Combinées, la mesure du rendement, la vérification et l'évaluation peuvent servir de moyen efficace pour surveiller le rendement de tout projet pendant tout son cycle de vie. Â»


— Outil d'apprentissage en ligne de la GAR, site Web du SCT

2.6.3  Examen

Les examens sont souvent menés en réponse à un besoin urgent ou immédiat de la direction. Ainsi, ils portent habituellement sur la production rapide de renseignements suffisants qui alimenteront le processus décisionnel ou rassureront la haute direction quant aux dimensions d'un problème ou d'une situation. La méthodologie qui est employée pour recueillir l'information est généralement secondaire à la formulation d'une réponse satisfaisante en temps opportun (c'est-à-dire, le non-respect des protocoles et approches d'évaluation ou de vérification). Même s'ils sont utiles lorsqu'il s'agit de donner suite à des enjeux ciblés, les examens ou les études spéciales ne sont pas conformes aux exigences en matière d'établissement de rapports externes, de procédés de contrôle des projets ou de normes qui délimitent une discipline telle que la vérification ou l'évaluation.

2.7  Évaluation en contexte

Quand effectuer une évaluation?

Vous effectuerez une évaluation si vous voulez savoir comment et pourquoi les résultats ont été atteints, si vous voulez connaître la portée de ce qui a été mis en œuvre, si vous voulez savoir si votre initiative est pertinente, si vous voulez connaître la mesure dans laquelle les impacts désirés ont été atteints, si vous voulez savoir quels impacts imprévus sont survenus et si vous voulez envisager d'autres options ou stratégies en matière d'amélioration.

Quand effectuer une vérification?

Vous effectuerez une vérification interne si vous avez besoin de renseignements sur la pertinence des contrôles internes et des stratégies de gestion du risque, sur l'importance de la conformité aux règles, règlements et procédures, sur les pratiques et contrôles de la gestion ainsi que sur le degré de validité de l'information financière, opérationnelle et de gestion.

Quand effectuer un examen?

Vous effectuerez un examen s'il est urgent d'obtenir de l'information de gestion dont la portée peut être plus restreinte que celle d'une évaluation (ou dont la portée est plus grande que celle d'une évaluation) et lorsque le temps ou les ressources ne permettent pas la rigueur attendue d'une évaluation.

L'évaluation est effectuée depuis longtemps au gouvernement fédéral. Elle a été perçue tout récemment comme un des principaux outils pour les gestionnaires de la fonction publique qui sont chargés de traiter des exigences inhérentes aux récentes approches de gestion dans le secteur public. Certaines d'entre elles sont décrites brièvement ci-dessous afin de placer l'évaluation dans son contexte actuel. Il est possible d'obtenir plus de précisions sur chacune des approches ou initiatives en s'adressant directement au SCT [5] . Toutes les initiatives décrites ci-après continueront d'influer sur les gestionnaires des petits organismes qui renforcent leurs capacités dans des domaines tels l'évaluation, la mesure du rendement et la vérification interne.

2.7.1  Gestion axée sur les résultats

La gestion axée sur les résultats est une approche globale de gestion visant à améliorer le rendement grâce à l'obtention de meilleurs résultats.

Peu après avoir diffusé le document Des résultats pour les Canadiens et les Canadiennes en 2000, le gouvernement fédéral a instauré le Cadre de gestion et de responsabilisation axé sur les résultats (CGRR) à titre d'outil servant à planifier, à surveiller, à évaluer les résultats d'un programme et à faire rapport sur ceux-ci. Le CGRR intègre la fonction d'évaluation au contexte de la gestion axée sur les résultats et sert de lien avec la Structure des ressources et des résultats de gestion (voir ci-après). Les CGRR seront examinés en détail à la Quatrième section du présent guide.

2.7.2  Cadre de responsabilisation de gestion (CRG)

Le Cadre de responsabilisation de gestion définit et précise les attentes de gestion. Il s'agit d'une série de dix énoncés qui résument les attentes du SCT à l'égard de la gestion de la fonction publique moderne. Le CRG vise les objectifs suivants :

Le CRG est utilisé :

Le graphique qui suit représente le Cadre de responsabilisation de gestion.

Cadre de responsabilisation de gestion : les dix éléments essentiels de la gestion moderne


2.7.3  Structure des ressources et des résultats de gestion (SRRG)

La Structure des ressources et des résultats de gestion (SSRG) remplace la Structure de planification, de rapport et de responsabilisation (SPRR) . Conformément aux attentes prévues par le CRG, la SRRG appuie la gouvernance et l'orientation stratégique, les obligations de rendre compte, ainsi que les résultats et le rendement. La nouvelle politique est axée sur le niveau organisationnel et encourage la concordance entre les programmes, ressources et pratiques de gestion, d'une part, et les résultats escomptés, d'autre part.  

L'Architecture des activités de programmes (AAP) représente un des éléments de la SRRG et comprend les éléments suivants :

Au fil du temps, la SRRG intégrée devrait également comprendre les éléments suivants :

Le Système d'information sur la gestion des dépenses (SIGD) fournira un cadre commun qui fera concorder l'information sur les priorités, les plans, les dépenses réelles et les résultats.

2.7.Place de l'évaluation

En raison de l'importance qu'elle accorde au « comment Â» et au « pourquoi Â» des résultats, l'évaluation est un outil clé de la gestion des résultats. Dans le cadre des pratiques de gestion, elle peut aider à concevoir et à améliorer les programmes. Elle devrait être utilisée conjointement avec d'autres outils de gestion pour améliorer la responsabilisation et la prise de décisions.  

Les évaluations représentent des outils importants qui permettent de faire état des résultats et du rendement et, à ce titre, elles aident à soutenir les autres éléments du CRG. De plus, en incluant les résultats et le rendement à titre d'attente principale de la gestion, le CRG prend un engagement manifeste à l'égard de l'évaluation.  

L'évaluation peut fournir en temps opportun de l'information sur les impacts et la pertinence en regard des objectifs stratégiques d'un organisme. Elle peut donc combler certains des besoins en information de la SRRG. Les plans annuels d'évaluation (niveau de l'organisation) et les CGRR (niveau des programmes) établissent des liens vers la SRRG.

Le graphique qui suit situe l'évaluation par rapport à d'autres initiatives gouvernementales.

L'évaluation en contexte


Principaux ouvrages de référence

Société canadienne de l'évaluation, Projet de soutien pour la défense des intérêts et le développement professionnel : avantages de l'évaluation, extrants et éléments de connaissances , 16 septembre 2002.

Goss Gilroy Inc., Examen des approches adoptées par d'autres administrations. Enseignements tirés de l'expérience internationale en matière de mesure du rendement et d'évaluation dans les petits organismes , 2003.

National Science Foundation, User-Friendly Handbook for Project Evaluation

Site Web du Secrétariat du Conseil du Trésor du Canada, Outil d'apprentissage en ligne de la GAR

Site Web du Secrétariat du Conseil du Trésor du Canada, Cadre de responsabilisation de gestion

Secrétariat du Conseil du Trésor du Canada, Politique d'évaluation et normes , 2001.

Secrétariat du Conseil du Trésor du Canada, Élaboration et utilisation des cadres de gestion et de responsabilisation axés sur les résultats , avril 2004.

Secrétariat du Conseil du Trésor du Canada, Des résultats pour les Canadiens et les Canadiennes , 2000.

 




Troisième section : Élaboration d'une fonction d'évaluation

 

La présente section :

  • donne un aperçu de la capacité d'évaluation des petits organismes;
  • passe en revue les exigences de la Politique d'évaluation ;
  • passe en revue les pratiques exemplaires en matière d'établissement d'un plan d'évaluation pour un organisme;
  • décrit les stratégies de renforcement de la capacité d'évaluation.

3.1 Défis en matière d'élaboration d'une fonction d'évaluation

Comme nous l'avons déjà mentionné, beaucoup de petits organismes sont aux prises ou ont été aux prises avec d'importants défis en matière d'élaboration de la capacité d'évaluation et de mesure du rendement. En dépit de ces défis, quelques petits organismes ont réalisé des progrès appréciables dans la mise en œuvre d'activités d'évaluation et de rendement. Ces derniers organismes accordent de la valeur à l'information et aux constatations issues de la mesure du rendement et des évaluations et s'en servent activement pour appuyer la prise de décisions et la planification organisationnelle.

Nous avons constaté que certains facteurs, notamment les suivants, étaient associés à la capacité d'évaluation renforcée des petites organisations :

Le saviez-vous?

En Nouvelle-Zélande, tous les organismes et ministères gouvernementaux sont tenus d'élaborer des Statements of Intent (énoncés d'intention), qui comprennent les résultats ciblés. Ces documents font mention du fait que les cibles des petites organisations découlent moins de compromis et correspondent davantage au « tableau général de la situation Â». Ils établissent de meilleurs liens entre le mandat global de l'organisation et les cibles de rendement.

Les petits organismes sont confrontés à de nombreux défis lorsqu'ils tentent de renforcer leur capacité d'évaluation. Il y a notamment les suivants :

Comme nous l'avons démontré, l'environnement des petits organismes crée des circonstances et des défis uniques pour le renforcement de la capacité d'évaluation et de mesure du rendement. Vous trouverez dans d'autres sous-sections du présent guide des suggestions au sujet du renforcement de la capacité.

3.2  Listes de contrôle de la mise en œuvre de la Politique de l'évaluation

La présente section contient de nombreuses listes de contrôle qui aideront le lecteur à se familiariser avec les diverses sections de la Politique d'évaluation du CT. Ceux qui connaissent déjà la politique jugeront utile de consulter les différentes listes afin d'y déceler les écarts éventuels ou les secteurs qui ont été abordés par leurs organismes lors de la mise en œuvre de la politique.




 Liste de contrôle des éléments requis
de la Politique d'évaluation

Éléments requis

P

Capacité d'évaluation (administrateurs généraux) :

1.  Nommer un haut responsable de l'évaluation.

 

2.  Mettre sur pied un comité d'évaluation* et nommer un haut cadre ministériel comme président.

 

3.  Veiller à ce que le SCT ait accès aux plans annuels d'évaluation et soit avisé rapidement des constatations de l'évaluation qui sont source de préoccupation.

 

Leadership et orientation (chefs de l'évaluation du ministère) :

4.  Veiller à ce que les plans d'évaluation de l'organisme soient stratégiques et traitent de manière satisfaisante des politiques, programmes et initiatives.

 

5.  Veiller à ce que les chefs de l'évaluation du ministère travaillent de concert avec les gestionnaires pour améliorer la conception, la prestation et la mesure du rendement des politiques, programmes et initiatives.

 

6.  Effectuer les études d'évaluation conformément au plan d'évaluation.

 

7.  Informer rapidement la haute direction et les intervenants ministériels appropriés de toute constatation qui est source de grande préoccupation.

 

8.  Mettre les rapports d'évaluation terminés à la disposition du CT et du grand public dans les deux langues officielles.

 

9.  Mettre en application les normes d'évaluation énoncées dans la politique (planification et enjeux de l'évaluation, compétence, objectivité et intégrité, consultation et conseils, mesure et analyse, communication de l'information).

 

Gestion axée sur les résultats (gestionnaires ministériels) :

10. Veiller à ce qu'il y ait de l'information valable, opportune, objective et accessible pour la prise de décisions et l'amélioration du rendement.

 

11. Utiliser les constatations et les mesures d'amélioration de l'évaluation pour les processus d'établissement des priorités, de planification, d'élaboration de rapports et de prise de décisions.

 

*  Dans le cas des petits organismes, un comité ministériel d'évaluation ou un comité mixte de vérification et d'évaluation pourrait remplir le même rôle. Dans les petits organismes (qui comptent, disons, moins de 50 ETP), le comité d'évaluation, le comité ministériel supérieur et le comité de gestion sont souvent composés des mêmes personnes.

 

3.2.1  Établissement du plan d'évaluation de l'organisme

Le plan d'évaluation est axé sur la stratégie et est conçu de manière à répartir équitablement la charge de travail entre le respect des besoins internes en information de l'organisme et la préparation de rapports externes, et ce, conformément aux priorités du gouvernement fédéral. Ce plan devrait être élaboré ou examiné une fois l'an, mais il peut être pluriannuel. Beaucoup de petits organismes peuvent exécuter une ou même deux évaluations aux cinq ans. Par conséquent, le plan annuel d'évaluation fera plus vraisemblablement l'objet d'un examen que d'une élaboration chaque année. Au cours de l'examen, le plan devrait être mis à jour et modifié afin de tenir compte des changements qui sont survenus au cours des douze mois précédents.

Le plan d'évaluation peut comprendre des mesures en fonction des résultats stratégiques de la SRRG, traiter du répertoire des projets, utiliser les mesures continues du rendement et procurer à la structure de gouvernance les éléments requis qui appuieront les besoins en matière de processus décisionnels de la SRRG.

Gestion du risque

Compte tenu des exigences relatives à une approche de gestion qui est d'avantage intégrée (par exemple, les exigences formulées dans le CRG et la Politique d'évaluation ), le plan d'évaluation annuel devrait également tenir compte du profil de gestion du risque qui a été élaboré pour le compte de l'organisme. Le cadre peut se fonder sur une mesure systématique du risque (autoévaluation du risque). Il peut comprendre les risques liés aux résultats stratégiques, aux finances, à la santé et sécurité, aux priorités ministérielles ainsi qu'aux engagements du gouvernement.

  • Le cadre de gestion du risque peut servir de fondement pour l'établissement des priorités de l'évaluation.

Pour en savoir davantage sur la gestion du risque, veuillez consulter le document du SCT intitulé Respecter les attentes de la Politique de vérification interne du SCT : guide à l'intention des petits ministères et organismes , 2003.  

Vous pouvez également consulter le Cadre de gestion intégrée du risque qui se trouve sur le site Web du SCT à l'adresse : http://www.tbs-sct.gc.ca/pubs_pol/dcgpubs/RiskManagement/rmf-cgr_f.asp .

 

Veuillez consulter le guide détaillé des pratiques exemplaires en matière d'élaboration et du dépôt des plans annuels d'évaluation que vous trouverez sur le site Web du SCT : http://www.tbs-sct.gc.ca/cee/pubs/guide/dep-epe-eng.asp . La liste de contrôle qui suit résume ces pratiques exemplaires ou nouvelles. Il est cependant à noter que les différents points ne sont pas tous des éléments requis. (Veuillez vous reporter à la liste de contrôle précédente pour les éléments requis de la Politique d'évaluation .)



 Liste de contrôle pour le plan d'évaluation
de votre organisme

Facteurs à prendre en considération

Le plan traite-t-il des facteurs suivants?


P

Évaluation des besoins

1.  Déterminer les besoins en information de la direction, des clients et des intervenants.

 

Contexte

2.  Décrire l'utilisation que l'organisme fera de l'évaluation.

 

3.  Lier l'évaluation et les préoccupations stratégiques. (Le plan d'évaluation devrait tenir compte des résultats stratégiques de la SRRG, du répertoire des programmes et des mesures du rendement).

 

4.  Vous référer à la nouvelle Politique d'évaluation et aux normes du CT.

 

Justification et établissement des priorités

5.  Tenir compte de l'établissement des priorités et de l'approche de gestion du risque.

 

6.  Cerner la méthodologie utilisée pour déterminer les projets.

 

7.  Établir des liens entre les services, secteurs d'activité et priorités stratégiques de l'organisme.

 

 Liste de contrôle pour le plan d'évaluation
de votre organisme (suite)

Facteurs à prendre en considération

Le plan traite-t-il des facteurs suivants?


P

Portée et champ d'application

8.  Indiquer les priorités pluriannuelles de l'organisme.

 

9.  Prévoir la portée de l'étude (pour les projets compris dans le plan). Décrire la justification de l'inclusion de l'étude dans le plan.

 

10.  Évaluer la proportion des activités d'évaluation de l'organisme que représentent les projets de l'exercice en cours.

 

11.  Tenir compte des évaluations interjuridictionnelles.

 

Attentes de la direction et ressources

12.  Déterminer les projets qui seront achevés au cours de l'exercice.

 

13.  Estimer les coûts d'achèvement de chaque projet ou des dépenses prévues pour l'exercice courant.

 

14.  Inclure un résumé des projets, coûts, dépenses d'évaluation totales, financement reçu en plus des services votés aux fins de l'évaluation.

 

Crédibilité et échéancier ( Le plan traite-t-il des mesures suivantes?)

15.  Identifier les équipes de projet et des calendriers.

 

16.  Tenir compte des normes du SCT au moment de l'élaboration du plan.

 

17.  Cerner les principales hypothèses touchant les produits à livrer conformément au plan.

 

Communication de l'information (Avez-vous pris les mesures suivantes…?)

18.  Soumettre le plan à l'approbation du Comité d'évaluation?

 

19.  Examiner le plan après six mois ou fournir un rapport d'étape (Après six mois, examen ou rapport d'étape sur le plan par le Comité d'évaluation).

 

20.  Afficher les rapports d'évaluation sur le site Web de l'organisme?*

 

21.  Transmettre les rapports d'évaluation au SCT pour qu'ils soient inclus dans la base de données.

 

22.  Transmettre le plan d'évaluation approuvé au Centre d'excellence en évaluation?

 

*  Aux termes de la Politique d'évaluation , les rapports d'évaluation doivent être publiés.

3.3  Renforcement de la capacité d'évaluation interne

Le concept de renforcement de la capacité est semblable aux concepts du perfectionnement organisationnel, de l'efficacité organisationnelle ou du rendement organisationnel.

Le renforcement de la capacité suppose un éventail d'activités, dont celles qui suivent :

3.3.1  Étapes du renforcement de la capacité d'évaluation


Le renforcement de la capacité au sein d'une organisation suit habituellement les trois étapes de base suivantes :

Premi̬re ̩tape РD̩termination des ̩carts

Déterminer les écarts et les enjeux liés à la capacité d'évaluation.

a.  Dresser le répertoire des sources actuelles de données et d'information (c'est-à-dire, données opérationnelles, financières, administratives, données sur la gestion stratégique et la responsabilisation).

b.  Effectuer l'évaluation de concert avec les gestionnaires afin de cerner les besoins courants en information.

c.  Déterminer les écarts et les besoins en information.

Deuxième étape – Élaboration des stratégies

Déterminer les changements ou les stratégies qui s'imposent pour combler ces écarts.

d.  Tenir compte des stratégies liées au changement organisationnel, aux ressources humaines, à l'infrastructure, au réseautage (voir ci-dessous les exemples et les stratégies proposées.)

Troisi̬me ̩tape РFormulation d'un plan d'action du changement

e.  Élaborer un plan d'action du changement et attribuer les rôles et les responsabilités.

3.3.2  Stratégies de renforcement de la capacité d'évaluation

L'encadré qui suit contient des exemples sur la manière dont certains petits organismes ont renforcé leur capacité de mesure du rendement et d'évaluation.

Premier exemple :
Conseil d'examen des prix des médicaments brevetés
(CEPMB)

Le CEPMB renforce sa capacité interne de mesure du rendement et d'évaluation en veillant à ce que la mesure soit une composante intégrée d'activités à divers niveaux. L'information obtenue des systèmes de mesure du rendement est fournie aux échelons supérieurs de l'organisme pour faciliter la planification stratégique et l'examen des activités à divers moments au cours de l'exercice. Des documents sur la planification stratégique sont remis aux employés de sorte que tous comprennent les besoins relatifs aux différents types de renseignements sur le rendement qui sont recueillis dans l'organisme et la justification de leur collecte. De nombreux employés participent alors directement à la collecte ou au traitement des renseignements sur le rendement dans l'exercice de leurs activités permanentes pendant l'année.

 

Deuxième exemple :
Commissariat aux langues officielles
(CLO)

Le CLO s'affaire à renforcer sa capacité en faisant état de la nécessité d'obtenir de bons renseignements sur le rendement à divers niveaux d'employés, puis en faisant participer directement divers employés à l'élaboration des cadres nécessaires. À cette approche vient se greffer l'identification de quelques personnes dans l'organisation qui pourraient être décrites comme des « champions de l'évaluation Â». De plus, le soutien et l'orientation fournis par la haute direction en rapport avec les activités de mesure du rendement et d'évaluation dirigent les efforts de l'organisation qui tente de changer graduellement la culture du CLO de manière à la rendre plus conforme à un environnement de gestion axée sur les résultats.

Nous vous donnons ci-dessous un aperçu de quelques-unes des approches de renforcement de la capacité qui ont été proposées lors de l'exercice d'élaboration de modèles de mesure du rendement et d'évaluation qui a été mené dans les petits organismes :

Comment obtenir le soutien de la haute direction?

Le soutien de la haute direction représente un facteur important pour le succès du renforcement de la capacité d'évaluation. Il peut être difficile de réaliser un changement du genre. Vous trouverez ci-dessous quelques suggestions à ce sujet.

  • Élaborer ou perfectionner la formation en leadership dans l'organisme de sorte que le rôle de l'évaluation dans un environnement de gestion axée sur les résultats soit bien compris.
  • Faire connaître les besoins en information de l'organisme.
  • Faire connaître les obstacles au changement et les incitatifs du changement et mettre en œuvre les stratégies appropriées.
  • Offrir à la direction une formation axée sur les résultats.
  • Consulter le SCT et d'autres ressources externes.

 

Enseignements tirés : Rétroaction obtenue des petits organismes dans le cadre du processus d'évaluation de la capacité de la fonction moderne de contrôleur

  • Les résultats doivent être diffusés régulièrement pour soutenir l'intérêt des gestionnaires.
  • L'engagement actif de la haute direction et l'adhésion des employés représentent des facteurs essentiels du succès.
  • Les ateliers à l'extérieur permettent aux gestionnaires d'examiner les concepts de la modernisation de la fonction de contrôleur et de discuter de leur application dans le contexte opérationnel précis de l'organisme.
  • La sélection de gestionnaires invités à participer à des projets pilotes permet de répartir la charge de travail, de créer des synergies et de favoriser l'engagement. Il est également utile de faire participer les gestionnaires qui ont déjà manifesté un intérêt pour le sujet.
  • Il faut éviter la surcharge d'information en recourant à des séances plus courtes et plus fréquentes plutôt qu'à des cours en bonne et due forme.
  • La formation doit être adaptée aux besoins de l'auditoire et utiliser des exemples pratiques et concrets.
  • Il est bon de collaborer avec d'autres organismes semblables lorsque les ressources pour la formation sont restreintes.
  • Il faut affecter des ressources à la formation ciblée en matière de modernisation de la fonction de contrôleur, et ce, à l'intention des gestionnaires intermédiaires et supérieurs.

 

  Liste de contrôle pour l'élaboration et le maintien
de la capacité d'évaluation interne

Facteurs à prendre en considération

P

1.  Y a-t-il un leader ou un champion de l'évaluation? A-t-on donné à des employés la responsabilité d'élaborer la capacité d'évaluation?

 

2.  Est-ce que les intervenants connaissent et comprennent (au niveau de la direction) les besoins en information et les solutions?

 

3.  La direction et les employés comprennent-ils les raisons et la nécessité de renforcer la fonction d'évaluation?

 

4.  Quels changements s'imposent pour renforcer l'évaluation? Le changement et l'orientation sont-ils bien définis? Le changement est-il transposé en buts, objectifs et comportements que les membres de l'équipe peuvent comprendre? Les concepts ont-ils été transformés en une série d'actions de l'organisation qui peuvent être instaurées dans l'organisme?

 

5.  Existe-t-il des écarts au chapitre des connaissances et des habiletés en évaluation?

 

6.  Les ressources nécessaires à ces changements existent-elles? Les ressources éventuelles ont-elles été déterminées et mises à profit?

 

7.  D'autres intervenants identifiés doivent-ils participer au changement et prendre un engagement à cet égard?

 

8.  Les principales décisions à prendre pour favoriser le renforcement de la capacité d'évaluation ont-elles été déterminées?

 

9.  Sait-on clairement qui est responsable de ces décisions et quand elles seront prises?

 

10.  Comment d'autres intervenants ont-ils réussi à élaborer leur capacité d'évaluation?

 

11.  Des sources de soutien et d'aide externes ont-elles été déterminées et consultées? (Par exemple, CEE, SCE, RAPO)

 

12.  A-t-on repéré des obstacles ou des sources de résistance à l'élaboration de la capacité d'évaluation interne?

 

13.  Des mesures d'encouragement et de renforcement appropriées existent-elles?

 

14.  L'engagement envers l'évaluation a-t-il été précisé?

 

15.  Le procédé et les étapes ont-ils été communiqués aux employés?

 

16.  L'évaluation est-elle liée aux activités de planification?

 

17.  L'évaluation est-elle liée aux activités de formation et de perfectionnement des employés?

 

18.  L'évaluation est-elle liée à d'autres activités de responsabilisation comme la mesure du rendement?

 

19.  L'évaluation fait-elle l'objet d'une surveillance et d'un suivi?

 

20.  Les rapports sur les résultats ont-ils des liens avec les intervenants qui gèrent les rapports de responsabilisation?

 

Il faut avoir des habiletés de gestion générale des projets pour planifier, mettre en œuvre et gérer efficacement les évaluations. Ainsi, les projets d'évaluation ne se distinguent pas beaucoup de nombreux autres projets que les gestionnaires de la fonction publique devront planifier et mettre en œuvre dans un environnement axé sur les résultats. La liste de contrôle qui suit sert de guide générique à ceux qui désirent renforcer et surveiller la capacité dans le domaine de la gestion de projet.

 

  Liste de contrôle générique pour la gestion
de projets internes

Facteurs à prendre en considération

P

1.  Les buts, objectifs et justification sont-ils clairs?

 

2.  La portée du projet est-elle claire et conforme aux objectifs du projet?

 

3.  Les produits à livrer qui sont indiqués montrent-ils qu'un objectif a été atteint ou est sur le point de l'être?

 

4.  Une date de début et de fin du projet est-elle connue?

 

5.  Est-ce que les problèmes ou les obstacles à l'achèvement du projet ont été définis?

 

6.  Les coûts d'élaboration du projet sont-ils connus?

 

7.  Les principaux rôles et responsabilités ont-ils été cernés et attribués?

 

8.  La description du projet tient-elle compte du modèle de gouvernance de l'organisme?

 

9.  Le modèle de gouvernance précise-t-il ce qui suit : les décisions sur la portée ou la gestion du changement; les décisions financières ou relatives aux coûts; les décisions relatives aux RH; la gestion des enjeux; la gestion du risque; le contrôle de la qualité; et la transition vers les décisions opérationnelles.

 

10.  Les liens hiérarchiques sont-ils clairs?

 

11.  A-t-on dûment tenu compte de la gestion du risque, du cadre de contrôle de gestion, des échéanciers et des plans d'activités, du plan de communication, du plan de mise en œuvre, du plan de présentation de rapports, du plan de communication de l'information ainsi que des valeurs et de l'éthique?

 

12.  La planification du rendement et la budgétisation sont-elles intégrées?

 

13.  Des outils de gestion, du soutien et de la formation satisfaisants existent-ils?

 

 

Principaux ouvrages de référence

Site Web de la collectivité des petits organismes, .

London School of Economics and Political Science, Juggling On a Unicycle: A Short Guide to Organizing A Small Agency , 1999.

Forum sur le rendement et la planification, Making Change Personal: Why we don't know what we know , novembre 2003.

Secrétariat du Conseil du Trésor du Canada, Modèles d'évaluation et de mesure du rendement des petits organismes, Rapport sommaire , 2003.

Secrétariat du Conseil du Trésor du Canada, Changer la culture de gestion : modèles et stratégies pour réaliser cet objectif , 2003.

Secrétariat du Conseil du Trésor du Canada, Politique d'évaluation et normes , 2001.

Secrétariat du Conseil du Trésor du Canada, Les pratiques de la fonction de contrôleur : vers l'excellence en gestion , 2003.

Secrétariat du Conseil du Trésor du Canada, Examen des approches adoptées par d'autres administrations. Enseignements tirés de l'expérience internationale en matière de mesure du rendement et d'évaluation dans les petits organismes , 2003.

 




 

Quatrième section : Cycle d'évaluation

 

La présente section :

  • donne un aperçu du cycle de vie de l'évaluation;
  • décrit les facteurs à prendre en considération pour planifier une évaluation au niveau du programme;
  • décrit le Cadre de gestion et de responsabilisation axé sur les résultats (CGRR ) et ses composantes;
  • décrit les méthodes d'évaluation;
  • décrit les étapes d'exécution d'une évaluation, y compris l'analyse des données;
  • donne un aperçu de la rédaction de rapports d'évaluation.

Aperçu du cycle de vie de l'évaluation

 


La présente section présente un aperçu d'une évaluation depuis la préparation d'un CGRR jusqu'à la collecte de l'information et à la rédaction du rapport. Le graphique qui suit illustre le cycle d'évaluation.

La section porte sur les trois premières étapes, à savoir planifier, mettre en œuvre et communiquer l'information. Plus précisément, elle est présentée comme suit :

Rédaction du plan au niveau du programme (ou CGRR)

 Exécution de l'évaluation

Rédaction du rapport

La quatrième étape du cycle de vie global de l'évaluation, c'est-à-dire l'utilisation des résultats de l'évaluation, sera abordée à la Sixième section.

4.1  Planification de l'évaluation

Afin que l'évaluation soit un produit utile, il faut préciser les détails au début du cycle de vie de l'évaluation. Il importe d'abord de faire comprendre les motifs de l'exécution de l'évaluation. Vous trouverez ci-après une liste de contrôle qui vous aidera à planifier votre évaluation au niveau du programme.

  Liste de contrôle de la planification d'une évaluation
(au niveau du programme)

Facteurs à prendre en considération

P

1.  Faire comprendre pourquoi l'évaluation est exécutée.

 

2.  Indiquer qui utilisera l'évaluation pour prendre des décisions (par exemple, des administrateurs particuliers, le personnel du programme, les clients, les législateurs, la haute direction, d'autres intervenants), où les constations de l'évaluation seront signalées (RMR, rapport annuel, site Web du ministère) et quels genres de décisions pourraient être prises.

 

3.  Déterminer si la direction devra fournir des réponses ou un plan d'action.

 

Élaborer une stratégie d'évaluation qui comprend les éléments suivants :

  • une description du programme
  • la portée et les objectifs de l'évaluation
  • les enjeux et les questions liés à l'évaluation
  • les méthodes de collecte des données et les sources d'information.

 

 

4.2  Cadre de gestion et de responsabilisation axé sur les résultats (CGRR) : Outil de planification

Comme le Cadre de gestion et de responsabilisation axé sur les résultats (CGRR) est un outil commun de planification des évaluations au gouvernement fédéral, la présente sous-section décrit ce cadre et ses composantes. Elle met l'accent sur le profil, le modèle logique et la stratégie d'évaluation, mais ne fournit qu'une description de haut niveau de la stratégie de mesure continue du rendement.

La section précédente traitait du plan global d'évaluation d'un organisme, mais la présente sous-section met l'accent sur la planification de l'évaluation d'un programme précis . La composante du cadre d'évaluation du CGRR devrait toutefois être liée au plan d'évaluation de l'organisme.

Dans les petits organismes comptant seulement un ou deux secteurs d'activité, l'évaluation peut porter sur l'ensemble de l'organisation (par exemple, l'évaluation d'une activité centrale de l'organisme). Dans bien des cas, les CGRR sont élaborés pour les petits organismes dans leur ensemble et non pour des secteurs d'activité particuliers.

 

 

Les CGRR constituent un outil de gestion qui ressemble essentiellement à un panneau d'affichage ou à une rose des vents pour une organisation, un programme, une politique ou une initiative.

 

4.2.1  Foire aux questions sur les CGRR

 

Qu'est-ce qu'un CGRR?

Un CGRR est un plan qui décrit comment un programme sera mesuré, évalué et présenté dans un rapport.

 

Pourquoi utiliser un CGRR?

Le CGRR sert de guide pour aider les gestionnaires à mesurer et à évaluer leurs programmes et à présenter des rapports connexes. Il est bien d'élaborer un CGRR (ou un cadre) lorsqu'un programme est conçu afin d'établir des liens raisonnables entre les activités proposées et les résultats et de faire connaître les exigences de la collecte des données. Le CGRR sert également de lien avec la Structure des résultats et des ressources de gestion de l'organisme.

 

Quelle est la différence entre un CGRR et un cadre d'évaluation?

Les CGRR ont en général remplacé les cadres d'évaluation au gouvernement fédéral. Ils regroupent, dans un même document, des plans pour la mesure du rendement et pour les activités d'évaluation, qui s'appuieront sur la théorie du programme ou le modèle logique, les pierres angulaires du CGRR. Les cadres d'évaluation autonomes ne comprennent pas forcément une stratégie de mesure du rendement et de communication de l'information.

 

Quand un CGRR est-il requis?

Le CGRR est obligatoire pour certaines catégories de programmes de paiements de transfert. Il s'agit notamment des programmes de subvention (subventions versées à une catégorie de bénéficiaires), de contributions particulières et de programmes de contribution.

Les CGRR sont censés relever des bonnes pratiques de gestion et leur utilisation est habituellement encouragée dans la Politique d'évaluation et le document d'orientation sur les CGRR du SCT.

 

Qui participe à l'élaboration d'un CGRR?

Deux types d'intervenants clés participent à l'élaboration et à la mise en œuvre d'un CGRR : les gestionnaires de programmes et les gestionnaires de l'évaluation. Les analystes du Secrétariat du Conseil du Trésor du Canada peuvent également participer aux CGRR qui comprennent une présentation au Conseil du Trésor.

Le CGRR est dirigé par les gestionnaires, tandis que les évaluateurs servent de facilitateurs. Les gestionnaires assument la responsabilité principale de l'élaboration et de la mise en œuvre du CGRR. Il leur incombe de prendre les mesures suivantes :

  • veiller à l'exactitude du contenu du cadre;
  • mettre en œuvre le CGRR.

La fonction de l'évaluation est chargée de la section du « Plan d'évaluation Â».

Il faudrait consulter également les principaux intervenants lors de la préparation de certains éléments du CGRR. Obtenir rapidement leur adhésion assure le soutien du processus de mise en œuvre.

 

Quelles sont les composantes d'un CGRR?

Profil Рcontient une description du programme, ce qui comprend le contexte et les besoins, les intervenants et les b̩n̩ficiaires, les structures organisationnelles et de gouvernance et les ressources affect̩es.

Résultats prévus et théorie du programme – comprend une description (résultats prévus et stratégie d'exécution) et une illustration graphique (modèle logique) montrant comment les activités d'un programme devraient se traduire par l'atteinte des résultats prévus.  

Plan de surveillance et d'̩valuation Рun plan pour les activit̩s continues de mesure du rendement et d'̩valuation. Cette composante comprend en outre une matrice des engagements en mati̬re de surveillance et de communication de l'information sur l'̩valuation.

 

Hexagon: Le CGRR devrait être concis et ciblé, ce qui contribue au soutien de sa mise en œuvre.


  Liste de contrôle de l'élaboration d'un CGRR

Éléments requis

P

1.  Former un groupe de travail chargé du CGRR.

 

2.  Évaluer la capacité interne.

 

Préparation de la description

3.  Établir un profil.

 

Résultats prévus et théorie du programme (résultats prévus, stratégie de prestation et modèle logique).

 

Préparation du plan de surveillance (ou du plan de mesure continue du rendement)

5.  Choisir les indicateurs (en se servant du modèle logique comme guide)

 

6.  Déterminer les sources de données, les méthodes de collecte des données et l'échéancier.

 

7.  Indiquer qui est responsable de la collecte de données.

 

8.  Estimer le coût des activités de surveillance.

 

Préparation du plan d'évaluation

9.  Faire comprendre pourquoi l'évaluation est exécutée.

 

10.  Déterminer les enjeux et les questions de l'évaluation.

 

11.  Traiter des volets de la pertinence, du succès et de la rentabilité.

 

12.  Tenir compte des questions du Comité d'examen des dépenses.

 

13.  Déterminer la conception d'évaluation, les méthodes de collecte des données, les sources de données et la fréquence appropriés.

 

1Indiquer qui est responsable de la collecte des données.

 

15.  Estimer le coût des activités de surveillance.

 

Préparation d'une stratégie de communication de l'information

16.  Déterminer tous les rapports de surveillance et d'évaluation (y compris, le RMR, le RPP, le rapport annuel sur le rendement, la vérification de la conformité et l'évaluation sommative).

 

17.  Fixer un échéancier pour la communication de l'information sur le rendement.

 

18.  Indiquer qui est responsable de la communication de l'information sur le rendement et des résultats de l'évaluation.

 

19.  Indiquer l'utilisateur du rapport produit.

 


4.2.2  Établissement du profil du programme

Il importe de bien comprendre l'organisation et le programme pour être en mesure de guider les activités de surveillance et d'évaluation. Le profil type comprend un résumé du contexte, des objectifs, des intervenants et bénéficiaires principaux, des structures organisationnelles ainsi que la structure de gouvernance et des ressources. Il devrait indiquer clairement les objectifs que le programme tente d'atteindre et comment il prévoit le faire.

Composantes types du profil*

Contexte

Décrire clairement la nécessité et la justification du programme.

Objectifs

Indiquer clairement les objectifs du programme. Décrire comment les objectifs sont liés aux résultats stratégiques du ministère qui sont définis dans son Architecture des activités de programmes.

Intervenants et bénéficiaires principaux

Fournir au lecteur une indication précise des personnes qui participent au programme. Les programmes peuvent faire appel à de nombreux intervenants dont les rôles, points de vue et besoins en information de gestion peuvent varier. Si les données sont accessibles, définir les cibles selon la capacité de sensibiliser les bénéficiaires du projet.

Structures organisationnelles et de gouvernance

Décrire les structures organisationnelles et la structure de gouvernance. Indiquer qui détient le pouvoir décisionnel et décrire les principaux rôles et responsabilités de tous les intervenants du projet (y compris les partenaires de prestation).

Ressources

Indiquer les ressources annuelles affectées à l'organisme et à chaque partenaire de prestation, le cas échéant. Préciser le coût des activités de surveillance et d'évaluation.

*  Par le passé, les profils de programme ont habituellement compris les résultats prévus et la stratégie de prestation. Ces composantes font maintenant partie de la section, Résultats prévus et théorie du programme (modèle logique).

 

Exemple :
Le Comité des griefs des Forces canadiennes
(CGFC)

Le texte qui suit est tiré du profil du CGFC concernant la structure de gouvernance :

Le Comité est composé d'un président, d'un vice-président à temps plein, d'un vice-président à temps partiel et de trois membres à temps partiel. Tous ont été nommés par le gouverneur en conseil pour un premier mandat d'au plus quatre ans.

Il incombe aux agents de griefs, de concert avec l'Unité d'analyse des griefs et des opérations, d'analyser les griefs, de mener des recherches, y compris la recherche de précédents applicables, et la rédaction des constatations et des recommandations initiales se rapportant aux griefs, pour aider les membres du Comité à s'acquitter de leurs fonctions. Il incombe aux avocats de l'Unité des services juridiques d'effectuer un examen juridique des constatations et des recommandations avant qu'elles ne soient soumises aux membres du Comité. Ceux-ci sont responsables des constatations et des recommandations soumises au chef d'état-major de la défense. Le président du Comité est en définitive tenu responsable du travail du Comité.

Il incombe au directeur exécutif, chargé de surveiller la prestation des services de soutien ministériels, d'assurer la saine gestion globale du Comité y compris la gestion financière. Toutefois, c'est en bout de ligne le président qui est responsable de tous les volets de la gestion du Comité.


 

  Liste de contrôle pour l'établissement du profil d'un CGRR

Facteurs à prendre en considération

P

1.  Avez-vous consulté les documents stratégiques et descriptifs appropriés?

 

2.  Avez-vous consulté les intervenants visés pour obtenir l'information qui manque ou d'autres renseignements?

 

Est-ce que le profil traite des questions suivantes?

3.  Comprend-il les principales composantes (contexte, objectifs, intervenants et bénéficiaires principaux, structures organisationnelles et structure de gouvernance et ressources)?

 

Indique-t-il clairement ce que le programme compte réaliser et comment il prévoit le faire?

 

5.  Décrit-il clairement le contexte du programme?

 

6.  Explique-t-il la nécessité et la pertinence du programme?

 

7.  Décrit-il complètement, mais avec concision, le programme? (en général, de 5 à 7 pages)

 

8.  Utilise-t-il des termes neutres? (éviter les éloges)

 

9.  Indique-t-il la portée et l'ampleur du programme?

 

10.  Décrit-il comment les objectifs se rattachent aux résultats stratégiques de l'organisme qui ont été définis dans son Architecture des activités de programmes?

 

11.  Décrit-il clairement les rôles et responsabilités des principaux intervenants (y compris les partenaires de prestation)?

 

12.  Décrit-il la structure de gouvernance du point de vue de la responsabilisation?

 

 

4.2.3 Élaboration du modèle logique

 

Qu'est-ce qu'un modèle logique?

Un modèle logique est un diagramme qui illustre les liens de causalité entre les activités et les résultats. Il montre la relation de cause à effet entre les activités et les extrants jusqu'aux résultats finaux. Il s'agit d'exprimer d'une manière visuelle la justification, le processus de réflexion ou la théorie qui sous-tend une organisation, un programme ou une initiative. Ce modèle représente comment l'organisation ou l'initiative devrait mener aux résultats.

Le modèle logique peut être appliqué à une organisation, une politique, un programme ou une initiative. Il peut être utilisé à des fins de planification, de gestion de projet, d'évaluation et de communication.

Hexagon: Les modèles, logiques peuvent contribuer à préciser les objectifs et à cibler l'évaluation sur les résultats.

 

Composantes d'un modèle logique

Si l'apparence des modèles logiques peut varier considérablement, ils comptent habituellement trois composantes principales, à savoir les activités, les extrants et les résultats.

Composantes

Principal attribut

Description

Activités

Ce que nous faisons

Les principales actions du projet.

La description peut commencer par un verbe d'action (par exemple, mettre en marché, fournir, faciliter, livrer).

Extrants

Ce que nous produisons

Les extrants sont des produits ou services concrets qui proviennent des activités. Ils sont habituellement exprimés sous forme de substantifs et ne sont presque jamais qualifiés. Ils sont concrets et peuvent être comptés.

Résultats

Pourquoi nous le faisons

Les résultats désignent les changements ou les différences qui résultent des extrants du projet. Il convient de signaler qu'il peut exister jusqu'à trois niveaux de résultats (immédiats, intermédiaires et ultimes ou finaux). Les résultats sont habituellement qualifiés (par exemple, augmentés, diminués, améliorés, maintenus).

Résultats immédiats

Les changements qui résultent des extrants. Ces résultats sont le plus étroitement associés ou attribués au projet.

Résultats intermédiaires

Les changements qui découlent des résultats immédiats et qui entraîneront des résultats ultimes.

Résultats ultimes

Les changements qui découlent des résultats intermédiaires. En général, ces résultats sont réputés être un changement d'un « tableau général Â» de la situation. Ils peuvent ressembler aux objectifs stratégiques. Il faut lier les résultats finaux aux résultats stratégiques de l'organisme qui sont mentionnés dans la SRRG.

 

Certains modèles logiques comportent d'autres caractéristiques, dont celles qui suivent :

 

Un exemple : Projet relatif à des subventions à la recherche

 


 

Exemple : Modèle logique de la Commission nationale des libérations conditionnelles (CNLC) au chapitre du volet des services correctionnels pour les Autochtones, dans le cadre de l'initiative de l'approche correctionnelle judicieuse

Exemples de résultats à court terme

  • Les collectivités sont mieux informées au sujet de la CNLC et des libérations conditionnelles.
  • Les audiences des contrevenants sur le Territoire du Nunavut sont adaptées à la culture.

Exemples de résultats à long terme

  • Le processus décisionnel en matière de libération conditionnelle est conforme à la diversité de la population des contrevenants autochtones.
  • Lors des audiences, la CNLC dispose de meilleurs renseignements pour la prise de décisions, y compris de l'information sur les effets de leur historique.

 

Existe-t-il différents genres de modèle logique?

L'apparence des modèles logiques varie considérablement. Le cheminement peut se faire à l'horizontale ou à la verticale. Le genre de modèle logique retenu devrait convenir à l'organisme et à ses intervenants. Quel que soit le modèle choisi, il doit fournir suffisamment d'orientation et de précision pour la planification et l'évaluation. Des organigrammes ou des tableaux sont le plus souvent utilisés pour illustrer les modèles logiques.

Il convient de signaler que le modèle logique, quel que soit les genres décrits ci-dessous, aidera à cibler l'évaluation sur les résultats du programme.

 

TYPE 1 : Organigramme ou modèle logique classique

L'organigramme ou le modèle logique classique illustre la séquence des résultats qui découlent (ou proviennent) des activités et des extrants. Il s'agit d'un modèle logique très souple tant que les trois composantes centrales sont présentées, à savoir les activités, les extrants et les résultats. Vous pouvez avoir n'importe quel nombre de niveaux de résultats pour vous assurer que votre modèle logique représente la séquence des résultats, et ce, de manière satisfaisante.

Les liens de cause à effet peuvent être expliqués par des énoncés comme « si… alors Â». Par exemple, si l'activité est instaurée, alors les extrants seront produits. Si le résultat immédiat est atteint, alors il mènera vers le résultat intermédiaire, et ainsi de suite.


 




TYPE 2 : Modèle à enchaînement de résultats

Ce type de modèle est également désigné par l'expression « enchaînement du rendement Â». Semblable au modèle à organigramme, il n'isole toutefois pas les activités, les extrants ou les résultats précis. L'enchaînement de résultats ne donne donc pas les mêmes précisions concernant la séquence causale des extrants et des résultats.

Cependant, les deux types de modèles logiques servent de structure pour décrire les attentes d'un programme et de fondement aux rapports sur le rendement. À l'instar du modèle à organigramme, il s'appuie sur la justification ou la théorie du programme.

 


Source :   Six étapes faciles, Gestion axée sur les résultats, Guide à l'intention des gestionnaires , avril 2003, Division de l'évaluation, ministère des Affaires étrangères et du Commerce international.

Autres facteurs à considérer

 

Comment élaborer un modèle logique?

Le graphique qui suit présente un aperçu des trois étapes de l'élaboration d'un modèle logique.

Voir l'annexe E pour obtenir plus de précision sur l'élaboration des modèles logiques.

 

Votre organisme est-il prêt à élaborer un modèle logique?

  • Disposez-vous de suffisamment de temps et d'engagement pour élaborer le modèle logique à l'interne?
  • Sait-on comment élaborer un modèle logique?
  • Les habiletés en planification et en communication (qui sont essentielles à l'obtention d'un consensus et d'un engagement) sont-elles suffisantes?
  • L'organisme est-il assez objectif ou neutre?
  • Le programme fait-il intervenir uniquement votre organisme dans le gouvernement fédéral?

Si vous avez répondu «  oui  Â» à ces questions, vous êtes sans doute prêt à élaborer un modèle logique. Pour de plus amples précisions sur la manière de procéder, veuillez consulter l'annexe E.

Si vous avez répondu «  non  Â» à l'une des quatre premières questions, il pourrait être souhaitable de sous-traiter l'élaboration du modèle logique.

Si vous avez répondu «  non  Â» à la dernière question, l'initiative est réputée « horizontale Â». L'élaboration d'un modèle logique pour une initiative horizontale présente habituellement plus de défis parce que vous devez y faire participer de nombreux intervenants dont les points de vue et les opinions peuvent varier.  

Pour en savoir davantage sur les CGRR, veuillez consulter le document intitulé Élaboration et utilisation des cadres de gestion et de responsabilisation axés sur les résultats , avril 2004.

 

4.2.Élaboration du plan de surveillance de la gestion du rendement d'un CGRR

Bien que le guide porte sur l'évaluation, les CGRR qui y sont mentionnés exigent en outre un plan de surveillance. La présente stratégie pourrait créer en permanence un flux d'information en temps opportun, et ce, à l'appui du processus décisionnel. Il importe de signaler que certaines données exigées à des fins d'évaluation peuvent être recueillies continuellement dans le cadre du système de mesure du rendement.

Les indicateurs de la stratégie de mesure du rendement sont établis à partir des extrants et des résultats du modèle logique. Il faut indiquer la source de données, la méthode de collecte, l'échéancier et la fréquence de la collecte des données ainsi que la responsabilité en matière de mesure du rendement se rapportant à chacun des indicateurs.

4.2.5  Élaboration de la stratégie d'évaluation

 

La présente sous-section présente :

  • un aperçu et une description d'une stratégie d'évaluation au niveau du programme;
  • l'élaboration des enjeux et des questions de l'évaluation;
  • l'établissement des indicateurs;
  • un aperçu des conceptions d'évaluation;
  • un aperçu des méthodes de collecte des données.

 

Aperçu d'une stratégie d'évaluation

La stratégie d'évaluation comporte les éléments suivants :

La stratégie d'évaluation peut être présentée sous forme de tableau comme dans l'exemple qui suit.

Enjeu de l'évaluation

Question de l'évaluation

Indicateur

Source de données

Méthode de collecte des données

Échéancier

Succès

Dans quelle mesure l'initiative a-t-elle amélioré la capacité d'évaluation des employés?

Qualité des rapports d'évaluation

Experts en évaluation

Examen par les experts

Deuxième année

 
Énonciation efficiente et efficace de la stratégie pour combler les besoins de l'organisme

La stratégie d'évaluation devrait faire l'équilibre entre la nécessité d'obtenir des données en temps opportun et crédibles, d'une part, et le côté pratique, d'autre part. Établir de bons liens entre l'évaluation et la mesure du rendement permettra que l'information sur le rendement soit utilisée à titre de source d'information pour les évaluations. Pour leur part, les liens entre la planification et l'évaluation assureront le ciblage adéquat de la stratégie et son orientation vers les besoins en information.

Voici quelques points à prendre en considération lors de l'élaboration d'une stratégie d'évaluation.

 

Exemple de tableau d'évaluation :
Comité des griefs des Forces canadiennes (CGFC)

Enjeux et questions de l'évaluation

Indicateurs

Source de données et méthodologie

ENJEU 2.5 – Rentabilité

1. La qualité des conclusions et des recommandations du CGFC peut-elle être maintenue à un prix moindre et en moins de temps?

Réductions du coût moyen par grief depuis la création du CGFC

Niveau de satisfaction des principaux intervenants quant à la qualité des conclusions et des recommandations

Entrevues avec les gestionnaires opérationnels supérieurs du CGFC

Entrevues avec les principaux intervenants (SPC, DG de l'AGFC, SMA des RH militaires)

Système de gestion et de suivi des dossiers

 

 

Élaboration des enjeux et des questions de l'évaluation

Les enjeux de l'évaluation désignent les grands secteurs à examiner dans le cadre d'une évaluation, tandis que les questions de l'évaluation renvoient à des questions plus précises de recherche auxquelles il faut répondre pour être en mesure de traiter de chaque enjeu de l'évaluation.

La détermination des enjeux et des questions de l'évaluation sert à guider l'élaboration de la stratégie qui veillera à ce que tous les enjeux essentiels soient abordés lors de l'évaluation ultérieure. Les enjeux servent à établir une série d'indicateurs et de stratégies de collecte des données qui, une fois mis en œuvre, veilleront à ce que l'information nécessaire pour l'évaluation soit disponible au besoin. Ainsi, la stratégie d'évaluation doit être liée à la stratégie de mesure continue du rendement puisque certaines données d'évaluation seront recueillies par l'entremise des activités continues de mesure du rendement.

Pour savoir comment dresser une liste précise d'enjeux et de questions, veuillez consulter l'annexe E du présent guide. En ce qui a trait aux principaux secteurs visés par les enjeux de l'évaluation, reportez-vous au diagramme qui suit.

 

Questions relatives à l'examen des dépenses

Toutes les évaluations devraient comprendre les sept questions utilisées par le Comité d'examen des dépenses. Outre les trois enjeux traditionnels, les questions dans les secteurs suivants serviront à évaluer les dépenses de programmes :

  • intérêt public
  • rôle du gouvernement
  • fédéralisme
  • partenariat
  • rapport qualité/prix
  • efficacité
  • capacité financière.

Vous trouverez les critères précis à l'annexe D.

 

Établissement des indicateurs appropriés

 

Que sont les indicateurs de rendement?

Ce sont des mesures directes ou indirectes d'une activité ou d'une condition. Un indicateur est un outil de mesure qui montre le changement qui s'opère au fil du temps. Les indicateurs sont souvent quantitatifs (c'est-à-dire fondés sur des chiffres ou de l'information objective), mais peuvent aussi être qualitatifs (c'est-à-dire fondés sur de l'information descriptive ou subjective). Ils servent à comparer les résultats prévus aux résultats réels. Les indicateurs peuvent être envisagés sous différentes formes.

  • Indicateurs substitutifs. Des indicateurs substitutifs sont parfois utilisés pour fournir de l'information sur les résultats dans les cas où aucune information directe n'est disponible. Par exemple, le pourcentage d'affaires confirmées en appel pourrait être un indicateur substitutif de la qualité des décisions.
  • Indicateurs quantitatifs. Les indicateurs quantitatifs sont des mesures statistiques comme le nombre, la fréquence, le centile, les ratios et l'écart. Par exemple, le pourcentage d'utilisateurs de sites Web qui trouvent ce qu'ils cherchent.
  • Indicateurs qualitatifs. Les indicateurs qualitatifs sont des jugements et des mesures de perception de la conformité aux normes établies, de la présence ou de l'absence de conditions particulières, de l'étendue et de la qualité de la participation ou du niveau de satisfaction des bénéficiaires, etc. Par exemple, les opinions quant à la rapidité des services.
  • Indicateurs des extrants et des résultats. Les indicateurs des extrants mesurent les extrants (produits et services), tandis que les indicateurs des résultats mesurent les résultats ou les changements d'un programme.  

 

Le tableau qui suit donne un exemple de divers indicateurs. Veuillez vous reporter à l'annexe E pour savoir comment établir des indicateurs pour votre organisme.

Mesure

Types

Exemples d'indicateurs

Extrants

Quantité produite, offerte, servie

Nombre de clients servis par mois

(Si votre organisme produit des documents d'orientation ou des études de recherche, l'indicateur des extrants pourrait être le nombre de ces éléments ou leur qualité.)

Qualité du service

Respect des normes de prestation des services

Satisfaction des clients

Pourcentage des clients satisfaits du produit et de la prestation des services

Efficience

Coût moyen par unité livrée

Résultats

Immédiats

Nombre de personnes-semaines pour des projets de formation et de placement professionnel achevés

(Si votre extrant est la qualité des documents d'orientation, le résultat immédiat pourrait être « sensibilisation accrue à la politique Â» ou « meilleure intégration des principes stratégiques aux autres programmes et politiques pertinents Â».)

Intermédiaires

Nombre de placements professionnels réussis découlant de projets de formation et de placement professionnel

Ultimes

État de santé coté par les particuliers eux-mêmes en ce qui a trait au bien-être et aux habiletés fonctionnelles

Source : Adaptation de Auto-̩valuation par les Premi̬res Nations de leurs programmes communautaires РGuide d'̩valuation du rendement .

 

Aperçu des conceptions de l'évaluation

 La conception de l'évaluation est un processus de réflexion sur ce que vous voulez faire et comment vous voulez procéder pour le faire.

 

Hexagon: Une bonne conception de recherche : 1) améliore la fiabilité et l'uniformité de vos résultats; 2) élimine ou réduit les distorsions; 3) fournit les réponses dont vous avez besoin.


La manière la plus pratique pour établir la conception de l'évaluation est de prendre en compte vos besoins en information (c'est-à-dire les questions de l'évaluation) et de vous en servir comme guide. Les principaux éléments à prendre en considération sont la faisabilité et le caractère pratique .

Les conceptions de l'évaluation sont habituellement classées dans les trois catégories suivantes :

La conception implicite est la forme la plus utilisée de conception des évaluations. À la fonction publique, elle représente souvent la seule forme pouvant être utilisée lorsqu'aucune mesure antérieure au programme n'existe et qu'aucun groupe de contrôle évident n'est disponible, ou qu'il n'est pas raisonnable d'attribuer les interventions de manière aléatoire. Ce genre de conception est souple et sa mise en œuvre est pratique.  

Il convient cependant de signaler qu'il est passablement plus difficile d'attribuer les impacts à des interventions spécifiques lorsque nous passons des conceptions expérimentales (les meilleures au titre de l'attribution des impacts) aux conceptions implicites.

 

  Liste de contrôle pour la sélection d'une conception
de l'évaluation

Facteurs à prendre en considérations

Avez-vous songé aux éléments suivants…?


P

1.  Besoins en information et besoins décisionnels

 

2.  Type d'évaluation

 

3.  Caractère pratique et coûts

 

Bon équilibre entre les besoins en information et les coûts

 

5.  Tenir compte des préoccupations relatives à la recherche (c'est-à-dire liées à la qualité de la preuve à recueillir).

 

6.  Tenir compte du fait que d'autres facteurs internes et externes peuvent influer sur le programme. Comment la conception de l'évaluation peut-elle minimiser ces facteurs?

 

7.  Cibler les questions d'évaluation (c'est-à-dire celles qui tiennent compte des préoccupations d'évaluation les plus urgentes).

 

8.  Considérer les données existantes, les données secondaires et l'information sur la mesure du rendement à titre de sources d'information éventuelles pour l'évaluation.

 

9.  Avoir recours à des sources de données multiples pour assurer la fiabilité des constatations et des conclusions.

 

 
Aperçu des méthodes de collecte des données

 

Le tableau qui suit donne un aperçu des diverses méthodes de collecte des données que peuvent utiliser les évaluateurs. Il convient de signaler que ces méthodes visent des données soit primaires soit secondaires. L'enquêteur recueille directement les données primaires, tandis que les données secondaires sont recueillies et inscrites par une autre personne ou une autre organisation, parfois à des fins différentes.

Au moment de choisir les méthodes appropriées de collecte des données, vous pouvez tenir compte des éléments suivants :

Veuillez vous reporter à l'annexe E pour en savoir davantage sur le choix des méthodes appropriées de collecte des données.

 

Méthode de collecte de données

Quand l'utiliser

Systèmes et dossiers administratifs externes : utilisation des données recueillies par d'autres institutions ou organismes

Besoin d'information sur le contexte

Besoin d'information chronologique

Comparaison des données de programmes avec des données comparables

Données administratives internes : données recueillies à des fins de gestion

Besoin d'information sur les pratiques de gestion, la prestation des services, les caractéristiques des clients

Revue de littérature : examen des recherches et des évaluations antérieures sur un sujet donné

Pour trouver d'autres questions ou enjeux d'évaluation et des méthodologies

Besoin d'information sur le contexte conceptuel et empirique

Besoin d'information sur un enjeu spécifique

Besoin d'information sur des programmes comparables, des pratiques exemplaires

Entrevues : discussion couvrant un ensemble de sujets ou de questions spécifiques qui est menée pour recueillir de l'information ou des opinions d'un expert, d'un intervenant ou d'un client; elle peut être menée en personne ou au téléphone

Sujet complexe

Répondants importants et occupés

Sujet délicat (entrevues directes)

Approche souple et approfondie

Populations plus restreintes

Groupes de discussion : groupe de personnes réunies pour discuter d'une certaine question; les participants sont guidés par un animateur qui note les échanges et les résultats de la discussion.

Compréhension approfondie requise

Avis pondéré

Mise à l'essai d'idées, de produits ou de services

S'il y a un volume limité de points à aborder

Lorsque le dialogue des participants peut favoriser des réponses plus enrichissantes (les personnes envisagent leurs points de vue en tenant compte de ceux des autres).

Études de cas : façon de recueillir et d'organiser de l'information sur les personnes, les institutions, les activités et les croyances, au sujet d'une situation individuelle.

Besoin d'information détaillée sur un programme ou un projet

Pour étudier à fond les retombées d'un programme

Pour ajouter un caractère délicat au contexte où les interventions du programme se font

Pour déterminer les variables pertinentes qui entrent en jeu

Questionnaire ou sondage : liste de questions sur support papier ou électronique qui est conçue pour recueillir de l'information auprès de répondants et au sujet de leurs connaissances comme de leurs perceptions au sujet d'un programme (reportez-vous à l'annexe E.)

Utiles pour cibler de vastes publics

De l'information qualitative et quantitative peut en être tirée

Panels d'experts : avis réfléchi d'un groupe de personnes averties de l'extérieur

Pour que les experts partagent les leçons apprises et les pratiques exemplaires

Besoin de validation extérieure

Pour obtenir une variété d'opinions au sujet de questions complexes

Besoin de bénéficier d'expertise et de connaissances spécialisées

Études comparatives : gamme d'études comportant la collecte de données comparatives (p. ex., une étude de cohorte, une étude de cas témoin, une étude expérimentale)

Pour des évaluations sommatives

 

Profondeur par rapport à étendue

Certaines méthodes de collecte de données fournissent de l'information d'une plus grande profondeur , tandis que d'autres fournissent de l'information d'une plus grande étendue .

  • Profondeur – compréhension de l'impact du programme sur une personne ou une affaire particulière.
  • Étendue – compréhension de l'impact du programme sur un grand groupe de personnes, mais compréhension moins détaillée.

À titre d'exemple, les études de cas fournissent de l'information en profondeur tandis que les enquêtes fournissent de l'information plus étendue. Chaque type d'information est importante pour une évaluation selon les questions précises posées et l'intégration des diverses méthodes. De nombreux évaluateurs tentent de combiner des méthodes qui fournissent des constatations approfondies et étendues.

 

4.3 Collecte de l'information

4.3.1  Collecte des données

La collecte des données devrait suivre les plans qui ont été élaborés à l'étape précédente. Les employés à qui ont été confiées les diverses tâches de collecte de données doivent avoir reçu une formation approfondie sur les exigences et la procédure connexes.

Des procédures satisfaisantes de contrôle de la qualité doivent être instaurées et maintenues au cours de l'étude d'évaluation. Si vous gérez une évaluation, vous devez être au courant des progrès de la collecte des données et de toute autre préoccupation s'y rapportant.  

Pour faciliter l'analyse, l'information recueillie dans le cadre d'une évaluation doit :

4.3.2  Analyse des données

Les données recueillies doivent être analysées et interprétées. L'analyse peut prendre de nombreuses formes, depuis la description de base jusqu'à l'analyse statistique complexe selon le genre de données et la complexité des enjeux. Veuillez vous reporter à l'annexe E pour en savoir davantage sur la manière d'analyser les données.

Déductions de la cause et de l'effet

Les questions de l'évaluation et la conception de l'évaluation (c'est-à-dire expérimentale ou implicite) influent sur le choix des techniques d'analyse. À titre d'exemple, les conclusions tirées quant à la causalité dépendent de la conception de l'évaluation plutôt que de la technique d'analyse.  

Généralisation des constatations

Le seul moyen valide de généraliser les constatations pour une population entière ou une population cible (lorsqu'il est impossible de sonder ou d'étudier tous les membres) consiste à se servir des constatations provenant d'un échantillon aléatoire et statistiquement représentatif de la population à étudier. Il faut donc faire montre de prudence au moment d'analyser les données d'un échantillon qui n'est pas aléatoire.

Analyse qualitative et quantitative

L'analyse qualitative des données suppose des techniques efficaces de synthèse et d'interprétation. L'information qualitative peut notamment être utilisée pour fournir de l'information contextuelle, expliquer le fonctionnement d'un programme ou cerner les obstacles de la mise en œuvre. Les données qualitatives peuvent être analysées afin de déceler les tendances et les thèmes qui pourraient s'appliquer aux questions de l'évaluation. Le matériel qualitatif peut être présenté en catégories ou en tableaux, ce qui facilite le repérage des tendances, des écarts et des thèmes.  

L'analyse des données quantitatives attribue des valeurs numériques à l'information, qui passent des statistiques descriptives simples (par exemple, fréquence, portée, rang centile, moyenne) à l'analyse statistique plus compliquée (par exemple, test t, analyse des écarts). Des progiciels comme Statistical Package for Social Sciences (SPSS), Minitab et Mystat peuvent être utilisés pour les analyses plus compliquées. L'analyse des données quantitatives suppose elle aussi la maîtrise de techniques d'interprétation. Les constatations quantitatives devraient être prises en compte dans le contexte du programme.  


  Liste de contrôle de l'analyse des données

Facteurs à prendre en considération

P

1.  Comprendre le problème avant d'analyser les données (c'est-à-dire savoir ce qui est mesuré et pourquoi).

 

2.  Comprendre le programme et la manière dont les facteurs contextuels sont interdépendants.

 

3.  Savoir comment les données ont été recueillies et dans quelle mesure elles sont fiables.

 

Faire appel à votre bon sens. Vous demander si l'analyse et l'interprétation semblent satisfaisantes.

 

5.  Essayer de déceler les tendances, les associations et les liens de cause à effet.

 

6.  Recourir aux analyses statistiques, le cas échéant.

 

7.  Constatez-vous des écarts dans ces tendances? Des facteurs peuvent-ils expliquer ces écarts?

 

8.  Comparer les constatations aux résultats prévus (par exemple, les normes de l'industrie).

 

9.  Songer à renforcer vos analyses en combinant des données de l'évaluation aux données sur les risques qui ont été recueillies dans des analyses conjoncturelles périodiques.

 

10. Expliquer la logique de chaque méthode d'analyse (par exemple, préciser ce qui constitue une preuve raisonnable, cerner les hypothèses sous-jacentes).

 

11. Recourir, dans la mesure du possible, à plusieurs méthodes d'analyse.

 

12. Exécuter des épreuves de signification lorsque les constatations sont appliquées à l'ensemble de la population dont l'échantillon a été tiré*.

 

13. Faire preuve de prudence lorsque vous appliquez les résultats de l'évaluation à d'autres situations.

 

*  Lorsqu'il utilise des techniques avancées de collecte des données, l'évaluateur doit calculer la probabilité que les constatations ne soient pas « accidentelles Â». Les épreuves de signification lui permettent de déterminer quelle doit être la solidité des résultats pour qu'il soit raisonnablement certain que les résultats ne sont pas aléatoires.

 

4.4 Rédaction du rapport d'évaluation

 

Un bon rapport d'évaluation répond efficacement aux questions de l'évaluation. Les recommandations et enseignements doivent être concluants, concis et pratiques. Le sommaire devrait résumer le rapport dans son ensemble. Il représente souvent la section la plus lue du rapport et devrait donc contenir assez de détails pour que le lecteur ait une bonne idée des faits saillants de l'évaluation.

4.4.1  Table des matières

Le rapport d'évaluation contient habituellement les sections suivantes :

4.4.2  Établissement de liens entre les constatations, les conclusions et les recommandations

Il faut établir des liens clairs entre les constatations, l'analyse, les conclusions et les recommandations. Du point de vue pratique, les constatations peuvent ne pas répondre de manière concluante aux questions précises d'évaluation. Les conclusions regroupent les meilleurs éléments de preuve recueillis. La collecte de différents types d'éléments de preuve se rapportant à la même question d'évaluation peut accroître la crédibilité. Les recommandations devraient être liées à l'analyse et aux conclusions.


 

  Liste de contrôle pour la rédaction du rapport d'évaluation

Facteurs à prendre en considération

P

1.  Le public visé et les besoins en information ont-ils été cernés?

 

2.  Le rapport est-il clair et concis?

 

3.  Les motifs de l'exécution de l'évaluation sont-ils logiques et clairs?

 

Le rapport cerne-t-il les questions d'évaluation conformément à la politique d'évaluation (par exemple, pertinence, succès et rentabilité)?

 

5.  Le rapport présente-t-il d'abord les renseignements les plus importants? (Chaque chapitre, sous-section ou alinéa doit commencer par le point principal.)

 

6.  Le contexte est-il bien expliqué?

 

7.  L'approche générale utilisée, les principales sources de données et les méthodes de collecte des données sont-elles décrites?

 

8.  Le rapport explique-t-il clairement les limites de l'évaluation au niveau de sa portée, des méthodes et des conclusions?

 

9.  Les éléments de preuve étayent-ils les constatations, comme le décrit le rapport d'évaluation?

 

10.  Les constatations permettent-elles de bien comprendre les enseignements tirés de l'évaluation?

 

11.  Le rendement réel du programme ou du projet à l'étude est-il bien expliqué?

 

12.  La présentation des résultats facilite-t-elle la prise de décisions éclairées?

 

13.  Le rapport contient-il uniquement les informations nécessaires pour bien comprendre les résultats, les conclusions et les recommandations?

 

1Les conclusions répondent-elles aux questions de l'évaluation et sont-elles étayées par les constatations?

 

15.  Les recommandations sont-elles réalistes et faisables? Le nombre de recommandations est-il limité en fonction de leur importance et de leur valeur?

 

16.  Le rapport présente-t-il les conclusions et les recommandations de manière qu'elles découlent logiquement des résultats de l'évaluation?

 

17.  Le rapport est-il conforme aux exigences externes en matière de rapport?

 

18.  Le rapport évalue-t-il avec exactitude les résultats obtenus?

 

19.  Le rapport contient-il une analyse et une explication pertinentes des risques ayant trait à tout problème important qui a été cerné ainsi qu'aux recommandations clés?

 


Principaux ouvrages de référence

ACDI, Direction générale de l'examen du rendement, Guide de l'évaluation à l'ACDI , 2004.

Société canadienne de l'évaluation, Evaluation Methods Sourcebook , 1991.

National Science Foundation, A User-friendly Guide to Mixed Method Evaluations , 1997.

Projet de Forest Research Extension, Conducting Project and Project Evaluations:  A Primer for Natural Resource Project Managers in British Columbia , 2003.

Gray & Guppy, Successful Surveys: Research Methods and Practice , 2003.

McLaughlin et Jordan, Logic Models: A Tool for Telling Your Program's Performance Story , 1999.

Stufflebeam, D.L., A Checklist Organizer. Guidelines for Choosing and Applying Evaluation Checklists : http://www.wmich.edu/evalctr/checklists/checklistorganizer.htm .

Secrétariat du Conseil du Trésor du Canada, Politique d'évaluation et normes , 2001.

Secrétariat du Conseil du Trésor du Canada, Art et méthode de rédaction de rapports d'évaluation , 2004.

Secrétariat du Conseil du Trésor du Canada, Guide pour l'examen des rapports d'évaluation , janvier 2004. http://www.tbs-sct.gc.ca/cee/tools-outils/grer-gere-fra.asp .

Secrétariat du Conseil du Trésor du Canada, Principes pour l'évaluation des programmes par les ministères et organismes fédéraux , 1984.

Secrétariat du Conseil du Trésor du Canada, Élaboration et utilisation des cadres de gestion et de responsabilisation axés sur les résultats , avril 2004.

Secrétariat du Conseil du Trésor du Canada, Méthodes d'évaluation des programmes : Mesure et attribution des résultats des programmes.

Secrétariat du Conseil du Trésor du Canada, Outil d'apprentissage en ligne de la GAR .




_Hlt81014542

 

Cinquième section : Gestion des évaluations

 

La présente section contient des conseils sur les points suivants :

moment opportun pour utiliser les ressources externes;

préparatifs pour mener une évaluation (rôles et responsabilités et préparation du mandat);

prise de décision sur les options en matière de passation de marchés;

choix des experts-conseils;

pratiques exemplaires en matière de gestion des experts-conseils.


5.1 Moment opportun pour utiliser les ressources externes

 


La présente sous-section décrit les lignes directrices permettant de déterminer le moment opportun pour utiliser les ressources externes. Les deux questions fondamentales qui suivent doivent être posées afin de déterminer quand doit-on recourir à des ressources externes dans le cadre d'un projet d'évaluation :

a.  Trouve-t-on dans l'organisme des employés possédant les antécédents et les connaissances requis pour mener l'évaluation?

b.  Est-il nécessaire de recourir aux services d'un expert-conseil de l'extérieur pour assurer l'objectivité ou l'apparence d'objectivité?

Le premier facteur se rapporte à la disponibilité des ressources internes en évaluation. L'organisme qui ne possède pas l'expérience ou les connaissances précises requises pourrait vouloir sous-traiter le volet de l'évaluation en question. Il pourrait alors être utile d'établir le contrat de sorte qu'un certain degré de connaissances soit transféré à l'organisme. Par ailleurs, les ressources de l'organisme pourraient être insuffisantes pour la tenue d'activités telles que des sondages téléphoniques. Enfin, l'organisme pourrait tout simplement ne pas disposer des ressources internes qui lui permettraient d'exécuter le projet d'évaluation et devrait recourir à des ressources externes.

En ce qui a trait au second facteur, l'organisme se doit d'examiner l'utilisation et l'auditoire prévus du rapport ainsi que le risque associé au recours à des ressources internes par opposition aux ressources externes. La participation des employés à certaines tâches d'évaluation pourrait fausser les résultats (par exemple, groupes de discussion, administration d'une enquête sur la satisfaction des clients). Dans le cas de ces tâches particulières, l'organisme pourrait vouloir mettre à profit des ressources externes. Pour les programmes controversés à l'égard desquels le rapport servira d'outil de reddition de comptes au public, le recours à des ressources externes pourrait atténuer les risques.

  Liste de contrôle pour la prise de décisions au sujet du moment opportun pour recourir à des ressources externes

Facteurs à prendre en considération

P

1.  Les fonds réservés aux fins de l'évaluation sont-ils suffisants?

 

2.  Des travaux semblables ont-ils été menés à l'interne? (Par exemple, évaluations antérieures de programmes semblables)

 

3.  Dispose-t-on de suffisamment de temps et fait-on montre d'engagement pour effectuer le travail?

 

4.  L'information peut-elle être obtenue d'autres sources?

 

5.  Des mesures ou indicateurs de rendement sont-ils actuellement en place?

 

6.  Les pratiques et méthodes de collecte de l'information appliquées dans le cadre du programme sont-elles utiles aux fins de l'évaluation?

 

7.  Le degré d'objectivité est-il assez élevé pour permettre l'exécution des travaux d'évaluation à l'interne?

 

8.  Des membres de la direction ou du personnel possèdent-ils une formation et de l'expérience dans les tâches liées à l'évaluation?

 

Source :  Adaptation de Who Should Conduct Your Evaluation? http://www.bja.evaluationwebsite.org/guide/documents/chapter_3_housing.htm

 

Si vous avez répondu « oui Â» à la question 1 et « non Â» à toutes les autres questions, vous aurez alors vraisemblablement besoin d'aide de l'extérieur pour mener votre évaluation. Si vous avez répondu « non Â» à la question 1 et « oui Â» à la plupart des autres questions, il pourrait alors être valable de mener l'évaluation à l'interne.  

 


Avez-vous envisagé d'autres options?

Vous pourriez donner à contrat à des experts-conseils certains volets de l'évaluation ou de l'étude et exécuter quelques tâches d'évaluation à l'interne, ce qui permettrait à l'organisme de renforcer sa capacité interne. La direction et les employés pourraient participer à différentes activités d'évaluation, dont celles qui suivent.

  • Les gestionnaires, les employés, les principaux intervenants ou les organisations partenaires pourraient participer à l'examen des publications ou aux activités de recherche secondaire.  
  • Les gestionnaires, les employés (ou même des étudiants du deuxième cycle) pourraient effectuer un examen systématique des données connues.  
  • L'intégration éventuelle d'autres mesures de collecte des données aux mécanismes ou produits actuels de prestation des services.

— Adaptation de Program Evaluation Kit: First 5 LA.

 

5.2  Préparation de l'évaluation

La présente sous-section décrit deux étapes importantes pour la préparation d'une évaluation, c'est-à-dire :

5.2.1  Rôles et responsabilités

Coordonnateur du projet

Vous devez décider qui sera le coordonnateur du projet avant de commencer l'évaluation. Si ce dernier doit gérer le travail d'un expert-conseil de l'extérieur, il devra bien connaître le projet, comprendre les fondements de l'évaluation et posséder de bonnes techniques de gestion de projet.  

Comité consultatif

Vous pouvez également devoir former un comité consultatif, composé de représentants de l'organisme et d'autres intervenants, qui s'intéressent au projet ou à l'organisation soumise à l'examen. Il convient cependant de signaler que, dans le cas d'un petit organisme, la formation d'un comité consultatif chaque fois que le besoin se fait sentir peut mobiliser des ressources très importantes. Il faut donc peser avec beaucoup de soin la nécessité de former un tel comité. Le cas échéant, le petit organisme peut vouloir songer à confier une capacité de consultation aux équipes de travail existantes.

Conseils pour la formation d'un comité consultatif

  • Les rôles et responsabilités des membres du comité consultatif devraient être énoncés très clairement.
  • Il faut désigner une personne-ressource principale pour chaque comité.
  • Il faut décrire les méthodes et la fréquence des communications et permettre la tenue de réunions spéciales.
  • Il faut aborder la question du caractère formel de la préparation, de la diffusion et de l'approbation des documents du comité.
  • Il faut prévoir l'examen et la modification du mandat.

 

Comité directeur

Le comité directeur est habituellement composé de gestionnaires supérieurs et peut comprendre des représentants d'organismes centraux et, le cas échéant, des représentants régionaux. Si vous désirez attribuer des pouvoirs décisionnels au comité consultatif (c'est-à-dire le dernier mot sur les produits à livrer de l'évaluation), vous devriez alors songer à mettre en place un comité directeur.

Quand devriez-vous recourir à un comité consultatif?

  • Quand vous avez besoin de conseils techniques et que les constatations de l'évaluation doivent s'inscrire dans le contexte global de la politique et de l'environnement de l'organisme.

Quand devriez-vous recourir à un comité directeur?

  • Quand vous voulez permettre à la haute direction de démontrer son soutien au projet. Lorsque vous voulez attribuer au comité des pouvoirs décisionnels et que l'évaluation est très en vue, vous pouvez songer à former un comité directeur.

Beaucoup de petits organismes peuvent ne pas avoir besoin d'un comité consultatif ou directeur pour appuyer l'évaluation.  

Les comités consultatifs ou directeurs peuvent ne pas être nécessaires dans les cas suivants :

  • la haute direction a clairement précisé l'orientation dans le mandat de l'évaluation;
  • les gestionnaires connaissent clairement la politique de l'organisation, son contexte et les sources d'information pertinentes.

 

5.2.2 Préparation du mandat de l'évaluation

Le mandat donne un aperçu de l'évaluation et rend explicites les exigences et les attentes initiales de la direction en ce qui a trait à l'évaluation. Il est un outil utile pour la haute direction parce qu'il guide le processus jusqu'à ce que le plan de travail de l'évaluation devienne le document principal.

Le mandat sert de nombreuses fins :

Lorsque vous préparerez le mandat, vous pourriez tenir compte des éléments suivants :

Principaux éléments du mandat

Contexte du programme

Contexte et justification du programme

Identification des principaux intervenants, clients et partenaires

Description du programme

Motifs de l'évaluation

Énoncé de l'objet de l'étude

Valeur ajoutée prévue

Utilisation prévue des résultats

Portée et orientation

Grands enjeux à aborder; questions d'évaluation particulières

Genre d'analyse à utiliser; niveau de précision

Préciser l'auditoire des rapports et des constatations.

Principaux éléments du mandat (suite)

Énoncé des travaux

Comment les objectifs de l'étude seront réalisés

Décrire les approches

Décrire les méthodes de collecte des données

Les tâches à exécuter pour mener l'étude

Les groupes à consulter

Les attentes quant aux communications et aux rapports d'étape permanents

Équipe d'évaluation

Les titres professionnels, l'expertise et l'expérience requis

Les rôles et responsabilités de l'équipe d'évaluation, le rôle de l'organisme (gestionnaires du programme ou de l'évaluation)

Échéancier

L'échéancier approximatif pour guider la préparation du plan de travail

Budget

Précision des ressources estimatives à engager en vue de l'étude et de ses différents volets

Produits à livrer

Identification des principaux produits à livrer (par exemple, plan de travail ou rapport sur la méthodologie, version préliminaire du rapport d'évaluation, version finale du rapport d'évaluation)

 


Lignes directrices relatives à l'établissement du mandat

  • Indiquer clairement la portée de l'évaluation et vos attentes.
  • Décrire exactement la justification de l'évaluation du programme.
  • Inclure des questions d'évaluation particulières.
  • Identifier les tâches distinctes de projets gérables et les résultats attendus.
  • Ne pas présumer que les sources de données seront disponibles ou accessibles. Vous assurer que la méthodologie est faisable.
  • Indiquer clairement les habiletés, qualités et compétences particulières qui sont nécessaires pour mener l'étude.
  • Fixer des attentes pour les produits à livrer, l'échéancier et les coûts du travail.
  • Prévoir que la rédaction du mandat peut prendre beaucoup de temps (par exemple, de 2 à 5 jours).
  • Passer en revue d'autres mandats pour avoir des idées.

 

Le mandat sert de fondement à la prochaine étape du processus, à savoir le choix de l'évaluateur ou de l'équipe d'évaluation. Les évaluateurs sont choisis au moyen d'un procédé contractuel établi.  

La passation d'un marché externe pour le choix d'une équipe d'évaluation suppose les quatre étapes suivantes :

1.  détermination des options quant au choix des fournisseurs;

2.  établissement de la valeur optimale selon les candidats éventuels;

3.  information au candidat retenu (affichages sur le MERX pour le processus concurrentiel);

4.  négociation et conclusion du marché.

Les soumissionnaires ont souvent des questions à poser à propos du mandat. Vous devriez nommer une personne-ressource chargée de coordonner la réponse à ces questions. Vous devez également vous assurer de fournir la même information à tous les candidats et que vous ne dévoilez pas l'origine de la question. Pour ce faire, vous pourriez envoyer les réponses par télécopieur ou courriel à tous les soumissionnaires éventuels.

Lignes directrices relatives à la budgétisation

La budgétisation de l'évaluation devrait faire partie intégrante de la planification initiale. Il importe d'indiquer dans le mandat un montant ou une fourchette se rapportant au budget. Vous aurez ainsi la possibilité de juger des propositions qui présentent la meilleure valeur.

La budgétisation suppose la répartition de l'évaluation en composantes ou tâches ainsi que l'établissement de prévisions pour chaque composante. Vous pourriez envisager les coûts en fonction du personnel d'évaluation, des experts-conseils, des déplacements, des communications, de l'impression et de la photocopie, des fournitures et du matériel ainsi que de la traduction et de la révision.


Lignes directrices relatives à la budgétisation des évaluations

  • Le budget de l'évaluation représente habituellement de 1 et 3 % du budget total du programme.
  • Tenir compte des coûts des évaluations antérieures ou semblables.
  • Songer à un compromis entre la qualité et le budget de l'évaluation.
  • Se rappeler que la collecte des données accapare habituellement la moitié du budget, l'autre moitié étant consacrée à la conception de l'évaluation et aux rapports.

 

Optimisation des ressources pour l'évaluation

Les petits organismes peuvent augmenter leurs ressources restreintes en optimisant leurs besoins et leurs ressources. Toutes les stratégies ne s'appliquent pas forcément à votre organisme, mais les suggestions suivantes pourraient vous être utiles.

Préparation de l'énoncé des travaux

 L'énoncé des travaux représente le principal document entre le gestionnaire et l'expert-conseil. Ce dernier donne suite à ce document en élaborant un plan de travail qui décrit l'objet et les objectifs de l'étude, l'approche, les méthodes de collecte des données et les tâches. Si un CGRR ou un cadre d'évaluation doit être préparé, il peut servir de guide pour la préparation de l'énoncé des travaux. Vous vous souviendrez que le CGRR décrit les sources d'information et les méthodes de collecte des données pour chacune des questions de l'évaluation.

Une des principales décisions à prendre porte sur le niveau de précision que vous voulez indiquer dans la présente section. Vous pouvez choisir un énoncé des travaux moins détaillé et laisser au candidat le soin de proposer des approches et des méthodologies particulières. Il est cependant utile de préparer un énoncé des travaux détaillé puisque vous donnez ainsi une meilleure idée de vos attentes aux candidats. Il importe également de se rappeler que les candidats peuvent proposer d'apporter des changements à l'approche et aux méthodes. Il est utile de demander aux candidats de fournir un exposé sur les défis et solutions éventuels en matière de méthodologie, ce qui peut vous aider à évaluer l'expertise des candidats et contribuera à renforcer le plan de travail proposé.

 

5.3  Options en matière de passation de marchés

Si vous décidez de recourir à des ressources externes, vous devrez alors envisager les options en matière de passation de marchés. Vous pouvez consulter à ce sujet la Politique sur les marchés sur le site Web du SCT à l'adresse :
http://www.tbs-sct.gc.ca/pubs_pol/dcgpubs/Contracting/contracti n gpol_2_f.asp

Voici quelques-unes des options possibles :

Il faudrait remarquer que le Règlement sur les contrats du gouvernement contient uniquement quatre exceptions qui permettent à l'autorité contractante de mettre de côté l'exigence de soumissionner.

Nota : Vous pourriez choisir de retenir les services de Conseils et Vérification Canada (CVC). Dans le cas des organismes du gouvernement fédéral, un protocole d'entente plutôt qu'un marché est conclu. Les règles sur la passation des marchés du gouvernement fédéral ne s'appliquent pas lorsque cette option est retenue.

 

La demande de proposition comprend les éléments suivants :

  • Mandat
  • Énoncé des travaux
  • Dispositions du marché
  • Clauses types de contrat
  • Exigences en matière de présentation de la proposition
  • Processus de cotation et de sélection des propositions
  • Procédures et délais de présentation des soumissions
  • Coordonnées de la personne-ressource à qui poser les questions et demander des précisions.

 

5.4 Choix des experts-conseils

 

 

 

Lorsque vous examinez des propositions, posez-vous les questions suivantes :

L'évaluateur possède-t-il les connaissances, les compétences et l'expérience requises pour :

  • mettre en application de solides méthodes de recherche permettant de répondre aux questions choisies?
  • recueillir et analyser des données quantitatives et qualitatives fiables?
  • formuler des conclusions et des recommandations valides, crédibles et objectives?

 

Le mandat sert de fondement pour le choix de l'expert-conseil. Il est important d'élaborer les critères de sélection au cours des étapes de la planification (avant d'émettre la demande de proposition).

Exigences obligatoires et cotées

Les critères qui ont été retenus pour sélectionner la proposition devraient tenir compte des exigences du projet particulier. Habituellement, la demande de propositions contient une série d'exigences obligatoires et cotées. Seules les propositions respectant les exigences obligatoires qui ont été énoncées dans la demande de proposition seront étudiées. Les exigences obligatoires établissent les exigences minimales à respecter pour qu'une soumission puisse être étudiée. L'évaluation des exigences est simple : elles sont respectées ou elles ne le sont pas. Le libellé des exigences contient des termes clairs et forts comme « doit Â» et « devra Â». Lorsque vous utilisez des exigences obligatoires, vous devez indiquer clairement dans la demande de proposition que les soumissions qui ne respectent pas un des critères obligatoires seront réputées non conformes et rejetées.

Exigences obligatoires types

  • niveau minimal d'expérience dans le domaine de travail;
  • exigences en matière de documentation (p. ex., curriculum vitæ, renvois, exemples de travaux);
  • exigences linguistiques;
  • exigences en matière de sécurité;
  • budget (montant maximal);
  • certification (p. ex., attestation de l'exactitude de l'information fournie);
  • disponibilité (être disponible pour faire le travail au moment de l'adjudication du marché).

 

Les propositions respectant les exigences obligatoires peuvent être cotées en regard d'autres critères et être tenues d'atteindre une cote minimale au titre des exigences cotées pour que leur examen se poursuive (par exemple, au moins 70 points sur 100 pour passer à la prochaine étape du processus d'évaluation). Chaque critère doit être associé à des critères de cotation (qui servent de fondement à la cotation). Les entrepreneurs peuvent être priés de fournir des preuves de leur capacité de satisfaire à un critère donné (par exemple, curriculum vitæ).

Lorsque vous établissez les exigences cotées à inclure dans votre demande de proposition, vous pourriez tenir compte des facteurs les plus importants qui influeront sur la qualité du travail à exécuter (par exemple, expertise en la matière, expérience de la méthodologie, titres universitaires).

Les échelles de cotation quantitatives représentent un outil décisionnel utile. Toutefois, vous devez les établir avec beaucoup de soin et les pondérer afin de vous assurer de choisir le bon expert-conseil. La cote attribuée à chaque critère devrait tenir compte de son importance.

Exigences cotées types

Entreprise et ressources (par exemple, titres, connaissances, expérience, habiletés, compétences, références). Les exigences cotées peuvent être très spécifiques (par exemple, expérience de la tenue d'enquêtes).

Critères liés à la proposition (par exemple, compréhension du travail, approche, gestion).

Coût (par exemple, prix de la soumission).

 

Hexagon: Le saviez-vous? Les soumissionnaires peuvent également être appelés à donner un exposé oral après avoir présenté leur proposition.


5.4.1  Méthodes de sélection

Les méthodes qui suivent sont le plus souvent utilisées pour évaluer les proposition. La méthode retenue doit être expliquée dans la demande de proposition.

1.  La méthode de la proposition au plus bas prix. Elle peut être utilisée lorsque le coût constitue le facteur le plus important ou lorsque les exigences obligatoires représentent le principal outil d'évaluation des propositions et que les fournisseurs offrent des services uniformes.

2.  La méthode de la meilleure proposition technique. La proposition obtenant la cote la plus élevée tout en respectant le budget est retenue. Cette méthode peut être utilisée lorsque le mérite technique constitue le facteur le plus important. Un budget maximal est indiqué dans la demande de proposition. Les exigences cotées servent habituellement à évaluer les proposition.

3.  La méthode du meilleur rapport global qualité-prix ou des coûts par point . La proposition obtenant le meilleur rapport cote-prix est retenue. La méthode est utilisée lorsque le mérite technique et le prix représentent deux facteurs importants.

 


5.4.2 Critères à prendre en considération lors de l'examen des propositions

Lorsque vous examinez la proposition, vous devez vous poser la question suivante : L'évaluateur a-t-il montré qu'il avait la capacité de fournir les résultats et de respecter les attentes? D'autres critères sont énumérés dans la liste de contrôle qui suit.

  Liste de contrôle pour l'examen des propositions

Facteurs à prendre en considération

P

1.  Titres de compétences de l'équipe d'évaluation.

 

2.  Antécédents et expérience professionnels (p. ex., expérience de l'évaluation au gouvernement fédéral).

 

3.  Qualités personnelles : aptitude à communiquer, capacités de travailler en équipe, habiletés en leadership. Veuillez prendre note que les habiletés en leadership revêtent une importance particulière lorsque le nombre d'intervenants et de partenaires est élevé.

 

4.  Habileté en évaluation (p. ex., connaissance et application pratique des méthodologies d'évaluation).

 

5.  Expertise en la matière.

 

6.  Niveaux de rendement démontrés (vérification des références).

 

7.  Éviter les solutions toutes faites. L'approche proposée doit convenir aux besoins de votre organisme. Le soumissionnaire doit démontrer qu'il comprend les besoins de l'organisme et ses défis.

 

8.  Le soumissionnaire montre qu'il peut exécuter le projet dans le délai imparti.

 

9.  Solidité de la méthodologie et du plan de travail.

 

10.  Le soumissionnaire montre qu'il comprend les défis et les limites de la méthodologie.

 

11.  Équilibre entre les évaluateurs principaux et subalternes.

 

12.  Présence de personnel de relève compétent (d'une importance particulière lorsque les entreprises sont petites).

 

 

5.5  Pratiques exemplaires en matière de gestion des experts-conseils

Le succès d'un projet repose d'abord sur l'établissement d'attentes claires. La présente sous-section traite des pratiques exemplaires au chapitre de la portée du travail, de la gestion du projet et du suivi.  

La liste de contrôle qui suit donne un aperçu du processus de gestion depuis les étapes initiales jusqu'à la présentation du rapport sur les constatations.

  Liste de contrôle pour la collaboration avec
les experts-conseils

Facteurs à prendre en considération

P

1.  Organiser une réunion initiale avec l'expert-conseil et les membres du comité directeur ou du comité consultatif (le cas échéant).

 

2.  Examiner la portée, les objectifs, le plan de travail et les échéanciers.

 

3.  Examiner au besoin le mandat et l'énoncé des travaux avec toutes les parties.

 

4.  Établir un plan de communications avec l'expert-conseil et d'autres intervenants principaux pour la durée du projet (il s'agit d'un processus de rétroaction permettant de partager de l'information sur les rapports ou des données qui ont été soumises par les experts-conseils).

 

5.  Indiquer aux principaux intervenants la nature et l'objet du projet.

 

6.  Signaler dès le début à l'expert-conseil les questions confidentielles ou de nature délicate.

 

7.  Signer un contrat officiel auquel est joint le mandat révisé.

 

8.  Vous assurer que les données du programme et tous les autres renseignements nécessaires sont mis à la disposition de l'expert-conseil.

 

9.  Vous assurer que les fournisseurs comprennent qu'ils travaillent pour les responsables de la fonction d'évaluation et doivent leur remettre leurs rapports et qu'ils ne travaillent pas pour la direction du programme.

 

10.  Prévoir des rapports intérimaires pour surveiller les progrès.

 

11.  Rajuster au besoin le budget.

 

12.  Examiner les produits finaux pour vous assurer qu'ils sont conformes aux exigences et aux attentes convenues.

 

13.  Vous assurer de reconnaître l'apport de tous les collaborateurs et de les remercier.

 

14.  Débreffer l'expert-conseil et les intervenants et évaluer l'évaluation.

 

5.5.1  Définition de la portée du travail

La première réunion de planification ou la réunion initiale de démarrage est essentielle pour clarifier les attentes et le plan de travail de l'évaluation. Le gestionnaire de projet devrait également s'assurer que l'expert-conseil possède toute l'information dont il a besoin pour s'acquitter du projet, à savoir les documents pertinents et les coordonnées de la personne-ressource.  

Lors de la réunion de démarrage, vous devriez prendre les mesures suivantes :

 


5.5.2  Préparation du plan de travail

Le plan de travail de l'évaluation ou le rapport sur la méthodologie sera vraisemblablement le premier produit à livrer que fournira l'expert-conseil. Le plan de travail devrait décrire clairement ce que l'équipe d'évaluation doit faire, ainsi que où, quand, comment et pourquoi elle doit le faire. Le plan de travail approfondit la proposition et l'énoncé des travaux. Certains changements au premier projet de plan de travail peuvent être proposés compte tenu de la nouvelle information disponible ou d'autres éléments à prendre en considération.

Voici quelques éléments principaux du plan de travail :

5.5.3  Surveillance des opérations quotidiennes des experts-conseils

Les liens qui unissent l'expert-conseil et le gestionnaire de l'évaluation sont des liens de partenariat en ce sens que vous apportez l'expertise en la matière et qu'il apporte l'expertise en évaluation. Toutefois, le rôle principal du gestionnaire de l'évaluation est de veiller à ce que l'expert-conseil suive le plan de travail convenu et fournisse du travail de qualité satisfaisante. Le gestionnaire de l'évaluation doit traiter en outre des questions que l'expert-conseil peut soulever lorsqu'il prépare et met en œuvre le plan de travail. Bien qu'il n'existe pas de stratégie idéale pour gérer les experts-conseils, la liste de contrôle qui suit présente quelques facteurs utiles à prendre en considération.

  Liste de contrôle des pratiques exemplaires pour la gestion des experts-conseils en évaluation

Facteurs à prendre en considération

P

1.  Établir des délais réalistes de remise des produits à livrer.

 

2.  Prendre part activement au projet.

 

3.  Prévoir les pépins et élaborer des stratégies pour les régler.

 

4.  Garder ouvertes les voies de communication formelles et informelles. Vous devriez avoir une bonne idée du statut d'un projet à tout moment (p. ex., état de la collecte des données, état des constatations préliminaires).

 

5.  Établir des relations de travail positives.

 

6.  Outre les rencontres périodiques et les autres contacts, les rapports intérimaires représentent un moyen de veiller à ce que le projet suive son cours.

 

7.  Vérifier périodiquement l'état d'avancement des travaux.

 

8.  Accepter le fait qu'il n'est pas inhabituel que des problèmes ou des mésententes surgissent pendant un projet.

 

9.  Traiter rapidement des problèmes à mesure qu'ils se présentent.

 

10.  Discuter de tout écart par rapport au mandat.

 

11.  Remettre des commentaires opportuns et réfléchis sur tous les rapports (p. ex., rapports sur la méthodologie, rapports intérimaires, rapports finaux); poser des questions.

 

12.  Tenir les principaux intervenants au courant de l'évolution du projet.

 

13.  Vous assurer de disposer d'un délai suffisant pour examiner le rapport provisoire et le rapport final.

 

5.5.Gestion des suivis

Dans les trois à six mois qui suivront l'achèvement du rapport d'évaluation, il se peut que vous vous soyez fait une meilleure idée de l'utilité de l'évaluation. Vous pourriez envisager la possibilité de donner une rétroaction à l'évaluateur quant à l'utilité de l'évaluation. Cette information permet de renforcer la capacité de l'évaluateur et profite à l'organisme, car elle améliore le bassin de ressources disponibles.

Principaux ouvrages de référence

Société canadienne de l'évaluation, Evaluation Methods Sourcebook , 1991.

Secrétariat du Conseil de gestion financière, T.N.-O., Working Well With Consultants
http://www.gov.nt.ca/FMBS/documents/dox/Consultant%20Guide.pdf
.  

DRHC, Les outils de l'évaluation, Guide de passation de marchés pour les études d'évaluation de DRHC , 1999.

Secrétariat du Conseil du Trésor du Canada, Politiques sur l'adjudication des marchés du SCT , 2003.

FNUP, Bureau des services de contrôle interne et d'évaluation, Planification et gestion des évaluations
http://www.unfpa.org/monitoring/toolkit/tool5_4.doc
.  




 

Sixième section : Utilisation des évaluations

 

La présente section traite des éléments suivants :

  • élaboration d'une stratégie de communications;
  • lignes directrices rélatives à la communication efficace des résultats de l'évaluation;
  • mécanismes de communication des résultats;
  • communications avec les gestionnaires et les intervenants;
  • utilisation des constatations de l'évaluation – gestion d'un plan d'action.

La réussite d'une évaluation se mesure par son utilisation. Les communications constituent un outil essentiel qui peuvent influencer directement la mise en application des résultats produits par les évaluations. L'utilisation des enseignements tirés et des constatations provenant des recommandations de l'évaluation augmente en présence d'une stratégie de communication efficace et systématique.  

La présente section donne des précisions au sujet des stratégies de communication et d'utilisation des constatations provenant des évaluations. Par ailleurs, nous traiterons également des stratégies d'amélioration de l'utilisation des résultats.

6.1  Communication des constatations de l'évaluation

Une des premières mesures à prendre pour communiquer les constatations d'une évaluation est d'élaborer une stratégie de communications. Vous pourriez envisager les étapes suivantes au moment de l'élaborer.  

 


 

Lignes directrices relatives à la communication efficace des résultats des évaluations

1.  Communiquer les résultats aux principaux intervenants. Informer d'abord les principaux décideurs puis les autres intervenants.

2.  Présenter les constatations en personne aux intervenants.

3.  Fournir le rapport dans les deux langues officielles.

4.  Présenter l'information et les résultats en fonction des besoins en information et de manière à faciliter la prise de décisions.

5.  Faire participer les intervenants tout au long de l'évaluation – vous éviterez ainsi les surprises inutiles au moment de la communication de l'information.

6.  Communiquer l'information délicate avec soin.

 

Comment communiquer les constatations?

Songer à l'un ou à l'ensemble des points suivants :

  • rapport détaillé par écrit;
  • sommaire;
  • brochure sur les enseignements et les recommandations;
  • rapport annuel;
  • autres documents stratégiques (p. ex., rapports ministériels sur le rendement);
  • bulletin d'information de l'organisation;
  • réunion publique;
  • séminaires et ateliers sur les enseignements tirés;
  • courriel et Internet.

 

6.1.1  Communication avec les gestionnaires

Au moment de communiquer les résultats aux gestionnaires, il faut tenir compte de leurs besoins uniques en matière d'information et du processus décisionnel. Les communications peuvent porter sur les points suivants :

Les gestionnaires doivent avoir une bonne idée des points de vue et des opinions des différents groupes d'intervenants. Il importe donc de signaler les constatations en tenant compte des caractéristiques de ces différents groupes.

Il serait également souhaitable de recourir à un exposé pour communiquer les constatations préliminaires aux gestionnaires de programmes. L'exposé offre à l'évaluateur des renseignements supplémentaires qui lui permettent de mieux faire part des constatations. De plus, il aide à préparer la réponse de la direction à l'évaluation.

 

6.1.2  Communication avec les intervenants

Les groupes d'intervenants peuvent comprendre le grand public, les groupes d'intérêt, les partenaires, les tiers fournisseurs, d'autres ministères ou organismes fédéraux ainsi que des administrations provinciales ou municipales.

Les intervenants peuvent vouloir de l'information concernant l'incidence plus vaste du programme ou du projet (par exemple, sur la société) ou l'optimisation des ressources. Ils peuvent également vouloir comprendre le lien unissant le projet et les buts et activités globaux du gouvernement (par exemple, des dédoublements existent-ils?).

Les assemblées générales, les séminaires, les conférences, les sites Web et les rapports annuels sont autant de stratégies efficaces pour la diffusion à large échelle des résultats aux intervenants.

6.1.3  Communication avec les gestionnaires supérieurs [8]

En général, les gestionnaires supérieurs ont besoin d'information stratégique « de plus haut niveau Â». Ils doivent comprendre comment les constatations sont liées aux objectifs stratégiques. Les éventuelles préoccupations concernant les lois, règlements et politiques doivent leur être rapidement communiquées. Il pourrait également convenir d'accorder plus d'importance aux constatations liées aux valeurs et à l'éthique lorsqu'ils communiquent avec les membres de la haute direction.

Il ne faut pas oublier que les évaluations sont soumises ordinairement à l'approbation du comité d'évaluation.

6.2  Utilisation des constatations des évaluations

Vous vous souvenez du cycle d'évaluation et de gestion de programme présenté à la deuxième section? Il faut intégrer un système efficace de rétroaction au cycle de gestion du programme ou du projet. Les constatations de l'évaluation devraient servir idéalement à la prise de décisions éclairées. Ce n'est toutefois pas ce qui se produit dans la réalité. Pourquoi en est-il ainsi?

Il arrive parfois que l'absence d'utilisation de cet élément soit le fait d'une piètre diffusion des constatations de l'évaluation. D'autres fois, le rapport d'évaluation peut ne pas convenir aux besoins en matière d'information et de prise de décisions du gestionnaire.

Les stratégies efficaces d'utilisation des rapports d'évaluation commencent dès la planification. Une bonne conception de l'évaluation doit correspondre aux besoins en information. Il sera plus facile de communiquer et d'utiliser les résultats dans l'organisme si les décideurs jugent que les questions de l'évaluation sont pertinentes.

Plan d'action de la gestion

Une réponse efficace de la direction au rapport d'évaluation constitue également une étape critique pour s'assurer que l'évaluation est utilisée judicieusement. Le plan d'action devrait traiter convenablement des constatations et des recommandations du rapport. Il devrait indiquer les mesures requises, les échéanciers et les responsables des mesures. Le chef de l'évaluation peut jouer un rôle en matière de surveillance et de mise en œuvre du plan d'action.

  Liste de contrôle des stratégies pour assurer
l'utilisation des évaluations

Facteurs à prendre en considération

P

1.  Les recommandations devraient être claires, explicites et réalisables.

 

2.  Tenir compte du moment du dépôt du rapport. Le rapport d'évaluation devrait être terminé avant que d'importantes décisions ne soient prises ou que des activités de planification ne soient exécutées.

 

3.  Lier les constatations aux activités de planification. Les évaluations pertinentes peuvent être examinées avant que ne soient planifiés les nouveaux projets ou activités.

 

4.  La réponse ou le plan d'action de la direction traite convenablement des constatations et des recommandations.

 

5.  Le plan d'action décrit les mesures qui seront prises, le moment où elles seront prises et les responsables qui les prendront.

 

6.  Songer à déposer les plans d'action en même temps que les rapports d'évaluation ou peu de temps après.

 

7.  Songer à afficher les rapports d'évaluation sur le site Web de l'organisme.

 

8.  Ajouter les constatations aux rapports stratégiques (p. ex., les rapports annuels peuvent être une manière pratique de partager les résultats puisqu'ils contiennent de l'information importante se rapportant à des thèmes précis).

 

9.  Les constatations et les recommandations peuvent être résumées sous des catégories ou thèmes utiles.

 

10.  Prévoir des réunions ou des séminaires avec les divers intervenants pendant ou après les travaux d'évaluation pour en partager les résultats.

 

11.  Préparer des rapports thématiques fondés sur les évaluations et les examens.

 

12.  Les rapports du genre contiennent habituellement de l'information de haut niveau et, par conséquent, peuvent intéresser les décideurs.

 

13.  Préparer et publier des résumés des principaux examens et évaluations en vue d'une diffusion plus vaste.

 

14.  Avoir recours aux bases de données peut également faciliter l'échange d'information sur divers sujets.

 

15.  Songer à établir des liens avec la formation. Élaborer des manuels de formation, des outils, des listes de contrôle des enseignements tirés ou des pratiques exemplaires et les faire circuler auprès des intéressés.

 

16.  Repérer et diffuser les enseignements tirés des pratiques exemplaires et les appliquer aux activités permanentes de formation, de leadership et d'élaboration des politiques.

 

17.  Regrouper les pratiques exemplaires sur un site Web ou les publier dans un document.

 


Principaux ouvrages de référence

Annie E. Casey Foundation, Baltimore, Maryland, Getting Smart, Getting Real: Using Research and Evaluation Information to Improve Projects and Policies , septembre 1995. http://www.aecf.org/publications/data/getsmartgetreal.pdf

National Institute of Justice, Washington, D.C., Using Evaluation Findings for Decision Making , 1989. http://www.bja.evaluationwebsite.org/guide/documents/chapter_5_nij_guide.htm

National Institute of Law Enforcement and Criminal Justice, Washington, D.C., Achieving Utilization of Evaluation Findings , 1975. http://www.bja.evaluationwebsite.org

Secrétariat du Conseil du Trésor du Canada, Politique d'évaluation et normes, 2001.

ONU-HABITAT, Guide de surveillance et d'évaluation , 2003.

 



 

Annexe A – Types de petits organismes

Organisme de réglementation : organisme qui consent des approbations ou des permis et licences en appliquant des critères énoncés dans une loi ou un règlement.

Organisme judiciaire  : tribunal présidé par des juges nommés par le gouvernement fédéral. (Veuillez prendre note qu'en raison de la récente fusion de la Cour fédérale et la Cour de l'impôt afin de former les Services administratifs des tribunaux judiciaires, la Cour suprême demeure le seul organisme du genre.)

Tribunal quasi judiciaire : organisme chargé d'entendre la preuve sous serment et de prendre des décisions en se fondant sur cette preuve ainsi que sur les lois et précédents qui s'appliquent mais sans tenir compte de la politique gouvernementale.

Organisme d'enquête : organisme chargé d'enquêter sur une plainte ou une demande de renseignements et de présenter un rapport ou de formuler des recommandations sur ses constatations.

Organisme parlementaire (agent du Parlement) : organisme relevant directement du Parlement (c'est-à-dire le Commissariat à l'information, le Commissariat à la protection de la vie privée, le Commissariat aux langues officielles, le Bureau du vérificateur général et le Bureau du directeur général des élections).

Organisme d'élaboration de politiques et de consultation  : organisme chargé d'élaborer des politiques et de formuler des recommandations au gouvernement sur des questions dans le domaine de la santé, de l'économie ou de l'environnement, par exemple.

Autres : petits organismes qui ne satisfont pas aux critères des catégories susmentionnées.

 

Annexe B – Initiatives horizontales

Les initiatives horizontales désignent des efforts qui font intervenir des activités coordonnées de plusieurs ministères ou organismes fédéraux et qui ciblent des objectifs précis d'intérêt national. Elles doivent être dotées d'un CGRR et des plans et stratégies d'évaluation connexes à l'égard desquels tous les partenaires doivent communiquer de l'information et même parfois affecter des ressources.  

Les initiatives de ce genre peuvent fournir aux petits organismes la possibilité de partager de l'information ou de renforcer la capacité d'évaluation interne (par exemple, grâce aux études de cas ou aux étapes d'examen par les pairs prévues dans la conception de l'évaluation, grâce à l'information interne existante et en tirant profit de l'expertise en évaluation ou en consultation qui est fournie ou payée par d'autres partenaires). Les initiatives horizontales permettent également de grouper les organismes pertinents afin d'établir des indicateurs communs et de partager l'expérience acquise en matière de mesure et d'évaluation du rendement.  

Pour obtenir des conseils généraux sur la conception de cadres de gestion et de responsabilisation axés sur les résultats, veuillez consulter le site Web du SCT à l'adresse http://www.tbs-sct.gc.ca/cee/pubs/guide/sarmaf-ascgrr-eng.asp.

Parmi les types d'initiatives horizontales, il y a les suivants :


Vous trouverez ci-dessous quelques-uns des défis en matière d'évaluation des initiatives horizontales :
 

Annexe C – Obtention des conseils et du soutien externes

Il est important de disposer de conseils et de soutien satisfaisants lorsqu'il s'agit de renforcer la capacité d'évaluation. Vous pourriez envisager d'avoir recours aux sources de soutien qui suivent.

Soutien accordé aux petits organismes par le SCT et le CEE

Aux termes de la Politique d'évaluation du CT, le Secrétariat du Conseil du Trésor du Canada doit donner l'orientation générale de l'évaluation, utiliser les résultats de l'évaluation, le cas échéant, pour prendre des décisions au niveau central, établir des normes et surveiller les services d'évaluation au gouvernement.

Pour ce faire, SCT a mis sur pied le Centre d'excellence en évaluation (CEE) dont le mandat est le suivant :

Parmi les autres secteurs qui revêtent une importance particulière pour le SCT, il y a ceux chargés des fonctions de changement associées à la modernisation de la fonction de contrôleur, à la vérification interne, à la gestion axée sur les résultats, à la présentation de rapports horizontaux et à la présentation de rapports sur les dépenses. Pour de plus amples renseignements à ce sujet, veuillez consulter le site Web à l'adresse : http://www.tbs-sct.gc.ca/cee/about-apropos-fra.asp .

Société canadienne de l'évaluation (SCE)

Dans le domaine de l'évaluation, la SCE favorise le leadership, la connaissance, la promotion des intérêts et le perfectionnement professionnel. Elle donne accès sur son site Web à une collectivité d'évaluateurs, à des conférences annuelles, à la Série sur les compétences essentielles en évaluation et à des ressources réservées ( http://www.evaluationcanada.ca/ ). Par ailleurs, elle compte de nombreuses sections provinciales en plus de celle de la capitale nationale.

Le Réseau des administrateurs de petits organismes (RAPO)

La mission du RAPO consiste à fournir des occasions de partager de l'information et des pratiques, à discuter de sujets de préoccupation communs et à donner une seule tribune aux organismes centraux et aux organismes de services communs en ce qui concerne les questions touchant les petits organismes. Pour en savoir davantage à ce sujet, veuillez consulter le site Web à l'adresse : http://www.cso - cpo.gc.ca/RAPO-rapo/charter_f.html .


Annexe D – Les sept critères du Comité d'examen des dépenses

Les dépenses de programmes seront évaluées par rapport aux critères suivants :

1.  Critère de l'intérêt public Le secteur de programme ou l'activité continue-t-il de servir l'intérêt public?

  • Quels sont les objectifs d'intérêt public visés par l'initiative?
  • En quoi correspondent-ils aux priorités actuelles du gouvernement et au mandat de base de l'organisation?

2.  Critère du rôle du gouvernement Y a-t-il un rôle légitime et nécessaire pour le gouvernement dans le domaine du programme ou de l'activité ?

  • Gouvernance : qui sont les autres intervenants, y a-t-il chevauchement ou double emploi?

3.  Critère du fédéralisme Le rôle actuel du gouvernement est-il approprié ou faut-il songer à transférer le programme ou l'activité aux provinces ?

  • Quels effets l'initiative a-t-elle sur les autres ordres de gouvernement? Ces ordres de gouvernement pourraient-ils jouer un plus grand rôle?

4.  Critère du partenariat Quels programmes ou activités pourrait-on ou devrait-on transférer en tout ou en partie au secteur privé ou bénévole?

  • Quels sont les impacts des initiatives sur le secteur privé ou le secteur bénévole ou les autres intervenants? Pourrait-on élargir leur rôle?

5.  Critère du rapport qualité/prix Les Canadiennes et Canadiens obtiennent-ils toute la valeur de leurs impôts?

  • Résultats : Qu'est-ce qui indique que l'initiative atteint les objectifs stratégiques énoncés?
  • Le programme est-il axé sur les citoyens?

6.  Critère de l'efficacité – Si le programme ou l'activité continue, comment peut-on améliorer son efficacité?

  • Efficacité et efficience : Le programme exploite-t-il toutes les possibilités de réduire les coûts de prestation par un emploi judicieux de la technologie, des partenariats entre les secteurs public et privé, des mécanismes de prestation par l'entremise de tierces parties et des instruments sans coûts?

7.  Critère de la capacité financière – Peut-on se permettre financièrement l'ensemble des programmes et activités qui en résultera? Sinon, quels programmes ou activités devraient être abandonnés?

  • Relativité et rendement : Comment les coûts liés à l'exécution des programmes se comparent-ils à ceux d'activités semblables dans d'autres administrations et dans le secteur privé?
  • Viabilité et régie : Quelles mesures peut-on prendre pour gérer les pressions futures au chapitre des dépenses? Que peut-on faire de plus?
 

Annexe E – Renseignements sur la planification et l'exécution des évaluations

 


1.0  Élaboration du modèle logique

Le graphique qui suit présente un aperçu des trois étapes de l'élaboration du modèle logique.

Étape 1a :  Préparation de l'élaboration du modèle logique
Détermination de la capacité interne

 

Votre organisme est-il prêt à élaborer un modèle logique?

Posez-vous les questions suivantes :

  • Disposez-vous de suffisamment de temps et faites-vous preuve d'engagement pour élaborer le modèle logique à l'interne?
  • Sait-on comment élaborer un modèle logique?
  • Les habiletés en planification et en communication (qui sont essentielles à l'obtention d'un consensus et de l'engagement) sont-elles suffisantes?
  • Votre organisme est-il assez objectif et neutre?
  • Le programme fait-il intervenir uniquement mon organisme?

Si vous avez répondu « oui Â» à ces questions, vous êtes sans doute prêt à élaborer un modèle logique.

Si vous avez répondu « non Â» à l'une ou l'autre des quatre premières questions, il pourrait être souhaitable de donner à contrat l'élaboration du modèle logique.

Si vous avez répondu « non Â» à la dernière question, l'initiative est réputée « horizontale Â». Habituellement, l'élaboration d'un modèle logique visant une initiative horizontale présente plus de défis parce que vous devez faire participer de nombreux intervenants dont les points de vue et les opinions peuvent varier.  

Pour en savoir davantage sur les CGRR, veuillez consulter le document intitulé, Élaboration et utilisation des cadres de gestion et de responsabilisation axés sur les résultats (avril 2004).

 

Étape 1b :  Préparation de l'élaboration du modèle logique
Collecte des renseignements pertinents

 

Quelles sont les principales sources d'information pour élaborer un modèle logique?

Examen des documents suivants :

  • lois, règlements et politiques appropriés;
  • rapports sur le rendement, plans d'entreprise et autres documents stratégiques;
  • rapports de surveillance, de vérification et d'évaluation;
  • descriptions narratives ou documents de survol;
  • documents ou renseignements tirés de projets semblables.

Consultation des personnes suivantes :

  • la haute direction;
  • les membres du conseil d'administration;
  • le personnel chargé des programmes ou des politiques;
  • les intervenants.

Questions-clés :

  • Quelle est la justification du programme?
  • Quels sont les principaux résultats attendus du programme?
  • Comment le programme devrait-il être exécuté afin de produire ces résultats?
  • Qui sont les clients? Quels sont les autres intervenants?
  • Quelles activités doivent être instaurées afin de produire ces résultats? (Cette question s'applique lors de l'élaboration d'un modèle logique visant une initiative prévue.)

 

Il convient de signaler que l'importance des consultations avec les groupes susmentionnés est fonction de vos besoins en information et de vos contraintes en matière de ressources. Vous devriez cependant noter que les points de vue de nombreux intervenants vous permettent de mieux comprendre le programme.

Étape 2 :  Élaboration du modèle logique

Il existe différentes stratégies d'élaboration d'un modèle logique, dont les deux options suivantes :

La première option présente un avantage clé, à savoir qu'elle assure parfois un déroulement plus efficace de la séance parce que les éléments centraux du modèle logique sont élaborés au préalable. Si vous avez peu de temps pour mener une séance de travail, vous devriez songer à élaborer une ébauche du modèle logique avant celle-ci.

La seconde option présente également des avantages en ce sens que l'élaboration du modèle logique est faite par les intervenants. Elle permet de renforcer non seulement la capacité interne relative à l'élaboration du modèle logique et aux processus collectifs mais aussi de mieux faire comprendre l'initiative. Enfin, cette approche pourrait également renforcer l'engagement des intervenants à l'égard du processus.

Lorsque vous prenez une décision, vous devriez tenir compte des préférences des intervenants et des facilitateurs ainsi que de l'échéancier.

 

Par quoi devriez-vous commencer? Les résultats ou les activités?

Bien qu'il n'existe pas de manière idéale pour élaborer un modèle logique, certains experts recommandent de choisir d'abord les principales activités s'il s'agit d'un programme ou d'une politique qui existe déjà. Commencez par cerner les résultats clés s'il s'agit d'une initiative prévue. N'oubliez pas que vous pouvez commencer où bon vous semble.  

Dans le cas d'un programme existant, vous pourriez commencer par poser les questions suivantes : Que faisons-nous? puis demandez vous Pourquoi le faisons-nous? Par exemple, pourquoi tentons-nous d'améliorer les compétences? Le prochain énoncé des résultats devrait répondre à cette question (par exemple, pour que les employés puissent travailler d'une manière plus efficiente).

Lorsque vous planifiez un programme, vous pouvez commencer à élaborer le modèle logique à partir des résultats. Lorsque vous aurez cerné le résultat approprié, vous pouvez vous demander « Comment pouvons-nous atteindre ce résultat ultime? Â» L'énoncé des résultats qui précède (c'est-à-dire le résultat intermédiaire) devrait répondre à cette question.

 

 


Lignes directrices relatives à l'élaboration de modèles logiques

  • Le modèle logique parfait n'existe tout simplement pas. Il devrait présenter un aperçu raisonnablement exact du programme.
  • Faire en sorte que le modèle logique demeure ciblé.
  • Obtenir de la rétroaction de divers intervenants clés, y compris le personnel chargé des programmes et des politiques.
  • Les composantes et liens du modèle logique doivent avoir du sens. Pouvez-vous déceler les écarts de logique?
  • Établir un lien entre les résultats finaux et les résultats stratégiques de l'organisme qui sont précisés dans l'Architecture des activités de programmes.
  • Veiller à ce que le modèle logique fasse la preuve de la relation de cause à effet entre les activités et les extrants jusqu'aux résultats.
  • Commencer les énoncés d'activité par un verbe d'action.
  • Utiliser un nombre minimal d'activités. Certaines activités peuvent être groupées à d'autres.
  • Exclure les activités administratives qui n'ont pas directement trait à l'exécution de votre mandat (par exemple, RH, TI, Finances, Services ministériels).
  • « Si vous le contrôlez, il s'agit d'une activité ou d'un extrant; si vous ne pouvez que l'influencer, il s'agit d'un résultat. Â»
  • Remettre en question les activités qui n'ont pas d'extrants ou de résultats.
  • Les résultats sont modifiés (par exemple, ils augmentent, diminuent, s'améliorent, se maintiennent).
  • Certains programmes peuvent compter plus d'un circuit de résultats.
  • Le modèle s'inspire-t-il du plan d'entreprise ou des objectifs stratégiques du ministère ou de l'organisme ou se situe-t-il par rapport à ceux-ci?
  • Les résultats répondent aux questions Qui, Quoi, Quand (par exemple, Quel changement? Dans quel secteur? D'ici quand?).
  • Les résultats montrent que vous innovez.
  • Les résultats immédiats, intermédiaires et ultimes sont présentés à titre de séquence des résultats, mais ne sont pas nécessairement liés à des délais particuliers.
  • Vous pouvez ajouter les liens lorsque les cases des composantes seront remplies. (Uniquement dans le cas d'un modèle à organigramme.)
  • Vous pouvez recourir à des autocollants pour noter les activités, les extrants et les résultats, ce qui vous permet de déplacer les composantes.
  • Se rappeler que, lorsque vous passez des résultats immédiats aux résultats finaux, les niveaux de contrôle diminuent en fonction de la reddition de comptes partagée, tandis que la difficulté à évaluer la contribution augmente (par exemple, la mesure dans laquelle le programme produit les résultats escomptés).

 

Étape 3 :  Validation du modèle logique

Consultez les groupes de travail et les intervenants. Il est souvent utile d'obtenir les commentaires de personnes qui connaissent bien le programme, mais qui n'ont pas pris part à la séance de travail, afin de s'assurer que tous les éléments nécessaires sont représentés dans le modèle.

Faites connaître le modèle logique. Le groupe de travail ou l'employé peut faire connaître le modèle de manière informelle en s'y référant lors de ses conversations avec les employés et les intervenants. La direction et les équipes de programmes peuvent se servir du modèle à titre de référence uniforme pour tous les volets du cycle de gestion : la planification, la surveillance et les rapports. Une plus grande connaissance du modèle se traduira par des commentaires et des opinions sur la manière de l'améliorer.

Le modèle ne pourra jamais être parfait. Servez-vous des commentaires obtenus lors des consultations et ceux qui ont été faits lorsque la direction l'a utilisé pour le mettre à jour . N'oubliez pas que la logique sous-jacente est appelée à changer au fur et à mesure de l'évolution du contexte du programme.

Principaux ouvrages de référence

Outil d'apprentissage en ligne de la GAR du Secrétariat du Conseil du Trésor du Canada .

2.0  Formulation des questions de l'évaluation

 


 


Lignes directrices relatives à la formulation des questions de l'évaluation

Commencer par les grandes questions.

  • Prendre en compte les questions d'évaluation standard associées à chacun des points conformément à la Politique d'évaluation du CT :
    • Pertinence – Le programme continue-t-il d'être compatible avec les priorités de l'organisme et de l'ensemble du gouvernement et de répondre véritablement à un besoin réel?
    • Succès – Est-ce que le programme atteint ses objectifs sans dépassement de budget et sans effets indésirables?
    • Rentabilité – Utilise-t-on les moyens les mieux appropriés et les plus efficaces pour atteindre les objectifs ou y aurait-il lieu d'envisager d'autres modes de conception et d'exécution?
  • Prendre en compte les questions du Comité de l'examen des dépenses – Reportez-vous à l'annexe D.

Adapter les questions à votre programme

  • Utiliser le modèle logique à titre de guide. Examiner vos extrants pour vous aider à formuler les questions sur l'efficience et la prestation des services. Examiner les résultats pour vous aider à formuler les questions sur l'efficacité.
  • Consulter les intervenants – clés pour préciser les principaux champs d'intérêts de l'évaluation.
  • Tenir compte de l'auditoire du rapport et des mesures qui pourraient se fonder sur ce dernier.

Établir l'ordre de priorité

  • Tenir compte des besoins en matière de reddition de comptes et d'information.
  • Tenir compte des rapports antérieurs d'évaluation, de vérification et de surveillance.
  • Tenir compte des risques.
  • Tenir compte des coûts et des avantages liés au règlement de chacune des questions.
  • Établir la distinction entre « ce qu'il est bon de savoir Â» et « ce qu'il est essentiel de savoir Â».

 

3.0  Détermination des indicateurs de rendement appropriés

Première étape :  Examen du modèle logique

Examiner chaque rangée du modèle logique (à l'exception de la rangée des activités) et déterminer quel élément d'information spécifique ou quelle donnée particulière serait nécessaire pour évaluer si l'extrant a bien été produit ou si le résultat a bien été atteint. La séance de travail est l'endroit idéal où tenir le remue-méninges sur les indicateurs.

Deuxième étape : Établissement de l'ordre de priorité

Pour chacune des composantes, déterminer les éléments qu'il faut connaître et ceux qu'il serait bon de connaître.

Après avoir déterminé un ensemble complet d'indicateurs de rendement et les stratégies de mesure connexes, il faut cerner un sous-groupe des indicateurs les plus appropriés. Comparer les premiers indicateurs de la liste avec les critères de sélection décrits.

Hexagon: Trois indicateurs qui constituent de solides mesures des conséquences valent mieux que dix indicateurs qui ne mesurent rien de pertinent. — Bureau du vérificateur général du Canada

 

Troisième étape : Comparaison avec les critères

 

Quels sont les critères de sélection des indicateurs?

  • Pertinence : L'indicateur est-il valable? Est-il directement lié à l'extrant ou au résultat en question?
  • Fiabilité : S'agit-il d'une mesure cohérente au fil des ans?
  • Validité : Mesure-t-il le résultat?
  • Caractère pratique : Est-il facile à recueillir et à analyser? Son coût est-il abordable?
  • Comparabilité : Est-il semblable à ce que d'autres organisations ou secteurs de votre organisation mesurent déjà?
  • Utilité : Est-il utile? Sera-t-il utile pour la prise de décisions?

Conseils pratiques

  • Commencer par élaborer un nombre restreints d'indicateurs. (Au fil des ans, vous pourrez ajouter des indicateurs, au besoin.)
  • Limiter le plus possible le nombre d'indicateurs.
  • Il est bon d'avoir un petit nombre d'indicateurs, mais il faut se rappeler qu'ils sont limités.
  • Essayer de garder une série centrale d'indicateurs qui peuvent être conservés au fil des ans, ce qui vous permet de comparer le rendement passé et présent.
  • Songer à des indicateurs substitutifs qui servent parfois à fournir de l'information sur les résultats lorsque des renseignements directs ne sont pas disponibles. À titre d'exemple, le pourcentage d'affaires confirmées en appel pourrait servir d'indicateur substitutif pour la qualité des décisions.

4.0  Choix de la conception appropriée de l'évaluation

La conception de l'évaluation désigne le processus de réflexion sur ce que vous désirez faire et comment vous entendez le faire.


Lignes directrices relatives à la sélection des conceptions appropriées de l'évaluation

Posez-vous les questions suivantes :

  • Quels sont les besoins en matière d'information et de processus décisionnel de l'organisme à l'égard de l'évaluation?
  • Quel type d'évaluation conviendrait le mieux compte tenu du cycle de vie du programme?
  • Quels points devraient être pris en considération en ce qui a trait au caractère pratique et aux coûts?
  • Quel serait l'équilibre souhaitable à atteindre entre les besoins en information et les coûts?
  • Quelles préoccupations le programme à évaluer suscite-t-il (par exemple, en ce qui a trait à la qualité de la preuve à recueillir)?
  • Quels autres facteurs internes et externes peuvent avoir des impacts sur le programme? Dans quelle mesure la conception de l'évaluation peut-elle minimiser ces facteurs?
  • Comment la conception de l'évaluation peut-elle cibler les questions de l'évaluation sur les préoccupations les plus urgentes?
  • Quelles sont les sources d'information de l'évaluation? Tenir compte des données existantes, des données secondaires et de l'information sur la mesure du rendement à titre de sources éventuelles d'information pour l'évaluation.
  • Existe-t-il des sources de données multiples? (Le degré de fiabilité des constatations augmente s'il existe plus d'une source de données.)
  • Dans quelle mesure une conception rigoureuse s'impose-t-elle pour que les constatations et les conclusions soient acceptées et que les recommandations soient mises en œuvre?

 

Considération des menaces à la validité lors du choix de la conception de l'évaluation

Au moment d'élaborer la conception de l'évaluation, vous devez vous demander si d'autres facteurs influent sur les résultats du programme. Il est particulièrement important de tenir compte de ces facteurs ou des menaces à la validité lorsque vous tentez de déterminer les effets ou l'efficacité. Ces facteurs peuvent découler de changements réels de l'environnement ou de changement des participants au programme.

Aperçu des conceptions de l'évaluation

 

Premier type : Conception implicite ou non expérimentale

Dans ce type de conception, les « changements Â» des participants au programme sont mesurés. Il n'existe aucun groupe de comparaison de non-participants de la conception. Si ce type de conception est utilisé, il est difficile de savoir dans quelle mesure les résultats peuvent être attribués au programme. Toutefois, cette conception permet d'obtenir de l'information sur la prestation des services, la portée de l'intervention et les progrès réalisés en vue d'atteindre des objectifs.  

La conception post-essai et la conception pré-essai et post-essai sont deux types communs de conception non expérimentale.

Conception post-essai de groupe unique

Dans ce type de conception, les bénéficiaires ou clients d'une intervention sont mesurés après l'intervention. À titre d'exemple, on peut simplement demander aux participants quels ont été les effets de l'intervention.  

Conception pré-essai et post-essai de groupe unique

Cette conception recourt aux mesures avant et après l'intervention pour un groupe unique. À titre d'exemple, lorsque l'impact d'un programme de formation est mesuré, un test de connaissances peut être administré avant et après le programme afin d'évaluer l'incidence de la formation.

Cette conception peut être utilisée :

  • pour donner suite à certains genres de demandes de renseignements (par exemple, des questions concernant des dossiers de gestion qui se rapportent à la mise en œuvre du programme ou la question de savoir si le risque est géré ou quelles sont les stratégies à adopter en vue des améliorations);
  • lorsqu'aucune mesure préalable au programme n'existe;
  • lorsqu'aucun aucun groupe de contrôle ou de comparaison manifeste n'est disponible;
  • lorsque le caractère pratique et les coûts sont d'importants éléments à prendre en considération.

Ce type de conception peut être amélioré :

  • en recourant à des méthodes variées de collecte de données quantitatives et qualitatives et de sources d'information;
  • en veillant à la collecte de données de « grande qualité Â».

 

Deuxième type : Conception quasi expérimentale

L'attribution aléatoire de sujets aux groupes d'intervention (de traitement) et aux groupes de non-intervention (de contrôle) constitue la principale distinction entre les conceptions expérimentales et les conceptions non expérimentales ou quasi expérimentales. Les conceptions quasi expérimentales font intervenir des groupes de comparaison qui ne sont pas choisis au hasard ni attribués au hasard à l'intervention. Les efforts sont habituellement déployés pour apparier le plus étroitement possible les groupes de comparaison et les groupes de « traitement Â» en fonction d'une série de caractéristiques établies d'avance.

Les conceptions quasi expérimentales supposent des techniques d'analyse beaucoup plus compliquées que celles des conceptions expérimentales. Des statistiques de haut niveau (par exemple, des modèles économétriques) doivent être utilisées pour composer avec les différences entre les groupes et isoler l'effet du programme.

 

Troisième type : Conception expérimentale

L'attribution aléatoire de sujets aux groupes d'intervention (par exemple, groupe de traitement) et de contrôle vise à ce que les sujets du groupe soient égaux avant que l'intervention ne soit présentée. Bien que les conceptions expérimentales soient réputées idéales pour mesurer l'effet, elles sont rarement pratiques.  

 

Tant les conceptions quasi expérimentales que les conceptions expérimentales font intervenir un genre quelconque de pré-essai qui est suivi d'un post-essai. Les deux genres de conceptions conviennent à l'éxécution d'évaluations sommatives, mais il faut également tenir compte du caractère pratique et des coûts.

Principaux ouvrages de référence

Secrétariat du Conseil du Trésor du Canada, Méthodes d'évaluation des programmes : Mesure et attribution des résultats des programmes , 1998.
http://www.tbs-sct.gc.ca/cee/pubs/meth/pem-mep00-fra.asp

 

5.0  Choix des méthodes appropriées de collecte des données

Pour choisir une méthode appropriée de collecte des données, vous pourriez tenir compte des éléments suivants :

Pour plus de précisions à ce sujet, veuillez vous reporter aux deux tableaux suivants qui établissent une comparaison entre les méthodes quantitatives et qualitatives et décrivent également les méthodes précises de collecte des données qui peuvent être utilisées pour les évaluations.

Comparaison entre les méthodes quantitatives et qualitatives

 

Méthodes quantitatives

Méthodes qualitatives

Utilisation

Mesurer numériquement « qui, quoi, quand, où, combien, quantité, fréquence Â».

Lorsqu'il faut généraliser les constatations.

Analyser qualitativement « comment et pourquoi Â».

Clarifier les enjeux et trouver de nouveaux enjeux.

Lorsque vous devez mieux comprendre le contexte.

Méthode de collecte des données

Entrevues normalisées, enquêtes à l'aide de questions fermées, observation avec guides codés.

Données administratives.

Entrevues en profondeur et semi-dirigées, enquêtes à l'aide de questions ouvertes, observation, interprétation de documents, études de cas et groupes de discussion.

Points forts

Fournissent des données objectives précises qui prouvent que certains problèmes existent.

Peuvent tester les relations statistiques qui existent entre un problème et des causes apparentes.

Peuvent donner un aperçu général de l'ensemble d'une population.

Permettent d'établir des comparaisons.

Offrent des renseignements de base pouvant servir à évaluer les effets.

Aident lors de la planification d'une initiative portant sur le changement social.

Dans le cas des évaluations formatives, les enquêteurs peuvent devoir connaître plus particulièrement les attitudes des participants concernant un programme, leurs idées sur les points à améliorer ou leurs explications sur leur rendement particulier.

Fournissent une compréhension complète du contexte, ce qui aide à interpréter les données quantitatives.

Donnent des aperçus des attitudes et du comportement d'un petit échantillon de population.

Offrent les renseignements de base pouvant servir à évaluer les résultats qualitatifs.

Sont utiles pour obtenir des réactions des intervenants.

Points faibles

Peuvent être précises sans mesurer ce qui est voulu.

Ne peuvent expliquer les causes sous-jacentes des situations (par exemple, elles peuvent vous dire que le programme n'a aucun effet sans être en mesure de vous expliquer pourquoi).

L'information risque de ne pas être représentative.

Présentent des dangers plus élevés de partialité de la part des interviewers, des observateurs et des informateurs.

La collecte et l'analyse des données prennent beaucoup de temps.

Source : Adaptation du Coffre à outils de surveillance et d'évaluation du gestionnaire de programme, numéro 5, partie III : Planifier et gérer l'évaluation – le processus de collecte des données , mai 2001 ( www.unfpa.org , Fonds des Nations Unies pour la population, Bureau de surveillance et d'évaluation ).

Aperçu des méthodes de collecte des données

Méthode de collecte des données

Quand l'utiliser

Points forts

Inconvénients

Systèmes et dossiers administratifs externes  :

Utilisation des données recueillies par d'autres institutions ou organismes (p. ex., Statistique Canada).

Besoin d'information sur le contexte.

Besoin d'information chronologique.  

Pour comparer les données du programme et de l'initiative à des données comparables.

Elle est efficiente et évite les répétitions.

L'information est-elle précise, pratique et disponible?  

Comparons-nous des pommes et des pommes?  

Données administratives internes : Données sur le programme recueillies à l'interne à des fins de gestion.

Besoin d'information sur les pratiques de gestion, la prestation des services.

Elle est efficiente et peut fournir de l'information sur les activités et extrants de la direction.

Elle peut être conçue de manière à recueillir l'information sur le rendement du programme.

L'information est-elle précise et complète?

Revue de la littérature : Examen des recherches et des évaluations antérieures sur un sujet donné.

Pour trouver des méthodes et des points ou des enjeux d'évaluation additionnels.

Besoin d'information conceptuelle et empirique de base.

Besoin d'information sur un point spécifique.

Besoin d'information sur des programmes comparables, des pratiques exemplaires.

Utilise le mieux possible les travaux antérieurs dans le domaine.

Fournit des pratiques exemplaires.

Peut révéler des problèmes ou des méthodes d'évaluation à envisager pour l'étude en cours.

Peut être une source de données secondaires qui aide à éviter le double emploi.

Les données et l'information provenant de la recherche documentaire peuvent ne pas être pertinentes aux problèmes d'évaluation.  

Il peut être difficile de déterminer la précision des données secondaires aux premiers stades d'une étude.

Entrevues : Discussion couvrant un ensemble de sujets ou de questions spécifiques; elle sert à obtenir de l'information ou des opinions d'experts, d'intervenants ou de clients; elle peut être menée en personne ou au téléphone.

Sujet complexe.

Répondants importants et occupés.

Sujet délicat (entrevues directes).  

Approche souple, en profondeur.

Populations plus restreintes.

Méthode peu coûteuse pour recueillir de l'information contextuelle et systématique au sujet d'un programme ou d'un service.

Méthode souple (fonctionne sur place ou à distance, peut prévoir des réponses libres ou structurées).

Le danger d'un « préjugé d'interviewer Â».

Le taux de réponse aux demandes d'entrevues téléphoniques ou électroniques est souvent inférieur à celui des entrevues directes.

Le coût des déplacements pour les entrevues directes peut être élevé.

Groupes de discussion : Groupe de personnes réunies pour discuter d'une certaine question; les participants sont guidés par un animateur qui note les échanges et les résultats de la discussion.

Compréhension approfondie requise.

Avis pondéré.

Mise à l'essai d'idées, de produits ou de services.

S'il y a un volume limité de points à aborder.

Lorsque le dialogue des participants peut favoriser des réponses plus enrichissantes (les personnes envisagent leurs points de vue en tenant compte de ceux des autres).

Le cheminement en groupe peut être utile pour révéler les interactions et les relations au sein d'un organisme.

La discussion peut donner des aperçus des raisons des perceptions et des réactions fréquentes, puis indiquer comment résoudre les divergences de vues.

Les groupes de discussion sont des situations de courte durée et artificielles.

Les situations de groupe peuvent être une source de malaise pour des participants au moment de discuter des croyances et des attitudes personnelles, surtout si les personnes doivent avoir des rapports ensemble après la séance du groupe de discussion.

Les données provenant du groupe de discussion tendent à être une réaction rapide plutôt que des réponses réfléchies.

Études de cas : Façon de recueillir et d'organiser de l'information sur les personnes, les institutions, les activités et les croyances, sur une situation individuelle.

Besoin d'information détaillée sur un programme ou un projet.

Pour explorer les retombées d'un programme.

Pour ajouter un caractère délicat au contexte où les interventions du programme se font.

Pour déterminer les variables pertinentes qui entrent en jeu.

Permet une analyse plus globale, puis la prise en considération des interdépendances entre des éléments d'une situation particulière.

Permet une analyse approfondie d'une situation.

Fournit de l'information approfondie.

C'est une méthode complexe pour organiser des données.

Il est difficile de tirer des conclusions pouvant être généralisées parce que l'information est individuelle et particulière.

Questionnaires ou enquêtes : (sur support papier, ou par voie électronique ou téléphonique) liste de questions conçue pour recueillir de l'information auprès de répondants et au sujet de leurs connaissances comme de leurs perceptions sur un programme ou un service.

Utiles pour cibler de vastes publics.

De l'information qualitative et quantitative peut en être tirée.

Prend généralement moins de temps et d'argent que les entrevues d'un grand nombre de personnes.

Les questions peuvent couvrir une gamme de sujets (en direct ou envoi postal).

Les répondants ont le temps de penser à leur réponse et de chercher de l'information.

Procure beaucoup de renseignements.

Peut permettre de faire des inférences statistiques valables sur la population entière.

Faible taux de réponses.

Possibilité que ceux qui retournent leur questionnaire ne soient pas représentatifs de la population générale visée par l'enquête.

Une expertise considérable est requise pour leur conception, leur réalisation et leur interprétation.

Panels d'experts : Avis réfléchi d'un groupe de personnes averties de l'extérieur.

Pour que les experts partagent les leçons apprises et les pratiques exemplaires.

Besoin de validation extérieure.

Pour obtenir une variété d'opinions au sujet de questions complexes.

Pour bénéficier d'expertise et de connaissances spécialisées.

Un panel d'experts peut se servir de ses connaissances et de son expérience pour formuler des opinions et des recommandations sur un programme ou une approche.

Cette validation de l'extérieur est tout particulièrement efficiente si elle est menée par voie électronique ou par téléphone.

À moins que les experts n'aient beaucoup de connaissances sur le programme ou l'approche et son contexte, leurs avis risquent de ne pas être très utiles.

Les experts ont tendance à avoir une opinion ou un point de vue particulier du monde, ce qui joue sur leur perception d'un programme ou d'une approche.

Études comparatives : Gamme d'études comportant la collecte de données comparatives (p. ex., une étude de cohorte, une étude de cas témoin, une étude expérimentale).

Pour des évaluations sommatives.

Approche très efficace pour recueillir des données à des fins comparatives.

Trouver des groupes raisonnablement comparatifs.

Structurer des études valides.

Analyser les données requiert une somme considérable de temps et d'argent.

Source :   Adaptation de l' Outil d'apprentissage en ligne de la GAR du SCT

 

Principaux ouvrages de référence

Outil d'apprentissage en ligne de la GAR du Secrétariat du Conseil du Trésor du Canada.

6.0  Conception d'un questionnaire de sondage

 


Lorsque vous devez obtenir de l'information concernant un grand groupe ou une vaste population, vous menez habituellement un sondage. La stratégie d'échantillonnage devrait faire en sorte que l'information recueillie d'un échantillon soit représentative de la population entière. Plus l'échantillon est représentatif, plus vous pouvez vous fier aux constatations. La représentativité est en général liée à la taille de l'échantillon et à l'absence de biais.

Première étape :  Procédures d'échantillonnage

Définition nette de l'objet du sondage

Afin d'élaborer les procédures d'échantillonnage, vous devez préciser clairement l'objet du sondage. La stratégie d'échantillonnage doit être conçue pour fournir des réponses aux questions de l'évaluation.

Taille de l'échantillon

En déterminant la taille de l'échantillon, vous pourrez établir le type de sondage à utiliser.  

Nota : L'échantillon désigne une partie de la population entière qui possède les caractéristiques que vous voulez étudier.


Les points suivants peuvent être pris en considération au moment d'établir la taille de l'échantillon :

Si vous désirez tirer des conclusions sur la population entière, vous devrez établir un échantillon d'une certaine taille en vous fondant sur des paramètres statistiques. Par exemple, lorsque les sociétés de sondage affirment qu'un échantillon est exact avec une marge d'erreur de 5 %, 90 % du temps, cette affirmation est fondée sur un échantillon d'une certaine taille. La taille de l'échantillon requis se rapporte à la taille de votre population, au niveau de confiance requis et à la marge d'erreur permise. À titre d'exemple, si vous avez une population de 1 000 personnes à partir de laquelle vous avez besoin d'un échantillon représentatif et que vous avez besoin d'un niveau de confiance de 95 % avec une marge d'erreur de 5 %, vous aurez alors besoin d'un échantillon d'au plus 278 personnes. Dans le domaine de la recherche en sciences sociales, un niveau de confiance de 95 % et une marge d'erreur admissible de 5 % sont habituellement indiqués. Vous pourriez consulter un spécialiste de la statistique concernant le choix de la taille appropriée de l'échantillon.

Techniques d'échantillonnage

Vous pouvez utiliser de nombreuses méthodes différentes pour choisir un échantillon. Vous désirez idéalement que l'échantillon représente l'ensemble du groupe de sorte que vous puissiez généraliser les constatations relatives au programme. L'échantillonnage aléatoire simple, l'échantillonnage aléatoire stratifié, l'échantillonnage systématique et l'échantillonnage en grappes sont autant de genres d'échantillonnage.

Dans le cas de l'échantillonnage aléatoire simple, une liste de toutes les personnes (c'est-à-dire la population du sondage) est dressée, puis des particuliers sont choisis au hasard pour faire partie de l'échantillon. L'échantillonnage aléatoire donne à tous les membres du groupe cible la même chance de faire partie de l'étude. Un des défis associés à cette méthode est l'obtention d'une liste complète des membres du groupe. Vous trouverez ci dessous les étapes des procédures d'échantillonnage :

1.  obtention d'une base d'échantillonnage;

2.  vérification de l'existence de biais;

3.  évaluation préalable du potentiel de la source d'échantillonnage;

4.  application de la procédure d'échantillonnage.

Bases d'échantillonnage

Les bases d'échantillonnage désignent des listes de personnes qui représentent la population visée ou y correspondent plus ou moins. Ils devraient être complets et représentatifs, et la liste ne devrait pas contenir de biais.

Vérification de l'existence de biais

Voici quelques biais communs :

Évaluation préalable du potentiel de la source d'échantillonnage

Que faire en l'absence de coordonnées sur les personnes-ressources? Voici quelques options.

Que faire en cas d'information restreinte sur les répondants éventuels?

Exemples de technique d'échantillonnage aléatoire

Deuxième étape : Établissement du format du sondage

Troisième étape : Élaboration du questionnaire du sondage

Un des principaux éléments à prendre en compte au moment d'élaborer le questionnaire est la détermination des types de questions à utiliser. Si les questions ouvertes permettent d'obtenir des renseignements détaillés, il faut beaucoup de temps pour les consigner et les analyser. Si le groupe à sonder est grand, le questionnaire devrait essentiellement contenir des questions fermées.

Vous devriez en outre préparer un script et des instructions pour les interviewers (si le sondage est mené au téléphone ou en personne). Le script devrait indiquer comment accueillir le répondant, comment l'inviter à participer, comment répondre à ses questions, comment garder le répondant en ligne, comment remercier le répondant, quel code attribuer à chaque enquête (terminée, aucune réponse, etc.).

 

Genres de questions de sondage

Les questions ouvertes ne fournissent aucune réponse structurée . Il faut beaucoup de temps pour consigner et analyser la réponse à ces genres de questions. Il faudrait en limiter le plus possible le nombre dans les recherches des sondages visant un grand nombre de répondants. Les services d'interviewers compétents doivent être retenus afin de bien approfondir ces questions et de consigner les réponses. Ces questions vous permettent d'approfondir davantage les points d'intérêt soulevés. Les questions ouvertes sont utiles lorsqu'il s'agit d'examiner des points et de fournir des renseignements plus précis sur le pourquoi et le comment.

Questions fermées – réponse pondérée. Ces questions contiennent une liste de différentes réponses de plus ou moins grande intensité le long d'un continuum (p. ex., très insatisfait/ insatisfait/ni satisfait ni insatisfait/satisfait/très satisfait; vrai/tout à fait vrai). Une échelle de cinq points est habituellement utilisée et permet de présenter une position neutre (ni en accord ni en désaccord). Tentez d'inclure toutes les réponses possibles dans les catégories de réponses (p. ex., ne sait pas et ne s'applique pas).

Questions fermées – réponse fixe. Ces questions supposent un choix parmi une ou plusieurs options d'une liste. Il faudrait ajouter une catégorie « Autres Â» pour que le répondant ne soit pas obligé de choisir une réponse qui ne convient pas. Veillez à ce que les catégories s'excluent mutuellement (p. ex., 0-9, 10-19). Évitez les longues listes de catégories.


 

  Liste de contrôle pour l'élaboration
d'un questionnaire de sondage

Facteurs à prendre en considération

P

1.  Pertinence aux questions de la recherche.

 

2.  Tenir compte de la population (p. ex., âge, sexe).

 

3.  La taille de l'échantillon permet de déterminer le type de sondage à utiliser.

 

4.  Budget (les enquêtes postales et électroniques sont rentables).

 

5.  Sujet (p. ex., sujet délicat, exige de la réflexion).

 

6.  Longueur appropriée (la longueur influe sur le taux de réponse). En règle générale, les entrevues téléphoniques devraient durer entre 10 et 20 minutes, une entrevue de 10 minutes représentant la durée idéale.

 

7.  Tenir compte du genre de questions (ouvertes, fermées : pondérée, réponse fixe).

 

8.  Tenir compte du genre d'échelle. Choisir parmi les échelles de 3, 5, 7, 10 et 100 points. Niveau de satisfaction?

 

9.  Poser des questions courtes, simples et claires.

 

10.  Poser des questions les plus précises possibles.

 

11.  Éviter les doubles négatives.

 

12.  Éviter les questions à double sens, soit les questions uniques qui commandent des réponses sur deux choses différentes ou plus. Par exemple : Dans quelle mesure êtes-vous satisfait du service téléphonique et du service en personne?

 

13.  Fixer un délai pertinent pour les questions. Lorsque vous posez des questions sur des événements passés, il importe d'établir un délai approprié. Il arrive souvent que les répondants se souviennent uniquement des renseignements généraux. Exemple : Au cours des sept derniers jours, combien de fois avez-vous fait de l'exercice? Au cours des six derniers mois, combien de fois êtes-vous allé chez le médecin?

 

14.  Vous demander si les répondants ont les connaissances, les opinions ou l'expérience qu'il faut pour répondre à la question.

 

15.  Essayer le plus possible d'être cohérent (p. ex., une échelle, un choix de formulation).

 

16.  Utiliser la conversation sociale pour guider l'organisation du questionnaire (p. ex., introduction, passage graduel au sujet principal, sujet principal, fermeture).

 

17.  Élaborer le script et les instructions.

 

 

Quatrième étape :  Prétest du questionnaire

Les sondages peuvent faire l'objet d'un prétest, puis d'un rajustement. Les essais pilotes visent à cerner et à régler les problèmes et les lacunes des méthodes de collecte de l'information ou de la forme ainsi que l'utilité de l'information recueillie. En vous fondant sur les résultats du prétest, vous pourrez apporter les rajustements requis. En tenant un petit nombre d'entrevues
(environ 10), vous pouvez augmenter la qualité des résultats du sondage.

Vous devriez établir les questions sur lesquelles porteront votre prétest. Par exemple, il peut tenter de déterminer ce qui suit :

Cinquième étape :  Mise en œuvre du sondage

Lors de la mise en œuvre du sondage, vous devez faire ce qui suit :

Si vous vous attendez à ce que vos résultats soient comparables aux résultats existants provenant d'analyse comparative, il faut que la conception de la recherche, le questionnaire et l'administration soient très semblables voire identiques. Il est possible d'apporter des améliorations par rapport à l'itération précédente, mais plus les changements sont nombreux, moins les résultats sont comparables.

Vous devriez veiller à ce que des procédures existent pour assurer le suivi des non-réponses et la compensation des faibles taux de réponse. Il est habituellement inévitable que la composition initiale d'un échantillon change pendant une étude d'évaluation. Les particuliers peuvent décider d'abandonner et d'autres peuvent fournir des renseignements incomplets. Ces changements peuvent fausser l'étude s'ils ne sont pas abordés.

Principaux ouvrages de référence

Goss Gilroy Inc., Designing Effective Client Satisfaction Surveys , Strategic Management Conference, Montréal, 2003.

SPSS BI Survey Tips, A Handy Guide to Help You Save Time and Money as You Plan, Develop and Execute Your Surveys . http://www.spss.com/uk/SurveyTips booklet.pdf


7.0  Analyse des données

 


Première é tape : Examen préalable des objectifs de l'évaluation

Lorsque vous analysez les données, quel que soit leur genre, examiner le but de l'évaluation, ce qui vous aidera à organiser les données et à cibler votre analyse.

Deuxième étape : Examen de la pertinence, de l'intégralité et de la cohérence

Troisième étape : Résumé et organisation des données

Généralisation des constatations

Le seul moyen valide de généraliser les constatations pour une population entière ou cible (lorsqu'il est impossible de sonder ou d'étudier tous les membres) consiste à se servir des constatations qui ont été obtenues d'un échantillon aléatoire de la population à étudier. Il faut donc faire preuve de prudence au moment d'analyser les données d'un échantillon non aléatoire.

Analyses qualitatives et quantitatives

L'analyse des données qualitatives suppose des techniques efficaces de synthèse et d'interprétation. L'information qualitative peut être utilisée pour fournir de l'information contextuelle, expliquer le fonctionnement d'un programme ou cerner les obstacles de la mise en œuvre. Les données qualitatives peuvent être analysées afin de déceler les tendances et les thèmes qui pourraient s'appliquer aux questions de l'évaluation. Le matériel qualitatif peut être organisé en catégories ou en tableaux, ce qui facilite le repérage des tendances, des écarts et des thèmes.  

L'analyse des données quantitatives fournit des valeurs numériques de l'information, qui passent des statistiques descriptives simples (par exemple, fréquence, portée, rang centile, moyenne) à l'analyse statistique plus compliquée (par exemple, test t, analyse des écarts). Des progiciels comme Statistical Package for Social Sciences (SPSS), Minitab et Mystat peuvent être utilisés pour les analyses plus compliquées. L'analyse des données quantitatives suppose elle aussi des techniques d'interprétation. Les constatations quantitatives devraient être prises en compte dans le contexte du programme.  

Au sujet des données quantitatives

La fr̩quence, la port̩e, le centile et l'̩cart standard sont utilis̩s pour les statistiques descriptives. Les mesures des tendances centrales Рmoyenne, m̩diane ou mode Рsont ̩galement calcul̩es.

Exemples de statistiques déductives :

Principaux ouvrages de référence

Outil d'apprentissage en ligne de la GAR du Secrétariat du Conseil du Trésor du Canada.


Annexe F – Modèle de mandat

 

Principaux éléments du mandat

Contexte du projet

Contexte et justification du projet

Identification des principaux intervenants, clients et partenaires

Description du projet

Motifs de l'évaluation

Énoncé de l'objet de l'étude

Valeur ajoutée prévue

Usage prévu des résultats

Portée et accent

Grands enjeux à aborder; questions d'évaluation particulières

Type d'analyse à utiliser; niveau de précision

Préciser l'auditoire des rapports et des constatations

Énoncé des travaux

Comment les buts de l'étude seront atteints

Décrire les approches

Décrire les méthodes de collecte des données

Donner les grandes lignes des tâches à exécuter dans le cadre de l'étude

Indiquer les groupes qui seront consultés

Dresser la liste des attentes quant aux communications et aux rapports d'étape périodiques

Équipe d'évaluation

Titres professionnels, expertise, et expérience requis

Rôles et responsabilités de l'équipe d'évaluation; rôle de l'organisme (gestionnaires de programmes ou de l'évaluation)

Échéancier

Échéancier approximatif pour guider la préparation du plan de travail

Budget

Précision sur les ressources estimatives à engager pour l'étude et ses différents volets

Produits à livrer

Identification des principaux produits à livrer (p. ex., plan de travail ou rapport méthodologique, version préliminaire du rapport d'évaluation, version finale du rapport d'évaluation)

 

Coffre à outil : Modèles
Modèle du plan de vérification et d'évaluation de l'organisme [9]

Introduction et contexte

Méthodologie ou approche

Justification

Plan d'évaluation et de vérification détaillé

Annexes

 

Annexe G – Glossaire

Activité (Activity) Opération ou processus opérationnel exécuté à l'intérieur d'une organisation qui est destiné à produire des extrants précis (p. ex., des produits ou services). Les activités constituent le premier chaînon de la progression vers l'atteinte des résultats.

Attribution (Attribution) РAssertion voulant que des ̩v̩nements ou des conditions ont, dans une certaine mesure, ̩t̩ caus̩s ou influenc̩s par d'autres ̩v̩nements ou conditions. Cela signifie qu'il est possible d'̩tablir un lien raisonnable entre un r̩sultat particulier et les mesures et extrants d'une politique, d'un programme ou d'une initiative du gouvernement.

But (Goal) – Énoncé général des résultats à atteindre au cours d'une période donnée. Le terme « but Â» est approximativement équivalent à « résultat stratégique Â». Par souci de précision technique, le Secrétariat du Conseil du Trésor du Canada recommande d'utiliser plutôt résultat stratégique au lieu de but (voir aussi Objectif).

Cadre de gestion et de responsabilisation axé sur les résultats (CGRR) (Results-based Management and Accountability Framework (RMAF)) Document qui fait état des stratégies de suivi du rendement, de l'évaluation et de présentation de rapports visant une politique, un programme ou une initiative.

Cadre de responsabilisation de la gestion (CRG) (Management Accountability Framework (MAF)) – Série d'attentes à l'égard de la gestion de la fonction publique moderne. Il a pour objet de dresser une liste claire des attentes de la gestion dans un cadre global en vue d'un rendement organisationnel supérieur.

Des résultats pour les Canadiens et les Canadiennes : un cadre de gestion pour le gouvernement du Canada (Results for Canadians: A Management Framework for the Government of Canada) – Document clé publié au début de 2000 qui décrit le cadre de gestion du gouvernement du Canada. On y expose les quatre engagements du gouvernement fédéral en matière de gestion : l'accent sur les citoyens, les valeurs, les résultats et les dépenses judicieuses.

Efficacité (Effectiveness) – Mesure dans laquelle une organisation, une politique, un programme ou une initiative produit les résultats prévus. (Terme connexe : efficacité en fonction du coût – Mesure dans laquelle une organisation, une politique, un programme ou une initiative produit les résultats prévus par rapport à la dépense en ressources.)

Efficience (Efficiency) – Mesure dans laquelle une organisation, une politique, un programme ou une initiative produit les extrants prévus par rapport à la dépense en ressources.

Enchaînement des résultats (synonymes : modèle logique axé sur les résultats, séquence de résultats) (Results Chain) – Relation déterminante ou logique entre les activités, les extrants et les résultats d'une politique, d'un programme ou d'une initiative que ceux-ci sont censés produire. Habituellement présenté sous forme d'organigramme.

Engagement en matière de service (Service Commitment) – En règle générale, les engagements ou normes en matière de service qui établissent les objectifs de rendement à l'égard de la prestation des services ou de la remise des produits gouvernementaux au public. Ces engagements précisent la qualité ou le niveau de service auquel s'engage un ministère ou un organisme ou que les clients sont en droit d'attendre de ce ministère ou de cet organisme.

Énoncé de mission (Mission Statement) – Déclaration formelle et publique exposant la raison d'être d'une organisation. L'énoncé de mission est utilisé par la haute direction pour fixer les orientations et les valeurs de l'organisation.

Évaluation (Evaluation)   – Collecte et analyse systématiques de l'information sur le rendement d'une politique, d'un programme ou d'une initiative permettant de porter des jugements sur sa pertinence, ses progrès et succès, et son efficacité en fonction du coût ou d'éclairer des décisions sur la conception et la mise en œuvre de programmes futurs.

Extrant (Output) – Produit ou service direct provenant des activités d'une politique, d'un programme ou d'une initiative, et livré à un groupe ou à une population cible.

Fiabilité (Reliability) – Constance ou fidélité des données. La notion est simple : si un même critère, questionnaire ou procédé d'évaluation est utilisé une seconde fois ou par une autre équipe de recherche, donnerait-il les mêmes résultats? Dans l'affirmative, le test est fiable. Lors de la conception d'une évaluation ou d'une recherche, les données recueillies ne sont utiles que si les mesures utilisées sont fiables.

Gestion axée sur les résultats ( Results-based Management ) – Une approche à la gestion qui est à la fois globale et basée sur le cycle de vie. Elle intègre la stratégie d'ensemble, les gens, les processus et les mesures pour améliorer la prise de décisions ainsi que pour influencer le changement. Elle se concentre sur la conception d'un bon plan (tôt dans le processus), la mise en œuvre des mesures de rendement, l'apprentissage et l'adaptation ainsi que les rapports sur le rendement.

Groupe cible (Population cible) (Target Group (Target Population)) РEnsemble des personnes sur lesquelles une activit̩ est cens̩e exercer une influence.

Impact (synonymes : répercussion, incidence) (Impact) – Impact est un synonyme de résultat, bien que les impacts présupposent habituellement une relation plus directe. Les deux termes sont couramment utilisés, mais aucun d'eux n'a de caractère technique. Par souci de précision technique, le Secrétariat du Conseil du Trésor du Canada recommande d'utiliser résultat plutôt que impact.

Indicateur (Indicator) РParam̬tre ou statistique qui, lorsqu'il est suivi dans le temps, renseigne sur l'̩volution d'un ph̩nom̬ne et porte une signification qui d̩borde celle qui est associ̩e aux propri̩t̩s de la statistique m̻me.

Intrant (Input) – Ressources (p. ex., humaines, matérielles, financières, etc.) utilisées pour exécuter des activités, produire des extrants ou atteindre des résultats.

Mesures du rendement (Performance Measure) – Indicateur fournissant de l'information (quantitative ou qualitative) servant à déterminer jusqu'à quel point une politique, un programme ou une initiative atteint ses résultats.

Mod̬le logique (Logic Model) Р(̩galement appel̩ mod̬le logique ax̩ sur les r̩sultats) Illustration de l'enchąnement des r̩sultats ou de la mani̬re dont les activit̩s d'une politique, d'un programme ou d'une initiative aboutiront aux r̩sultats finaux. Habituellement pr̩sent̩ sous forme d'organigramme. Voir Enchąnement des r̩sultats.

Objectif (Objective) – Bénéfice durable et à long terme vers lequel les efforts sont déployés.

Port̩e (Reach) РConcept repr̩sentant les personnes et les organisations cibl̩es et directement touch̩es par une politique, un programme ou une initiative.

Rapport ministériel sur le rendement (RMR) (Departmental Performance Reports (DPR)) Rapport déposé chaque année à l'automne par le président du Conseil du Trésor au nom de tous les ministères et organismes du gouvernement fédéral désignés dans les annexes I, I,1 et II de la Loi sur la gestion des finances publiques et faisant partie du processus du Budget des dépenses et du processus d'attribution des crédits. Il explique ce que le gouvernement a réalisé grâce aux ressources et autorisations qui lui ont été fournies par le Parlement. L'information sur le rendement contenue dans ces rapports aide les députés à conseiller le gouvernement en matière d'affectation des ressources en préparation du processus annuel d'établissement du budget et d'attribution des crédits qui se déroule au printemps.

Rapport sur le rendement (Performance Reporting) – Présentation d'information sur le rendement fondée sur les faits. Le rapport sur le rendement sert à éclairer les décisions et à rencontrer les exigences de responsabilisation et constitue le point de départ pour l'engagement des citoyens et citoyennes et pour le dialogue des parlementaires sur le rendement.

Rapport sur les plans et les priorit̩s (RPP) (Reports on Plans and Priorities (RPP)) РRapport faisant partie du Budget principal des d̩penses qui renferme de l'information sur les plans et le rendement attendu des minist̬res sur une p̩riode de trois ans. Il est d̩pos̩ au Parlement chaque ann̩e au printemps, apr̬s les discussions sur l'attribution des ressources. On y trouve g̩n̩ralement de l'information sur la mission ou le mandat, les strat̩gies ainsi que sur les r̩sultats strat̩giques et les engagements pr̩cis en mati̬re de rendement.

Rendement (Performance) РMesure dans laquelle une organisation, une politique, un programme ou une initiative atteint les r̩sultats pr̩vus en regard des cibles, des normes ou des crit̬res. En gestion ax̩e sur les r̩sultats, le rendement est mesur̩ et analys̩, communiqu̩ et utilis̩ comme fondement des d̩cisions en mati̬re de gestion.

Responsabilisation (synonymes : reddition de comptes, imputabilité) (Accountability) – Obligation de démontrer et d'assumer ses responsabilités relatives au rendement en fonction des attentes convenues. Ce concept diffère de la responsabilité, qui est l'obligation d'agir, alors que la responsabilisation est l'obligation de répondre d'une action.

Résultat (Result) Conséquence attribuable aux activités d'une organisation, d'une politique, d'un programme ou d'une initiative. Ce terme général peut inclure à la fois les extrants produits et les résultats atteints par l'organisation, la politique, le programme ou l'initiative. Dans le plan fédéral de gestion axée sur les résultats et dans le document Des résultats pour les Canadiens et les Canadiennes , le terme résultat est plus spécifique et n'inclut pas les extrants.

R̩sultat (Outcome) РCons̩quences externes attribuables aux activit̩s d'une organisation, d'une politique, d'un programme ou d'une initiative En r̬gle g̩n̩rale, ce concept inclut souvent les extrants produits rapport aux engagements. Les r̩sultats peuvent alors ̻tre d̩crits comme imm̩diats, interm̩diaires ou finaux, directs ou indirects, voulus ou fortuits.

Résultat final (Final Outcome) – Il s'agit en règle générale des résultats dont l'atteinte nécessite plus de temps, qui sont soumis à des influences extérieures à la politique, au programme ou à l'initiative et qui peuvent se produire à un niveau plus stratégique.

R̩sultat horizontal (Horizontal Result) РR̩sultat r̩alis̩ par l'apport d'au moins deux minist̬res ou organismes, comp̩tences ou organisations non gouvernementales.

Résultat prévu (Cible) (Planned Results (Targets)) – Énoncé clair et concret des résultats (comprenant les extrants et les résultats) à atteindre au cours d'un cycle de planification et de rapport de rendement parlementaire et ministériel (d'un an à trois ans), permettant la comparaison avec les résultats réels.

Résultat stratégique (Strategic Outcomes) – Bénéfice durable et à long terme pour les Canadiens et les Canadiennes qui découle du mandat, de la vision et des efforts du ministère. Ces résultats représentent la contribution que le ministère veut apporter à la population canadienne et doivent être mesurables. L'atteinte des résultats ou le progrès à cet égard ne pourra se faire qu'avec le leadership soutenu d'un ministère ou d'un organisme fédéral, conformément aux attentes des Canadiens et des Canadiennes, surtout en ce qui a trait à la conclusion de partenariats et d'alliances avec d'autres intervenants et organisations.

Les Canadiens et les Canadiennes s'attendent également à ce que les ministères recherchent l'excellence en établissant des résultats stimulants qui relèvent de leur sphère de compétence ou d'influence. Ces résultats seront à la base des normes servant à évaluer le rendement du ministère grâce à des mesures ministérielles dérivées.

Stratégie de mesure du rendement (Performance Measurement Strategy) – Sélection, développement et utilisation continue des mesures du rendement pour guider les décisions ministérielles. L'étendue des informations provenant d'une stratégie de mesure du rendement peut inclure : la portée, les extrants et les résultats, les mesures de rendement, les sources de données, la méthodologie et les coûts.

Structure des ressources et des résultats de gestion (SRRG) – Remplace la Structure de planification, de rapport et de responsabilisation (SPRR) à titre de régime de présentation de rapports. Elle vise ce qui suit :

Suivi du rendement (Performance Monitoring) РProcessus continu de collecte d'information permettant d'̩valuer la progression vers l'atteinte des r̩sultats strat̩giques et, s'il y a lieu, d'̩mettre une mise en garde si le progr̬s n'est pas tel que pr̩vu.

Système d'information sur la gestion des dépenses (SIGD) (Expenditure Management Information System (EMIS)) – Cadre d'information commun à l'appui du Comité d'examen des dépenses et des évaluations ministérielles portant sur le cadre de responsabilisation de la gestion. L'Architecture des activités de programmes et le SIGD serviront de fondement aux documents suivants :

Validité (Validity) – Mesure dans laquelle les questions ou les procédures mesurent réellement ce qu'elles prétendent mesurer. Autrement dit, les données valides sont non seulement fiables mais aussi vraies et exactes. Les mesures servant à recueillir des données concernant une variable dans une étude d'évaluation doivent être à la fois fiables et valides pour que l'évaluation globale puisse produire des données utiles.

Source : SCT, Guide d'élaboration des cadres de gestion et de responsabilisation axés sur les résultats .
http://www.tbs-sct.gc.ca/cee/tools-outils/rmaf-cgrr/guide00-fra.asp


Annexe H РLiens concernant l'̩valuation

1.  http://www.tbs-sct.gc.ca/pol/doc-fra.aspx?id=15024

Lien vers la Politique d'évaluation du Conseil du Trésor.

2.  http://www.oecd.or g /dataoecd/29/21/2754804.pdf

Lien vers un glossaire complet des principaux termes relatifs à l'évaluation et la gestion axée sur les résultats.

3.  http://www.wkkf.org/Pubs/Tools/Evaluation/Pub770.pdf

Lien vers un guide pratique de l'évaluation de Kellogg.

4.  http://www.evaluatio n canada.ca

Lien vers la page d'accueil de la Société canadienne d'évaluation. Ce site contient de l'information sur les cours et les événements spéciaux, diverses ressources relatives à l'évaluation ainsi que des documents non publiés à l'intention des évaluateurs.

5.  http://www.phac-aspc.gc.ca/ncfv-cnivf/violencefamiliale/html/fvprojevaluation_f.html

Lien vers le document intitulé Guide d'évaluation de projet : Une démarche participative que la Direction de la santé de la population de Santé Canada a préparé en 1996. Le guide fournit un cadre complet facile à utiliser aux fins de l'évaluation des projets. Ce cadre peut être utilisé pour renforcer les compétences et les connaissances en évaluation, ce qui aidera à élaborer et à mettre en œuvre des évaluations de projets efficaces.

6.  http://www.mapnp.org/library/evaluatn/fnl_eval.htm#anchor1585345

Lien vers un guide fondamental de l'évaluation des programmes qui fournit des directives en vue de la planification et de la mise en œuvre d'un procédé d'évaluation pour les organismes à but non lucratif et à but lucratif.

7.  http://www11.hrdc-drhc.gc.ca/pls/edd/toolkit.list_fr?p_site=EDD

Lien vers la Série : Les outils de l'évaluation de DRHC qui a été mise au point par la Direction générale de l'évaluation et du développement des données. Cette série de publications fournit de l'information pertinente sur la conception, la planification et la tenue d'une évaluation. Voici quelques-unes des publications comprises :

Modèles logiques

8.  http://www.ed.gov/teachtech/logicmodels.doc

Lien vers le document Logic Models: A Tool for Telling Your Program's Performance Story , qui décrit en détail le procédé des modèles logiques et la manière de se servir de ces modèles pour élaborer et présenter le rendement d'un programme.

9.  http://national.unitedway.org/outcomes/resources/mpo/

Lien vers le manuel intitulé Measuring Program Outcomes: A Practical Approach , qui est une bonne source d'information sur l'élaboration de modèles logiques et d'indicateurs de rendement.

10. http://www.wkkf.org/Pubs/Tools/Evaluation/Pub3669.pdf

Lien vers le Logic Model Development Guide de la W.K. Kellogg Foundation qui donne un bon aperçu de l'élaboration de modèles logiques et fournit de l'information sur les différents genres de modèles logiques.

11. http://www.impactalliance.org/file_download.php/prevent+1.pdf?URL_ID=2744&filename=10196046740prevent_1.pdf&filetype=application%2Fpdf&filesize=646378&name=prevent+1.pdf&location=user-S/

Prevention Works! A Practitioner's Guide to Achieving Outcomes

12. http://www.insites.org/documents/logmod.htm

Tout ce que vous voulez vraiment savoir sur les modèles logiques mais n'osiez pas demander.

13. http://www.calib.com/home/work_samples/files/logicmdl.pdf

Lien vers un document qui décrit les modèles logiques et traite de leurs utilisations dans la planification et l'évaluation des services de traitement.

14. http://www.uwex.edu/ces/lmcourse/

Lien vers le site du cours autodidacte en ligne de l'Université du Wisconsin intitulé Enhancing Program Performance with Logic Models , une excellente ressource.

15. http://www.gse.harvard.edu/hfrp/content/pubs/onlinepubs/rrb/learning.pdf

Lien vers des modèles logiques et un exemple de partenariat entre une famille et une école.

Liens relatifs au CGRR

16. http://www.tbs-sct.gc.ca/cee/tools-outils/rmaf-cgrr/guide00-fra.asp

Lien vers le Guide d'élaboration des cadres de gestion et de responsabilisation axés sur les résultats d'août 2001 qui contient les lignes directrices de l'élaboration du profil, du modèle logique, de la stratégie de mesure du rendement, de la stratégie d'évaluation et de la stratégie de présentation de rapports.

17. http://www.tbs-sct.gc.ca/cee/tools-outils/comp-acc00-fra.asp

Lien vers le guide d'accompagnement aux fins de l'élaboration des CGRR des initiatives horizontales. Ces dernières doivent souvent intégrer les obligations verticales et horizontales de reddition de compte, divers groupements de ressources ainsi qu'une variété de mandats, de stratégies de mesure du rendement et de structures de présentation des rapports des ministères. Le guide se veut le complément du Guide d'élaboration des cadres de gestion et de responsabilisation axés sur les résultats et traite des défis uniques que doivent relever les différents organismes qui travaillent ensemble à atteindre des objectifs communs. Bien qu'il ne fournisse pas de réponse à toutes les questions, il procure des directives fondées sur les enseignements les plus importants tirés à ce jour.

18. http://www.tbs-sct.gc.ca/cee/pubs/guide/sarmaf-ascgrr-fra.asp

Lien vers le document Conseils pour une approche stratégique aux CGRR qui complète le Guide d'élaboration des cadres de gestion et de responsabilisation axés sur les résultats d'août 2001. Ce document a pour but d'aider les gestionnaires à adapter les CGRR à des circonstances particulières, en tenant compte de facteurs comme le risque global, la complexité des programmes et les exigences de compte rendu, et ce, afin que les CGRR continuent de répondre aux besoins changeants.

19. http://www.tbs-sct.gc.ca/res_can/rc_f.asp

Lien vers le document Des résultats pour les Canadiens et les Canadiennes – Un cadre de gestion pour le gouvernement du Canada qui décrit ce que les gestionnaires de la fonction publique doivent faire pour améliorer l'efficience et l'efficacité de leurs programmes. Le CGRR est un important outil de gestion qui permet d'atteindre les quatre objectifs du cadre Des résultats pour les Canadiens et les Canadiennes , à savoir l'accent sur les citoyens dans le cadre de toutes les activités gouvernementales, l'accent sur les valeurs, l'atteinte des résultats et l'utilisation judicieuse des fonds publics.

20. http://www.tbs-sct.gc.ca/pol/doc-fra.aspx?id=12257

Lien vers la Politique sur les paiements de transfert du Conseil du Trésor qui formalise l'exigence en matière de CGRR à titre d'élément d'une présentation au CT comportant des paiements de transfert.

 


[1] .  Voir le site Web du SCT à : l' http://www.tbs-sct.gc.ca/cee/tools-outils/model-fra.asp .

[2] .  Secrétariat du Conseil du Trésor du Canada, Modèles d'évaluation et de mesure du rendement des petits organismes , 2003.

Secrétariat du Conseil du Trésor du Canada, Évaluation provisoire de la Politique de l'évaluation , 2002.

[3] .  Secrétariat du Conseil du Trésor du Canada, Modèles d'évaluation et de mesure du rendement des petits organismes , 2003.

[4] .  Secrétariat du Conseil du Trésor du Canada, Élaboration et utilisation des cadres de gestion et de responsabilisation axés sur les résultats , avril 2004.

[5] .  Voir le site Web du SCT à : http://www.tbs-sct.gc.ca/cee/ .

[6] .  Secrétariat du Conseil du Trésor du Canada, Modèles d'évaluation et de mesure du rendement des petits organismes , 2003.

[7] .  Pour obtenir plus d'information sur les organisations susmentionnées, veuillez vous reporter à l'annexe C.

[8] .  Les petits organismes peuvent être dotés d'un seul niveau de gestion.

[9] .  Beaucoup de petits organismes soumettent un plan annuel de vérification et d'évaluation. Le modèle intègre tant la vérification que l'évaluation. Des plans de vérification interne doivent être présentés lorsque des priorités de vérification interne ont été identifiées.

 



 

Remerciements

Le Guide d'évaluation des petits organismes a vu le jour grâce aux conseils et aux avis des membres du Comité directeur interinstitutions. Nous aimerions donc offrir nos remerciements aux personnes suivantes :

Sylvie Charbonneau , Commissariat aux langues officielles

Pierre Couturier , Commission nationale des libérations conditionnelles

Annette Ducharme , Comité des griefs des Forces canadiennes

Yolaine Gauthier , Comité des griefs des Forces canadiennes

Michael Glynn , Tribunal canadien des droits de la personne

Janine Sherman , École de la fonction publique du Canada

Robert Sauvé , Comité d'examen des prix des médicaments brevetés

Greg Smith , Tribunal canadien des droits de la personne

Sharon Watts , vice-présidente, Services ministériels et adjudication, Conseil de contrôle des renseignements relatifs aux matières dangereuses

Ils ont fourni des conseils, ont revu les ébauches et ont offert des commentaires afin d'aider l'équipe de consultation à comprendre le contexte des petits organismes.

Nous tenons à remercier plus particulièrement Glenn Crone, Kim Cronkwright et Zeljka Spasojevic, du Centre d'excellence en évaluation, du Secrétariat du Conseil du Trésor du Canada pour l'appui qu'ils nous ont fourni durant la réalisation du présent guide.

Les membres du Comité directeur interinstitutions ont travaillé en étroite collaboration avec Zelda Yule, Sandy Moir, Celine Pinsent et Simon Roy, de la société Goss Gilroy Inc.

 


Date de modification :