Nous procédons actuellement au transfert de nos services et de nos renseignements sur le Web vers Canada.ca.

Le site Web du Secrétariat du Conseil du Trésor du Canada restera accessible jusqu’à  ce que le transfert soit terminé.

Évaluation quinquennale du Cadre de responsabilisation de gestion

Informations archivées

Les informations archivées sont fournies aux fins de référence, de recherche ou de tenue de documents. Elles ne sont pas assujetties aux normes Web du gouvernement du Canada et n’ont pas été modifiées ou mises à  jour depuis leur archivage. Pour obtenir ces informations dans un autre format, veuillez communiquez avec nous.



Secrétariat du Conseil du Trésor du Canda - Évaluation quinquennale du CRG - Rapport final - PricewaterhouseCoopers LLP et Interis Consulting Inc

Rapport final

RÉSUMÉ

Les cadres de gestion du rendement sont au cœur du succès des organisations issues du secteur public et privé. Ils jouent certainement un rôle déterminant dans une organisation aussi complexe que le gouvernement fédéral du Canada.

En novembre 2008, le Secrétariat du Conseil du Trésor du Canda (SCT) a mandaté les firmes PricewaterhouseCoopers LLP et Interis Consulting Inc. pour mener une évaluation quinquennale du cadre de gestion du rendement du SCT qui est appelé le Cadre de responsabilisation de gestion (CRG). Dans le cadre de cette évaluation, nous avons examiné comment le SCT devrait poursuivre l’évolution du CRG.

Lors de cette évaluation, nous avons mené des entrevues et des consultations, réalisé une analyse documentaire, établi des comparaisons internationales et procédé à une enquête sur l’établissement des coûts ainsi qu’à une analyse de ces coûts. Nous avons bénéficié des observations émises par divers groupes consultatifs et par un comité directeur de SM, et nous avons aussi eu des discussions avec des représentants de la Direction du CRG du SCT. Nous avons cependant observé que les éléments probants présentaient certaines limites. Nous avons noté tout particulièrement l’absence de données solides sur l’établissement des coûts, car les ministères et les organismes n’établissent pas de rapports de suivi des coûts associés à l’évaluation du CRG et au caractère empirique des données sur l’amélioration des pratiques de gestion en raison du caractère évolutif du CRG.

Notre évaluation a comparé le CRG à trois cadres de même nature qui sont en place au Royaume‑Uni, dans les pays de l’Union européenne et aux États‑Unis. Les cadres ont des objectifs (amélioration du rendement) ainsi qu’une méthodologie (diagnostic périodique de la capacité organisationnelle) qui sont semblables à ceux du CRG. Nous pourrions mettre à contribution quelques éléments clés de ces cadres afin d’améliorer l’utilité et la viabilité du CRG :

Nous avons noté les constatations suivantes à partir des nombreux éléments de preuve :

  1. En articulant les attentes de la direction, le CRG a fait en sorte de mettre un accent accru sur les pratiques de gestion, par exemple, les questions liées à la gestion. Il est devenu un catalyseur de l’intégration des pratiques exemplaires dans les ministères et les organismes.
  2. Un dialogue constant a toujours sa place entre le SCT et les administrateurs généraux au cours du processus du CRG.
  3. Le SCT a mis en place un processus structuré et rigoureux d’analyse des résultats des évaluations du CRG.
  4. Une stabilité croissante des indicateurs du CRG a été constatée dans les rondes récentes.
  5. L’approche actuelle consistant à évaluer annuellement chaque CG dans les grands ministères et organismes ne tient pas compte des priorités et des risques uniques des organisations.
  6. Même si le fardeau redditionnel inhérent au CRG a été allégé, il est encore possible de réduire l’incidence de l’évaluation du CRG sur les ministères et les organismes.
  7. La subjectivité des évaluations du CRG est le résultat du grand nombre d’indicateurs qualitatifs incorporés à l’approche d’évaluation.
  8. Bon nombre des éléments de preuve de la ronde VI sont fondés sur des processus, ce qui ne permet pas de mesurer l’efficacité des résultats du processus.
  9. Nos consultations ont révélé que la plupart des ministères et des organismes n’étaient pas convaincus de la rentabilité du CRG.
  10. Le SCT est l’entité appropriée pour mesurer le rendement de la gestion au sein de l’administration fédérale.

Après avoir analysé les éléments de preuve que nous avons recueillis lors de nos nombreuses enquêtes, nous avons conclu que le CRG est un cadre efficace et pertinent. Il atteint les objectifs qui ont été fixés. On devrait poursuivre sa mise à jour et continuer à l’appuyer. Il offre aux administrateurs généraux et au SCT un portrait global de l’état du rendement de gestion d’un ministère ou d’un organisme. Le CRG constitue un outil précieux pour soutenir l’établissement des priorités et mettre l’accent sur les pratiques de gestion dans l’ensemble de l’administration fédérale.

Comme nous l’avons indiqué précédemment, nous n’avons pu tirer de conclusion sur la rentabilité du CRG en raison des données retreintes sur l’établissement des coûts. À l’avenir, le SCT pourrait envisager d’offrir une orientation aux ministères et aux organismes afin d’assurer le suivi des coûts du CRG.

Pour faire suite à l’analyse des intrants et à la comparaison des cadres qui sont en place au sein d’autres administrations, nous formulons les recommandations suivantes pour soutenir l’évolution continue du CRG comme instrument habilitant en matière de rendement :

  1. Mettre en œuvre une approche axée sur les risques et les priorités aux fins du processus d’évaluation du CRG. Parmi les options envisagées, mentionnons les suivantes :
    • évaluation axée sur les risques et les priorités propres à chaque organisation;
    • regroupement des indicateurs évalués par le CGR dans les catégories suivantes : obligatoires, facultatives et cycliques;
    • évaluation axées sur les résultats des rondes précédentes;
    • évaluations axées sur la taille du ministère ou de l’organisme.
  2. Élaborer des principes directeurs (règles d’or) pour l’évaluation du rendement de gestion et intégrer ces principes à la méthodologie d’évaluation actuelle du CRG, y compris :
    • maintenir un équilibre approprié entre les indicateurs quantitatifs et qualitatifs dans chaque composante de gestion (CG);
    • élaborer des indicateurs axés sur les résultats pour le rendement de gestion;
    • tirer profit de l’information recueillie grâce aux activités de surveillance existantes;
    • maintenir la stabilité des indicateurs qui est un élément crucial de l’évaluation des progrès au fil du temps;
    • assurer la clarté et la transparence des indicateurs, des critères de mesure et de la documentation d’orientation;
    • mobiliser les membres des collectivités fonctionnelles afin qu’ils prennent part à un dialogue ouvert sur l’élaboration constante de la méthodologie et des mesures d’évaluation des CG;
    • inclure l’évaluation et la détermination de la conformité aux politiques et du rendement de gestion axé sur les résultats;
    • chercher des moyens de reconnaître et d’offrir des incitatifs pour stimuler l’innovation.
  3. Constituer ou mettre à profit un organisme de gouvernance composé de hauts fonctionnaires des ministères et des organismes pour orienter le CRG. Ce comité d’administrateurs généraux ou de cadres supérieurs des ministères pourrait donner son avis sur les changements apportés au processus du CRG ainsi que sur ses résultats à l’échelle gouvernementale afin d’orienter les priorités de gestion.
  4. Élaborer une stratégie et un plan de mobilisation et de communication visant les intervenants, y compris leur mobilisation dès les premières étapes lorsqu’on apporte des changements au processus d’évaluation du CRG. Le SCT pourrait ainsi tirer profit de la participation des collectivités et des tribunes actuelles de l’administration fédérale. Une telle démarche assurerait que les changements sont communiqués en temps opportun et que les intervenants ont suffisamment de temps pour réagir et accepter tout changement.
  5. Attribuer des responsabilités officielles au sein du SCT pour la surveillance de la méthodologie et du cadre d’évaluation du CRG ainsi que la gestion des enjeux horizontaux. Pour ce faire, on pourrait confier un rôle accru à la Direction du CRG au sein du SCT en la chargeant d’assurer la surveillance et l’intégration horizontales de toutes les CG, tant sur le plan de la méthodologie que des résultats.


Table des Matiéres



1  INTRODUCTION

1.1  APERÇU

Le Secrétariat du Conseil du Trésor du Canada (SCT) a adopté le Cadre de responsabilisation de gestion (CRG) en 2003 afin de renforcer la responsabilisation des administrateurs généraux et des ministères en matière de gestion. En tant que cadre de gestion, le CRG[1] a pour objectif de :

Pour souligner l’importance de solides compétences en gestion chez les administrateurs généraux, les résultats de l’évaluation du CRG sont intégrés au processus d’évaluation de leur rendement mené par le Bureau du Conseil privé (BCP).

Le processus d’évaluation du CRG est géré par la Direction du CRG du Secteur des priorités et de la planification du SCT. Le CRG est une évaluation annuelle et, depuis 2003, six évaluations du CRG ont été réalisées.

1.2 Évaluation du CRG

En novembre 2008, le SCT a commandé une évaluation quinquennale du CRG dont les objectifs étaient les suivants :

Une équipe mixte formée de représentants de PricewaterhouseCoopers LLP (PwC) et d’Interis Consulting Inc. (Interis) a été chargée de mener l’évaluation. Les questions d’évaluation ont été élaborées par le SCT en collaboration avec la collectivité des administrateurs généraux. La méthode d’évaluation globale a été approuvée par le SCT.

APPROCHE ET MÉTHODE D’ÉVALUATION

L’évaluation avait pour objectif d’évaluer le CRG et de proposer des recommandations visant à l’améliorer. L’énoncé des travaux élaboré par le SCT a permis de formuler 23 questions d’évaluation. Nous avons fondé notre cadre d’évaluation sur ces questions en élaborant des indicateurs et des méthodes d’évaluation pour y répondre. Afin de réaliser une analyse intégrée, nous avons regroupé les questions d’évaluation en quatre questions stratégiques (vous trouverezles 23 questions d’évaluation et leur groupement sous les quatre questions stratégiques à l’annexe E).

Nous avons eu recours à de nombreuses sources pour répondre à ces questions d’évaluation. Nous avons notamment examiné des documents, effectué une analyse documentaire et mené des entrevues. Nous avons également tenu des consultations et organisé des tables rondes avec certains représentants de groupes d’intervenants. Enfin, nous avons établi des comparaisons avec des administrations semblables au niveau international, et nous avons procédé à une analyse d’établissement des coûts.

Vous trouverez ci-dessous un bref résumé de notre approche en matière de collecte de données :

Nous avons analysé et résumé les éléments probants obtenus à partir de chacune de ces sources afin d’émettre les constatations, les conclusions et les recommandations comprises dans le présent rapport. La figure 1 ci‑dessous illustre à un haut niveau le cadre d’évaluation que nous avons utilisé, y compris les liens entre les quatre questions stratégiques et les trois principaux enjeux de l’évaluation devant être compris dans la Politique d’évaluation du SCT.

Figure 1: Cadre d’évaluation
Figure 1: Cadre d’évaluation

Figure 1 : Cadre d'évaluation - Version textuelle

Au cours des étapes de planification, de tenue et de présentation de l’évaluation, les comités suivants ont supervisé et orienté le processus :

Limites de l’évaluation. Voici les principales contraintes auxquelles nous avons été confrontés lors de l’exécution de nos plans d’évaluation :

  Le CRG est un outil de collecte de renseignements utilisé par le SCT pour évaluer le rendement de gestion des ministères. Il s’agit d’un élément essentiel pour s’assurer que les programmes et les services sont fournis dans le respect des normes les plus élevées, de la manière la plus rentable qui soit.

  Les limites sont cependant raisonnables, compte tenu de la nature qualitative et subjective du CRG en tant qu’outil d’évaluation du rendement de gestion. L’équipe d’évaluation a pu répondre aux questions d’évaluation en mobilisant les intervenants pertinents et en vérifiant l’information recueillie sous la forme de nombreux éléments de preuve. Nous estimons donc que les normes d’évaluation définies dans la Politique d’évaluation du CT (2001) ont été suivies.

1.3 Objet du rapport

Le présent rapport a pour objectif de fournir :

1.4 Conclusions

Tel que décrit en détail à la section 3 du rapport, nous avons conclu que le CRG est un succès et qu’il atteint ses objectifs actuels. Le CRG a permis de préciser les attentes de la direction envers les administrateurs généraux, d’orienter l’engagement du SCT auprès des ministères et des organismes et de fournir à la fois une perspective organisationnelle des pratiques de gestion aux ministères et un portrait des tendances pangouvernementales et des enjeux de gestion au SCT.

En outre, nous avons conclu que le CRG est un outil de gestion précieux et pertinent qui doit continuer d’être mis à jour et appuyé. Ainsi, nous constatons que le CRG a sensiblement évolué depuis sa création en 2003 afin d’être à la hauteur des attentes croissantes au sein du secteur public. Une démonstration claire de la responsabilisation est maintenant exigée et pour satisfaire ce critère, une évaluation beaucoup plus rigoureuse a remplacé l’ancienne approche relativement informelle. Selon les résultats de notre comparaison internationale, il est raisonnable de conclure que si le CRG n’avait pas existé, il aurait fallu créer un outil semblable pour satisfaire les exigences croissantes en matière de responsabilisation.

Même si nous n’avons pu tirer de conclusion quant à la rentabilité du CRG en raison des limites imposées par le manque de renseignements sur l’établissement des coûts ou par l’exactitude ou la validité des résultats d’évaluation, nous avons pu conclure que le processus d’évaluation du CRG est solide et que ses résultats traduisent, de façon générale, la réalité des organisations.

Nous avons relevé certains aspects à l’égard desquels des améliorations peuvent être apportées afin d’accroître l’efficacité et l’efficience du processus du CRG et d’améliorer la validité globale des résultats d’évaluation. À l’avenir, le SCT pourrait envisager d’élaborer une approche en matière d’établissement des coûts qui, une fois mise en œuvre, établirait une base de comparaison des coûts pour les années à venir. En outre, il sera essentiel de valider le modèle logique auprès des intervenants clés afin de pouvoir l’utiliser comme fondement de la mesure du rendement futur du CRG.

Enfin, pour que le CRG continue à atteindre ses objectifs et à soutenir les efforts en vue de l’excellence de la gestion, nous avons conclu que le CRG doit poursuivre son évolution à titre d’instrument habilitant en matière de rendement pour les administrateurs généraux. Les recommandations présentées à la section 4.0 appuieront cette transition.



2  LE CONTEXTE DU CRG

2.1 L’importance des cadres de gestion du rendement

Afin de réaliser leurs objectifs, les organisations doivent motiver les personnes et les groupes à réaliser un objectif commun; la gestion du rendement constitue un moyen d’y parvenir. La gestion du rendement se définie comme étant un cycle d’activités de gestion incluant la planification, la mesure des résultats et l’utilisation de ces mesures afin de déterminer si les objectifs ont été atteints[4]. Ce cycle peut être appliqué aux différents niveaux : au niveau individuel, au niveau de l’équipe/unité opérationnelle ou au niveau organisationnel. Fondamentalement, il comprend l’intégration des objectifs établis, du contrôle de la mesure, de l’évaluation et de la rétroaction à un processus permanent unique visant à favoriser l’amélioration continue vers la création de valeur. Un cadre de gestion du rendement désigne habituellement un processus particulier conçu pour exécuter le cycle de gestion du rendement. Ces cadres englobent normalement :

La gestion efficace de la performance opérationnelle dans le contexte changeant, concurrentiel et complexe d’aujourd’hui est essentielle au succès d’une organisation. De fait, des études[5] ont révélé que les organisations qui gèrent le rendement en le mesurant ont largement plus de succès que celles qui ne le font pas. Par exemple, la mise en œuvre du CRG par le SCT fait en sorte de mettre un accent accru sur l’amélioration du rendement de gestion dans les ministères.

Les organisations peuvent tirer un grand nombre d’avantages de la mise en œuvre d’un cadre de gestion du rendement. Voici quelques exemples d’autres avantages dont peuvent bénéficier les organisations :

Ces avantages peuvent être obtenus quand un système efficace de gestion du rendement est mis en œuvre. Un système de gestion du rendement efficace favorise chez les employés des comportements qui entraînent des résultats positifs, tandis qu’un système inefficace permet au mieux d’utiliser inefficacement un système de récompenses et, dans le pire des cas, il nuit aux résultats qu’il est destiné à améliorer [traduction][6].

2.2 Comparaison internationale

Dans le cadre de la présente évaluation, nous avons fait une comparaison internationale entre le CRG et d’autres approches actuellement utilisées par différentes administrations publiques. Plus précisément, nous avons comparé le CRG avec les cadres de gestion du rendement utilisés au Royaume-Uni, dans les pays de l’Union européenne et aux États-Unis[7].

Nous avons aussi examiné les approches adoptées en Australie et en Nouvelle‑Zélande, mais nous avons conclu qu’elles n’étaient pas comparables avec le CRG dans l’étude actuelle, soit parce qu’elles ne mettaient pas l’accent sur les mêmes éléments, soit parce qu’elles n’étaient pas mis en œuvre dans l’ensemble de l’administration publique. En Australie, l’Executive Leadership Capability Framework est un cadre de compétences et non un cadre global de rendement de gestion. En Nouvelle‑Zélande, le Capability Toolkit a certains points communs avec le CRG, mais il est appliqué sur une base facultative et les renseignements sur l’incidence de son application dans l’ensemble de la fonction publique sont limités.

À l’échelle internationale, le CRG est considéré comme l’un des systèmes de pratiques de gestion les plus sophistiqués. Par exemple, l’Organisation de coopération et de développement économiques (OCDE) considère que le Cadre de responsabilisation de gestion (CRG) du Secrétariat du Conseil du Trésor du Canada (SCT) constitue un modèle exceptionnel d’élargissement du cadre des évaluations de rendement au‑delà des résultats de gestion, de manière à inclure le leadership, la gestion des ressources humaines et le contexte organisationnel [traduction][8].

Un aperçu de chacun des cadres est établi ci‑dessous et plus de détails sont fournis à l’annexe D du présent rapport.


Tableau 1 Aperçu des organisations internationales comparées

Attribut

CRG (Canada)

Examen de la capacité (Capacité Review) (Royaume‑Uni)

Cadre d’auto-évaluation des fonctions publiques (Union européenne)

Programme de gestion du Président (President’s Management Agenda)

(États‑Unis)

Objet

Préciser les attentes de la direction et favoriser les améliorations de gestion

Évaluer la capacité organisationnelle à réaliser les objectifs de prestation du gouvernement

Améliorer la qualité de gestion dans le secteur public

Améliorer le rendement de l’organisme dans cinq domaines particuliers

Méthode

Examen annuel par un organisme central (exceptions pour les petits et très petits organismes)

Examen externe avec bilan aux 6, 12 et 18 mois; examen de seconde ronde après deux ans

Examens optionnels selon les résultats de l’auto-évaluation

Auto-évaluations trimestrielles

Évaluateurs

Examen de documentation et de questionnaires par le personnel du SCT

Trois évaluateurs de l’extérieur du gouvernement Central et deux directeurs généraux d’autres ministères examinent de la documentation et mènent des entrevues; commentaires et analyse fournis par le Bureau du Cabinet

Auto-évaluation; équipes de projets internes de l’organisation

Le Bureau de la gestion et du budget examine les indicateurs internes de progression et les Plans verts

Jugement vs. éléments probants

Jugement et critères fondés sur des éléments probants

Jugement et critères fondés sur des éléments probants

Jugement et critères fondés sur des éléments probants

Fondé sur des éléments probants

Rémunération

Lien avec la rémunération au rendement des administrateurs généraux par l’entremise du Comité de hauts fonctionnaires

Liens avec les décisions salariales des secrétaires permanents

Dépend de l’application du cadre

Liens avec les affectations budgétaires et les évaluations du directeur général

Traitement des entités

Uniforme (exception : petits et très petits organismes évalués aux trois ans suivant une norme différente)

Approche cohérente pour tous les organismes

Adaptable aux organisations

Approche cohérente pour tous les organismes évalués

Publication

Oui, sur le site Web du SCT et parfois sur les sites des ministères; inclut souvent une réponse de la direction

Oui, sur le site Web de l’organisme et dans un communiqué

Présentation facultative des notes dans la base de données du Cadre

Oui, sur les sites Web des départements

Examen de la capacité du Royaume‑Uni

Le programme d’Examen de la capacité (Capacity Review – CR) du Royaume‑Unis a été inauguré par le secrétaire du Cabinet en 2005. Le CR a été le premier cadre organisationnel d’évaluation des capacités au Royaume‑Unis permettant d’évaluer systématiquement la capacité organisationnelle individuelle des ministères et de publier des résultats qui peuvent être comparés d’un ministère à l’autre. Il a pour objectif d’améliorer la capacité de la fonction publique afin de réaliser les objectifs de prestation du gouvernement et d’être prêt à exécuter les programmes.

Le CR cible trois grands aspects de la capacité de gestion : le leadership, la stratégie et la prestation. À partir d’une liste-modèle de questions et de sous‑critères liés à dix éléments des trois grandes sphères de la capacité de gestion, une équipe d’examen procède à son analyse en utilisant une combinaison d’éléments probants et d’enquêtes fournis par le ministère ainsi qu’en menant des entrevues et en organisant des ateliers sur une courte période de deux à trois semaines.

En faisant preuve de jugement et en se basant sur l’information recueillie pendant la période d’évaluation, l’équipe d’examen attribue une note à chaque élément sur une échelle de cinq points : solide, bien placé, secteur en développement, secteur en développement urgent ou sérieuses préoccupations. Les résultats de l’examen sont publiés, ce qui permet d’établir les secteurs d’intervention. Le processus d’information consiste en un dialogue franc et direct entre le secrétaire du Cabinet, le chef de la fonction publique et les ministères visés dans le plan d’action.

Pour la première ronde d’examens, tous les grands ministères ont été examinés en cinq tranches entre juillet 2006 et décembre 2007[9]. Un défi de trois mois et un bilan après 6, 12 ou 18 mois, si nécessaire, prennent place afin de veiller à ce que le ministère progresse vers la réalisation du plan d’action. Des examens de deuxième ronde sont menés deux ans après l’examen de la première ronde.

Le CR est géré et organisé par le Bureau du Cabinet. Afin d’assurer l’impartialité des résultats d’examen, les équipes d’examen constituées de cinq membres incluent deux experts externes du secteur privé, un représentant du gouvernement et deux représentants d’autres ministères.

Le CR a été bien accueilli au Royaume‑Unis puisque les ministères estiment qu’il a une valeur ajoutée. La participation d’une équipe d’examen extérieure au ministère ajoute un élément d’indépendance aux résultats. Une part importante de jugement est utilisée dans l’évaluation des ministères dans le cadre du CR. Le jugement est essentiel à l’évaluation de la capacité organisationnelle. Cependant, le recours au jugement augmente aussi le caractère subjectif des résultats de l’examen. Même si les évaluations sont fondées sur le jugement, elles utilisent aussi des éléments probants pouvant être comparés d’un ministère à l’autre et ceux-ci sont examinés par un groupe de modération externe et indépendant pour assurer leur cohérence. Enfin, même si le CR a été conçu pour évaluer la capacité des ministères à satisfaire les attentes actuelles et futures en matière de prestation, aucun lien direct n’a été établi entre la capacité et le rendement en matière de prestation.

Cadre d’auto‑évaluation des fonctions publiques de l’Union européenne

En 2000, le cadre d’auto‑évaluation des fonctions publiques (CAF) a été lancé par le Réseau européen des administrations publiques (European Public Administration Network – EUPAN) à titre d’outil d’auto‑évaluation visant à améliorer la qualité de la gestion dans le secteur public des États membres de l’Union européenne (UE). Ce cadre a pour prémisse que d’excellents résultats obtenus en terme de rendement organisationnel, de service aux citoyens et clients, de ressources humaines et de société sont obtenus grâce à la stratégie et à la planification orientées par le leadership, aux ressources humaines, aux partenariats, aux ressources et aux processus. Il examine l’organisation simultanément sous différents angles en établissant une approche exhaustive et intégrée sur le plan de l’analyse du rendement organisationnel[10].

Le CAF s’inspire de la Fondation européenne pour la qualité du management (European Foundation for Quality Management – EFQM) et du modèle de l’université allemande des sciences administratives à Spire. Il est constitué de neuf critères, divisés en deux grands segments – les instruments d’habilitation et les résultats – qui définissent la relation causale entre les capacités organisationnelles. Chacun des critères est subdivisé en sous‑critères; des exemples illustrent certaines pratiques de gestion particulières qui sont en place.

Le CAF n’est pas imposé aux organismes de l’UE[11]; il s’agit d’un outil facultatif présenté aux organismes comme moyen d’accroître leur efficacité organisationnelle. Le CAF est donc un outil d’auto‑évaluation prévu pour un usage interne seulement. Habituellement, une équipe d’examen interne est formée. Elle confronte son interprétation du rendement organisationnel aux indicateurs. Le CAF n’est pas conçu pour être un modèle universel. La souplesse fait partie intégrante de l’approche pour pouvoir adapter le cadre aux besoins de l’organisation. Par exemple, il existe un certain nombre de modèles de CAF spécialisés pour différents secteurs (éducation, gouvernement local, services de police et garde‑frontières). Enfin, le CAF n’impose pas de pratiques organisationnelles particulières; il propose seulement des pratiques d’ordre général.

Le principal avantage du CAF réside dans la souplesse inhérente au concept. Celle-ci permet à chaque organisation de respecter la structure de base du cadre tout en appliquant seulement les exemples adéquats au processus d’auto-évaluation. De cette façon, l’organisation est assurée d’obtenir des résultats pertinents. Cependant, sa nature facultative et son processus fondé sur l’auto-évaluation limite la rigueur, l’indépendance et la comparabilité des résultats dans le temps et entre les organisations.

Programme de gestion du Président aux États-Unis

Le Programme de gestion du Président (President’s Management Agenda – PMA) lancé par l’administration Bush en 2001 met l’accent sur la croissance de l’efficacité organisationnelle dans cinq composantes clés de gestion dans l’ensemble de l’administration publique des États‑Unis. Le programme a été mis sur pied afin d’améliorer la gestion et le rendement de l’administration fédérale et de fournir des résultats prioritaires pour le peuple américain. Le programme ne constitue pas un cadre d’évaluation exhaustif; il définit plutôt cinq initiatives pangouvernementales particulières qui sont jugées importantes à la création du programme, soit i) la gestion stratégique du capital humain, ii) la compétitivité en matière d’approvisionnement, iii) l’amélioration du rendement financier, iv) l’expansion du cybergouvernement et v) l’intégration du budget et du rendement.

Dans les 26 grands départements et agences, toutes les initiatives sont notées à chaque trimestre selon un système de couleurs (rouge, jaune et vert). Le programme utilise une approche à « double pointage » où une cote rouge, jaune ou verte est attribuée à la situation actuelle et aux progrès réalisés. Les progrès sont, dans ce cas, définis comme étant l’exécution des plans d’amélioration fondés sur l’évaluation de la situation actuelle. Le PMA fait appel à une approche d’auto-évaluation fondée sur des normes établies pour chaque initiative. Le chef de l’exploitation de chaque agence est responsable de l’exécution de sa propre évaluation trimestrielle.

L’Office of Management and Budget (OMB – du bureau exécutif du Président) est responsable du PMA. Cependant, le Conseil de gestion du Président, composé des chefs de l’exploitation de l’ensemble des 26 agences du gouvernement fédéral, se réunit régulièrement pour évaluer les progrès réalisés par ces agences dans le contexte du PMA.

Même si le PMA est un processus normalisé pour chaque organisation, sa portée est limitée aux cinq principales priorités de gestion pangouvernementales. Comme pour le CAF, l’approche d’auto‑évaluation, qui est utile compte tenu du cycle trimestriel d’évaluation, peut limiter la rigueur et l’impartialité des résultats d’évaluation. Cette lacune est toutefois compensée par la surveillance exercée par le Conseil de gestion du Président, qui serait l’équivalent ici d’un comité de surveillance constitué d’administrateurs généraux.

Vous trouverez plus de détails sur chaque administration comparée à l’annexe D du présent rapport.

Applicabilité au CRG

Notre examen des cadres en place dans d’autres administrations révèle que les outils utilisés ont un objectif (amélioration du rendement) et une méthodologie (diagnostic périodique de la capacité organisationnelle) semblables au CRG. De plus, toutes les administrations semblent être confrontées à des difficultés similaires, notamment, établir le lien entre l’évaluation et l’amélioration du rendement, définir des mesures claires et trouver des façons d’accroître l’efficacité des approches.

L’analyse de ces pratiques étrangères offrent au CRG la possibilité d’améliorer certains éléments particuliers afin d’accroître son utilité et sa viabilité. Voici le résumé des principales considérations tirées de la comparaison internationale du CRG que nous approfondirons à la section 3.0 ci‑dessous :



3 ÉVALUATION DU CRG

D’après une série de 23 questions déterminées par un groupe d’administrateurs généraux, nous avons élaboré quatre grandes questions stratégiques. Elles appuient notre examen du CRG à titre d’outil d’évaluation du rendement de gestion, de la méthodologie connexe et des pratiques administratives ainsi que des avantages du CRG relativement aux coûts. Les quatre questions stratégiques sont les suivantes :

Un bref aperçu du processus du CRG est présenté ci‑dessous. Dans les sections qui suivent, nous répondrons à chacune des quatre questions, en incluant une conclusion pour chaque question stratégique.

3.1 Modèle, processus et cycle du CRG

Le CRG est structuré autour de dix grands éléments ou composantes de gestion : régie et orientation stratégique; valeurs de la fonction publique; personnes; politiques et programmes; services axés sur les citoyens; gestion des risques; gérance; responsabilisation; résultats et rendement; et apprentissage, innovation et gestion du changement. Les dix éléments du CRG sont présentés à la figure 2 ci‑dessous.

Figure 2 : Les dix éléments du CRG
Figure 2: Représentation sous forme de tableau du Cadre de responsabilisation de gestion.

Figure 2 - Version textuelle

Figure 2 - Afficher l'image pleine dimension

Les organisations sont évaluées en fonction de 21 composantes de gestion (CG); chacune de ces composantes est associée à des éléments de preuve et possède des critères de notation afin de faciliter la notation globale par CG. L’échelle d’évaluation à quatre points accorde une note à chaque CG comme suit : fort, acceptable, possibilité d’amélioration ou attention requise. La Direction du CRG au sein du SCT a récemment élaboré un modèle logique pour permettre au CRG de préciser les résultats. Le modèle logique est présenté à l’annexe B du présent rapport. Il est important de signaler que le CRG n’est pas le seul déterminant d’une fonction publique bien gérée. Outre son rôle de surveillance élargi en tant que conseil de gestion et bureau du budget, le SCT surveille le renouvellement du système de gestion des dépenses (SGD) (en vertu duquel le SCT conseille, en fonction des examens stratégiques, le Cabinet et le ministère des Finances sur les réaffectations possibles afin d’assurer l’harmonie des dépenses avec les priorités de l’État) ainsi que la Politique sur la structure de gestion, des ressources et des résultats (qui fournit une vision commune pangouvernementale détaillée de la base permanente des dépenses des programmes). L’harmonisation entre le CRG et les priorités de l’État est présenté à l’annexe C.

Le processus d’évaluation du CRG est effectué annuellement par le SCT. Il est fondé sur des éléments probants soumis par les ministères et les organismes pour appuyer les indicateurs quantitatifs et qualitatifs définis dans le cadre. Les évaluations, faites par des représentants du SCT, incluent un processus d’assurance de la qualité pour faire en sorte que les résultats soient robustes, justifiables, complets et exacts.

À chaque ronde d’évaluation, les 21 CG sont évaluées pour chaque ministère et organisme. On compte cependant les exceptions suivantes :

Les cinq principales étapes du processus d’évaluation du CRG sont les suivantes :

Étape 1 – Établissement des priorités : Le processus d’évaluation du CRG commence par la page expliquant le contexte de la ronde précédente. Cette dernière est fournie par le SCT à l’administrateur général. Elle présente les principales priorités pour l’année à venir. Pendant l’année, les ministères et les organismes élaborent des plans d’action et déploient des efforts pour remédier aux lacunes cernées et améliorer le rendement en matière de gestion au sein de l’organisation.

Étape 2 - Préparation et présentation de documents : Avant la ronde d’évaluation, le SCT organise des séances de formation et de sensibilisation afin de présenter les modifications apportées aux critères d’évaluation. Une fois la ronde d’évaluation commencée, les ministères et les organismes présentent des documents selon l’évaluation et les critères de notation à l’étude pour chaque CG ainsi que des éléments de preuve afin que l’évaluation puisse être menée par rapport aux mesures.

Étape 3 – Évaluation : Le processus qui permet une évaluation préliminaire inclut une analyse détaillée, des examens et des approbations dans les secteurs des politiques et des programmes du SCT. Cela inclut des examens verticaux (un examen de tous les résultats liés aux CG dans un ministère ou un organisme) et des examens horizontaux (une comparaison des résultats liés aux CG dans l’ensemble des ministères et des organismes évalués) qui sont réalisés par des hauts fonctionnaires du SCT. Une fois ces examens terminés, les résultats provisoires sont présentés au cours d’une séance du Forum de la stratégie du SCT à laquelle le secrétaire délégué, les secrétaires adjoints des secteurs des programmes et les responsables des CG examinent les résultats provisoires de chaque ministère et en discutent. Suivant les résultats obtenus dans le cadre du Forum de la stratégie, les résultats des évaluations provisoires sont communiqués aux ministères et aux organismes pour rétroaction.

Le portail du CRG

Le portail du CRG est l’outil utilisé pour faciliter la présentation d’éléments probants pour aborder les éléments de preuves et pour assurer une communication efficace et en temps opportun entre le SCT et les représentants du CRG dans les ministères. Un essai pilote du portail du CRG a été mené au début de la ronde V afin de faciliter et d’améliorer les communications entre le SCT et les ministères et les organismes. Depuis, le portail du CRG est devenu un outil essentiel aux évaluations du CRG, tant pour le SCT que pour les répondants des ministères. Ce portail facilite la transmission des documents ministériels au SCT à titre d’éléments probants appuyant les évaluations du CRG et les notes attribuées. De même, le portail du CRG permet d’archiver tous les documents envoyés par voie électronique par les ministères et les organismes.

Outre le portail, il existe aussi une application Web appelée le Système d’évaluation du CRG, qui est liée au portail du CRG. Cette application a été élaborée et améliorée lors des trois dernières rondes d’évaluation du CRG, et elle est utilisée pour traiter et archiver les activités d’évaluation du SCT.

Étape 4 – Finalisation et présentation de rapports : Suivant la rétroaction des ministères et des organismes, les résultats des évaluations sont finalisés. En outre, une page de contexte et un rapport simplifié sont rédigés afin de soutenir les résultats de l’évaluation et de déterminer les priorités en matière de gestion pour l’année à venir. Une deuxième séance du Forum de la stratégie du SCT est tenue afin de fournir des directives sur les pages de contexte, les rapports simplifiés ou les notes d’évaluation ainsi que pour apporter la touche finale aux documents et obtenir un consensus sur les évaluations finales des ministères.

Étape 5 – Communication : Le secrétaire du Conseil du Trésor approuve les rapports finaux et il envoie une lettre à chacun des administrateurs généraux afin de les informer des résultats et des objectifs prioritaires pour l’année à venir. Afin de faciliter l’élaboration des plans d’action, des séances d’information bilatérales sont organisées entre l’administrateur général et le secrétaire pour certains ministères. Les secrétaires adjoints des programmes s’occupent des autres ministères. À cela s’ajoute le processus du Comité des hauts fonctionnaires (CHF) selon lequel le greffier du Conseil privé (ou son adjoint) présente des observations à chaque administrateur général en ce qui concerne leur rendement, incluant les résultats du CRG pour leur ministère. Au‑delà de la collectivité des administrateurs généraux, les résultats ministériels sont affichés sur le portail du CRG afin de faciliter la communication élargie avec tous les représentants ministériels qui participent au processus d’évaluation du CRG.

Étape 6 – Publication : Afin d’assurer la transparence du processus pour le grand public, les résultats de l’évaluation du CRG sont publiés sur le site Web du Conseil du Trésor.

Étape 7 – Analyse rétrospective : Une fois la ronde terminée, la Direction du CRG entame une analyse rétrospective avec le personnel du portefeuille du Conseil du Trésor (PCT), les responsables de gestion des secteurs et les coordonnateurs du CRG dans divers ministères et organismes. L’analyse rétrospective vise à évaluer le processus et la méthodologie dans le but de cerner les aspects à améliorer qui seront intégrés à la ronde ultérieure. Des recommandations sont présentées après consultations auprès du personnel du PCT et de la Direction du CRG. Elles peuvent inclure des améliorations à apporter au processus et/ou au calendrier, des correctifs à apporter aux secteurs de gestion, de nouveaux modèles de méthodologie ou encore une formation supplémentaire. Il est du ressort du Comité de supervision de la politique de gestion du PCT et au secrétaire du Conseil du Trésor d’approuver les recommandations avant leur mise en œuvre à la ronde suivante.

La figure 3 résume les principaux jalons du processus d’évaluation du CRG.

Figure 3 : Processus d’évaluation du CRG
Figure 3 : Processus d’évaluation du CRG

Figure 3 - Version textuelle

La Direction du CRG, de par son rôle de leader, assure le soutien de l’évolution du CRG et prend en compte les préoccupations des intervenants. Pendant la ronde VI, la Direction du CRG a animé une conférence sur les principales pratiques de gestion à l’intention des ministères et des organismes. Cette tribune a permis de présenter l’orientation du SCT à l’égard de certaines CG pour lesquelles des résultats horizontaux dans l’ensemble des ministères et des organismes étaient moins élevés. Elle a mis en relief des ministères et des organismes de tailles diverses qui avaient mis en œuvre avec succès des pratiques exemplaires dans les CG individuelles. Les responsables des CG ont aussi pris l’initiative de stimuler le dialogue et les efforts visant à régler les problèmes horizontaux relevés grâce au CRG en tirant profit des collectivités fonctionnelles existantes, notamment, celles de la Technologie de l’information, de la Vérification interne et de la Gestion financière.

Parmi les autres initiatives de la Direction du CRG, mentionnons l’élaboration de documents d’orientation et d’une méthodologie du CRG, la gestion et l’amélioration du portail du CRG, l’élaboration du modèle logique du CRG ainsi que le cadre d’une approche d’évaluation fondée sur le risque.

3.2 Le CRG atteint‑il ses objectifs?

Comme le CRG n’a été élaboré que récemment, nous n’avons pu fonder l’approche de son évaluation sur le modèle logique du CRG présenté à l’annexe B. Dans le cadre de l’évaluation du CRG, nous avons remarqué qu’il a évolué, depuis une « conversation » initiale entre des administrateurs généraux et le SCT vers une évaluation plus définie, rigoureuse et documentée. Au cours de nos interactions avec le SCT, nous avons pu confirmer que cette évolution représentait une approche consciente visant à combler les attentes de plus en plus élevées exigeant une démonstration claire de la responsabilisation au sein du secteur public[12]. Comme précisé à la section 1.1, nous avons choisi de centrer l’évaluation sur les objectifs actuels du CRG plutôt que sur les objectifs initiaux afin d’optimiser son utilité.

Nous considérons que le CRG atteint ses objectifs. Le CRG donne aux ministères un point de vue organisationnel des pratiques de gestion, et il offre au SCT une perspective des tendances et des problèmes de gestion pangouvernementaux. De plus, nous estimons que les dix principaux éléments du CRG constituent un outil efficace pour définir la gestion et établir des objectifs de saine gestion dans un ministère ou un organisme. Cet avis est partagé, de façon générale, par les intervenants clés. Notre examen des autres modèles appuie aussi cet énoncé.

Dans le cadre des entrevues et des consultations, nous avons constamment entendu et observé que le CRG et son processus d’évaluation avaient menés à un intérêt accru pour les pratiques de gestion et qu’il était devenu un catalyseur de pratiques exemplaires. Comme l’indique le modèle logique du CRG présenté à l’annexe B, un des résultats finaux du CRG est l’amélioration continue de la qualité de gestion dans la fonction publique fédérale. Gardant cet objectif à l’esprit, il est encore possible d’améliorer le CRG pour en assurer la viabilité, l’utilité et l’obtention des résultats attendus à long terme.

Le CRG a entraîné un certain nombre de répercussions imprévues tant sur le plan des avantages que sur celui des conséquences. Parmi les avantages inattendus, mentionnons :

En revanche, les conséquences imprévues ont été les suivantes :

1. En articulant les attentes de la direction, le CRG a fait en sorte de mettre un accent accru sur les pratiques de gestion, par exemple, les questions liées à la gestion. Il est devenu un catalyseur de l’intégration des pratiques exemplaires dans les ministères et les organismes.

Les représentants ministériels ont répété à tour de rôle que le CRG avait fait en sorte que les administrateurs généraux et les cadres de direction se concentrent davantage sur les problèmes de gestion et que ce dernier était devenu le catalyseur des pratiques exemplaires. De plus, comme les intervenants perçoivent les résultats de l’évaluation du CRG comme étant généralement exacts, le CRG a permis de cerner les aspects à améliorer et il a contribué à l’établissement des priorités, à l’attribution des ressources et à l’identification des changements à apporter aux processus opérationnels. Le CRG a aussi aidé les administrateurs généraux à gérer leur organisation. En effet, l’évaluation du CRG fournit un aperçu de l’état du ministère qui s’avère utile pour un administrateur général nouvellement arrivé au sein d’une organisation et qui souhaite déterminer ses priorités et son plan d’action.
« J’appuie le CRG. Il a permis de porter l’attention des administrateurs généraux sur les problèmes de gestion. Le fait qu’il existe un mécanisme de notation permet de garder les objectifs à l’esprit et de prendre connaissance de ses progrès. » (Source : entrevue d’un administrateur général)

Plusieurs des administrateurs généraux interviewés ont déclaré utiliser les CG afin d’établir les priorités de gestion et les objectifs de concert avec la haute direction du ministère. Par exemple, le CRG a influencé les ententes de rendement conclues avec la haute direction en vertu desquelles des administrateurs généraux incluent les résultats du CRG à titre de mesure du rendement individuel. Ces ententes sous-tendaient la création d’outils comme le Protocole d’entente du CRG ou encore d’autres ententes sur le rendement conclues entre le sous‑ministre et le sous‑ministre adjoint.

Le SCT a réussi à tirer profit des résultats du CRG pour préciser les attentes de la direction envers les administrateurs généraux, à inciter les ministères et les organismes à se concentrer sur la gestion et à déceler les tendances dans l’ensemble de l’organisation. Par exemple, le SCT a pu orienter les ministères et les organismes dans le cadre de l’établissement de leurs priorités à court terme en fonction de leurs résultats aux évaluations individuelles. Nous avons cru comprendre que le SCT a utilisé les résultats du CRG pour contribuer aux activités de surveillance et appuyer la prise de risques calculés. En utilisant les résultats du CRG pour orienter la surveillance vers les secteurs les plus à risque, le SCT peut recommander et appuyer une autonomie ministérielle croissante afin de permettre à un ministère d’innover et de prendre des risques. Parmi les exemples de résultats du CRG qui contribuent aux activités de surveillance, mentionnons les délégations de pouvoirs, les décisions de mise en œuvre budgétaire, les examens stratégiques et les présentations au Conseil du Trésor.

Il est possible d’utiliser le processus du CRG pour mettre en valeur, favoriser et reconnaître l’innovation dans l’ensemble de l’administration fédérale. En 2009, un rapport sur le programme d’efficience opérationnelle au Royaume‑Unis recommandait que le secrétariat du Cabinet intègre à son évaluation la capacité ministérielle et son rendement antérieur pour promouvoir l’innovation et la collaboration[13].

Le CRG a permis de cerner les problèmes pangouvernementaux et d’élaborer des plans d’action connexes. En tant qu’administrateurs, les gestionnaires des CG au SCT doivent régler les problèmes systémiques précisés grâce aux CRG. Les tendances organisationnelles et les problèmes systémiques ciblés dans le cadre des évaluations des CG sont discutés lors des réunions du Comité consultatif sur la gestion de la fonction publique (CCGFP). Ce comité (autrefois appelé Comité consultatif des portefeuilles du Conseil du Trésor) sert de point de mire pour intégrer le programme pangouvernemental de gestion du SCT et veiller à sa mise en œuvre cohérente et complète. Le SCT fournit aussi aux administrateurs généraux des précis dans lesquels les problèmes horizontaux de gestion sont soulignés. En facilitant le partage des pratiques exemplaires dans l’ensemble des ministères et des organismes, ainsi que dans les collectivités d’intérêt existantes, le SCT soutient les efforts visant à prioriser et à régler ces problèmes.

2. Un dialogue constant a toujours sa place entre le SCT et les administrateurs généraux au cours du processus du CRG.

« La prochaine génération du CRG : il serait intéressant de s’asseoir avec les représentants du SCT lorsqu’ils ciblent les aspects qu’ils examineront. Il faut avoir ce genre de dialogue à l’avance et établir la norme de rendement pour l’année. » (Source : entrevue d’un administrateur général)

Comme nous l’avons indiqué précédemment, le CRG a évolué, passant d’une « conversation » entre des administrateurs généraux et le SCT à une évaluation plus définie, rigoureuse et documentée. Le SCT a ainsi pu utiliser le CRG pour appuyer son rôle de surveillance de la conformité relativement à son cadre de politiques.

Nous estimons que le CRG a évolué et qu’il a maintenant atteint le point où il devrait mettre l’accent sur le niveau d’interaction entre les administrateurs généraux et les hauts fonctionnaires du SCT. Dans le cadre des entretiens, il a été à maintes fois répété que le « processus » avait pris le dessus sur la « conversation ». Cette situation résulte, du moins en partie, de la portée élargie et de la fréquence accrue des évaluations du CRG qui limitent le temps et la capacité qu’ont les cadres supérieurs du SCT de s’engager dans des échanges bilatéraux et significatifs avec l’ensemble des ministères. Le SCT est donc perçu, dans les grands ministères comme dans les petits organismes, comme un évaluateur plutôt que comme un habilitateur. Afin de pleinement atteindre les objectifs du CRG et d’être à la hauteur des cibles de rendement en matière de gestion, il y a lieu de mobiliser plus formellement les hauts fonctionnaires des ministères.

Pour les examens de la capacité au Royaume‑Unis, la mobilisation au plus haut niveau est considérée comme un aspect crucial. Comme précisé dans Take-off or Tail-off? An Evaluation of the Capability Reviews Programme, la consultation et les interactions entre le secrétaire permanent et les conseils ministériels sont honnêtes, intenses, émotives et directes; elles sont essentielles à un véritable changement au sein du ministère.

Plusieurs administrateurs généraux ont indiqué qu’ils aimeraient discuter de rendement et de l’établissement des priorités avec des cadres supérieurs du SCT (secrétaire ou secrétaires adjoints). La totalité des 19 administrateurs généraux qui ont soulevé la question des discussions sur l’établissement des priorités avec les hauts fonctionnaires du SCT ont précisé qu’ils seraient favorables à ces discussions. Que le rendement soit fort ou faible, les administrateurs généraux ont l’intime conviction que ces discussions sont importantes pour permettre aux ministères de faire face à leurs situations actuelles, de communiquer leurs priorités pour l’année et de s’entendre sur les cibles et les priorités en matière de rendement.

La stratégie de communication externe des résultats actuellement observée au Royaume‑Unis bénéficie de beaucoup plus de publicité et de visibilité que les communiqués faisant état des résultats du CRG. Même si cette approche a été conçue pour assurer l’incidence des résultats, nous ne croyons pas qu’il soit pertinent d’adopter cette stratégie pour le CRG.



3.3  Les évaluations du CRG sont‑elles robustes?

Les intervenants des ministères ont confirmé que les résultats des récentes évaluations du CRG reflètent, de façon générale, l’état des pratiques de gestion dans leur organisation et mettent en lumière les aspects de la gestion qui nécessitent davantage d’attention.
« Le fait de ne PAS appliquer le CRG comporte des coûts cachés. » (Source : entrevue d’un administrateur général)

Nous estimons que l’approche et la méthodologie actuelles d’évaluation du CRG s’appuient sur un fondement solide en tant qu’outil d’évaluation du rendement de gestion des ministères. Nous avons aussi noté qu’elles sont conformes aux éléments de base des modèles d’évaluation mis en place dans d’autres administrations. Le SCT a défini des aspects à améliorer afin d’augmenter l’efficacité de l’outil, et il a adopté des mesures visant à simplifier le processus de la ronde VI. Les intervenants ont toutefois rapidement exprimé leurs préoccupations; ils craignent de trop nombreux changements ou une simplification excessive qui réduirait l’attention portée à la gestion.

Au cours des six dernières rondes du CRG, les ministères et les organismes ont accompli des progrès en vue d’intégrer à leur organisation le CRG ainsi qu’un solide rendement de gestion, en poussant leurs attentes jusqu’aux équipes de gestion et de haute direction. Pour assurer une progression continue vers la réalisation de cet objectif et rendre l’outil d’évaluation encore plus permanent, il faut envisager l’amélioration de l’approche et de la méthodologie d’évaluation. Les efforts pour évoluer vers une gestion empreinte d’excellence sont soutenus par l’intégration de certains éléments clés assurant des mesures transparentes et justifiables et l’amélioration du processus de manière à accroître son efficacité et son efficience.

3. Le SCT a mis en place un processus structuré et rigoureux d’analyse des résultats des évaluations du CRG.

Comme précisé à la section 3.1, l’approche adoptée dans l’actuelle évaluation utilise la contribution des représentants des organismes centraux et se sert d’un processus d’assurance de la qualité pour s’assurer de l’exactitude des résultats.

Selon nos discussions avec des représentants ministériels provenant de tous les niveaux, la plupart d’entre eux ne connaissent pas l’étendue du processus d’assurance de la qualité en place au SCT (celui-ci est expliqué en détail à la section 3.1). Même si le processus d’évaluation du CRG commence par une évaluation menée par des analystes, il englobe aussi plusieurs contrôles de qualité et étapes d’approbation auxquels participent des employés de plus haut niveau; il débouche sur un examen et une approbation au niveau du secrétaire délégué et du secrétaire. Le Forum de la stratégie constitue une étape clé de ce processus. Les secrétaires adjoints des secteurs des programmes et des politiques ainsi que les responsables des CG y participent. C’est à cette étape que sont examinés et évalués les résultats provisoires de tous les ministères et les organismes pour l’ensemble des CG. Ce Forum de la stratégie se réunit deux fois, soit une fois avant la finalisation des résultats provisoires d’évaluation et une autre fois avant la diffusion des résultats de l’évaluation finale et de la page de contexte. Il s’agit d’une mesure importante de la gouvernance interne du processus d’évaluation qui garanti qu’un consensus au sujet des résultats de l’évaluation du CRG soit atteint au SCT. La communication continue avec les intervenants des ministères permettra aux organisations de comprendre les processus d’assurance de la qualité en place et de se sentir davantage en confiance. Elle pourrait inclure des commentaires sur la façon de communiquer les résultats aux parlementaires.

Dans le cadre du processus de consultation entourant cette évaluation, la majorité des intervenants des ministères ont exprimé des préoccupations par rapport aux analystes du SCT participant aux évaluations. Ces préoccupations ont surtout trait au taux annuel de roulement des analystes ayant une incidence directe sur leur niveau d’expérience. Comme dans d’autres secteurs de l’administration fédérale, nous avons appris que le roulement des analystes s’inscrit dans une problématique globale de gestion des ressources humaines.

4. Une stabilité croissante des indicateurs du CRG a été constatée dans les rondes récentes.

« Les ministères nous reprochent chaque année de modifier les règles du jeu. » (Source : entrevue d’un haut fonctionnaire du SCT)

Selon les observations qui nous ont été présentées, la stabilité des mesures est à un niveau souhaitable. Afin d’améliorer continuellement l’outil d’évaluation, des changements ont été apportés aux indicateurs à chaque ronde d’évaluation. En comparant la note « fort » accordée à chaque CG, nous avons observé 12 changements (bien que de faible ampleur) apportés à la définition de la notation entre les rondes V et VI. Dans l’ensemble, nous avons cependant remarqué qu’un effort a été déployé afin de stabiliser les CG et les champs d’enquête connexes entre les rondes V et VI.

Stabilité du cycle du CRG : Actuellement, le calendrier du processus d’évaluation est harmonisé avec celui du processus d’évaluation du rendement des administrateurs généraux (CHF); les résultats de l’évaluation du CRG sont communiqués en avril afin de permettre aux CHF d’y contribuer en mai. Ce calendrier n’est toutefois pas harmonisé avec le cycle annuel de planification observé dans les ministères et les organismes. Ces derniers ont donc de la difficulté à intégrer les résultats des évaluations du CRG aux plans opérationnels de l’année à venir.

La plupart des groupes d’intervenants, dont les administrateurs généraux, les hauts fonctionnaires du SCT et les représentants du CRG dans les ministères, ont reconnu que le calendrier du processus d’évaluation était problématique. Il a cependant été noté que tout autre calendrier poserait aussi problème en raison d’autres engagements. Par exemple, mener les évaluations à l’automne leurs permettrait de contribuer aux plans d’activité ministériels, mais cette période correspond aussi à la préparation du RMR et ces deux activités exigent sensiblement la participation des mêmes personnes. En raison des exigences opérationnelles de contribution au processus du CHF et du risque de conflits avec les cycles gouvernementaux actuels, nous ne recommandons pas, pour l’instant, la modification du cycle et du calendrier actuels du CRG.

5. L’approche actuelle consistant à évaluer annuellement chaque CG dans les grands ministères et organismes ne tient pas compte des priorités et des risques uniques des organisations.

Choix des CG à évaluer chaque année : Tous les grands ministères sont évalués chaque année en fonction des 21 CG et l’ensemble des champs d’enquête. Cette méthodologie rend les résultats facilement comparables dans l’ensemble de l’administration fédérale, mais elle ne tient pas compte des aspects uniques des ministères et des organismes. Les organisations présentent certaines caractéristiques qui peuvent entraîner différentes incidences sur les CG, notamment, la taille, le secteur industriel, la complexité, la relation du portefeuille avec un autre ministère, l’étape du cycle de vie.

Selon la nature du ministère où de l’organisme, certaines CG peuvent avoir une pertinence limitée. En revanche, certaines pourraient s’appliquer à chaque organisation compte tenu des priorités actuelles de l’État. Par exemple, la CG 14 « Gestion des biens » a une importance qui varie en fonction de la nature de l’organisation.

Nous reconnaissons que certaines CG seront toujours applicables à l’ensemble des ministères. Par exemple, comme la responsabilisation est une priorité pangouvernementale et puisque le rôle d’administrateur des comptes est confié aux administrateurs généraux, la CG 17 « Efficacité de la gestion financière et des contrôles financiers » est importante pour tous les ministères et les organismes.

Des administrations de l’étranger appliquant des modèles semblables au CRG ont adopté différentes approches afin d’adapter les indicateurs. Au Royaume‑Unis, les indicateurs du CR sont appliqués uniformément dans l’ensemble des ministères et ils ne sont pas adaptés aux risques ou aux priorités de l’organisation. En revanche, le CAF, mis au point pour l’Union européenne, a été conçu pour être flexible et pour permettre aux pays de l’UE d’adapter l’outil d’évaluation.

En raison de la nature publique des résultats d’évaluation, recevoir une note plus faible dans un domaine peu risqué ou peu prioritaire pourrait entraîner une prise de décision inappropriée liée à l’attribution des ressources, dans le seul but d’améliorer ladite note l’année suivante. En adoptant une approche fondée sur le risque ou sur les priorités, seules les composantes qui sont considérées risquées ou prioritaires en fonction du caractère unique de l’organisation seraient mesurées. Ainsi, la direction serait encouragée à cibler ses efforts vers les secteurs appropriés. La totalité des 20 administrateurs généraux ayant abordé la question de l’adoption d’une approche d’évaluation fondée sur le risque croit que celle-ci permettrait de tenir compte des risques et des priorités uniques à chaque organisation. Cette approche serait plus cohérente avec les efforts déployés en vue de simplifier les CG. Ces problèmes ont été continuellement soulignés lors des consultations menées auprès des intervenants.

Détermination des priorités de chacun des ministères et des organismes : L’observation suivante est dégagée desconsultations menées auprès des intervenants : les résultats des  évaluations du CRG publiés sur le site du SCT ne sont pas suffisamment mis en contexte. À des fins de cohérence et de comparabilité, le contexte n’est pas pris en considération lors de l’application des critères d’évaluation. Cependant, lors des récentes rondes d’évaluation, des efforts ont été déployés afin d’accompagner les résultats des évaluations d’un contexte suffisamment exhaustif.

Aux États‑Unis, là où les évaluations sont trimestrielles, une approche de double carte de pointage est en place afin de non seulement dresser un portrait de l’état actuel de l’organisation, mais aussi d’évaluer sa progression par rapport à son plan de mise en œuvre.

L’interprétation du rendement d’une organisation par rapport à son contexte (par exemple, étape du cycle de vie, progression vers l’amélioration, taille) est cruciale afin de brosser un portrait d’ensemble fidèle. Cependant, l’établissement de priorités individuelles fondées sur la situation unique de l’organisation crée certaines attentes en matière de ce qui est réalisable et tient l’administrateur général responsable du rendement obtenu par rapport à ces attentes. L’identification de ces priorités et le rendement obtenu à leur égard fourniraient le contexte nécessaire à la compréhension des résultats obtenus par rapport à la situation unique de l’organisation.

6. Même si le fardeau redditionnel inhérent au CRG a été allégé, il est encore possible de réduire l’incidence de l’évaluation du CRG sur les ministères et les organismes.

Les évaluations du CRG sont menées chaque année dans toutes les organisations visées, à l’exception des petits et des très petits organismes. La ronde VI incluait 21 CG et 68 éléments de preuve exigeant la présentation de documents à analyser. Dans le cadre de la ronde V, un total de 16 961[14] documents a été soumis au SCT aux fins de l’évaluation du CRG. Après avoir pris connaissance des observations recueillies au cours d’analyses rétrospectives, le SCT s’est engagé à alléger le fardeau redditionnel. Dans le cadre de la ronde VI, le nombre de documents présenté avait été réduit de 50 p. 100, en partie en raison de l’instauration de limites du nombre de documents par CG. Cette réduction vaut à la fois pour le nombre de documents soumis et la taille totale (en giga-octets) des documents.
« Il faut évaluer le fardeau redditionnel. . . afin d’explorer des façons de simplifier le processus de documentation en maximisant l’utilisation de renseignements fournis par d’autres mécanismes de surveillance ou d’évaluation. » (Source : entrevue d’un administrateur général)

Compte tenu de l’incidence importante des exigences de présentation de rapports du CRG sur les petits organismes, ces derniers sont évalués suivant un roulement triennal. Les très petits organismes sont simplement tenus de remplir un formulaire afin d’appuyer les entrevues qui seront ultérieurement menées auprès des hauts fonctionnaires du SCT.

Au Royaume‑Unis et aux États‑Unis, les modèles actuels n’évaluent pas toutes les organisations. Ils se concentrent sur les grands ministères, limitant ainsi le nombre d’organisations évalué. Cette approche n’est pas recommandée pour le CRG, puisque ses résultats sont incorporés au processus du CHF et parce qu’ils auraient une incidence sur la conception globale du modèle.

Malgré les observations positives qui ont formulées à la suite de ces efforts, le fardeau redditionnel associé au CRG demeure lourd pour les ministères et les organismes. Les intervenants estiment que lorsque ce fardeau est jumelé à la nature publique des résultats d’évaluation, les fondements du CRG sont contournés sans que les pratiques de gestion ne soient nécessairement améliorées. L’adoption d’une approche d’évaluation fondée sur les risques ou les priorités qui limite l’évaluation au nombre d’indicateurs pertinents pour l’organisation permettrait d’alléger le fardeau redditionnel.

Simplifier les exigences de présentation de rapports : Tous les groupes d’intervenants ont soulevé la possibilité de simplifier le processus d’évaluation en tirant profit de renseignements existants. Des sources pouvant éventuellement contribuer au CRG ont été déterminées, notamment, les comités extérieurs de vérification, les rapports de la vérificatrice générale et d’autres preuves tangibles détenues par l’administration centrale. Il pourrait aussi être pertinent d’utiliser d’autres techniques de collecte de renseignements complémentaires afin de recueillir des éléments probants, comme des entrevues et des ateliers, pour effectuer une évaluation.

Dans le cadre de la ronde VII, le SCT a pris l’initiative de simplifier l’élément « Personnes ». Cette approche a entraîné une consolidation des éléments de gestion des personnes se trouvant actuellement dans les CG 1, 10, 11 et 21 en une seule CG portant sur la gestion des personnes[15]. Le processus a aussi été simplifié afin d’élaborer des mesures qui ne requièrent aucune exigence supplémentaire de présentation de rapports. Ces mesures sont fondées sur huit indicateurs clés de rendement existants. L’approche consistait à cerner l’ensemble des demandes de sources de données et des renseignements actuellement disponibles, puis à mettre au point des indicateurs de rendement en fonction des renseignements existants. Cette approche peut être envisagée pour d’autres CG, de concert avec l’élaboration de « règles d’or » incorporées au cadre d’évaluation du rendement.

Cohérence de l’orientation disponible relativement aux indicateurs : Le niveau d’orientation fourni aux organisations afin de les aider à comprendre les critères de présentation des rapports n’est pas constant pour l’ensemble des indicateurs. Pour certaines CG, les documents d’orientation fournis aux ministères sont très détaillés et prescriptifs, ce qui peut ajouter à la complexité du processus. Pour les grands ministères, chaque CG peut être attribuée à différents cadres supérieurs. En revanche, les plus petits organismes possèdent des ressources limitées pour répondre au CRG et la quantité de documents à produire peut leur sembler ingérable. Cela peut avoir une incidence directe sur l’acceptation de l’approche et sur la satisfaction à son égard. L’élaboration de règles d’or ou de principes communs, ciblant notamment la présentation simple et uniforme des documents d’orientation devrait fournir les paramètres nécessaires à l’orientation cohérente des CG.

7. La subjectivité des évaluations du CRG est le résultat du grand nombre d’indicateurs qualitatifs incorporés à l’approche d’évaluation.

Subjectivité des indicateurs et des définitions des notations : Les indicateurs de nature qualitative (c’est‑à‑dire, sans mesures quantitatives) exigent une évaluation qui repose en grande partie sur le jugement d’analystes, d’examinateurs et de cadres de direction du SCT. Par exemple, la CG 8 « Gérer le changement organisationnel » cherche à déterminer dans quelle mesure l’organisme s’investit dans la gestion du changement. La CG 1 « Leadership et culture organisationnelle fondés sur les valeurs » vise à mesurer à quel point « la culture organisationnelle reflète les valeurs et l’éthique de la fonction publique ». Dans ces cas, il est possible qu’il soit difficile d’étayer les décisions et de produire une série de jugements cohérents les uns avec les autres.

Les mesures qualitatives constituent un outil essentiel pour mesurer certains éléments du rendement de gestion. Une subjectivité nécessaire, qui est introduite dans le processus d’évaluation, devrait néanmoins être accompagnée de mesures bien définies qui augmentent la cohérence dans l’ensemble des organisations. Dans notre examen des critères appuyant l’évaluation des CG, nous avons noté que les définitions des notations utilisées pour évaluer les éléments probants ne sont pas toujours adéquates, ni assorties d’exemples ou de normes qui permettraient d’assurer la cohérence dans l’ensemble des CG. À titre d’exemple, au moment de noter une organisation sous l’élément de preuve 1.1 « Les leaders affichent une solide éthique et de solides valeurs de la fonction publique », l’obtention de la note « possibilité d’amélioration » ou « acceptable » dépend de la fréquence « sporadique» ou « régulière » à laquelle l’activité a été accomplie. Les critères de notation ne définissent pas d’indicateur qualitatif (c’est‑à‑dire, à quoi correspond la fréquence « régulière ») et il n’existe pas de mesure de l’efficacité (c’est‑à‑dire, est‑il opportun d’exécuter une tâche « régulièrement » en fonction de la situation d’un certain ministère). Nous avons noté dans notre comparaison internationale que l’approche du CAF dans les pays de l’UE demande des exemples à l’appui de la cohérence dans l’application des mesures.

Perception d’une connotation négative de la note acceptable : Dans le CRG, chaque ministère obtient une note par CG. L’échelle de notation appliquée à toutes les CG est constituée de quatre niveaux :

Dans le cadre de notre évaluation, plusieurs intervenants ministériels perçoivent mal ou jugent inappropriée la terminologie de notation « acceptable », car elle semble avoir une connotation négative. Puisque, selon le SCT, une note « acceptable » se veut positive, il serait approprié d’adopter une autre terminologie pour représenter cette note sur l’échelle d’évaluation. Par exemple, le CR du Royaume‑Unis utilise la mention « bien placée » avant la note « fort ».

Incohérence des notes dans l’ensemble des indicateurs : Même si la définition d’une notation est prévue pour chaque élément de preuve, une méthodologie de notation est appliquée à chaque CG pour en arriver à une note globale par CG. La production d’une note et le système de pondération des CG ne sont pas cohérents dans l’ensemble des CG. Parmi les approches utilisées, mentionnons la moyenne pondérée, la moyenne simple ou l’approche subjective. L’application d’un cadre cohérent de pondération des notes d’évaluation est considérée comme étant une pratique exemplaire et elle accroîtrait la transparence, la compréhension et l’acceptation des notes des CG par les ministères et les organismes.

Il est possible d’harmoniser les indicateurs et leurs critères de notation de manière à accroître la cohérence de l’évaluation, compte tenu de la nature qualitative des indicateurs conçus pour mesurer le rendement de gestion. L’élaboration de « règles d’or » touchant toutes les CG, y compris des indicateurs mesurables qui appliquent une approche de notation normalisée, fournirait des paramètres aux responsables des CG du SCT qui seraient utiles lors de l’élaboration d’indicateurs et de définitions des notations.

8. Bon nombre des éléments de preuve de la ronde VI sont fondés sur des processus, ce qui ne permet pas de mesurer l’efficacité des résultats du processus.

« Le CRG mesure un processus, et non un résultat de gestion; le CRG nous décrit une situation, mais il doit aller plus loin et nous apprendre comment la corriger. » (Source : entrevue d’un administrateur général)

Notre évaluation a permis d’établir que 24 des 68 éléments de preuve de la ronde VI (soit 35 p. 100) sont surtout fondés sur des processus; les autres éléments de preuve mesurent les résultats ou l’observation des exigences inscrites dans les politiques. Il se peut que des indicateurs fondés sur des processus ne mesurent que le processus associé à l’infrastructure et qu’ils n’intègrent pas nécessairement des mesures de l’efficacité ou les résultats engendrés par certaines décisions.

En utilisant des indicateurs fondés sur des processus pour mesurer le rendement de gestion, on tient pour acquis que le processus en soi mènera à l’obtention de résultats. On ne peut toutefois émettre cette hypothèse sans vérifier que le processus est optimal dans toutes les situations. Il est donc difficile de mesurer le rendement de gestion au moyen d’indicateurs fondés sur des processus en raison de ce facteur d’incertitude. Les indicateurs fondés sur des résultats permettent d’évaluer si les pratiques de gestion ont eu une incidence sur la qualité des décisions et des mesures adoptées. Il est possible de tirer profit d’un modèle logique afin de déterminer ces indicateurs.

À titre d’exemple, une organisation a formalisé la structure auparavant informelle de ses comités afin de satisfaire les critères du CRG. Chacun des comités a donc élaboré un mandat et le processus est devenu formel. Même si ces mesures ont été prises et reconnues par la note du CRG, la haute direction se questionne sur l’utilité de la démarche au chapitre de l’efficacité ou des résultats du mécanisme.

L’élaboration de règles d’or pour toutes les CG, y compris pour les indicateurs orientés sur les résultats, fournirait des paramètres aux responsables des CG du SCT lorsqu’ils élaborent des indicateurs et qu’ils rédigent les définitions des notations.

3.4 Le CRG est‑il rentable?

« Le CRG est-il rentable? Il y a deux ans, j’aurais répondu non. Nous y arrivons maintenant. Nous constatons une plus grande efficacité au chapitre de l’évaluation et un plus grand nombre d’avantages sur le plan de la gestion. » (Source : entrevue d’un administrateur général)

Les résultats de notre analyse révèlent que, même si des améliorations ont été apportées lors des récentes rondes pour s’attaquer au problème du fardeau redditionnel et accroître ainsi l’efficacité du processus, nous croyons qu’il serait possible d’aller plus loin sur le plan des éléments de preuve requis par le CRG. Cependant, compte tenu des limites des renseignements disponibles sur les coûts, il n’a pas été possible d’en arriver à une conclusion sur la rentabilité du CRG. La section suivante renferme une analyse des renseignements sur les coûts qui étaient disponibles. On y trouve aussi deux exemples illustrant les avantages du CRG perçus par les ministères.

9. Nos consultations ont révélé que la plupart des ministères et des organismes n’étaient pas persuadés de la rentabilité du CRG.

Agriculture et Agroalimentaire Canada (AAC)

En raison de l’augmentation des fonds octroyés au ministère dans le cadre du budget fédéral de 2006, l’AAC a toujours eu de la difficulté à gérer les présentations requises par le CT. Aussi, le ministère avait reçu une note « attention requise » au titre de la CG 5 à la ronde IV de l’évaluation du CRG.

Le ministère a déployé de grands efforts afin d’améliorer la gestion des présentations au CT, notamment, l’élaboration d’un protocole et de critères visant à établir une distinction entre les présentations prioritaires et celles qui le sont moins.

Cette mesure a permis de réduire le nombre de présentations nécessitant un calendrier raccourci et a donné au ministère assez de temps pour mettre au point des présentations au CT de bonne qualité.

En outre, une unité de contrôle du ministère a été mise sur pied afin d’accroître la surveillance, la remise en question et le contrôle de la qualité. Toutes ces mesures ont permis d’améliorer la note accordée au titre de la CG 5 depuis la ronde IV.

Les principales constatations tirées de nos  consultations menées auprès des ministères et des organismes sont les suivantes:

Outre l’information recueillie sur la rentabilité du CRG lors d’entrevues avec divers intervenants, nous avons obtenus des renseignements sur le coût approximatif d’une évaluation du CRG, tel qu’estimé par les ministères et les organismes ainsi que par le SCT.

Exemple : Agence de promotion économique du Canada atlantique (APECA)

L’APECA est un exemple d’organisme qui a intégré le CRG à sa gestion quotidienne afin d’assurer la solidité continue de ses pratiques de gestion.En fonction des pratiques exemplaires déterminées par les organismes de développement économique régional (DER), l’APECA a élaboré des plans d’action du CRG qui tiennent les membres de la haute direction responsables de leur intégration aux plans stratégiques et opérationnels, sous la surveillance d’un comité de gouvernance du CRG.

En tout, 21 ministères et organismes ont été invités à soumettre des renseignements sur les ressources consacrées au processus annuel d’évaluation du CRG. Ces renseignements incluaient les salaires des équivalents temps plein (ETP) ainsi qu’une estimation du temps total et du coût total de l’évaluation du CRG dans leur ministère. Des 21 organisations sollicités, 14 ont fourni l’estimation du coût du CRG. Un autre échantillonnage de trois ministères et organismes (un petit, un moyen et un grand) a été formé afin de déterminer le niveau d’effort en jours‑personnes requis pour 12 activités du CRG. À partir de cette information, une estimation du coût total du processus d’évaluation du CRG par ministère a été établie.

Coût du CRG dans les ministères et les organismes : Compte tenu de l’éventail des réponses et des observations fournies dans le cadre d’entrevues distinctes, il semble clair que la plupart (voire la totalité) des organisations n’assurent pas le suivi du coût du processus d’évaluation du CRG. À ce titre, les résultats de l’analyse des coûts peuvent être remis en question. Les représentants des ministères ont seulement pu fournir un aperçu de l’effort requis pour la ronde VI. Dans plusieurs cas, les personnes ressources du CRG dans les ministères pouvaient fournir les renseignements concernant les ETP des personnes qui se consacrent au processus du CRG, mais elles avaient de la difficulté à estimer le niveau d’effort des autres personnes, au sein du ministère, qui participent aussi au processus. En outre, pour les ministères qui étaient capables de fournir des renseignements, les données nous ont été remises accompagnées d’un certain nombre de mises en garde et de limites. Il n’a donc pas été possible de procéder à une analyse des tendances ni d’analyser le coût exigé par rapport au rendement.

Les graphiques qui suivent sont fondés sur les renseignements qui nous ont été fournis et donnent une indication du coût total du CRG pour un échantillon de ministères et d’organismes.

Figure 4 : Coût total estimatif de l’évaluation du CRG en 2008‑2009 par organisation
Figure 4 : Coût total estimatif de l’évaluation du CRG en 2008-2009 par organisation

Figure 4 - Version textuelle

La figure 4 présente le coût total estimatif de l’évaluation du CRG tel que déclaré par les ministères et les organismes. Comme il est possible de le constater, le coût du CRG varie d’une organisation à l’autre. Selon les renseignements disponibles et considérant que les coûts estimatifs représentent des réalités différentes dans les ministères et les organismes, il est impossible de tirer de conclusion sur les coûts du processus du CRG. Il serait encore plus difficile de se pencher sur sa rentabilité.

En raison de ce résultat, le SCT a demandé à trois organisations (un petit organisme, une organisation de taille moyenne et un grand ministère) de remplir le modèle détaillé d’établissement des coûts et de déterminer le temps consacré par leur organisation à 12 activités du CRG. La figure 5 illustre le coût total estimatif de l’évaluation du CRG. Il est clair qu’à mesure qu’augmente la taille du ministère, le coût augmente lui aussi. Le coût approximatif de l’évaluation pour l’échantillon de ministères en fonction de leur taille est le suivant : 47 700 $ (petit), 118 700 $ (moyen) et 373 400 $ (grand). Il est également intéressant de souligner que lorsque ces coûts sont transformés en pourcentage du budget de fonctionnement des ministères, c’est l’inverse qui se produit : les petits organismes consacrent au CRG une plus grande proportion de leur temps et des coûts plus élevés en pourcentage de leur budget total que les grands ministères ou organismes. Ces résultats confirment les observations soulignant que le fardeau redditionnel est davantage ressenti chez les plus petits organismes.

Figure 5 : Coût estimatif de l’évaluation du CRG en 2008‑2009 pour un échantillon de trois organisations
Figure 5 : Coût estimatif de l’évaluation du CRG en 2008-2009 pour un échantillon de trois organisations

Figure 5 - Version textuelle

Coûts pour le Conseil du Trésor

La Direction du CRG a animé un exercice d’établissement des coûts au SCT afin de déterminer le coût estimatif d’une évaluation du CRG. Les estimations de coûts ont été recueillies auprès des quatre secteurs de programmes et des centres stratégiques responsables des 21 composantes de gestion, de la Direction du CRG coordonnant le processus d’évaluation du CRG pour le gouvernement du Canada, ainsi que du Secteur des services ministériels du SCT (qui met à jour le système d’évaluation du CRG et le portail du CRG, en plus d’appuyer les communications ministérielles liées au CRG). Il est important de noter que les renseignements fournis par les ministères et les organismes constituent des estimations, étant donné que le temps consacré à des tâches liées au CRG n’est pas comptabilisé au SCT, pas plus que les coûts des biens ou des services.

Le niveau total d’effort est estimé à 47,5 ETP. Au SCT, la plus récente période d’évaluation (ronde VI) a fait appel à 339 personnes, de tous les niveaux, dans l’ensemble de l’organisation. La majorité des efforts consacrés au processus d’évaluation du CRG est fourni par les centres stratégiques et par le secteur de programme qui procède à l’évaluation des 21 composantes de gestion. La Direction du CRG, qui coordonne le processus du CRG, représente 16 p. 100 de l’effort‑personne, tandis que les Services ministériels sont responsables des derniers 5 p. 100.

Figure 6 : Estimations des coûts d’évaluation du CRG au SCT par secteur
Figure 6 : Estimations des coûts d’évaluation du CRG au SCT par secteur

Figure 6 - Version textuelle

Pour faire suite à cet exercice, on estime à 5,6 millions de dollars par année le coût du processus d’évaluation du CRG au SCT.

  3.5  La structure de gouvernance du CRG est‑elle efficace?

Bien que la structure de gouvernance du CRG et le processus d’évaluation du CRG soient efficaces, on pourrait encore les améliorer grâce à une participation plus concrète des ministères et des organismes.

Dans le cadre de l’évaluation de la structure de gouvernance du CRG, nous avons été invités à examiner les rôles, les responsabilités et les processus d’approbation appuyant le CRG, à nous prononcer sur la pertinence du rôle du SCT dans la mesure du rendement de gestion du gouvernement ainsi qu’à déterminer si le CRG a donné lieu à des conversations systématiques et transparentes entre les administrateurs généraux de l’administration fédérale. Les principales constatations qui se dégagent de cet examen sont les suivantes :

Même si nous abordons les rôles, les responsabilités et les processus d’approbation dans la discussion sur ces constatations, notons que leur traitement intégré a été fait à la section 3.3, Les évaluations du CRG sont-elles robustes?

10. Le SCT est l’entité appropriée pour mesurer le rendement de la gestion au sein de l’administration fédérale.

Le SCT a pour rôle de veiller à ce que le gouvernement soit bien géré et responsable et à ce que les ressources soient attribuées de manière à obtenir des résultats. Les fonctions exécutées par le SCT sont consacrées à la gouvernance, à la responsabilisation et à la qualité de la gestion dans le secteur public. Ces fonctions sont destinées à avoir une incidence sur l’efficacité et l’efficience avec laquelle les programmes et les services gouvernementaux sont exécutés. Le CRG a permis au SCT d’évaluer le rendement de gestion et la conformité aux politiques à un niveau ministériel. Il a aussi facilité les conversations et l’effort en vue d’un rendement de gestion élevé à l’échelle organisationnelle.

Dans le cadre de notre recherche internationale, nous n’avons trouvé aucun autre pays ou modèles où le conseil central de gestion joue un rôle aussi actif dans les évaluations de la capacité de gestion.

Même si l’auto‑évaluation peut être perçue comme étant une méthode d’évaluation rentable, ses limites mettraient fin à certains avantages du CRG dont profitent les intervenants. Règle générale, l’auto‑évaluation est limitée sur le plan de la rigueur et de la qualité. Ce n’est pas sans incidence sur la valeur du processus et sur son utilité dans le processus décisionnel des administrateurs généraux, du SCT et du CHF. L’auto‑évaluation peut être utilisée comme un outil interne pour permettre aux administrateurs généraux d’évaluer l’état de la gestion de leur ministère ou organisme à l’extérieur de la période d’évaluation du CRG.

Nous croyons toutefois que, peu importe les approches utilisées ailleurs, le rôle que joue le SCT dans le CRG correspond au rôle qu’il exerce dans l’administration fédérale. Ce point de vue a été confirmé lors de nos consultations auprès des ministères et des organismes, ainsi qu’auprès de représentants du SCT. Il a été répété que la surveillance du CRG, y compris la tenue des évaluations, est un rôle qui convient au SCT.

Outre l’administration du processus du CRG, le SCT est responsable de la tenue des évaluations individuelles. Comme pour le modèle appliqué au Royaume‑Unis, la participation des vérificateurs externes a été présentée à divers groupes d’intervenants comme étant une option pour accroître le niveau de compétences de gestion dans le cadre du processus d’évaluation. Nous ne recommandons pas l’adoption de cette approche, qui est considérée limitée par sa difficulté à communiquer le contexte et l’environnement de l’administration fédérale. En outre, elle ajouterait des dépenses importantes à l’actuel processus du CRG.

Du point de vue de la gouvernance, il est possible d’améliorer le CRG au moyen de la participation de « pairs », comme, par exemple, par la participation à titre consultatif d’un petit groupe de cadres supérieurs au processus et à la discussion sur les résultats obtenus dans l’ensemble du système. Ce groupe pourrait participer au début de la ronde d’évaluation du CRG en examinant le cadre d’évaluation prévu. À la fin, il pourrait examiner les résultats de l’évaluation et les commenter. Le SCT profiterait ainsi des conseils de personnes chevronnées au cours des principales étapes du processus d’évaluation et les administrateurs généraux en profiteraient également. À notre avis, le niveau d’acceptation du processus et de ses résultats dans l’ensemble de l’administration fédérale en bénéficierait.



4  RECOMMANDATIONS

Comme on a pu le voir à la section précédente, nos principales constatations ont été élaborées en fonction des éléments probants recueillies à partir de nombreux éléments de preuve. Elles ont été consolidées, analysées et résumées dans dix constatations clés. Suivant les résultats obtenus, nous avons pmis au point cinq recommandations donnant suite à nos principales constatations. Ces recommandations appuient l’évolution du CRG à titre d’habilitateur du rendement et dans le maintien de son utilité et de sa viabilité comme outil conçu pour permettre au SCT et aux administrateurs généraux de viser l’excellence en matière de gestion.

L’illustration suivante lie les cinq recommandations clés aux dix principales constatations et aux éléments de preuve utilisés à l’appui de ces constatations.

Figure 7 : Liens entre les recommandations d’évaluation, les principales constatations et les éléments de preuve
Figure 7 : Liens entre les recommandations d’évaluation, les principales constatations et les éléments de preuve

Figure 7 - Version textuelle

Figure 7 - Afficher l'image pleine dimension

4.1  Recommandations détaillées

La section qui suit décrit nos recommandations. Elle inclut une description des avantages et des risques liés à leur mise en œuvre. Les réponses des gestionnaires ont été élaborées et elles sont présentées dans un document distinct.

1. Mettre en œuvre une approche axée sur les risques et les priorités aux fins du processus d’évaluation du CRG.

Pour s’assurer que le CRG prenne en considération les indicateurs les plus pertinents pour un organisme donné et qu’il offre des incitatifs suffisants aux membres de la haute direction, nous recommandons au SCT d’envisager la mise en œuvre d’une approche d’évaluation du CRG fondée sur les risques et les priorités. Les approches possibles requérant une analyse approfondie sont expliquées ci‑dessous.

Évaluation fondée sur les risques et les priorités propres à l’organisation : Même si la lettre de contexte remise avec l’évaluation finale à l’administrateur général souligne les priorités, le SCT pourrait, après avoir consulté les ministères et les organismes, déterminer quels indicateurs sont liés aux principaux risques et priorités de cette organisation pour l’année en cours. Cette discussion pourrait avoir lieu lors de la séance d’information sur l’évaluation de la ronde précédente.

Afin de restreindre le temps et les ressources nécessaires pour arriver à un consensus au sujet des indicateurs, il serait aussi possible de grouper les ministères et les organismes (par exemple, par secteur industriel ou selon leur taille) et de déterminer les indicateurs qui devraient être évalués pour le groupe en fonction des risques et des priorités qui leurs sont propres.

Évaluation fondée sur le groupement des indicateurs : Il s’agit de distribuer les indicateurs selon trois catégories : obligatoires, facultatifs et cycliques. Les indicateurs obligatoires (par exemple, le contrôle et la gestion des finances) seraient évalués chaque année pour toutes les organisations. Dans la catégorie facultative, le cycle d’évaluation pourrait dépendre des risques ou des priorités des groupes ministériels (par exemple, par secteur industriel ou selon la taille des organisations). Enfin, la catégorie des indicateurs cycliques pourrait inclure une série d’indicateurs reflétant les priorités gouvernementales actuelles. Ces indicateurs s’appliqueraient selon un cycle préétabli. Moyennant un préavis raisonnable, les catégories d’indicateurs pourraient être modifiées.

Évaluation axée sur les résultats des rondes précédentes : Examen de la précédente note d’évaluation du CRG. En fonction de son rendement et pour certains indicateurs seulement, un ministère ou un organisme ayant obtenu la note « fort » dans la ronde d’évaluation en cours ne serait pas officiellement évalué à la ronde suivante. Il serait exempté de l’évaluation pour une année. Cette approche pourrait aussi être jumelée à une auto‑évaluation des indicateurs exemptés d’évaluation formelle afin de confirmer qu’aucun changement important n’est survenu durant l’année. Un exercice semblable a été tenté au titre de la CG1 lors de la ronde VI.

Évaluation fondée sur la taille du ministère ou de l’organisme : Nous savons que le SCT a déjà appliqué cette approche aux évaluations. Les petits et les très petits organismes sont évalués suivant un cycle triennal et une version « allégée » du CRG. Le SCT pourrait envisager l’élargissement de ce concept en établissant des critères et des exigences de présentation de rapports distincts du CRG pour les petits organismes. Il pourrait, par exemple, accepter une version allégée du CRG afin de diminuer le fardeau administratif disproportionné imposé aux petits organismes dans le cadre de l’approche actuelle d’évaluation du CRG.

Nous croyons que le principal avantage de l’adoption d’une approche fondée sur le risque réside dans son pouvoir d’adaptation aux besoins particuliers des ministères et des organismes. Elle fournit un moyen explicite aux ministères et au SCT d’établir leurs priorités. L’adoption d’une approche fondée sur le risque appuie aussi la réduction des ressources affectées par les ministères et le SCT à la gestion du processus d’évaluation du CRG.

L’utilisation de cette approche comporte aussi deux risques. D’abord, si tous les aspects ne sont pas mesurés à chaque ronde, un enjeu majeur peut être omis ou passé inaperçu. Ensuite, si une approche fondée sur le risque est utilisée, les comparaisons entre organisations peuvent être plus complexes à réaliser.

2. Élaborer des principes directeurs (« règles d’or ») pour l’évaluation du rendement de gestion et les intégrer à la méthodologie actuelle d’évaluation du CRG.

Même si chacune des CG mesure un aspect de gestion distinct, elles appuient une méthodologie et un cadre global d’évaluation. Nous recommandons qu’un ensemble commun de principes directeurs (règles d’or) soit établi, accepté et appliqué à chacune des CG. Voici quelques exemples de règles d’or qui pourraient être observées :

  1. maintenir un équilibre optimal entre les indicateurs quantitatifs et qualitatifs pour chaque CG;
  2. élaborer des indicateurs axés sur les résultats et fondés sur le rendement de gestion;
  3. tirer profit de l’information disponible grâce à d’autres activités de surveillance qui pourraient appuyer les indicateurs de chaque CG;
  4. maintenir la stabilité des indicateurs, un élément crucial à l’évaluation des progrès au fil du temps;
  5. assurer la clarté et la transparence des indicateurs, des critères de mesure et de la documentation d’orientation;
  6. engager les collectivités fonctionnelles dans un dialogue ouvert sur l’élaboration continue de la méthodologie et des mesures d’évaluation des CG;
  7. inclure l’identification et l’évaluation de la conformité aux politiques et du rendement de gestion axé sur les résultats;
  8. chercher des moyens de reconnaître l’innovation et offrir des incitatifs pour l’encourager dans les ministères et les organismes.

Les paragraphes suivants expliquent les règles d’or recommandées précédemment.

a) Maintenir un équilibre optimal entre les indicateurs quantitatifs et qualitatifs : Nous recommandons que le SCT révise les éléments de preuve exigés en tenant compte du juste équilibre entre des indicateurs quantitatifs objectifs et des indicateurs qualitatifs subjectifs. Lorsque la subjectivité est nécessaire, des définitions suffisamment élaborées sont nécessaires pour réduire le risque d’application incohérente dans les ministères et les organismes.

b) Élaborer des indicateurs axés sur les résultats et fondés sur le rendement de gestion : Au moment d’évaluer des éléments du rendement de gestion (en comparaison à la conformité aux politiques), des indicateurs axés sur les résultats (plutôt que sur les processus) permettent à une organisation de déterminer si ses pratiques de gestion ont eu une incidence sur la qualité de ses décisions et de ses mesures. Nous recommandons qu’au moment d’examiner les éléments de preuve, il soit envisagé de structurer les indicateurs mesurant le rendement de gestion en fonction des résultats, de manière à représenter plus fidèlement l’incidence des pratiques de gestion. Comme le modèle logique du CRG élaboré par la Direction du CRG met en relief les résultats attendus du CRG, il pourrait être utilisé pour établir ces indicateurs.

c) Tirer profit de l’information disponible : Une fois les indicateurs et les critères de mesure élaborés, les sources d’information utilisées pour l’évaluation par rapport aux indicateurs doivent être établies. Tirer profit de l’information existante au moyen d’autres mécanismes de surveillance à la fois des mécanismes internes des ministères et des organismes et ceux provenant des organismes centraux (par exemple, Bureau du contrôleur général, vérificateur général du Canada) permettrait d’accroître l’efficacité de la production de rapports liés au processus d’évaluation du CRG.

d) Maintenir la stabilité des indicateurs : Une fois l’indicateur élaboré pour une seule CG et le consensus obtenu, les indicateurs doivent idéalement demeurer stables. Il ne faut envisager des changements que si des modifications importantes ont été apportées au contexte de ce secteur de gestion.

e) Assurer la clarté et la transparence des indicateurs, des critères de mesure et de la documentation d’orientation : Si possible, tous les indicateurs, éléments de preuve et critères de mesure doivent être clairs, simples à comprendre et transparents dans un contexte d’évaluation. En respectant la règle d’or a), la clarté et la transparence doivent guider le jugement lorsque la subjectivité est requise dans un indicateur.

Dans le cadre de la méthodologie d’évaluation, nous recommandons qu’une approche de notation cohérente soit élaborée afin de faciliter l’attribution d’une note globale par CG, qui serait conforme à une norme tout en restant flexible. L’application d’une moyenne pondérée viendrait appuyer cet objectif.

Enfin, nous suggérons que le SCT envisage de modifier la terminologie de l’échelle de notation de l’évaluation du CRG. Nos consultations ont révélé que le terme « acceptable » comporte une connotation négative. D’autres termes comme « satisfait aux normes », « à la hauteur des attentes » ou « bien placé » peuvent être pris en considération.

f) Engager les collectivités fonctionnelles dans un dialogue ouvert sur l’élaboration continue de la méthodologie et des mesures d’évaluation des CG. Lorsque, pour des raisons de mise à jour ou d’amélioration, des changements doivent être apportés à la méthodologie et aux mesures des CG, nous recommandons que les intervenants ministériels soient consultées au cours du processus d’élaboration. Le SCT pourrait mettre à profit les collectivités fonctionnelles afin de stimuler un dialogue coopératif et continu, de sorte que les changements répondent aux besoins des intervenants et qu’ils soient acceptés par les ministères et les organismes.

g) Inclure l’identification et l’évaluation de la conformité aux politiques et du rendement de gestion axé sur les résultats : Le CRG doit continuer de mesurer à la fois le rendement de gestion et l’observation des politiques. De plus, nous recommandons que le SCT sépare l’évaluation du rendement de gestion et l’examen de la conformité aux politiques en déterminant quels indicateurs mesurent le rendement et lesquels mesurent la conformité.

Différentes approches pourraient être incorporées afin d’évaluer la conformité aux politiques par rapport au rendement de gestion.

h) Reconnaître l’innovation et offrir des incitatifs pour l’encourager : Afin de continuer à stimuler l’innovation et la créativité dans l’administration fédérale, le SCT a la possibilité d’offrir des incitatifs et de reconnaître ces efforts. Diverses approches peuvent permettre d’incorporer l’innovation au CRG :

L’introduction de règles d’or dans l’évaluation du rendement de gestion profitera aux organisations en précisant les attentes et en accroissant la cohérence des évaluations. En outre, elle profitera au SCT ainsi qu’aux ministères et aux organismes en évaluant avec plus de précision les progrès accomplis et en mettant l’accent sur des secteurs ayant une importance particulière pour l’organisation.

Nous signalons que si des changements devaient être apportés au cadre d’évaluation du rendement, la stabilité à court terme des éléments de preuve pourrait être menacée. De plus, nous notons qu’une quantité importante de ressources est requise afin de simplifier les indicateurs de manière exhaustive et adéquate; cette approche devrait peut‑être être présentée graduellement.

3. Constituer ou mettre à profit  un organisme de gouvernance composé de hauts fonctionnaires des ministères clients pour contribuer au CRG.

Nous recommandons qu’un comité directeur composé d’administrateurs généraux ou de cadres supérieurs ministériels (par exemple, sous‑ministres adjoints) soit constitué ou encore qu’une tribune existante soit mise à profit. Cet organisme de gouvernance pourrait se prononcer sur les changements apportés au processus du CRG et sur l’utilisation des résultats du CRG afin de guider l’évolution des priorités de gestion.

Un organisme de gouvernance constitué de hauts fonctionnaires des ministères clients profitera au SCT. Il augmentera la probabilité que les changements apportés au CRG soient acceptés et que les ministères et les organismes y donnent suite. L’organisme de gouvernance deviendra un outil de communication supplémentaire à la disposition du SCT. En revanche, l’instauration d’un organisme de gouvernance supplémentaire peut augmenter le temps requis pour parvenir à une entente et la prise de décisions risque d’être retardée.

4. Élaborer une stratégie et un plan de mobilisation et de communication visant les intervenants, y compris leur mobilisation dès les premières étapes lorsqu’on apporte des changements au processus d’évaluation du CRG.

Nos constatations révèlent que certains éléments centraux du processus du CRG ne sont pas clairement compris par les intervenants des ministères. Cela a une incidence directe sur l’acceptation et la satisfaction à l’égard du processus et de la méthodologie. Il est possible d’accroître l’engagement des intervenants dans les ministères et les organismes grâce à une amélioration de la communication lors de certaines étapes clés du processus d’évaluation du CRG.

Nous recommandons que le SCT envisage l’élaboration d’une stratégie et d’un plan de mobilisation et de communication liés aux rondes d’évaluation du CRG afin d’accroître la visibilité du processus. Cette mesure pourrait combler le manque de communication dans les domaines suivants :

Outre les discussions bilatérales directes entre le SCT et les ministères, la stratégie de mobilisation et de communication pourrait aussi s’appuyer sur les tribunes existantes ou sur des collectivités comme celles des dirigeants principaux des finances et des dirigeants principaux de la vérification. L’organisme de gouvernance du CRG, conformément à notre recommandation précédente, pourrait aussi être au cœur de cette stratégie. De plus, la stratégie de communication pourrait aborder la façon d’expliquer aux parlementaires le processus du CRG et les résultats obtenus.

Nous recommandons en outre que lorsque des changements sont apportés à la méthodologie, aux indicateurs ou au processus d’évaluation, la mobilisation des intervenants des ministères et des organismes soit rapide afin de laisser un délai suffisant pour réagir et pour favoriser la présentation de renseignements complets et exacts.

L’élaboration et l’exécution d’un plan et d’une stratégie de mobilisation et de communication profitent au SCT en favorisant une plus grande acceptation du processus du CRG dans les ministères et les organismes. Nous reconnaissons toutefois qu’un tel plan peut augmenter la pression sur le SCT afin qu’il fournisse des comptes rendus en temps opportun, tout en imposant des contraintes supplémentaires entourant les dates limites des communications.

5. Attribuer au SCT des responsabilités officielles de surveillance de la méthodologie et du cadre d’évaluation du CRG ainsi que de gestion des enjeux et des plans d’action horizontaux.

Nous recommandons que le SCT envisage d’accroître le rôle de la Direction du CRG au SCT. Elle serait en charge d’assurer la surveillance et l’intégration horizontale de l’ensemble des CG, aussi bien sur le plan de la méthodologie que des résultats. Ce rôle accru obligerait la Direction du CRG à examiner les indicateurs et les critères par souci de cohérence entre les éléments.

Une fois les résultats du CRG obtenus, nous recommandons que la Direction du CRG collabore avec les responsables des CG ou des indicateurs afin de cerner les enjeux horizontaux (touchant l’ensemble d’un ministère), qu’elle élabore les plans d’action appropriés, qu’elle communique le plan et qu’elle assure le suivi des résultats. La Direction du CRG présenterait des comptes rendus des progrès réalisés aux secrétaires adjoints et au secrétaire délégué.

L’attribution de responsabilités officielles de surveillance de la méthodologie d’évaluation du CRG et de la gestion des enjeux horizontaux comporte plusieurs avantages : un soutien est donné au cadre et, surtout, les intervenants sont tenus responsables des plans d’action.

4.2  Résumé des recommandations

Le tableau suivant illustre l’harmonisation de chacune des recommandations précédemment expliquées en détail avec les neuf secteurs clés (déterminés par les administrateurs généraux) du CRG.

Tableau 2 Harmonisation des recommandations avec les principaux secteurs du CRG

Principaux secteurs

Recommandations en vue de l’évolution du CRG à titre d’habilitateur du rendement

1 : Approche axée sur le risque

2 : Principes directeurs / Règles d’or

3 : Organisme de gouvernance

4 : Mobilisation et communication

5 : Surveillance horizontale

Vision et objectifs du CRG

oui

oui

oui

oui

non

Gouvernance du CRG, y compris les rôles et les responsabilités

non

non

oui

non

oui

Méthodologie d’évaluation du CRG

oui

oui

non

oui

oui

Fiabilité et exactitude des évaluations du CRG

oui

oui

non

oui

oui

Exigences en matière de présentation de rapports du CRG

oui

oui

non

non

non

Systèmes à l’appui du CRG

non

oui

non

oui

oui

Processus du CRG

oui

oui

oui

oui

oui

Traitement des entités par le CRG

oui

non

non

non

non

Harmonisation du CRG avec les cycles de planification du GC

non

oui

non

non

non



ANNEXE A  LISTE DES PERSONNES INTERVIEWÉES ET DES PARTICIPANTS AUX CONSULTATIONS

1. Administrateurs généraux
Participants Administrateurs généraux

1.  Agriculture et Agroalimentaire Canada

Yaprak Baltacioğlu

2.  Agence de promotion économique du Canada atlantique

Monique Collette

3.  Agence de développement économique du Canada pour les régions du Québec

France Pégeot (vice-présidente, Politique et planification)

4.  Agence du revenu du Canada

William Baker

5.  École de la fonction publique du Canada

Ruth Dantzer

6.  Agence des services frontaliers du Canada

Stephen Rigby

7.  Agence canadienne d’inspection des aliments

Carol Swan

8.  Commission canadienne des grains

Elwin Hermanson

9.  Agence canadienne de développement international

Margaret Biggs

10.  Service canadien du renseignement de sécurité

Jim Judd

11.  Service correctionnel du Canada

Don Head

12.  Environnement Canada

Ian Shugart

13.  Affaires étrangères et Commerce international Canada

Leonard Edwards

14.  Santé Canada

Morris Rosenberg

15.  Ressources humaines et Développement des compétences Canada

Janice Charette

16.  Affaires indiennes et du Nord Canada

Michael Wernick

17.  Bibliothèque et Archives Canada

Ian Wilson

18.  Office national de l’énergie

Gaétan Caron

19.  Conseil national de recherches du Canada

Pierre Coulombe

20.  Agence de la santé publique du Canada

David Butler-Jones

21.  Sécurité publique Canada

Suzanne Hurtubise

22.  Commission de la fonction publique

Maria Barrados

23.  Travaux publics et Services gouvernementaux Canada

François Guimont

24.  Statistique Canada

Munir Sheikh

25.  Transports Canada

Louis Ranger

26.  Anciens Combattants Canada

Suzanne Tining

27.  Diversification de l’économie de l’Ouest Canada

Oryssia Lennie


2. Comité directeur de sous-ministres
Comité directeur Sous-ministres

1.  Secrétaire du Conseil du Trésor (président)

Wayne Wouters

2.  Dirigeante principale des ressources humaines, Secrétariat du Conseil du Trésor du Canada

Michelle d’Auray

3.  Sous ministre, Agriculture et Agroalimentaire Canada

Yaprak Baltacioğlu

4.  Commissaire, Agence du revenu du Canada

William Baker

5.  Sous ministre, Citoyenneté et Immigration Canada

Richard Fadden

6.  Sous ministre, Affaires indiennes et du Nord Canada

Michael Wernick

7.  Sous ministre, Défense nationale 

Robert Fonberg

8.  Sous ministre, Ressources naturelles Canada

Cassie Doyle

9.  Directeur général, Agence Parcs Canada

Alan Latourelle

10.  Sous-secrétaire du Cabinet, Bureau du Conseil privé

Patricia Hassard

11.  Secrétaire déléguée, Secrétariat du Conseil du Trésor du Canada

Anita Biguzs


3.  Personnes-ressources du CRG dans les ministères (23 février 2009)
Ministères Personnes-ressources du CRG

1.  Agriculture et Agroalimentaire Canada

Pierre Corriveau

2.  École de la fonction publique du Canada

Michele Brenning

3.  Agence canadienne d’inspection des aliments

Dihari Fernando

4.  Tribunal canadien du commerce extérieur

Steve Malouin

5.  Service canadien du renseignement de sécurité

David Vigneaut

6.  Environnement Canada

Basia Ruta

7.  Ministère des Finances Canada 

Barbara Gibbon

8.  Pêches et Océans Canada

Cal Hegge

9.  Bureau du Conseil privé

Marilyn MacPherson

10.  Secrétariat du Conseil du Trésor du Canada

Ann Van Dusen

11.  Anciens Combattants Canada  

Ron Herbert


4. Personnes ressources du CRG dans les ministères (27 février 2009)
Ministères Personnes ressources du CRG

1.  Agence de promotion économique du Canada atlantique

Sherril Minns

2.  Agence de développement économique du Canada pour les régions du Québec

André Cliche

3.  Conseil canadien des relations industrielles

Ginette Brazeau

4.  Agence du revenu du Canada

Normand Théberge

5.  Patrimoine canadien

Pablo Sobrino

6.  Secrétariat des conférences intergouvernementales canadiennes

Mara Indri-Skinner

7.  Agence canadienne de développement international

Christine Walker

8.  Affaires étrangères et Commerce international Canada

John Barrett

9.  Santé Canada

Alfred Tsang

10.  Ressources humaines et Développement des compétences Canada

Jean Cheng

11.  Ressources humaines et Développement des compétences Canada

Stephen Johnson

12.  Ressources humaines et Développement des compétences Canada

David Rabinovitch

13.  Infrastructure Canada

David Cluff

14.  Bureau du surintendant des institutions financières Canada

Gary Walker

15.  Agence de la santé publique du Canada

Jim Libby

16.  Sécurité publique Canada

Elisabeth Nadeau

17.  Travaux publics et Services gouvernementaux Canada

Caroline Weber

18.  Service Canada

Frank Fedyk

19.  Statistique Canada

Janice Vézina

20.  Transports Canada

Andre Morency

21.  Secrétariat du Conseil du Trésor du Canada – Bureau du dirigeant principal des ressources humaines

Mitch Bloom

22.  Diversification de l’économie de l’Ouest Canada

Jim Saunderson


5.  Réseau du CRG (11 février 2009)
Ministères Représentants

1.  Agriculture et Agroalimentaire Canada

Doug Ruby

2.  Agence de promotion économique du Canada atlantique

Michel Léger

3.  Conseil canadien des relations industrielles

Jean-Charles Roy

4.  Service correctionnel Canada

Jason Cormier

5.  Environnement Canada

Lisa Huang

6.  Affaires étrangères et Commerce international Canada

Francis Furtado

7.  Santé Canada

Johann Curodeau

8.  Affaires indiennes et du Nord Canada

Roger Ermuth

9.  Bibliothèque et Archives Canada

Christine Mayer

10.  Défense nationale

Dan Bellini

11.  Ressources naturelles Canada

Eugene Omboli

12.  Agence de la santé publique du Canada

Loretta Scott

13.  Sécurité publique Canada

Linda Stapledon

14.  Travaux publics et Services gouvernementaux Canada

Malick Babou

15.  Gendarmerie royale du Canada

Redd Oosten

16.  Statistique Canada

Peter Bissett

17.  Transports Canada

Debbie Cecil

18.  Anciens Combattants Canada

Anita Lewis


6. Réseau des administrateurs de petits organismes (24 février 2009) 
Petits organisme Représentants

1.  Agence canadienne d’évaluation environnementale

Ronald Kuzak

2.  Commission canadienne des droits de la personne

Hervé Ethier

3.  Chefs des organismes fédéraux

Tom Pederson

4.  Commission de l’immigration et du statut de réfugié du Canada

Glenn Ng

5.  Commission nationale des libérations conditionnelles

Anne Gagne

6.  Commission nationale des libérations conditionnelles

Sheila Ouellette

7.  Commission des relations de travail dans la fonction publique

Alison Campbell

8.  Comité externe d’examen de la GRC

Virginia Anderson

9.  Sénat du Canada

Kim Grandmaison

10.  Sénat du Canada

Jill Anne Joseph

11.  Cour suprême du Canada

Lynn Potter

12.  Diversification de l’économie de l’Ouest Canada

Kevin Johnson


7. Représentants d’organismes centraux 
Organismes centraux Représentants

1.  École de la fonction publique du Canada

Ivan Blake

2.  Bureau du Conseil privé

Patricia Hassard

3.  Secrétaire du Conseil du Trésor

Wayne Wouters

4.  Secrétariat du Conseil du Trésor du Canada – Direction du dirigeant principal de l’information

Peter Bruce

5.  Secrétariat du Conseil du Trésor du Canada – Secteur de la gestion des dépenses

Alister Smith

6.  Secrétariat du Conseil du Trésor du Canada – Bureau du dirigeant principal des ressources humaines

Mitch Bloom

7.  Secrétariat du Conseil du Trésor du Canada – Bureau du contrôleur général

John Morgan

8.  Secrétariat du Conseil du Trésor du Canada – Bureau du contrôleur général

Brian Aiken

9.  Secrétariat du Conseil du Trésor du Canada – Secteur des priorités et de la planification

Frank Des Rosiers

10.  Secrétariat du Conseil du Trésor du Canada – Direction du CRG

Ewa Burk


8. Secrétaires adjoints du Secteur des programmes du SCT (18 février 2009) 
Secteur des programmes du SCT Secrétaires adjoints

1.  Secteur économique

Nada Semaan

2.  Secteur des opérations gouvernementales

Mary Chaput

3.  Secteur des affaires internationales, de la sécurité et de la justice

John Ossowski

4.  Secteur des programmes sociaux et culturels

Wilma Vreeswijk


9.  Représentants des composantes de gestion (17 février 2009) 
Composantes de gestion Représentants

1.  CG 1 – Valeurs et éthique

Jeffrey Ayoub, Bryon Milliere

2.  CG 2 – Cadre de rendement ministériel

Robit Samaroo

3.  CG 3 – Structure de gestion ministérielle

Elizabeth Tromp

4.  CG 4 – Contribution organisationnelle

Evan Perrakis

5.  CG 6 – Évaluation

Caroline Falaiye

6.  CG 7 – Rapports sur le rendement au Parlement

Tim Wilson, Gyulia Borbely

7.  CG 8 – Gérer le changement organisationnel

Matthew Enticknap, David Clifton, Bruce Wang

8.  CG 9 – Gestion des risques

Éric Bélair, Nisa Mairi Tummon

9.  CG 10 – Milieu de travail

Jeffrey Ayoub, Bryon Milliere

10.  CG 11 – Effectif

Jeffrey Ayoub, Bryon Milliere

11.  CG 12 – Gestion de l’information

Sthephen Walker, Laura Simmerson, Marg McIntyre

12.  CG 13 – Technologie de l’information

Jeff Braybrook

13.  CG 14 – Gestion des biens

Phil Jacobson, Magali Johnson

14.  CG 15 – Gestion des projets

Greg Kenney, John Nater

15.  CG 17 – Gestion financière et contrôles financiers

Eddie Vlasblom

16.  CG 18 – Vérification interne

Helena Szakowski, Brian McKenna

17.  CG 19 – Sécurité et continuité des activités

Nathalie Pelletier

18.  CG 20 – Services axés sur les citoyens

Evan Perrakis, Christine Lau

19.  CG 21 – Harmonisation des instruments de responsabilisation

Suky Sodhi

20.  Représentant des secteurs des programmes, Secteur des opérations gouvernementales

Tom Scott


ANNEXE B  MODÈLE LOGIQUE DU CRG

Le diagramme suivant représente le modèle logique du CRG qui a été élaboré et fourni par le SCT. Les répercussions sur les mesures du modèle logique sont expliquées après le diagramme :

Figure 8: MODÈLE LOGIQUE DU CRG
Figure 8 : MODÈLE LOGIQUE DU CRG

Figure 8 - Version textuelle

Figure 8 - Afficher l'image pleine dimension

RÉPERCUSSIONS SUR LES MESURES DU MODÈLE LOGIQUE 

Résultat final 1

Amélioration continue de la qualité de la gestion publique dans l’administration publique fédérale
  • Tendances à moyen et à long terme des cotes du CRG
  • Information présentée dans des rapports produits par le BVG ou l’unité de la vérification et de l’évaluation du SCT

Résultat intermédiaire 1

Mesures prises par les ministères et les organismes pour améliorer le rendement en matière de gestion
  • Réponses des ministères et des organismes aux évaluations du CRG et aux recommandations du SCT. Progrès réalisés selon les pages sur le contexte du CRG préparées par le SCT
  • Changement d’une année à l’autre, dans l’ensemble du système, des cotes du CRG dans les secteurs de gestion les plus fréquemment définis comme prioritaires pour les organisations

Résultat intermédiaire 2

Capacité accrue du SCT de répondre aux besoins de conseils des ministères et des organismes en matière de gestion
  • Analyse des constatations des examens rétrospectifs (participants internes et externes)
  • Analyse des constatations issues des entrevues avec les SM
  • Analyse de la rétroaction du réseau du CRG
  • Nombre de réunions entre le SCT et les ministères et les organismes
  • Nombre d’activités d’apprentissage organisées

Résultat immédiat 1

Vision commune des normes d’une bonne gestion à l’ensemble de l’administration fédérale
  • Rétroaction des participants aux activités de sensibilisation et d’apprentissage du SCT sur le CRG
  • Évaluation indépendante

Résultat immédiat 2

Reconnaissance par les ministères et les organismes des problèmes de gestion et de préparation de plans d’action
  • Nombre de plans d’action mis en œuvre par les ministères et les organismes en fonction des évaluations annuelles du CRG
  • Nombre de réponses de la direction aux évaluations annuelles du CRG affichées sur le site Web du SCT

Résultat immédiat 3

Meilleure compréhension par le SCT de la situation de la gestion publique, y compris des principaux risques
  • Nombre de documents et d’outils d’orientation élaborés par le SCT (en tout et par composante de gestion)
  • Nombre de personnes ayant participé aux activités de sensibilisation et d’apprentissage (en tout et par composante de gestion)
  • Évaluation indépendante

Résultat immédiat 4

Disponibilité de l’information sur l’état de la gestion du secteur public pour le Parlement et le public
  • Nombre d’évaluations du CRG affichées sur le site Web du SCT
  • Nombre de réponses de la direction et de plans d’action de ministère et d’organismes affichés sur le site Web du SCT
  • Nombre d’autres rapports publiés (par exemple, rapports du BVG, rapports d’évaluation et de vérification)

Extrant 1

Évaluations de CRG pour les ministères et les organismes
  • Nombre d’évaluations de CRG effectuées

Extrant 2

Priorités en matière de gestion recommandées aux ministères et aux organismes
  • Nombre de priorités recommandées par le SCT aux ministères et aux organismes, selon les pages sur le contexte de l’évaluation du CRG

Extrant 3

Prestation continue de conseils, d’aide et d’activités de sensibilisation à l’intention des ministères et des organismes
  • Nombre de personnes, de ministères et d’organismes joints par les activités de prestation de conseils, d’aide et de sensibilisation du SCT

Extrant 4

Analyse des tendances en matière de gestion publique au sein du gouvernement du Canada et globales
  • Nombre de résumés analytiques produits
  • Nombre de résumés analytiques diffusés à l’extérieur du SCT

Extrant 5

Produits de communication concernant le CRG destinés au public
  • Nombre de téléchargements d’évaluation de CRG faits à partir du site Web du SCT
  • Nombre de visites enregistrées sur les pages du site Web du SCT contenant de l’information sur le CRG
  • Nombre de demandes de présentation sur le CRG reçues par le SCT
  • Nombre de présentations sur le CRG faites par le SCT
  • Nombre de documents sur le CRG publiés par le SCT et des parties externes (par exemple, des articles, des rapports sur le rendement de la gestion préparés par d’autres administrations)

ANNEXE C  HARMONISATION DU CRG AVEC LES PRIORITÉS DU GOUVERNEMENT

Le CRG est harmonisé avec la priorité fédérale (du budget fédéral de 2008) qui consiste à gérer judicieusement les dépenses pour veiller à ce que les programmes et les services soient efficients et efficaces, harmonisés avec les priorités des Canadiennes et des Canadiens, et abordables à long terme.

Le SCT a pour rôle de veiller à ce que les ministères soient bien gérés et responsables et à ce que les ressources soient attribuées pour atteindre des résultats :

  • Il examine les présentations au CT liées à la conception détaillée des programmes, aux pouvoirs de dépenser, à l’observation par les ministères des politiques du CT (par exemple, passation de marchés, biens immobiliers) et conseille le CT à ce sujet.
  • Il vérifie l’utilité et la manière d’accroître la marge de manœuvre et les pouvoirs des administrateurs généraux (programmes de gestion et de changement du SCT)
  • Renouvellement du SGD : Le SCT conseille le Cabinet et le ministère des Finances Canada au sujet des réaffectations possibles fondées sur des examens stratégiques afin d’assurer l’harmonisation des dépenses avec les priorités de l’État et d’optimiser les fonds publics consacrés aux dépenses en cours. Les ministères examinent eux‑mêmes la pertinence et le rendement de leurs dépenses à la lumière des priorités fédérales. Ils définissent la tranche de 5 p. 100 la moins performante ou la moins prioritaire et en font rapport au Conseil du Trésor et au Cabinet dans le cadre de la planification budgétaire. Le SCT fournit des conseils et des orientations continus aux ministères au sujet de ces examens, et il surveille les progrès accomplis par les ministères à l’égard des décisions du Cabinet.
  • SGRR : Afin de façonner une compréhension pangouvernementale détaillée des dépenses de programmes continues, le SCT a mis en œuvre la Politique sur la structure de gestion des ressources et des résultats (SGRR). La SGRR a pour but d’aider les ministères et les organismes centraux à prendre des décisions éclairées au sujet de la pertinence des programmes et de l’optimisation des ressources, à harmoniser les ressources publiques avec les priorités, à établir des liens horizontaux entre les programmes et à mieux informer les parlementaires au sujet des dépenses et des résultats.
  • Présentation de rapports au Parlement : Les renseignements du CRG alimentent les rapports ministériels sur le rendement et les rapports sur le rendement du Canada.

Le CRG est un outil stratégique de collecte de renseignements qu’utilise le SCT afin de contribuer aux activités précédemment décrites qui visent principalement à s’assurer que les programmes puissent être exécutés selon les normes les plus élevées de la gestion publique et de la manière la plus rentable qui soit, conformément à l’importante priorité fédérale  susmentionnée.

Le SCT dispose d’autres mécanismes pour assurer la surveillance du rendement des programmes des ministères. Ceux‑ci servent toutefois à des fins particulières. Le CRG recueille et coordonne ces intrants afin d’établir une perspective pangouvernementale et ministérielle.

Figure 9: HARMONISATION DU CRG AVEC LES PRIORITÉS DU GOUVERNEMENT
Figure 9 : organigramme de Harmonisation du CRG avec les priorités du gouvernement

Figure 9 - Version textuelle



ANNEXE D  COMPARAISONS INTERNATIONALES

 

Royaume-Uni (R-U)

États-Unis (E-U)

Union européenne (UE)

Nom du programme/cadre

Examen de la capacité (Capacity Review -CR)

Programme de gestion du Président  (President's Management Agenda - PMA)

Cadre d'auto‑évaluation des fonctions publiques (CAF)
[Étude sur l'utilisation du Cadre d'auto‑évaluation des fonctions publiques (CAF) dans les administrations publiques européennes]

Type de programme/cadre

Capacité organisationnelle : L'objectif consiste à améliorer la capacité de la fonction publique de manière à réaliser les objectifs de prestation d'aujourd'hui et à se préparer à relever les défis de demain [Take-off or Tail-off? An evaluation of the Capability Reviews programme]

Rendement organisationnel

Capacité organisationnelle : L'objectif consiste à améliorer la qualité de l'administration des fonctions publiques

Depuis quand le programme est‑il en place?

Depuis 2005

Depuis 2001

Lancé en 2000. D'importantes mises à jour ont été effectuées en 2002 et en 2006. Adopté par environ 1 755 organisations publiques de l'UE au milieu de 2009.

Objet du programme

Évaluer la capacité et soutenir l'amélioration

Améliorer le rendement des organismes dans 5 domaines particuliers

Programme lancé par les États membres de l'UE pour la qualité de la gestion dans le secteur public

Brève description du cadre

Le CR renferme 10 éléments de programmes dans les 3 grands domaines suivants :

  • leadership
  • stratégie
  • prestation

Le PMA renferme 24 normes définies dans le cadre de 5 initiatives clés :

  • gestion stratégique du capital humain
  • compétitivité en matière d'approvisionnement
  • amélioration du rendement financier
  • élargissement du cybergouvernement
  • intégration du budget et du rendement

Le CAF est fondé sur la Fondation européenne pour la qualité du management (European Foundation for Quality Management - EFQM) et sur le modèle de l'université allemande des sciences administratives à Spire. Il est constitué de 9 critères - 5 moteurs et 4 résultats - qui sont subdivisés en 28 sous‑critères.

Quels indicateurs sont utilisés?

Cinq catégories d'évaluation sont utilisées; 0 = « graves préoccupations »; 4 = fort - solide capacité en place pour la prestation future

Un système de double carte de pointage est utilisé. Des normes (indicateurs) sont utilisées afin de mesurer :

  • le statut actuel des initiatives
  • les progrès en matière de l'amélioration

Les notes sont accordées par rapport au Green Plan (dans ce cas, comment réussir à d'obtenir le feu vert pour toutes les initiatives)

Considère les moteurs comme une forme de capacité organisationnelle, et les résultats comme des extrants, et il inclut des critères visant à mesurer les deux. Fondé sur une auto‑évaluation

Est‑ce un modèle fondé sur les résultats; c'est‑à‑dire, quels résultats de rendement de gestion ou de capacité organisationnelle en particulier sont évalués?

L'accent est sur les processus et les systèmes organisationnels qui favorisent la capacité de prestation.

Les notes sur l'état actuel sont vérifiables au moyen de la note d'évaluation du rendement de l'organisme. Les critères de progression sont plus subjectifs.

Voir ci‑dessus


Méthode d'évaluation

Royaume-Uni (R-U)

États-Unis (E-U)

Union européenne (UE)

Comment l'évaluation est‑elle menée?

Examen externe annuel des principales capacités

Auto-évaluation trimestrielle avec la participation du Conseil de gestion du Président (President's Management Council - PMC)

Examen interne, habituellement par des équipes de projet nommées par l'organisation

Qui mène l'évaluation, quelles sont les caractéristiques des évaluateurs?

Équipes d'examen de la capacité situées au secrétariat du Cabinet. Une équipe de cinq personnes : 3 personnes chevronnées de l'extérieur du gouvernement central et 2 directeurs généraux d'autres ministères. Chaque équipe inclut habituellement 2 membres du secteur privé (nota : équipes réduites à 3 membres à la deuxième ronde d'évaluation). [National Audit Office Assessment of the Capability Review Programme, février 2009]

Indicateurs de progrès internes et Green Plans examinés par l'Office of Management and Budget (OMB)

Équipes de projets internes

Est‑elle purement fondée sur des éléments probants ou l'évaluateur se sert‑il de son jugement? Quel est le dosage entre les éléments probants et le jugement?

Jugement : les équipes d'examen établissent des jugements au sujet des 10 éléments sur une échelle de 0 à 4 en utilisant une série sous‑jacente de 40 questions.

Fondée sur des éléments probants : des indicateurs internes sont notés au PAR. Le jugement, le PMC et l'OMB contribuent aux initiatives du Green Plan.

Jugement fondé sur le CAF et sur les preuves recueillies pour chaque sous‑critère en fonction d'un consensus de groupe.

Utilise‑t‑on une approche fondée sur le risque? (Les composantes du cadre sont‑elles toutes évaluées ou est‑ce que certaines composantes sont utilisées à des moments différents?)

Toutes les composantes sont évaluées.

Toutes les composantes sont évaluées.

Une évaluation complète est menée chaque fois, mais une marge de manœuvre est prévue aux fins de l'application du CAF.

Comment les organisations sont‑elles choisies aux fins de l'évaluation? Les organisations sont‑elles toutes évaluées ou  existe-t-il un processus de sélection?

Tous les organismes centraux sont évalués.

Toutes sont évaluées dans le cadre d'un processus de notation trimestriel.

Auto‑évaluation; facultative.

Différentes approches sont‑elles utilisées pour les organisations des tailles et de types différents (est‑ce un modèle d'application universelle)?

Universel.

Universel.

Le CAF doit être mis en œuvre en respectant la structure des 9 critères et des 28 sous‑critères, et du système de notation. De plus, chaque organisation et pays doit tenir compte de ses particularités.

Les résultats du programme modifient‑ils la rémunération des membres de la haute direction? Quels sont les conséquences d'un bon ou mauvais rendement?

Il existe des liens avec les décisions salariales touchant les secrétaires permanents. Comme l'accent est mis sur l'amélioration, un faible rendement entraîne de l'aide au besoin, mais les secrétaires permanents doivent rendre des comptes.

Il existe des liens avec le budget et les évaluations des chefs de l'exploitation. La carte de  pointage de la direction du conseil exécutif établit un survol des progrès dans tous les organismes.

Selon la façon dont le cadre est appliqué.


Conséquences de l'évaluation

Royaume-Uni (R-U)

États-Unis (E-U)

Union européenne (UE)

Quels sont les conséquences immédiates de l'évaluation?

Chaque ministère doit créer un plan d'action afin de rectifier les problèmes cernés. [National Audit Office Assessment of the Capability Review Programme, février 2009]

Les organismes doivent créer des Green Plans décrivant comment ils vont s'améliorer relativement à chacun des critères évalués.

Selon l'application. Cependant, une récente enquête auprès de 133 organisations ayant utilisé le CAF a révélé que 87 p. 100 avaient entrepris des initiatives d'amélioration en fonction de l'évaluation. [Étude sur l'utilisation du Cadre d'auto‑évaluation des fonctions publiques (CAF) dans les administrations publiques européennes - 2005]

Quelles sont les améliorations au chapitre de la prestation de services ou du rendement pour les citoyens?

Difficile de distinguer les améliorations attribuables au CR de celles résultant des autres initiatives.

La prise en considération des résultats du PAR s'intègre au PMA. Les chefs de l'exploitation doivent rendre compte des résultats.

L'enquête révèle que les initiatives d'améliorations susmentionnées pourraient ou non mener à une amélioration des résultats pour les citoyens. Question difficile à répondre en raison de problèmes d'attribution et de retards.

Coût / Optimisation des ressources

La première ronde d'entrevues a coûté 5,5 millions de livres; ce coût a été ramené à 4,3 millions à la deuxième ronde (environ 226 000 livres par ministère). Il est difficile d'évaluer le coût des travaux internes de l'examen dans les ministères. Il est difficile de déterminer le degré d'optimisation des ressources, étant donné qu'on ne connaît pas les coûts totaux. Les ministères ont aussi de la difficulté à distinguer la valeur des mesures liées aux examens de celles qui sont liées à d'autres programmes continus. Le secrétariat du Cabinet demande 150 000 livres aux ministères pour l'examen.

S. o.

S. o.

Principaux avantages

Les ministères ont des membres du conseil désignés qui coordonnent les mesures relatives au CR. Cela a permis de mettre l'accent sur la gestion dans les ministères et d'établir des liens entre les ministères au titre du partage des leçons retenues.

Attention de la haute direction dirigée vers les enjeux de gestion importants. Parmi les autres avantages, mentionnons des décisions davantage fondées sur des faits et une meilleure coordination interne.

Concentre les efforts vers l'amélioration organisationnelle et fournit une méthodologie pour y arriver. Est fortement fondé sur la participation de tous les employés aux fins de l'instauration d'une culture organisationnelle de qualité totale.

Leçons retenues

Des ministères s'améliorent à l'égard du CR, mais on ne signale aucun lien avec le rendement réel sous l'angle de la prestation.

Il faut tenir compte des gestionnaires intermédiaires ainsi que des programmes exécutés par l'entremise de tierces parties.

Il faut envisager une comparaison avec des organisations de l'extérieur du gouvernement (par exemple, pratiques exemplaires)

Les critères jaunes peuvent habituellement être évalués objectivement, mais c'est difficile avec les critères verts (par exemple, la documentation est souvent incomplète; certaines évaluations sont difficiles à appuyer). [Review of OMB's Improved Financial Performance Scorecard Process.]

S. o.

Les résultats sont‑ils rendus publics?

Oui, ils sont publiés sur les sites Web des organismes.

Oui, ils sont publiés sur les sites Web des départements.

Les résultats demeurent la propriété de chaque organisation.


ANNEXE E  QUESTIONS D'ÉVALUATION

Section

Questions d'évaluation

Le CRG atteint‑il ses objectifs?

  • P1. Le CRG atteint-il ses objectifs fixés? Ceux-ci sont-ils appropriés, devraient-ils être élargis ou limités? Dans le cadre de cette évaluation, la pertinence et l'efficacité de chacune des 21 composantes de la gestion seront évaluées.
  • P2. Le CRG évalue-t-il adéquatement la gestion du secteur public et contribue-t-il à son amélioration?
  • P3. Le CRG devrait-il mesurer d'autres éléments généraux de la gestion (par exemple, élaboration de politiques, aptitude au leadership, systèmes de rapports de gestion)?
  • P4. Dans quelle mesure le CRG appuie-t-il les nombreux objectifs du gouvernement (par exemple, conseils et aide aux administrateurs généraux, Comité des hauts fonctionnaires, soutien du CT, évaluation horizontale des pratiques de gestion)?
  • P5. Quels avantages secondaires et applications le CRG offre-t-il à d'autres intervenants À qui les offre-t-il (par exemple, au Parlement)?
  • P6. Quelle incidence le CRG a-t-il eu (intentionnelle ou non)?
  • P9. Dans le contexte postérieur à la Loi fédérale sur la responsabilité où les administrateurs généraux sont des administrateurs des comptes, le CRG doit-il changer?
  • P11. Y a-t-il des preuves que d'autres organisations gouvernementales utilisent dans l'ensemble des cadres de gestion plus efficaces que le CRG?
  • A11. Dans quelle mesure le CRG devrait-il être utilisé pour appuyer d'autres initiatives du gouvernement (par exemple, écologisation du gouvernement, analyse comparative entre les sexes, conformité aux politiques, gestion des dépenses)?

Les évaluations du CRG sont‑elles robustes?

  • A3. La méthode d'évaluation du CRG est-elle fiable, juste et raisonnable? Dans quelle mesure le CRG évalue-t-il de façon fiable et exacte la gestion au sein et dans l'ensemble des organismes fédéraux (les résultats du CRG reflètent-ils avec exactitude la réalité, y compris le rendement ministériel)?
  • A4. Dans quelle mesure le processus du CRG devrait-il être fondé sur faits?
  • A5. La démarche d'évaluation actuelle est-elle appropriée (démarche actuelle par rapport à des démarches indépendantes ou fondées sur les risques)? Est-ce la manière la plus efficiente et la plus efficace d'obtenir les résultats du CRG? Les résultats sont-ils communiqués, utilisés et déclarés efficacement?
  • A6. Le CRG devrait-il traiter différemment les entités du portefeuille, les petits organismes et les entités non visées par le Programme de gestion du rendement?
  • A7. La stabilité de l'outil CRG peut-elle être utile?
  • A9. Les exigences du CRG en matière de rapports sont-elles trop lourdes? Comment le processus peut-il être simplifié?
  • A10 Le CRG est-il adéquatement harmonisé au cycle de planification du gouvernement du Canada?
  • A12. Quelles leçons pouvons-nous tirer de l'expérience d'autres pays qui permettraient d'améliorer l'administration de l'évaluation du rendement en matière de gestion?
  • P10 Que pouvons-nous apprendre des autres administrations? Comment évaluent-elles le rendement et les pratiques de gestion du secteur public? Quels autres outils y a-t-il sur la scène nationale et internationale? Comment se comparent-ils au CRG? Peut-on tirer des leçons applicables au CRG (par exemple, utilisation du secteur privé)?

Le CRG est-il rentable?

  • P7. Le CRG est-il rentable et optimise-t-il les ressources financières? Le niveau d'effort et l'incidence ministériels sont-ils justifiables?
  • P8. Quel est l'équilibre optimal entre les ressources et investissements ministériels requis et le niveau d'effort nécessaire pour assurer un rendement ministériel adéquat (sans nécessairement être optimal)?

La structure de gouvernance du CRG est-elle efficace?

  • Al. La structure de gouvernance du CRG est-elle efficace? Les rôles et les responsabilités, les systèmes et les processus d'approbation qui appuient le CRG sont-ils efficients et efficaces?
  • A2. Le SCT est-il la bonne entité pour évaluer et mesurer le rendement du gouvernement en matière de gestion (caractère adéquat, capacité, expérience)? Faut-il envisager une tierce partie? Dans l'affirmative, qui seraient les membres de cette tierce partie?
  • A8. Comment s'assurer que le CRG permet des conversations régulières et transparentes entre les administrateurs généraux?

ANNEXE F  HISTORIQUE DU CRG

L'historique, les objectifs et l'évolution du Cadre de responsabilisation de gestion[16]

Le Cadre de responsabilisation de gestion (CRG) a été établi en juin 1997 quand le gouvernement fédéral a désigné le Conseil du Trésor comme étant son conseil de gestion. L'une des nouvelles responsabilités du Conseil du Trésor consistait à diriger l'élaboration d'un programme visant à améliorer les pratiques de gestion dans les ministères et les organismes fédéraux.

Ces tâches devaient être exécutées sous l'égide de l'Initiative de modernisation de la fonction de contrôleur (MFC). La MFC était le résultat des travaux effectués sur une période de deux ans (de 1996 à 1998) par le Groupe de travail indépendant chargé de la modernisation de la fonction de contrôleur dans l'administration fédérale du Canada. L'état de la gestion dans le régime fédéral constituait une préoccupation de longue date qui s'est intensifiée dans le contexte des sévères coupures des dépenses de programmes fédéraux annoncées vers le milieu des années 1990, au moment où le gouvernement commençait à réduire le déficit en vue de l'éliminer. La prestation efficace des services fédéraux au moyen de ressources humaines et financières grandement réduites exigeait de porter une attention particulière à la gestion de ces ressources et de déployer un effort supplémentaire afin de comprendre à quoi devrait ressembler la gestion moderne dans le secteur public et comment la réaliser. La MFC allait constituer le pivot de la création du CRG cinq ans plus tard.

De 1998 à 2001, la phase 1 de l'Initiative de modernisation de la fonction de contrôleur a pris la forme d'un projet pilote. La phase 2 a été mise en œuvre à l'échelle de l'administration fédérale en 2001 sous l'égide de la Direction de la modernisation de la fonction de contrôleur. Cette phase 2 devait permettre aux fonctionnaires de première ligne de fournir des services aux citoyens avec efficience et efficacité. La Direction estimait que le cadre de gestion nécessaire pour y arriver devait englober les principaux concepts de la MFC, tout en ayant une plus large portée. Le cadre devait mobiliser directement les administrateurs généraux et faire en sorte qu'ils rendent compte de la gestion de leurs organisations.

La Direction de la modernisation de la fonction de contrôleur a poursuivi son travail et, avant la fin de 2002, elle avait examiné 13 modèles supplémentaires ou études de modernisation de la gestion et avait classé chacun d'eux dans l'un des cinq groupes établis. À la fin de ces travaux, la Direction avait réuni les éléments centraux de ce qui allait s'appeler le Cadre de responsabilisation de gestion à la fin de 2002. Le CRG était différent de la MFC, car il était dirigé par un champion (cadre supérieur) dévoué à la modernisation de la gestion dans l'administration fédérale et convaincu du bien‑fondé de ce nouvel outil.

En 2003, le secrétaire du Conseil du Trésor a vu le CRG comme un outil qui lui permettrait d'avoir des « conversations fondées sur des faits » avec ses collègues sous‑ministres au sujet de leurs ministères et de leurs principaux problèmes et préoccupations en matière de gestion. Également, en 2003, le Comité de coordination des sous‑ministres a approuvé le CRG à titre d'outil principal avec lequel le SCT mobiliserait les ministères et les organismes à l'égard des enjeux liés à la gestion.

Objectifs du CRG

Au début de 2003, le CRG avait été transformé. Il est passé d'une nouvelle collection d'idées au sujet de la gestion cherchant un appui, à un cadre par lequel le Secrétariat du Conseil du Trésor du Canada essaierait d'inculquer à l'ensemble de la fonction publique fédérale l'importance de la modernisation de la fonction de contrôleur.

Le CRG a réuni en un seul outil un éventail d'initiatives d'amélioration de la gestion au SCT qui avaient alors été lancées dans la foulée de la publication en mars 2000 du document intitulé Des résultats pour les Canadiens et les Canadiennes : Un cadre de gestion pour le gouvernement du Canada. Ce document avait identifié un certain nombre de composantes de gestion à l'égard desquelles les ministères et les organismes devaient améliorer leur rendement. Il avait aussi établi un programme de réforme de la gestion. Le CRG a constitué le premier modèle explicite et cohérent de haut rendement organisationnel avec lequel le SCT et les ministères et les organismes pouvaient travailler en collaboration.

Le CRG devait mettre l'accent sur les résultats de gestion plutôt que sur les capacités requises. Il consolidait la responsabilisation afin de gérer efficacement les organisations fédérales, de servir les ministres et le gouvernement et de fournir des résultats concrets pour la population canadienne. Le CRG avait pour objectif de permettre aux administrateurs généraux et à leur conseil exécutif de gérer leur organisation plus efficacement en les aidant à poser les questions centrales auxquelles il fallait répondre, ou encore en les aidant à surveiller et à évaluer leur propre rendement.

Le Cadre de responsabilisation de gestion constituerait aussi un outil de surveillance pour le SCT. Les ministères et les organismes devaient pouvoir démontrer au SCT qu'ils réalisaient des progrès au titre de la mise en œuvre du cadre.

Les trois objectifs initiaux du CRG étaient les suivants :

  1. Servir de base à un dialogue entre le SCT et les administrateurs généraux au sujet de l'état des pratiques de gestion.
  2. Façonner la contribution du SCT au processus du CHF (Comité de hauts fonctionnaires) visant à évaluer le rendement des administrateurs généraux au titre de la gestion de leur ministère ou de leur organisme.
  3. Façonner les rapports de gestion de façon à ce que les pratiques et les efforts visant l'amélioration puissent être plus facilement évalués.

De plus, le CRG devait permettre d'intégrer et de simplifier les rapports de gestion et la gestion de l'information au SCT. Le CRG était perçu comme étant une initiative horizontale au sein du SCT pouvant aider à abolir les obstacles entre les secteurs des programmes et les centres stratégiques.

L'évolution du CRG

Depuis l'instauration du CRG en 2003, la collecte et l'évaluation de renseignements ministériels pertinents sont effectuées par le personnel des programmes et des politiques du SCT. La Division du CRG exerce maintenant un rôle de coordonnateur afin de veiller à ce que le processus et la mise en œuvre des évaluations du CRG soient menés efficacement et en temps opportun.

De 2003 à 2005, le CRG a fonctionné sans structure globale de gouvernance. Il n'y avait pas de comité de hauts fonctionnaires du SCT directement responsable d'assurer l'orientation et la surveillance du projet. Il n'y avait pas de mécanismes en place pour faire observer les exigences du processus, comme les échéances. Au début de la ronde III en 2005, la Division du CRG a conclu un arrangement informel avec le comité des quatre secrétaires adjoints des secteurs de programmes (SASP) suivant lequel la Division pouvait soumettre ses problèmes aux SASP, qui essaieraient de les régler. Entre la fin de la ronde III et la fin de la ronde IV, une structure formelle de gouvernance a été mise en place et le Comité de supervision de la politique de gestion (CSPG) du SCT a été chargé d'assurer l'orientation et la surveillance générales.

Après la ronde III, un Forum de la stratégie du CRG a été constitué. Il vise principalement à établir une tribune au sein de laquelle les différends au sujet des notes d'évaluation peuvent être réglés. Cet arrangement a bien fonctionné étant donné que le Forum de la stratégie n'était pas limité par les mêmes contraintes de temps que le CSPG. Ce qui est ressorti de la dernière partie de la ronde IV et de la ronde V et qui se poursuit dans la ronde VI est une structure globale de gouvernance beaucoup plus efficace à laquelle participent le CPS et le Forum de la stratégie. Le CPS consacre du temps aux grands enjeux du CRG comme l'établissement de l'orientation générale, l'approbation de la méthodologie et du calendrier, ainsi que la surveillance du processus d'évaluation. Le Forum de la stratégie assure désormais l'orientation opérationnelle continue et le soutien dont le CRG a besoin, en particulier pour respecter des échéances, régler les différends et examiner les composantes de gestion ainsi que les évaluations ministérielles en général.

Depuis sa création, le CRG a constitué un ambitieux système d'évaluation utilisé par tous les principaux ministères fédéraux, les petits organismes et les très petits organismes. Dans chaque organisation, les évaluations couvrent actuellement 21 composantes de gestion, 68 éléments de preuve et environ 300 critères.

C'était le CRG en 2008, lors de la ronde VI d'évaluation. Même si de nombreux changements ont été apportés sur le plan de l'approche et de la méthodologie afin de faire état de l'expérience croissante de l'outil d'évaluation au SCT et de la volonté du SCT de s'améliorer à la lumière des problèmes et des possibilités ayant été déterminés, les éléments fondamentaux du CRG demeurent à peu près les mêmes qu'en 2003.

Les dix éléments initiaux demeurent en place, tout comme les attentes associées à chacun des dix éléments auxquels les gestionnaires de la fonction publique doivent se conformer. À chacun des éléments est aussi associé un certain nombre de composantes de gestion conçues pour donner une idée de la portée de chaque élément et pour suggérer comment évaluer les progrès accomplis par rapport aux objectifs. Même si le nombre de composantes de gestion a changé au fil des ans, l'objectif demeure le même. Afin de déterminer si des progrès ont été accomplis pour atteindre les objectifs liés aux dix éléments décrits par les composantes de gestion, des éléments de preuve ont été élaborés et ces derniers sont encore en place aujourd'hui.

Rondes I et II

Selon la prémisse des rondes I et II, les évaluations devaient être fondées sur les connaissances et les renseignements sur des ministères déjà disponibles dans le portefeuille du Conseil du Trésor (PCT). Les composantes de gestion n'étaient pas notées pendant la ronde I puisque les notes étaient subjectives, n'ayant aucune méthode formelle pour définir comment l'information recueillie serait utilisée pour évaluer les composantes de gestion. De plus, le CRG devait être une initiative ne s'ajoutant pas aux travaux dans les ministères. Dans la pratique, toutefois, des analystes du PCT devaient souvent communiquer avec des fonctionnaires ministériels pour obtenir des renseignements manquant. En réalité, le CRG a dès le début créé des tâches supplémentaires dans les ministères.

Ronde III

D'importantes modifications ont été apportées à la méthodologie lors de la ronde III. Elles concernaient la prémisse de base en ciblant les renseignements requis aux fins d'évaluation. Il a été décidé d'élargir la base de renseignements pour inclure des aspects liés aux enjeux ministériels de gestion demandés par les employés du PCT. Le nombre de composantes de gestion a donc augmenté à 41 lors de la ronde III.

Les ministères ont été invités à participer à la définition des composantes de gestion, ce qui leur a permis d'approfondir leur connaissance du CRG. Des arrangements formels ont aussi été conclus au titre de l'échange de renseignements liés au CRG entre le PCT et les ministères. Chaque ministère a désigné une personne-ressource du CRG et les renseignements devaient s'échanger entre la personne-ressource du CRG dans le ministère et l'analyste de programme du PCT affecté à ce ministère. Ce système du point de contact unique visait à régulariser l'échange de renseignements et à le rendre transparent. Il voulait mettre fin au processus suivant lequel différents analystes du PCT obtenaient de façon non coordonnée des renseignements sur le CRG de différentes personnes-ressources au sein d'un ministère.

La création de la première base de données sur le CRG a constitué une autre innovation en matière de consolidation. Elle visait à faciliter l'échange de renseignements sur le CRG et de documents d'évaluation au sein du PCT, ainsi qu'à consolider tous les renseignements en format électronique. Les renseignements recueillis dans les deux premières rondes ont été ajoutés à la base de données afin que puissent être comparés les points de vue de la ronde III sur le rendement ministériel avec les évaluations des rondes précédentes.

Pendant cette ronde, pour la première fois, des ministères ont été autorisés à examiner leurs évaluations provisoires et à présenter des observations à son sujet. Les composantes de gestion ont encore une fois été notées lors de la ronde III comme elles l'avaient été lors de la ronde II, c'est‑à‑dire de manière subjective.

Ronde IV

Les changements apportés à la méthode lors de la ronde IV devaient s'attaquer à la trop grande lourdeur du fardeau de l'évaluation (les analyses ratissant trop larges) et à l'augmentation marquée de la charge de travail du PCT et des ministères suite à l'examen de leurs évaluations provisoires. Pour la ronde IV, le nombre de composantes de gestion a été ramené à 20 et des méthodes formelles d'évaluation des 20 composantes de gestion ont été préparées. La méthodologie a été fournie aux ministères, et ces derniers ont eu la possibilité de fournir au PCT les renseignements qu'ils estimaient pertinents aux fins de leurs évaluations. Cela a permis d'éliminer l'élément de subjectivité des notes accordées.

La règle du point de contact unique a été renforcée au moyen d'une observation plus stricte et de la création d'une boîte de courrier électronique du CRG. Les personnes ressources du CRG pouvaient ainsi communiquer directement avec leur responsable du CRG au PCT comme avant. De plus, lors de la ronde IV, les ministères ont été invités à examiner une version électronique de leur évaluation dans la base de données du CRG, plutôt que d'en recevoir une copie papier.

Ronde V

La méthodologie du CRG a été encore renforcée lors de la ronde V au moyen de trois grandes innovations. Il y a d'abord eu l'instauration d'un système de notation fondé sur un « modèle de maturité » visant à rendre le processus de notation encore plus objectif. Ensuite, on a élaboré le portail du CRG afin de faciliter l'échange de renseignements, l'évaluation et l'examen, et d'accroître la transparence. Celui-ci est accessible aux utilisateurs autorisés du CRG, y compris le personnel du PCT et les personnes-ressources des ministères. Enfin, on a mis en œuvre une terminologie uniforme afin d'accroître la qualité et la cohérence des évaluations écrites.

Ronde VI

La ronde VI est demeurée assez stable, car seuls quelques changements mineurs ont été apportés à la méthodologie. Cette décision a été prise après l'annonce d'une évaluation quinquennale du CRG menée pendant la ronde qui pourrait entraîner la mise en œuvre de changements importants au cours des rondes VII ou VIII.

L'élimination d'une des ébauches de l'évaluation a constitué un changement important. Pour la ronde VI, il n'y a eu qu'une seule version provisoire précisant les notes. Un changement important est survenu à l'égard de la définition qui sert de fondement à l'évaluation des très petits organismes. Ce changement visait à alléger le fardeau de présentation de rapports de ces organismes tout en conservant une définition cohérente de ce qui constitue un tel organisme. Parmi les autres changements à souligner, mentionnons l'essai d'une approche fondée sur le risque pour certaines composantes de gestion liées à la composante des RH ainsi que la limite du nombre et de la taille des documents que les ministères et les organismes peuvent télécharger sur le portail du CRG.

ANNEXE G  BIBLIOGRAPHIE

Les ouvrages de référence qui suivent ont été utilisés dans le cadre du projet ainsi que dans la préparation du présent rapport.

Audit Commission. « Comprehensive Performance Assessment »

Australian Public Service Commission. « Senior Executive Leadership Capability (SELC) Framework »

CCAF-FCVI. « Les fondements institutionnels favorisant la budgétisation éclairée par la performance. Le cas du gouvernement du Canada », la revue de l'OCDE sur la gestion budgétaire, 2007, vol. 7, no 4.

Chartered Institute of Public Finance and Accountancy. The CIPFA FM Model: Statements of Good Practice in Public Financial Management - Getting Started ( version PDF, 419ko Anglais seulement).

Collins, Jim. Good to Great. New York: HarperCollins, 2001.

Conrad, M. « Some Mandarins Merely Going through the Motions of DCRs », Public Finance, 16 novembre 2007.

Cresswell A.M., D. Canestraro, et T.A. Pardo. « A Multi-Dimensional Approach to Digital Government Capability Assessment », Center for Technology in Government, University of Albany, SUNY, 2008.

Falletta, S. Organizational Diagnostic Models: A Review and Synthesis, Leadersphere, 2005.

Halligan, J. « Accountability in Australia: Control, Paradox and Complexity », Public Administration Quarterly, hiver 2007.

Harris, L. « Best Value Reviews of Human Resource Services in English Local Government », Review of Public Personnel Administration, 24(4), 334-347, 2004.

HM Government. Doing the Business: Managing Performance in the Public Sector - An External Perspective, février 2008.

HM Treasury. « HMT DSO Delivery Plan: Professionalising and Modernising the Finance Functions in Government », juillet 2008.

HM Treasury. Operational Efficiency Programme: Final Report, avril 2009.

HM Treasury. « Management Accountability Framework », présentation non datée.

HM Treasury. « Risk Management in UK Government », présentation non datée.

Holkeri, K. et H. Summa. « Evaluation of Public Management Reforms in Finland: From Ad Hoc Studies to Programmatic Approach », ministère des Finances, Finlande.

Interdepartmental MAF Network. « 2009 TBS Evaluation of the Management Accountability Framework: RFP MAF Administration », 2009.

Interdepartmental MAF Network. « 2009 TBS Evaluation of the Management Accountability Framework: Potential Points to Consider », 2009.

Kaplan, Robert S. et David P. Norton. The Balanced Scorecard: Translating Strategy into Action, Harvard Business Press, 1996.

McNamara, Carter. « Organizational Performance Management », Authenticity Consulting, 2008.

National Audit Office. Cabinet Office: Assessment of the Capability Review Programme, Report by the Comptroller and Auditor General, HC 123 Session 2008-2009, 5 février 2009.

National Audit Office. The Efficiency Programme: A Second Review of Progress, Report by the Comptroller and Auditor General, HC 156 I & II 2006-2007, 8 février 2007.

National Audit Office. Managing Financial Resources to Deliver Better Public Services, Report by the Comptroller and Auditor General, HC 240 Session 2007-2008, 20 février 2008.

National Audit Office. Managing Financial Resources to Deliver Better Public Services: Survey Results, 2008.

National Audit Office. Value for Money in Public Sector Corporate Services: A Joint Project by the UK Public Sector Audit Agencies, 2007.

Bureau du vérificateur général du Canada. Rapport de la vérificatrice générale du Canada à la Chambre des communes - Chapitre 2 - La reddition de comptes et l'éthique au gouvernement, novembre 2003.

Oliveira, Fatima et Josiane Desilets. « Interdepartmental MAF Network: MAF Round VI Solution Sheet », document provisoire, 26 janvier 2009.

Platt, Rodney K. « Performance Management », Worldat Work White Paper, décembre 2003.

Poage, James L. « Designing Performance Measures for Knowledge Organizations », Ivey Business Journal, mars/avril 2002.

Public Audit Forum. Finance Value for Money Indicators Guidance, mai 2007.

Public Policy Forum. A Management Accountability Framework for the Federal Public Service: Outcomes Report of Roundtable with Public Administration Experts and Academics, Public Policy Forum Boardroom, Ottawa (Ontario), 16 mai 2003.

Reid, Joanne et Victoria Hubbell. « Creating a Performance Culture », Ivey Business Journal, mars/avril 2005.

Sims, Harvey. « The Management Accountability Framework - Genesis, Evolution, Current Uses, and Future Prospects: A Paper Prepared for the MAF Directorate », Sussex Circle, 15 juillet 2008.

Sims, Harvey. « The Management Accountability Framework: A Paper Prepared for the MAF Directorate », Sussex Circle, 16 juillet 2008.

Staes, P. « Study on the Use of the Common Assessment Framework in European Public Administration », Institut européen d'administration publique, 2005.

Staes, P. et N. Thijs. « Quality Management on the European Agenda », EIPAScope, 2005.

State Services Commission, New Zealand. « The Capability Toolkit: A Tool to Promote and Inform Capability Management », 2008.

State Services Commission, New Zealand. « Quality Management in Government Responsibility and Accountability: Standards Expected of Chief Public Service Officers »

Sussex Circle. « MAF Round VI Questions », 2009.

Sussex Circle. « Management Accountability Framework Limited Review: A Paper Prepared for the MAF Directorate », 13 juin 2007.

Sussex Circle. « Report on Interviews with Deputy Ministers Concerning Management Accountability Framework Round V », 30 juin 2008.

Secrétariat du Conseil du Trésor du Canada. « Guide concernant les évaluations du CRG, 2007-2008 », Direction du Cadre de responsabilisation de gestion, 2008.

Secrétariat du Conseil du Trésor du Canada. Cahier sur les pratiques de gestion de premier plan. Hampton Inn, Ottawa, 3 octobre 2008.

Secrétariat du Conseil du Trésor du Canada. « Exercice rétrospectif du CRG : interne », 5 juin 2008.

Secrétariat du Conseil du Trésor du Canada. « Le processus du CRG », séance de formation interne à l'intention des ministères et des organismes, 22 et 26 septembre 2008.

Secrétariat du Conseil du Trésor du Canada. « Ébauches des cotes de la ronde VI du CRG : Tendances et questions »,  Forum de la stratégie du Cadre de responsabilisation de gestion, 30 janvier 2009.

Secrétariat du Conseil du Trésor du Canada. « Ronde VI du CRG, septembre 2008 : Exposés, description des cotes, document de référence sur la méthodologie et documents additionnels », Direction du Cadre de responsabilisation de gestion.

Secrétariat du Conseil du Trésor du Canada. « Formation des gestionnaires et des analystes du PCT sur le CRG », octobre 2008.

Secrétariat du Conseil du Trésor du Canada. « Document de référence - Méthode d'évaluation des composantes de la gestion pour la ronde VI du CGR pour 2008‑2009 », Direction du Cadre de responsabilisation de gestion.

Secrétariat du Conseil du Trésor du Canada. « Exercice rétrospectif du CRG : Externe » 30 mai 2008.

Secrétariat du Conseil du Trésor du Canada. « Cadre de responsabilisation de gestion : Constatations de la ronde V », juin 2008.

Secrétariat du Conseil du Trésor du Canada. « Survol du Cadre de responsabilisation de gestion  » PricewaterhouseCoopers, décembre 2008 - mars 2009.

Secrétariat du Conseil du Trésor du Canada.«La gestion des personnes et le CRG VII : une nouvelle approche; Breffage au Secteur des priorités et de la planification », Présentation 26 février 2009.

Secrétariat du Conseil du Trésor du Canada. « Enjeux liés au process », réunion du CPS élargi, 3 juillet 2008.

Secrétariat du Conseil du Trésor du Canada. « Changements proposes à la méthodologie du CRG 2008-2009 », présenté à la réunion du CPS élargi du 3 juillet 2008.

Secrétariat du Conseil du Trésor du Canada. « Réponse à la rétroaction et aux récapitulations du CRG », réunion du CPS élargi du 3 juillet 2008.

Secrétariat du Conseil du Trésor du Canada. « Application du CRG du SCT - Ronde VI : Sessions internes de formation », octobre 2008.

Secrétariat du Conseil du Trésor du Canada. « Le portail du CRG du SCT », séance de formation interne à l'intention des ministères et des organismes, 22 et 26 septembre 2008.

The Treasury, New Zealand. Annual Report of the Treasury for the Year Ended 30 June 2008, 2008.

United States Government Accountability Office. « President's Management Agenda: Review of OMB's Improved Financial Performance Scorecard Process. » Report to the Subcommittee on Government Management, Finance, and Accountability, Committee on Government Reform, House of Representatives, 2006.


1. Demande de proposition concernant l'évaluation quinquennale indépendante du Cadre de responsabilisation de gestion.

2. Une liste complète des personnes interviewées et des participants aux consultations se trouve à l'annexe C.

3. Le Réseau du CRG et le RAPO sont des réseaux constitués de représentants ministériels de divers échelons qui visent à partager des pratiques exemplaires.

4. « Why is Performance Management so difficult to implement? », Canadian Government Executive, mars 2009.

5. Par exemple, des études menées par le National Institute of Standards and Technology à la fin des années 1990 ont indiqué que les récipiendaires du Malcolm Balbridge National Quality Awards performent mieux que les autres sociétés sur le plan du rendement financier total.

6. Performance Management White Paper, Rodney K. Platt : WorldatWork, décembre 2003.

7. Le Programme de gestion du Président (President's Management Agenda - PMA) était une initiative de l'administration Bush. L'administration Obama a reconnu la nécessité de la création d'un poste d'agent principal du rendement, mais le rôle du PMA au sein de la nouvelle administration n'a pas encore été établi clairement.

8. Organisation de coopération et de développement économiques (OCDE). Public Sector Intergity: A Framework for Assessment, p. 86.

9. Assessment of the Capability Review Programme, Report by the Comptroller and Auditor General, National Audit Office, février 2009.

10. CAF 2006. CAF Resource Centre. Institut européen d'administration publique

11. Parmi les exceptions, mentionnons la République tchèque, la Slovaquie et la Roumanie qui ont rendu l'utilisation du CAF obligatoire en vue de favoriser les pratiques de gestion de qualité dans le secteur public.

12. Par exemple, la Loi fédérale sur la responsabilité adoptée en décembre 2006 renferme des dispositions de renforcement de la responsabilisation dans l'administration fédérale, y compris la désignation des sous‑ministres à titre d'administrateurs des comptes.

13. Operational Efficiency Programme: Final Report, HM Treasury, avril 2009.

14. Présentation du SCT - « Ébauches des cotes de la ronde VI du CRG : Tendances et questions », 30 janvier 2009.

15. Présentation du SCT -  « La gestion des personnes et le CRG VII : une nouvelle approche; Breffage au Secteur des priorités et de la planification », 26 février 2009.

16. La Direction du CRG du Secrétariat du Conseil du Trésor a préparé la présente annexe après avoir rempli l'évaluation; l'annexe est incluse dans le rapport à titre d'information.


Date de modification :