Secrétariat du Conseil du Trésor du Canada
Symbole du gouvernement du Canada

ARCHIVÉ - Définition de la base de référence - Sommaire et analyse des pratiques concernant les projets en technologies de l’information à l’échelle gouvernementale

Avertissement Cette page a été archivée.

Information archivée dans le Web

Information archivée dans le Web à  des fins de consultation, de recherche ou de tenue de documents. Cette dernière n’a aucunement été modifiée ni mise à  jour depuis sa date de mise en archive. Les pages archivées dans le Web ne sont pas assujetties aux normes qui s’appliquent aux sites Web du gouvernement du Canada. Conformément à  la Politique de communication du gouvernement du Canada, vous pouvez demander de recevoir cette information dans tout autre format de rechange à  la page « Contactez-nous Â».



Cadre amélioré pour la gestion des projets de technologie de l'information

Définition de la base de référence - Sommaire et analyse des pratiques concernant les projets en technologies de l’information à l’échelle gouvernementale

le 1 juin 1998
Bureau de dirigeant principal de l'information
Secrétariat du Conseil du Trésor du Canada



Remerciements

Les auteurs du document, David Holmes (Bureau de gestion des projets du Secrétariat du Conseil du Trésor du Canada) et Denis Godcharles (Godcharles Goulet Fournier) tiennent à remercier les personnes suivantes pour leur contribution.

Marj Akerley
Crayden Arcand
François Audet
Serge de Bellefeuille
Pierrette Benois-Doris
Darlene Bisaillon
Ray Blewett
Greta Bossenmaier
Larry Bristowe
Bill Brittain
Barry Brock (Colonel)
Aaron Caplan
Richard Chauret
Yvon Claude
Edward B. Cook
Kevin Collins
Paul Conway
Robert Cosh
Joan Delavigne
Bob Fraser
Barry Ferrar
David From
N.D. Funk
Brian Gallant
Michel Gilbert
Julia Ginley
Bruce Gordon
Réjean Gravel
Dick Gross
Terry Harding
Wayne Harrison
Dorene Hartling
Janice Hatt
Don Hobbins
Dave Holdham
Michael Jeays
Richard Johnston
Debbie Jones
Jim Klotz
Nabil Kraya
Gloria Kuffner
David Lafranchise
Robert Lalonde
Ken Leblanc
William Lowthian
Yves Marleau
Peter McLean
Doug McMillan
Guy Millaire
Henry Murphy
Peter Oberle
Heather Parry
Christine Payant
Patty Pomeroy
Tom Racine
Ron Ramsey
Jenny Steel
Katherine Stewart
Dianne Symchych
Mel Turner
Frances Walsh
Jim Westover
Bob Wilkinson
Howard Williams
Leslie Whitney
Chak Lam Wong

1.    Introduction

Voici une présentation de l'initiative d'implantation du Cadre amélioré de gestion au gouvernement fédéral et de son utilisation pour la mise en œuvre et la promotion de pratiques exemplaires en gestion et en réalisation de projets en technologies de l'information.

1.1 Contexte

Le gouvernement s'est engagé à améliorer l'efficacité de ses programmes et de ses services par le biais de l'utilisation des technologies de l'information. Des études sur les projets gouvernementaux en technologies de l'information menées par le Secrétariat du Conseil du Trésor du Canada (SCT) et le Bureau du vérificateur général (BVG) ont permis de mettre en évidence les problèmes de gestion et de réalisation de projets gouvernementaux en technologies de l'information.

Afin de régler ces problèmes et d'améliorer le cadre de gestion et de réalisation des projets en technologies de l'information, on a créé le Bureau de gestion des projets, SCT. Il est chargé de guider et d'appuyer les ministères afin que les projets en technologies de l'information gouvernementaux :

  • répondent aux besoins des fonctions ou des services du programme pour lesquels ils sont conçus;
  • présentent tous les avantages prévus;
  • respectent le calendrier et le budget établis.

En collaboration avec des ministères, le Bureau a publié en mai 1996 un document énonçant des principes directeurs et des pratiques exemplaires concernant les problèmes de gestion de projets que connaît le gouvernement fédéral. Ce document, Cadre amélioré pour la gestion des projets de technologie de l'information,1 aide les ministères à améliorer leurs pratiques de gestion de projets liés aux technologies de l'information.

Une des orientations comprend la promotion et la mise en œuvre de pratiques exemplaires de l'industrie dans les secteurs pertinents au Cadre amélioré de gestion. Les pratiques actuellement encouragées sont expliquées dans le document intitulé Cadre amélioré pour la gestion des projets de technologie de l'information - Partie II : Solutions pour l'application des principes2que l'on peut se procurer par l'entremise du Bureau ou d'Internet (www.tbs-sct.gc.ca). Le Bureau a exigé l'établissement d'une base de référence pour les pratiques liées aux projets, afin d'étoffer et de bonifier cette série initiale de solutions ainsi que d'apporter une aide accrue aux ministères dans leurs efforts d'amélioration.

1.2 Objet

Ce document a comme objectif la présentation des résultats d'une série d'ateliers devant examiner les pratiques gouvernementales actuelles de gestion et de réalisation de projets en technologies de l'information. Le document ne présente que les résultats pour l'ensemble du gouvernement; les résultats par ministère sont présentés dans des documents distincts.

1.3 Justification de l'établissement de la base de référence pour les pratiques actuelles

Seule une bonne compréhension des résultats des projets d'une organisation et des pratiques ayant mené à ces résultats peuvent permettre l'amélioration constante du taux de réussite des projets en technologies de l'information.

On a déjà fait état des irrégularités liées à la gestion et à la réalisation de projets en technologies de l'information du gouvernement fédéral.3 Toutefois, il existe peu de données sur les pratiques ou l'absence de pratiques qui ont mené à ces résultats inadéquats. Afin de mieux orienter et diriger les initiatives d'amélioration, il faut d'abord établir des bases qui permettent d'identifier les points forts et les faiblesses des pratiques. Grâce à une bonne compréhension des lacunes ou des faiblesses, les ministères seront plus en mesure d'établir des liens entre les résultats et les pratiques et ainsi améliorer leur capacité à gérer et à mener à bien des projets réussis en technologies de l'information. Par ailleurs, l'absence chronique de connaissances des pratiques et des répercussions de celles-ci sur les résultats des projets entraînerait probablement des investissements inefficaces ou inappropriés lors de la mise en œuvre de pratiques exemplaires et par conséquent retarderait le rendement sur les investissements en technologies de l'information.

En outre, le besoin d'établir une base de référence pour l'ensemble du gouvernement était nécessaire afin d'établir un point de référence pertinent pour tous les ministères. À l'heure actuelle, les bases de données sur les pratiques ont peu d'exemples provenant des organisations du secteur public et pourraient ne pas refléter la « véritable nature » du service public canadien. C'est la première fois que ce type de base de référence est réalisé pour le gouvernement fédéral.

1.4 Utilisation prévue

La base de référence établie comprend deux composantes : d'abord, une base de référence par ministère et ensuite un sommaire ainsi qu'une analyse des résultats généraux pour l'ensemble du gouvernement. Dans ce contexte, il y a plusieurs utilisations possible des résultats obtenus de la base de référence. La base de référence ministérielle permettra aux responsables des ministères de :

  • repérer les points forts et les secteurs devant être améliorés;
  • déterminer les priorités d'investissement concernant les améliorations;
  • évaluer les progrès réalisés lors de la mise en œuvre de pratiques exemplaires;
  • comparer les résultats dans différentes catégories avec d'autres organisations.

Le Secrétariat aura recours aux deux composantes de la base de référence pour :

  • examiner les soumissions en fonction des résultats;
  • repérer les priorités d'investissement concernant les améliorations;
  • promouvoir les activités d'amélioration dans les ministères;
  • assurer le suivi des progrès.

La base de référence s'avère un outil pratique pour apporter des améliorations majeures et fournit des données repères pour l'évaluation des progrès.

1.5 Public cible

La base de référence, qui pourrait intéresser plusieurs personnes, est surtout destinée à deux publics cibles au sein des ministères :

  • les « fournisseurs » de services ou de produits de technologies de l'information, qui tireront profit d'une meilleure connaissance des points forts et des limites de leur organisation ainsi que des secteurs devant possiblement être améliorés;
  • les « acheteurs » de services ou de produits de technologies de l'information, qui tireront profit d'une meilleure compréhension des capacités de leur fournisseur ainsi que de la diversité des pratiques nécessaires à la gestion et à la prestation de projets en technologies de l'information.


2.    Méthode

Le présent chapitre décrit l'approche utilisée pour établir la base de référence.

2.1 Fondement

Le Software Capability Maturity Model (SW-CMM)4, un modèle d'évolution des capacités logicielles, du Software Engineering Institute (SEI), jumelé à l'évaluation du processus logiciel basée sur le SW-CMM à des fins d'amélioration du processus (CBA-IPI), a été sélectionné comme fondement de la méthode d'établissement de la base de référence. On a choisi cette méthode parmi d'autres parce que les spécialistes de l'industrie la jugent valable et parce qu'elle peut fournir au gouvernement une évaluation complète des processus actuellement en place dans les ministères.

Cette approche, la CBA-IPI, exige toutefois des investissements majeurs en terme de ressources humaines et financières et elle a de fortes répercussions sur les organisations.5 L'approche choisie respecte donc les pratiques et les principes requis pour la CBA-IPI, tout en minimisant les répercussions pour les participants des ministères. En bref, on a simplifié la méthode pour :

  • permettre la tenue de l'évaluation individuelle des ministères en une demi-journée;
  • réduire le nombre de participants requis, en utilisant un échantillon restreint mais représentatif des utilisateurs et des gestionnaires de technologies de l'information compétents et expérimentés.

À l'aide de cette méthode simplifiée, on a réalisé un questionnaire fondé sur celui du Software Productivity Centre (SPC) pour leur produit SoftGuideTM. Les questions du SoftGuideTM s'adressent aux organisations qui travaillent actuellement avec des modèles d'évolution des capacités SW-CMM du Software Engineering Institute de niveau 1 ou 2. La terminologie et le niveau de précision des questions du SoftGuideTM sont plus appropriés à la taille et à la structure des organisations de technologies de l'information du gouvernement canadien que le questionnaire sur la maturité du Software Engineering Institute. L'approche élaborée avec le SoftGuideTM a déjà été utilisée avec succès pour plus de 30 évaluations.

2.2 Questionnaire

Le questionnaire SoftGuideTM comprend 89 questions provenant des 13 secteurs clés qui correspondent aux niveaux 2 et 3 du modèle d'évolution des capacités SW-CMM du Software Engineering Institute.6 Afin de couvrir adéquatement tout le champ d'activités du Cadre amélioré de gestion, des questions ont été ajoutées au questionnaire SoftGuideTM pour :

  • traiter les problèmes de gestion de projets soulignés dans le Cadre amélioré de gestion;
  • examiner les activités sur le plan des systèmes qui normalement précèdent et suivent les secteurs clés des modèles d'évolution des capacités SW-CMM;
  • examiner tous les types de projets en technologies de l'information du gouvernement, y compris l'acquisition de logiciels et les projets d'infrastructure.

Malgré les nettes différences qui existent entre les ministères — en matière de dépenses, de style de gestion et de modèles de prestation de service relativement aux technologies de l'information — le questionnaire a pu être utilisé par tous les ministères participants. Ceux-ci ont pu saisir la portée des questions et y répondre de façon appropriée, peu importe si les projets visent la conception traditionnelle de logiciels, l'acquisition de logiciels du commerce ou l'amélioration de l'infrastructure. En conséquence, cela démontre que les secteurs clés évalués s'appliquent à tous et cela valide les résultats de la base de référence comme outil d'aide potentiel pour l'amélioration. Le questionnaire est fourni à l'annexe 1.

2.3 Participants

Parmi les ministères ayant les plus importantes dépenses liées aux technologies de l'information, vingt ont été approchés pour participer au processus d'établissement de la base référence. Le montant des dépenses en technologies de l'information de ces ministères proviennent de données de 1996-1997 tirées d'un rapport du 5 juin 1997 sur les comptes centraux. Tous les ministères ont accepté l'invitation; des représentants clés de chacun d'entre eux ont participé à un atelier d'une demi-journée organisé pour leur ministère. La liste des ministères participants et de leurs représentants est fournie à l'annexe 2.

2.4 Ateliers

Tous les ateliers ont eu lieu de novembre 1997 à mars 1998 par les auteurs du présent rapport. Ceux-ci ont expliqué aux participants le Cadre amélioré de gestion, le modèle d'évolution des capacités logicielles SW-CMM du Software Engineering Institute et le mécanisme d'évaluation. La présentation a été faite avant l'administration du questionnaire.

Quatre réponses7 pouvaient être données aux questions :

  • Oui :
    – la pratique est bien implantée et exécutée couramment;
    – la pratique est presque toujours suivie;
    – la pratique est jugée comme étant une procédure normale d'exploitation.
  • Non :
    – la pratique n'est pas bien implantée ou exécutée couramment;
    – la pratique est suivie à l'occasion, ou même souvent mais elle est négligée dans le cas de situations difficiles.
  • Sans objet :
    – le participant connaît le projet ou l'organisation et la réponse à la question mais jugeait que celle-ci ne s'appliquait pas à son ministère. Par exemple, la section sur la « Gestion de la sous-traitance » ne s'appliquera pas  si le ministère ne fait pas de sous-traitance.
  • Ne sait pas :
    – le participant ne connaît pas la réponse à la question.

Plutôt que d'exiger un suivi rigoureux du critère « oui/non » défini ci-dessus, les participants ont fait preuve de bon sens pour déterminer à quel moment répondre oui ou non. On a ainsi adopté la règle du 80-20 : lorsque la pratique est utilisée dans 80 % des projets d'un ministère, le participant donnait une réponse positive. Une telle interprétation des critères oui/non n'est pas inhabituelle dans les méthodes d'évaluation.

En outre, les participants ont souvent ajouté à leurs réponses un commentaire du genre « oui, mais… » ou « non, mais… » et fourni une explication. Des discussions sur le besoin — ou l'absence de besoin — d'apporter des modifications à un secteur précis a parfois dicté la réponse à donner. Les participants ont utilisé la section des commentaires pour expliquer leurs réponses ou noter les résultats de leurs discussions.

À chaque atelier, les participants ont dégagé un consensus sur la définition d'un « projet » au sein d'un ministère donné. Ce consensus était absolument nécessaire pour faire en sorte que les questions sur les projets reposent sur des assises uniformisées et fiables. Même si ces définitions ne sont pas nécessairement homogènes pour tous les ministères, les représentants du Bureau de gestion des projets du Secrétariat du Conseil du Trésor du Canada ont exigé le recours à une gamme acceptable de définitions afin d'assurer l'intégrité des résultats de la base de référence. Le consensus entre les participants est mentionné dans les notes sur les ateliers.

Toutes les réponses ont été consignées et transmises aux ministères participants aux fins d'examen interne et de validation. Les résultats validés constituent le fondement de la base de référence.



3. Résultats des ateliers

Cette section présente un résumé des résultats des ateliers pour l'ensemble des ministères participants, une analyse détaillée des résultats généraux et les lignes directrices concernant la lecture et l'interprétation de ces résultats. Les auteurs ont également apporté leurs commentaires, le cas échéant.

3.1 Méthode de lecture et d'interprétation des résultats

La base de référence a comme objectif d'inciter les ministères à améliorer leurs capacités à gérer et à réaliser avec succès des projets en technologies de l'information. C'est donc à la lumière de cette prémisse qu'il faut lire et interpréter les résultats présentés dans cette section. Même si les résultats donnent un bon aperçu des capacités du gouvernement en matière de gestion et de réalisation de projets, il faut souligner que les participants ne constituent qu'un petit échantillon de spécialistes qui exploitent et gèrent les technologies de l'information. Les lecteurs ne doivent donc pas tirer de conclusions hâtives ni juger les capacités de gestion et de réalisation de projets gouvernementaux en technologies de l'information uniquement à partir de cette base de référence.

Des éléments précis de la base de référence des ministères peuvent être comparés aux divers résumés de profils fournis dans ce rapport. Plusieurs analyses ont été effectuées et peuvent servir à établir diverses comparaisons. Celles-ci peuvent en outre donner des renseignements sur la position d'un ministère par rapport aux autres.

3.2 Résultats

3.2.1 Résultats généraux
Le rapport présente d'abord les résultats généraux, afin de brosser un tableau d'ensemble de la mise en œuvre des pratiques à l'égard des projets à l'échelle gouvernementale.

Le graphique no 1 ci-dessous illustre les résultats généraux. Chaque bande du graphique représente le niveau de satisfaction pour chaque secteur clé. Les secteurs sont inscrits sur l'axe « Y », et le niveau de satisfaction à l'égard de ces secteurs sont sur l'axe « X ».

Graphique 1 - Résultats généraux

Graphique 1 – Résultats généraux

Remarques
Les taux de satisfaction les plus élevés ont été atteints pour les pratiques suivantes :

  • gestion de la sous-traitance (85 %);
  • gestion des exigences (69 %);
  • coordination intergroupes (69 %);
  • planification de projets (69 %);
  • conception de systèmes et acquisition de logiciels (69 %);
  • suivi et supervision de projets (63 %).

Les taux de satisfaction les plus faibles ont été atteints pour les pratiques suivantes :

  • gestion de projets intégrée (11 %);
  • revues par les pairs (17 %).

Analyse des résultats généraux
L'analyse des résultats généraux établit quels sont les points forts de la gestion et de la réalisation de projets en technologies de l'information, tels qu'indiqués ci-dessus.

Il y a également des secteurs où des améliorations devraient être apportées. Il s'agit des secteurs suivants.

  • Gestion de projets. Les ministères ont obtenu une note particulièrement faible en ce qui concerne la gestion de projets et la prise de décisions fondée sur le risque, telles que définies par le Cadre amélioré de gestion. Les ministères ont notamment obtenu une note de 20 % en ce qui a trait aux exigences précises en matière de compétences pour les gestionnaires de projet et 30 % pour le recours aux techniques d'atténuation des risques, notamment l'établissement de points de contrôle précis, la gestion structurée des risques, les procédures d'examen des points de fonction ainsi que la gestion de la valeur ajoutée.
  • Focalisation organisationnelle sur les processus et définition du processus de l'organisation. Peu de ministères élaborent et améliorent systématiquement les processus normalisés utilisés dans le cadre des projets. Même si 70 % des ministères affirment avoir défini des processus normalisés et en assurer le maintien, ils obtiennent moins de 30 % pour les volets suivants :
  • élaboration de plans d'action pour corriger les lacunes des processus;
  • formation des employés concernant les processus;
  • planification d'activités de conception ou d'amélioration des processus;
  • diffusion du matériel lié aux processus pour réutilisation par les ministères.
  • Gestion de projets intégrée. Les ministères obtiennent une note de 11 % en moyenne pour la méthode de gestion des projets et la plupart d'entre eux n'ont pas de procédure normalisée de collecte de données sur les efforts, les coûts et les progrès de réalisation du projet.
  • Ingénierie de produits logiciels. Les ministères ont obtenu un score inférieur à 40 % en matière d'ingénierie de produits logiciels (par exemple, cycle de vie du système ou du logiciel, méthode de conception de logiciels ou de systèmes), aspect qui est au cœur de la réalisation des projets de technologies de l'information.
  • Gestion des configurations et assurance-qualité. Les ministères enregistrent un taux de satisfaction inférieur à 40 % pour la gestion des configurations et l'assurance-qualité. Bien que ce faible taux s'explique principalement par le manque d'uniformité lors de la mise en œuvre, certains ministères n'utilisent même pas ces processus.
  • Revues par les pairs. Les ministères ont obtenu une note de 17 % au chapitre des revues par les pairs dans le cadre de leurs approches de gestion et de réalisation de projets en technologies de l'information.
  • Collecte et gestion des données des projets antérieurs. En moyenne, moins de 10 % des ministères effectuent la collecte et la gestion de données de projets antérieurs pour utilisation actuelle et future dans le cadre des processus de planification ou des initiatives d'amélioration des processus.

3.2.2 Résultats pondérés
Les mêmes résultats sont maintenant présentés avec un facteur de pondération qui tient compte de la taille relative de chaque ministère, établie d'après le total des fonds alloués aux technologies de l'information par rapport aux dépenses totales de l'ensemble des ministères examinés.

Le graphique n2 ci-dessous présente les résultats pondérés. Chaque bande du graphique représente le taux pondéré de satisfaction pour chaque secteur clé. On a établi le facteur de pondération en calculant le rapport entre les dépenses liées aux technologies de l'information d'un ministère et les dépenses totales en technologies de l'information de tous les ministères participant à l'étude. Le résultat pondéré a ensuite été obtenu en additionnant le taux de satisfaction de chaque ministère au facteur de pondération. L'axe « Y » illustre les secteurs et l'axe « X », le niveau de satisfaction.

Graphique 2 - Résultats pondérés

Graphique 2 – Résultats pondérés

Remarques
Les répercussions des facteurs de pondération sur les résultats généraux ont été généralement favorables, car les facteurs ont contribué à relever le niveau de satisfaction des pratiques exemplaires suivantes :

  • gestion de la sous-traitance (94 %, hausse de 9 %);
  • gestion des exigences (73 %, hausse de 4 %);
  • coordination intergroupes (73 %, hausse de 4 %);
  • planification de projets (82 %, hausse de 13 %);
  • conception de systèmes et acquisition de logiciels (77 %, hausse de 8 %);
  • suivi et supervision de projets (69 %, hausse de 6 %).

Les niveaux de satisfaction les plus faibles ont été enregistrés pour les pratiques suivantes :

  • gestion de projets intégrée (même taux à 11 %);
  • revues par les pairs (13 %, baisse de 4 %).

Analyse des résultats pondérés
En général, les résultats pondérés améliorent le rendement global du gouvernement, en raison principalement des processus bien implantés dans les plus grands ministères.

3.2.3 Résultats généraux par niveau des dépenses en technologies de l'information
Afin de permettre la comparaison du rendement d'un ministère par rapport à celui d'un autre ministère ayant un niveau similaire de dépenses en technologies de l'information, les résultats généraux sont présentés en fonction de l'importance des dépenses en technologies de l'information. Les résultats sont fournis au tableau n1 ci-dessous et au graphique no 3. Quatre catégories ont été établies pour le présent rapport :

  • ministères dont les dépenses en technologies de l'information sont inférieures à 25 millions de dollars (5 ministères);
  • ministères dont les dépenses en technologies de l'information sont supérieures à 25 millions de dollars mais inférieures à 50 millions de dollars (8 ministères);
  • ministères dont les dépenses en technologies de l'information sont supérieures à 50 millions de dollars mais inférieures à 100 millions de dollars (4 ministères);
  • ministères dont les dépenses en technologies de l'information sont supérieures à 100 millions de dollars (3 ministères).

On a confirmé le montant des dépenses en technologies de l'information avec les ministères au cours du processus de validation des résultats. Parmi ces dépenses, on inclut tous les frais liés aux technologies de l'information, soit la conception et la gestion de logiciels ainsi que les dépenses en capitaux pour l'infrastructure et les dépenses d'exploitation et d'entretien.

Tableau 1 – Résultats généraux par niveau des dépenses en technologies de l'information

Tableau 1 – Résultats généraux par niveau des dépenses en technologies de l'information

Le tableau no 1 est illustré dans le graphique suivant.

Graphique 3 - Résultats généraux par niveau des dépense en technologies de l'information

Graphique 3 – Résultats généraux par niveau des dépense en technologies de l'information

Analyse des résultats par niveau des dépenses en technologies de l'information
Aucune tendance claire ne se dégage des résultats par niveau des dépenses en technologies de l'information, sauf qu'il semble y avoir un lien entre la taille du ministère et le niveau de satisfaction pour chaque secteur. En général, les grands ministères (c'est-à-dire ceux ayant un niveau élevé de dépenses en technologies de l'information) obtiennent de meilleurs résultats pour la mise en œuvre et l'utilisation systématiques des processus. Toutefois, les ministères dans la catégorie de ceux ayant des dépenses de 50 à 100 millions semblent généralement plus satisfaits des pratiques de projets que ceux dans la catégorie des dépenses supérieures à 100 millions. Ces résultats peuvent s'expliquer de plusieurs façons, notamment par le fait que les ministères ayant des dépenses élevées en technologies de l'information ont la possibilité de refaire à plusieurs reprises les activités de gestion et de réalisation des processus et deviennent donc meilleurs à ce chapitre.

3.2.4 Résultats par modèle de gestion des technologies de l'information
Les résultats généraux sont présentés en fonction du mode de gestion « décentralisée » ou « centralisée » des ministères en ce qui a trait aux technologies de l'information. Certains ministères ont un style de gestion centralisée en ce qui a trait aux technologies de l'information, où pratiquement « tout » est effectué à l'interne pour les clients. D'autres ont un mode de fonctionnement décentralisé où les responsabilités concernant les réseaux, l'infrastructure informatique et les applications sont partagées entre divers groupes. Les réponses fournies par ces deux catégories de ministère étant différentes, les représentants du Bureau de gestion des projets du Secrétariat du Conseil du Trésor du Canada voulaient que les ministères puissent se comparer aux ministères ayant le même style de gestion qu'eux.

Le graphique n4 ci-dessous illustre les résultats par mode de gestion des technologies de l'information. La bande inférieure de chaque paire représente le niveau de satisfaction pour chaque secteur utilisé par les ministères « centralisateurs ». La bande supérieure représente le taux de satisfaction pour chaque secteur mis en œuvre par les ministères décentralisés. L'axe « Y » représente les secteurs et l'axe « X », le niveau de satisfaction.

Graphique 4 - Résultats par mode de gestion des technologies de l'information

Graphique 4 – Résultats par mode de gestion des technologies de l'information

Analyse des résultats par mode de gestion des technologies de l'information
Une tendance intéressante se dégage des résultats de la base de référence évaluée en fonction du mode de gestion. Il semble que la gestion centralisée des technologies de l'information obtient constamment des taux de satisfaction supérieurs pour les 15 secteurs clés, à l'exception de la formation. Cela peut s'expliquer par le fait que les ministères qui centralisent la gestion des technologies de l'information exercent un meilleur contrôle sur les pratiques et les ressources de mise en œuvre des processus. Ce résultat n'est pas vraiment surprenant. Cependant, étant donné qu'il existe plusieurs raisons administratives valables pour justifier une décentralisation de la gestion des technologies de l'information, les lecteurs ne doivent pas tirer de conclusions trop hâtives après l'examen des résultats. Les ministères ayant un mode de gestion décentralisée des technologies de l'information pourraient établir une base de référence de leurs pratiques dans certains secteurs et utiliser les résultats qui en découlent pour cerner les pratiques exemplaires et ensuite se servir de celles-ci comme effet multiplicateur pour l'ensemble du ministère.

3.2.5 Résultats par mode de prestation de services de technologies de l'information
Cette section présente les résultats par ministère, classés selon le mode de prestation de services de technologies de l'information, c'est-à-dire « interne » ou « externe ». Certains ministères sont dotés d'un important effectif en informatique pour effectuer la majeure partie de leur travail avec des ressources internes. Lorsqu'ils ont recours à la sous-traitance, ces ministères conservent dans une large mesure la responsabilité générale des résultats du projet. D'autres ministères ont recours à des services de sous-traitance pour effectuer la majeure partie du travail nécessaire aux projets en technologies de l'information. Ces ministères ont tendance à faire assumer la majorité des risques par les sous-traitants. Ici encore, les problèmes liés à chaque approche varient et les ministères pourraient juger bon de se comparer aux autres ministères faisant partie de la même catégorie en matière de prestation de services de technologies de l'information.

Le graphique n5 ci-dessous illustre les résultats par mode de prestation de services de technologies de l'information. La bande inférieure de chaque paire représente le taux de satisfaction pour chaque secteur des ministères qui utilisent des ressources « internes ». La bande supérieure illustre le taux de satisfaction pour chaque secteur des ministères qui ont recours à des ressources « externes ». Les secteurs sont inscrits sur l'axe « Y » et le niveau de satisfaction, sur l'axe « X ».

Analyse des résultats par mode de prestation de services de technologies de l'information
En ce qui concerne les taux de satisfaction, les résultats généraux établis par mode de prestation de services de technologies sont révélateurs. Il semble que les ministères utilisant des ressources internes obtiennent un taux de satisfaction supérieur pour tous les secteurs clés, à l'exception de la gestion des besoins, du suivi et de la supervision de projets et de la gestion des configurations. Cette tendance pourrait être liée au fait que les ministères utilisant les ressources internes pour la prestation de services de technologies de l'information peuvent exercer un meilleur contrôle sur les pratiques et les ressources utilisées pour la mise en œuvre des processus.

Graphique 5 - Résultats par mode de prestation de services de technologies de l'information

Graphique 5 – Résultats par mode de prestation de services de technologies de l'information

3.2.6 Établissement de la correspondance entre les résultats et les objectifs du Cadre amélioré de gestion
La présente section établit une correspondance entre les résultats généraux et les objectifs établis par le Bureau de gestion des projets dans le document intitulé Cadre amélioré pour la gestion des projets de technologie de l'information - Partie II : Solutions pour l'application des principes. Ce document établissait les objectifs d'amélioration selon les étapes suivantes :

  • Étape 0 (mars 1998) Les ministères s'assurent d'avoir en place les solutions de base nécessaires à l'amorce et à la gestion de projets ainsi qu'un plan pour passer à l'étape suivante.
  • Étape 1 (mars 1999) Les ministères s'assurent d'avoir une planification adéquate des projets et de rendre les progrès en cours assez visibles pour que la direction puisse intervenir lorsqu'il y a déviation du plan établi.
  • Étape 2 (mars 2000) Les ministères dotent les projets de contrôles et de procédures efficaces et homogènes de sorte qu'il y ait une gestion du changement, que le produit conserve son intégrité durant tout le cycle de vie du projet et que la qualité du produit soit acceptable compte tenu des paramètres définis.
  • Étape 3 (mars 2002) Les ministères s'assurent de faire des pratiques et des procédures établies précédemment la règle d'opération de tous les projets de l'administration fédérale.
  • Étape 4 (en permanence) Les ministères continuent d'améliorer leur efficacité en ce qui a trait à la gestion et à la réalisation de projets.

Afin d'obtenir une meilleure idée des résultats généraux par rapport à ces étapes, le tableau 2 illustre le niveau de satisfaction des secteurs pour chaque étape.

Tableau 2 – Correspondance entre les résultats et les objectifs du Cadre amélioré de gestion8

Tableau 2 – Correspondance entre les résultats et les objectifs du Cadre amélioré de gestion

Analyse des résultats de la correspondance par rapport aux objectifs du Cadre amélioré de gestion
Comme nous l'avons indiqué à la section 3.2.1, le volet qui est particulièrement préoccupant est celui de la gestion de projet, tel que le définit le Cadre amélioré de gestion. Les activités prévues pour ce volet visent à s'assurer que les projets sont dans la bonne voie. Cela inclut une structure de gestion efficace au sein du ministère; l'élaboration d'une analyse de rentabilisation appropriée pour la sélection de projets; un mémoire de projet final et un système intégré de responsabilisation et de comptabilité; une approche rigoureuse en matière de formation; la sélection et le perfectionnement des gestionnaires de projets et un système efficace de gestion des risques. Toutes ces composantes sont essentielles à la gestion et à la réalisation de projets réussis en technologies de l'information et il est absolument crucial que ces fondements soient établis correctement.

Sachant que les pratiques de niveau supérieur peuvent rarement être améliorées sans la mise en œuvre de pratiques uniforme aux niveaux inférieurs, la présente analyse vise à fournir une orientation et des conseils pour la réalisation d'initiatives d'amélioration à l'échelle gouvernementale.

3.2.7 Établissement de la correspondance entre les résultats et les conclusions du BVG
La présente section fait une comparaison entre les résultats de la base de référence et ceux établis par le BVG dans le cadre de ses études sur les systèmes en développement au cours des trois dernières années (1995 à 1997)9. Les résultats des études du BVG se trouvent sur le site web de l'organisme à l'adresse www.oag-bvg.gc.ca. Les questions principales soulevées par le BVG sont inscrites dans la première colonne, à côté de celle indiquant l'année où elles ont été signalées. Les deux dernières colonnes fournissent les références à la base de référence et le niveau de satisfaction pour ces activités. Les chiffres indiqués dans la troisième colonne correspondent aux questions présentées dans l'annexe 1. (GP=Gestion de projets, CS=Conception de systèmes/acquisition de logiciels, CMM=modèle d'évolution des capacités logicielles).

Tableau 3 – Comparaison des résultats de la base de référence avec les conclusions du BVG
Conclusions du vérificateur général Référence du BVG Référence à la base de référence Moyenne du % du niveau de satisfaction
Fractionnement des projets BVG 95 GP 4.1, GP 4.2, GP 4.3 35
Parrainage efficace de projets BVG 95 GP 2.1 70
Besoins clairement définis BVG 95 CMM 1 69
Participation active des utilisateurs BVG 95 CS 1
CMM 12
CMM 1.1, 1.4, 2.3, 2.5, 3.5
75
Ressources consacrées aux projets BVG 95 GP 2.4,
GP 4.8,
CMM 11.8
59
Responsabilisation BVG 96 GP 2 58
Établissement des besoins BVG 96 CMM 1 69
Amélioration des processus de conception logicielle BVG 96 CMM 7,
CMM 8
34
Établissement des priorités BVG 96 GP 1 56
Évaluation de l'état des projets BVG 96 GP 4.7,
GP 4.1,
CMM 3
44
Mise en œuvre des nouvelles directives du gouvernement BVG 96 CMM 7,
CMM 8
34
Planification BVG 97 CMM 2 69
Supervision BVG 97 GP 4.7,
GP 4.1
CMM 3
44
Assurance de la qualité BVG 97 CMM 5 40

Analyse des résultats de la correspondance avec les conclusions du BVG
En établissant une correspondance entre les résultats de la base de référence et les conclusions du BVG, on remarque la présence d'irrégularités similaires en matière de pratiques de gestion et de réalisation de projets. Dans le rapport sur la base de référence on a toutefois noté que des améliorations devraient éventuellement être apportées en ce qui concerne :

  1. le parrainage de projets;
  2. la gestion des besoins;
  3. la participation des utilisateurs;
  4. la planification.


4.    Mot de la fin

4.1    Prochaines étapes

On recommande aux ministères d'utiliser la base de référence pour corroborer les initiatives d'amélioration des pratiques et pour légitimer les futurs plans de mise en œuvre des pratiques exemplaires de l'industrie. Il est également recommandé de passer rapidement aux étapes identifiées ci-dessous afin de profiter du dynamisme actuel des participants.

Création d'une infrastructure « d'amélioration ». Afin d'appuyer leur plan de mise en œuvre de pratiques exemplaires, les ministères devraient élaborer un cadre organisationnel qui comprend une structure appropriée de gestion. Des ressources clés devraient également être allouées.

Phase d'établissement des objectifs. Les ministères devraient ensuite établir des objectifs précis de mise en œuvre de pratiques exemplaires pour la nouvelle année. Les discussions tenues lors des ateliers ont révélé que dans chaque ministère, il existe déjà des plans et des activités afin d'améliorer les secteurs clés évalués. Dans certains cas, ces initiatives visent clairement à s'aligner sur le Cadre amélioré de gestion, tandis que pour d'autres ministères, il s'agit uniquement d'obtenir de la direction qu'elle reconnaisse la nécessité d'apporter des changements; les liens avec le Cadre amélioré de gestion constituent alors une simple coïncidence. Dans l'un ou l'autre cas, les plans et les activités peuvent servir de pierre d'assise pour les plans d'amélioration comme le stipule le document intitulé Cadre amélioré pour la gestion des projets de technologie de l'information - Partie II : Solutions pour l'application des principes. Les objectifs établis dans ce document devraient servir de lignes directrices pour les points de contrôles.

Mise en œuvre et partenariat. Les ministères devraient finalement procéder à la mise en œuvre des pratiques exemplaires et des plans. Étant donné qu'il n'est pas surprenant de constater que les différents ministères ont chacun leurs points forts concernant les divers secteurs clés, dans certains cas, ils pourraient tirer profit de leurs forces respectives en partageant les guides, les cahiers de travail, les procédures, les outils et autres matériels. Le Bureau de gestion des projets du Secrétariat recueillera tout ce matériel afin de bonifier l'ensemble des solutions du Cadre amélioré de gestion et ainsi de lui donner une plus grande portée.

4.2 Recommandations

Le processus d'établissement de la base de référence pour les pratiques actuelles utilisées dans le cadre de projets ne constitue que la première étape de mise en œuvre d'améliorations durables et de pratiques exemplaires de l'industrie liées à la gestion et à la réalisation de projets en technologies de l'information au gouvernement fédéral. L'objectif de cette base de référence est d'encourager les ministères à améliorer leurs capacités de gestion et de réalisation de projets réussis en technologies de l'information. Le présent document sur la base de référence constitue en fait un instantané des efforts du gouvernement en matière de mise en œuvre de ces pratiques.

Comme l'ont indiqué les ateliers dont sont tirés les résultats, chaque ministère devrait maintenant élaborer un plan d'action détaillé afin d'entreprendre des activités d'amélioration. À la suite des résultats des ateliers, on prévoit que ce premier plan d'activités présentera une série de sous-plans ministériels déjà élaborés et approuvés pour l'année prochaine. Le plan devrait fournir des renseignements de haut niveau au sujet du contexte, des raisons administratives et des objectifs des initiatives d'amélioration; des activités; des rôles et responsabilités des intervenants; des points de contrôle clés ainsi que des ressources consacrées aux activités d'amélioration. Le Bureau de gestion des projets peut fournir aux ministères des modèles et des exemples pour la conception de ces plans.

Les ministères doivent également réexaminer leurs organisations et évaluer leurs progrès. Le Bureau de gestion des projets fournira une version améliorée, sous format électronique, du questionnaire ayant servi à élaborer la base de référence. Les ministères seront donc en mesure de répéter cette étape au sein de leur organisation et même peut-être d'y inclure d'autres secteurs non visés la première fois. Ceci s'avérera utile dans le cas où les participants n'ont pas été en mesure de répondre aux questions pour l'ensemble du ministère. Cela s'est avéré particulièrement évident pour les ministères gérant de façon décentralisée les technologies de l'information. En fait, il est clair que certains ministères devraient avoir plusieurs bases de référence afin de tenir compte des différentes pratiques dans divers secteurs plutôt qu'une seule base de référence pour l'ensemble du ministère. Les ministères devraient revoir cette question avec leurs groupes de mise en œuvre des pratiques.

Le document intitulé SEI IDEALSM Model remis lors des ateliers présente des explications détaillées sur la méthode de mise en œuvre des pratiques exemplaires de l'industrie. Le document est disponible sur le site WEB du SEI (www.sei.cmu.edu.). Par ailleurs, le Bureau de gestion des projets du Secrétariat parraine également des groupes d'intérêt qui travaillent à la mise en œuvre des pratiques exemplaires décrites dans le présent rapport. Les ministères ne devraient pas hésiter à se servir de ces outils.

4.3 Conclusion

Les technologies de l'information constituent un élément crucial de la prestation efficace et efficiente des programmes et des services gouvernementaux. Les ministères ne peuvent se permettre des projets ratés ou de ne pas profiter des avantages des technologies qu'ils utilisent. Les résultats des ateliers confirment les conclusions des études et des examens antérieurs menés par le Secrétariat du Conseil du Trésor du Canada, le BVG et le secteur privé, selon lesquelles il existe des problèmes importants en matière de pratiques de gestion de projets. Les résultats de la base de référence de chaque ministère donnent des indications précieuses sur les améliorations nécessaires à apporter et sur l'établissement des priorités.

L'instauration de pratiques exemplaires de l'industrie constitue une étape majeure vers l'efficacité opérationnelle et une fonction de contrôleur reconnue, dont le gouvernement se fait actuellement l'ardent défenseur au sein même de son administration. Les cadres supérieurs ont la possibilité d'adopter des solutions qui ont fait leurs preuves pour régler un problème largement reconnu; il s'agit là d'une occasion à ne pas manquer. Cela est particulièrement vrai à la lumière des projets de « l'an 2000 » présentement en cours.

Le résumé général que présente ce document ainsi que les rapports sur les bases de référence de chaque ministère peuvent s'avérer des outils précieux conduisant à l'amélioration marquée de la gestion des projets de technologies de l'information. Ils peuvent également constituer un point de repère valable pour permettre à chaque ministère d'évaluer ses propres progrès.

Note fin de page
1. Secrétariat du Conseil du Trésor du Canada. Cadre amélioré pour la gestion des projets de technologie de l'information, Ottawa, 1996, 128 p.

2. Secrétariat du Conseil du Trésor du Canada. Cadre amélioré pour la gestion des projets de technologie de l'information - Partie II : Solutions pour l'application des principes, Ottawa, 1998, 65 p.

3. L'examen du Secrétariat, expliqué dans le document Cadre amélioré pour la gestion des projets de technologie de l'information, indique les problèmes liés aux résultats des projets en technologies de l'information. Des études menées par le BVG ont également souligné des problèmes. Ces études sont disponibles sur le site du BVG à l'adresse www.oag-bvg.gc.ca. Des sondages menés dans le secteur privé par le Standish Group aux États-Unis et par KPMG au Canada ont également relevé des problèmes semblables en ce qui concerne les résultats de projets en technologies de l'information. Ces sondages ont été effectués de 1995 à 1997.

4. Capability Maturity Model for Software, Version 1.1, CMU/SEI-93-TR-24, Paulk, Mark C.; Curtis, Bill; Chrissis, Mary Beth; Weber, Charles V.; Software Engineering Institute, Carnegie Mellon University, Pittsburgh, PA, 1993.

5. Fait à noter, le mécanisme S:PRIME disponible auprès du Applied Software Engineering Centre et de GrafP Technologies Inc. qui est utilisé dans quelques ministères a également été envisagé, car il est aussi fondé sur l'évaluation de l'amélioration continue des processus tout en exigeant moins de ressources. Toutefois, ce questionnaire a des répercussions très fortes sur les organisations, répercussions auxquelles nous ne voulions faire face à ce moment-ci.

6. De brèves définitions des secteurs clés sont fournies à l'annexe 1.

7. Les réponses aux questions sont fondées sur la connaissance et l'expérience des participants dans leur milieu actuel, sauf indication contraire.

8. Le secteur clé « gestion des besoins » a été déplacé afin de faciliter la lecture des résultats de la correspondance.

9. Il faut souligner que les processus utilisés par le BVG pour cerner les principaux problèmes de gestion et de réalisation de projets en technologies de l'information au gouvernement diffèrent de ceux utilisés par le Secrétariat du Conseil du Trésor du Canada pour établir cette base de référence. Alors que le BVG adoptait une approche ciblée sur des initiatives précises au sein du gouvernement, le Secrétariat étudie la mise en oeuvre de ces mêmes secteurs mais sur le plan corporatif.



Annexe 1

Questionnaire

Rapport d'étape sur les pratiques des projets du gouvernement fédéral

Questions liées à la gestion de projets

  1. Principe : les projets en technologies de l'information sont axés sur les orientations et les priorités des secteurs d'activité, et les appuient.

    • L'approbation du projet est-elle fondée sur une analyse de rentabilisation qui établit un lien direct entre l'investissement et la fonction de gestion, et qui démontre les avantages de l'investissement tant pour le ministère que pour le gouvernement dans son ensemble?
    • Un modèle d'analyse de rentabilisation est-il appliqué pour tous les projets?
    • Existe-t-il une procédure établie pour procéder à l'analyse de rentabilisation, obtenir les approbations, examiner les résultats de l'analyse, etc.?
    • L'analyse de rentabilisation sera-t-elle examinée et validée de nouveau lors de chaque étape du processus ainsi que chaque fois que le projet ou la fonction de gestion fait l'objet d'un changement important?

  2. Principe : les responsabilités sont clairement définies.

    • Les responsabilités globales du ministère sont-elles définies dans la charte du projet?
    • Existe-t-il un modèle de charte de projet utilisé pour tous les projets?
    • Existe-t-il une procédure établie pour rédiger le charte du projet, définir les rôles et les responsabilités des intervenants, obtenir les approbations requises, etc.?
    • Est-ce que toutes les fonctions et les responsabilités de base de gestion de projets sont confiées à des gestionnaires de l'État? (Il est question ici des fonctions de base de gestion et de contrôle touchant la planification, la portée, le déroulement, le coût, la qualité, les risques, les ressources humaines, les approvisionnements, les marchés et les communications.)
    • S'il est nécessaire de recourir à l'impartition pour certaines fonctions de base de gestion du projet, a-t-on fait appel à un fournisseur autre que celui ayant participé au marché principal?

  3. Principe : les gestionnaires de projet sont formés dans une disciple particulière et travaillent dans cette sphère d'activités.

    • Le gestionnaire de projet désigné a-t-il les connaissances, les compétences et l'expérience nécessaires correspondant à l'envergure et à la complexité du projet de même qu'à son profil de risques?
    • Les compétences exigées des gestionnaires de projets sont-elles bien définies?
    • Existe-t-il une procédure établie définissant le profil de formation et de perfectionnement des gestionnaires de projet?

  4. Principe : les décisions en matière de gestion de projet sont fondées sur la gestion des risques.

    • Le projet est-il doté d'une série de points de vérification ou d'étapes fixés à l'avance, de sorte que la direction puisse se prononcer relativement à sa poursuite et prendre les correctifs qui s'imposent?
    • Le cycle de vie du projet défini par le ministère établit-il à quel moment il faudrait prévoir des points de contrôle et quels seront les critères applicables pour la poursuite du projet?
    • N'a-t-on affecté au projet que les fonds nécessaires pour atteindre l'étape suivante?
    • A-t-on utilisé une méthode d'évaluation des risques conforme aux pratiques énoncées dans le SEI's Continuous Risk Management Guidebook, un guide sur la gestion continue des risques, pour dégager et évaluer les risques associés au projet?
    • Existe-t-il une procédure établie de gestion des risques (comportant des outils, des techniques et des pratiques) obligatoire pour tous les projets?
    • La complexité du projet a-t-elle été établie dès le début du projet à l'aide de l'analyse des points de fonction (APF)
    • Se sert-on d'un outil de mesure du rendement axé sur la norme nationale CSPM pour fournir au gestionnaire de projet (de l'État), à intervalles fréquents, des données sur l'avancement des travaux, les sommes dépensées et les étapes franchies?
    • Les agents d'acquisition de TPSGC ont-ils participé dès le début de la planification du projet, afin de mettre au point un processus d'acquisition qui permet d'éliminer les retards et de dresser un plan d'acquisition qui harmonise mieux le plan d'adjudication du marché avec le plan du projet?

    Questions liées à la conception de systèmes et l'acquisition de logiciels

    Dans ce questionnaire, la conception de systèmes et l'acquisition de logiciels porte sur la transformation d'un besoin opérationnel en une description de la configuration d'un système (y compris ceux achetés) qui répond le mieux possible à ce besoin et regroupe les efforts de tous les secteurs et spécialités (conception logicielle, infrastructure, etc.) afin de produire un logiciel.

    • Existe-t-il une procédure établie pour découvrir, analyser et communiquer les attentes et les besoins des clients de façon à mieux savoir comment les satisfaire? (Cette procédure équivaut à l'étape d'analyse des besoins du système d'un cycle de vie de système traditionnel.)
    • Existe-t-il une procédure établie reliant les besoins fonctionnels aux différentes fonctions systémiques (objets, personnes, processus d'appoint, produits et services) dans le cadre des activités de conception du système ou de la sélection de solutions toutes prêtes? (Cette procédure équivaut à l'étape de la conception de systèmes.)
    • Est-ce que des solutions de rechange sont examinées avant le choix d'une solution pour résoudre le problème fonctionnel, compte tenu des contraintes en jeu? (Cette procédure équivaut à l'analyse de faire ou faire faire souvent effectuée lors de l'étape de conception du système.)
    • Établit-on les besoins au plan de l'architecture technique dans le cadre des activités de conception du système?
    • Est-ce que les projets d'achat de logiciels dénotent autant de rigueur que l'élaboration des projets, ce qui comprend l'établissement d'un budget et d'un calendrier, la gestion des risques et l'évaluation de la performance?
    • Existe-t-il des directives et une procédure consignées pour l'achat de logiciels (c'est-à-dire, normes des produits, besoins et contraintes au plan de l'architecture, etc.)?
    • Concernant l'achat de logiciels, prévoit-on une période de transition pour la mise en œuvre de ceux-ci?
    • Existe-t-il une procédure établie d'intégration et d'évaluation de systèmes afin de veiller à ce que les éléments du système fonctionnent comme un tout? (Cette procédure consiste d'abord à définir et à contrôler les interfaces ainsi qu'à vérifier les fonctions du système qui font appel à plusieurs éléments.)

    Questions liées au modèle d'évolution des capacités (CMM)

  5. La gestion des exigences exige la rédaction et le maintien d'une entente avec le client sur les exigences, techniques et autres (p. ex. date d'échéance), du projet.

    • Est-ce que les clients, la direction du projet et l'équipe de projet conviennent des exigences à respecter?
    • Les exigences sont-elles documentées et les documents mis à la disposition de tous les membres de l'équipe de projet?
    • Les modifications touchant les exigences sont-elles prises en compte dans les estimations des coûts et des travaux nécessaires pour réaliser le projet ainsi que dans l'estimation de la taille du produit?
    • Les modifications concernant les exigences sont-elles négociées entre les clients, la direction du projet et l'équipe de projet, et acceptées de tous?
    • Établit-on des rapports entre les exigences et les composantes de la conception, les éléments de codage et les plans et processus d'essai?
    • Les exigences sont-elles analysées pour en déterminer l'intégralité, la clarté, l'uniformité et la faisabilité?

  6. La planification de projets exige la préparation de données estimatives pour le travail à exécuter, les engagements à respecter et l'élaboration du plan d'exécution du travail.

    • Les activités du projet sont-elles définies et documentées dans un plan (plan du projet)?
    • Existe-t-il des procédures ou des lignes directrices pour évaluer les coûts et les travaux nécessaires à la réalisation du projet, et pour estimer la taille des produits?
    • Les engagements de groupes externes sont-ils consignés et font-ils l'objet d'un accord de la part des groupes concernés (c.-à-d. gestion des configurations et de la documentation, assurance-qualité, clients et sous-traitants)?
    • Le plan du projet est-il examiné par le gestionnaire de projet, les gestionnaires des autres groupes concernés et les membres de l'équipe de projet?
    • Est-ce que les risques associés au projet (coûts, ressources, calendrier, aspects techniques) sont définis, évalués et documentés?
    • Les activités prévues correspondent-elles à un cycle de vie bien défini?
    • A-t-on prévu, obtenu ou préparé les installations (espace à bureaux, matériel informatique) et les outils de soutien nécessaires?

  7. Le suivi et la supervision de projets comprennent la surveillance et l'examen des réalisations et des résultats du projet par rapport aux estimations, aux engagements et aux plans. Ces derniers doivent ensuite être modifiés en fonction des résultats obtenus et des réalisations.

    • Assure-t-on un suivi fréquent des travaux, des coûts et du respect du calendrier?
    • Est-ce que la taille des produits est évaluée périodiquement, et les estimations mises à jour en conséquence?
    • Les activités sont-elles révisées et replanifiées lorsque le projet, tel que réalisé, diffère de ce qui avait été planifié?
    • Procède-t-on périodiquement à des examens de projet internes auprès des groupes concernés afin de suivre les progrès réalisés et de déceler les problèmes?
    • Est-ce que des examens sont effectués aux points de contrôle importants avec les clients afin d'examiner les résultats et les plans ainsi que l'avancement des travaux?
    • Les données estimatives et réelles portant sur le travail requis, les coûts et la taille du produit sont-elles consignées afin d'être utilisées pour la poursuite du projet et dans le cadre de projets futurs?
    • Les problèmes et les questions techniques sont-ils déterminés, documentés et font-ils l'objet d'un suivi (rapports sur les problèmes, base de données sur les questions techniques, etc.)?

  8. La gestion de la sous-traitance exige la sélection d'un sous-traitant, l'établissement d'engagements avec celui-ci et le suivi et la supervision du rendement et des résultats du sous-traitant.

    • Les sous-traitants sont-ils choisis à la suite d'une évaluation de leurs capacités?
    • Existe-t-il une procédure ou des directives consignées aux fins de l'évaluation des sous-traitants?
    • Les engagements entre l'entrepreneur principal et le sous-traitant sont-ils énoncés dans un contrat?
    • L'entrepreneur principal procède-t-il périodiquement avec le sous-traitant à des examens techniques de l'équipement et de l'avancement des travaux?
    • L'entrepreneur principal procède-t-il périodiquement à des examens de la gestion du sous-traitant pour évaluer les progrès accomplis et l'état de la situation?
    • L'entrepreneur principal procède-t-il à un test de réception, test qui fait partie des critères d'acceptation du produit du sous-traitant?
    • Le rendement du sous-traitant est-il évalué périodiquement, et les résultats de cette évaluation font-ils l'objet de discussions avec ce dernier?
    • Les critères d'acceptation du produit sont-ils consignés dans un plan énonçant le test de réception dont auront convenu l'entrepreneur principal et le sous-traitant?

  9. L'assurance-qualité exige l'examen et la vérification des produits et des activités, afin de s'assurer qu'ils sont conformes aux procédures et aux normes pertinentes. Il faut aussi transmettre les conclusions de ces examens et vérifications aux gestionnaires du projet et autres responsables visés.

    • Existe-t-il un plan d'assurance-qualité pour le projet, comportant des activités, des responsabilités et un calendrier?
    • Les activités d'assurance-qualité sont-elles menées conformément au plan?
    • Les résultats de l'assurance-qualité sont-ils communiqués directement à la haute direction de l'organisation?
    • Les activités d'assurance-qualité et les constatations en la matière font-elles l'objet de rapports présentés périodiquement à la direction du projet?
    • Les personnes responsables de l'assurance-qualité ont-elles une formation dans ce domaine?
    • Les cas d'inobservation qui ne peuvent être réglés au niveau du projet sont-ils référés à la haute direction?
    • Les responsables de l'assurance-qualité s'assurent-ils que les activités du projet sont conformes au plan du projet et respectent les normes et les procédures qui y sont énoncées?
    • Les responsables de l'assurance-qualité vérifient-ils que les produits sont conformes aux normes, aux procédures et aux exigences prévues dans le contrat, telles qu'énoncées dans le plan du projet ou dans la description des travaux?

  10. La gestion des configurations signifie déterminer la configuration du produit, soit des produits du travail et leur description, à un moment précis; assurer le contrôle systématique des changements apportés à la configuration et maintenir l'intégrité et la traçabilité de celle-ci au cours du cycle de vie du projet.

    • Existe-t-il un plan de gestion des configurations pour le projet, comportant des activités, des responsabilités et un calendrier?
    • Les activités de gestion des configurations sont-elles conformes au plan?
    • Les produits, les outils et les logiciels ou les procédures requis pour régénérer les produits sont-ils déterminés et contrôlés?
    • Est-ce que le système où sont conservées les données relatives à la gestion des configurations sert de dépôt pour les éléments contrôlés?
    • Existe-t-il une procédure pour extraire des éléments du système de dépôt de gestion des configurations et pour les y reverser?
    • Existe-t-il une procédure pour générer des produits de base à partir du système de dépôt de gestion des configurations?
    • Dispose-t-on d'information sur le contenu des produits de base et du dépôt de gestion des configurations aux fins du projet?
    • Existe-t-il une procédure ou un mécanisme pour assurer le suivi des changements apportés aux éléments contrôlés (c.-à-d. une procédure de traitement des demandes de changement)?

  11. La focalisation organisationnelle sur les processus visent la conception et le maintien des processus de l'organisation et du projet, ainsi que la coordination des activités nécessaires à l'évaluation, à l'élaboration, au maintien et à l'amélioration de ces processus.

    • Existe-t-il des activités visant à élaborer des processus normalisés et à améliorer les processus existants au sein de l'organisation?
    • La responsabilité relative à l'amélioration et à l'élaboration des processus se situe-t-elle au niveau de l'organisation plutôt qu'au niveau du projet?
    • Les processus du projet ou de l'organisation sont-ils évalués périodiquement de manière à en établir les points forts et les points faibles?
    • Est-ce que l'évaluation des processus débouche sur l'établissement et l'application de plans d'action?
    • Est-ce que l'organisation dispose d'un plan global d'élaboration et d'amélioration des processus?
    • Existe-t-il un plan de formation portant sur les processus au sein de l'organisation?
    • La haute direction fournit-elle un appui, des ressources et des fonds suffisants pour assurer l'efficacité des activités d'amélioration des processus?

  12. La définition du processus de l'organisation exige l'élaboration et le maintien des processus normalisés de l'organisation ainsi que du matériel lié aux processus, comme les descriptions des cycles de vie des processus, les directives et les critères de personnalisation des processus, la base de données des processus de l'organisation et la bibliothèque de documents sur les processus.

    • L'organisation a-t-elle établi et consigné des processus normalisés (description du cycle de vie des projets)?
    • L'organisation encourage-t-elle l'utilisation de processus normalisés?
    • Existe-t-il une banque de données de référence sur les processus (description, directives de personnalisation, normes de codage, procédures d'élaboration) qui pourraient être facilement adaptées et utilisées dans le cadre des projets?
    • Les processus normalisés sont-ils périodiquement réévalués et améliorés?
    • Évalue-t-on les technologies, les méthodologies et les outils nouveaux qui se rapportent aux processus?
    • Les données estimatives et mesurées sur les processus sont-elles conservées dans une base de données afin de servir à améliorer les processus et à planifier les projets à venir (estimation de la taille du projet, données sur les travaux requis, sur la productivité, sur les défauts)?

  13. Le programme de formation exige d'abord l'évaluation des besoins en formation pour la gestion de l'information et des technologies de l'information, les projets et les particuliers. Il faut ensuite élaborer les cours ou s'en procurer afin de répondre aux besoins décrits.

    • Est-ce que les besoins de formation technique et en gestion sont précisés pour chaque projet (c.-à-d. nature de la formation, personnes visées, moment où la formation est offerte)?
    • Les personnes qui travaillent à un projet reçoivent-elles la formation jugée appropriée?
    • Existe-t-il un plan de formation pour l'organisation, qui énonce les besoins de formation, les cours offerts, les crédits et les ressources disponibles, le calendrier et les normes de préparation des cours?
    • Les cours de formation sont-ils préparés à l'interne, conformément au plan de formation de l'organisation?
    • La haute direction consacre-t-elle au programme de formation l'appui, les ressources et les fonds suffisants pour en assurer l'efficacité?
    • Utilise-t-on une méthode de mesure pour établir la qualité du programme de formation?

  14. La gestion de projets intégrée nécessite l'élaboration d'un processus de gestion établi pour le projet et la gestion du projet à l'aide de ce processus. Celui-ci est personnalisé à l'aide du processus normalisé de gestion de projet de l'organisation afin de répondre aux caractéristiques particulières du projet (p. ex. PMBOK).

    • Applique-t-on dans le cadre du projet des processus précis qui ont été élaborés à partir des processus organisationnels normalisés?
    • Les activités décrites dans le plan du projet concordent-elles avec les processus appliqués dans le cadre du projet?
    • Utilise-t-on les données recueillies à la suite de projets antérieurs (contenues dans la base de données sur les processus de projets de l'organisation) à des fins de planification et d'estimation? (Ces données portent notamment sur la taille des logiciels, les travaux requis, les coûts, le calendrier, la productivité et les activités.)
    • Le travail accompli, les coûts et le calendrier sont-ils gérés conformément à une procédure établie?
    • Est-ce que la taille du produit fait l'objet d'une gestion conformément à une procédure établie?
    • Est-ce que les risques associés au projet sont établis, évalués, documentés et gérés conformément à une procédure établie?

  15. L'ingénierie de produits logiciels vise l'exécution des tâches de conception nécessaires à la création et au maintien des produits, à l'aide des processus de conception établis pour le projet, ainsi que des méthodes et des outils pertinents (p. ex. Méthode 1, DMRPT, etc.).

    • Existe-t-il des outils et des mécanismes efficaces à l'appui des processus logiciels du projet?
    • Existe-t-il une procédure établie et appliquée pour l'utilisation des processus logiciels?
    • Procède-t-on à une analyse et à une validation des exigences conformément à la procédure établie pour le projet?
    • Le produit est-il conçu conformément à la procédure établie pour le projet?
    • Le produit est-il mis en application conformément à la procédure établie pour le projet?
    • Les essais ont-ils été effectués conformément à la procédure établie pour le projet?
    • Les résultats d'analyse, de conception, d'application et d'essai sont-ils cohérents entre eux et concordent-ils avec les besoins du client?
    • Est-ce que les ressources nécessaires (technologies, compétences, matériel) sont disponibles?

  16. La coordination intergroupes nécessite la participation d'autres groupes du projet (sur le plan de l'organisation plutôt que des membres de l'équipe du projet) notamment des groupes de l'infrastructure, des essais ou de l'assurance-qualité. Cela permet d'étudier les besoins, les objectifs et les problèmes des systèmes.

    • Les groupes de projet conviennent-ils de leurs engagements, et ceux-ci sont-ils consignés? (Les engagements peuvent être consignés dans le plan de projet.)
    • Est-ce que des représentants des groupes concernés participent à la définition des exigences du projet et aux négociations avec les clients?
    • Existe-t-il une procédure pour déceler les problèmes intergroupes, en prendre note, en faire le suivi et les régler?
    • Les groupes de projet collaborent-ils régulièrement en vue de suivre et de coordonner les activités de nature technique et de régler les problèmes techniques?
    • Utilise-t-on le plan de projet pour coordonner les activités des différents groupes et en assurer le suivi?
    • Les produits transmis à un autre groupe font-ils l'objet d'un examen en vue de s'assurer qu'ils correspondent aux besoins de ce groupe?

  17. Les revues par les pairs comportent une évaluation méthodique, par les pairs du producteur, des produits pour en repérer les lacunes et les aspects à modifier.

    • Les produits font-ils l'objet d'une revue par des pairs? Parmi les produits pouvant faire l'objet d'une telle revue, pensons aux exigences techniques, à l'architecture, aux descriptions de la conception et aux plans d'essai.
    • Les documents devant être revus sont-ils remis aux examinateurs suffisamment longtemps avant la rencontre pour qu'ils puissent être examinés?
    • Est-ce que les défauts décelés lors de la rencontre d'examen sont consignés et font l'objet d'un suivi jusqu'à ce qu'ils aient été corrigés?
    • Le plan de projet ou le plan de revue par les pairs établit-il quels produits doivent faire l'objet d'une revue par les pairs?
    • Les revues par les pairs sont-ils effectués conformément à une procédure établie?
    • L'examinateur utilise-t-il une liste de contrôle énonçant chaque critère à considérer pour l'évaluation du produit?


Annexe 2

Liste des ministères et des participants

Les ministères suivants ont participé à l'initiative du Secrétariat du Conseil du Trésor du Canada

Ministères Représentants
1. Agriculture et Agroalimentaire Canada Marj Akerley
Ray Blewett
Brian Gallant
Bruce Gordon
Terry Harding
2. Patrimoine canadien Larry Bristowe
Crayden Arcand
3. Citoyenneté et Immigration Canada Christine Payant
Don Hobbins
4. Service correctionnel Canada David From
N.D. Funk
Doug McMillan
Richard Johnston
5. Environnement Canada Jim Klotz
Henry Murphy
Chak Lam Wong
6. Pêches et Océans Réjean Gravel
Robert Cosh
William Lowthian
Dianne Symchych
7. Affaires étrangères et Commerce international Greta Bossenmaier
David Lafranchise
Bob Fraser
8. Santé Canada Dorene Hartling
Bob Wilkinson
9. Développement des ressources humaines Canada Joan Delavigne
Ron Ramsey
Michel Gilbert
10. Affaires indiennes et du Nord Canada Serge de Bellefeuille
Yves Marleau
Peter Oberle
11. Industrie Canada Tom Racine
Nabil Kraya
Patty Pomeroy
Pierrette Benois-Doris
Jenny Steel
Jim Westover
12. Ministère de la Justice Canada Aaron Caplan
Janice Hatt
13. Défense nationale Barry Brock (Colonel)
Wayne Harrison
Bill Brittain
14. Ressources naturelles Canada Yvon Claude
Paul Conway
Peter McLean
Ken Leblanc
Leslie Whitney
15. Travaux publics et Services gouvernementaux Canada Dave Holdham
Julia Ginley
François Audet
Debbie Jones
16. Revenu Canada Darlene Bisaillon
Richard Chauret
Barry Ferrar
Gloria Kuffner
Katherine Stewart
17. Gendarmerie royale du Canada Edward B. Cook
Guy Millaire
18. Statistique Canada Dick Gross
Michael Jeays
Mel Turner
19. Transports Canada Kevin Collins
Robert Lalonde
20. Anciens Combattants Canada Heather Parry
Frances Walsh
Howard Williams


Annexe 3

Résultats