Secrétariat du Conseil du Trésor du Canada
Symbole du gouvernement du Canada

ARCHIVÉ - Définition de la base de référence - Sommaire et analyse des pratiques concernant les projets en technologies de l’information à l’échelle gouvernementale

Avertissement Cette page a été archivée.

Information archivée dans le Web

Information archivée dans le Web à  des fins de consultation, de recherche ou de tenue de documents. Cette dernière n’a aucunement été modifiée ni mise à  jour depuis sa date de mise en archive. Les pages archivées dans le Web ne sont pas assujetties aux normes qui s’appliquent aux sites Web du gouvernement du Canada. Conformément à  la Politique de communication du gouvernement du Canada, vous pouvez demander de recevoir cette information dans tout autre format de rechange à  la page « Contactez-nous Â».

2.    Méthode

Le présent chapitre décrit l'approche utilisée pour établir la base de référence.

2.1 Fondement

Le Software Capability Maturity Model (SW-CMM)4, un modèle d'évolution des capacités logicielles, du Software Engineering Institute (SEI), jumelé à l'évaluation du processus logiciel basée sur le SW-CMM à des fins d'amélioration du processus (CBA-IPI), a été sélectionné comme fondement de la méthode d'établissement de la base de référence. On a choisi cette méthode parmi d'autres parce que les spécialistes de l'industrie la jugent valable et parce qu'elle peut fournir au gouvernement une évaluation complète des processus actuellement en place dans les ministères.

Cette approche, la CBA-IPI, exige toutefois des investissements majeurs en terme de ressources humaines et financières et elle a de fortes répercussions sur les organisations.5 L'approche choisie respecte donc les pratiques et les principes requis pour la CBA-IPI, tout en minimisant les répercussions pour les participants des ministères. En bref, on a simplifié la méthode pour :

  • permettre la tenue de l'évaluation individuelle des ministères en une demi-journée;
  • réduire le nombre de participants requis, en utilisant un échantillon restreint mais représentatif des utilisateurs et des gestionnaires de technologies de l'information compétents et expérimentés.

À l'aide de cette méthode simplifiée, on a réalisé un questionnaire fondé sur celui du Software Productivity Centre (SPC) pour leur produit SoftGuideTM. Les questions du SoftGuideTM s'adressent aux organisations qui travaillent actuellement avec des modèles d'évolution des capacités SW-CMM du Software Engineering Institute de niveau 1 ou 2. La terminologie et le niveau de précision des questions du SoftGuideTM sont plus appropriés à la taille et à la structure des organisations de technologies de l'information du gouvernement canadien que le questionnaire sur la maturité du Software Engineering Institute. L'approche élaborée avec le SoftGuideTM a déjà été utilisée avec succès pour plus de 30 évaluations.

2.2 Questionnaire

Le questionnaire SoftGuideTM comprend 89 questions provenant des 13 secteurs clés qui correspondent aux niveaux 2 et 3 du modèle d'évolution des capacités SW-CMM du Software Engineering Institute.6 Afin de couvrir adéquatement tout le champ d'activités du Cadre amélioré de gestion, des questions ont été ajoutées au questionnaire SoftGuideTM pour :

  • traiter les problèmes de gestion de projets soulignés dans le Cadre amélioré de gestion;
  • examiner les activités sur le plan des systèmes qui normalement précèdent et suivent les secteurs clés des modèles d'évolution des capacités SW-CMM;
  • examiner tous les types de projets en technologies de l'information du gouvernement, y compris l'acquisition de logiciels et les projets d'infrastructure.

Malgré les nettes différences qui existent entre les ministères — en matière de dépenses, de style de gestion et de modèles de prestation de service relativement aux technologies de l'information — le questionnaire a pu être utilisé par tous les ministères participants. Ceux-ci ont pu saisir la portée des questions et y répondre de façon appropriée, peu importe si les projets visent la conception traditionnelle de logiciels, l'acquisition de logiciels du commerce ou l'amélioration de l'infrastructure. En conséquence, cela démontre que les secteurs clés évalués s'appliquent à tous et cela valide les résultats de la base de référence comme outil d'aide potentiel pour l'amélioration. Le questionnaire est fourni à l'annexe 1.

2.3 Participants

Parmi les ministères ayant les plus importantes dépenses liées aux technologies de l'information, vingt ont été approchés pour participer au processus d'établissement de la base référence. Le montant des dépenses en technologies de l'information de ces ministères proviennent de données de 1996-1997 tirées d'un rapport du 5 juin 1997 sur les comptes centraux. Tous les ministères ont accepté l'invitation; des représentants clés de chacun d'entre eux ont participé à un atelier d'une demi-journée organisé pour leur ministère. La liste des ministères participants et de leurs représentants est fournie à l'annexe 2.

2.4 Ateliers

Tous les ateliers ont eu lieu de novembre 1997 à mars 1998 par les auteurs du présent rapport. Ceux-ci ont expliqué aux participants le Cadre amélioré de gestion, le modèle d'évolution des capacités logicielles SW-CMM du Software Engineering Institute et le mécanisme d'évaluation. La présentation a été faite avant l'administration du questionnaire.

Quatre réponses7 pouvaient être données aux questions :

  • Oui :
    – la pratique est bien implantée et exécutée couramment;
    – la pratique est presque toujours suivie;
    – la pratique est jugée comme étant une procédure normale d'exploitation.
  • Non :
    – la pratique n'est pas bien implantée ou exécutée couramment;
    – la pratique est suivie à l'occasion, ou même souvent mais elle est négligée dans le cas de situations difficiles.
  • Sans objet :
    – le participant connaît le projet ou l'organisation et la réponse à la question mais jugeait que celle-ci ne s'appliquait pas à son ministère. Par exemple, la section sur la « Gestion de la sous-traitance » ne s'appliquera pas  si le ministère ne fait pas de sous-traitance.
  • Ne sait pas :
    – le participant ne connaît pas la réponse à la question.

Plutôt que d'exiger un suivi rigoureux du critère « oui/non » défini ci-dessus, les participants ont fait preuve de bon sens pour déterminer à quel moment répondre oui ou non. On a ainsi adopté la règle du 80-20 : lorsque la pratique est utilisée dans 80 % des projets d'un ministère, le participant donnait une réponse positive. Une telle interprétation des critères oui/non n'est pas inhabituelle dans les méthodes d'évaluation.

En outre, les participants ont souvent ajouté à leurs réponses un commentaire du genre « oui, mais… » ou « non, mais… » et fourni une explication. Des discussions sur le besoin — ou l'absence de besoin — d'apporter des modifications à un secteur précis a parfois dicté la réponse à donner. Les participants ont utilisé la section des commentaires pour expliquer leurs réponses ou noter les résultats de leurs discussions.

À chaque atelier, les participants ont dégagé un consensus sur la définition d'un « projet » au sein d'un ministère donné. Ce consensus était absolument nécessaire pour faire en sorte que les questions sur les projets reposent sur des assises uniformisées et fiables. Même si ces définitions ne sont pas nécessairement homogènes pour tous les ministères, les représentants du Bureau de gestion des projets du Secrétariat du Conseil du Trésor du Canada ont exigé le recours à une gamme acceptable de définitions afin d'assurer l'intégrité des résultats de la base de référence. Le consensus entre les participants est mentionné dans les notes sur les ateliers.

Toutes les réponses ont été consignées et transmises aux ministères participants aux fins d'examen interne et de validation. Les résultats validés constituent le fondement de la base de référence.