Upload
others
View
1
Download
0
Embed Size (px)
Citation preview
Présentation faite au SPIN - MontréalÉcole de technologie supérieure
17 octobre 2011
Obtention du niveau d’aptitude 3 de l’ingénierie du modèle CMMI-DEV®
L’expérience d’Adacel
CMM Integration; IDEAL; SCAMPI; SCAMPI Lead Appraiser and SEPG are service marks of Carnegie Mellon University.CMMI is registered in the U.S. Patent and Trademark Office by Carnegie Mellon University.
Je trouverai un chemin, ou j’en créerai un.Hannibal
2
Adacel?
• Compagnie publique australienne (ADA.ASX)
• Siège social situé à Orlando
• Trois centres de R&D situés à Brossard, Dorval et Orlando
• 200 employés dont le tiers oeuvrent en R&D
3
Nos marchés
� Gestion de la circulation aérienne
Développe des logiciels de gestion de la circulation aérienne pour les régions océaniques et terrestres qui utilisent des systèmes de communications satellitaires.
� Simulation et formation
Développe des logiciels de simulation de gestion d’aéroport et de surveillance aérienne basés sur sa technologie de reconnaissance de la parole.
� Systèmes embarqués
Utilisant sa technologie de reconnaissance de la parole, Adacel développe des produits et applications innovatrices offrant de multiples possibilités d’intégration pour plates-formes embarquées existantes et futures.
4
Gestion de la circulation aérienne
5
USAF Active Duty Universities USAF ReserveUSAF Air National Guard
USAF Special Operations US Marine Corps US Army
Dobbins ARBMcEntire ARB
Homestead ARB
Grissom
ARB
March ARB
Westover ARB
125th Special Tactics Squadron
22nd Special Tactics Squadron
21st Special Tactics Squadron
123rd Special
Tactics Squadron
Hurlburt
Field (2)
US Navy
NASA Ames Future Flight Central
National Aeronautics and Space Administration
Federal Aviation Administration
Yuma MCAS
Miramar MCAS
Camp Pendleton MCAS
Beaufort MCAS
Quantico MCAS
Cherry Point MCAS
New River MCAS
US Navy Aero
Medical Institute
NAS Key West
US Army Air Traffic Training Academy (7)
Mississippi Army Guard
Seymour-Johnson AFBPope AFB
Eielson AFB
Elmendorf AFB
McGuire AFB
Kelly-Lackland
AFB
Dover AFB
Altus AFB
Keesler AFB (10)
Offutt AFB
Luke AFBShaw AFB
Ellsworth AFB
Fairchild AFB
McChord AFB
Minot AFB
Travis AFB
Cannon AFB
Mountain Home AFB
Dyess AFB
Laughlin AFB
Barksdale
AFB
MacDill AFB
Columbus
AFB
Patrick AFB
Grand
Forks AFB
Langley AFB
Little Rock AFB
Whiteman AFB
Beale AFB
Hill AFB
Nellis AFB
Edwards AFB
Davis Montham AFB
Holloman AFB
Eglin
AFB
Tyndall AFB
Moody AFB
Maxwell AFB
Robbins AFB
Scott AFBVance AFB
Tinker AFB
McConnell AFB
Wright Patterson AFB
Sheppard AFB
Kalaeloa ANGB
Cheyenne ANGB
Volk Field ANGB
Klamath Falls ANGB
Pease ANGB
Alexandria ANGB
Springfield ANGB
St. Joseph ANGB
New London Stanley ANGB
Key Field ANGB
Johnstown ANGB
Alpena ANGB
Selfridge ANGB
University of North DakotaCommunity College of Beaver County
Daniel Webster University
Georgia Aviation Technical College
Middle Tennessee State
Broward College
Tulsa Community College
Florida Community College at Jacksonville
Community College of Baltimore County
FAA Technical Center
FAA AFTIL Lab
Ontario International Airport (ONT)
Phoenix Sky Harbor International Airport (PHX)
Chicago O’Hare (ORD)
Miami International Airport (MIA)
FAA Training Academy (22)
Oakland Int’l (OAK)
Los Angels Int’l (LAX)
Denver Int’l (DEN)
Memphis Int’l (MEM)
San Antonio Int’l (SAT)
Orlando Int’l (MCO)
Atlanta Hartsfield Int’l (ATL)
Charlotte / Douglas Int’l (CLT)
Washington National (DCA)
Boston – Logan Int’l (BOS)
John F. Kennedy Int’l (JFK)
Philadelphia Int’l (PHL)
Cleveland –Hopkins Int’l (CLE)
Cincinnati – Northern Kentucky Int’l (CVG)
Minneapolis / St. Paul Int’l (MSP)
Honolulu Int’l (HNL)
Dallas/Ft Worth Int’l (DFW)
Tulsa Community College
Saint Louis UniversityMidWest ATC
L3
Advanced ATC
Arizona State University
Las Vegas (LAS)
Hurlburt AFB
Seattle-Tacoma International Airport (SEA)
Detroit Metropolitan Wayne County Airport (DTW)
George Bush Intercontinental Airport (IAH)
Newark Liberty Int’l (EWR)
Simulation et formation aux États-Unis
6
US DOD Civil Airport Authority Foreign MilitaryIndustry University
CANADA DND –
Cold Lake, 1 System
CANADA – Departments
National Defense, 3 Systems
JAMAICA – Jamaican Civil
Aviation Authority, 2 Systems
BRAZIL – Brasilia Int’l (BSB), 1 System
ENGLAND – Lakenheath AFB,
1 System (USAF)
ENGLAND – Mildenhall AFB,
1 System (USAF)
ENGLAND – Fairford RAF,
1 System (USAF)
ENGLAND – Ipswich Training Facility,
2 Systems
ENGLAND – ASTAC, 2 Systems
NORWAY – NATAM,
11 Systems
AUSTRIA – AustroControl, 10 Systems
ITALY – Fiumicino (ENAV), 38 Systems
HUNGARY – HungaroControl, 10 Systems
Czech Republic, 2 Systems
Slovakia, 1 System
GERMANY –
Ramstein AB,
1 System (USAF)
GERMANY –
Spangdahlem AB,
1 System (USAF)
FRANCE – Airbus,
1 System
TURKEY – Incirlik AFB, 1
System (USAF)
SAUDI ARABIA – Saudi Royal
Air Force, 5 Systems
SAUDI ARABIA – Abdulahaziz
Training Facility Center, 4 Systems
UNITED ARAB EMIRATES – Emirates
Aviation College, 5 Systems
Airport Authority – INDIA
16 Systems
AUSTRALIA –AirServices Australia Air
Traffic Services College, 4 SystemsAUSTRALIA – Royal Australian Air
Force (RAAF), 9 Systems
JAPAN – Yokota AFB, 1
System (USAF)
SOUTH KOREA – Osan AFB,
1 System (USAF)
GUAM – Andersen AFB,
1 System (USAF)
JAPAN – Kadena AFB,
1 System (USAF)
JAPAN – MCAS Iwakuni,
1 System (USMC)
SOUTH KOREA – Kunsan AFB,
1 System (USAF)
CURACAO – Netherlands
Antilles ATC 1 System
IRAQ– 3 Systems
VIETNAM, 1 System
UKRAINE – UkSATSE, 10 Systems
Simulation et formation à travers le monde
7
Systèmes embarqués
Boeing ApacheF-35 JSF Aermacchi M346
8
Chronologie
Man
dat
org
anis
atio
nn
el
août
2007
Mandat organisationnel
9
Pourquoi le CMMI®?
• Mandat du chef de la direction• Opportunités d’affaires perdues (certains clients le demandaient)
• CMMI® représente une valeur ajoutée pour nos produits et services
• Ouverture vers les marchés de la défense aux État-Unis (DoD)
10
Objectifs d’amélioration d’Adacel
• Une performance fiable et reproductible
• Une meilleure gestion des risques
• Une amélioration de la productivité
• Un produit de plus grande qualité
• Des clients plus satisfaits
• Une rationalisation des coûts
11
Sélection du site responsable
• Le site de Brossard aura la responsabilité du projet– Le nombre plus élevé de projets permettra d’obtenir plus
facilement un échantillon représentatif pour le SCAMPI.
• Une fois la cote obtenue, les processus seront déployés aux sites de Dorval et Orlando.
12
Représentation continue ou étagée?
• Les processus liés au développement de produits (ingénierie) sont largement prédominants– Développement et gestion des requis (RD, REQM)
– Conception et développement (TS)
– Vérification et validation (VER, VAL)
– Intégration (PI)
• Nous estimions que nos aptitudes étaient de niveau 2.
Obtenir un niveau d’aptitude 3 en représentation continue pour la catégorie ingénierie serait notre objectif.
13
La représentation CMMI®
Catégories Secteurs-clés
Process Management
Project Management
Engineering
Support
Organizational Process FocusOrganizational Process Definition + IPPDOrganizational TrainingOrganizational Process PerformanceOrganizational Innovation and Deployment
Project PlanningProject Monitoring and ControlSupplier Agreement ManagementIntegrated Project Management + IPPDRisk ManagementQuantitative Project Management
Requirements DevelopmentRequirements ManagementTechnical SolutionProduct IntegrationVerificationValidation
Configuration ManagementProcess and Product Quality AssuranceMeasurement and AnalysisDecision Analysis and ResolutionCausal Analysis and Resolution
14
Actifs organisationnels pertinents
• Brossard– ISO 9001:2000 (IEEE 12207)
• Dorval– ISO 9001:2000 (IEEE 12207)
– CMMI® (ML5) dans le cadre des programmes ATOP et ERAM de Lockheed-Martin (IS&GS)
• Orlando– Aucun actif organisationnel pertinent
15
Quelle base de processus utiliser?
Utilisation des processus CMMI® (ML5)
Les gestionnaires responsables du projet connaissaient ces processus et avaient confiance qu’ils permettraient à Adacel d’atteindre le but fixé dans les délais prescrits.
Il était clair que ces processus seraient modifiés pour tenir compte de la réalité propre au site de Brossard mais nous devions en premier lieu savoir QUOI changer et OÙ le faire.
16
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Man
dat
org
anis
atio
nn
el
août
2007
Rédaction des processus
17
Rédaction des processus
• Les processus qui serviront de base pour le projet CMMI® seront séparés des processus ISO existants– Minimiser les risques si nous échouons.
• Élaguer les processus d’origine CMMI®– Réalités d’affaires différentes
– Désamorçer la bombe “waterfall” vs. “agile”
– Gérer la dynamique interne
Hâtez-vous lentement, et sans perdre courageVingt fois sur le métier remettez votre ouvragePolissez-le sans cesse, et le repolissezAjoutez quelquefois, et souvent effacez.Boileau, L’Art Poétique
18
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Man
dat
org
anis
atio
nn
el
août
2007
Co
up
d’e
nvo
i du
pro
jet
oct.
Coup d’envoi du projet
19
Coup d’envoi du projet
On va de l’avant. La direction compte sur nous.
• Expliquer ce qu’est le CMMI®
• Pourquoi veut-on obtenir la cote d’aptitude niveau 3?
• Comment y arriverons-nous?
• Identifier les réfractaires au changement et tenter de les convaincre.
No FUD
Minimisation des risques → projet-pilote.
20
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
Man
dat
org
anis
atio
nn
el
août
20082007
Co
up
d’e
nvo
i du
pro
jet
nov.
Projet-pilote
21
Projet-pilote
• Effectué sur un projet-client avec ségrégation des coûts
• Utilisé pour l’analyse d’écart
• Formation ciblée pour l’équipe du projet-pilote
• Mise-en-place d’un wiki pour faciliter la communication
22
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
An
alys
e d
’éca
rt
mai
Man
dat
org
anis
atio
nn
el
août
20082007
Co
up
d’e
nvo
i du
pro
jet
nov.
Analyse d’écart
23
Analyse d’écart
• Les processus tel qu’écrits et appliqués étaient trop lourds et la “taxe” CMMI® représentait 19% des coûts du projet-pilote.
• De même, deux pratiques démontraient clairement des faiblesses:
– Évaluation de la conformité (GP 2.9)
– Collection de données d’amélioration (GP 3.2)
� Les processus devront être modifiés.
� Les coûts de développement propres au CMMI® ne seront plus ségrégués mais plutôt inclus dans les projets. Ils constitueront le coût de faire des affaires (“cost of doing business”).
� Création d’un SEPG
PA REQM RD TS PI VER VAL
SP1.1
SP1.2
SP1.3
SP1.4
SP1.5
SP1.6
SP1.7
SP2.1
SP2.2
SP2.3
SP2.4
SP2.5
SP2.6
SP2.7
SP3.1
SP3.2
SP3.3
SP3.4
SP3.5
GP1.1
GP2.1
GP2.2
GP2.3
GP2.4
GP2.5
GP2.6
GP2.7
GP2.8
GP2.9
GP2.10
GP3.1
GP3.2
Specific Goal 1
Specific Goal 2
Generic Goal 3
Specific Goal 3
Generic Goal 1
Generic Goal 2
On continue.
24
Software Engineering Process Group*
• Point de coordination pour tout aspect traitant de nos processus et outils de développement.
• Mandat venant de la direction d’ingénierie.
• Pouvoir décisionnel auprès des gestionnaires du projet.
• Les membres représentent les différentes disciplines impliquées dans le projet.
* Software Engineering Process Group Guide; Fowler P., Rifkin S.; SEI Technical Report CMU/SEI-90-TR-024; 1990.
25
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
An
alys
e d
’éca
rt
mai
Man
dat
org
anis
atio
nn
el
août
20082007
Form
atio
n g
én
éra
lisé
e
juill.
Co
up
d’e
nvo
i du
pro
jet
nov.
Formation généralisée
26
Formation généralisée
• La formation existante est mise-à-jour et donnée à tous les membres de l’équipe.
• De la nouvelle formation est préparée en ce qui a trait à l’accumulation de données d’amélioration.
27
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
An
alys
e d
’éca
rt
mai
Man
dat
org
anis
atio
nn
el
août
20082007
Co
up
d’e
nvo
i du
pro
jet
nov.
Les objectifs … quantifiés
Les
ob
ject
ifs
qu
anti
fié
soct.
Form
atio
n g
én
éra
lisé
e
juill.
28
Les objectifs … quantifiésou la haute direction ouvre son jeu
Trois facteurs mesurables déterminent notre performance:
1. Les coûts de production mesurés en SLOCs/LM
2. Le taux d’erreurs par unité de production mesuré en DR/KSLOCs
3. Les coûts de correction mesurés en DR/LM
L’analyse de quatre projets antérieurs indiquaient que les meilleures performances étaient:
Mesure Objectif
Coûts de production 750 SLOCs/LM
Taux d’erreurs 5.1 DR/KSLOC
Coûts de correction 27.8 DR/LM
Prises ensemble, elles représenteraient une amélioration de 25% … la table était mise.
29(K)SLOC = (Kilo) Source Line Of Code; LM = Labor-Month; DR = Defect Report
Les premières analyses
Un projet fonctionnant avec les processus CMMI® fut comparé (à mi-course) aux objectifs établi par la direction:
ProjetCoûts de production
(SLOC/LM)Taux d’erreurs
(DR/KSLOC)Coûts de correction
(DR/LM)
A 624 5.1 12.9
B 750 6.4 21.4
C 316 7.9 25.4
D 444 9.3 27.8
E (CMMI®)718
(↑ 4.3%)3.1
(↓ 37.3%)16.0
(↑ 42.4%)
On continue.
30
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
An
alys
e d
’éca
rt
mai
An
alys
e p
ré-S
CA
MP
I A
juin
Man
dat
org
anis
atio
nn
el
août
20082007 2009
Form
atio
n g
én
éra
lisé
e
juill.
Co
up
d’e
nvo
i du
pro
jet
nov.
Analyse pré-SCAMPI A
Les
ob
ject
ifs
qu
anti
fié
s
oct.
31
Analyse pré-SCAMPI A
PA REQM RD TS PI VER VAL PA REQM RD TS PI VER VAL
SP1.1 SP1.1
SP1.2 SP1.2
SP1.3 SP1.3
SP1.4 SP1.4
SP1.5 SP1.5
SP1.6 SP1.6
SP1.7 SP1.7
SP2.1 SP2.1
SP2.2 SP2.2
SP2.3 SP2.3
SP2.4 SP2.4
SP2.5 SP2.5
SP2.6 SP2.6
SP2.7 SP2.7
SP3.1 SP3.1
SP3.2 SP3.2
SP3.3 SP3.3
SP3.4 SP3.4
SP3.5 SP3.5
GP1.1 GP1.1
GP2.1 GP2.1
GP2.2 GP2.2
GP2.3 GP2.3
GP2.4 GP2.4
GP2.5 GP2.5
GP2.6 GP2.6
GP2.7 GP2.7
GP2.8 GP2.8
GP2.9 GP2.9
GP2.10 GP2.10
GP3.1 GP3.1
GP3.2 GP3.2
Generic Goal 3
Generic Goal 1
Generic Goal 2
Specific Goal 2
Specific Goal 3
May-08 Jun-09
Specific Goal 1Specific Goal 1
Specific Goal 2
Generic Goal 3
Specific Goal 3
Generic Goal 1
Generic Goal 2
32
Analyse pré-SCAMPI A
• L’amélioration fut jugée assez substantielle pour aller de l’avant avec le SCAMPI A.
33
Chronologie
Ré
dac
tio
nd
es
pro
cess
us
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
An
alys
e d
’éca
rt
mai
An
alys
e p
ré-S
CA
MP
I A
juin
Co
up
d’e
nvo
idu
SC
AM
PI
A
oct.
SCA
MP
I A
févr.
Ob
ten
tio
nd
e la
co
te
mars
Form
atio
n C
MM
I® v
1.2
sept.
Pré
par
atio
nd
u S
CA
MP
I A
déc.
Man
dat
org
anis
atio
nn
el
août
20082007 2009 2010
Form
atio
n g
én
éra
lisé
e
juill.
Co
up
d’e
nvo
i du
pro
jet
nov.
Les
ob
ject
ifs
qu
anti
fié
s
oct.
34
SCAMPI A
• Échantillon de six projets pour le SCAMPI A– Slovakia
– Aermacchi
– Airports Authority India
– USMC Merge
– Hungaro Control
– RAAF
• Échantillon plus large pour être certain de couvrir tous les secteurs-clés.
Résultats de l'évaluation
35
Weel done.
36
Évolution des coûts
FY2007 FY2008 FY2009 FY2010
Main-d'oeuvre Matériel Autre Coûts Directs
Investissement total: 2,8% des effectifs*
Projet-pilote
Outils SCAMPI A
* Sommes consacrées uniquement au projet.
37
ChronologieR
éd
acti
on
de
s p
roce
ssu
s
sept.
Form
atio
n c
iblé
e
déc.
Pro
jet-
pilo
te
févr.
An
alys
e d
’éca
rt
mai
An
alys
e p
ré-S
CA
MP
I A
juin
Co
up
d’e
nvo
idu
SC
AM
PI
A
oct.
SCA
MP
I A
févr.
Ob
ten
tio
nd
e la
co
te
mars
Form
atio
n C
MM
I® v
1.2
sept.
Pré
par
atio
nd
u S
CA
MP
I A
déc.
Man
dat
org
anis
atio
nn
el
août
20082007 2009 2010
Form
atio
n g
én
éra
le
juill.
Co
up
d’e
nvo
i du
pro
jet
nov.
2011
Où
en
so
mm
es-
no
us?
oct.
Où en sommes nous?
Les
ob
ject
ifs
qu
anti
fié
s
oct.
38
Où en sommes-nous?
• Les processus sont maintenant déployés et utilisés par les sites de Dorval et Orlando.
• Le SEPG continue d’être le point de coordination pour tout aspect traitant de nos processus et outils de développement.
• Nous continuons d’amasser des données sur nos processus dans un souci d’amélioration continue.
39
Où en sommes-nous?
ProjetCoûts de
production(SLOCs/LM)
Taux d’erreurs
(DR/KSLOC)
Objectif 750 5.1
D 699 4.35
E 577 3.20
F 698 1.66
Une approche de développement plus méthodique indique une baisse du taux d’erreurs de 39.8% et une augmentation des coûts de production de 12.3%.
• Chez Adacel, il faut 24h pour régler une erreur.
• Le plus gros programme de développement entrepris chez Adacel depuis 2007 a été de 186 KSLOC.
Pour un programme de cette envergure, une baisse de 39.8% du taux d’erreurs aurait résulté en une économie de:
186 KSLOC * 5.1 DR/KSLOC * 39.8% * 24h/DR * $50/h1 = $453 000
Alors que la baisse de productivité de 12.3% aurait encouru une augmentation des coûts de:
(186 KSLOC/0.75KSLOC/LM) * 12.3% * 160h/LM * $50/h = $244 000
Pour ce programme, l’économie nette aurait été de $209 000.
Type de projet
Coûts de production(SLOCs/LM)
Taux d’erreurs
(DR/KSLOC)
Objectif 750 5.1
CMMI® 658 3.1
∆ ↑12.3% ↓39.8%
1 Ce taux horaire n’est donné qu’à titre indicatif.
�
40
CM
MI®
• La densité de défauts a été réduite de 31%• L’efficacité d’élimination des défauts a augmenté de 11%• La productivité est demeurée constante
0.0
2.0
4.0
6.0
8.0
10.0
12.0
14.0
16.0
18.0
60%
65%
70%
75%
80%
85%
90%
95%
100%
De
nsi
té d
e d
éfau
ts (
Déf
auts
/KSL
OC
)
Effi
caci
té d
’élim
inat
ion
Efficacité des inspections
DRE
Defect Density
Où en sommes-nous?
41
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Design Code UT / ST ESI PA Latent
Po
urc
en
tage
de
s d
éfau
ts d
éco
uve
rts
Distribution des défauts par phaseÉchantillon de trois projets
• La tendance des défauts découverts aux phases de test (UT/ST) est à la hausse• La tendance des défauts découverts lors des phases de vérification (PA) est à la baisse
Où en sommes-nous?
42
Où en sommes-nous?
1% 1% 0%
69%
9%
3%
17%
Distribution des défauts par type
SW-Test
SW-Concurrency
SW-Interface
SW-Algorithm
SW-Design
SW-Requirements
SW-Documentation
43
Où en sommes-nous?
Violations Type de violations
Analyse statique automatisée
44
Où voulons-nous aller?
• Gestion quantitative
• Analyse statistique
• Amélioration continue
45
LES OUTILSObtention de la cote CMMI®
46
Évolution des outils
Secteur-clé 2007 2008 2009 2010
Requirements DevelopmentRequirements Management
Technical Solution• Design (UML)• Inspection• Coding Standard
Product Integration
VerificationValidation
Système de gestion de version
Métriques (SLOCs)
En 2009 Adacel sélectionne la suite de développement JIRA Studio.
MS-Excel
• Visio• MS-Word• Manuel
• Clearquest• MS-Excel
CVS
RSM
RequisitePro
• Enterprise Architect• MS-Word• Manuel
Wiki (Adacel)
• Clearquest• MS-Excel
Clearcase (UCM)
RSM
RequisitePro / Contour
• Enterprise Architect• Crucible / Fisheye• C++Test (automatique)
Confluence (wiki)
• JIRA• Confluence
SVN
RSM
Contour
• Enterprise Architect• Crucible / Fisheye• C++Test (automatique)
• Confluence• CruiseControl
• JIRA• Confluence• Contour
SVN
RSM
Offre une traçabilité bi-directionnelle entièrement transparente.
47
Pourquoi avoir changer en cours de projet?
• CVS/Clearcase → Subversion– Favoriser et renforcer le développement en parallèle
– Réduire les coûts
– Intégration transparente avec les outils Atlassian
• Clearquest → Jira– Éliminer les informations redondantes
– Favoriser une meilleure granularité dans l’assignation des tâches
• RequisitePro → Jama Contour– Consolider les bases de données de requis en une seule
– Intégration transparente avec les outils Atlassian
– Meilleure collaboration entre tous les intervenants
48
Interaction des outils
� Information plus accessible
� Traçabilité
� Transparence
� Automatisation
� Minimisation des erreurs
49
QU’AVONS-NOUS APPRIS?Obtention de la cote CMMI®
50
Les 4 clés du succès
Obtenir le niveau d’aptitude 3 est tout à fait possible, même pour une PME, dans la mesure où:
1. Le projet obtient le support indéfectible de la haute-direction.
2. Les gestionnaires n’ont pas peur de faire des erreurs et sont prêts à les corriger rapidement.
3. L’organisation fait preuve de détermination.
4. Une intégration transparente des outils et processus est favorisée.
51
L’équipeJames Henry Adams Stéphane Ayotte Benjamin Baszo Éric Beauchamp
Louis Beaumier Steven Belbin Michel Belhumeur Jean-Luc Bellemare
Mario Bouchard François Bourdon Martin Brodeur Geneviève Caumartin
Liana Chaaban Martha Chbat André Champagne Patrice Collette
Philippe Couillard Bogdan Cozma Francis Dagenais Marie-Andrée Debien
Serge Demers Daniel Desrochers M-A Desroches Gabriel Diaconu
Georges Dib Guylaine Dumulon Vincent Dupuis Jean-Pierre Féger
Marco Foisy Martin Forget Massimiliano Fredella Daniel Gour
Georges Grau Butch Helmick Félix Houle Omar Ousmane Kadry
Lukasz Kudra Simon Labrèche Étienne Lachance Maxime Lapierre
Ka Ki Lau Kevin Langley Pierre-Yves Langlois Marc-André Lavigne
Luc Leblanc Franck Leclerc Bill Linardakis Alain Lioret
P-É Messier Daniel Michaud Sonia Mina Anh-Thu Nguyen
Uyen Nguyen Yen Nguyen Tony Nikolaou Shawn O'Connor
Steven O'Connor Augustin Paar Dimitrios Panaritis Nick Papadopoli
Daniel Pelletier Michel Pineau Jean Pion Louis Poulin (GRafP)
Serge Rambo Olivier Rioux Benoit Rouillard Khaled Saad
John Sawyer Sidney Svorcsek Xiaoyu Teng Alex Trutnev
Dennys Turcotte Ashley Vo Gerald Yedynak Sam Weissfelner
52