115
Contrat n° CO7/22660DM (CEE/9356/PAM) Comment analyser la dynamique de l’ATM en Europe (1988-2020) ? (rapport final)

€¦  · Web viewContrat n° CO7/22660DM (CEE/9356/PAM) Comment analyser la dynamique de l’ATM en Europe (1988-2020) ? (rapport final) Hervé Dumez & Alain Jeunemaître

  • Upload
    ngobao

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

Contrat n° CO7/22660DM(CEE/9356/PAM)

Comment analyser la dynamique de l’ATM en Europe (1988-2020) ?

(rapport final)

Hervé Dumez & Alain Jeunemaître(décembre 2009)

Executive summary

Quelle a été, quelle est et quelle sera la dynamique de l’Air Traffic Management en Europe ? Le rapport s’attache à essayer de répondre à cette question. Ce n’est pas la dynamique technologique qui en constitue l’objet, mais plutôt la dynamique économique et institutionnelle.

Pour étudier cette dynamique, trois éléments en interaction ont été isolés : l’infrastructure, les opérations, la régulation. Ils constituent le fil rouge de l’analyse.Le rapport s’articule en quatre parties :

- les études menées ces dernières années sur les trois éléments- le cadre analytique proposé ou la méthode adoptée- l’analyse séquentielle, c’est-à-dire l’analyse de la dynamique du

secteur du point de vue adopté- l’analyse en termes de mécanisme et de contrefactuel

1. Les études menées

Infrastructure

• Le diagnostic posé est que l’ATM est en train d’évoluer des systèmes vers les systèmes de systèmes, à la manière dont l’industrie de défense le fait depuis le début des années 2000. Dans le modèle des systèmes, il existait un client bien identifié – un ANSP – capable de définir son besoin et mettant en concurrence des industriels pour avoir le meilleur système au meilleur prix. Dans le modèle des systèmes de systèmes, le client n’est plus capable de définir seul les spécifications du système à venir et il doit s’appuyer sur des expertises distribuées chez les industriels ; plusieurs systèmes doivent être mis en place de manière simultanée (pour l’ATM, dans les centres, dans les avions, dans l’espace), ces systèmes étant centrés réseau (network centric), et le fonctionnement de l’ensemble permettant le partage de l’information et la coordination des décisions locales et centrales. Les relations client-fournisseurs, les modes de concurrence et de coopération, s’en trouvent profondément modifiés. Se pose la question d’un entrepreneur capable de donner les impulsions nécessaires, de donner une architecture à la coopétition (articulation de la concurrence et de la coopération). Boeing a échoué dans ce rôle au niveau de l’ATM, et mieux réussi dans le domaine de l’industrie de défense. Quoiqu’il en soit, l’infrastructure change de nature, son développement exige de nouveaux modèles de relations entre les clients et les fournisseurs, la gestion de l’infrastructure évolue vers un modèle lui aussi nouveau.

- 2 -

• L’approche des problèmes de congestion et de développement des infrastructures peut être abordée de deux manières : du point de vue ingénieur (planification des investissements, développement centralisé de nouvelles technologies, algorithme de gestion de la congestion) ou du point de vue de l’économiste (émergence de marchés, concurrence et coopération, incitations). L’ATM a été dominé par le premier point de vue et le reste largement. Mais une tension se fait jour pour l’introduction d’un point de vue plus économique (régulation, privatisation). Les deux points de vue sont-ils compatibles ? Comment passe-t-on de l’un à l’autre en dynamique ?

Opérations

• Au niveau des opérations, la structure de la fourniture de service est restée inchangée (monopoles nationaux verticalement intégrés). Seul le statut de ces opérateurs s’est modifié avec le développement de la corporatisation et de la privatisation. Plusieurs évolutions structurelles ont été envisagées depuis très longtemps. La première est la séparation des services auxiliaires ou d’appoint (ancillary services) et de l’infrastructure radar et de télécommunications. La deuxième est la séparation entre espace supérieur et espace inférieur (qui était déjà à la base de la création d’Eurocontrol et du centre de Maastricht. La troisième passe par la technologie : un système technologique unique devrait rendre la structure des ANSPs nationaux verticalement intégrés obsolète et provoquer une évolution de l’organisation de la fourniture de service.

Régulation

• Il y a régulation économique (la régulation de la sécurité est une autre question) parce qu’il y a situation de monopole. Ce type de régulation repose sur le fait que le monopole est dit « naturel », donc que la structure est stable, et, même quand il porte sur le futur (contrat de régulation pour les prochaines années), il est tourné sur le passé (le futur est envisagé sur la base du passé à structure quasiment inchangée). Le problème posé par l’ATM est de nature différente : il s’agit d’inventer une régulation d’un type nouveau, permettant la sortie des situations de monopoles, c’est-à-dire de ce qu’il est convenu d’appeler la fragmentation, une régulation restructurante.

• L’invention de cette régulation d’un type nouveau est liée au choix d’une forme organisationnelle. La situation qui prévaut depuis que la Commission européenne est intervenue activement dans l’ATM est celle d’une Commission qui se veut régulateur au sens où elle fixe des objectifs et émet des règles communes, mais n’intervient

- 3 -

pas dans la régulation au jour le jour, avec une multitude de régulateurs nationaux. Les formes organisationnelles envisageables pour sortir de cette situation sont :

o le club de régulateurs (comme il en existe par exemple dans le domaine de l’énergie)

o la méta-organisation (une organisation dont les membres sont des organisations, ici les régulateurs nationaux)

o le régulateur sectoriel européen (type EASA pour la sécurité).

2. le cadre analytique proposé

• Pour analyser la dynamique de l’ATM européen, le rapport repose sur une analyse séquentielle. Celle-ci suppose la définition d’une période comprise entre un point de départ et un point de fin. Pour l’objet considéré, il a été décidé de choisir 1988 comme point de départ. C’est le moment où des tensions dans le système (retards) conduisent à l’intervention de la Commission européenne, et où des évolutions technologiques sont programmées qui vont dominer la dynamique qui s’ensuit. 2020 a été choisi comme fin. Il s’agit de l’horizon qui sert de référence à un certain nombre d’évolutions, technologiques et institutionnelles. Une fois la période définie (1988-2020), des points critiques ont été identifiés (1999, 2004, 2008, 2013). Ce sont les points qui permettent de définir les séquences (l’intervalle entre deux points critiques) qui ont une unité et définissent une trajectoire d’évolution du système dans son ensemble. Les points critiques déterminent les moments au cours desquels ces trajectoires peuvent s’infléchir : on identifie des problèmes, des solutions possibles, et on choisit le statu quo ou une de ces solutions qui marque un infléchissement de la trajectoire.

• Une fois les points de départ et d’arrivée, les points critiques et les séquences construits, l’analyse proprement dite repose sur la mise en évidence de mécanismes, à la fois réels et contrefactuels (que se serait-il passé si on avait adopté une solution que l’on n’a pas adoptée ?). L’accent est placé en particulier sur des effets de verrouillage (« lock-in effects »), sur des effets d’escalade (« escalation » - on a choisi une voie, on n’en change pas, et, ce faisant, on la renforce en rendant les coûts de sortie de plus en plus élevés), des effets de création d’inattendu (« spill-over »), et sur la réversibilité et l’irréversibilité.

3. L’analyse séquentielle de la dynamique de l’ATM européen

Dans ce résumé exécutif, une synthèse de l’analyse séquentielle sera donnée en reprenant la division en trois éléments.

Infrastructure

- 4 -

Le problème de l’infrastructure est mis à l’agenda politique européen à la suite de congestions provoquant d’importants retards. Les solutions recherchées sont des solutions techniques, relevant d’un point de vue d’ingénieur : création de la CFMU, mise en place des R-NAV et recherche d’une interopérabilité entre les systèmes. L’initiative lancée par Boeing est d’une tout autre nature : il s’agit d’une initiative entrepreneuriale privée. En Europe, une initiative en réponse est lancée – l’Alliance avec Airbus, EADS et Thalès et DEPLOY (2002). Néanmoins, cette dernière initiative revient à une approche plus technologique et devient un partenariat public-privé (SESAR) dans le cadre du SES I. Cette création n’est reliée ni à une restructuration de l’espace ni à la création d’un gestionnaire européen de l’infrastructure. Le SES II introduit la possibilité de fonctions centralisées dites « de réseau » au niveau de l’infrastructure, mais elles demeurent floues : le lien avec les tâches actuellement assumées par Eurocontrol au niveau de l’infrastructure n’est pas explicité. La manière dont, en 2013, le déploiement de SESAR sera réalisé, et dont évolueront ces fonctions d’infrastructure, n’a pas été précisée.

Opérations

Le début de la période est marqué par le mouvement de corporatisation, de commercialisation et de privatisation, des ANSPs. Ce mouvement se fait sans changement structurel : ni l’unbundling des services d’appoint (« ancillary services »), envisagé depuis très longtemps, ni la séparation de l’espace en upper et lower, ne sont réalisés. La seule séparation intervient au niveau national entre un régulateur et un opérateur qui reste un monopole verticalement intégré de statut public ou privé. Avec le SES I intervient un second mouvement, qui est l’introduction de la notion de FAB. La non séparation entre espace supérieur et espace inférieur empêche une destruction créatrice et une véritable restructuration. Les FABs deviennent principalement des projets entre un grand et un petit pays qui permettent au grand pays de montrer qu’il est prêt à élargir sa manière de penser l’espace et au petit pays de maintenir ses centres de contrôle. La structure de la fourniture de service demeure ainsi inchangée en profondeur, sans que les économies d’échelle se déploient, sans que l’innovation technologique soit facilitée, et sans que la fragmentation ne se réduise (nombre de centres de contrôle inchangé).

Régulation

La régulation du système ATM est marquée pour toute la période par un choix qui se maintient : la régulation se fait au niveau de la performance (création de la PRC en 1998, et création d’un Performance Review Body dans le cadre du SES II). Cette approche de la régulation par la performance envisage le futur sur la base du passé et ne s’attaque pas au problème de la restructuration, comme pourrait le faire une autre forme

- 5 -

de régulation. Les régulateurs nationaux créés par la séparation entre régulation et opération au niveau national reproduisent la fragmentation et ne la réduisent pas. La Commission assume le rôle d’une régulation sans régulateur : elle vise à formuler des règles générales, sans entrer dans le détail et sans tâche de supervision du suivi des règles.

4. Analyse contrefactuelle et mécanismes

Le retour analytique sur l’analyse séquentielle doit être mené en termes de réflexion contrefactuelle autour des points critiques identifiés.

Dans une première séquence, le diagnostic est posé (la fragmentation dont il faut sortir, l’utilisation de nouvelles technologies, la mise en place d’un cadre de régulation pouvant conduire aux restructurations). Spontanément, le mécanisme par lequel aboutir à ce résultat est cherché, par analogie aux autres secteurs (électricité, télécoms, etc.), dans la mise en concurrence. Celle-ci se fera au niveau upper, le lower étant laissé à la charge des États. Cette option est écartée, et c’est la coopération qui s’impose comme le mécanisme fondamental d’évolution de l’ATM vers la restructuration. Se pose une question : la coopération doit-elle être pilotée par le haut (top down) ou doit-elle émerger entre les États (bottom up) ?

C’est toute la discussion qui va mener au SES I. Pour des raisons politiques, le SES I va établir que la coopération (donc le processus de restructuration) sera laissée à l’initiative des États. Ce sont eux qui proposeront la création de FABs. Un cadre minimal est imposé, et il ne prévoit plus la séparation upper/lower. Une évaluation est prévue au bout de quatre ans.

Le mécanisme attendu est celui qui est habituel dans la manière dont procède la Commission et la politique européenne : un problème est mis à l’agenda européen ; un diagnostic est posé et ce diagnostic est qu’il faut une initiative à l’échelle européenne ; les États membres renâclent à perdre une partie de leur souveraineté et ne s’accordent que sur une initiative minimale leur laissant une grande marge de manœuvre ; la Commission n’a pas le pouvoir politique, dans un premier temps, d’imposer quelque chose de plus ambitieux, et elle doit accepter un compromis minimal, mais elle demande une évaluation au bout de quelques années ; l’évaluation montre toutes les limites de la politique adoptée ; la Commission réussit alors à faire passer un plan plus ambitieux ; par un mécanisme d’escalade, on passe donc d’un diagnostic établissant la nécessité d’une politique à l’échelle européenne, à une première initiative très limitée dans son ambition, puis, par des évaluations montrant les limites de cette première initiative, à une seconde initiative plus ambitieuse. Une politique européenne s’inscrit donc dans un déploiement continu, étape par étape, s’inscrivant dans la durée longue, sans retour en arrière et par approfondissements successifs.

- 6 -

2008 doit être compris et analysé de cette manière. Loyola de Palacio avait posé un diagnostic, mis en place les conditions d’une initiative européenne. La Commission avait finalement dû revoir ses ambitions à la baisse et ce qui s’était mis en place (SES I) était un plan reposant principalement sur les initiatives de coopération interétatiques. En 2008, une évaluation devait être faite de ce premier projet européen. Soit les initiatives des États se révélaient ambitieuses et amenaient une réelle restructuration, soit, ce qui était plus probable, elles se révélaient timides et très en deçà de ce qui était attendu. Dans cette dernière perspective, un SES II plus ambitieux sur le plan européen devait être lancé.

L’évaluation menée en 2008 à la fois par la Commission et par la Performance Review Commission est, comme on pouvait s’y attendre, négative : les initiatives prises par les États sur les FABs sont timides et floues, et elles reposent à peu près toutes sur une absence de restructuration réelle.

On envisage donc de passer à un SES II. Il est assez peu plausible que l’on revienne alors d’un mécanisme de restructuration par la coopération à un mécanisme concurrentiel. Par contre, ce qui apparaît plausible est que l’on passe d’un mécanisme de coopération bottom up à un mécanisme plus top down, avec probablement un retour à la séparation upper/lower permettant cette approche plus top down. Pour faciliter cet infléchissement de la politique européenne vers une approche top down, il est sans doute nécessaire d’envisager la création d’un gestionnaire européen de l’infrastructure et celle d’une instance de régulation européenne.

2008 aurait donc dû être un point d’inflexion de la trajectoire de la politique européenne, la faisant passer d’une approche bottom up à une approche plus top down. Que celle-ci soit, dans un premier temps, relativement modérée (avec l’idée d’un nouvel approfondissement au bout de quatre ans – mécanisme d’escalade progressive), ou qu’elle soit plus marquée (création d’un gestionnaire d’infrastructure européen et d’un régulateur européen). Or, le SES II, malgré l’évaluation négative du SES I, continue sur la trajectoire du SES I, sans réelle inflexion.

Que peut-on alors envisager pour les étapes suivantes, 2013, puis 2020 ?

L’introduction d’un mécanisme concurrentiel en substitution d’un mécanisme coopératif apparaît peu plausible. Il semble qu’il y ait un effet de verrouillage et d’irréversibilité du choix du mécanisme coopératif pour faire évoluer l’ATM européen.

Trois questions se posent alors :

1. le mécanisme coopératif inchangé (pas de gestionnaire européen de l’infrastructure, pas de régulateur européen) peut-il conduire à des

- 7 -

restructurations durant le SES II alors qu’il n’y a pas conduit lors du SES I ? Si oui, pourquoi ?

2. l’inflexion qui ne s’est pas produite en 2008, peut-elle se produire en 2013 (création d’un gestionnaire d’infrastructure européen et d’un régulateur européen) ?

3. Quelle peut être la dynamique de déploiement de SESAR ?

Examen de la question 1Quel enchaînement pourrait conduire à des restructurations d’ici 2013, alors que ces restructurations n’ont pas eu lieu lors du SES I ? Le seul envisageable serait que la séparation introduite au niveau national entre le régulateur et l’opérateur conduise les États devenus régulateurs à mettre en concurrence leur ancien opérateur national avec d’autres opérateurs, ou que les États régulateurs s’associent entre eux pour imposer des restructurations à leurs opérateurs (par exemple, l’Allemagne, la France, la Suisse le Bénélux, se tournent vers leurs opérateurs et leur demandent un projet de restructuration de l’ensemble des espaces contrôlés). Sous le régime existant cela supposerait un bouclage entre les plans stratégiques de restructuration développés par les coordonateurs de FABs, les plans de performance des autorités nationales de surveillance, la délégation des droits d’opération. Pour l’instant, les projets de FABs ne prévoient pas des fermetures de centres, et apparaissent plutôt comme un moyen pour les petits pays, par exemple, de protéger l’existence de leurs centres de contrôle, voir d’en obtenir de nouveaux. Il apparaît assez peu probable que le SES II conduise donc aux restructurations en maintenant inchangée la voie adoptée lors du SES I, considéré lui-même comme un échec de ce point de vue.

Examen de la question 2L’inflexion qui était attendue en 2008 et n’est pas produite peut-elle intervenir en 2013 ? Si l’évaluation du SES II est aussi négative que celle du SES I (voir question précédente), il est probable qu’une réaction au niveau européen se produise. La création d’un gestionnaire européen de l’infrastructure sera alors plus envisageable, de même que la création d’un véritable régulateur en charge d’une régulation à visée restructurante. Mais les restructurations en question n’auront lieu au mieux que dans la période 2013-2020. Se pose alors la question suivante.

Examen de la question 3Dans la mesure où le SES I a produit des effets très limités en termes de restructuration par la voie de la régulation et de la coopération (FABs), les attentes pour l’évolution du secteur européen de l’ATM se sont placés de plus en plus sur SESAR. Deux questions se posent ici.La première est : SESAR va-t-il réussir en tant que programme de recherche technologique ? L’histoire de l’ATM est jalonnée de grands projets qui n’ont pas abouti. La possibilité d’un nouvel échec n’est pas exclue. La possibilité de retards, de dérives de coûts, n’est pas non plus à exclure. L’association des industriels au projet et le fait que les

- 8 -

technologies envisagées sont à l’étude depuis longtemps, peuvent néanmoins autoriser un optimisme raisonnable. Se pose alors la seconde question :SESAR est-il un pur programme de recherche technologique, ou autre chose ? La technologie n’est pas une dimension en soi, indépendante des structures de marché et des institutions. La technologie et son développement s’inscrivent dans ces structures. Le déploiement de SESAR ne sera-t-il pas handicapé par la non-restructuration de l’ATM ? L’idée d’un système unique, ou de spécifications unifiées ne suppose-t-elle pas un interlocuteur unique ou unifié (gestionnaire européen d’infrastructure) ? Les technologies envisagées différentes dans l’upper et dans le lower airspace, pourront-elles se déployer alors que cette distinction n’a pas été menée sur un plan institutionnel ? Dans quelle mesure, la réussite de SESAR est-elle liée à la restructuration qui ne s’est pas faite et dont le processus semble avoir été lui-même repoussé après 2013 du fait de l’inflexion qui ne s’est pas produite en 2008 ?Un mécanisme catastrophique serait celui dans lequel la non-restructuration du secteur conduirait à l’échec de SESAR, cet échec retardant encore en retour la restructuration. C’est le mécanisme qui suppose que le déploiement technologique de SESAR n’est pas possible sans une restructuration institutionnelle préalable (séparation upper/lower et avancée vers un gestionnaire européen d’infrastructure).

- 9 -

Rapport

L’ATM est un système. En tant que tel, il est décomposable en éléments qui interagissent (c’est le propre des systèmes). L’ATM peut être vu comme un système technique et décomposé en éléments techniques. Ici, il est considéré comme un système économique et institutionnel avec pour objectif de comprendre sa dynamique. Il s’agit de trouver des éléments pertinents pour comprendre cette dynamique du système et sa gestion. Trois éléments en interaction ont donc été isolés dans cette perspective :

• L’infrastructure• Les opérations• La régulation

Les études réalisées ces dernières années portent sur ces trois éléments et ceux-ci vont se retrouver dans l’ensemble de l’analyse.

1. Les études menées

Elles portent donc sur les trois éléments.

1.1. Infrastructure

Deux points sont apparus centraux pour l’analyse au niveau de l’infrastructure : l’ATM est en train de passer du statut de système à celui de système de systèmes ; l’ATM a été dominé traditionnellement par un point de vue d’ingénieur et il est soumis de manière croissante à un point de vue d’économiste.

• Du système au système de systèmes

Les systèmes de systèmes sont apparus dans la défense (voir annexe 1). Trois dimensions sont fondamentales : le raisonnement en termes de capacités (capabilities) plutôt que de systèmes techniques, l’aspect centré réseau (Network Centric), la modularité et les évolutions technologiques. Ce qui a changé fondamentalement, c’est que les rapports entre le client public militaire et les entreprises ont été modifiés en profondeur. Dans le passé, le client était capable de formuler son besoin, de formuler des spécifications (requirements) et de mettre en concurrence les entreprises à partir de ces spécifications. On retrouve la même chose dans l’ATM où les ANSPs identifient leur besoin, puis spécifient le système qu’ils souhaitent mettre en place et organisent la mise en concurrence des fournisseurs industriels. Dans la défense, les systèmes de systèmes ont conduit à un schéma beaucoup plus compliqué, dans lequel le client public entérine le fait qu’il n’est plus capable de définir seul son besoin,

- 10 -

travaille lors d’une première étape avec un petit nombre de firmes entre lesquelles il suscite des alliances pour sélectionner le meilleur concept, laisse dans une seconde étape l’alliance qui a été sélectionnée mettre en concurrence les autres firmes pour choisir les meilleures solutions au niveau de l’infrastructure réseau et des sous-systèmes, puis suit le développement du système de systèmes. Les systèmes de systèmes changent les rapports de coopération et de concurrence entre les clients et les firmes. Le schéma suivant illustre ce nouveau mode de fonctionnement.

Le passage des systèmes aux systèmes de systèmes pose plusieurs problèmes : le client traditionnel (les militaires dans l’industrie de défense, les ANSPs dans l’ATM) n’est plus en mesure de définir lui-même le besoin pour les systèmes de systèmes. Il n’est plus en mesure de définir les conditions de mise en concurrence et de mise ne coopération (stratégie de coopétition articulant au mieux coopération et concurrence). Une place s’ouvre pour un acteur jouant le rôle d’entrepreneur redéfinissant les stratégies de coopétition et les marchés. Boeing a cherché à occuper cette place dans l’ATM (voir annexe 2) en 2000-2001 en créant une filiale Boeing ATM et en lançant un Working Together Team regroupant tous les acteurs de l’ATM, et a joué un rôle similaire dans le militaire en décrochant en alliance avec SAIC le contrat des Future Combat Systems, le système de systèmes de l’US Army.

• D’un point de vue d’ingénieur à un point de vue d’économiste

Un certain nombre de réseaux européens sont confrontés à l’engorgement qui doit être géré à court terme (congestion) et à long terme (par l’extension de la capacité d’infrastructure). La comparaison avec l’électricité est ici intéressante.

- 11 -

Dans le secteur électrique, le réseau a été séparé de la production et de la distribution au consommateur sur un plan national. Cette séparation a créé des marchés : un marché de l’accès au réseau, un marché au jour le jour de l’achat de capacité, un marché de contrats de long terme avec les gros consommateurs, un marché concurrentiel de la distribution au consommateur individuel. Mais des tensions sont apparues aux frontières. Plusieurs pannes ont affecté le réseau européen, des problèmes dans un pays ayant des effets sur toute une partie de l’Europe interconnectée. On assiste alors à des essais d’intégration régionale, par exemple la construction de câbles entre le continent et les îles britanniques. Cette intégration s’opère dans le cadre d’une approche économique de type marché et dans le cadre d’une régulation nationale qui se régionalise elle aussi : faut-il laisser des opérateurs indépendants construire les nouvelles extensions de capacité réseau (des compagnies spécialisées dans la pose de câbles sous-marins) ? Les producteurs et/ou distributeurs d’électricité peuvent-ils réaliser ces extensions ? Ou doivent-elles être le fait d’une alliance de gestionnaires nationaux de réseau ? En résumé, la séparation entre infrastructure et les opérations a conduit à l’émergence de marchés, et à des problèmes de régulation de marché (abus de position dominante, ententes) avec une réflexion économique sur la gestion des tensions sur le réseau (prix de congestion) et sur l’extension des capacités sous la forme d’un réseau européen plus puissant et moins congestionné.

Le secteur ATM a évolué de manière différente et reste dominé par une approche ingénieur. Chaque pays a cherché la meilleure solution technique dans un cadre national, sans qu’un véritable marché de la conception de systèmes s’établisse. On a durant des années planifié l’accroissement de capacité sur une base nationale sur la base de prévisions de trafic et en tenant compte de la contrainte des coûts, en cherchant à lisser les évolutions. Le service est tarifé au coût de production, sans qu’un prix s’établisse. Un organisme central (CFMU) gère la rencontre entre la demande (plans de vols déposés par les compagnies) et l’offre (secteurs ouverts par les différents centres de contrôle) selon un algorithme d’ingénieur (premier plan de vol déposé premier servi). Les efforts d’extension de capacité sur un plan régional (FABs) sont menés en dehors d’un raisonnement de marché.

La question qui se pose pour les grandes infrastructures européennes qui connaissent des problèmes de capacité et doivent dépasser le cadre national consiste à savoir s’il faut pour le faire adopter un raisonnement central de type ingénieur ou passer à une approche de type économique, reposant sur des mécanismes de marché, et comment passer de l’un à l’autre. Faut-il, et si oui comment, créer une fonction de gestionnaire de l’infrastructure ? (voir annexe 3).

1.2. Les opérations

- 12 -

Le point central en matière d’opérations est le maintien ou non des ANSPs sous leur forme traditionnelle.

• Des monopoles nationaux (publics ou privés) à de nouvelles formes de fourniture de service

Traditionnellement, chaque pays disposait d’un ANSP verticalement intégré fournissant le service pour l’ensemble de l’espace aérien national (en route, approche, aéroports), développant son propre système (en interne ou en faisant travailler des fournisseurs industriels privés) et ses services de soutien (télécoms, météo, radars, etc.). Cet ANSP faisait partie de l’administration publique.

Le phénomène de corporatisation et de privatisation intervenu depuis le milieu des années 80 est intervenu avec l’objectif de changer la manière de rendre le service (meilleure attention aux coûts, meilleure attention aux besoins des clients, les compagnies aériennes). Mais il n’a pas affecté la structure même de la fourniture de service, qui est restée verticalement intégrée.Deux approches structurelles ont été envisagées qui, jusqu’à présent, n’ont pas été réalisées.

La première est la séparation (unbundling) des services d’appoint (ancillary services) et l’introduction de la mise en concurrence pour la fourniture de ces services. La météo, les télécommunications, l’infrastructure radar, pourraient être séparées des ANSPs et leur être vendus sous la forme d’un service. Cette séparation a été envisagée depuis au moins les années 80 et ne s’est pas réellement réalisée.

La seconde est la séparation verticale de l’espace. L’idée est elle aussi très ancienne puisque c’est elle qui a conduit à la création d’Eurocontrol dans les années 60. Un certain nombre de pays ont envisagé de séparer leur espace inférieur et leur espace supérieur pour confier le contrôle de leur espace supérieur à une nouvelle entité organisationnelle. Finalement, seuls la Belgique, le Luxembourg, les Pays-Bas et l’Allemagne (pour une portion de son espace) ont délégué la gestion de leur espace supérieur au centre de Maastricht d’Eurocontrol. D’autres projets ont reposé sur cette approche comme le CEATS en Europe centrale et balkanique et le NUAC en Scandinavie.

Une troisième approche structurelle consiste à faire évoluer les ANSPs via la technologie : si des systèmes techniques communs se mettent en place, les frontières des ANSPs nationaux pourraient peu à peu devenir obsolètes. Aujourd’hui, chaque ANSP commande son système de contrôle à son rythme propre et dans le cadre des frontières nationales (dans la situation actuelle, les frontières se superposent et se tranchéisent – frontières des secteurs, frontières des centres, frontières des systèmes, frontières nationales -, voir annexe 4). Si un rythme commun de basculement dans une technologie unifiée est imposé, il est possible que

- 13 -

la structure des ANSPs verticalement intégrés sur une base nationale finisse par apparaître dépassée et laisse place à de nouvelles structures de fourniture de service.

1.3. La régulation

Dans la mesure où les ANSPs sont demeurés dans le modèle d’une structure de fourniture de service verticalement intégrée sur une base nationale, la séparation entre régulateur et opérateur a consisté à introduire des régulateurs nationaux, et un régulateur européen en charge d’évaluer la performance a posteriori. La régulation a porté sur des monopoles nationaux, sur une base structurelle inchangée.

Le secteur de l’ATM, sans doute comme d’autres industries de réseau en Europe mais plus encore qu’elles, appelait pourtant une régulation d’une nature nouvelle appuyée sur une forme organisationnelle adaptée.

• L’invention d’une régulation restructurante

Lorsque le gouvernement de Mrs Thatcher a lancé la grande vague de privatisation des entreprises publiques dans les différents secteurs des « utilities » au début des années 80, ces privatisations ont eu lieu sous la forme de monopoles intégrés pour des raisons financières. La régulation qui s’est alors mise en place a été une régulation de monopoles reposant sur des régulateurs nationaux indépendants. La régulation porte alors sur l’évolution des coûts et de la qualité du service dans un cadre national et sur la base des dynamiques passées. Seule la technologie (Internet et le mobile pour les télécoms, par exemple) a remis en cause la régulation des monopoles nationaux en introduisant de la concurrence.

La régulation nécessaire pour dépasser le cadre de ce qu’il est convenu d’analyser sous le terme de « fragmentation » est d’une autre nature : il s’agit de sortir de la situation des ANSPs comme monopoles de fournisseurs de services nationaux en inventant une régulation restructurante, favorisant l’innovation technologique et organisationnelle, avec et par la concurrence.Dans l’ATM, la question n’était pas : comment continuer à réguler les monopoles de fourniture de service nationaux, mais comment introduire une dynamique de restructuration conduisant à des économies d’échelle et de champ, et à une accélération de la diffusion de l’innovation ?

• L’invention de formes organisationnelles de régulation

Dans les différentes industries de réseau, la Commission européenne, qui n’est pas compétente pour décider du statut public ou privé des opérateurs, a imposé aux différents pays une séparation entre les opérateurs et les régulateurs, de manière à ouvrir en dynamique le jeu de la concurrence. Le résultat est une Commission européenne formulant des objectifs et des règles communes, faisant face à une pluralité des

- 14 -

régulateurs spécialisés nationaux en charge de monopoles nationaux. Pour dépasser cette situation, trois formes organisationnelles sont possibles.

La première est un club de régulateurs nationaux qui échangent sur leurs pratiques et essaient de se coordonner pour gérer les problèmes régionaux. C’est par exemple l’ACER (Agency for the Co-operation of Energy Regulators) pour l’énergie et l’électricité en particulier.

La deuxième est la méta-organisation. Il s’agit d’une organisation dont les membres sont d’autres organisations. Son existence est plus formelle que celle d’un simple club. Elle peut formuler des règles, prendre des décisions, généralement à l’unanimité.La troisième est la création d’un régulateur européen spécialisé. Jusqu’à présent, ni les États, ni sans doute la Commission, n’ont souhaité réellement la création de régulateurs européens qui auraient un pouvoir important, empiétant à la fois sur celui des États et celui de la Commission elle-même.

Ces trois éléments – infrastructure, opérations, régulations – étant posés, il convient de préciser de quelle nature sera l’analyse.

2. Le cadre analytique proposé

Discuter le futur d’un système comme celui de l’ATM européen nécessite une méthode pour articuler des points de vue différents ou opposés. Une approche généralement utilisée est la méthode des scénarios. Celle-ci est de nature balistique. A partir d’une base analytique et historique des cheminements sont tracés qui s’appuient sur des tendances et débouchent sur des futurs plus ou moins probables. La démarche consiste ā comprendre les évolutions lourdes, ā balayer le champ des possibles ā partir de l’incertitude sur l’apparition d’une ou plusieurs configurations. Typiquement, dans le cas du contrôle aérien, les variables de tendance seraient celle de la demande de transport, liée ā la croissance économique exerçant des contraintes sur l’avenir du système. Suivant différents niveaux de croissance, des scénarios phares pourraient émerger aidant ā réfléchir sur des possibles futurs, les scénarios jouant souvent comme autant de mises en garde.

Par rapport à cette perspective prospective, la méthode adoptée ici est différente et consiste en une démarche de nature réflexive qui précise un point d’arrivée. Il s’agit de conduire une réflexion de cheminement sur la dynamique du système qui intègre comme en méthode des scénarios des tendances lourdes mais d’une façon différente. La démarche consiste à discuter la dynamique qui s’est développée en tenant compte des possibles qui se sont présentés au fur et à mesure et qui furent écartés aux différentes étapes de l’évolution du système. Plus avant, l’interrogation porte sur les effets de rattrapage par rapport ā ces

- 15 -

possibles. Est-il pensable de revenir en arrière à un moment donné pour rééquilibrer la dynamique du système ?

L’approche repose ainsi sur une analyse séquentielle à partir de laquelle se développe un raisonnement de type « contrefactuel ».

Par analyse séquentielle, il faut entendre le découpage d’une période entre un point de départ et un point d’arrivée, cette période étant ensuite découpée en séquences à partir de l’identification de points critiques qui font (ou ne font pas) passer d’une trajectoire à une autre. Les choix ont porté sur les dimensions déterminantes étudiées précédemment, l’infrastructure et la technologie, les opérations, la régulation.

L’approche contrefactuelle propose de discuter, au niveau des points critiques, les infléchissements de trajectoire qui furent envisagés, en considérant ceux qui ont été réalisés et ceux qui ne l’ont pas été. Elle s’interroge sur le retour possible sur ces embranchements à des périodes ultérieures. Autrement dit peut-on réajuster une trajectoire dynamique qui permette d’atteindre le but fixé en choisissant une voie qui avait été écartée lors d’un point critique précédent ?

Ces deux points de méthode, l’analyse séquentielle et l’approche contrefactuelle vont être précisés avec leur application première au cas du système de management du trafic aérien.

2.1. L’analyse séquentielle de l’ATM (point de départ, point d’arrivée, points critiques et séquences)

Étudier la dynamique d’un système oblige à se poser la question de la période de référence pertinente pour son étude. Puis celle des sous-périodes qui, à l’intérieur de la période, ont structuré l’histoire de la dynamique du système. Il s’agit de décider d’un état initial et d’un état final avec entre les deux un cheminement qui parcourt des séquences. Les séquences elles-mêmes ne peuvent se concevoir que par rapport à des points de rupture ou d’inflexion. Des changements interviennent à des moments critiques où différentes situations peuvent se produire. Différentes interprétations de ces moments critiques peuvent être avancées. Par exemple des évènements se sont produits qui, a priori, sont peu perceptibles mais introduisent des changements profonds. Cela peut être le cas de l’apparition d’une nouvelle technologie, d’une modification dans la nature de la demande, de décisions de régulation, qui semblent passer inaperçues alors qu’elles représentent des points basculement. Ce peut être le cas aussi d’épiphanies - moments où les acteurs ou parties prenantes prennent soudainement conscience d’un changement profond, de la nécessité à repenser leur mode de fonctionnement et le font. A l’opposé, des changements paraissant importants peuvent se révéler n’avoir qu’un faible impact mais simplement s’inscrire dans une continuité sans qu’une forte remise en cause prenne corps. Ainsi, l’analyse séquentielle telle qu’elle est appliquée ici est structurée autour

- 16 -

d’un point de départ, un point souhaité d’arrivée, une période entre les deux faite de séquences structurées par des points de rupture ou d’inflexion.

• Une analyse séquentielle du passé (point de départ, point d’arrivée, points critiques)

En reprenant les points cruciaux de la démarche, il s’agit en premier lieu de déterminer le point de départ de l’analyse. Celui-ci, tout comme le découpage en séquences, s’appuie sur une analyse des tendances tenant à l’offre et à la demande –croissance, retards, coûts, restructurations - appuyée par des documents d’archives et travaux académiques.

Le point de départ

Une possibilité aurait été de remonter à la création d’Eurocontrol en 1960, celle avortée d’une FAA Européenne pour des raisons de souveraineté nationale. Le choix aurait pu être pertinent dans la mesure où il soulevait le problème de l’espace aérien européen en tant que ressource disponible indépendamment des États. L’échec de l’initiative aura été de montrer qu’il existait deux problèmes dans la construction d’une telle dynamique : celui du règlement des droits de propriétés attachés à une ressource rare – dans le cas de l’ATM, la souveraineté nationale et l’espace, source de revenus - et celui de la centralité, autrement dit le pilotage du système par un centre opérationnel dans un but d’efficience - un seul système de contrôle dans un espace supérieur unifié.

Le point de départ aurait donc pu être celui-là. Cependant l’échec de la première vision Eurocontrol n’aura eu que des conséquences en apparence mineures si ce n’est de créer un outil de coordination et d’harmonisation renforcé. L’identité elle-même de l’agence, en l’absence d’une définition claire, aura fluctué en fonction de la personnalité de ses directeurs successifs, incluant progressivement de nouvelles fonctions (CRCO, Maastricht au début des années 1970) avec la programmation d’un élargissement géographique qui aura dilué l’idée de départ.

Ce point de départ aurait sans doute pu être retenu. Cependant de 1960 au milieu des années 1980, l’agence en tant qu’organisme international a simplement vécu en parallèle aux développements des systèmes nationaux. Pour autant, on verra que les principes fondateurs à l’origine d’Eurocontrol vont rester en tant que représentations possibles du système pour le futur.

Le point de départ retenu est donc le milieu/fin des années 1980. Il est une conjugaison d’un changement de perspective et l’apparition de contraintes fortes sur le système. Le changement de perspective concerne la libéralisation du transport aérien et la corporatisation ou privatisation programmée des services de fourniture du contrôle aérien.

- 17 -

Il s’agit d’aligner le système sur celui de l’entreprise dont on attend plus de réactivité et de performance. Les contraintes sont liées à la croissance du trafic aérien qui a été mal anticipée avec des sous-investissements en contrôle aérien et pour résultat des retards qui vont en augmentant pour les compagnies aériennes qui ne veulent plus payer pour des redevances de route mais acheter un service. Cette perspective nouvelle, mais qui n’est en fait qu’un alignement sur les autres services dits publics, est un point de départ dont il s’agira de comprendre comment elle a pu s’ajuster et s’accommoder avec celle à l’origine d’Eurocontrol. Le point de départ annonce en cela une indépendance accrue des fournisseurs nationaux de services de contrôle aérien avec la possibilité de développement d’un marché du contrôle aérien.

Il est situé en 1988 par une mise à l’agenda politique au niveau européen du problème de l’ATM. Dès 1987, une première vague de réglementation sur la libéralisation du transport aérien intervient en Europe. La pression exercée par la croissance du trafic sur l’infrastructure de contrôle aérien débouche sur une communication de la Commission Européenne en 1989 en réponse au Conseil des Ministres de l’Union qui agit à la demande des compagnies aériennes.

Le diagnostic fait dans ces années de la part des compagnies aériennes comme de journaux académiques fut le suivant:

InfrastructureTrente états avec des stratégies différentes quant à la gestion de leur espace - il existe des classes différentes de niveau vertical, des flux de trafic qui ne sont pas coordonnés ; 22 systèmes de gestion d’opérations avec 33 langages de programmation différents, des routes aériennes qui sont en moyenne trop longues de 10%, des zones militaires d’entraînement qui ne correspondent plus à la fin de la guerre froide.

Opérations51 Centres de contrôle, une productivité –pour des raisons en partie technique - moitié moindre que celle des US - des administrations qui ne sont pas soumises à des évaluations de performance vis-à-vis des utilisateurs, des modes de gestion bureaucratiques et de fonction publique qui sont peu réactifs et peu efficaces dans leurs prévisions des évolutions de la demande de moyen terme et dans leur adaptation à ce qui advient finalement.

RégulationEffectuée à un niveau national avec des délégations au niveau supranational mais qui ne font pas force de loi - Eurocontrol est avant tout un collecteur de redevances qui travaille à l’harmonisation des systèmes sur la base du consensus et du volontariat.

- 18 -

A ce diagnostic s’ajoute la difficulté à introduire une dynamique nouvelle en raison de l’incapacité à résoudre les différents syndicaux, et du conservatisme de la profession.

Le point de départ étant tracé il reste que, tout au long de la période et de la dynamique qui sera étudiée, peu de bouleversements se sont produits. Comme on le verra lors de l’étude des séquences, malgré le foisonnement des initiatives, peu de surprises, peu d’inattendu, marquent la dynamique du système. Vingt ans plus tard, le diagnostic de départ peut être reproduit à peu près à l’identique, ce qui conduira à s’interroger sur la manière dont les problèmes ont été abordés, tels la fragmentation, l’automatisation ou l’introduction d’un changement de paradigme dans la technologie du contrôle aérien, autrement dit la place du contrôleur, de l’humain dans le système, la performance en coûts.

Le point d’arrivée

Le point d’arrivée est un peu un retour sur l’histoire d’Eurocontrol. Peut-il exister l’idée d’un espace européen, mis au service des européens qui puisse être optimisé dans ses dimensions technique et économique ?

InfrastructureEn partant du diagnostic précédent, un certain nombre de traits se dégagent qui forment le point d’arrivée. En termes d’infrastructure, un (ou deux à trois systèmes de contrôle aérien compatibles et pouvant être mis en concurrence) apparaît comme un point d’arrivée souhaitable. L’objectif est celui de la performance et d’éviter la duplication des coûts, aussi bien au sol qu’à bord des avions. De même, en accord avec les possibilités des nouvelles technologies, la restructuration de l’espace et des routes, sans doute affranchies de la notion de secteur et de la reproduction des pratiques traditionnelles du contrôle aérien, constitue un second objectif.

OpérationsLa configuration actuelle est celle d’ANSPs devenant plus indépendants des États. Cette indépendance ne s’est pas cependant accompagnée d’un programme de libéralisation comme dans les autres industries de réseau. Il n’y a pas eu de remise en cause des droits de monopole sur les espaces aériens nationaux, et pas d’introduction d’une séparation des activités entre ce qui relève de l’infrastructure –même si celle-ci est délicate à définir -, des opérations, et des services concourant aux opérations. Le modèle est ainsi celui des télécoms du début des années 1990 sans l’aiguillon de la concurrence introduite par de nouvelles technologie –téléphone mobile, internet. Il s’agit donc d’un modèle figé qui ne peut pas constituer un point d’arrivée. Celui-ci ne peut être qu’une fourniture de service où des restructurations importantes auront eu lieu, exploitant des économies d’échelle, permettant l’entrée de nouveaux acteurs, proposant de nouveaux services aux compagnies aériennes, autrement dit une plus grande concentration de l’offre et une plus grande diversité de services.

- 19 -

RégulationCréer un espace européen, définir l’infrastructure et le système de demain, permettre un changement de modèle des ANSPs ne peuvent se concevoir que par l’adoption d’un cadre règlementaire adapté. Le cadre réclame une vision européenne qui pousse à une plus grande centralité, en même temps qu’il élimine les redondances réglementaires et bureaucratiques. Des modèles ont été proposés lors de la mise en œuvre de la réforme du Ciel Unique Européen. On retiendra ici comme modèle générique celui présenté en annexe (annexe 5) qui distingue la régulation de la performance économique – la régulation par objectifs de performance, par introduction de la concurrence - de celle des opérations –l’optimisation des activités de réseau par centralisation de la fonction infrastructure, et qui introduit également des modes spécifiques de gouvernance.

Dans la partie qui applique la narration analytique au cas de l’ATM les séquences de la dynamique du système sont mises en évidence entre point de départ et point d’arrivée. Elles sont caractérisées, puis, reprises en montrant comment par une analyse en termes « contrefactuels » il est possible de penser différentes orientations ou chemins pour parvenir au point d’arrivée mais également comment d’autres auraient pu conduire à des résultats différents.

2.2. La perspective contrefactuelle

Le raisonnement contrefactuel « que se serait-il passé si ? » est souvent utilisé dans la vie courante. Un courant de recherche récent a cherché à en préciser une utilisation plus scientifiquement construite. Un premier point est de s’interroger sur la plausibilité de l’alternative. Par exemple, si l’on revient à la création d’Eurocontrol, en partant de l’hypothèse d’une FAA européenne gérant les opérations de contrôle de l’espace supérieur européen, il s’agirait de s’interroger sur sa vraisemblance mais de manière construite : Eurocontrol pouvait-il représenter un enjeu vital à l’époque, dans le contexte d’une Allemagne non réunifiée dans une période de guerre froide avec l’Est ? Si oui quelles auraient été les caractéristiques de la situation, créant un enjeu vital. En admettant avoir illustré de façon pertinente la plausibilité de la supposition, il faut ensuite se demander quelles en auraient été les conséquences : que se serait-il passé pour les centres de contrôle, pour le statut des contrôleurs, pour la définition d’un système européen ? Existait-il des projets crédibles et si oui quel en était le contenu ? Partant de ces contenus, quel type de dynamique aurait pu s’enclencher, quels en auraient été les freins, quelle modification des conditions initiales aurait permis de l’appuyer ? Ainsi le raisonnement contrefactuel pousse à s’interroger sur l’énoncé des plausibles, à évaluer les conséquences probables à partir d’enchaînements causaux.

- 20 -

L’exercice contrefactuel a généralement été utilisé sur des questions très centrées et spécifiques ne mettant pas en jeu la longue période – que se serait-il passé à la bataille de Waterloo si Grouchy était arrivé à temps ? Ici il est utilisé à partir de séquences et de points de rupture apparents ou prolongeant des continuités. Son intérêt est de montrer tout au long de la période des mécanismes à l’œuvre dans la dynamique du système. En particulier, la régulation croissante par la performance, celle de la continuité dans la création du Ciel Unique Européen, apparaîtront comme un mécanisme d’escalade, de progression continue. Ce mécanisme même pousse à s’engager dans un cheminement particulier, crée des phénomènes de verrouillage (« lock-in effects »). La confrontation des deux mécanismes d’escalade et de verrouillage sera discutée, posant la question des possibilités de réversibilité, de retours en arrière, pour parvenir à atteindre le point d’arrivée. Dans la mobilisation du raisonnement contrefactuel, on verra ainsi que les choix qui ont été pris dans la ségrégation de l’espace –FABs, distinction espace supérieur et inférieur - en matière d’introduction de la concurrence ou de la coopération, de séparation ou non de l’infrastructure de la fourniture de service, d’approche top-down ou bottom-up, sont autant de clefs pour construire et discuter des embranchements concernant la dynamique du système.

Ces points méthodologiques ayant été mis en place, l’analyse séquentielle de la dynamique de l’ATM peut être menée.

3. L’analyse séquentielle de la dynamique de l’ATM européen

Dans l’analyse séquentielle, chaque début de période est marqué par une initiative de nature règlementaire de la Commission Européenne. Le choix est naturel parce qu’il indique une mise à l’agenda politique européen de la question de l’ATM, au travers de communications de la Commission à la demande du Conseil des Ministres qui exprime le besoin d’un changement.

Dans cette approche, entre le point de départ de 1988 et celui d’arrivée en 2020, quatre périodes sont distinguées: 1988-1999; 1999-2004; 2004-2008, 2008-2013.

Séquence 1 - 1988-1999 La nécessité d’une solution technique dans le cadre existant et le libéralisme ambiant

La nécessité d’une solution technique de court terme, dans le cadre existant, tient à une réaction d’urgence face à la montée des retards dus au contrôle aérien (20% des vols accusent un retard supérieur à 15 minutes en 1988, 25% en 1989). Il existe un manque de capacité par rapport à la croissance du trafic, qui a été mal anticipée (par exemple, en 1987, le trafic réalisé a dépassé de 2,5% ce qui avait été prévu les années précédentes et, sur la période 1985-1990, la croissance moyenne

- 21 -

annuelle du trafic atteint un record de 7,1% avec un plus grand nombre de passagers pour une taille moyenne des avions qui tend à décroître). Le problème des retards qui en découlent conduit en premier lieu à la recherche de solutions immédiates dans le cadre institutionnel existant (voir Communications de la Commission Européenne de 1988 et 1989 sur les problèmes de capacité dans l’ATM). La solution proposée consiste à renforcer la coordination entre les États Européens au niveau de la gestion des capacités par une centralisation de l’ATM européen, un accroissement des efforts de recherche développement. En dernier ressort, le Conseil des ministres décidera en faveur d’une solution à l’intérieur de l’ECAC plutôt que de la Communauté.

Au cours de la période, la réflexion ne s’arrête pas à la simple recherche de solutions proprement techniques. Une refonte du cadre existant est proposée en 1996 sous la forme d’un Livre blanc dont le titre lui-même contient une perspective de libéralisation du secteur à la manière d’autres services publics (1996, Air Traffic Management – Freeing Europe’s Airspace).

En respectant la démarche infrastructure, opérations, régulation la période se caractérise ainsi :

InfrastructureL’initiative en termes d’infrastructure, hormis l’introduction de R-NAV, concerne en premier lieu la gestion des flux pour laquelle est décidée une centralisation des opérations en octobre 1988, qui deviendra la CFMU et dont la possibilité d’intervention se situe au-delà des frontières de l’Union Européenne. En même temps est mis en œuvre EATCHIP qui définit une stratégie pour la gestion du contrôle aérien en route. Des phases sont prévues, qui sont supposées courir le long de la période du début 1990 à 2000 (évaluation des systèmes nationaux, programme de développement en vue d’une intégration et d’une harmonisation, remplacement et mise à niveau des interfaces entres systèmes nationaux, mise en œuvre d’un système européen pour les années 2000 et futur). Dès cette époque, des groupes de pression se sont constitués en faveur d’une technologie basée sur la navigation par satellites censée résoudre le problème sol-air. Les contraintes de séparation entre avions seraient dès lors appliquées à des trajectoires de vol, les contrôleurs n’intervenant qu’en cas de conflit, les notions traditionnelles de route et de secteur disparaissant. La vision du futur est donc la trajectoire en quatre dimensions avec une autonomie et une communication entre les avions, qui combine l’Automatic Dependent Surveillance avec le GPS.

- 22 -

OpérationsLa recherche de solutions de nature technique s’insère dans un environnement particulier, celui de la commercialisation de la fourniture de contrôle aérien. Il en est attendu un changement de comportement des fournisseurs. La commercialisation est supposée introduire un management d’entreprise plus réactif aux besoins des compagnies aériennes, plus de transparence avec des objectifs de performance. Le premier État, loin de l’Europe à se lancer dans la corporatisation du contrôle aérien, la création d’une entité autonome et la sortie de la sphère administrative, est la Nouvelle Zélande en 1987. L’Australie, le Canada, l’Afrique du Sud, la Suisse, l’Irlande suivront, l’Allemagne étudiant la corporatisation de la DFS dès 1993 et la privatisation du NATS britannique intervenant en 1998. Cette même année, les nouveaux fournisseurs de service commercialisés se réunissent au sein d’une association professionnelle (CANSO) qui exprime désormais le point de vue de l’industrie et sera présente dans toutes les discussions sur l’évolution de l’ATM.

RégulationSi le cadre réglementaire évolue peu dans la période, deux points importants sont à noter. Le premier concerne la perspective développée dans le cadre du Livre blanc et le second la création de la Performance Review Commission. La perspective du Livre blanc est celle de la libéralisation avec l’introduction d’une séparation entre la régulation et la fourniture de service de contrôle aérien. Il s’agit de regrouper les fonctions de régulation sans pour autant créer une nouvelle institution. La Commission serait l’instance définissant le cadre, les règles qui s’appliqueront à l’Union Européenne. La séparation au niveau national n’apparaît pas centrale. Ce que souhaite la Commission ce sont des regroupements, c’est-à-dire une restructuration du secteur. Seulement, si des pays choisissent la voie du monopole, alors un régulateur national devra être créé. Un des problèmes posés est la concordance de la perspective avec Eurocontrol, qui elle-même travaille à une Convention Révisée. Le Livre blanc passe en revue différentes options, dont le retour à l’idée de départ des années 1960. L’option est pour le moins peu praticable dans la mesure où les fournisseurs de service nationaux souhaitent gagner de l’indépendance et du pouvoir et seraient plutôt en faveur du démantèlement d’Eurocontrol. Une deuxième option consisterait à se limiter à une solution uniquement communautaire, mais les seuls leviers d’action seraient alors le marché unique et l’amélioration de la sécurité pour le transport aérien. Enfin, une troisième option, qui apparaît la plus réalisable, est la solution européenne élargie, celle d’une agence Eurocontrol réinventée qui devient principalement responsable des spécifications techniques et de la gestion de l’espace. Le second point important sur le plan de la régulation est la création de la Commission de la Performance qui se fait sous la pression des compagnies aériennes. Cette instance aurait pu être dotée de pouvoirs d’enquête, de sanctions, mais elle sera finalement limitée à un rôle de fixation d’objectifs généraux, d’établissement des bilans sur les capacités, les coûts, les

- 23 -

retards, les goulots d’étranglement. Il est supposé qu’en introduisant des indicateurs de performance et des comparaisons, les fournisseurs de service seront incités à calquer leurs comportements sur les plus performants, introduisant ainsi un cercle vertueux (« sunshine regulation »).

Ainsi, au regard des évolutions précédentes, la période débute sur un problème de performance – le manque de capacité, les retards - et se termine sur une focalisation institutionnelle sur la performance sans altérer le cadre de régulation. Elle contient en germe la décision de la Commission d’introduire une restructuration du secteur alors que les fournisseurs de service se voient dotés d’une plus grande indépendance dans leur gestion financière.

Séquence 2 - 1999-2004, le renoncement à la mise en concurrence organisée par le haut

L’arrivée de Loyola de Palacio en tant que Commissaire en charge des transports introduit une nouvelle dynamique dans le système ATM. Il ne s’agit plus de rester dans le cadre existant mais de donner au système sa dimension européenne. L’Europe s’est engagée dans la voie du marché intérieur unique, celle de la monnaie unique, et elle doit de la même manière se doter d’un ciel unique indépendant des frontières nationales. Les solutions techniques dans le cadre national et celui d’Eurocontrol ne suffiront pas. Il faut réorganiser, comme le montre l’incapacité à traiter le problème des retards qui atteindront des records à l’été 1999 avec une augmentation des redevances de 80% sur la période 1993-1998.

Pour réaliser le Ciel unique, la communication de 1999 met en avant un certain nombre de principes parmi lesquels un redécoupage de l’espace européen indépendant des frontières nationales avec une nouvelle répartition entre civils et militaires qui tienne compte du changement géopolitique, l’introduction d’incitations financières à la performance notamment dans la tarification des redevances de route et la mobilisation de fonds type réseaux transeuropéens pour la gestion de points transfrontaliers particuliers. Par ailleurs, la séparation entre régulation et fourniture de service est réaffirmée, cette fois-ci au niveau national, d’autant plus que la fourniture de service tend à sortir de l’administration sous la forme de monopoles corporatisés. Un groupe de haut niveau, réuni en 2000, précise les orientations réaffirmant le rôle de la Commission en tant que régulateur de premier rang avec l’idée d’un développement phasé en commençant d’abord par l’espace supérieur Européen en cohérence avec l’espace inférieur, l’espace supérieur pouvant faire l’objet d’essais de technologies innovantes comme le « free routing ». Entre 2000 et 2003, des études vont nourrir l’écriture de la réglementation, sur la régulation économique, la possibilité d’ouverture à la concurrence, le dessin de l’espace européen. Deux perspectives émergeaient de ces études, définissant des alternatives plausibles. La première était celle d’un programme de libéralisation soutenue qui

- 24 -

pourrait conduire à une recombinaison de l’offre de service et une réduction de la fragmentation et de son coût. La seconde reposait sur la création de mécanismes de coopération débouchant sur l’utilisation des techniques les plus performantes. La seconde des alternatives fut retenue, la première servant de modèle repoussoir, les États membres et l’industrie étant contre. Les ingrédients du modèle libéral étaient simples. Un espace supérieur européen est créé. De larges blocs d’espace incluant des zones transfrontalières sont définis en relation avec les flux de trafic et des goulots d’étranglement permettant une redéfinition des routes. Les États délèguent leurs droits de fourniture de service de contrôle sur les blocs d’espace. La mise en concurrence sur les blocs d’espace est réalisée sous la forme d’un appel à propositions. L’offre la plus cohérente et attractive est sélectionnée. La recherche d’économies d’échelle dans les opérations et les achats de systèmes de contrôle conduit aux restructurations. En outre, dans le cadre de la libéralisation, les services auxiliaires auraient été séparés des fournisseurs de service et mis en concurrence, et on envisageait la possibilité de créer un gestionnaire d’infrastructure au niveau européen. Cette voie ne fut pas retenue en raison de l’opposition des États Membres, des fournisseurs de service, des contrôleurs. Le premier paquet Ciel Unique fut ainsi le résultat d’un compromis politique, le meilleur consensus possible. Il abandonnait la perspective purement libérale mais donnait aux États des outils pour se restructurer – création de blocs d’espace sur une base coopérative, possibilité d’introduire des incitations financières dans les redevances de route. Une force de rappel était cependant introduite sous la forme d’une évaluation quatre ans après l’entrée en vigueur de la législation Ciel unique. En reprenant le découpage en infrastructure, opérations et régulation, d’autres initiatives méritent d’être soulignées

InfrastructureLe paquet ciel unique contient tout d’abord un règlement dont le but est de réaliser l’interopérabilité des systèmes à l’intérieur de l’Europe dans le réseau de gestion du trafic aérien. Il précise que des règles d’application des standards et des spécifications seront développées au niveau européen avec charge aux équipementiers de les respecter. La fragmentation est donc traitée sous l’angle de l’harmonisation. Mais le renouveau dans le domaine technologique prend surtout forme par deux nouveaux entrants, tout d’abord Boeing, aux USA, qui créé en 2000 sa propre division ATM dans le but de développer un nouveau système de contrôle aérien, basé notamment sur le satellitaire. Cette stratégie entrepreneuriale (voir annexe 2) a eu pour effet indirect la création en Europe, dans un second temps, de l’ATM Alliance (le groupement d’intérêt économique fondé en 2002 par Thales, Eads et Airbus) proposant d’ajouter au Ciel Unique un programme de déploiement industriel (DEPLOY), notamment de data-link, incluant dans sa réalisation les compagnies aériennes. Le programme devait par la suite se transformer en SESAME, puis SESAR.

- 25 -

OpérationsLa continuité vers une plus grande indépendance des ANSPs, avec la sortie de la sphère administrative, ne s’est pas accompagnée de restructurations notables, de même que l’idée d’une concentration par fusions et acquisitions dans la fourniture de service ne s’est pas matérialisée. Des gains de productivité ont été réalisés mais sans montrer une baisse significative des coûts.

RégulationLe paquet Ciel Unique a introduit, outre des Autorités Nationales de Supervision, un passeport européen pour les contrôleurs et un processus de certification des fournisseurs de service de contrôle aérien en Europe. Parallèlement à l’accession de la Commission à la Convention Révisée d’Eurocontrol, qui devient une agence technique réalisant des mandats pour la Commission, la gouvernance du Ciel unique fait intervenir la Comitologie avec le Single European Sky Committee, et des groupes de consultations, ICB et Social Dialogue.

Ainsi si la période Ciel Unique Européen se caractérise par la mise en place d’outils réglementaires permettant aux États de s’engager dans la restructuration et la réduction de la fragmentation, la voie choisie n’est pas celle de la libéralisation et du recours à la concurrence sur la base d’un découplage entre espace supérieur et espace inférieur européen. Le moteur du ciel unique est devenu l’incitation à la coopération.

- 26 -

Séquence 3 - 2004-2008 l’échec des FABs, la relance par la technologie

- 27 -

Le paquet Ciel Unique Européen qui devait représenter en soi un point de rupture fort a laissé inchangée la structure de l’offre de contrôle aérien. La fourniture de service est restée assurée par des monopoles nationaux verticalement intégrés et opérant chacun sur leur espace national. La mise en concurrence n’a pas été introduite, non plus que l’unbundling des composantes de la fourniture du service, notamment la séparation de l’infrastructure. Des efforts de restructuration de la part des États étaient attendus par la création des blocs fonctionnels d’espace (FBAs). Ces blocs avaient une définition claire de départ : de larges blocs créés dans l’espace supérieur en fonction des flux de trafic et indépendamment des frontières nationales (caractéristique opératoire) ; et auxquels étaient attachés des revenus correspondant (caractéristique économique) ; soumis à des appels d’offre, des cahiers des charges et à partir desquels un nouveau dessin de routes et l’introduction de nouvelles technologies de contrôle pouvaient être envisagées (mécanisme de restructuration). Mais ils se sont vus dilués dans une conception où tout projet d’amélioration de la part des États Membres pouvait justifier de l’appellation FAB dès lors qu’il existait un « business case » prospectif. La restructuration ne signifiant pas ici la fermeture d’anciennes unités de contrôle et la création de nouvelles dans un sens de destruction créatrice, mais simplement un effort accru de coordination et l’étude de la faisabilité de transferts de secteurs en cas de surcharge entre les centres, chaque acteur du système ayant des raisons de s’opposer à des blocs d’espace compétitifs dans l’espace supérieur (les fournisseurs de service nationaux en raison de la mise en concurrence et de leur déstructuration ; les compagnies aériennes européennes craignant la disparition des subventions croisées entre espace supérieur et inférieur au niveau des redevances de route, ce qui favoriserait les survols des compagnies américaines ; les États membres en raison de la perte de souveraineté nationale ; les contrôleurs en raison des incertitudes sur leur statut et des délocalisations possibles). Dès lors la dynamique qui s’instaure est un appariement de frontières nationales, un pays important s’adossant souvent à son voisin plus petit (Royaume Uni-Irlande ; Espagne-Portugal ; Italie-Grèce-Balkans ; France-Suisse ; Suède-Danemark ; Allemagne-Bénélux, Bulgarie-Roumanie), avec une initiative de la part des contrôleurs aériens tentant de faire revivre la forme initiale et centrale d’Eurocontrol sous la proposition Mosaic. Ces initiatives, qui donneront essentiellement lieu à des projets de faisabilité –une étape supplémentaire étant le regroupement FAB Central Europe (regroupement de l’initiative Française et Allemande), conduisent à une situation décevante, mise en évidence en fin de période par une Communication de la Commission en 2007. De même, la Commission de la performance note que, dans la banane centrale au cœur de l’Europe constituant la partie la plus dense du trafic, on trouve neuf États impliqués et quatre FABs, la question se posant de savoir si, dans cette dynamique créée par les États et les ANSPs, les FABs n’ajoutent pas un niveau de plus à la fragmentation dans la fourniture de service. D’une façon plus générale, l’évaluation qui peut être faite des apports du Ciel Unique est en demi-teinte. Certes des textes d’application sont sortis

- 28 -

concernant la transparence des coûts dans le système de redevance, sur la licence de contrôleur européen, sur la certification des Fournisseurs de Service par les Autorités Nationales de supervision, certes le cadre législatif semble en place mais peu de changements sont intervenus. Seule a continué sous une forme plus structurée l’initiative sur la technologie.

InfrastructureL’Initiative Alliance (Airbus, Eads, Thalès avec le projet Deploy) qui proposait un développement industriel de nouvelles technologies piloté par les équipementiers de système de contrôle avec le concours de compagnies aériennes a été intégrée au Ciel Unique Européen sous la forme de SESAME en 2005 puis de SESAR en février 2007, une entreprise européenne commune fondée par la Commission et Eurocontrol avec une participation de l’industrie à hauteur identique sous la forme d’un Partenariat Public Privé. Cette entité, une des plus ambitieuses de la Commission puisque l’ensemble porte sur 2.1 Milliards d’euros, a en charge de définir le système de contrôle aérien du futur. La phase de définition, qui a débouché sur la définition d’un plan cadre d’ensemble (Master Plan) s’est terminée en 2008 avec une phase de développement prévue jusqu’en 2013, puis la phase de développement industriel proprement dite jusqu’à 2020.

OpérationsSur la période, la situation n’évolue guère. Les diagnostics portés 20 ans plutôt sont toujours d’actualité avec une moindre pression sur les fournisseurs de service en terme de capacité due au retournement de la conjoncture économique.

RégulationLa régulation s’inscrit dans la poursuite des efforts qui ont été faits dans la comparaison de la performance des fournisseurs de contrôle aérien. Le cadre ne change pas. S’il existe des objectifs en termes de retard et de capacité, la régulation par la performance ne s’inscrit pas dans un cadre coercitif d’obligations, d’incitations et de sanctions.

Le tableau dressé sur la période reflète ainsi la mise en œuvre d’un cadre, avec des outils qui sont mobilisables mais détournés par rapport à leur contexte initial, notamment la libéralisation et la création de blocs d’espace européen. Inévitablement, comme les évaluations l’ont montré, ceci débouche sur un nouveau point d’inflexion avec l’introduction d’un second paquet réglementaire, le Ciel unique européen deuxième version.

Séquence 4 - 2009-2013 La poursuite molle des choix passés

La recherche de moyens pour accélérer la mise en œuvre du ciel unique Européen intervient dans un contexte renouvelé. Les problèmes de retards se sont déplacés vers les aéroports, l’environnement apparaît

- 29 -

comme un levier permettant de souligner l’importance de la création d’un réseau de routes européen optimal raccourcissant les distances et donc réalisant des économies en carburant. Les conclusions du groupe de haut niveau s’inscrivent dans ce nouvel environnement en formulant dix propositions où l’environnement et les préoccupations aéroportuaires apparaissent avec un accent mis sur des pratiques de bonne régulation et un pilotage par la performance. Ces principes se retrouvent dans les travaux préparatoires de la Commission et dans sa Communication de 2008. L’objectif consiste à renforcer l’approche précédente en introduisant un cadre plus contraignant et centralisé avec un accent sur la fonction infrastructure (plan d’action sur les capacités aéroportuaires). Le règlement de juillet 2009 qui porte modification du premier règlement Ciel Unique introduit peu de nouveautés, à l’exception d’un système de performance établi au niveau européen qui peut donner lieu à la création d’un organisme d’évaluation des performances, la nomination possible d’un coordonateur de FAB pour faciliter leur réalisation, le développement de fonctions de gestion de réseau. Si le système de performance ajoute une élément de structure et de contrainte avec des objectifs de 3 à 5 ans, si le texte prévoit également de pouvoir centraliser des fonctions de réseau, les marges de manœuvre de la Commission restent floues quand à l’utilisation de ces nouveaux outils, le système de performance s’inscrivant dans la compatibilité avec des plans et objectifs nationaux, le FAB coordonnateur étant tenu à la confidentialité, les fonctions de réseau n’impliquant pas l’adoption de mesures contraignantes de portée générale ou l’exercice d’un pouvoir discrétionnaire, les États membres pouvant déléguer à Eurocontrol ou un organisme impartial l’exercice de ces fonctions. Ainsi, d’un point de vue général, le deuxième paquet introduit de nouveaux éléments, des renforcements, sans véritablement mettre en cause la dynamique de départ, la fin de la période devant introduire un nouveau point d’inflexion puisqu’elle correspondra à l’évaluation des FABs en phase de réalisation et à celle de SESAR en fin de phase de développement. Le commentaire portera ici sur l’infrastructure et la régulation, la structure des opérations restant inchangée.

InfrastructureLors des consultations sur le deuxième règlement Ciel unique, Canso s’est opposé avec force à la mise en place d’une gestion centralisée de l’infrastructure qui grouperait les fonctions du design de l’espace et de la gestion des flux. Le point de vue était que ceux–ci étaient assurés localement ou régionalement par les fournisseurs de service et que ces activités devaient rester sous leur responsabilité, même dans l’optique d’une centralisation. Le Ciel unique, dans sa seconde version, ne prétend donc pas créer une structure adéquate, bien que la possibilité en soit donnée, tout restant à l’initiative des États membres. Ce point sera discuté à propos de la dernière séquence.

Un autre point important concerne SESAR. Dans sa forme évolutive, de Deploy à SESAME, le Mater Plan de SESAR reprend les présentations des

- 30 -

grands programmes Eurocontrol. Il est fait de 16 ateliers de travail imbriqués, couvrant tous les aspects avec une succession de phases de validation et de décision. Sa complexité en fait un énorme enjeu de management, devant introduire une rupture avec les échecs passés. En outre, l’entreprise jointe cessera en 2013 laissant la place au déploiement industriel. Pour l’instant, l’avenir de SESAR me semble pas avoir été pensé par rapport aux deux leviers du Ciel Unique que représentent les FABs (dans quelle mesure et comment les FABs peuvent-ils contribuer à l’émergence et la diffusion des nouvelles technologies et du système du futur ?) et l’idée d’un gestionnaire d’infrastructure européen (alors que les appels d’offres industriels et la coordination des investissements constituent des fonctions d’un gestionnaire d’infrastructure).

RégulationLe contrôle de la performance est accentué avec la création d’une structure spécialisée. En théorie, la régulation par la performance peut prendre trois voies différentes.

- La première est de nature prescriptive. Des normes et des standards sont définis. Sont ensuite définis les moyens et les procédures pour les atteindre. L’assujetti à la performance applique un plan défini, le contrôle et les sanctions pour non performance provenant d’un défaut d’application du schéma qui a été défini au départ.

- Une deuxième voie consiste en une approche gestionnaire. Il est demandé aux assujettis de produire des plans pour atteindre des objectifs de performance, dont chacun peut emprunter des solutions particulières, ces plans étant retenus ou invalidés, puis contrôlés au long de leur exécution.

- La troisième, la régulation par la performance de l’output, est celle où sont définis des objectifs finaux laissant toute liberté aux assujettis de choisir telle ou telle option, sans contrôle, excepté dans l’évaluation finale.

Ainsi, dans le cas de l’ATM, ce qu’il est possible de comprendre du schéma de performance est qu’il s’inscrit entre deux et trois : le contrôle d’exécution en cours de période de 3 à 5 ans avec des mécanismes de contrôle et d’alerte en cours d’exécution. Ce point sera discuté par la suite.

Enfin il convient de souligner l’extension du champ d’action de l’EASA dans le domaine ATM et des aéroports, et de s’interroger sur la transformation facilitante d’Eurocontrol dans la dynamique du système. La mutation d’Eurocontrol a sans doute été lente dans le passé avec un conflit de termes et une concurrence interne entre un Ciel pour l’Europe (Eurocontrol) et un Ciel unique européen (La Commission). Le changement d’orientation de l’agence est en train de se structurer avec de nouvelles divisions et un rôle d’agence technique de support venant en appui des initiatives de la Commission Européenne.

- 31 -

Séquence 5 – 2013-2020, la divergence ou la convergence vers le point d’arrivée

C’est la séquence clef de la période, mais évidemment la plus difficile à appréhender. Y aura-t-il convergence entre le développement technologique (SESAR) et le développement institutionnel, cette convergence aboutissant au point d’arrivée souhaitable, constitué de trois volets : un système unique futur de contrôle aérien, ou deux ou trois systèmes en concurrence mais compatibles ; une concentration opérationnelle dans la fourniture de service obtenue par des restructurations et mettant fin à la fragmentation ; un cadre européen supranational de régulation qui évite les coûts de duplication ?

4. Analyse contrefactuelle et mécanismes

Le retour analytique sur l’analyse séquentielle doit être mené en termes de réflexion contrefactuelle autour des points critiques identifiés.

Dans une première séquence, le diagnostic est posé (la fragmentation dont il faut sortir, l’utilisation de nouvelles technologies, la mise en place d’un cadre de régulation pouvant conduire aux restructurations). Spontanément, le mécanisme par lequel aboutir à ce résultat est cherché, par analogie aux autres secteurs (électricité, télécoms, etc.), dans la mise en concurrence. Celle-ci se fera au niveau upper, le lower étant laissé à la charge des États. Cette option est écartée, et c’est la coopération qui s’impose comme le mécanisme fondamental d’évolution de l’ATM vers la restructuration. Se pose une question : la coopération doit-elle être pilotée par le haut (top down) ou doit-elle émerger entre les États (bottom up) ?

C’est toute la discussion qui va mener au SES I. Pour des raisons politiques, le SES I va établir que la coopération (donc le processus de restructuration) sera laissée à l’initiative des États. Ce sont eux qui proposeront la création de FABs. Un cadre minimal est imposé, et il ne prévoit plus la séparation upper/lower. Une évaluation est prévue au bout de quatre ans.

Le mécanisme attendu est celui qui est habituel dans la manière dont procède la Commission et la politique européenne : un problème est mis à l’agenda européen ; un diagnostic est posé et ce diagnostic est qu’il faut une initiative à l’échelle européenne ; les États membres renâclent à perdre une partie de leur souveraineté et ne s’accordent que sur une initiative minimale leur laissant une grande marge de manœuvre ; la Commission n’a pas le pouvoir politique, dans un premier temps, d’imposer quelque chose de plus ambitieux, et elle doit accepter un compromis minimal, mais elle demande une évaluation au bout de quelques années ; l’évaluation montre toutes les limites de la politique

- 32 -

adoptée ; la Commission réussit alors à faire passer un plan plus ambitieux ; par un mécanisme d’escalade, on passe donc d’un diagnostic établissant la nécessité d’une politique à l’échelle européenne, à une première initiative très limitée dans son ambition, puis, par des évaluations montrant les limites de cette première initiative, à une seconde initiative plus ambitieuse. Une politique européenne s’inscrit donc dans un déploiement continu, étape par étape, s’inscrivant dans la durée longue, sans retour en arrière et par approfondissements successifs.

2008 doit être compris et analysé de cette manière. Loyola de Palacio avait posé un diagnostic, mis en place les conditions d’une initiative européenne. La Commission avait finalement dû revoir ses ambitions à la baisse et ce qui s’était mis en place (SES I) était un plan reposant principalement sur les initiatives de coopération interétatiques. En 2008, une évaluation devait être faite de ce premier projet européen. Soit les initiatives des États se révélaient ambitieuses et amenaient une réelle restructuration, soit, ce qui était plus probable, elles se révélaient timides et très en deçà de ce qui était attendu. Dans cette dernière perspective, un SES II plus ambitieux sur le plan européen devait être lancé.

L’évaluation menée en 2008 à la fois par la Commission et par la Performance Review Commission est, comme on pouvait s’y attendre, négative : les initiatives prises par les États sur les FABs sont timides et floues, et elles reposent à peu près toutes sur une absence de restructuration réelle.

On envisage donc de passer à un SES II. Il est assez peu plausible que l’on revienne alors d’un mécanisme de restructuration par la coopération à un mécanisme concurrentiel. Par contre, ce qui apparaît plausible est que l’on passe d’un mécanisme de coopération bottom up à un mécanisme plus top down, avec probablement un retour à la séparation upper/lower permettant cette approche plus top down. Pour faciliter cet infléchissement de la politique européenne vers une approche top down, il est sans doute nécessaire d’envisager la création d’un gestionnaire européen de l’infrastructure et celle d’une instance de régulation européenne.

2008 aurait donc dû être un point d’inflexion de la trajectoire de la politique européenne, la faisant passer d’une approche bottom up à une approche plus top down. Que celle-ci soit, dans un premier temps, relativement modérée (avec l’idée d’un nouvel approfondissement au bout de quatre ans – mécanisme d’escalade progressive), ou qu’elle soit plus marquée (création d’un gestionnaire d’infrastructure européen et d’un régulateur européen). Or, le SES II, malgré l’évaluation négative du SES I, continue sur la trajectoire du SES I, sans réelle inflexion.

Que peut-on alors envisager pour les étapes suivantes, 2013, puis 2020 ?

- 33 -

L’introduction d’un mécanisme concurrentiel en substitution d’un mécanisme coopératif apparaît peu plausible. Il semble qu’il y ait un effet de verrouillage et d’irréversibilité du choix du mécanisme coopératif pour faire évoluer l’ATM européen.

Trois questions se posent alors :

1. le mécanisme coopératif inchangé (pas de gestionnaire européen de l’infrastructure, pas de régulateur européen) peut-il conduire à des restructurations durant le SES II alors qu’il n’y a pas conduit lors du SES I ? Si oui, pourquoi ?

2. l’inflexion qui ne s’est pas produite en 2008, peut-elle se produire en 2013 (création d’un gestionnaire d’infrastructure européen et d’un régulateur européen) ?

3. Quelle peut être la dynamique de déploiement de SESAR ?

Examen de la question 1Quel enchaînement pourrait conduire à des restructurations d’ici 2013, alors que ces restructurations n’ont pas eu lieu lors du SES I ? Le seul envisageable serait que la séparation introduite au niveau national entre le régulateur et l’opérateur conduise les États devenus régulateurs à mettre en concurrence leur ancien opérateur national avec d’autres opérateurs, ou que les États régulateurs s’associent entre eux pour imposer des restructurations à leurs opérateurs (par exemple, l’Allemagne, la France, la Suisse le Bénélux, se tournent vers leurs opérateurs et leur demandent un projet de restructuration de l’ensemble des espaces contrôlés). Sous le régime existant cela supposerait un bouclage entre les plans stratégiques de restructuration développés par les coordonateurs de FABs, les plans de performance des autorités nationales de surveillance, la délégation des droits d’opération. Pour l’instant, les projets de FABs ne prévoient pas des fermetures de centres, et apparaissent plutôt comme un moyen pour les petits pays, par exemple, de protéger l’existence de leurs centres de contrôle, voir d’en obtenir de nouveaux. Il apparaît assez peu probable que le SES II conduise donc aux restructurations en maintenant inchangée la voie adoptée lors du SES I, considéré lui-même comme un échec de ce point de vue.

Examen de la question 2L’inflexion qui était attendue en 2008 et n’est pas produite peut-elle intervenir en 2013 ? Si l’évaluation du SES II est aussi négative que celle du SES I (voir question précédente), il est probable qu’une réaction au niveau européen se produise. La création d’un gestionnaire européen de l’infrastructure sera alors plus envisageable, de même que la création d’un véritable régulateur en charge d’une régulation à visée restructurante. Mais les restructurations en question n’auront lieu au mieux que dans la période 2013-2020. Se pose alors la question suivante.

Examen de la question 3- 34 -

Dans la mesure où le SES I a produit des effets très limités en termes de restructuration par la voie de la régulation et de la coopération (FABs), les attentes pour l’évolution du secteur européen de l’ATM se sont placés de plus en plus sur SESAR. Deux questions se posent ici.La première est : SESAR va-t-il réussir en tant que programme de recherche technologique ? L’histoire de l’ATM est jalonnée de grands projets qui n’ont pas abouti. La possibilité d’un nouvel échec n’est pas exclue. La possibilité de retards, de dérives de coûts, n’est pas non plus à exclure. L’association des industriels au projet et le fait que les technologies envisagées sont à l’étude depuis longtemps, peuvent néanmoins autoriser un optimisme raisonnable. Se pose alors la seconde question :SESAR est-il un pur programme de recherche technologique, ou autre chose ? La technologie n’est pas une dimension en soi, indépendante des structures de marché et des institutions. La technologie et son développement s’inscrivent dans ces structures. Le déploiement de SESAR ne sera-t-il pas handicapé par la non-restructuration de l’ATM ? L’idée d’un système unique, ou de spécifications unifiées ne suppose-t-elle pas un interlocuteur unique ou unifié (gestionnaire européen d’infrastructure) ? Les technologies envisagées différentes dans l’upper et dans le lower airspace, pourront-elles se déployer alors que cette distinction n’a pas été menée sur un plan institutionnel ? Dans quelle mesure, la réussite de SESAR est-elle liée à la restructuration qui ne s’est pas faite et dont le processus semble avoir été lui-même repoussé après 2013 du fait de l’inflexion qui ne s’est pas produite en 2008 ?Un mécanisme catastrophique serait celui dans lequel la non-restructuration du secteur conduirait à l’échec de SESAR, cet échec retardant encore en retour la restructuration. C’est le mécanisme qui suppose que le déploiement technologique de SESAR n’est pas possible sans une restructuration institutionnelle préalable (séparation upper/lower et avancée vers un gestionnaire européen d’infrastructure).

- 35 -

Annexe 1

Les systèmes de systèmesFormes organisationnelles de conception et de développement

- 36 -

Depuis la fin des années 90/début des années 2000, dans un certain nombre de domaines, apparaît et se développe la notion de système de systèmes. Elle est utilisée dans le domaine des transports, et notamment du contrôle aérien, mais c’est dans le domaine de la défense aux Etats-Unis qu’elle a connu les plus grands développements.

Cette note fait le point sur cette notion très discutée.Dans un premier temps, la notion est précisée.Dans un second temps, est illustrée la manière dont elle a été appliquée dans le

domaine de la défense.

1. Qu’est-ce qu’un système de systèmes ?

La notion de système de systèmes (System of Systems) est très discutée. Quelques éléments se dégagent néanmoins : le raisonnement en termes de capabilities plutôt que de systèmes techniques, l’aspect centré réseau (Network Centric), la modularité et les évolutions technologiques. Nous allons aborder ces différents points, avant d’expliquer en quoi la notion est controversée.

1.1. Le raisonnement en termes de capabilities

Traditionnellement, les militaires formulaient leurs besoins en termes de plates-formes : un avion de chasse, un bombardier, un char, un sous-marin, une frégate, etc. Les menaces étaient assez clairement identifiées et ces plates-formes étaient destinées à y répondre. A la fin des années 90, ils prennent conscience du fait que les menaces sont plus difficiles à déterminer et qu’elles évoluent très rapidement. Le cas s’est posé avec les systèmes de missiles par exemple. Le 30 août 98, la Corée a envoyé un missile au-dessus du Japon. C’était inattendu et, surtout, les services de renseignement ont été surpris par la sophistication technique du missile (trois étages avec du carburant solide). Un tel missile peut facilement être amélioré pour atteindre les USA. Donc, les menaces évoluent rapidement alors que le développement des systèmes est long. Si on lie le développement du système à une menace identifiée à l’instant t, lorsque le système sera déployé, les menaces auront complètement changé. Il faut raisonner en termes de déploiement de capabilities. On ne peut plus définir une menace, puis concevoir un système, puis le déployer, le tout en plusieurs dizaines d’années. « The goal is to deploy an initial capability as soon as technologically practical and then build and improve upon this baseline through incremental enhancements. » (Biggs & Stuchell, 2003, p. 24). Les militaires, à partir de la fin des années 90, ne raisonnent plus par armes et par plate-formes mais par capacités (par exemple, une capacité peut être : surveiller le champ de bataille ; pour mettre en œuvre cette capacité, on peut mobiliser comme moyens des radars terrestres, un avion de chasse équipé d’une nacelle de reconnaissance, un radar aéroporté, un Atlantique II de la marine, des drones, etc. Autrement dit, on va utiliser au mieux une multiplicité de systèmes qui doivent pouvoir partager de l’information et dialoguer entre eux. La notion de capabilities est liée à la notion de scénarios d’opérations (Concepts of Operations – CONOPS) et à la mise en œuvre d’une pluralité de systèmes qui dialoguent entre eux et se coordonnent pour agir au mieux.Les systèmes de systèmes sont donc liés à l’idée qu’il faut d’abord réfléchir à des scénarios évolutifs sur les finalités d’un système, en déduire des capabilities requises, et seulement ensuite réfléchir à la technologie.

Mais la notion de capabilities doit être comprise dans sa relation avec des incertitudes majeures : « The burden of the decision-maker is that of planning the best route through a web of possible futures with incomplete maps. Currently, there does not exist a process or a set of tools that enable our decision makers to evaluate whether

- 37 -

decisions to authorize spending trillions of dollars on a infrastructure project, implement a particular public policy, and/or develop a new piece of technology are together good, bad (or indifferent) for the nation over a generation or more. » (DeLaurentis & Callaway, 2004, p. 829)

1.2. Network Centric Système de systèmes

Une fois les capabilities identifiées, le système de systèmes va se construire autour d’un réseau qui va permettre aux différents systèmes qui le composent de dialoguer entre eux, de partager de l’information, et de se coordonner en vue de l’action la plus efficace : « The network-centric transformation vision relies heavily on the ability of various nodes to share information in real time using a range of interconnected networks. Achieving the NCW [Network Centric Warfare] vision will require lashing networks together, maintaining networks in the face of constant change, making intelligent trade-offs amongst competing system designs, and tasking various platforms with their operational rôles. » (Dombrowski, Gholz & Ross, 2002, p. 97). Le système de systèmes suppose trois choses : des scénarios ou concepts d’action, des réseaux de réseaux, et des capteurs distribués dans l’espace.

1.3. Modularité et évolution

Comme le développement des systèmes de systèmes se fait dans l’incertitude (incertitude sur les capabilities, incertitude sur les technologies) et comme on sait que le système devra répondre à de nouvelles exigences dans le futur, la modularité est une dimension essentielle.

On peut la définir ainsi : « Modularity is a general systems concept: it is a continuum describing the degree to which a system can be separated and recombined, and it refers to both the tightness of coupling between elements and the degree to which the rules of the system enable (or prohibit) the mixing and matching of components’ capabilities » (Schilling & Paparone, 2005, p. 281). Elle présente des avantages : « The primary goal of deliberately increasing modularity is to enable heterogeneous inputs to the system to be translated into a variety of heterogeneous capability configurations. Therefore, whether a system responds to a shift in its context (by becoming more modular) is a function of both the degree to which the elements of the system are separable and the pressure to be able to produce multiple configurations from diverse potential inputs. » (Schilling & Paparone, 2005, p. 281-282).

La modularité permet donc au système d’évoluer en s’adaptant au mieux aux évolutions de son environnement.

1.4. Les Systems of Systems : notion controversée

La grande question posée est : les SoS représentent-ils une rupture ou non ?Les spécialistes eux-mêmes sont divisés. Certains pensent que les systèmes de

systèmes sont des systèmes plus compliqués que les autres, et rien de plus. Construire la force de dissuasion nucléaire dans les années 60, avec des systèmes multiples (des sous-marins, des missiles terrestres, des avions, autour d’un système de communication permettant au président d’être informé de la situation et de donner l’ordre de la frappe nucléaire.

Une étude auprès des chercheurs a montré que 75% définissaient un SoS comme un gros système avec beaucoup de sous-systèmes ; 20% ont une vue un peu plus fine ; 5% seulement ont une vue juste. « It is concerning that approximately 75% of subject matter experts consulted in the study viewed an SoS as just a big system with lots of subsystems, with a perspective that it requires only traditional SE. This perspective is “we know how to do it…we don’t always do it the way we know how” (that is another problem). About 20% of the subject matter experts consulted in the study offered a more progressive view. These people viewed an SoS as many cooperating systems, where we know in advance that they should play well together. The approach is to build them in a

- 38 -

way that allows them to play together with network enabling as the good first step. Only about 5% had the desirable perspective of SoS as collaborative systems that will be brought together in the field, recognizing it as a “pick-up” game that will always be a pick-up game as needs will change. In this view, the perspective is that the SoS involves many legacy systems that we “wish they played together, but who could have predicted they would need to interact?” In this view, there is “surprise synergy” and the challenge is perhaps to build to support ultimate network centricity. » (USAF SAB, 2005, p. 26)D’autres pensent qu’il y a bien une rupture. Auparavant, les militaires étaient capables de préciser leurs besoins, de formuler les spécifications des systèmes souhaités, de mettre les firmes en concurrence pour réaliser ces systèmes, puis de tester le résultat et de le mettre en œuvre : « The traditional requirements generation approach rested on the premise that the operational community could identify— years out—a needed capability and that a system could be built to defeat a specific, predictable, and identifiable threat. A very formalized structure was in place to describe the threat, justify the mission need, and describe the shortcomings of the existing systems. Specific performance levels had to be established against specific threats » (Biggs & Stuchell, 2003, p. 23). Désormais, il est difficile d’élaborer les concepts militaires opérationnels et les systèmes de systèmes de manière indépendante. Les concepts dependent des technologies existantes et futures : : « While the requirements-based approach emphasized building a system to discrete standards to defeat known adversary capabilities, the capabilities-based approach recognizes that the pace, as well as the utility and extent of the capability itself, is not known. This is not the next generation fighter, but an entirely new system of systems architecture from the ground up. » (Biggs & Stuchell, 2003, p. 23). Aucune institution ne peut élaborer les capabilities requises et les systèmes de systèmes qui doivent permettre de les réaliser à soi toute seule. Il ne peut y avoir un seul architecte : « History has shown that no single technology, program, or even agency alone can solve a system-of- systems type problem. History is also replete with examples of disruptive “unintended consequences”, in which careful analysis of the interactions among and between technology, policy, and economics was absent. Ultimately, then, the “call to action” in this document has the promise for improving future system-of-systems, notably the transportation system, not through promotion of a single piece of technology or combinations of technologies, but instead through the promotion of a new “calculus”, a new way of thinking. » (DeLaurentis & Callaway, 2004, p. 830)

Dès lors, le développement des Systèmes de Systèmes a donné lieu à des arrangements organisationnels selon une « unique and unprecedented approach. » (Biggs & Stuchell, 2003, p. 28).

2. Les contrats Lead Systems Integrator (LSI)

A partir de 1997, pour les missiles balistiques, puis de 2002 pour les Future Combat Systems de l’US Army et le programme Deepwater des Coast Guards, se met en place le système des LSI (Lead Systems Integrators).

2.1. Un exemple : le FCS

Au début des années 2000, l’US Army envisage un programme de modernisation d’ensemble sous forme d’un système de systèmes, le FCS (Future Combat Systems). Il concerne essentiellement l’US Army, mais aussi le corps des Marines. Il s’agit de concevoir le système de combat au sol du futur.

Le système comprend un réseau central, dont l’architecture logicielle est la plus importante jamais développée dans le domaine militaire (63 millions de lignes de code), ainsi que 14 plates-formes : l’équipement du soldat, des capteurs, des systèmes aériens téléguidés (drones, hélicoptères), des véhicules téléguidés, des chars, mortiers, canons, et véhicules de toutes sortes (commandement, médicaux, etc.). C’est la première fois que l’US Army ne développe pas séparément un programme de conception d’un char de combat, de mortiers, de véhicules d’artillerie, mais un ensemble d’une dizaine de véhicules complémentaires pour le combat, plus des drones permettant d’informer, de

- 39 -

guider et d’appuyer ces véhicules, c’est-à-dire un système de systèmes. L’objectif est de pouvoir déployer une force au sol partout dans le monde en quelques jours, ce qui pose des problèmes d’articulation complexes avec les moyens de transport (avions, navires, hélicoptères). Le tout doit être développé en un temps record de 5 ans et demi (c’est le temps qui était traditionnellement nécessaire pour produite une seule plate-forme). Devant être opérationnel vers 2012-2025, le projet doit pouvoir intégrer dans son développement des technologies qui n’existent pas encore et apparaîtront à l’horizon de dix à quinze ans (46 technologies critiques pour la réussite du projet étaient immatures à son lancement). Ceci suppose des moyens de simulation extrêmement puissants et sophistiqués capables de suivre et d’orienter le développement du programme durant tout son cycle de vie.

Le 9 mai 2000, l’armée sélectionne quatre équipes pour proposer en deux ans l’architecture du système : une équipe Boeing, une équipe SAIC, une équipe General Dynamics/Raytheon et une équipe constituée autour de Lockheed. Chaque équipe doit proposer un premier concept avec un système de communication (network centric), un véhicule de commandement, un véhicule robotisé de tir au contact de l’ennemi, un véhicule robotisé de l’arrière, et des systèmes de capteurs, et un second concept présentant la démarche suivie pour la conception d’un système de systèmes. Sur les quatre équipes, une seule était constituée autour d’un fournisseur traditionnel central de l’US Army – l’alliance General Dynamics/Raytheon. Encore General Dynamics avait-il dû s’allier avec Raytheon, un spécialiste des missiles, mais ayant une capacité sophistiquée en informatique et électronique. Les trois autres équipes étaient plutôt des nouveaux entrants en tant que partenaires de premier rang de l’US Army. Au cours de cette phase, Boeing et SAIC décidèrent de s’allier pour proposer une offre commune. Le 8 mars 2002, c’est cette alliance qui est finalement retenue en tant qu’intégrateur pilote des systèmes (Lead Systems Integrator). Par la suite, c’est cet intégrateur pilote qui met en concurrence les firmes pour les composants du système. C’est ainsi qu’une alliance General Dynamics/BAe Systems a obtenu la conception et la fabrication des véhicules avec équipage (non-robotisés).

2.2. Analyse du LSI

Au cours des contrats LSI, le Department of Defense (DoD) reconnaît qu’il n’est pas capable à lui tout seul d’imaginer les concepts sur lesquels le système de systèmes doit s’élaborer. Il a donc recours à une coopération avec des firmes privées. Le problème central est la dépendance vis-à-vis d’une ou plusieurs firmes, verticalement intégrées (donc qui peuvent favoriser leurs propres solutions internes en matière de sous-systèmes). Le client va donc essayer de diminuer cette dépendance en ne donnant pas le contrat à une firme seule, mais à une alliance entre firmes (qui lui permettent en partie de neutraliser l’une par l’autre, mais également de préserver la possibilité d’une concurrence future). Il va essayer de jouer un rôle architectural éventuellement en suscitant des regroupements entre firmes pour avoir des interlocuteurs ayant des compétences fortes, en suscitant des coopérations (alliances) et en mettant en concurrence ces alliances. Il va jouer sur un mélange de coopération et de concurrence, la coopétition (Depeyre & Dumez, 2008)

- 40 -

En amont de la première étape, le client suscite des alliances entre firmes. Lors de la première étape, il met en concurrence ces alliances autour des concepts, des capabilities du système. Il sélectionne alors la meilleure offre, et nomme l’alliance LSI. C’est cette alliance qui va piloter le développement du système de systèmes, en mettant en concurrence les autres firmes pour la fourniture des différents sous-systèmes. L’alliance elle-même n’est pas autorisée à concourir à ce stade (c’est la règle OCI – Organizational Conflict of Interest). Lors de la phase de développement proprement dite, le client, le LSI et les fournisseurs coopèrent pour mener à bien la réalisation de l’ensemble. C’est le LSI lui-même qui, en raison de la complexité du système, mène la simulation et les tests.

Le LSI assume l’essentiel des tâches :• Concurrent engineering of requirements, architecture, and plans• Identification and evaluation of technologies to be integrated• Source selection of vendors and suppliers• Management and coordination of supplier activities• Validation and feasibility assessment of SoS architecture• Continual integration and test of SoS-level capabilities• SoS-level implementation planning, preparation, and execution• On-going change management at the SoS level and across the SoS-related integrated product teams to support the evolution of requirements, interfaces and technology »

(USAF SAB, 2005, pp. 2-3)

L’armée a considéré que c’était le seul moyen d’aller vers du nouveau, en n’étant pas prisonnier du passé, notamment des groupes qui composent les armées actuelles (les pilotes de la Navy, les pilotes de l’Air Force, les pilotes d’hélicoptères, etc.). L’armée elle-même était par exemple incapable d’expliquer aux pilotes d’hélicoptères qu’ils devaient être réduits en nombre et que leurs missions allaient être menées par des drones. Les moyens des firmes privées sont considérablement plus développés que ceux

- 41 -

des miliaires. Par ailleurs, des firmes comme Boeing ont l’expérience de la menée à bien des très grands projets.

Pourtant, cette nouvelle forme organisationnelle a connu une série de problèmes.

2.3. Les problèmes liés au LSI

Une série de problèmes se sont fait jour.Il y a eu des dérives de coûts (mais cela est assez régulier et classique dans les

grands projets de ce type).On estime que le décalage entre les capacités du client militaire et des firmes LSI

est trop important. Dans l’équipe qui développe le réseau informatique central, on compte 28 employés de Boeing pour 1 représentant du client militaire.

C’est le LSI qui va tester le système. En effet, le système est tellement complexe que seul celui qui le développe peut le tester, ce qui est problématique (pas d’expertise indépendante). Par ailleurs, le système est si sophistiqué que les tests interviendront très tardivement. Or, c’est généralement à ce stade que l’on s’aperçoit des problèmes et que les plus grosses dérives de coûts et de délais se produisent.

Dans le cas du programme Deepwater pour les Coast Guards, le client a repris en main les tâches de LSI et rétrogradé l’alliance Lockheed-Martin/Northrop-Grumman qui avait rencontré de gros problèmes techniques sur les navires développés.

Le Congrès pousse à ce que le client public retrouve son rôle de leader – et redéveloppe les compétences techniques et managériales pour pouvoir le faire – et veut faire cesser les contrats LSI avec les entreprises privées.

3. L’ATM en Europe

L’ATM est un système de systèmes. Plusieurs points le font évoluer vers les systèmes conçus dans le domaine militaire.

• les systèmes vont être plus distribués qu’ils ne l’étaient. Notamment, de nouvelles relations vont s’instaurer entre les systèmes embarqués dans les avions et les systèmes au sol.

• un système de communication, de partage de l’information, va faire évoluer les concepts d’opération et conduire à des décisions partagées.

• il est difficile d’identifier un architecte unique pour développer cet ensemble de systèmes de systèmes. Il faut un arrangement institutionnel permettant à plusieurs acteurs ayant des compétences complémentaires de se coordonner.

• les conditions du partenariat entre privé et public doivent alors être précisées en prêtant une attention particulière aux phénomènes de dépendance et de déséquilibre de compétences.

• le développement du système de système doit se faire en combinant au mieux concurrence et coopération, en organisant la coopétition.

References

Biggs Timothy J. & Stuchell Raymond V. (2003) « Capability-based acquisition: key factor in meeting 21st century threats: restructured missile defense agency steps up to the challenge - Best Practices » Program Manager,  Sept-Dec., pp. 22-28.

DeLaurentis Dan & Robert K. "CAB" Callaway (2004) « A System-of-Systems Perspective for Public Policy Decisions ». Review of Policy Research, vol. 21, n° 6, November, pp. 829–837

Depeyre Colette & Dumez Hervé (2008) « Le rôle architectural du client dans la coopétition. Un essai de typologie des processus coopétitifs dans l’industrie de défense américaine. » Nice, colloque de l’AIMS, 29 mai.

Dombrowski Peter J., Gholz Eugene & Ross Andrew L. (2002) Military Transformation and the Defense Industry after Next : The Defense Industrial Implications of Network-Centric Warfare. Newport (RI), Strategic Research Department Center for Naval Warfare Studies U.S. Naval War College. September.

Schilling Melissa A. & Paparone Christopher (2005) Modularity : an Application of

- 42 -

General Systems Theory to Military Force Development. » Defense Acquisition Review Journal, August/November, pp. 279-293.

United Sates Air Force Scientific Advisory Board (2005) Report on System-of-Systems Engineering for Air Force Capability Development. SAB-TR-05-04, July.

- 43 -

Annexe 2

La stratégie entrepreneuriale de Boeing dans l’ATM

- 44 -

Introduction

Comme l’a noté Casson, « […] theories that neglect the entrepreneurial dimension can offer only a partial explanation of the behaviour of the firm. » (Casson, 2000, p. 116). Or, du fait notamment de la modélisation qui a du mal à rendre compte de l’imprévisible, du non-défini, les théories le plus souvent mises en avant passent à côté de cette dimension, comme l’avait dit Baumol dans une image célèbre : « The theoretical firm is entrepreneurless – the Prince of Danemark has been expunged from the discussion of Hamlet. » (Baumol, 1968, p. 66).Les choses semblent pourtant changer. Des travaux se sont précisément centrés sur la dimension entrepreneuriale du comportement des firmes, sur les stratégies entrepreneuriales. Néanmoins, de nombreux problèmes théoriques subsistent. Les définitions sont souvent assez vagues, comme par exemple celle-ci, figurant dans l’introduction à un numéro spécial sur le strategic entrepreneurship : « Strategic entrepreneurship is entrepreneurial action with a strategic perspective. » (Hitt et alii, 2001, p. 480). Un courant de recherche a tenté de relier la stratégie entrepreneuriale avec de l’innovation breakthrough. Mais alors que Schumpeter avait essayé de casser le lien entre innovation entrepreneuriale et technologie, ces travaux ont tendance à recréer ce lien en définissant les breakthrough innovations comme : « [...] those foundational inventions that serve as the basis for many subsequent technological developments » (Ahuja & Lampert, 2001, p. 523).Pour analyser les stratégies entrepreneuriales, il paraît intéressant de faire un retour historique et théorique sur les théories de l’entrepreneur et de l’entrepreneurship pour identifier les points clefs dans ces différentes théories. Pour la vision historique, on peut s’appuyer notamment sur Hébert & Link (1988), Elkjaer (1991), Van Praag (1999), Casson (2005a & 2005b). Lorsque l’on reprend les analyses théoriques de l’entrepreneur, on constate qu’elles sont diverses et qu’elles renvoient à six dimensions principales : l’entrepreneur comme fonction abstraite, comme figure concrète, comme nœud de relations, comme type de stratégie, comme pris dans une temporalité spécifique et comme pouvant avoir des formes de succès diverses. A partir de ces dimensions, des propositions peuvent être formulées à propos des stratégies entrepreneuriales, qui peuvent être ensuite discutées sur une analyse de cas.Dans une première partie, constituant donc un retour sur la tradition analytique centrée sur le concept d’entrepreneur, l’article posera, à partir des six dimensions identifiées, six propositions susceptibles d’être discutées sur une étude de cas.La partie suivante sera consacrée à la méthodologie. Elle montrera l’intérêt d’une étude de cas pour discuter les propositions formulées et précisera la manière dont un cas a été choisi, la stratégie entrepreneuriale de Boeing dans l’air traffic management (ATM).La troisième partie sera consacrée à l’étude de cas proprement dite. Au début des années 2000, Boeing a voulu bouleverser le secteur de l’air traffic management traditionnellement organisé autour de la Federal Aviation Authority (FAA) et de ses fournisseurs, Lockheed-Martin et Raytheon. Quelques années plus tard, cette stratégie a été mise en sommeil.La dernière partie sera consacrée à la discussion des propositions théoriques à la lumière de l’étude de cas, avant la conclusion.

Retour sur la théorie de l’entrepreneur et formulation de propositions

Le concept d’entrepreneur est apparu à la fin du XVIIIème siècle. Il a connu depuis des développements multiples, plus riches que les seules analyses de Schumpeter qui sont le plus souvent citées, et qui peuvent être regroupés autour de six grandes thématiques : l’entrepreneur comme fonction, comme figure, comme position relationnelle, comme lié à un certain type de stratégie, comme opérant dans le cadre d’une temporalité spécifique, comme connaissant des résultats (outcomes) souvent complexes à évaluer.C’est Cantillon qui, dans un ouvrage paru après sa mort, en 1755, fait de la notion d’entrepreneur un concept. Plus précisément, Cantillon ouvre la voie à la tradition française de l’analyse de l’entrepreneur comme fonction (Elkjaer, 1991). Pour lui en effet, il y a différentes fonctions dans l’économie et toutes sauf une, celle de

- 45 -

l’entrepreneur, jouent sur des données fixes (salaires agricoles, rentes). L’entrepreneur est celui qui assume la fonction d’arbitrage dans un contexte d’incertitude, de porteur de risque. Pour Jean-Baptiste Say, dans la même tradition, l’entrepreneur porte le risque, en levant des fonds ou en risquant les siens propres, mais il a aussi une fonction de coordination des activités dans la firme et sur le marché. C’est ensuite avec Walras que l’entrepreneur est posé le plus clairement comme une fonction abstraite, celle de la coordination et de la combinaison des facteurs de production. Mais la mathématisation en fait une fonction paradoxale  puisque, à l’équilibre, l’entrepreneur ne fait aucun profit, comme s’il était impossible de faire une place réelle à l’entrepreneur dans une théorie mathématisée du marché (Baumol, 1968).

Proposition 1. L’entrepreneur assume un risque. Soit en auto-finançant son projet, soit en le faisant financer par d’autres. L’analyse d’une stratégie entrepreneuriale doit être capable de spécifier ce risque, qui repose souvent sur un « slack of resources » (Ahuja & Lampert, 2001).

Dans une tradition plus anglo-saxonne, l’entrepreneur est plutôt vu comme une figure. Cette figure peut être individuelle ou organisationnelle. Comme figure individuelle, l’entrepreneur a été étudié par la psychologie sociale depuis McLelland (1961) qui fait du n-achievement, le need for achievement, sa motivation fondamentale, avant l’argent ou le pouvoir. De nombreuses études de sociologie ont complété l’analyse de cette figure (pour une synthèse, voir Thornton, 1999). Mais la figure de l’entrepreneur a été également vue comme organisationnelle et on a cherché à caractériser la firme entrepreneuriale en tant qu’organisation. Ce fut le cas de Schumpeter lui-même, qui s’est interrogé sur le profil d’un tel type de firme. Dans The theory of economic development (1912), il estime que l’innovation est essentiellement assurée par des firmes nouvelles. Dans Business cycles (1939), l’innovation est surtout le fait de grandes entreprises en monopole qui cherchent à bloquer la concurrence. Miller (1983, p. 771) a quant à lui proposé la définition suivante : « An entrepreneurial firm is one that engages in product-market innovation, undertakes somewhat risky ventures, and is first to come up with “proactive“ innovations, beating competitors to the punch. » Mais, surtout, Miller a essayé de caractériser l’activité entrepreneuriale de la firme (« entrepreneurial activity of the firm ») en la mettant en relation avec une typologie des profils de firmes : simple firms, planning firms et organic firms. On aurait donc une relation entre des figures différentes de firmes et des activités entrepreneuriales de différentes natures. Dans les simple firms, l’activité entrepreneuriale est directement liée à la personnalité du dirigeant, c’est moins le cas dans les planning firms ou les organic firms. Plus récemment, Van Praag & Versloot, (2007, p. 353) ont proposé une nouvelle définition de la firme entrepreneuriale : « Entrepreneurial firms are defined as firms that satisfy one of the following conditions: (i) They employ fewer than 100 employees; (ii) They are younger than 7 years old; (iii) They are new entrants into the market. » Cette définition exclut les incumbents qui peuvent avoir dans certaines conditions une stratégie entrepreneuriale. Plutôt que d’aborder la question sous la forme d’une opposition dichotomique entre des firmes entrepreneuriales par nature et d’autres qui ne le sont pas, ou selon une typologie, certains auteurs voient la question de l’entrepreneuriat comme un continuum d’entrepreneurial intensity allant de higly conservative firms à des firms highly entrepreneurial (Barringer & Bluedorn, 1999).

Proposition 2. La figure de l’entrepreneur peut être individuelle ou organisationnelle, dans ce dernier cas, la stratégie entrepreneuriale peut être le fait aussi bien d’un nouvel entrant que d’une firme installée ou même dominante.

En vieux français, « entreprendre » a le sens de séduire une femme avec l’idée d’une attaque (Marschesnay, 2008). La dimension relationnelle de l’acte d’entreprendre est donc présente dans le mot même, et elle est ambivalente. On la retrouve dans la théorie, où les auteurs insistent sur la capacité de l’entrepreneur à convaincre les autres, et sur sa capacité à les bousculer. Chez Jean-Baptiste Say, l’entrepreneur doit jouir d’une réputation pour pouvoir lever des fonds : il doit convaincre. Pour Marshall, il est un

- 46 -

« natural leader of men » et pour Knight il doit pouvoir disposer d’un « power of effective control over other men » (Knight, 1971, p. 269). « He must lead, even inspire » (Baumol, 1968, p. 65). Mais, en même temps, d’autres auteurs insistent sur le fait que l’entrepreneur doit “be strong enough to swim against the tide of the society in which he is living“ (Heertje, 1982, p. 86, Heertje reprenant ici Schumpeter). On retrouve donc chez les théoriciens de l’entrepreneur les deux composantes de la coopétition, l’articulation entre coopération et affrontement. Cette dimension relationnelle peut être mise en relation avec la position de l’entrepreneur dans le champ. Pour les entrepreneurs individuels, cette position relève d’une analyse sociologique. Pour les firmes qui développent une stratégie entrepreneuriale, l’analyse de cette stratégie doit être liée à celle de la position de la firme dans le champ organisationnel1. Traditionnellement, on estime que les stratégies entrepreneuriales, venant bousculer les marchés établis, étaient plutôt le fait de nouveaux entrants. Mais d’autres recherches (Methé et alii, 1997 ; Ahuja & Lampert, 2001 ; Depeyre & Dumez, 2009) ont montré que des firmes dominantes pouvaient elles aussi avoir des stratégies entrepreneuriales. Or, ces firmes dominantes, par définition, occupent une position dans un champ organisationnel. Ce sont surtout Greenwood & Suddaby (2006) qui ont mis en relation la possibilité pour une firme dominante de développer des stratégies entrepreneuriales avec sa position dans un champ organisationnel. En effet, un entrepreneur doit être placé face à une structure d’opportunités (Glade, 1967 ; Miller, 1983 ; Thornton, 1999 ; Shane & Venkataraman, 2000). Plus précisément, une firme dominante située à l’intersection de plusieurs champs organisationnels peut développer des stratégies entrepreneuriales qui bouleversent un des champs. Deux effets jouent dans ce cas. D’une part, ces firmes bénéficient d’un « superior access to information » (Casson, 2005b, p. 345), elle sont en position de « boundary bridging » (Greenwood & Suddaby, 2006). D’autre part, les firmes en position d’être à l’intersection de plusieurs champs ont moins à craindre de stratégie de rétorsion si elles adoptent une stratégie entrepreneuriale bouleversant un des champs sur lesquels elles sont présentes si leurs concurrentes dans ce champ ne sont pas présentes elles aussi sur les autres champs. Ceci rejoint la notion de market commonality (Chen, 1996 ; McGrath et alii, 1998). Les firmes qui ont peu de market commonality avec leurs concurrents ont plus d’opportunités d’innovation par transfert d’une pratique d’un marché à un autre et moins de risque de rétorsion concurrentielle que les concurrents qui sont spécialisés sur un seul marché ou sur les mêmes marchés.

Proposition 3 : Les stratégies entrepreneuriales supposent une position particulière de la firme à l’intersection de champs organisationnels divers. Elles reposent souvent sur une analogie (une pratique empruntée à un champ est transposée dans un autre). La stratégie entrepreneuriale d’une firme en position de développer une telle stratégie crée une grande incertitude dans le champ organisationnel où elle a lieu et bouleverse les relations de concurrence et de coopération.

Le contenu de la stratégie développée par l’entrepreneur a été, surtout depuis Schumpeter, identifié comme étant l’innovation, celle-ci conçue comme une rupture 1 Pour comprendre les stratégies des firmes et particulièrement les stratégies entrepreneuriales, il faut mobiliser de manière conjointe les notions de champ organisationnel et de marché. Citant Richard Scott, Greenwood & Suddabby définissent ainsi le champ organisationnel : « Organizational fields are clusters of organizations and occupations whose boundaries, identities, and interactions are defined and stabilized by shared institutional logics » (Greenwood & Suddabby, 2006, p. 28). Il y a un lien entre champs organisationnels et marchés. Les marchés s’institutionnalisent souvent au fil du temps et se stabilisent en lien avec un champ organisationnel défini. Mais l’apparition d’un nouvel entrant peut changer le champ organisationnel alors que le marché demeure à peu près identique. A l’inverse, un acteur d’un champ organisationnel peut chercher à créer un nouveau marché (stratégie entrepreneuriale), qui à terme fera évoluer le champ organisationnel. Champs organisationnels et marchés évoluent donc de manière dialectique.

- 47 -

(breakthrough). Schumpeter avait pris soin de préciser que cette rupture n’était pas forcément liée à la technologie, mais pouvait intervenir sur d’autres plans (comme un nouvelle forme d’organisation). Mais, on l’a vu, beaucoup de travaux continuent à mettre la technologie au premier plan. Say avait mis l’accent sur la création de valeur par l’entrepreneur. Baumol a distingué très nettement les stratégies de création de valeur du manager de celles de l’entrepreneur : « We may define the manager to be the individual who oversees the ongoing efficiency of continuing processes [...]« The preceding description is not intended to denigrate the importance of managerial activity or to imply that it is without significant difficulties. Carl Kaysen has remarked that in pratice most firms no doubt find themselves in a position well inside their production possibility loci and one of their most challenging tasks is to find ways of approaching those loci more closely ; i.e., of increasing their efficiency even within the limits of known technology. This is presumably part of the job of the manager who is constantly on the lookout for means to save a little here and to squeeze a bit more there. » (Baumol, 1968, pp. 64-65). Le manager fait évoluer les routines de l’entreprise pour maximiser la valeur. La stratégie entrepreneuriale sort des routines en place et cherche de nouveaux modes de création de valeur. Elles le font, et ceci est le contenu le plus important des stratégies entrepreneuriales, en créant un nouveau marché : « Radical forms of market-making entrepreneurship, however, involve designing products or specifying services that did not previously exist and for which there was, therefore, no market. In the absence of the entrepreneur, therefore, it is not the case that markets would be merely out of the equilibrium, as the Austrian view suggests, but that markets would not exist at all. » (Casson, 2005b, p. 336). On touche là au cœur même de la nature même des firmes : « Firms exist because of the ability to create and co-create markets, which allow them to realize their objective of capturing value out of their appropriable advantages and (dynamic) capabilities. » (Pitelis & Teece, 2009, p. 11). La création d’un marché comme dimension fondamentale des stratégies entrepreneuriales ne doit pas être conçue de manière minimale (la création d’un produit nouveau qui représente la création d’un nouveau segment de marché) ou métaphorique. Si une stratégie entrepreneuriale consiste à créer un marché, la firme doit réfléchir aux concurrents qu’elle doit faire venir sur le marché pour qu’il puisse se développer : il faut coopérer avec eux pour que les stratégies collectives permettent de développer le marché et les affronter concurrentiellement pour capter une part suffisante de la valeur créée. Le phénomène de la coopétition est alors au cœur même de la stratégie entrepreneuriale.

Proposition 4 : le contenu d’une stratégie entrepreneuriale est la création d’un marché. L’analyse doit porter sur ce qu’est une stratégie de ce type, notamment en termes de coopétition : une firme qui crée un marché doit coopérer avec ses concurrents pour définir le marché et le faire fonctionner, en même temps qu’elle les affronte sur le marché pour capter une part de la valeur. La stratégie entrepreneuriale d’une firme qui crée un marché doit comporter un élément d’auto-restriction, la firme devant choisir de s’abstenir de faire certaines choses. [ce dernier point est sans doute plutôt à présenter comme résultat – HD]

Il a été souligné que la temporalité de l’action entrepreneuriale était de nature particulière. Schumpeter parle de « discontinuous change » (Schumpeter, 1912, p. 64). Ce discontinuous change peu s’interpréter en termes de cristallisation au sens de Arendt (1951). Mais, surtout, les stratégies entrepreneuriales se développent rapidement et déclinent tout aussi rapidement : « The systematic promotion of optimism explains many of the human resource management practices characteristic of entrepreneurial firms. It also explains why firms find it difficult to operate in a steady state; they either grow in an atmosphere of optimism or decline sharply in an atmosphere of pessimism. A switch to pessimism is precipitated when the entrepreneur loses credibility as a consequence of an adverse change in conditions that he cannot explain. » (Casson, 2005b, p. 343). Cette temporalité, rapide, prise dans un mouvement accéléré soit dans le sens du succès, soit dans le sens de l’échec, est à mettre en relation avec un effet de cercle vertueux dans le premier cas, et de cercle vicieux dans le second : « The virtuous circle argument would

- 48 -

suggest that although many firms would like to pursue such strategies they are unable to do so. This inability stems from their exclusion from a virtuous cycle in which (a) the pursuit of novel, emerging, and pioneering technologies leads to breakthrough inventions, (b) breakthrough inventions when they occur, create wealth and surplus resources, and (c) these surplus resources fund the next cycle of entrepreneurial experimentation, which in turn leads to more breakthrough inventions. » (Ahuja & Lampert, 2001, p. 540).

Proposition 5 : les stratégies entrepreneuriales se développent dans une temporalité particulière (succès et/ou échec rapides, cristallisation).

On pourrait alors penser que le résultat des stratégies entrepreneuriales est facile à évaluer : soit elles réussissent, rapidement et de manière éclatante, soit elles échouent, exactement de la même manière. En réalité, l’évaluation des résultats (outcomes) est beaucoup plus complexe. Il faut en effet distinguer les résultats pour l’entreprise qui a suivi la stratégie entrepreneuriale, pour le marché qu’elle a créé (elle peut avoir créé un marché qui fonctionne bien et produit de la valeur sans avoir réussi, quant à elle, à capter une part substantielle de cette valeur) et pour la société en général. La nature des résultats est elle-même difficile à définir. Ils peuvent être en effet « positive or negative, immediate or long term, or tangible or intangible. » (Zahra & Dess, 2001, p. 9).

Proposition 6 : Il est difficile d’évaluer une stratégie entrepreneuriale. Les résultats peuvent être de court ou de long terme, tangibles ou intangibles, profitables pour certains acteurs et pas pour d’autres.

Il reste maintenant à tester ces propositions. La démarche adoptée pour ce test est celle de l’étude de cas.

Méthodologie

Pour étudier les stratégies entrepreneuriales, la méthodologie est celle de l’étude de cas. L’aspect dynamique du phénomène étudié justifie le choix d’une telle méthodologie (Ragin & Becker, 1992 ; Yin, 2002) : il s’agit en effet de comprendre les origines et le déploiement d’une stratégie entrepreneuriale. La présentation du cas est narrative, cherchant à articuler les actions et les discours des acteurs, dans une dimension d’interaction stratégique (Dumez & Jeunemaître, 2006).Le cas a été choisi selon deux critères : une grande firme développant une stratégie entrepreneuriale sans création d’un nouveau produit (ce dernier point, pour ne pas lier mécaniquement stratégie entrepreneuriale avec innovation de produit ou innovation technologique).Le cas sélectionné est celui de Boeing développant une stratégie présentée comme révolutionnaire dans le secteur de l’Air Traffic Management entre 2000 et 2004.Les données viennent de deux sources. D’une part, l’analyse de la presse spécialisée (mainly : Aviation Week and Space Technology, Assembly, Interavia Business & Technology, Avionics Magazine, Business & Commercial Aviation). D’autre part une série d’entretiens menés auprès des acteurs du champ en plein déploiement de la stratégie de Boeing (Airbus, Boeing, Eurocontrol, Federal Aviation Authorithy, Lockheed Martin, Raytheon, Thales). Ces entretiens étaient semi-directifs, ont duré de deux à trois heures, et étaient à visée théorique, cherchant à établir quels étaient les modèles de représentation de la stratégie des acteurs et à tester les modèles développés par les acteurs (Piore, 2006).Enfin, deux des auteurs ont participé à des études pour la European Commission (2001, 2003) et Eurocontrol (1998, 2003, 2006, 2008) sur les problèmes de l’évolution de l’air traffic management (ATM).

Présentation du cas

- 49 -

Le 6 juin 2001, la Federal Aviation Authority annonce un plan destiné à moderniser l’Air Traffic Management aux États-Unis dans les dix prochaines années.La capacité ATM est fortement contrainte par le fait que les contrôleurs et les pilotes continuent de discuter par radio, par le fait que les avions suivent des routes en se positionnant par rapport à un réseau de balises au sol, qu’un contrôleur ne peut contrôler en même temps qu’une quinzaine d’avions dans une portion d’espace – le secteur – en essayant de prévenir les conflits de trajectoire et que les avions doivent passer d’un secteur à l’autre en changeant à chaque fois de contrôleur par liaison radio. Le plan est de 11,5 milliards de dollars et vise à accroître la capacité de 30%. A cette époque, les deux fournisseurs traditionnels de systèmes pour la FAA, Lockheed-Martin et Raytheon, travaillent également à des systèmes tentant de combiner les équipements au sol et les liaisons satellites.Le même jour, le 6 juin, mais quelques heures plus tard, Boeing convoque les journalistes et annonce un plan destiné à révolutionner l’ATM.

What Boeing didEn novembre 2000, Boeing crée une entité Boeing ATM dont le personnel va être multiplié par six en deux ans, passant de 40 personnes à sa création à 250 en 2002, la moitié étant des ingénieurs. Ces ingénieurs viennent d’abord de programmes en décroissance au sein de la firme (le Joint Strike Fighter, le Space Shuttle) [slack of resources], auxquels viennent s’ajouter des spécialistes de l’ATM embauchés à l’extérieur de Boeing [investissement et prise de risque]. Cette filiale va chercher à obtenir des contrats – et en obtiendra – mais sans parvenir à couvrir ses coûts – et de loin –. Il s’agit donc d’un fort investissement de la part de Boeing. Auparavant, Boeing a procédé à deux achats liés directement à l’ATM : The Preston Group en septembre 1999, qui fait de la modélisation de trafic aérien (computer-generated air traffic modeler) et Jeppesen en octobre 2000 qui aide les compagnies aériennes à planifier les vols (flight data planner). Les deux ont une compétence très spécialisée qu’aucune autre firme ne détient.Surtout, en 2000 toujours, Boeing a racheté Hughes. Hughes a, à cette date, construit 40% des satellites de communications en activité dans le monde et is the technological world leader in space based communications, reconnaissance, surveillance and imaging systems. Cette acquisition fait grossir d’un tiers la division space and communications qui atteint alors $10 billions de CA. C’est à cette division que Boeing ATM est rattachée.En même temps que Boeing crée Boeing ATM, elle crée Connexions by Boeing et Boeing Capital Corporation (BCC). BCC, fondée sur le modèle de GE Capital, doit se spécialiser dans le financement de satellites et, plus généralement, dans la proposition aux administrations de partenariats public-privé. Connexions by Boeing doit proposer aux compagnies aériennes l’Internet haut débit dans les avions (the new service to provide high-speed Internet and entertainment services to airliners in flight).

What Boeing saidLe discours de Boeing autour de cette stratégie est le suivant. Le principal pilier de l’activité de Boeing (en 2000, 31,2 billions de dollars, soit 61% du CA) est l’aviation commerciale. Mais les prévisions pour cette activité sont relativement décevantes – de l’ordre de 4 à 5% de croissance pour les dix prochaines années. L’un des blocages réside dans l’ATM qui constitue un goulet d’étranglement pour l’activité : si le ciel est saturé, les ventes d’avions stagnent. Il faut à la fois que l’entreprise essaie de tout faire pour une amélioration de l’ATM et qu’elle trouve des relais de croissance. Les prévisions de croissance pour le domaine spatial et particulièrement les satellites sont de l’ordre de 15% pour les dix prochaines années. Or, l’amélioration de l’ATM passe par les satellites, à la fois pour le positionnement des avions, leur surveillance, et pour les communications entre les avions entre eux et les avions et le sol.Par ailleurs, dans la période qui a précédé, Boeing a mené à bien un des projets les plus réussis de l’histoire de l’aviation, le 777. Ce projet a combiné un travail sur les besoins des clients (les compagnies aériennes) pour définir les requirements de l’avion ; l’utilisation de moyens de simulation et de modélisation puisque l’avion a été conçu par l’informatique ; l’association des fournisseurs de sous-systèmes au projet très en amont.

- 50 -

La méthode a été labellisée comme le Working Together Team (SP Benson, 1994 ; 1995 ; 1996). Alors que les fournisseurs traditionnels de systèmes ATM ont une logique de vente au gouvernement de « turnkey systems », Boeing estime savoir partir d’un travail sur les besoins du client pour définir les requirements des grands systèmes et concevoir des choses plus performantes et nouvelles.De manière liée, mais néanmoins indépendante, Boeing estime que, dans l’ATM comme cela se passe aussi dans le militaire, la période se caractérise par le passage des systèmes aux systèmes de systèmes. Dans le militaire, il ne faut plus concevoir des avions, des missiles, des chars, des navires, mais des réseaux dans lesquels ces différentes plates-formes constituent des nœuds qui échangent de l’information et se coordonnent avec les autres pour réaliser des missions complexes. Dans l’aviation civile, de la même manière, il ne faut plus concevoir l’avion comme un système et l’ATM comme un autre système, mais l’avion et l’ATM comme un système de système dans lequel l’avion doit être plus autonome et dans lequel l’information doit donc être partagée, échangée, avec une autonomie de décision permettant les adaptations les plus performantes. La complexité de tels systèmes de systèmes dépasse généralement le client, qu’il soit civil ou militaire. Seul un acteur disposant de l‘expérience de la conception de tels systèmes, de moyens de simulation et de modélisation puissants, peut aider le client à formuler son besoin.Les échanges et le traitement de l’information sont centraux dans les systèmes de systèmes et leur support passe par les satellites, une activité dans laquelle Boeing s’est renforcée en rachetant Hughes. Par ailleurs, Boeing a acquis des compétences clefs, très spécialisées, dans l’ATM en rachetant Jeppesen et The Preston Group.Boeing insiste donc sur l’idée que le jeu traditionnel FAA/Lockheed-Martin et Raytheon doit être dépassé et sur le fait qu’elle a les compétences pour être le coordinateur de ce dépassement, tout en ayant l’indépendance requise par rapport au jeu existant.Enfin, depuis des années s’est imposée l’idée que la valeur était passée des systèmes techniques proprement dit aux services. Les firmes qui gagnent le plus d’argent sont celles qui offrent des solutions aux clients plutôt que de leur vendre des systèmes (Cova & Salle, 2008). Le modèle est ici General Electric qui ne vend pas des réacteurs aux compagnies aériennes mais un service financier par le biais de sa filiale GE Capital et une maintenance durant la durée de vie des réacteurs et tire la plus grande source de ses revenus de ces services et non pas de la vente de réacteurs en elle-même.Tous ces éléments sont indépendants et en partie hétérogènes, quoiqu’il existe des liens. Dans les discours tenus par Boeing, on voit bien se dégager l’idée que Boeing ne cherche pas à vendre des systèmes au client, mais à discuter avec lui pour lui faire préciser son besoin réel, puis à définir une solution qui est un système combinant d’autres systèmes avec une dimension services. Cette idée peut se décliner dans des domaines divers. Les dirigeants de Boeing parlent en effet d’une « business transformation strategy », through which the company has diversified from passenger aircraft into defence, space, communications, air traffic management and financial services. On a donc un processus qui ressemble à ce que Hannah Arendt (1951) appelle cristallisation : des éléments indépendants et hétérogènes se rencontrent et cristallisent pour former quelque chose qui apparaît radicalement nouveau.

What Boeing didn’t sayBoeing met en avant que sa démarche est, en un sens, désintéressée : la firme n’a pas d’intérêt propre dans l’ATM, son seul objectif est de faire sauter un goulet d’étranglement qui freine son activité principale, la vente d’avions commerciaux. Boeing insiste également sur l’importance des satellites dans son projet. La révolution dans l’ATM passe par l’abandon des systèmes au sol et non par une combinaison des systèmes au sol et des satellites comme dans les solutions sur lesquelles travaillent à l’époque Lockheed-Martin et Raytheon. Et Boeing précise : il faut un degré de précision supérieur à celui du GPS, donc un nouveau type de satellites. Mais ce qui frappe les acteurs du champ organisationnel de l’ATM est à la fois l’ampleur de l’investissement (une unité de 250 personnes dont la moitié d’ingénieurs) et l’absence de tout business model pour assurer le retour sur cet investissement. La vente de satellites en elle-même ne devrait pas permettre de couvrir l’investissement réalisé ; l’amélioration de l’ATM

- 51 -

n’aura des effets qu’à très long terme, très incertains, sur la relance des ventes d’avions commerciaux et, par ailleurs, profitera en même temps au concurrent principal de Boeing en ce domaine, Airbus. Quand on interroge le président de Boeing ATM, John Hayhurst, il répond que the firm’s “sole aim is to reduce the impact of gridlock in the skies, which could seriously threaten aircraft sales”. Et he stresses that Boeing is not interested in either owning or operating the system, and is examining several third party operating options (SP Bois, 2001). Interrogé sur le financement du projet, Hyhurst ne répond pas : “Hayhurst would not comment on Boeing's business model for the venture or who would pay for the satellites, only that Boeing is considering alternative business concepts to the usual “turnkey” systems that are generally provided to the government. He said Boeing was not planning on becoming the owner/operator of the system, but eventually the company would be looking for help on costs.” (SP, Croft, 2001). Boeing décroche des contrats avec la FAA, en collaboration avec Lockheed-Martin (En-Route Automation Management), avec la NASA. Mais ces contrats ne couvrent évidemment pas la mise de fond initiale, en pleine croissance puisque Boeing ATM passe de 100 à 250 personnes en deux ans.Les acteurs de l’industrie regardent ce que Boeing fait, ce que Boeing dit et ne dit pas, et sont plongés dans une profonde incertitude sur la stratégie de la firme. Un article du début 2002 (SP Jensen, 2002) résume bien la situation du champ organisationnel. Il souligne que la stratégie de Boeing apparaît, par rapport à ses autres activités, “broader in scope” et que les autres acteurs sont “probably curious” et, pour beaucoup, “no doubt suspicious”. Or, Boeing ATM “has been advancing aggressively”. Officiellement, “the company’s main motive is quite simple and understandable–to grow. » La démarche a un côté "Don Quixote-like" et la question se pose, « Is Boeing chasing windmills? ». L’article confronte les questions que se posent les autres acteurs : Does it want to build a satellite network now that it has acquired Hughes Communications? Or is its intent to become the world’s dominant air traffic services provider? » à la forme de non réponse donnée par les dirigeants de Boeing : « "We’re not trying to sell satellites [and] we don’t want to manage a worldwide ATM system; that would probably be done by three or four major air traffic service providers," [Matt Vance, WTT manager] adds, addressing suspicions of Boeing ATM’s motives. "We’re more like ‘enablers.’" » Et l’article conclut : « In other words, the company is using its clout in an attempt to facilitate an industry-wide effort. » L’article souligne le dilemna que rencontre une firme comme Boeing lorsqu’elle développe ce type de stratégie : « It is large enough to capture industry attention, but attention laced with suspicion. »Les entretiens menés auprès des acteurs de l’industrie en 2002 confirment la situation. Les acteurs du champ organisationnel (on ne peut pas parler de « concurrents » puisque Boeing ne s’affiche comme concurrent de personne et se situe sur un plan sur lequel il n’y a pas concurrence « enabler ») sont profondément troublés par la stratégie de Boeing parce qu’ils ne voient pas une intention claire se dégager.En privé, les dirigeants de Boeing expliquent que le business case ne sera jamais bouclé. Il faudra évidemment un investissement de la part de l’Êtat, et ils citent le réseau autoroutier : la majeure partie du réseau a été financée par l’État et est gratuite, mais une partie du réseau a été financée par le privé et est payante.

Le déploiement de la stratégieLa stratégie de Boeing va se concrétiser autour du Working Together Team consacré à l’ATM.Il s’agit pour Boeing de faire que les acteurs, dans un premier temps, définissent ensemble, de manière inventive, les requirements du système. Boeing identifie plusieurs cercles. Le premier est constitué par la FAA, Eurocontrol, le Department of Defense, la NASA. Eurocontrol, l’organisme européen en charge de coordonner l’ATM sur le vieux continent, est invité à participer pour une raison évidente : s’il faut concevoir des systèmes embarqués dans les avions, il faut que ces systèmes soient compatibles avec les systèmes au sol installés partout dans le monde. Le DoD est là pour les aspects de sécurité et pour la coordination entre le trafic militaire et le trafic civil. La NASA, parce qu’il y a un aspect satellites et que cette organisation fait de la recherche sur tous les systèmes aériens avancés. Mais il s’agit surtout pour Boeing de marginaliser la FAA.

- 52 -

Dans le jeu traditionnel, la FAA est le client et c’est elle qui définit les requirements pour les systèmes, en position de monopsone. Boeing estime qu’elle a connu plusieurs échecs dans ce rôle alors que le DoD, par exemple, a l’expérience de la conduite réussie de très grands systèmes. La coopération avec Eurocontrol, la NASA, le DoD est une forme d’agression à l’égard de la FAA qui, dans le dispositif, perd sa position de monopole pour se trouver à quasi-égalité avec d’autres acteurs. Le deuxième cercle est constitué de Lockheed-Martin, Raytheon et Thales. Ce sont les grands fournisseurs traditionnels des systèmes ATM. Leur rapport avec Boeing est ambigu. Ils ne risquent rien à court et moyen terme. Ils savent qu’ils ne pouvaient pas occuper la place de Boeing. Ils n’ont pas les atouts politiques de Boeing, sans doute pas les moyens de simulation et de modeling, et ils n’ont pas l’expérience de ce type de démarche. Boeing s’efforce de coopérer avec eux, et est par exemple partenaire du contrat de Lockheed sur l’ERAM (en-route automation management) pour la partie modeling. Le troisième cercle est constitué des stakeholders, l’on y trouve des compagnies aériennes et les représentants des contrôleurs (très méfiants car craignant que Boeing ne cherche à privatiser l’ATM).Boeing réussit donc à mettre autour de la table l’ensemble des acteurs du champ organisationnel de l’ATM, tel que la firme le conçoit (c’est-à-dire le champ organisationnel élargi par sa stratégie à des acteurs qui n’en faisaient traditionnellement pas partie). Il faut ensuite produire un résultat. En juin 2001 sort le document qui précise les requirements pour le système futur (Boeing, 2001) et les grands concepts sur lesquels il doit reposer. Le groupe a travaillé mais, en parallèle, sans lien direct avec la réflexion des participants au groupe, les équipes de Boeing ATM ont nourri le document pour s’assurer que les choses avancent. Certains participants refuseront d’endosser le contenu du document et Boeing ne pourra pas le présenter comme produit par le WTT.Si elle est centrée sur le WTT, la stratégie de Boeing ne s’y réduit pas. Des contacts ont lieu entre le CEO et les responsables politiques, et Boeing, comme il a été dit, décroche une série de contrats, seul ou en partenariat. Ces contrats permettent à Boeing d’acquérir des connaissances sur le domaine, de forcer certains acteurs à dialoguer avec elle, de nouer des partenariats, et l’imposent surtout comme un acteur reconnu du champ.

Fin de partiePar un statement du 4 mars 2004, les dirigeants de Boeing annoncent que Boeing ATM est dissoute. Ils expliquent que le 9/11 a entrainé une baisse de trafic qui rend moins urgente la recherche de solutions révolutionnaires. Une partie de l’équipe est reprise par Phantom Works, l’unité de R&D qui conçoit les nouveaux systèmes pour Boeing. Harry Stonecipher explique que Boeing sera prête le jour où les gouvernements se saisiront à nouveau du problème de l’ATM, ce qui ne manquera pas : "We are scaling down our investment and making an organizational change to meet current demand. When governments are ready to build an advanced air traffic management system, we will be ready to respond quickly." Il ajoute : "Our experience as a large-scale systems integrator and expertise in network-centric operations positions Boeing well to create an advanced air traffic system." D’ailleurs, Boeing continue sa pression sur les dirigeants politiques et continue à chercher à obtenir des contrats aux États-Unis et ailleurs dans le monde sur la modernisation de l’ATM.

Discussion

Il s’agit maintenant de discuter les propositions issues de la théorie sur le cas.

Proposition 1. Boeing a assumé un grand risque en développant une stratégie dans l’ATM. Ce risque a consisté à établir une entité de 250 personnes de haut niveau travaillant à perte durant plusieurs années. Le risque a été facilité par la taille du groupe Boeing et les nombreux projets qu’il développe en parallèle. Le rythme de développement des projets permet un slack of ressources (Ajuja & Lampert, 2001) qui facilite les stratégies entrepreneuriales.

- 53 -

Proposition 2. Une grande entreprise comme Boeing peut adopter des comportements entrepreneuriaux. Soit dans son champ organisationnel principal (Greenwood & Suddaby, 2006), soit dans un champ où elle est peu présente, ce qui fut le cas de Boeing pour l’ATM.

Proposition 3. La position de Boeing est particulière. Elle est la seule firme à être équilibrée dans sa répartition civil/militaire (Depeyre & Dumez, 2009). D’une part, sa market commonality avec les autres firmes est donc faible (Chen, 1996 ; McGrath et alii, 1998). Il est plus difficile de trouver avec elle des équilibres multimarchés (Baum & Korn, 1996 ; Gimeno, 1999). D’autre part, elle conduit des expériences diverses dans des domaines analogues, le développement de grands systèmes technologiques, avec une démarche qui consiste plutôt à piloter les projets et à coordonner une multitude d’acteurs, plutôt que de faire elle-même. Les domaines sont suffisamment divers (clients privés, client gouvernemental civil, client gouvernemental militaire) et suffisamment proches (coordination de grands projets à composante technologique forte) pour que l’innovation analogique soit possible et donne lieu à des stratégies entrepreneuriales. Dans le cas en cause, une démarche adoptée pour le développement d’un avion commercial, le Working Together Team, est érigée en capability générique de l’entreprise et adoptée dans un domaine nouveau. Enfin, le champ organisationnel est profondément bouleversé par la stratégie entrepreneuriale développée par la firme. Les acteurs du champ ont du mal à savoir si Boeing est un concurrent ou un partenaire avec lequel il faut coopérer. Lockheed-Martin et Raytheon, par exemple, vendent des systèmes de contrôle aérien, des centres de contrôle et des matériels terrestres, tels des radars. Boeing ne vend ni systèmes, ni matériels et n’est donc pas a priori un concurrent dans ce domaine. Boeing affiche la volonté de remplacer les matériels terrestres par des satellites, secteur dans lequel elle occupe une puissante position. Mais Lockheed Martin et Raytheon continueront à développer des systèmes de contrôle aérien et à vendre des centres de contrôle. Boeing s’assigne une place – « enabler » de l’advenue d’une révolution dans le secteur – que ni Lockheed Martin ni Raytheon ne peuvent occuper (il leur est impossible, en pratique, de « secouer » la FAA qui est leur client). Se pose par contre la question de savoir s’ils doivent coopérer avec cet « enabler ». S’ils ne le font pas, ils contribuent à faire échouer le projet, mais si le projet réussit, ils se trouvent marginalisés définitivement. S’ils participent, ils acceptent officiellement la position de sous-traitants de l’enabler. Ils vont choisir de participer tout en essayant d’orienter le processus et en le combattant parfois de l’intérieur : ils feront savoir par exemple que le document publié par Boeing (2001) n’est pas celui du WTT mais un document Boeing. Ce qui frappe dans les entretiens réalisés, c’est l’incertitude créée par la stratégie entrepreneuriale de Boeing dans le champ organisationnel. En affichant une mobilisation massive de ressources internes autour de cette stratégie et en ne dévoilant pas son business plan, Boeing inquiète tous les acteurs qui n’arrivent pas à savoir s’il s’agit d’une stratégie désintéressée à court terme visant juste à long terme à permettre de vendre plus d’avions commerciaux, s’il s’agit de développer l’activité satellites de Boeing, ou s’il s’agit d’autre chose, de vendre à terme un service ATM remplaçant celui fourni traditionnellement par la FAA.

Proposition 4. La stratégie de Boeing consiste à bousculer un marché existant (un client, la FAA, et des fournisseurs, Lockheed Martin et Raytheon) pour créer un nouveau marché, ce qui suppose d’élargir le champ organisationnel traditionnel à de nouveaux acteurs. Cette stratégie est prise dans une contradiction : Boeing se veut à la fois hors marché, organisateur de ce dernier, et acteur sur le marché. Pour développer sa stratégie de déstabilisation du marché existant, sa première action est de créer une structure concurrentielle au niveau de la demande. Dans le premier cercle du WTT, elle fait entrer notamment Eurocontrol et le Department of Defense. La FAA ne se trouve plus au centre du marché comme client unique. Et c’est Boeing qui se propose d’être une sorte de commissaire priseur walrassien facilitant la coordination de la demande entre les différents acteurs. Très clairement, Boeing agresse concurrentiellement la FAA : ce qui se voit quand elle choisit d’annoncer son plan révolutionnaire pour l’ATM le

- 54 -

jour même où la FAA expose devant les journalistes son Operation Evolution Plan (OEP). Par contre, Boeing prend soin de ne pas paraître comme un concurrent frontal de Lockheed Martin et de Raytheon, mais affiche au contraire sa volonté de coopérer avec eux, par exemple dans les contrats. Boeing développe donc un cadre de coopétition dans lequel il affronte concurrentiellement certains acteurs clefs dans le fonctionnement actuel du marché, cet affrontement concurrentiel étant ambigu et pouvant être une manière de forcer la coopération – la FAA – et dans lequel il affiche une volonté de coopération avec d’autres acteurs, cette volonté de coopération pouvant être une arme concurrentielle vis-à-vis d’autres acteurs – la coopération avec Eurocontrol ou le Department of Defense est clairement une arme concurrentielle dans l’affrontement avec la FAA. Dans la dimension coopérative, un phénomène d’auto-restriction joue. L’acteur qui veut créer un marché par une stratégie entrepreneuriale ne peut pas vouloir confisquer à son profit la totalité du marché, sous peine de voir la création du marché échouer. Il doit trouver une position intermédiaire entre l’auctioneer walrasien qui dispose d’une information parfaite à coût zéro et est totalement altruiste (Casson, 2005b) et le monopoleur. Par exemple, sur le seul marché à peu près identifié, celui des satellites, Boeing estimait que sa position d’enabler pouvait lui permettre de placer sa division satellites en bonne position, mais en coopérant avec des concurrents et donc en ne raflant pas l’ensemble du marché. Les estimations allaient de 20 à 50 satellites, pour un montant de $500 millions à $1 milliard.

Proposition 5. La stratégie entrepreneuriale de Boeing s’est inscrite dans une temporalité discontinue (le « discontinuous change » de Schumpeter). Cette discontinuité s’analyse comme une cristallisation brutale d’éléments hétérogènes. Ces éléments ont leur histoire et s’inscrivent donc dans une continuité, mais leur cristallisation produit une rupture. Dans la stratégie mise en place par Boeing, rien n’est nouveau : on parle des technologies mises en avant depuis une quinzaine d’années ; le WTT date des années 90 pour le développement du 777. Les acteurs interrogés, dans le même entretien, expliquent que rien n’est nouveau dans ce que veut faire Boeing, puis avouent qu’ils sont impressionnés précisément par le fait que des choses dont on parle depuis quinze ans peuvent devenir réalité. La stratégie elle-même se déploie entre novembre 2000 et mars 2004. La montée en puissance a été extrêmement rapide, de 40 personnes à la création de Boeing ATM en novembre 2000 à 250 personnes en 2002. Il s’agissait parallèlement de paraître crédible (d’où les achats faits en préalable de Jeppesen et du Preston Group) et d’entraîner l’adhésion des autres acteurs autour du projet. Un acteur, dans un entretien, explique que les gens du WTT étaient extrêmement sceptiques au démarrage du projet, puis ont got very excited, puis sont retombés dans le scepticisme.

Proposition 6. L’évaluation de la stratégie entrepreneuriale de Boeing est délicate à mener. L’échec est d’un côté patent : Boeing a dissout son entité Boeing ATM qui n’avait jamais réussi à atteindre un équilibre financier et qui n’a pas réussi à mobiliser l’ensemble des acteurs autour de sa stratégie. En même temps, l’activité a été réduite mais maintenue sur une échelle plus faible dans Phantom Works. Surtout, les concepts avancés par Boeing ont été endossés par tous les acteurs du milieu et Boeing est reconnu comme un acteur de l’ATM, ce qu’il n’était pas en 2000. L’initiative prise par Boeing a été relayée avec la création en Europe en juillet 2002 de l’Alliance (Airbus, EADS et Thales), puis le lancement d’un grand programme européen de modernisation de l’ATM, SESAR (2005). Boeing est présent dans SESAR avec l’Alliance. La stratégie entrepreneuriale de Boeing a donc suscité l’apparition d’une stratégie concurrente de la part des grandes firmes européennes, puis la coopération entre Boeing et ces firmes. Il n’est pas impossible que Boeing revienne et réoccupe la place d’enabler dans la modernisation de l’ATM, notamment si la FAA ne parvient pas à mener à bien la modernisation nécessaire de l’ATM. On peut donc estimer que Boeing a échoué, mais que la firme s’est affirmée comme un acteur du champ et n’en est pas sorti, que ses idées se sont par ailleurs répandues, et qu’elle demeure en position d’attente favorable, pouvant reprendre la main à un moment ou un autre.

- 55 -

Conclusion

Le papier se proposait de comprendre les stratégies entrepreneuriales en revenant sur la littérature consacrée au concept d’entrepreneur et en confrontant cette dernière avec une étude de cas.Il montre que les six dimensions identifiées dans la littérature comme des composantes de l’analyse du concept d’entrepreneur se retrouvent dans le cas et fournissent un cadre d’analyse fécond. Il confirme notamment que ce type de stratégie est lié à un slack de resources dans ces grands groupes, venant des rythmes différents des activités (ici, Boeing a profité du fait que certains projets étaient en phase de décroissance, le Joint Strike Fighter et le Space Shuttle, pour adopter une stratégie entrepreneuriale dans l’ATM). Le fait que les activités de ces groupes soient suffisamment diverses tout en étant suffisamment focalisées permet l’innovation analogique (le transfert d’une approche développée dans le cadre d’une activité à une activité déjà développée ou à une nouvelle activité). Le contenu d’une stratégie entrepreneuriale est la création d’un marché plus que l’invention d’un nouveau produit. Parfois, les deux coïncident. Nous avons choisi un cas d’innovation entrepreneuriale sans innovation de produit pour essayer de mettre plus directement en valeur la dimension de création de marché. La firme qui veut créer un marché doit se situer dans un entre-deux, entre la position du commissaire priseur walrasien organisateur altruiste du marché et le monopoleur, entre la coopération pure et désintéressée avec les acteurs du marché et la domination concurrentielle absolue. Cet entre-deux articule coopération et concurrence et la dimension coopétitive est donc au cœur des stratégies entrepreneuriales.Quand ce type de stratégie est le fait de grandes firmes, elle créé une situation d’incertitude profonde dans le champ organisationnel concerné. Les relations de concurrence et de coopération se trouvent bouleversées. On considère généralement que l’entrepreneur exploite des situations d’incertitude. Mais la grande firme qui adopte une stratégie entrepreneuriale décide de créer elle-même de l’incertitude. Elle doit identifier les points qui doivent donner lieu à affrontement (pour que les choses changent) et les points de nécessaire coopération, pour que le marché puisse exister avec de multiples acteurs. Dans cette stratégie de coopétition, le cas attire l’attention sur l’aspect d’auto-limitation des stratégies entrepreneuriales : l’acteur qui veut créer un marché doit s’auto-limiter dans ses ambitions de captation de la valeur face à ses concurrents et partenaires, pour que la création de valeur par le marché soit maximale. L’étude des liens entre coopétition et self-restrained strategy nous paraît ouvrir un champ de recherche stimulant.

Ahuja Gautam & Lampert Curba Morris (2001) « Entrepreneurship in the large corporation : A longitudinal study of how established firms create breakthrough inventions. » Strategic Management Journal, vol. 22, n° 6/7, pp. 521-543.

Arendt Hanna (1951). The origins of totalitarism. New York, Harcourt Brace & Co.Barringer Bruce R. & Bluedorn Allen C. (1999) « The relationship between corporate

entrepreneurship and strategic management. » Strategic Management Journal, vol. 20, n°5, (May), pp. 421-444.

Baum Joel A.C. & Korn Helaine J. (1996), “Competitive Dynamics of Interfirm Rivalry.”, Academy of Management Journal, vol. 39, n°2, pp. 255-291.

Baumol William J (1968) « Entrepreneurship in Economic Theory ». The American Economic Review, vol. 68, n° 2, May, pp. 64-71.

Burgelman Robert A. (1983) « Corporate Entrepreneurship and Strategic Management: Insights from a Process Study. » Management Science, Vol. 29, No. 12 (Dec., 1983), pp. 1349-1364.

Casson Mark (2005a, 2nd Edition) The Entrepreneur : An Economic Theory. Cheltenham, Edward Elgar.

Casson Mark (2005b) « Entrepreneurship and the theory of the firm. » Journal of Economic Behavior and Organization, vol. 58, pp. 327-348.

- 56 -

Chen Ming-Jer (1996) « Competitor analysis and interfirm rivalry : toward a theoretical integration. » Academy of Management Review, vol. 21, n°1, pp. 100-134.

Cova Bernard & Salle Robert (2008) « Marketing solutions in accordance to the S-D logic : Co-creating value with customer network actors. » Industrial Marketing Management, vol. 37, pp. 270-277.

Depeyre Colette & Dumez Hervé (2009) « A management perspective on market dynamics : stabilizing and destabilizing strategies in the US defense industry. » European Management Journal, vol. 27, n°2, April, pp. 90-99.

Dumez Hervé & Jeunemaître Alain (2006) « Reviving narratives in economics and management : towards an integrated perspective of modelling, statistical inference and narratives. » European Management Review, Vol. 3, issue 1, pp. 32-43.

Elkjaer Joergen R. (1991) « The entrepreneur in economic theory. An example of the development and influence of a concept. » History of European Ideas, vol. 13, n° 6, pp. 805-815.

Gimeno Javier (1999), “Reciprocal threats in multimarket rivalry: staking out spheres of influence in the US Airline industry”, Strategic Management Journal, n°20, p101-128.

Glade William P. (1967) « Approaches to a theory of entrepreneurial formation. » Explorations in Entrepreneurial History, vol. 4, n° 3, pp. 245-259.

Greenwood Royston & Suddaby Roy (2006) « Institutional entrepreneurship in mature fields : The big five accounting firms. » Academy of Management Journal, vol. 49, n° 1, pp. 27-48.

Hébert Robert F. & Link Albert N. (1988) The entrepreneur, mainstream views and radical critiques. New York, Praeger.

Heberton Evans Jr George (1942) « A theory of entrepreneurship. » The Journal of Economic History, vol. 2, Supplement : The tasks of economic history, December, pp. 142-146.

Heertje Arnold (1982) « Schumpeter’s model of the decay of capitalism » in Frisch Helmut [ed] Schumpeterian economics. New York, Praeger, pp. 84-94.

Hitt Michael A., Ireland R. Duane, Camp S. Michael & Sexton Donald L. (2001) « Guest Editors' Introduction to the Special Issue Strategic Entrepreneurship: Entrepreneurial Strategies for Wealth Creation ». Strategic Management Journal, vol. 22, pp. 479-491.

Knight Frank H. (1971, 1st Edition 1921) Risk, uncertainty and profit. Chicago, University of Chicago Press.

McClelland David C. (1961) The Achieving Society. Princeton, Van Nostrand Co.McGrath Rita G., Chen Ming-Jer & MacMillan Ian C. (1998), “Multimarket Maneuvering

in Uncertain Spheres of Influence : Resource Diversion Strategies”, Academy of Management Review, vol. 23, n°4, pp. 724-740.

Marchesnay Michel (2008) « L’entrepreneur : une histoire française. » Revue Française de Gestion, n° 188-189, 8/9, pp. 77-95.

Methé David, Swaminathan Anand, Mitchell Will & Toyama Ryoko (1997) « The underemphasized role of diversifying entrants and industry incumbents as the sources of major innovations », in Thomas Howard and O'Neal Don [eds] Strategic Discovery: Competing in New Arenas, NY, Wiley, pp. 99-116.

Piore, Michael J. (2006) « Qualitative Research: Does it fit in economics ? » European Management Review, 3 (1), 17-23.

Pitelis Christos N. & Teece David J. (2009) The (new) nature and essence of the firm. » European Management Review, vol. 6, Issue 1, Spring, pp. 5-15.

Ragin Charles C. & Becker Howard S. (1992) What is a case ? Exploring the Foundations of Social Inquiry. Cambridge, Cambridge University Press.

Schumpeter Joseph Alois (1912/1934) Theorie der wirtschaftlichen Entwicklung. Leipzig, Duncker & Humblot. English translation published in 1934 as The Theory of Economic Development. Cambridge, MA: Harvard University Press.

Schumpeter Joseph Alois (1939)  Business Cycles. A Theoretical, Historical, and Statistical Analysis of the Capitalist Process. New York, McGraw Hill.

Shane Scott & Venkataraman S. (2000) « The promise of entrepreneurship as a field of research. » Academy of Management Review, vol. 25, n° 1, pp. 217-226.

- 57 -

Thornton Patricia H. (1999) « The sociology of entrepreneurship. » Annual Review of Sociology, vol. 25, pp. 19-46.

Van Praag C. Mirjam (1999) « Some classic views on entrepreneurship. » De Economist, vol. 147, n° 3, pp. 311-335.

Van Praag C. Mirjam & Versloot Peter H. (2007) « What is the value of entrepreneurship ? A review of récent research. » Small Business Economics Journal, vol. 29, n° 4 (December) pp. 351-382.

Yin Robert K. (2002) Case study research : Design and methods (third ed.). Thousand Oaks, (CA), Sage Publications.

Zahra Shaker & Dess Gregory G. (2001) « Entrepreneurship as a field of research : Encouraging dalogue and debate. » Academy of Management Review, vol. 26, n°1 (January), pp. 8-20.

Specialized Papers (SP)

Aarons Richard N. (2001) « Boeing, FAA unveil ATC plans ». Aviation Week and Space Technology, 2 July, Supplement, vol. 155, issue 1.

Benson Allan F. (1994) « Boeing launches 777 from PCs. » Assembly, November/December, pp. 14-16.

Benson Allan F. (1995) « Boeing builds 777 On Line. Part I. » Assembly, January. vol. 37, n°1, pp. 35-36.

Benson Allan F. (1996) « Boeing builds 777 On Line. Part II. » Assembly, April, vol. 38, n°1, pp. 34-39.

Boeing (2001) "Air Traffic Management. Revolutionary Concepts that Enable Air Traffic Growth While cutting delays." McLean VA, Boeing ATM, June 6.

Bois Andre (2001) « Boeing unveils air traffic management plan. » Interavia Business & Technology, October, vol. 56, Issue 657.

Covault Craig (2002) « Boeing embraces space for future growth. » Aviation Week & Space Technology, 28 January, Vol. 156, Issue 4.

Croft John (2001) « Boeing Bid To Revolutionize ATC Short on Detail, Long on Promise » Aviation Week & Space Technology, 11 June, Vol. 154, Issue 24.

Hayhurst John (2001) « Statement » Washington DC, Subcommittee on Space and Aeronautics House Committee on Science. July 19.

Hayhurst John (2002) "Vetoing the Status Quo". Washington DC, Commission on the Future of the United States Aerospace Industry. February 12.

Hughes David (2005) « Boeing's GATI Plan ». Aviation Week & Space Technology, 24 October, Vol. 163, Issue 16.

Hughes David (2005) « Boeing, Airbus Set ATC Goals ». Aviation Week & Space Technology, 28 November, Vol. 163, Issue 21.

Jensen David (2002) « Editor’s note : Boeing misunderstood ? ». Avionics Magazine, Monday April 1.

Lynch Kerry (2003) « Boeing, Airplane-Maker Turned Traffic Manager ». Business & Commercial Aviation, May, Vol. 92, Issue 5.

Moorman, Robert W. (2000) « New Look for Boeing Includes Air Traffic Management. » Aviation Week & Space Technology, 20 November, Vol. 153 Issue 21, p. 39.

Nichols Steve (2003) «  Airbus and Boeing could team up on ATC ». Flight Daily News, 18 June, Issue 4.

Nordwall Bruce D. (2001) « Boeing gets ATM go-ahead » Aviation Week & Space Technology, 23 July, vol. 155, Issue 4.

Wait Patience (2001) « Boeing’s Air Traffic Proposal Draws Sceptical Response. » Washington Post Newsweek Tech Media, February 19.

Wright Chris (2002) « Arata to nurture Boeing Capital in Asia ». Asiamoney, 2002, July, Vol. 13, Issue 6.

- 58 -

Annexe 3

Analysis of the infrastructure management function in ATM

- 59 -

EXECUTIVE SUMMARY

The note is made of three sections.

Section one studies the European infrastructure management function from a broad perspective applicable to utilities. Within the function it introduces a distinction between network management –i.e. investment, infrastructure design- and system operator –i.e. management of short term infrastructure capacity. Then, it proposes to characterise possible alternatives in accordance with two dimensions, the level of integration –i.e. more or less centralisation at the European level- and the level of scope –i.e. the components of infrastructure or related ones which will be included in the infrastructure management function. Finally, the selection of alternatives rest on an efficiency criterion, which consist of activity or infrastructure component integration efficiency –i.e. optimising for each component the efficient level of integration- and activity or infrastructure component scope cross-efficiency –i.e. the efficient gains resulting from managing in coordination pair or multiple activities or infrastructure components. Efficiency criterion would be based on economic and technical indicators to which applies cost-benefit analysis.

Section two reviews the proposed architecture alternatives for infrastructure function in the Single European Sky studies on airspace design and economic regulation. It gives account of the current position of the Council of Ministers position on the issue in response to the European Commission regulation SES II proposals. Both reviews illustrate the wide range of possible arrangements with regard to levels of integration and scope to define a framework for the infrastructure management function, and the reluctance of Member States to give too much power to a European centralised alternative.

Section three focuses on Electricity to provide with comparison. It studies the potential for cross-fertilization in choosing alternatives for the infrastructure management function. Similarities between the two sectors are stressed in terms of network management –i.e. investment in capacity, regional initiatives- and system operator functions –short term management of available capacity. Differences relate to the more ambiguous definition of infrastructure in ATM and the possible evolution according to technology. Electricity appears more advanced in pursuing unbundling of network management and system operator at the national level together with independent regulatory agency. The prospect of increased integration as laid down in the third regulatory package in regard to regulation –i.e. Agency for the Cooperation of Energy Regulators (ACER)- and infrastructure management –i.e. European Network of Transmission System Operators for Electricity (ENTSOE) may also be viewed as ahead developments in comparison with ATM although the technical centralisation of operations regarding management flows have not yet been achieved in electricity and mainly thought on a commercial basis..

- 60 -

I. Why and how a European infrastructure management function in network utilities?

The development of a European internal market for utilities relies on the effective working of a unified European infrastructure network. Currently the European network is made of decentralised national networks where infrastructure is nationally managed and has not been originally designed to address the creation of a single European market for utilities.

Without coordination, the working of decentralised networks is as a whole suboptimal. It produces short term inefficiencies –congestion bottlenecks at cross border due to lack of capacity- and long term inefficiencies –difference in time in infrastructure investment with costs duplication.

Therefore, reducing inefficiencies through the development of a European infrastructure function assumes to define a level of integration at the European level and a level of scope in the activities and responsibilities assigned to the infrastructure management function. It also assumes defining ways of performance measurement in the reduction of inefficiencies and accountability procedures together with the proper financing.

Integration and scope

Some considerations about the levels of integration and scope may be worth noting. Here the level of integration refers to the choice of institutional alternatives that covers a wide spectrum, from decentralised loose interactive collaboration processes to the set up of a dedicated body in charge of the infrastructure. The level of scope refers to activities or infrastructure components to be included in the network management function –i.e. the management of long term investment in capacity, the involvement in regional projects, in the maintenance of the infrastructure- and system operator –the regulation and operation of the day to day available capacity.

From that perspective, deciding on an infrastructure management function corresponds to choosing a final arrangement in terms of levels of integration and scope. In thee case of ATM, a high level of integration –centralisation at a European level- with a low level a scope -limiting the scope to system operation on air traffic flows would suggest reducing the infrastructure management function to an operational Air Traffic Flow Management activity as the existing CFMU.

A decision making mechanism

Thinking in terms of integration and scope allows for introducing a decision making process-mechanism in choosing alternatives.

A first step is to study the infrastructure components in separation. To what extent relying on a de-centralised or centralised setting produces additional efficiency gains, at which costs.

A second step is to consider the interaction between components whether they require more or less transverse collaborative procedures to produce efficiency gains.

In other words, on the one hand, the efficiency analysis of integration relates to an itemized dimension (benefits and costs) according to the activity and her need to be more or less under a centralised arrangement. On the other hand, whether regulatory bridges between activities are needed to produce additional efficiency gains for the activity raised the issue of a more or less of enlarged scope of the infrastructure management function.

- 61 -

In terms of definition, efficiency gains which applied to alternatives are of different nature: those that relate to the activity –i.e. economic assessment of better performance outcomes, and those that relate to the cost of achieving a specified level of performance –i.e. which include in the assessment the likelihood of costs duplication, the implementation of inefficient rules, the increase in transaction costs.

Assume the infrastructure components in ATM are made of airspace design (the design of routes, sectors and FABs according to traffic flows); radars coverage; CNS and radio frequencies, at which levels of integration and scope should they be considered? The efficiency outcome will vary for each component depending on at which level of centralisation it is decided and managed, and on efficiency gains stemming from the management of the interaction of the other components.

Efficiency and management tools

In the process of defining alternatives applied to the components a differentiated set of management tools may be available. These are of different nature according to the component, producing more or less regulatory burden.

Thus, deciding on long term investment, on restructuring to increasing capacity, might require scenario building on demand forecast and growth, with predictions to be made at a decentralised level and involving an aggregation process. It would rest on devising business cases and plans ensuring the financial viability of the investment.

Current ATFM procedures, which are in use as a system operator function, may have a wide choice of management tools to deal with congestion and slot allocation such as booking mechanism, congestion charge, etc.

Therefore, once decided the level of integration and scope, the alternatives have to be defined in relation to the available management tools and the degree of freedom the infrastructure manager will be granted in exercising them. Expected efficiency gains would also have to be assessed according to the selected management mechanisms.

Governance, expertise and financing

Whichever the chosen level of integration and scope, an important step towards studying the infrastructure management function –network management and system operation- is who and how it might be performed. It raises the issue of institutional separation of the infrastructure from service provision or leaving it vertically integrated to local incumbents. In the former case, an enlarged market for infrastructure may develop more rapidly if decentralised independent infrastructure managers are permitted to expand through strategic alliances and mergers, together with access for new entrants. In the later, when the infrastructure is vertically integrated, the market for infrastructure becomes a market driven by service provision interests.

The choice of separation versus vertical integration usually very much hinges on the balance of power between the stakeholders associated with infrastructure management and efficiency gains that may be attached to one or the other alternative. In that respect, a prevailing principle might be to consider the governance issue starting with the benefits and costs borne by particular stakeholders.

An example might be given with ATFM system operations. In ATFM users are on the demand side, ANSPs on the supply side. Meeting demand and supply through particular arrangement introducing various forms of incentives to increase performance or flexibility (booking mechanism, penalties on delays, yield management) has direct repercussions on costs and revenues for both stakeholders. A simple governance rule would make both parties negotiating and presiding over the chosen institutional and regulatory alternative.

- 62 -

Besides any component of the infrastructure function may have repercussions on each other (Airspace design and air traffic flows, interoperability of ATC systems and airspace management), thinking governance in relation to the bearing of costs and benefits for stakeholders may prove a sound ridding principle.

Finally as regards the financing options for the infrastructure management function, alternatives include an itemized item for infrastructure in the users charges, the creation of a fund for infrastructure investments, the use of private sector bearing the risk of infrastructure developments.

II. ATM developments and the situation in progress

From the beginning the Single Sky has referred to the European Air Traffic Management Network (EATMN). The concept of infrastructure management has not been mentioned in isolation. Yet, the first SES studies have studied the issue from different angles, in particular in relation to airspace design and economic regulation.

Already put forward proposals

In the case of the airspace design study, considering the creation of a European Regulator as put forward in the 2000 High Level Group report, the proposal was to give the European Regulator the responsibility of setting policy and standards, harmonising airspace rules, proposing routes and sectors design, together with the adoption of an enforceable action plan. Within Eurocontrol an Airspace Unit Policy would be created and act as a technical supervisory authority with coordination between airspace modelling and CFMU. In other words, the chosen alternative was to increase significantly the level of integration with limitation in scope to airspace design and traffic flow management.

A step further was the first study on economic regulation. It included in the framework of infrastructure management function, and the FAB enabler as a way of restructuring, enlarging the scope of the infrastructure management function. It brought forward as previously a high level of integration –centralisation at the European level- together with significant linkage about the airspace design on FABs, the related charging regime and means of imposing cooperation. Although it detailed possible institutional arrangements such as users club for ATFM governance –i.e. ANSP and airline companies- it did not refer specifically to an ATM manager function. However, it defined a performance regime applicable by a European regulator to the different components of the ATM system –i.e. management of the network infrastructure; system operations on ATFM; Air Traffic Conctrol; and ancillary services. Therefore, the envisaged infrastructure function appeared at the same time with a high level of integration but with institutional fragmented structure, which suggest a low level in scope, which correspond to a perception of minimum cross-efficiency between ATM components.

The second study on economic regulation was more comprehensive in the definition of the function –i.e. network management and system operation. It has discussed the more or less active or passive role of an ATM infrastructure manager at the European level, in particular, should there be a European Infrastructure Oversight Body or Manager. If the diagnosis would be that coordination processes were already in place but lacked to introduce sufficient compliance and enforcement to produce the desired efficiency gains, then an oversight structure would have been preferred. On an extended model of the PRU/PRC, it would have had an analytical function in the gathering and treatment of information, an identification function in the required investments projects in infrastructure capacity, a compliance function in ensuring that the projects would go to their end. In the context, reinforcing the role of the oversight body into a more active infrastructure manager would have meant that a centralised structure would be established with the remit of dealing itself with the financing of cross-border projects as

- 63 -

the ANSPs would be considered as reluctant to spontaneously involve themselves in. Hence, the second economic regulation study added the possibility of low level of integration and scope in management infrastructure function supporting the case for improvement by means of increased coordination processes.

Finally, a more integrated and enlarged scope level option might be said at the far end of the spectrum. It would be a Network Optimisation Manager, of which the governance would be under ANSPs and Users. It would place under a unique body the network management –avoiding duplication costs and coordinating investments with the FAB/Airspace design issue, the system operator function –ATFM and traffic/capacity forecasts. The body which would be under performance criteria and reviews would be accountable before the European Commission in respect of the Single European Sky regulations.

Therefore, as illustrated in the SES Studies, different options are thinkable with regard to the infrastructure management function, with different levels of integration of scope. So far they have not been fully subject to a comprehensive impact analysis of efficiency gains per ATM components and cross efficiency gains between components of the system.

The current views

The Single European Sky II regulatory package will be debated in first reading before the European Parliament early 2009. From the European Aviation conference of January 2008, to the SESII proposed regulation and the ongoing process of ratification before the Council and Parliament a number of attributes emerge, which may characterise the future of the Infrastructure Management function. Rather, what it should be in details, various interventions give an idea about the room for manoeuvre for developing such function.

A first consideration both from Eurocontrol and the European Commission presentations is an apparent alignment with regard to the substance of the function which includes improving route, sector design and optimising the use of the network. It encompasses planning for the network and network optimisation. SESII places in the scope of the function, the Flow management and slots, the route design, the frequencies and codes, the new SESAR technical functions.

With the regard to the working and decision-making processes, the Eurocontrol perspective stresses that the governance of the network manager should represent all stakeholders involved in the different activities. As for the European Commission, she had to study more substantiated options, either stay in a status quo of voluntary cooperation or find way of coercing the Member States to consider proposals at the European level, or even after consultation processes define what should be the network in its design dimension, which could be referred as a “total system approach”. The total approach would raise the issue of the FABs in the system, as illustrates the legislative text proposed by the European Commission and amended by the Council of the European Union early December this year.

Thus, in its introductory part, the Council recognizes the importance of accelerating “the introduction of functional airspace blocks and the strengthening of European networks functions”. But the Council have amended articles proposed by the Commission with regard to an increased role at the European level of network management and design –in particular with respect to additional network functions and radio frequencies. It has also come against the proposal from the Commission to set up common projects to improve the collective air navigation infrastructures in relation to worries about the impact on budget and navigation charges.

- 64 -

The main concern which the Council amendments might produce in regard to a European infrastructure function also expresses in the elimination in key articles of the word “regional” with is replaced by “functional airspace block”.

Thus, in terms of performance scheme, plans, targets, charging, assessment, the reference is to national plans or functional airspace blocks and not regional plans. The prevailing of the national dimension also applies to criteria for setting up the supervisory authorities of which the institutional independence is left open to Member States according to “their own administrative arrangements”, and which “shall not prevent the national supervisory authorities from exercising their tasks within the rules of organisation of national civil aviations authorities or any other public bodies”.

The same rationale applies to the airspace creation of a Single European Flight Information Region (EFIR). It would have transferred the competence on airspace to the European Community. The article has been rejected by the Council, finding that it did not add value to the precedent formulation about the creation of a European Flight Information region, which “leaves the door open for Member States to request such a flight information region at ICAO, should the necessary conditions prevail in future”.

Likewise, network management and design where the “network functions shall be aimed at supporting initiatives at national level and at the level of functional airspace blocks” will have to be performed “without prejudice to the responsibilities of the Member States with regard to national routes and airspace structures” –the functions being the design of the European route network, and the allocation of radio frequencies, coordination of radar transponder codes.

On the whole, the Council amendments to the Commission proposals entrenched the Single European Sky within national boundaries and a bottom-up approach with regard to the infrastructure management function, characterised by low level of integration and scope. An interpretation might be: the European Community has not to have in her remit the responsibility of a one European single airspace, the design of FABs according to regional plans based on the sole perspective of European air traffic flows. As the current initiatives illustrate, FABs are more the grouping of countries –through existing Flight Information Region- and national ANSPs, going along with coordination and performance defined within these national of supranational boundaries.

At present, it is too soon to exactly know what will be the end result of Parliament-Commission-Council of Ministers process to tell the room for particular alternatives on integration and scope.

III Cross-fertilization with Electricity markets

As in ATM, the new regulatory package to promote an internal market for electricity; awaits reading before the European Parliament early next year, although it regards a third regulatory package and a second reading. The internal market for electricity offers an interesting point of comparison to assess the regulatory developments in ATM.

To an extent not yet experienced in ATM, integration has been supported by liberalisation and the integration process has relied on market forces, in particular in creating a regulatory framework incentivising cross-border exchanges through interconnection. A more competitive open market to cross-border exchanges has permitted to exploit complementarities between national electric systems in terms of capacity supply to meet fluctuations in demand. As a general rule governing market integration, a supplier from a country where price electricity is high has incentive to import electricity from low price countries insofar as interconnection charge makes it profitable.

- 65 -

Thus, the internal market for electricity has been based on competition in supply and distribution. It has created an economic environment for long and short term contracts with electricity exchanges and the use of sophisticated economic instruments such as auction pricing.

In terms of regulatory framework, it has translated into the setup of national independent regulators with high economic component on pricing, investment plans, and separation of the infrastructure components from supply and distribution. Introducing unbundling with separate national infrastructure managers –private or public- creates the possibility of an internal market for infrastructure which might develop according to joint ventures, alliances, mergers. It also introduces various types of operators which might be more or less independent and regulated –i.e. merchant lines operators. The third regulatory package as drafted by the Commission increases the constraint on unbundling whereby an electricity supplier or distributor cannot own and operate infrastructure. However, the Council of Ministers is opposing the view leaving the possibility for electricity companies to “retain ownership of transmission networks provided that the networks were operated by an independent transmission network operator and that additional assurances are given”.

By contrast the Single European Sky appears less driven by an economic perspective –i.e. cost recovery mechanism preventing profits- but more by an engineering perspective as progress is expected from technology leap (SESAR) with ATM infrastructure remaining more ambiguous to define with regard to separation.

However, both Electricity and ATM have common features with potential for cross-fertilization: in the management of short term capacity according to forecasts and real time demand and supply; in cross border initiatives (7 Regional initiatives in Europe for Electricity, 8 FABs with SES), in the substance given to European regulation and infrastructure management in the regulatory package (ACER and ENTSO for electricity, ESA and European Management -EATMN function in ATM); also in the willingness to go beyond voluntary and unanimity procedures.

IV REFERENCES

Commission of the European Communities (COM(2008) 388, 2008/0127) Proposalfor amending Regulations EC on Single European Sky

Council of the European Union, Transport, Telecommunications and Energy, C/08/276, 9-10 October 2008

Council of the European Union (Aviation 285, Codec 185) On SESII Commission proposal, 4 December 2008

Meetings

Commission Européenne (DTREN, SESAR)Commission de Régulation de l’Electricté (CRE)

Conférences

EC Conference, Towards a more performing, European aviation system, Brussels, 22 January 2008

CeSSA Final Conference, European Forum Energy Security Supply, Brussels, 2 October 2008

- 66 -

7th Stakeholder Group (SG) meeting - Mini Forum - for the region France-UK-Ireland, Belfast, 3 December 2008

- 67 -

Annexe 4

The management of organizational boundaries:The case of the European Air Traffic Management

- 68 -

There is a paradox regarding the notion of boundaries. One can rightly say it is omnipresent in social sciences (Lamont and Molnar, 2002) and in particular in management science, and, at the same time, it is rarely thematized as such, and in all its dimensions. In management, vertical boundaries have been studied via the study of make or buy decisions, horizontal boundaries via the study of alliances or mergers and acquisitions. At the micro level, internal boundaries of the firm have been studied most often through the idea of « spanning boundaries » in knowledge management or innovation (Nonaka, 1994 ; Brown & Duguid, 2001 ou Miller & al., 2007). At last, more recently, what Lamont and Molnar (2002 : 168) call « symbolic boundaries » (categories actors agree upon and use to define reality) have been covered by boundary objects studies (Carlile, 2002 ; Osterlund & Carlile, 2005). What strikes in all these studies is the fact that they do not really connect between them. The title of Araujo, Dubois et Gadde’s paper (2003) is « The multiple boundaries of the firm », but these authors explain that they will exclusively focus on vertical boundaries. Santos and Eisenhardt (2005) say they focus on external boundaries of the firm, those that separate the firm from its environment, neglecting internal boundaries. There is a conceptual and practical link, however, between boundaries of different kinds. An internal boundary, for instance, can become an external one (it is decided to transform a division into a business unit, and this unit being sold afterwards) and an external boundary can become an internal one (a corporation acquires a firm that is transformed into an internal division, but this division is given autonomy). Besides, the notion of boundary refers to multiple dimensions: technology, power, space, social (issues of identity), symbolic, etc. The way these dimensions interact remains in great part unexplored. As put forward by Santos and Eisenhardt (2005 : 505), however : « the study of organizational boundaries is foundational ».The present paper aims at exploring the multiple dimensions of boundaries, and their interactions, and the interdependence between the different kinds of boundaries. This will be done through the discussions of three propositions drawn form the scientific literature on boundaries.

1. There is no such thing as « natural boundaries ». Organizational boundaries are the result of decisions about capability units that are always debated.2. Once decided, boundaries tend to be stable. They tend to be entrenched.3. But the debate about boundaries leads to the displacement of boundaries if some actors adopt an architectural role and try to change boundaries either by competition or cooperation, or a mix of both (coopetition).

A case study will allow a discussion of these propositions. The selected case is the Air Traffic Management industry in Europe. Authors work on it for ten years on.In the first part of the paper, we will investigate the theoretical foundations of the notion of boundaries, relying of course on the literature related to organizational boundaries, but also to ecological, geographical, historical boundaries. We will then explain our methodology, before the case study itself. At last, before to conclude, we will discuss the propositions in the light of the case study.

Theoretical issues of the notion of boundary

In this first part, we will attempt to define boundaries and then draw three theoretical propositions.

The definition of boundaries

- 69 -

A lot of studies dealing with boundaries do not define precisely what they are. What makes the separation between two divisions belonging to the same firm, or between this firm and its environment? A simple definition borrowed from biology can be useful: « the regulation of flows across hereterogeneous space. » (Cadenasso et alli, 2003, p. 757). This definition can be elaborated a little further : a boundary is a mechanism (potentially or actually) rarefying or regulating flows between two heterogeneous spaces, and making these flows visible. Inside the boundaries, authority can be exercised and flows of exchanges are less visible. Across boundaries, flows are regulated and more visible. But a boundary can be activated at some moments, and non activated at others and, moreover, the rarefaction and regulation of flows across the boundary, their visibility, is a question of degree and depends on the scale it is analyzed : « […] the perception of a boundary as abrupt or gradual will depend on the grain size at which the boundary is being measured or modeled ; a boundary that appears abrupt at a coarse grain size may appear gradual at a fine grain size. » (Strayer et al., 2003, p. 726).

The determination of boundariesSome theories, among them very often economic ones, think there exist natural boundaries for organizations. It is the case, for example, with the transaction cost approach. Depending on the specificity and frequency of transactions, certain activities must be kept inside the boundaries of the firm while others can be outsourced. Two remarks can be made, however. On the one hand, in dynamics, specific assets can becom nonspecific, as stated by Langlois et Robertson (1995). Even if natural boundaries existed, they would change over time. But on the other hand, as noted by Barney (1999 : 138), when the transaction cost theory is presented to businessmen, they ask : « what role do firm capabilities play in this approach to firm boundaries ? » And when they get the answer : « Very little », they remain puzzled. The issue of boundaries has obviously to do with capabilities. Firms know what they do – their activities – and, from this, they try to know what their capabilities are (Richardson, 1972). They develop and consolidate their activities on the basis of similarity, « yoking » them to quote Abbott (1995). Jacobides and Winter (2005) use the words “institutional packages”, refering to the set of activities that tend to be lumped together within the boundaries of one division (within an organization) or one firm (within an industry). Managers seek to maximize economies of scale and economies of scope, the knowledge basis (Kogut & Zander, 1992), and minimize diseconomies (control, risk). As said by Potts (2001: 424) : « Stable clusters of connections are required for production processes, which is essentially why firms have boundaries. » But capabilities are never freezed. The managers try permanently to determine the optimal position of the « clusters » of activities that define the capabilities, hence the decisions to modify the internal (« internal asset orchestration ») and external (« external asset orchestration ») boundaries of the firm (Helfat, 2007). As organizational boundaries are linked to capabilities and as these capabilities are never exactly known but are the object of trials and errors (Resource Based View speaks of causal ambiguity - Lippman & Rumelt, 1982 ; Powell et alii, 2006), organizational boundaries are never « natural ». They are determined through decisions made by the managers of the organization. The managers organize units of capabilities in yoking similar activities, taking into account multiple parameters (as those analyzed by Santos & Eisenhardt, 2005: efficiency, power, competence, identity). Doing this, they define “transaction-free zones” (Baldwin, 2008). In these zones, there is no transactions “defined as mutually agreed-upon transfers with compensation » (Baldwin, 2008 : 156) or invisible transactions with cross-subsidization. From these theoretical elements, one proposition can be drawn:

Proposition 1. There is no such thing as a « natural » organizational boundary. Organizational boundaries derive from decisions made by the managers and regarding capability units, always debatable.

Boundaries of different kinds tend to pile up and to reproduce themselvesObject of a decision, boundaries tend aftewards to pile up and reproduce themselves. Geographers speak of « intrenchment » or « entrenchment » - Hartshorne, 1936 ;

- 70 -

Minghi, 1963). Inside the boundary of a capability unit, the same technology is used, that can be different from technology used outside; a same identity is shared, the same categories are in use. Studying science, Gieryn (1999) speaks of a boundary-work relying on expulsion (a work of differenciation from outside), expansion before the boundary be definitively set (trying to develop new activities in the unit), and on protection of the autonomy. This entrenchment has been observed and analyzed by economists at the level of exchanges flows within and across boundaries: boundaries rarefy these flows (McCallum, 1995 ; Anderson & Van Wincoop, 2003).Entrenchment has also to do with the visibility of flows and exchanges (Chevalier, 2004). Within a capability unit, a tissue of cross-subsidizations is not visible as such, even if actors have an idea of what they are. Every boundary displacement makes the phenomenon visible, entirely or partly, and is therefore tricky. This is a reason why boundaries tend to be stable and reproduce themselves.As rightly seen by Jacobides, incentives can exacerbate the problem: decided within existing boundaries, they reinforce parochial, narrow attitudes and amplify compartmentalization (Jacobides, 2006 : 157).At last, asynchrony of multiple decisions made within a capability unit is also part of the entrenchment dynamics. The rhythm of technology change is not synchronous with the one of staff turnover. When deciding upon a new technology, one takes into account the inertia affecting other dimensions of the organization and one hesitates to shake existing boundaries. And once the decision has been made on technology, it has an effect on following decisions regarding staff and organization. As an effect, asynchrony of decisions leads to a stabilization of boundaries.

- 71 -

Hence proposition 2:

Proposition 2. Once the decision determining the boundaries has been made, boundaries of different kinds (technological, organizational) tend to pile up and entrench, reproducing themselves.

The displacement of boundariesThe dynamics of reproduction of the boundaries is counterbalanced by a dynamics aiming at displacing them. Technology, organizational activities and capabilities, customers and suppliers, are continuously changing. Boundaries are progressively deinstitutionalized, i.e.-e an erosion of the legitimacy of the existing boundaries (Oliver, 1991). Between different actors belonging to the same organizational field, a boundary misalignment can occur: some of them go on operating at the national level, some others becoming international actors (Greenwood & Suddaby, 2006). A debate rises: where are the boundaries to be placed in order to define the optimal capability units? A game of strategic interactions develops, some actors adopting strategies destabilizing the existing boundaries and, in response, some others adopting restabilizing strategies (Depeyre & Dumez, 2009). The actors that aim at destabilizing existing boundaries can be of two kinds: either they only try to change their own boundaries, or to change the boundaries of the industry. In the latter case, they think they are in a position to play an architectural role for the whole industry (Jacobides & Billinger, 2006; Jacobides, Knudsen & Augier, 2006). To do so, they can use competition (entering new markets by/or acquiring competitors for example) or use cooperation (alliances, establishing joint ventures), or can attempt to combine competition and cooperation in practicing coopetition (Brandenburger & Nalebuff, 1996; book to be published; authors to be published). In response, other actors can try to defend the existing boundaries as they are or to displace them a minima to optimize the existing capability units. In such a game, the dynamics of internal and external, horizontal and vertical boundaries are interdependent. The creation of an internal vertical boundary can help the signature of a horizontal alliance between two firms, one being vertically integrated and the other not. In that case, the creation of a vertical boundary is a condition of the displacement of a horizontal boundary. One can see how important it is to take into account the different kinds of boundaries and their multiple dimensions when analyzing the dynamics of boundaries.

Proposition 3. Even when they are entrenched, boundaries remain debatable. When controversies increase, strategies aiming at changing the boundaries develop, and strategies aiming at maintaining them develop in response.

Methodology

To analyze the dynamics of boundaries in all its dimensions and interdependences, the case study analysis seems the more appropriate (Ragin & Becker, 1992; Yin, 2003) for three main reasons. The observed changes are complex and the causal dynamics at work, as the actors’ motives, are difficult to identify; the analysis includes an historical dimension and an inductive approach allows to highlight sequences of actions and to pinpoint causal factors; finally, the objective is to extend the theoretical approach (Greenwood & Suddaby, 2006) through a process by which theoretical orientations are confronted to an observed material. The case is therefore instrumental in the sense of Stake (1994). The selected case is an industry, not an organization. Indeed, only an industry can allow the tracing of the dynamics of boundaries. The industry has been chosen for two reasons. First, in this industry the term « boundary » is not metaphorical: national boundaries play an important role in the dynamics of the industry. Second, this industry shows an intertwining, a superposition, and an interaction of many boundaries of different kinds: national, organizational, technological, and jurisdictional. It is the European Air Traffic Management (ATM) industry (Beyer, 2008; Dumez & Jeunemaître, 2001; Grushka-Cockayne, De Reyck & Degraeve, 2008). Authors have been working on that industry for about ten years on, having carried out studies for the European

- 72 -

Commission (2001, 2003) and Eurocontrol (1998, 2003, 2006, 2008). During this period, seventy-two interviews have been conducted, longing two hours or more, the first of them dating back to 1996. These interviews concerned staff of the European Commission, of national administrations, of national service providers, systems suppliers, airline companies, controllers, military. Transcripts of these interviews have been coded following a grounded theory approach (Locke, 2001; Dumez, 2004).

The case study: boundaries and capability units

When commercial aviation has developed, a decision has been made, internationally and on the basis of the theory conceived by Grotius on the freedom of the seas: the sky would be free, no country being able to prohibit the access (except in time of war or crisis) or to set up a toll. A priori, national boundaries should not play any role in that industry. The Chicago Convention, signed in 1944, establishes that each state is in charge, however, to guarantee the safety of the sky over its territory, especially to avoid collisions between aircraft (Mendes de Leon, 2007). And each state has the right to let aircraft pay for the cost of this essential service. In the US, the passenger pays a tax the amount of it being written on the ticket. In Europe, airline companies pay route charges calculated on the basis of the weight of the aircraft and the route followed. Each country has organized its own control system. In order to do so, it has designed a network of beacons allowing pilots and controllers to know exactly where the aircraft is at certain times and to draw routes, a radar system allowing the controllers to follow the aircraft, a telecom system so that a dialogue be possible between pilots and controllers, a weather information system, a rescue system in case of a crash or a problem, and control centers. An aircraft crossing a national boundary is generally leaving a control system and entering a new one. The pilot says goodbye to the controller of the country she is leaving and says hello to the controller of the country she is entering. As VHF frequencies are saturated and as it takes time to leave and time to signal the entry in a new airspace, national boundaries rarefy flows. The traffic flow is rarefied by boundaries that are in no way natural, but are the result of the organization of capability units decided at the national level. As said before, routes have been designed through a network of beacons and sectors have been designed from these routes and their crossings, to balance the work of the controllers. When aircraft fly up and down on crossing routes, sectors are Small. It is for example the case with the very complicated Chartres sector in France: routes North/South cross routes West/East (transatlantic routes) as aircraft fly down and fly up approaching or leaving the Paris airports. When aircraft follow simple routes at a high altitude, sectors can be much wider. At night, when the traffic is light, different sectors might be regrouped. During the day, they are progressively degrouped as the traffic increases. Sectors cannot be too small: as said before, when an aircraft leaves a sector, it must signal it to the controller of this sector, and it must signal its entry to the controller of the new sector. That takes time. The sector is the basic capability unit and the boundaries separating these units rarefy flows and play as a constraint for the growth of the traffic. Sectors are managed at the level of a control center, for human resource management (controllers work in teams) and for technical (maintenance of computer systems). When centers are big, they are usually divided in two rooms. Small countries have set up one control center, big countries several. One center could probably manage the entire European upper airspace and is footloose (a center set up in Ireland could manage the German airspace), but big countries have chosen to build several centers for safety reason: if one center shuts for technical reason or because of a strike of the controllers, another one can manage at least part of the traffic. What Americans call « pork barrel » issues have also played a role: local politicians have strongly lobbied to have centers in their area. Boundaries have also been superposed and entrenched because of public procurement: each country has defined its own requirements for the technological system it needed, and has acquired or developed this system for its centers. These systems have to compute the flight data in order to support the controllers’ work. Each airline company announces flight plans. This flight plans are analyzed by the system that must be able to forecast when a flight will enter a sector at a certain altitude, ascending or descending. The

- 73 -

systems include a safety net: when a risk of collision occurs between two flights, this risk is signaled to the controller. France, for example, has developed its own system with teams of engineers being part of the administration, as the French Thales, one the suppliers of this type of systems with Lockheed Martin, Raytheon and Alenia, developed a system it supplied to other countries (Denmark, Ireland, Sweden, etc.). Developed for each country, the systems had no reason to be interoperable. Interoperability in Europe has been a big problem, dealt with by Eurocontrol and the European Commission so that the boundary between two systems do not rarefy flows too much (Dumez & Jeunemaître, 2001).To sum up, the Air Traffic Management industry presents a piling up of boundaries. At the lowest level, the smallest capability unit, boundaries separate the sectors the controllers are in charge of. Then there are boundaries defining control centers that yoke a series of sectors, with teams of controllers and maintenance of the systems. National boundaries superpose themselves to these ones (and determine them): sectors are defined and control centers are built at the national level (with a very few exceptions). Public procurement of technical systems, the recruitment of controllers, are decided asynchronously on a national basis and reinforce the entrenchment on the national basis.

The debate about the boundaries

At the end of the 1990s, the deregulation of commercial aviation, the development of the hubs and spokes system, have induced a traffic growth and the ATM system has reached a state of saturation: flight delays burst and their cost increased considerably. Airline companies try to contain their own costs and ask for a decrease of route charges. The debate raised on the organization of capability units on the fragmentation of the European ATM. As said in the theoretical section, organizational boundaries are primarily capability unit boundaries. They are determined through a balancing between economies of scale and scope, on the one hand, and diseconomies (costs of control, safety, etc.). This is confirmed by the case study. As regards the technological for example, it is clearly sub-optimal that each country asks for the development of a specific system (or develops its own system, like France). At the same time, the development of a unique system at the European level entails a risk. The optimal situation would probably be a competition between a maximum of two or three systems. The same could be said of the route design and the setting up of control centers at a national level. The probability for that level to provide the optimal balancing of economies and diseconomies is low. A comparison with the United States is always difficult, but gives nevertheless a broad idea: the traffic is far higher than in Europe, the number of control centers is far lower, and the cost of a controlled flight hour is 62% inferior to that in Europe. For historical reasons, national boundaries as sedimentation of political, organizational and technological boundaries have been entrenched around sectors and control centers. Although the optimum cannot be determined with precision, the capability units are clearly sub-optimal. This entrenchment has also to do with the visibilization and opacification of financial flows (cross-subsidization within the boundaries). Organizational boundaries opacify some money transfers (within boundaries, some activities finance other ones while this financing is not made visible) while at the boundary itself flows are made visible2. Cross-subsidization is the second element of the economics of boundaries, the first being the design of capability units. Innovation can be promoted by a certain opacity of the financial transfers between traditional activities and new ones within a capability unit, but cross-subsidization can also strongly prohibit change. In the ATM industry, the same organization (the national service provider) usually manages upper and lower airspace. It seems more efficient to specialize control centers in the upper airspace and the lower, the number of control centers managing the upper airspace being reduced (one or two big centers could 2 « Accounting is an aspect of all legal, formal organizations and the organizations’ accounts maintain boundaries by measuring financial flows across these boundaries and by establishing which resources do or do not belong to the organization. » (Brunsson, 2006, p. 18)

- 74 -

probably manage the whole European upper airspace). But, this solution redesigning the capability units makes visible the fact that controlling the upper airspace is far less costly that controlling the lower airspace. This was the case when hen Denmark, Finland, Norway and Sweden decided to explore the creation of a private company managing a common center specialized in controlling their merged upper airspace. The cost of this center appeared substantially inferior to that of the centers that would have specialized in lower airspace. The new boundary stemming from the creation of the private company would have prohibited cross-subsidization of the control of the lower airspace by the control of the upper airspace. The « yoking » (Abbott, 1995) of both controls in the same organization opacify a cross-subsidization of the former by the later. The same phenomenon is common in Europe. The flights by American airlines companies over Europe in the upper airspace without landing there partly cross-subsidize the control of lower airspace used by European airlines. Cross-subsidization induced by existing boundaries is a factor of stability: as soon as a boundary is discussed, the actors benefiting from this cross-subsidization mobilize themselves in order to maintain the status quo. In contrast, at the same time, other actors can have a direct interest in change.

The dynamics of boundaries

Some actors try to change boundaries when they think new ones would be more efficient. In the ATM, two actors, Boeing and the European Commission, attempted to play an architectural role in the industry.Since the 90s, Boeing has been thinking of what kind of systems could be integrated in the cockpits to improve the ATM. ATM is not an industry Boeing is part of, except this issue of the embarked systems, the only common boundary. Boeing’s problem is to sell aircraft: ATM can be a bottleneck for this activity. The diagnosis made by Boeing is that actors within the industry are not able to innovate radically, radical innovation being what is needed. Suppliers of systems and hardware (radars, control centers) like Lockheed Martin, Thales or Raytheon try to sell the systems they have on the shelf, they are reluctant to work on a radical innovation (based for example on the massive use of satellite technology). The actors in the industry are locked in entrenched boundaries. They tend to consider the future with the eyes of the past. Only an external actor – an outsider – can help introducing new solutions. Boeing has stressed two dimensions: technological and operational boundaries and organizational boundaries. On the first point, Boeing has estimated that the sectors represent the main bottleneck. To solve the problem, Boeing’s engineers have been working on the concept of « seamless space », breaking down the boundaries. On the second point, the organizational one, Boeing has tried to group all the actors of the industry to define the requirements if the needed technological and operational system. Boeing created a Working Together Team (WTT)3. The objective was to span boundaries existing between aircraft manufactures, service providers, systems suppliers, controllers, airlines. Boeing had in mind the American situation, but also the European one: aircraft fly over both continents and the embarked systems and procedures had to be the same on both sides of the Atlantic. European actors like Eurocontrol or Thales took part in the WTT. Two points must be highlighted. Boeing introduces itself as an outsider, operating outside the traditional boundaries defining the industry, and being in a position to redesign more efficiently these boundaries. Boeing is not competing with the actors of the industry and can create the needed cooperation between them. Nevertheless, the project failed and, in 2004, Boeing closed down its ATM subsidiary it has set up four years ago (although half of the engineers were appointed to Boeing’s R&D unit, Phantom Works, and went on working on ATM, as if Boeing was from that moment on, a semi-dormant company in the industry).

3 This form of organization had been used to develop the 777, one of the biggest success in the history of the commercial aviation. The Working Together Team grouped the customers, Boeing’s engineers and the future suppliers and mobilized computer aided design (Benson 1994 ; 1995 ; 1996).

- 75 -

The European Commission is the other actor that has been trying to play an architectural role in the industry, attempting to change the existing boundaries. The official role of the Commission is to conceive and propose integrating policies between the Union member states. The Commission took an initiative for the ATM in 2001 with the Single European Sky. At the time the project was launched, competition was identified as the main factor for changing boundaries. The idea was to draw a separation between the upper airspace and the lower airspace, to merge all the national upper airspace into a single European one. Then a competitive bid would have been organized for the service provision in this unique upper airspace. There would not have been competion in the market (it is not thinkable that an aircraft could choose between two air traffic control systems) but competition for the market (specification of requirements and licensing of a monopoly position for a limited period of time, the contract being awarded to the best offering service provider). Progressively, the approach evolved. Cooperation supplanted competition. One of the Single European Sky elements focused on interoperability, to make certain that the different systems used in Europe could dialogue. Another element created the concept of Functional Airspace Blocks (FABs). It aims at promote cooperation between countries to define capability units spanning boundaries. United Kingdom and Eire, France and Switzerland, Spain and Portugal, for example, have entered into talks to create such blocks. So an actor playing an architectural role, the European Commission (jointly with Council and the Parliament) has created a frame to make possible the changing of boundaries. Then, actors belonging to the industry have developed cooperative strategies modifying the boundaries. These strategies have been offensive or defensive. For example, as mentioned before, Denmark, Finland, Norway and Sweden have tried to elaborate a joint project feeling under the threat of the offensive projects of the German service provider. In the same line, controllers themselves have presented a project called MOSAIC grouping different service providers in central Europe (Benelux, France, Germany) aiming at constituting an alternative to the threat of privatization or grouping by twos. Cooperative projects are stimulated by a climate of competition, actual or potential.

Discussion

The discussion will come back to the three propositions derived from the review of literature on the management of organizational boundaries. The first proposition states that organizational boundaries are never “natural”: they are determined by a decision taking into account on the one hand economies of scale and scope and, on the other hand, diseconomies of different kinds and balancing the benefits and costs of opacity and transparency, in order to design the best practical capability unit. The case study is on line with the proposition. The displacement of boundaries in the ATM industry aiming at widening the scope of the capability units seems clearly improve the functioning of the industry (economies in the cost of development of large technological systems, economies of maintenance, better operational efficiency). But the optimum in placing the boundaries is difficult to determine in practice. This illustrates the notion of causal ambiguity developed by Resource-Based View theorists. Should Europe go in the direction of a unique service provider, as the Federal Aviation Authority is in the Unites States ATM system? Should Europe only go in the direction of the constitution of a few big service providers in situation of competing and cooperating at the same time? A series of decisions have to be made to restructure the industry in the absence of a natural path to follow.Once the decisions made (it is the second proposition), boundaries tend to sediment and be entrenched. The multiple dimensions of activities (technological, organizational, relational, etc.) and the asynchrony of the decisions related to these dimensions explain the phenomenon. The fact that the French and the German air traffic controls make the decision of developing a new technological system at different periods of times reinforce the boundary separating the two capability units. As boundaries are not natural and tend to be entrenched, they are debatable and even controversial. From time to time, the controversies become more and more intense. Regarding the European ATM, the end of the 1990s was such a period because of the increasing delays. When this occurs,

- 76 -

strategies aiming at changing the boundaries can develop. Some actors think they can play an architectural role that consists partly in changing their own boundaries but more deeply in defining a frame allowing other actors in the industry to change theirs.Two elements are of particular importance in this frame. The first is the combination of competition and cooperation (coopetition). In our case, the European Commission evolved from a competitive approach to a cooperative one. At the very beginning, the idea was to promote competition between national service providers to make the boundaries change into a more efficient way. Then, cooperation was favored (interoperability concerning the technical systems and FABs concerning the operational dimension). In fact, the Commission used a coopetitive approach: cooperation among small players, among small and big players, among big players, is developing in a climate of potential competition. It is why competition looks credible in the future that cooperation develops. And the development of cooperation can be a precondition of the development of competition. At the organizational level, moving a boundary can favor cooperation and competition. For example, the French ATM organization is vertically integrated with a unit of engineers specialized in designing and building technological systems for France. If this unit became a subsidiary (if a vertical boundary was created), it could compete with suppliers like Lockheed Martin or Thales. Privatization of public organizations has often lead to this kind of evolution: ex internal units have been vertically separated and have experienced competition afterwards (Cox, Harris & Parker, 1999). The creation of a vertical separation can also have an impact on horizontal boundaries, allowing alliances. If, for example, the French ATM wants to enter into an alliance with its German counterpart, its vertically integrated structure is an obstacle, as the French technological system is designed by the teams belonging to the French organization while the German organization turns to the market to acquire its own system. The creation of a vertical boundary in the French organization makes the alliance easier: the apparition of vertical boundaries can favor the abolition of horizontal ones.The second element of the architectural role of certain actors consists in trying to synchronize decisions. The Single European Sky has been adopted for four years (2004). At the end of this period (2008), it has been assessed. A new step (Single European Sky II) has been voted in 2009 and will be assessed after four years. Actors are obliged to elaborate their decisions within this synchronized frame. The European Commission has launched in parallel a project, SESAR, that prepares the technological shift twenty years ahead that Boeing was working on between 2001 and 2004 (and Boeing’s teams of Phanton Works have got contracts with SESAR). This long term horizon is a mean to make boundaries evolve.As seen before, actors in the industry change the boundaries through a coopetitive game. Some of them (DFS in Germany, NATS in the United Kingdom, Swisscontrol in Switzerland) have been corporatized or privatized and this shift has started to change symbolic boundaries (Lamont et Molnar, 2002). These actors have a more commercialized approach and seek to extend the boundaries of their capability units across national boundaries.

Conclusion

The case study shows how fruitful it is to take into account the different types of boundaries (internal, external, horizontal, vertical) and their different dimensions (technology, organization, etc.) in a synoptic way. We would like first to come back to some notions the analysis of boundaries through our case study has put forward. The concept of capability unit is related to the idea that there are no such thing as « natural » boundaries, that could be determined for example by transaction costs or economies of scale and scope. When they place a boundary, be it internal or external, managers think of a capacity and this is done in a context of causal ambiguity. Boundaries are the object of a decision and are always debatable and debated. Boundaries induce a rarefaction of the flows (financial, informational, etc.). This intensity of this rarefaction can evolve over time. Once determined, the boundaries tend to sediment and be entrenched. In that dynamics, asynchrony of decisions made in

- 77 -

multiple dimensions (technology, human resources, organization of sub-activities, etc.) plays a key role. As environment evolves, controversies concerning the perimeter of the capability units can intensify and some actors can develop strategies aiming at changing the boundaries. These strategies can only pertain to the boundaries of a few capability units, or to a large set of boundaries. In this later case, the strategy can be called an architectural one and is developed by an actor with a particular status. This actor belongs to several organizational fields and is not constrained by the symbolic boundaries like other actors only belonging to one field. This kind of strategy entails a willingness to impose synchrony to other actors in the industry. The dynamics of displacing the boundaries relies on two changing processes, competition and cooperation, that combine in a coopetitive approach.The chart illustrates these different points.Some other studies are requested to test the approach.

- 78 -

The essential dimensions of a study of the organizational boundaries (the ATM case study)

Determining the capability units

Economic analysis

Economies of scale and scope, diseconomies

Visibilization/opacification of the flows and exchanges(especially financial)

Decision A hierarchical actor determines the perimeter of the capability unit in a context of causal ambiguity

Dynamics of stabilization of the boundaries

sedimentation Sedimentation of different kinds of boundaries

asynchronyAsynchrony of the decisions affecting the multiple dimensions of boundaries (technology, human resources, etc.)

Dynamics of change of boundaries

controversies Being not « naural », boundaries are debatable

Architectural actors

Strategy of imposed synchrony and of designing coopetition

Actors of the industry

Coopetitive game and rededigning of the capability units

- 79 -

Abbott Andrew (1995) « Things of boundaries. » Social Research, vol. 62, n°4, pp. 857-882.

Anderson James E. & Van Wincoop Eric (2003) « Gravity with Gravitas : A solution to the Border Puzzle. » The American Economic Review, vol. 93, n°1, March, pp. 170-192.

Araujo Luis, Dubois Anna & Gadde Lars-Erik (2003) « The Multiple Boundaries of the Firm. » Journal of Management Studies, vol. 40, n° 5, July, pp. 1255-1277.

Baldwin Carliss Y (2008) « Where do transactions come from ? Modularity, transactions, and the boundaries of firms. » Industrial and Corporate Change, vol. 17, n°1, pp. 155-195.

Barney Jay B. (1999) « How a Firm’s Capabilities Affect Boundary Decisions. » Sloan Management Review, Spring, pp. 137-145.

Benson Allan F. (1994) « Boeing launches 777 from PCs. » Assembly, November/December, pp. 14-16.

Benson Allan F. (1995) « Boeing builds 777 On Line. Part I. » Assembly, January. vol. 37, n°1, pp. 35-36.

Benson Allan F. (1996) « Boeing builds 777 On Line. Part II. » Assembly, April, vol. 38, n°1, pp. 34-39.

Beyer Antoine (2008) « Les frontières du “Ciel unique européen“. Enjeux techniques et territoriaux du contrôle aérien en Europe. » Flux, n° 71, janvier-mars, pp. 8-23.

Brandenburger Adam M. & Nalebuff Barry J. (1996) Coopetition. NY, Doubleday.Brown John Seely & Duguid Paul (2001) « Knowledge and organization : A social-

practice perspective. » Organization Science, vol. 12, n° 2, pp. 198-213.Button Kenneth & McDougall Glen (2006) « Institutional and structure changes in air

navigation service-providing organizations ». Journal of Air Transport Management, vol. 12, pp. 236-252.

Cadenasso Mary L., Pickett Steward T.A. Weathers Kathleen C. & Jones Clive G. (2003) « A Framework for a Theory of Ecological Boundaries » Bioscience, vol. 53, August, n°8, pp. 750-758.

Carlile Paul R. (2002) «   A Pragmatic View of Knowledge and Boundaries: Boundary Objects in New Product Development.   » Organization Science , vol. 13 n°   4 (July) pp.   442-455.

Chevalier Judith (2004) « What Do We Know About Cross-subsidization ? Evidence from Merging Firms. » The Berkeley Electronic of Economic Analysis and Policy, vol. 4, n° 1, article 3.

Depeyre Colette & Dumez Hervé (2009) « A management perspective on market dynamics : stabilizing and destabilizing strategies in the US defense industry. » European Management Journal, vol. 27, n°2, April, pp. 90-99.

Auteurs, à paraître.Dumez Hervé (2004) « Élaborer la théorie à partir des données. » Sciences de Gestion,

n° 44, pp. 139-155.Dumez Hervé & Jeunemaître Alain (2001) « Improving Air Traffic Services in Europe.

The Economic Regulation Perspective. » in Henry Claude, Jeunemaître Alain, & Matheu Michel (2001) Regulation of Network Utilities : The European Experience. Oxford, Oxford University Press, pp. 290-311.

Gieryn Thomas F. (1999) Cultural Boundaries of Science : Credibility On the Line. Chicago, Chicago University Press.

Greenwood Royston & Suddaby Roy (2006) « Institutional entrepreneurship in mature fields : The big five accounting firms. » Academy of Management Journal, vol. 49, n° 1, pp. 27-48.

Grushka-Cockayne Yael, De Reyck Bert & Degraeve Zeger (2008) « An Integrated Decision-Making Approach for Improving European Air Traffic Management ». Management Science, Vol. 54, n° 8, August, pp. 1395-1409.

Hartshorne Richard (1936) « Suggestions on the Terminology of Political Boundaries. » Annals of the Association of American Geographers, vol. 26, March, pp. 56-57.

Helfat Constance E. et al. (2007) Dynamic Capabilities. Understanding Strategic Change in Organizations. Oxford, Blackwell.

- 80 -

Jacobides Michael G. & Winter Sidney G. (2005) « The co-evolution of capabilities and transaction costs : explaining the institutional structure of production. » Strategic Management Journal, vol. 26, n° 5, pp. 395-413.

Jacobides Michael G. (2006) « The architecture and design of organizational capabilities. » Industrial and Corporate Change, vol 15, n° 1, pp. 151-171.

Jacobides Michael and Stephan Billinger (2006) « Designing the boundaries of the Firm: From “Make, Buy or Ally” to the Dynamic Benefits of Vertical Architecture », Organization Science, vol. 17, n° 2, 249-261.

Jacobides Michael, Thorbjorn Knudsen and Mie Augier (2006) « Benefiting from innovation: Value creation, value appropriation and the role of industry architectures », Research Policy, vol. 35, n° 8, pp. 1200-1221.

Kogut Bruce & Zander Udo (1992) « Knowledge of the firm, combinative capabilities, and the réplication of technology. » Organization Science, vol. 3, n° 3, pp. 383-397.

Lamont Michèle & Molnàr Viràg (2002) « The Study of Boundaries in the Social Sciences. » Annual Review of Sociology, vol. 28, n°1, pp. 167-195.

Langlois, Richard N. and Robertson, Paul L. (1995). Firms, Markets and Economic Change: A Dynamic Theory of Business Institutions. London: Routledge.

Ouvrage, à paraitreLippman, Steven A., & Rumelt, Richard P. (1982) « Uncertain imitability: An analysis of

interfirm differences in efficiency under competition ». Bell Journal of Economics, vol. 13, n° 2, pp. 418–438.

Locke K., Grounded Theory in Management Research, Sage, London/Thousand Oaks, 2001.McCallum John (1995) « National Borders Matter : Canada-US Regional Trade

Patterns. » American Economic Review, vol. 85, n°3, June, pp. 615-623.Mendes de Leon Pablo (2007) « The relationship between Eurocontrol and the EC :

living apart together. » International Organizations Law Review, vol. 4, n°2, pp. 305-320.

Miller Douglas J., Fern Michael J. & Cardinal Laura B. (2007) « The Use of Knowledge for Technological Innovation within Diversified Firms ». Academy of Management journal, vol. 50, n° 2, pp. 308-326.

Minghi Julian V. (1963) « Boundary Studies in Political Geography. » Annals of the Association of American Geographers, vol. 53, n°3, September, pp. 407-428.

Nonaka Ikujiro (1994) « A dynamic theory of organizational knowledge creation. » Organization Science, vol. 5, n° 1, pp. 14-37.

Oliver Christine (1991) « The antecedents of deinstitutionalization. » Organization Studies, vol. 13, n° 4, pp. 563-588.

Osterlund Carsten & Carlile Paul (2005) « Relations in Practice: Sorting Through Practice Theories on Knowledge Sharing in Complex Organizations. » The Information Society, vol. 21, pp. 91-107.

Potts Jason (2001) « Knowledge and Markets », Journal of Evolutionary Economics, vol. 11, n° 4, pp. 413-431.

Powell Thomas C., Lovallo Dan & Caringal Carmina (2006) « Causes, Ambiguity, Management Perception, and Firm Performance ». The Academy of Management Review, vol. 31, no. 1, pp. 175-196.

Ragin Charles C. & Becker Howard S. (1992) What is a case ? Exploring the Foundations of Social Inquiry. Cambridge, Cambridge University Press.

Richardson George B. (1972) « The Organisation of Industry ». The Economic Journal, vol. 82, n°327, September, pp. 883-896.

Santos Filipe M. & Eisenhardt Kathleen M. (2005) « Organizational Boundaries and Theories of Organizations. » Organization Science, vol. 16, n° 5, September-October, pp. 491-508.

Stake Robert E. (1994 » « Case studies » in Norman K. Denzin & Lincoln Yvonna S. [Eds.], Handbook of qualitative research. Thousand Oaks, CA, Sage, pp. 236–247.

Strayer avid L., Power Mary E., Fagan William F., Pickett Steward T.A. & Belnap Jayne (2003) « A Classification of Ecological Boundaries. » Bioscience, vol. 53, August, n°8, pp. 723-729.

Yin Robert K. (2003) Case study research : Design and methods (third ed.). Thousand Oaks, (CA), Sage Publications.

- 81 -

- 82 -

Annexe 5

SES II Institutional Design : Pursuing Efficiency Gains

Hervé Dumez et Alain Jeunemaître3 juin 2008

- 83 -

The SES2 regulatory package occurs in a renewed context where legislative action is justified according to four main requirements: the need to move from cost containment to full cost efficiency; the need to introduce coherence and give substance and reinforce existing initiatives (FABs, NSAs, Economic Regulation); the need to consolidate the ATM system in accordance with the future technology prospects (SESAR); and, importantly, the need to incorporate environment in the perspective.

So far, SES1 has set up the general regulatory framework. It has introduced separation of service provision and regulation as well as the scope for economic regulation and the restructuring of airspace design through FABs. The SES1 implementation has relied on a bottom up approach based on the willingness of Member States to develop initiatives. It has resulted in mitigated outcomes (see PRC assessment of the SES impact, FABs assessment, etc).Therefore, SES2 shall, at the same time, adapt to the new context and introduce a new dynamics. It leads to consider how an underlying rationale might achieve that end and how the rationale might translate into a fine-tuned institutional framework.

The note is structured according to the above considerations. In the first place, the SES2 rationale is addressed: what should be the objectives and the means. In the second place, the note draws on a proposed architectural design together with comments on underlying principles and advanced regulatory schemes.

1. SES2 rationale

The overriding principle in SES2 is considered to be efficiency optimisation. The optimisation applies at the same time to the ATM network (in terms of medium term and long term capacity, of airspace design, direct routing and operations) and to regulation (in terms of regulating monopoly, clarifying responsibilities).

In both cases, the efficiency optimisation assumes that the SES2 framework shall be a driver to achieve dual efficient scale in service provision and regulation.The means by which the optimisation momentum is considered to be set into motion is better regulation, governance and performance.

Means have particular content or principles, which are here recalled and used when drawing the institutional architectural design of regulation.

Better regulation is based on the efficient management of expertise in the system, in making the most of the existing, and when required placing it under a competitive process. It is also about the cost effectiveness of the regulatory framework, which shall minimise direct and transaction costs, but also indirect costs of possible litigation. In that regard, the rule making process shall be assumed to avoid inefficient rules that are more prone to legal challenges and disputes, to prefer settlement procedures where exists the possibility of bargaining power between parties, to introducing limited to strict liabilities rules in accordance with the scope for controllable or non controllable environments. In addition, better regulation assumes avoiding the duplication of costs and institutions, the minimising of overlap duties and therefore the clarification of roles and responsibilities.

Governance looks at the attributes of the regulatory approach, which result from the design of institutions. Obviously, the way of deciding on the remit, the powers, the resources and the appeal procedures of a regulatory body are main components of the issue. It includes the proper level of governance (national, regional, European). But also, optimising efficiency of governance entail thinking about internalising the conflicts of regulation on the bearers of risk of regulation (user clubs perspective where the parties that might be in opposition are associated within the governance of the institution), about making more liable those who are best able to make cost-effectiveness assessment of applying or not regulation, about designing particular onus of the proof processes to make more or less difficult appeal to regulatory decisions.

- 84 -

Thinking performance in terms of efficiency optimisation requires introducing allocative (better use of scarce resources) and distributional (redistribution of gains and losses among parties) efficiency. The latter is of particular importance as should no compensation mechanism be properly devised, no agreement among parties to adhere to the regulation might be reached. Without entering into the details of the efficient optimisation of performance, particular characteristics might be stressed: the creation of metrics and target setting; the implementation of ex ante incentives schemes; their review and ex post assessment; the introduction of benchmarking techniques as support for yardstick competition. Overall, the performance framework shall be forward looking (including taking into account likely lock-in technology pathways) and sound (balancing performance measurements with the cost of investigating into details).Bearing in mind the efficiency optimisation overriding principle, alongside with the means of better regulation, governance and performance, the sketch of a general institutional framework might be put forward.

- 85 -

2. Institutional framework

- 86 -

- 87 -

- 88 -

3. Comments on the institutional framework

Although not fully comprehensive, the architectural institutional design attempts to illustrate how the principle of efficiency optimisation alongside with the means (better regulation, governance, performance) might lead to a clarified regulatory framework. Willingly, the framework does not refer to Eurocontrol, even if, it goes without saying, the various parts of Eurocontrol shall contribute. Rather than covering all aspects of the framework, major properties are pointed out together with emphasis of more focused details of possible significance.

In broad terms, the framework conveys the following envision. ANSPs have been made more independent from the states alongside with independent oversight going to be fleshed out (NSAs). It is on this momentum that the SES2 pursues efficiency optimisation based on constraints on dynamics, the European Commission acting as prime regulator.

Therefore the regulatory framework would rely on the increasing maturity, specialisation, and independence of stakeholders and would support the ATM system governance in accordance. Put simply, stakeholders would face their own responsibilities beyond the existing controversies. They will have to abide by efficient optimised performance targets derived from prime regulation.

In that respect, although the institutional architectural design gives credence to consultation processes, it above all simplifies and clarifies responsibilities and functions, with two newly formed bodies, on the one hand on performance and economic regulation, on the other hand on network optimisation with regard to infrastructure, airspace design and system operations.

Governance is here adjust so that it internalises conflicts on regulation, promoting a board structure of independent NSAs and users in the area of cost efficiency, and a board of ANSPs and users in relation to FABs, routes, capacity, flow management, and investments in infrastructure.As it might be understood, prime regulation introduces bidding target performance setting schemes, even if defined in general terms and details powers to make them enforceable. From the better representative and equipped board dealing with the burden of regulation, specific configurations would be devised. The FABs and economic processes might serve as example.

Under a prime regulator drive, after advisory and consultation processes, FABs and economic regulation might be subject to bidding top down constraints managed by de-centralised operational bodies –i.e. in the institutional framework, respectively the Network Optimisation Manager (NOM) and the Performance and Economic Regulation Commission (PERC).

FABs constraints might be set in terms of number, rules of financial autonomy, cost saving and restructuring targets (airspace and service provision). It would be to the NOM, where the involved parties are subject to board members governance to comply and organise competing proposals, decide upon business models arrangements –i.e. ANSPs alliances and compensation schemes.

Economic regulation might be set up according to the profiling of a European average rate per service unit associated with average density (number of managed landing and take-offs close to airports) and complexity (crossing routes, bottle necks, overflights) metrics, the FABs and local unit rates being pegged to the profile within bands according to characteristics of density and complexity and cost-effectiveness targets. It would be to the PERC to enter into the details of the scheme, involving parties (NSAs and users) to give substance to the scheme in respect of the general constraint. The procedure for dealing with infringements might as well be defined in general terms, for introducing safety net and restructuring remedy. Hence, in respect of the efficiency optimisation principle both from a network and economic regulation perspective, the institutional framework and detailed regulation

- 89 -

would match the means brought forward as key drivers: better regulation, governance and performance.

- 90 -