Avant d’aller plus loin, il me semble indispensable de donner mon point de vue sur la méthode de travail de la SNCF, en particulier appliquée à l’informatique.
Pendant une partie importante de ma vie professionnelle, j’ai travaillé avec ses Ingénieurs et Techniciens et j’ai apprécié leur méthode de travail, faite de rigueur, de rationalité, de passion discrète, de persévérance dans l’effort commun et aussi de rapports amicaux et chaleureux.
Les Cheminots ne sont généralement pas des trotte-menu de l’informatique, du genre de ceux que l’on rencontre parfois dans les Symposiums, Conventions et autres Espaces de Parole. Ils ne reculent jamais devant les moyens, ratissent large et leur souci est, avant l’invention du terme, le Zéro Défaut. La méthode peut apparaître lourde, mais en définitive, elle marche à coup sûr et c’est un gain de temps. Pour eux, l’ordinateur n’est ni plus ni moins qu’un outil qu’il faut impérativement dominer et faire fonctionner suivant le planning prévu.
Il faut avant tout faire l’heure.
Nous avons envisagé dans le chapitre précédent les raisons historiques et objectives qui ont en quelque sorte prédéterminé le choix d’un type de machine, laquelle devait être de grandes dimensions pour absorber l’ensemble des informations de l’Entreprise et les traiter.
Cependant, il fallait nécessairement, pour concrétiser pratiquement ce qui ne devait être au départ qu’une tendance « instruire un dossier en bonne et due forme », en appliquant la méthode SNCF.
Sous l’autorité directe du Directeur Général de la SNCF, les Études Générales sont chargées, en 1960 :
La direction des études d’utilisation d’un EEG est donc confiée à une Commission de Mécanisation regroupant, sous l’impulsion et la haute autorité de Roger Hutter , un certain nombre de hauts représentants des Directions intéressées.
17 novembre 1955 Réunion initiale de la Commission
· Lancement des activités d’exploration suivant 5 axes de travail :
· En parallèle, établissement par les Études Générales de notes d’information et animation de conférences de Direction en vue d’informer et de sensibiliser les Fonctionnaires Supérieurs sur les possibilités des nouveaux équipements.
· Il est intéressant, aujourd’hui, de noter les titres et dates de ces
notes d’information :
· 1955 - L’ordinateur IBM 650 (26 pages)
· 1956 - L’ordinateur IBM 705 (35 pages)
· 1957 - Calcul scientifique et programmation (82 pages)
D’après un article SNCF datant vraisemblablement de 1961, les premiers travaux montrent qu’un EEG est capable d’assurer le traitement centralisé de l’ensemble des problèmes de gestion administrative, financière et comptable de la SNCF, en mettant en place une organisation nouvelle des circuits d’information, à 3 niveaux :
Un autre article de la SNCF, légèrement postérieur au précédent et datant très certainement de 1962, présente cette approche en termes plus nuancés :
« L’utilisation d’un ensemble électronique envisagée dès l’origine, a été la conclusion la plus importante de ces études, avec l’implantation de centres mécanographiques légers au niveau des Arrondissements, et le développement des moyens d’entrée en chaîne mécanisée au niveau des Etablissements.
Cette profonde transformation de l’utilisation des moyens mécanographiques allie donc la centralisation du traitement à la décentralisation des moyens de collecte de l’information vers la source même de cette dernière. »
Arrivés à ce stade des travaux, il devenait indispensable, pour les membres de la Commission, de confirmer par une étude sur le terrain les conclusions théoriques précédentes.
Les premiers EEG étaient apparus aux USA en 1951 avec l’Univac 1 de Sperry Rand Corporation. Les premières études des possibilités des EEG dans les Chemins de Fer ont été effectuées en 1953 par le Chesapeake & Ohio Railroad.
Il était donc logique d’explorer les réalisations américaines.
Trois objectifs sont définis et répartis en trois groupes:
1 Groupe 1 :
1.1 Étudier les développements techniques des EEG et leur évolution probable dans un proche avenir ;
1.2 Examiner comment les entreprises, et spécialement les réseaux de chemin de fer, envisageaient d’utiliser les EEG en vue d’améliorer leurs méthodes de gestion ;
2 Groupe 2 : Étudier en détail l’utilisation des EEG pour les Applications ferroviaires de types
2.1 Commercial,
2.2 Mouvement,
2.3 Personnel,
3 Groupe 3 : Étudier en détail l’utilisation des EEG pour les Applications ferroviaires de types
3.1 Comptabilité,
3.2 Gestion des Stocks,
3.3 Approvisionnement
La mission comprend donc 8 fonctionnaires répartis en 3 groupes et poursuit son investigation aux USA et au Canada en avril/mai 1957.
· La presque totalité des ordinateurs en service ou à l’état de projets très avancés, à savoir IBM 704, 705, 709, UNIVAC I et II ainsi que LARC de Sperry Rand Corporation, National 304 de NCR, BIZMAC de RCA, Datatron de Burroughs, Alwac 800 de LOGISTIC RESEARCH, etc. sont étudiés.
· Les grands utilisateurs d’EEG, les usines et laboratoires des constructeurs, les centres de calcul divers avaient été visités, soit 62 sites différents et plus de 130 responsables. Les visites avaient et préparées à l’avance par l’envoi de questionnaires spécialisés rédigés en anglais..
· Parmi les grands utilisateurs:
· 10 réseaux de chemin de fer, dont Canadian Pacific, New York Central,
Pensylvania RR, Chesapeake & Ohio,
· 3 compagnies d’assurances traitant plus de 40 millions de polices, à
savoir Metropolitan Life Insurance, New York Life Insurance, Prudential,
- 2 industries, Sylvania et Westinghouse
· 3 utilisateurs divers, dont le Lab. de Calcul de l’Université de Harvard.
Dés le retour de la mission, la Commission de Mécanisation :
· voyait confirmées par les conclusions de l’enquête les orientations dégagées
par les études préalables, conduisant à l’utilisation d’un EEG de grande
dimension pour traiter l’ensemble des problèmes de gestion de la SNCF
· décidait de lancer une vaste consultation internationale en vue de la
commande d’un EEG de grande capacité.
Nous sommes en 1957 et les grandes organisations n’ont pas encore à leur disposition de processus rationnel de sélection d’un équipement informatique et nous avons bien compris que la SNCF ne peut se permettre d’approximations, pour une décision aussi importante.
Les questions qui se posent sont multiples :
· Faut-il choisir une machine ayant fait ses preuves, avec des « programmes »
clean, mais peut-être déjà périmée ?
· A contrario, faut-il choisir une machine moderne, toute en promesses avec
laquelle il faudrait nécessairement essuyer les plâtres ?
· L’architecture de la machine devait-elle être classique (on peut traduire
par IBM) ou novatrice (on peut penser à la simultanéité Bull Gamma 60) , et
dans ce dernier cas, ce type d’architecture pouvait-il mener à une impasse ?
· Quelle était la qualité du support du fournisseur ?
· en matière d’entretien (traduire maintenance) et dans ce cas intervient la
proximité des usines;
· en matière de formation du personnel.
Fidèle à ses principes, la SNCF investit dans la mise au point d’une méthode de comparaison et de décision, généralisée 10 années plus tard sous le nom de MIX.
Les résultats du MIX donnèrent la victoire au Gamma 60, vraisemblablement à une courte tête du 705 IBM.
Je cite :
« Finalement, la SNCF porta son choix sur le Gamma 60, encore à l’état de projet très avancé, qui offrait des possibilités originales et extrêmement intéressantes. Le principe de simultanéité universelle du Gamma 60 permettait en effet de disposer d’organes périphériques de performances modestes, donc sûrs et peu coûteux. Le fait de pouvoir en multiplier le nombre sans introduire de lenteurs dans le rendement global permettait d’économiser la course aux performances réclamées dans l’hypothèse ou l’on serait limité en nombre d’organes capables de travailler de front. »
Au delà des arguments qualitatifs développés, comme résultats de la comparaison MIX, les raisons profondes du choix sont encore aujourd’hui l’objet de suppositions, hormis un cercle restreint de décideurs. Cependant, d’après un responsable SNCF de haut niveau récemment interrogé, on peut raisonnablement avancer les hypothèses suivantes :
· UNIVAC a été écarté, malgré la grande qualité technique, parce que
n’ayant en 1958 ni véritable représentation ni support en France. C’est
d’ailleurs un UNIVAC 1108 qui succédera plus tard au Gamma 60, quand Univac
pourra fournir un vrai support local.
· IBM n’a pas été retenu parce qu’il proposait le 705, une machine
relativement obsolète pour l’époque. De plus, ses commerciaux auraient
proposé ce que mon interlocuteur appelle une solution-tiroir; à savoir, IBM définit
une première solution informatique qui pourra évoluer dans le temps jusqu'à
satisfaction complète du Client, et d’IBM. En plus des avantages financiers
de cette stratégie de vente, la méthode permet ainsi au Constructeur d’acquérir
progressivement une connaissance du problème Client qu’il n’avait pas forcément
au départ et la répercuter vers d’autres prospects.
· BULL a été choisi
Le marché fut signé le 4 février 1958
A partir de cette date, et pendant plusieurs années se développa avec la participation des équipes des deux partenaires une aventure industrielle excitante.
Il s’agit bien d’une aventure, car elle prend la forme d’une véritable
passion partagée par les deux équipes.
Elle est bien industrielle, puisqu’elle doit aboutir à des résultats
concrets dans un délai déterminé et qu’à ce titre elle doit avoir nécessairement
un déroulement rationnel et organisé.
Je choisirai donc de préférence à aventure industrielle l’expression plus
contrastée et plus suggestive de passion rationnelle.
Si on essaie d’analyser les raisons pour lesquelles ce phénomène s’est
produit, il vaut mieux décomposer l’analyse en deux parties, tout d’abord
le pourquoi de la passion et ensuite l’explication du rationnel.
C’est un enthousiasme commun.
Coté Bull, il faut être vraiment passionné, avec aussi une bonne dose
d’inconscience, pour développer, à partir d’un acquis expérimental très
léger, une machine aussi novatrice que le Gamma 60, en y consacrant la majeure
partie des ressources de la Compagnie.
On en conclura peut-être que, malgré les conséquences extrêmement positives
de cette décision déjà exposées précédemment, il n’en demeure pas moins
que l’effet négatif de cette même décision a précipité la Bull dans la
tourmente qui a suivi.
On peut penser aussi, et c’est effectivement ce que je pense, qu’une
Direction des Études qui n’a pas d’objectifs ambitieux n’est pas une
vraie Direction des Études, et que sa vocation n’est pas d’être à la fois
créatrice et comptable.
C’est peut-être le problème d’une Direction Générale que de contrôler
financièrement ses pur-sang et d’arbitrer en permanence entre développement
et rentabilité.
Coté SNCF, il faut être intrépide pour préférer à une solution de tout
repos, telle que la solution IBM 705, une voie tout de même risquée, une sorte
de pari sur une machine qui n’existait que dans les cartons.
C’est un rationnel partagé.
En effet, les descriptions faites précédemment de l’esprit et de la méthode
Gamma 60 d’une part, ainsi que de la méthode SNCF d’autre part montrent
qu’il y a une très bonne convergence entre les deux approches.
Cette convergence se révélera féconde et se développera dans le cadre des
rapports professionnels étroits qui vont s’établir pendant plusieurs années.
Tant et si bien qu’il sera difficile, au bout de quelques années de
fonctionnement de discerner clairement, dans la méthode de développement des
applications SNCF, ce qui est Bull et ce qui est Études Générales de la SNCF.
De la même manière, la créativité des équipes de programmeurs SNCF jointe
à l’absence de Système d’Exploitation Bull, au départ, fait que
l’ensemble des programmes a une origine mixte, origine qui cependant, dans ce
cas, est plus facile à identifier.
Nous venons de présenter les partenaires, de définir leurs méthodes,
d’essayer de comprendre leur état d’esprit et leurs motivations, de déterminer
les objectifs en jeu.
Maintenant, en fonction de tous ces éléments, nous allons voir ce qui s’est
passé, à partir de 1958, tout d’abord rue Saint-Lazare, ensuite à la gare
d’Auteuil.
Des efforts particuliers ont été consentis pour implanter le Gamma 60 au bon endroit, lui garantir un fonctionnement dans de remarquables conditions de sécurité, et enfin en faire une vitrine technologique de la SNCF et aussi de la BULL.
Pourquoi la gare d’Auteuil ?
· Il s’agit d’un bâtiment déjà construit, qui permet donc un aménagement
plus rapide, plus économique, demandant moins de formalités administratives préalables
qu’un bâtiment entièrement neuf.
· La situation, en bordure d’un boulevard extérieur, puis proche du périphérique,
permet un accès rapide des données sur cartes perforées et le retour des résultats
imprimés, puisque le traitement centralisé suppose à cette époque des
circuits physiques de transport d’information conséquents. De plus, il
s’agit d’une gare SNCF, qui contribuera à écouler le trafic de
l’information.
· Enfin, l’un des objectifs finals étant un certain prestige de la réalisation,
le choix de l’arrondissement n’était pas sans y contribuer.
Les raisons :
· L’enjeu, pour les Etudes Générales de la SNCF, ainsi que pour la
Direction Générale de l’Entreprise, est considérable et l’échec n’est
pas permis.
· Un ordinateur de cette dimension est encore une inconnue, quant aux
conditions de fonctionnement, pour les utilisateurs de 1960.
· De plus, personne n’a d’idées précises sur les qualités de
fonctionnement du Gamma 60 en particulier, puisqu’il n’est encore qu’un
projet, à la date de la commande
· Il est donc prudent de se mettre au départ dans les meilleures conditions de
fonctionnement.
Aujourd’hui, les circuits intégrés fonctionnent pratiquement sans tenir
compte de l’environnement, les puissances requises ayant chuté de façon
vertigineuse. La seule précaution prise sur un micro-ordinateur est
d’incorporer un petit ventilateur qui refroidit le microprocesseur et
l’alimentation.
Mais en 1960, les transistors, d’une fiabilité douteuse à la température,
présents en grand nombre dans la machine (puisqu’il n’y a pas encore
d’intégration), dégagent une grande quantité de chaleur.
Il est donc nécessaire de souffler dans un faux-plancher, au droit de chaque élément
de la machine, une importante quantité d’air dépoussiéré, à une température
et une hygrométrie évoluant à l’intérieur de limites étroites.
L’objectif poursuivi et atteint est donc d’isoler le Gamma 60 dans un
cocon technique :
· le local abritant la machine est isolé de l’enveloppe extérieure que
constitue le bâtiment d’origine, au plan des vibrations
· la machine se trouve au centre d’une vaste cage de Faraday, qui la protège
des perturbations électriques éventuelles
· l’alimentation électrique a été conçue avec un luxe de précautions
· la fourniture de l’énergie est assurée directement par la SNCF, la
solution EDF n’étant pas considérée comme assez fiable.
· on utilise donc le réseau Haute Tension de la Traction SNCF, avec une sécurité
supplémentaire assurée par une alimentation 15.000 volts doublée, et de plus
fournie par deux sous-stations SNCF différentes.
· transformation du courant 15.000 volts par 3 transformateurs en parallèle
dont l’un, destiné aux services annexes, pouvait être coupé sans dommage
pour le fonctionnement principal du Gamma 60 et du conditionnement d’air
· en cas de totale défaillance du secteur, alimentation à partir de 3 groupes
Diesel interchangeables dont seulement 2 suffisent à assurer l’alimentation
du Gamma 60 et du conditionnement d’air
· les Groupes Diesel sont maintenus en préchauffage permanent pour obtenir un
démarrage instantané.
· toutefois, pour éviter la perte d’informations au niveau du transfert
de la coupure éventuelle, relais d’alimentation par un système de
batteries-tampon permettant une autonomie de 20 minutes, ce qui autorise
plusieurs relances successives des Diesels
· enfin, protection contre les microcoupures par groupe moteur-générateur à
volant d’inertie isolant électriquement le Gamma 60 du secteur
· le conditionnement, suivant la formule « grosses sections et faibles débits
», offre dans de bonnes conditions de confort et de sécurité un débit de
1000 m3/minute.
La SNCF consent à d’immenses efforts pour assurer le succès de son informatisation.
Il est donc normal qu’elle utilise cet investissement dans un but de propagande, laquelle va être particulièrement réussie. Cet effort de propagande se prolongera d’ailleurs, bien après la période Gamma 60, et se renouvellera en particulier pour l’UNIVAC 1108, mais dans un style plus sobre.
L’accès de la salle machine est réservé aux techniciens. Cette salle est brillamment illuminée et isolée acoustiquement par une paroi de verre du circuit des visiteurs, lequel est surélevé par rapport à la salle machine. Cet environnement baigne dans une atmosphère un peu irréelle, parce que privée de lumière naturelle, et accentuée par l’inclinaison particulière des vitres de séparation, qui rappellent une tour de contrôle d’aéroport.
L’isolement dans lequel étaient plongés les visiteurs pouvait avoir également des conséquences pratiques intéressantes. Je me souviens de la visite d’un Contrôleur Général des Armées, prospect Bull, qui, sans le savoir, a assisté à un tri sur ruban magnétique totalement fictif, les dérouleurs étant en entretien, mais animés d’un mouvement alternatif par les bons soins de la Maintenance Bull. Cela se passait en 1961 et à cette époque, même le Général disait « Il faut faire comme si et parfois ça marche ».