De la gestion des connaissances
au management global du capital intellectuel



La gestion des connaissances est un sujet à la mode. A ce titre, elle enthousiasme les uns et agace les autres. Pourtant, on n’a pas attendu la fin du 20e siècle pour pratiquer la gestion des connaissances dans les milieux professionnels : depuis toujours, le compagnonnage en est la base. Cette pratique traditionnelle s'est poursuivie jusqu'à la fin des années 80, c'est-à-dire tant qu'une certaine stabilité régnait dans les métiers et les entreprises. Le compagnonnage assurait la transmission du patrimoine de savoir et de savoir faire, mais retardait aussi l'innovation en privilégiant la reproduction des modes de travail et de pensée.

Le monde actuel s'est décloisonné, culturellement, économiquement et technologiquement. La nécessité de repenser la gestion des connaissances découle de cet effondrement des barrières. Un nouvel espace de travail émerge grâce aux outils modernes de communication. La notion même de travail évolue vers celle d’activité qui intègre l’apprentissage et la communication en continu.

Cette ouverture génère aussi une nouvelle complexité de l'activité scientifique et technique : les innovations de rupture se plaçant aux interfaces entre les disciplines classiques, il y a nécessairement collaboration, construction collective. Le passage de l’intelligence individuelle à l’intelligence collective se dessine. La gestion des connaissances évolue de la gestion de stocks vers la gestion de flux, car les connaissances sont en perpétuelle expansion et reconfiguration, et seuls les experts qui les portent sont à même de les mobiliser à bon escient en fonction des besoins.

Dans ce contexte émerge aussi une intelligence globale d’organisme, qui n’est plus fondée sur les seuls savoirs scientifiques et techniques existants, mais sur une capacité collective de les consolider pour construire de nouvelles approches des grandes questions posées à la recherche. Développer cette capacité est devenu stratégique dans la compétition mondiale. Cela suppose une convergence d’efforts en matière de systèmes d’information, de processus opérationnels et de gestion des ressources humaines, qui nécessite une politique globale de management du capital intellectuel de l’organisme.

Ce chapitre est illustré d’exemples tirés de l’expérience du CEA [1].



Les enjeux de la gestion des connaissances dans les organismes de recherche


Une question de survie dans un univers en expansion
La connaissance est au cœur de l’activité productrice en recherche. Elle en est le produit, elle en est aussi le substrat. En tant que produit, elle est formalisée, diffusée, valorisée pour ou par les clients de cette recherche : communauté scientifique internationale, donneurs d’ordres publics, clients industriels… En tant que substrat, sa gestion est souvent laissée à l’initiative de ses utilisateurs. Les chercheurs sont ainsi détenteurs d’une masse de savoir et savoir-faire stratégique pour l’organisme, dont une très faible part est formalisée de manière utilisable par des tiers. En 2000, une étude du CIGREF [2] estimait à plus de 80% les connaissances stratégiques des entreprises qui sont « dans la tête des gens » ou dans des formats peu exploitables tels que notes manuscrites ou autres documents de travail non référencés.

En période de stabilité des équipes, des programmes et des moyens de recherche, tout ceci posait peu de problèmes. L’évolution du contexte de la recherche fait aujourd’hui craindre aux dirigeants de perdre une partie de leur capital, de leur capacité de travail et même de leur crédibilité globale : départs à la retraite massifs, dispersion d’équipes, redéploiement d’activités, sans parler de l’ouverture des marchés de la recherche qui génère une compétition croissante obligeant à toujours plus de performance, plus vite et à moindre coût.

Il est clair que dans cette compétition, la différence se fait dans la capacité de mobiliser les savoirs et savoir-faire existants pour avoir le moins possible de travail additionnel à fournir. Mais cette accélération de l’activité productrice laisse aussi de moins en moins de temps pour formaliser les acquis et les rendre transmissibles : on est dans la spirale infernale du court terme, situation hautement dangereuse pour les organismes de recherche qui, au sein du système de recherche, assument seuls la responsabilité spécifique de penser les compétences à long terme, d’anticiper et d’investir dans la durée, pour offrir en permanence aux demandeurs de recherche le niveau d’excellence qu’ils sont en droit d’attendre.

La situation est d’autant plus délicate que le décloisonnement s’étend aussi aux contenus des recherches. Les questions traitées sont devenues complexes, nécessitant une approche transdisciplinaire et des collaborations étendues, sans que le périmètre des connaissances et des acteurs utilement mobilisables sur chaque sujet soit bien établi au départ. L’expansion permanente des champs de connaissances dans les différents domaines ne permet plus à un seul cerveau d’appréhender globalement l’existant cognitif pertinent associé à un sujet.

Ainsi, la question de conservation des connaissances stratégiques associées aux différents domaines d’activité se double aujourd’hui d’une question systémique de mobilisation étendue des connaissances, cette situation ouvrant elle-même l’espace à un nouveau champ de connaissances en matière de sollicitation, connexion et consolidation des savoirs et savoir-faire… Jusqu’où ira cette expansion des connaissances ? Quelle maîtrise garderons-nous sur tout ce que nous avons produit ? Ce sont évidemment des questions que tout dirigeant se pose.



L’évolution du rapport à la connaissance
Depuis Aristote, la notion de connaissance a beaucoup évolué. On pensait à l’époque que le monde était régi par des règles préexistantes, immuables, qu’il était donc possible de capitaliser au fur et à mesure de la compréhension de ces règles, en classant les connaissances acquises dans un référentiel établi une fois pour toutes. Depuis, on a bien sûr évolué, mais le rapport à la connaissance conserve une part d’ambiguïté, entre son aspect de capital (à conserver précieusement, voire jalousement car il donne aussi le pouvoir et on n’a pas envie de le voir remis en cause) et son aspect d’outil (clé pour aller au-delà, construire du neuf et le cas échéant remettre en cause l’ancien).

Il y a ainsi une opposition irréductible entre la gestion des connaissances dans ce qu’elle vise à conserver une vision acquise sur les choses et l’innovation dont l’essence est de bousculer l’ordre établi. Cela n’a pas échappé à un certain nombre d’entreprises, qui se demandent dans quelle mesure la capitalisation des bonnes pratiques n’est pas un frein à la poursuite du progrès organisationnel et fonctionnel. Vraie question, mais sans doute faux problème : sans repères en matière de connaissances, peut-on envisager une destruction créatrice telle que pouvait l’entendre Schumpeter ?

Ces considérations expliquent comment l’évolution du contexte de la recherche a fait passer la gestion des connaissances par trois étapes, qui représentent une gradation tant dans les enjeux que dans les défis techniques et managériaux auxquels ils correspondent :
- conserver la connaissance existant sur un sujet parce qu’elle apporte les réponses à des questions qu’on se pose encore aujourd’hui,
- permettre l’utilisation de la connaissance existante à d’autres fins et dans d’autres contextes que ceux qui les ont vus naître,
- créer les conditions environnementales favorables au partage généralisé des connaissances dans l’organisation.

A travers ces trois niveaux s’exprime aussi une évolution du paradigme relatif à la connaissance et à son utilisation :
- la connaissance-objet : le premier niveau correspond à une connaissance figée dans un contexte donné. C’est cela qui permet de la considérer comme ayant du sens en soi. Dans ce contexte, la connaissance est un objet-savoir, bien délimité, codifiable et assimilable en tant que tel. L’extrapolation de ce savoir hors de son contexte d’origine pose des problèmes, car les limites d’utilisation n’apparaissent en général pas clairement,
- la connaissance-action : le second niveau résulte de cette prise de conscience qu’aucun objet-savoir n’est directement utilisable, car ni la question posée ni son contexte ne se reproduisent jamais à l’identique. Il faut nécessairement une méta-vision sur cette connaissance, pour comprendre sa portée au-delà du contexte de création, et savoir la transposer aux nouvelles conditions. Cela veut dire que sa formalisation doit se faire de façon particulière. L’appropriation s’effectue à travers l’utilisation, qui en même temps transforme cette connaissance enregistrée en une connaissance appliquée nouvelle,
- la connaissance-émergence : le troisième niveau prend en compte la dimension d’organisme. Il s’agit de mettre en interaction les différentes sources et les différents porteurs de connaissances, pour faire émerger une connaissance nouvelle qui transcende celles que portent ou que sont capable de produire les individus pris isolément.

Ce troisième niveau correspond évidemment au défi de l’innovation collective. Elle suppose une ingénierie concourante en matière d’outils d’information, de gestion des ressources humaines et de conduite opérationnelle [3] : c’est le « management global du capital intellectuel », qui va bien au-delà de ce que suggère l’intitulé « gestion des connaissances », et que traduit mieux l’anglicisme « knowledge management ».


Quelles connaissances gérer et comment ?
Les dirigeants et autres responsables ont bien conscience de cette situation, et ne manquent pas d’afficher l’importance stratégique de gérer correctement leur capital intellectuel. Mais passer de l’intention à l’action n’est pas simple, ne serait-ce que par la multiplicité des formes de savoir et savoir-faire, qui ne permettent pas de déployer des solutions unifiées. Des expériences malheureuses de généralisation sur la base de projets pilotes prometteurs sont là pour le rappeler. Par ailleurs, les promoteurs de solutions techniques ont tendance à sous-estimer les aspects culturels et managériaux associés à la gestion des connaissances, et à proposer des dispositifs techniques « clés en mains » dont la greffe sur les processus de fonctionnement en place ne prend pas. Tout ceci explique la prudence avec laquelle les dirigeants considèrent les offres permanentes qui leur sont faites d’engager des projets de gestion des connaissances.

Mais si chaque situation est spécifique et nécessite une approche « sur mesure », il n’en reste pas moins nécessaire d’afficher clairement une volonté globale de la direction générale de progresser dans le management du capital intellectuel de l’organisme. Vis à vis des forces opérationnelles et fonctionnelles, cette volonté ne peut s’exprimer en termes de solutions, mais d’objectifs à atteindre assortis d’indicateurs, de responsabilisation des acteurs, et de calendrier. Regroupées sous la bannière fédératrice de la gestion des connaissances, les différentes initiatives existantes ou émergentes s’en trouvent renforcées.

Il y a fondamentalement deux niveaux de connaissances stratégiques à gérer dans les organismes de recherche : un niveau de connaissances localisables, en général attachées à des domaines d’activité, et un niveau de connaissances diffuses, plutôt liées aux processus globaux et à la culture d’entreprise. Si le premier niveau relève d’une délégation au plus près de leurs détenteurs, telle qu’évoquée ci-dessus, le second est très clairement de la responsabilité de la direction générale.

Parler de connaissances localisables ne signifie pas nécessairement qu’elles soient explicites, ni même formalisables : certaines ne peuvent se transmettre que par compagnonnage. Par contre, on peut définir assez précisément leur périmètre de génération et d’utilisation, qui dans un organisme de recherche correspond souvent au contour des unités ou des projets. A noter qu’il s’agit non seulement de savoirs et savoir-faire scientifiques et techniques, mais aussi dans des domaines fonctionnels tels que la gestion d’infrastructures, les finances, la propriété intellectuelle, etc.

Le second niveau de connaissances stratégiques prend en compte tout ce qui ne peut rentrer dans le périmètre d’un domaine d’activité, comme la capacité de l’organisme de construire des objets de recherche complexes, de mobiliser l’expertise appropriée au quotidien, de conduire de grands projets, de transformer les signaux reçus à tous niveaux en opportunités d’actions ou inflexions d’activité, de stimuler l’émergence d’idées nouvelles, etc. . Ce niveau est plus difficile à aborder, dans la mesure où il s’agit essentiellement de savoir-faire collectif dont on ne sait pas toujours bien dire en quoi il consiste précisément ni à quoi il tient. Sauf rupture importante dans l’organisation, le risque est faible de le voir disparaître brusquement, par exemple par suite du départ d’un collaborateur. Par contre en l’absence d’indicateurs précis on voit rarement sa dégradation lente avant qu’elle ne se manifeste par une situation de crise, ce qui est souvent bien tard pour redresser la barre.

La première étape de tout projet stratégique de gestion des connaissances consiste en une prise de conscience de ce qui constitue le capital intellectuel de l’organisme : identification de ses constituants, mais surtout estimation de leur valeur. Ceci concerne tout particulièrement les connaissances localisables car, la gestion des connaissances ayant un coût, il va falloir tôt ou tard faire des choix : S’agit-il de connaissances vitales pour l’existence de l’organisme (ex : sécurité d’installations à risque, crédibilité de l’expertise dans le cœur de mission, etc.) ? S’agit-il de connaissances rares, qu’on retrouve difficilement ailleurs ? Sont-elles dormantes ou actives ? Quel est leur coût de réacquisition éventuel (en temps pour réapprendre ou argent pour acheter) ? De quelles activités ou domaines d’expertise sont-elles les clés incontournables ? Etc.

L’établissement d’un tel inventaire représente en soi une avancée considérable pour l’organisme, à la fois en lui permettant de mieux connaître et caractériser son capital immatériel, et en la dotant d’un outil de négociation sur la base de cette cartographie du capital. Au-delà, faire des choix de chantiers prioritaires s’avèrera de toutes façons difficile, et relèvera à un moment ou un autre d’arbitrages dans le cadre de la politique générale de l’organisation.

Bien évidemment, cette impulsion donnée devra se transformer en une préoccupation pérenne, suivie par des indicateurs qui permettront aussi de justifier des investissements correspondants. Tout naturellement, cette action s’inscrira dans une volonté plus large d’évaluation, puis de valorisation des actifs immatériels de l’organisme. Un outil de pilotage équilibrant indicateurs de court terme et indicateurs de long terme, sur le principe des « balanced scorecards » [4], apparaît à ce stade comme bienvenu : c’est un pas décisif vers une gestion mieux adaptée au cadre de l’économie de la connaissance.




Les applications fondatrices de la gestion des connaissances


Le contexte d’apparition de la gestion des connaissances dans les organismes de recherche
La préoccupation de gestion des connaissances apparaît dans les années 80 dans les organismes de recherche. Dans la plupart des cas, c’est l’incapacité de répondre correctement à une question concrète posée par un tiers (direction générale, client, organisme de contrôle, etc.), à laquelle on devrait savoir répondre, qui sert de déclencheur à la prise de conscience, par les responsables, d’une perte de mémoire au sein des unités concernées. Les questions les plus embarrassantes sont celles relatives à la sécurité des installations, et celles relatives à l’expertise de l’unité. En effet, dans les deux cas, ne pas savoir y répondre correctement constitue une atteinte à la crédibilité scientifique ou opérationnelle de l’unité, donc une menace pour son avenir.

La responsabilité que chaque organisation a vis-à-vis de son passé, notamment lorsqu’il se manifeste par l’existence d’objets ou d’installations ayant une certaine durée de vie, a constitué un moteur important du développement de la gestion des connaissances. C’est d’autant plus vrai s’il s’agit d’objets ou d’installations présentant des risques particuliers, ou pour lesquels il s’agit de garantir un degré de fiabilité élevé dans le temps. Ce n’est donc pas surprenant que les premières grandes applications de gestion des connaissances se soient développées autour des connaissances de conception ou d’exploitation d’installations lourdes comme les réacteurs nucléaires expérimentaux. Des démarches similaires ont été observées du côté industriel, par exemple en sidérurgie pour l’exploitation de hauts-fourneaux.

Dans l’activité de recherche elle-même, deux types de préoccupations prévalent : d’une part la conservation de toutes les données expérimentales (données primaires) sur lesquelles on s’est fondé pour construire les modèles de compréhension des phénomènes, d’autre part les savoir-faire et tours de mains relatifs aux protocoles expérimentaux. Il s’agit ici d’une situation qui diffère plus nettement de celle de l’industrie, pour qui les premiers champs d’application de la gestion des connaissances sont souvent les produits et les clients, conduisant à de nombreuses applications autour de bases de connaissances accessibles à l’ensemble des personnels concernés. La dispersion territoriale de ces personnels, loin de leurs homologues mais riches de leurs contacts de terrain, a orienté ces développements vers des outils collaboratifs performants pour la capitalisation et le partage d’expérience. Dans les organismes de recherche, la problématique de valorisation du capital de connaissances est d’une autre nature : ce capital est souvent très spécialisé, et correspond à des communautés plus petites et physiquement plus proches. La problématique est moins celle du partage à grande échelle que celle de la conservation de savoirs spécifiques.

Autour de ces diverses préoccupations, les années 1985 à 1995 ont essentiellement vu des initiatives issues du terrain. C’était une époque de pionniers, ce qui confère à ces projets des caractéristiques particulières. La caractéristique principale est qu’il s’agissait de ce qu’on appellerait aujourd’hui de la recherche-action, au plus proche des besoins. Tout était à inventer en marchant : la problématique, les méthodes de travail, les outils, etc. Chaque projet était porté par un ingénieur-chercheur, immergé dans le milieu concerné, et qui se débattait avec des problèmes techniques considérables, car les possibilités et la convivialité des moyens de stockage et de représentation, notamment sous forme informatique, étaient encore relativement limités à l’époque.

Ceci explique aussi pourquoi le passage à plus grande échelle a rencontré des difficultés imprévues : les difficultés techniques au niveau des outils étaient tellement prégnantes qu’on a largement sous-estimé le savoir-faire non codifié des concepteurs dans leur rôle d’exploitant des systèmes de connaissances qu’ils avaient eux-mêmes conçus et mis en place, en particulier pour tout ce qui concerne les aspects humains qui sont spécifiques à chaque environnement.


Trois projets-pilote illustrant l’activité des pionniers en gestion des connaissances
Capitalisation du retour d’expérience
Un des premiers grands projets de gestion des connaissances dans un organisme de recherche a été mis en place en 1986 au CEA pour capitaliser les connaissances acquises à l’occasion de la conception et du démarrage du prototype surgénérateur SuperPhénix [1]. En l’absence de méthode et d’outil existant pour cela sur le marché, un programme de R&D a été engagé. Il a débouché sur une méthode générique baptisée REX (Retour d’EXpérience) basée sur des outils informatiques et un ensemble de procédures de mise en œuvre. La saisie du retour d’expérience est effectuée sous forme de fiches élémentaires, toutes créées selon le même format, mais qui peuvent porter des éléments de savoir ou savoir-faire très divers : analyse de documents techniques, interviews d’experts, description de processus, résultats d’essais… Le système d’indexation de ces fiches permet, à travers des requêtes, de retrouver tous les éléments de connaissance enregistrés sur un sujet donné.

Dès 1993, la méthode REX est suffisamment développée pour être étendue à l’ensemble des connaissances générées par la R&D sur la filière à neutrons rapides, puis en 1995 également à la R&D sur la filière à eau pressurisée, en développant le nouvel outil ACCORE (ACcès aux COnnaissances REacteur). La démarche reçoit le soutien des partenaires EDF et Framatome, et pour garantir une pérennité industrielle, un accord de partenariat est signé avec la société Euriware qui a déjà en charge la valorisation de la méthode REX au travers d’une licence. En 1998, ce projet représente 40 experts interviewés, 700 documents analysés, 5000 éléments d’expérience, 17000 documents numérisés dans la base documentaire associée.

Modélisation des systèmes complexes
Une autre approche de la connaissance des installations complexes est lancée au CEA en 1989. A l’inverse de la méthode REX, qui part de la collecte de briques élémentaires de connaissance et cherche ensuite à les assembler dans un tout cohérent, le projet SAGACE a une approche descendante, visant à développer une méthode de représentation globale des systèmes, afin d’améliorer leur maîtrise. Il s’agit là aussi d’un projet de recherche-action, se développant sur le front d’un besoin de terrain en matière de conduite d’installations du cycle du combustible, combinant aspects techniques et aspects humains. La méthode développée consiste à construire un modèle du système, en l’approchant selon trois angles du vue : ce que fait le système au contact de son environnement (vision fonctionnelle), ce qu’est le système en tant que réseau de ressources opérantes (vision organique), ce que décide le système pour accomplir la mission (vision opérationnelle). Le « systémographe » est l’outil logiciel développé pour réaliser ces différentes représentations.

Cette approche s’applique aussi bien à des systèmes technologiques nécessitant une forte compétence de pilotage ou d’utilisation, qu’à des systèmes organisationnels dont le fonctionnement et l’évolution reposent sur les interactions entre agents, ou encore à des systèmes à base de connaissances dont "l’intelligence artificielle" repose sur l’aptitude à résoudre un problème. Les applications ont donc été variées, au CEA ou à l’extérieur : modélisation d’un prototype évolutif de vitrification de déchets nucléaires, conception du pilotage d’un réacteur de recherche, mais aussi conception d’un système de supervision d’une autoroute ou configuration d’un simulateur de gestion des risques liés aux procédés industriels… Comme pour la méthode REX, le CEA s’est appuyé sur un opérateur industriel pour assurer la pérennité et la diffusion de l’outil développé.

Formalisation des expertises
Dans les années 90, le CEA a dû faire face à un certain nombre de situations de perte potentielle d’expertise, soit liées à des départs à la retraite, soit résultant de redéploiements d’activités. C’est dans ce contexte que la méthode MKSM a été développée et mise en œuvre. Comme SAGACE le fait pour les systèmes, MKSM vise à modéliser la connaissance des experts à travers un certain nombre de points de vue. Il s’agit d’utiliser cette multiplicité d’angles de vue pour amener l’expert à s’exprimer sur des aspects qu’il ne penserait pas à préciser s’il n’était ainsi sollicité. MKSM part en effet du constat que les documents écrits ou les bases de données contiennent essentiellement de l’information, partie visible de la connaissance qui dans cette approche est constituée également de deux autres composantes : le contexte et le sens. La modélisation porte sur les trois points de vue, et fait elle aussi largement appel à des graphes, bien plus apte à représenter la connaissance en ce qu’elle relie entre eux des éléments d’une façon qu’aucun discours linéaire ne peut correctement traduire. Partant d’une vision large du domaine d’expertise, cette méthode conduit par raffinements successifs à aller jusqu’au niveau de détail voulu. L’ensemble des graphes est consigné dans des « Livres de connaissances » mis au point avec les experts.

Dans le milieu des années 90, la méthode a été appliquée à une dizaine de projets opérationnels dans différentes directions du CEA. L’arrêt du programme de recherche sur l’enrichissement de l’uranium par laser a été l’occasion de la déployer à grande échelle compte tenu de l’intérêt stratégique de conserver les connaissances acquises : 100 experts ont été impliqués dans deux départements du CEA, 2085 pages ont été rédigées, dont les deux tiers par les experts eux-mêmes, sur la base de ce que les entretiens guidés par les accompagnants MKSM leur ont fait découvrir comme aspects cachés de leur expertise, ce qui a représenté 700 journées de travail sur un an et demi (dont 520 de rédaction). Dans le même temps, la méthode était également diffusée et appliquée à l’extérieur du CEA : COFINOGA, EDF, DCN, Saint-Gobain, Thomson CSF Optronique, Technicatome, SEP...


Les enseignements de la phase des pionniers
Outre leur apport en termes de capitalisation des connaissances, les différents projets-pilote de la phase des pionniers ont permis de jeter les bases conceptuelles de la gestion des connaissances, qui constituent un socle solide sur lequel a pu se construire une véritable discipline scientifique et technique. Les promoteurs de ces méthodes ont travaillé, seuls ou en réseau, à expliciter les concepts théoriques qui sous-tendaient des développements à forte composante pragmatique. Ainsi a pu être mis en évidence que les différentes méthodes se regroupaient en deux écoles de pensée, conduisant à des contenus cognitifs de nature très différente, ce qui montre combien le concept de connaissance est dépendant d’une approche philosophique plus large [1].

MKSM, comme toutes les méthodes d’analyse d’un patrimoine de connaissances, relève d’une approche positiviste, dont le postulat est que la connaissance préexiste à la démarche, celle-ci consistant à l’analyser, l’expliciter, la décoder, et la structurer pour une utilisation ultérieure. A l’inverse, REX et SAGACE relèvent du postulat constructiviste, selon lequel la connaissance est construite collectivement, dans l’action de capitalisation relative à une action passée ou en cours. Le processus de modélisation qu’elles proposent ne porte pas tant sur les connaissances elles-mêmes que sur le cadre de référence dans lequel elles sont produites et prennent sens : pour REX, ce cadre est une structure sémantique (réseau lexical, points de vue...), pour SAGACE, c’est un système (intégration de points de vue dans une conception globale). Globalement, on peut dire que l’approche constructiviste relève d’une conception de la gestion des connaissances orientée projet, alors que l’approche positiviste relève d’une conception de la gestion des connaissances orientée organisation, les deux étant évidemment complémentaires.

Au-delà de ces aspects conceptuels, un certain nombre d’enseignements ont pu être tirés de cette phase des pionniers. Tout d’abord au niveau des coûts. Même si les coûts complets sont difficiles à établir, on perçoit bien qu’il n’est pas possible de généraliser les pratiques de recherche-action à l’échelle des organismes. D’où un souci de rationaliser les approches et d’arrêter un certain nombre de méthodes et d’outils-type au sein d’un même organisme. Les tentatives en ce sens n’ont pas été franchement couronnées de succès, de part la diversité des situations rencontrées, tant dans la nature des connaissances très spécifiques et très localisées, qu’au niveau de la culture des unités, reflétant leur relation à la connaissance. On retrouve cette différence majeure avec l’industrie, où les grandes applications de capitalisation des connaissances concernent des savoirs et savoir-faire génériques, et traversent les organisations.

Ces difficultés de mise en œuvre ont -et c’est une retombée heureuse- refroidi l’ardeur de ceux qui voulaient imposer une marche forcenée vers l’explicitation généralisée des connaissances, négligeant le rôle des savoirs non codifiables dans la dynamique de création de nouvelles connaissances, telle qu’elle commençait à être comprise à l’époque [5]. La phase de déploiement de la gestion des connaissances au-delà des projets-pilote a en effet été marquée par un souci de thésaurisation, comme s’il s’agissait d’amasser un tas d’or pièce après pièce, et non de denrées volatiles et périssables. D’ailleurs les produits-phares issus de la gestion des connaissances étaient de solides documents écrits, qu’on pouvait ranger dans sa bibliothèque. Le faible développement des outils informatiques n’est pas la seule explication de cet état de fait.

En tant que "mémoire-cire", ces ouvrages étaient parfaits. Ils ont d’ailleurs permis de rendre de précieux services à la fois pour retrouver l’état des savoirs historiques, et pour reproduire certains tours de mains qui avaient pu se perdre. Mais certaines limites sont vite apparues, parce que le champ de validité des connaissances ne pouvait être totalement défini. Tâche impossible d’ailleurs, car il y a toujours des externalités incontrôlables.

Un exemple illustre bien ce propos : on a un jour manqué d’échantillons de matière pour procéder à des études de corrosion sur des composants de centrales nucléaires construites vingt ans plus tôt. Reprenant des procédures parfaitement consignées, on a donc refabriqué ce matériau de base, conforme en tous points aux spécifications. Et pourtant, on n’a jamais pu reproduire sur ces échantillons les comportements observés en centrale : entre temps, les matières premières venaient d’autres sources, les fournisseurs avaient changé (et sans doute certains tours de mains disparu), les machines de fabrication utilisées à l’époque avaient été remplacées par une nouvelle génération, tout ceci ayant des effets imprévus. Il a fallu retrouver des échantillons d’époque pour mener à bien les études.

Cet exemple illustre bien la contradiction qu’il peut y avoir dans une démarche de sauvetage de connaissances : on veut fixer une connaissance parce que le monde change, alors que ce changement lui-même a de grandes chances de rendre cette connaissance obsolète à plus ou moins longue échéance.

En fait, si on questionne les experts, ils ont bien conscience de toutes ces limitations. Ils savent que leurs connaissances ont un champ de validité. Mais ne sachant d’où peut provenir le changement, ils s’en tiennent aux mises en garde concernant les variabilités connues ou les plus prévisibles de l’environnement. Tout prévoir conduirait à tellement de restrictions que la connaissance deviendrait intransmissible et stérile. L’expert sait ce qu’il ne sait pas, mais il ne peut l’expliciter.

L’adaptabilité de l’expert à la question posée est ce qui le différencie fondamentalement de la connaissance enregistrée. La connaissance explicitée est figée dans un contexte là où l’expert déplace en dynamique les parois de son champ de considération. La connaissance explicite est au contraire segmentée de façon immuable. Tout ceci explique le glissement progressif observé par la suite de la gestion de la connaissance-objet vers la gestion des porteurs vivants de cette connaissance.






La gestion des connaissances face à de nouveaux défis

Le milieu des années 90 marque une nouvelle étape dans l’activité de gestion des connaissances au sein des organismes de recherche. D’une part on prend conscience que le savoir-faire en gestion des connaissances développé dans le cadre des activités scientifiques et techniques peut être mis à profit dans le champ d’activités dites ‘fonctionnelles’, d’autre part l’importance et la nature des défis à relever dans les champs scientifiques et techniques poussent les méthodes existantes dans leurs derniers retranchements.


Etendre la gestion des connaissances au-delà des champs scientifiques et techniques
La valorisation des acquis en gestion des connaissances dans le champ d’activités fonctionnelles n’est pas une révolution, mais correspond néanmoins à l’émergence d’une dimension nouvelle à l’échelle de l’organisme. Il s’agit toujours de gérer des connaissances localisables, au sens défini précédemment, mais correspondant cette fois-ci à des domaines d’expertise ou des processus de fonctionnement transversaux aux unités. On rejoint ainsi les entreprises industrielles qui, depuis quelque temps, développent une gestion des connaissances intégrée dans les processus de fonctionnement, ayant pris conscience qu’il y avait là des gisements de productivité importants à exploiter. Le développement d’outils informatiques collaboratifs facilite ces nouvelles applications de la gestion des connaissances, en permettant une plus grande interactivité entre des acteurs parfois géographiquement éloignés. Trois exemples illustrent la variété des applications au CEA.

Le premier exemple concerne le projet SIGMA de refonte du système de gestion du CEA, qui s’est effectué en deux phases. Dans un premier temps, on a déployé la nouvelle application au sein de la seule Direction des applications militaires. En observant le trafic sur la ‘hot-line’ reliant les opérateurs de ce nouveau système à l’équipe technique chargée du déploiement, on a pu comprendre quelles difficultés rencontraient ces opérateurs de terrain, parlant un autre langage et disposant d’autres repères culturels que l’équipe informatique. On a ainsi pu transformer le processus d’apprentissage dans cette direction opérationnelle en un savoir codifié, mis à la disposition de l’ensemble du personnel concerné lors de la seconde phase de déploiement, concernant cette fois-ci l’ensemble du CEA. Il est tout à fait remarquable que le contenu et le mode d’organisation de ce corpus de connaissances n’a rien à voir avec ce qu’on avait pu imaginer au départ. C’est aussi le point de départ d’une action ultérieure d’identification des compétences-clés dans les différents processus de gestion et de redéfinition des visions métier en y intégrant les nouvelles pratiques.

Le second exemple correspond à une action de la Direction de la sécurité nucléaire et de la qualité, pour améliorer la prise en compte des facteurs humains dans la conduite d’installations sensibles. Une méthode d’analyse des incidents dans ces installations a été développée, et un processus mis en place afin de capitaliser les retours d’expérience. Une phase de sensibilisation a été nécessaire, afin de faire évoluer les comportements, et que les personnes concernées voient l’intérêt de la démarche et se prêtent au jeu de l’interrogation détaillée sur les circonstances de l’incident et la manière dont la situation avait pu être corrigée. Cette connaissance a permis de développer un modèle de compréhension applicable à l’ensemble des situations, en mettant en évidence quatre facteurs constitutifs que les actions correctrices permettent alors d’aborder séparément mais aussi dans le rapport équilibré qu’ils doivent entretenir : l’organisation du travail, l’équipe, les dispositifs techniques, l’environnement de travail.

Le troisième exemple concerne la gestion des Experts seniors au CEA. Dans ce projet, la Direction des ressources humaines et des relations sociales a souhaité redonner du sens à la fonction d’Expert senior, clarifier les responsabilités dans l’évaluation, la gestion des compétences d’experts et la valorisation des expertises, enfin économiser des moyens dans le traitement et la diffusion des dossiers des candidats (pour chaque session bisannuelle un homme-an de travail, 35 000 feuilles A4 à reproduire et diffuser…). Dans un premier temps, la mise en place d’un intranet collaboratif a largement facilité les échanges entre les responsables concernés dans les différents pôles opérationnels, permettant l’émergence d’un référentiel unique constitué de douze domaines de compétence scientifique et technique, et pour chaque domaine l’identification des spécialités associées. Cette vision structurée, et acceptée par tous, du champ global d’expertise de l’organisme a constitué une avancée importante pour le management de l’expertise au CEA : équilibrage des domaines et des spécialités, identification des aspects critiques, détermination du nombre et de la distribution des experts-seniors à nommer, etc. Cet intranet a ensuite facilité la constitution puis l’examen des dossiers de candidature, qui ont pu s’effectuer en un temps record, dans les meilleures conditions de transparence (pour les responsables) et de sécurité (pour les candidats). Bien entendu, une fois mise en place, la base ainsi constituée constitue un outil précieux pour gérer l’expertise portée par des individus au CEA, tant dans le présent que dans la préparation du futur.


Gérer des ruptures majeures
L’arrêt définitif des essais nucléaires français, annoncé le 26 janvier 1996 par le Président de la République, constitue sans doute la plus grande rupture à laquelle le CEA a dû faire face depuis sa création. Cette décision a conduit entre 1996 et 1997 àdémanteler d’importantes installations expérimentales, à fermer deux centres de recherche en région parisienne et à effectuer 1310 mobilités de personnels. Parallèlement, il fallait impérativement conserver la crédibilité de la dissuasion nucléaire française, ce qui passait entre autres par la conservation de l’expertise accumulée en 40 ans d’essais. C’est dans une telle épreuve qu’on peut vraiment juger de l’intérêt et de l’efficacité des méthodes et outils de gestion des connaissances !

Le projet CEC (Conservation et Exploitation des Connaissances) a été mis en place comme partie intégrante du nouveau programme ‘Simulation’, avec un double objectif : conserver les connaissances indispensables à la Mission Armes Nucléaires, et les mettre à disposition de ceux qui auraient à s’en servir pour le déroulement de leurs travaux d'études, de conception, de développement, de fabrication, de maintien en condition opérationnelle et de démantèlement des armes nucléaires. Contrairement aux projets de gestion des connaissances de la génération précédente, issus de préoccupations de terrain et menés sous l’impulsion d’un spécialiste en gestion des connaissances, ce projet était voulu et suivi au plus haut niveau et a été confié à un chef de projet pragmatique plutôt qu’à un spécialiste de gestion des connaissances.

Il en a résulté une approche originale et d’une grande efficacité, organisée en six chantiers : les experts et spécialistes, l'archivage documentaire, les bases de données, la formation, l'utilisation des moyens audio-visuels numériques, les bases de connaissances. Les méthodes et outils déjà développés au CEA par les différentes directions opérationnelles ont été utilisés (REX, MKSM, SAGACE), mais d’autres solutions de capitalisation ont aussi été employées. C’est une caractéristique majeure de ce projet d’avoir su mettre en œuvre une grande variété de moyens, en conservant une cohérence d’ensemble permettant d’aboutir in fine à un dispositif unique de gestion des connaissances enregistrées.

Rien que le premier de ces six chantiers représentait déjà une tâche considérable : il a fallu étaler sur plusieurs années le recueil des expertises, en fonction du planning de redéploiement des activités. Fin 2002, 160 des 271 experts et spécialistes reconnus comme porteurs de connaissances essentielles avaient transmis cette expertise, sous quatre formes principales : 10% d’entre eux par compagnonnage, 20% par rédaction de synthèses, 15% par établissement de Livres de connaissances, enfin 60% par réalisation de vidéos en situation.

C’est évidemment ce dernier chiffre qui retient l’attention : cette solution originale a été retenue pour accéder dans les meilleures conditions aux savoirs et savoir-faire tacites des experts. Etre un expert ne signifie d’ailleurs pas être ingénieur ou chercheur de haut niveau : sur telle vidéo, on voit une technicienne de laboratoire montrer comment elle pratique l’étalonnage d’un instrument, sur telle autre on observe la façon très particulière qu’ont des techniciens de montage pour assembler des composants en évitant tout risque d’endommagement, etc. Une manière originale d’accéder à l’expertise des physiciens théoriciens est de les amener à débattre d’aspects pointus de leurs connaissances, de préférence devant un tableau noir où ils s’expriment avec passion. Les inviter ensuite à visionner la vidéo, tout en enregistrant leurs réactions à ce qu’ils ont dit la première fois, permet d’affiner encore la saisie de cette expertise.

Lorsqu’en 2002 le projet engage sa seconde phase, qui fait porter l’accent sur l’exploitation de ce capital de connaissances, ce sont 90 000 notices documentaires qui ont été rédigées, 32 000 documents anciens numérisés, plusieurs centaines d'heures de vidéo numérique enregistrées et 20 000 clichés numérisés parmi les 180 000 réalisés. Les efforts portent alors plus particulièrement sur deux aspects de la valorisation de ce capital : faire évoluer la culture pour développer le recours systématique à ce fonds, et s’en servir dans le cadre de formations.

Bien sûr, le volet technique de cette exploitation représente également un défi important, puisqu’il a fallu développer une base de connaissances téra-octet, dépassant de plusieurs ordres de grandeurs ce qu’on manipule habituellement dans ce domaine. Gérer les problèmes de gestion des droits et de sécurité d’accès a évidemment aussi représenté un travail important, l’ensemble de ces développements informatiques étant mené en collaboration avec plusieurs industriels du domaine.


Faire face à la dématérialisation de l’activité de recherche
Même si l’arrêt des essais nucléaires constitue un cas d’espèce, tant par son contexte politique spécifique que par l’importance de la rupture, il n’en est pas moins représentatif d’une tendance générale d’évolution vers une dématérialisation de la recherche, qui place la gestion des connaissances face à un nouveau défi.

La dématérialisation de l’activité de recherche correspond au glissement de l’expérimentation physique vers l’expérimentation virtuelle, grâce au développement des moyens de calcul. L’expérimentation virtuelle est moins coûteuse et va plus vite. Dans les domaines sensibles, elle permet d’éviter les problèmes d’acceptabilité liés à des considérations morales ou à des atteintes à la vie ou à l’environnement. L’expérimentation physique n’est plus un outil d’investigation, mais de vérification ou recalage des modèles. L’importance de cette évolution dépend bien sûr des domaines d’activité, mais d’une façon générale on observe dans les centres de recherche une forte diminution des espaces collectifs dédiés à l’expérimentation par rapport aux bureaux où chacun travaille plutôt seul.

Les incidences sur la gestion des connaissances dans les laboratoires sont nombreuses. L’une des premières formes de transmission des connaissances tacites, le compagnonnage, se réduit fortement. D’une manière générale, la transmission des connaissances a besoin de supports physiques, objets de transactions sur et autour de la connaissance, soit au stade de la mise en oeuvre d’expérimentations (plates-formes d’expérimentation), soit comme supports matérialisant la connaissance produite (démonstrateurs, produits). La prise de conscience des pertes résultant de cette dématérialisation des activités de recherche, essentiellement sur le plan des savoir-faire, a conduit d’une part au développement d’outils et de projets relatifs à la conservation des savoir-faire (livres de procédés par exemple), d’autre part à revenir avec plus d’assiduité à la notion de « cahier de laboratoire », y compris pour les activités de recherche les plus abstraites.

Le développement des grands codes de calcul pose des questions nouvelles en termes de nature des connaissances : de quoi sont constitués les savoirs et savoir-faire associés à ces codes ? Quelles connaissances faut-il expliciter, que peut-on expliciter ? L’essentiel est-il dans le principe du modèle, dans le choix des techniques de maillage, dans l’interface homme-machine, ou encore dans le savoir-faire d’utilisation lié à la maîtrise des conditions aux limites ou à la capacité d’interpréter les résultats ? Quels sont tous les préalables et évidences (pour les spécialistes du moment) et autres non-dits en amont des logiciels ? Ceci constitue un nouveau champ d’investigation dans lequel, comme il y a quinze ou vingt ans, se développent des projets de recherche-action dont les enjeux ne sont pas moindres qu’à l’époque des pionniers….

Un autre domaine d’investigation aujourd’hui correspond au besoin croissant de maîtrise des raisonnements scientifiques dans des situations complexes. Les apports de la modélisation et de la représentation des connaissances sont mis à profit dans deux directions. La première conduit à rechercher les preuves du raisonnement sans failles. C’est un besoin pour le monde scientifique, cela devient une demande impérieuse des pouvoirs publics lorsqu’il s’agit de questions à impact sociétal fort. La seconde correspond à la construction de systèmes argumentaires à base de connaissance comme aide à la décision. Là aussi, des travaux de recherche-action sont en cours au CEA, en particulier au sein d’un laboratoire mixte mis en place avec l’Ecole des mines d’Alès.

Tous ces domaines d’application nouveaux montrent combien la gestion des connaissances est une discipline encore jeune, mais aussi en construction (ou reconstruction) permanente parce qu’elle doit continûment s’adapter aux besoins et pratiques culturels, organisationnels et opérationnels des individus, des équipes et des organisations.




Construire l’intelligence collective - L’organisation apprenante


Le passage à la dimension d’organisme – L’acteur et le système
Deux schémas résument à eux seuls la problématique actuelle de gestion des connaissances dans les organisations. Le premier, emprunté aux travaux du CIGREF [2], montre la multiplicité et la variété des besoins dont la satisfaction conduit à mettre en œuvre des processus relevant directement des méthodes et outils de gestion des connaissances. Le second rappelle les risques inhérents aux pratiques les plus répandues encore aujourd’hui en matière de gestion des connaissances, et montre dans quelle direction il faut faire porter les efforts de management.

Toutes les fonctions de l’organisme sont impactées aujourd’hui par le besoin de formaliser, collecter, construire, échanger et surtout partager des connaissances (fig. 1). Ces besoins font intervenir des savoirs et savoir-faire situés aux trois niveaux des individus, des groupes et de l’organisation prise dans son ensemble. C’est dans l’articulation entre ces trois niveaux que réside l’un des secrets de l’efficacité globale. L’avantage compétitif repose aujourd’hui bien plus sur la capacité à mobiliser ses ressources plus vite et plus efficacement que la concurrence, que sur l’excellence des individus et même des équipes qui va devenir la norme minimale.

Les besoins les plus difficiles à satisfaire sont évidemment ceux dont le champ s’étend sur plusieurs niveaux de connaissances : c’est notamment le cas de l’innovation (à droite sur le schéma), qui cristallise l’ensemble des défis posés au management en termes de mobilisation globale de l’intelligence de l’organisme. L’organisation apprenante est celle qui sait créer les conditions de cette perméabilité entre les niveaux et les domaines de connaissances.


Fig. 1 Le positionnement des différentes problématiques associées
à la gestion des connaissances, d’après le CIGREF [2]


Le décloisonnement, sous toutes ses formes et à tous niveaux, constitue donc un objectif majeur des actions de management. Concernant les connaissances, les efforts en matière de décloisonnement doivent porter simultanément sur deux axes, l’un lié à la nature des connaissances, l’autre à leur mode de gestion (fig. 2).

De nombreux responsables scientifiques et techniques regrettent qu’aujourd’hui les jeunes chercheurs et ingénieurs soient engagés dans des secteurs si pointus, qu’ils ne maîtrisent plus correctement les connaissances d’ensemble leur permettant de véritablement donner sens à leurs travaux, et surtout d’en valoriser les résultats en dehors de leur champ d’élaboration. D’où un certain nombre d’actions volontaristes, allant de formations généralistes à des séminaires de rencontre entre chercheurs impliqués dans des domaines différents, en passant par la construction de référentiels de connaissances permettant à chacun de mieux positionner ses savoirs.

Concernant les modes de gestion des connaissances, on peut être frappé par la persistance d’une culture de thésaurisation : chacun préfère avoir chez lui des documents qui périment plutôt qu’en partage des documents actualisés. La possession donne un sentiment de sécurité, même si on utilise bien peu le capital accumulé… . Deux types d’actions visent à faire évoluer les comportements d’une culture du stock à une culture du flux, à la fois nécessaire de par l’évolution permanente des connaissances et de leur environnement, et rendue facile grâce aux technologies de l’internet. Le premier type d’actions vise à développer des annuaires et cartographies (de compétences en particulier), qui permettent de trouver ou retrouver aisément l’expert qui répondra bien mieux à la question que le papier dans l’armoire. Le second correspond au développement des « portails d’organismes », guichets uniques donnant accès à l’ensemble du capital mis en ligne et dotés de capacités de recherche par mots-clés ou plus élaborées.
Axe du mode
de gestion

Axe de la
nature des
connaissances

Logique de
propriété

Logique de
segmentation

Logique de
globalité

Logique de
partage

INTERACTIONS

Eléments

Référentiels

Stocks

Flux

FRAGMENTATION

Fig. 2 L’enjeu de management majeur en matière de gestion des connaissances :
aboutir au décloisonnement de la connaissance



Au-delà de ces dispositions matérielles et organisationnelles visant à favoriser les interactions entre les individus et leurs connaissances, il est essentiel de bien comprendre un certain nombre de mécanismes relatifs à l’expression de l’intelligence collective. Qui n’a pas été frappé de constater combien les participants d’une même réunion avaient entendu des choses différentes, amenant parfois même à douter qu’ils étaient bien présents ? Les neurosciences nous ont appris que l’essentiel de l’activité de perception n’était pas entre les capteurs (yeux, oreilles…) et le cerveau, mais à l’intérieur du cerveau lui-même par (re)construction de sens sur la base de l’expérience accumulée. Chacun a son référentiel, qui donne sens aux informations dans le cadre d’un contexte propre. On retrouve là les trois dimensions que prennent en compte les méthodes de gestion des connaissances comme MKSM. Bien sûr, il n’est pas question de « faire de la gestion des connaissances » chaque fois qu’on se parle, mais il est apparu qu’un certain nombre de dispositions amélioraient notablement la capacité à comprendre le sens au-delà des contenus.

Une condition essentielle pour le travail collaboratif est de partager la même compréhension d’ensemble de la situation. Cette compréhension d’ensemble est bien plus liée à la manière dont les différents constituants de la situation sont en interaction, qu’à chacun des éléments pris isolément. C’est pourquoi les cartographies et autres schémas structurants se révèlent bien plus performants que les textes. La linéarité du discours ne permet pas de retraduire correctement des interactions multiples qu’une représentation multidimensionnelle révèle immédiatement. On peut s’en persuader en observant comment des acteurs, absolument d’accord sur un texte, s’affrontent sur un schéma qui pour ses auteurs n’en est qu’une retranscription fidèle du texte.

Ce besoin de partager une même représentation de la situation est non seulement un point de départ pour engager un projet collaboratif, mais aussi une nécessité permanente lors du déroulement d’un projet, car rien ne se passe jamais exactement comme prévu. Un management rigide conduirait à déployer des efforts (parfois considérables !) pour ramener la situation sur la trajectoire prévue, le management adaptatif moderne fait de tout imprévu une opportunité d’aller plus vite, plus loin dans la réalisation des objectifs. Mais ces imprévus pouvant surgir auprès de chacun des acteurs de l’opération, c’est chacun d’eux qui doit disposer continûment d’une intelligence globale de la situation pour réagir au mieux et au plus vite.

L’intelligence collective ne peut s’épanouir qu’à travers cette vision holoptique, c’est-à-dire assurant à chaque acteur une perception globale et sans cesse réactualisée du tout et de l’action de chacun. Les contributions des uns et des autres, les interactions horizontales comme verticales dotent alors le collectif de caractéristiques et de capacités qui dépassent largement les caractéristiques et les capacités individuelles : un tout émerge, doté d’une intelligence nouvelle, qui mobilise globalement les ressources intellectuelles de l’organisme.


Une ingénierie concourante pour une mobilisation globale des ressources intellectuelles
Favoriser toujours plus cette mobilisation globale des ressources intellectuelles nécessite un management cohérent portant sur trois composantes essentielles : les outils d’information et de coopération, la formation et l’engagement des hommes, les processus d’action collective. Les directions des systèmes d’information, des ressources humaines et de la stratégie sont donc amenées à se coordonner et agir en bonne intelligence avec la ligne managériale. Une telle évolution vers un « management intégré » ne se fait pas en un jour, mais on assiste aujourd’hui à des actions concourantes dont quelques illustrations au CEA sont données ci-dessous.

L’approche par les systèmes d’information
Une préoccupation importante des directions des systèmes d’information est aujourd’hui de mettre à disposition des chercheurs des outils leur permettant, sans formation particulière, d’échanger, d’interagir pour construire collectivement des savoirs et les diffuser. Deux types d’environnements collaboratifs sont ainsi proposés. Les espaces d’échange et de travail, privatifs ou non, sont destinés à favoriser les interactions et collaborations au sein de groupes poursuivant des objectifs communs : communautés de pratiques, équipes de projets, etc. Les environnements de publication quant à eux permettent aux équipes de recherche de réaliser simplement des sites conviviaux pour la diffusion de leurs résultats, en les déchargeant de tous les aspects techniques et esthétiques.

L’appropriation rapide de ce type d’outils par les équipes montre qu’ils répondent à un vrai besoin. Ainsi, environ trois ans après leur apparition, une centaine de collectifs utilise au CEA un générique de communauté de travail ‘eDOC’, une autre centaine un générique de publication ‘ePUB’, dans le cadre de projets, réseaux métiers, référentiels de bonnes pratiques ou encore sites d’unités ou de projets en intra et internet. Dans le cadre d’une mutualisation des infrastructures, ces génériques sont développés en collaboration avec des partenaires industriels, selon des technologies ‘open source’ ou ‘propriétaire’ offrant des garanties de pérennité, d’évolutivité et de qualité de service.

L’approche par les ressources humaines
De multiples actions sont entreprises, pour favoriser les mises en relations des chercheurs et équipes de recherche, et les aider à développer leur capacité de travail collaboratif. La base COLA (COmpétences des LAboratoires) du CEA rassemble les données fournies par les unités de recherche concernant leurs domaines de compétences, axes de recherches et collaborations. Elle est accessible à tout agent du CEA. Les chercheurs l’utilisent pour identifier et entrer en contact avec des partenaires en vue d’explorer des sujets potentiels de recherche transdisciplinaires, les Conseillers chargés de la diffusion technologique en Régions pour identifier des interlocuteurs en réponse à des demandes d’industriels. Au-delà de ces exemples d’usages directs, la base COLA permet aussi à chacun d’avoir une vision globale sur les champs d’expertise et d’activité du CEA, et ainsi de mieux se situer.

Concernant le développement des capacités personnelles à travailler en collectif, une illustration peut être donnée dans le domaine de la formation des futurs cadres dirigeants du CEA. Au cours du Cycle de Formation Supérieure (CFS), formation lourde sur plus d’un mois à plein temps leur donnant une vision et une compréhension d’ensemble du CEA dans son environnement, deux ateliers de travail sur des grands sujets de préoccupation de l’organisme amènent les douze participants à négocier une vision partagée d’une situation complexe, puis à imaginer comment cette intelligence de la situation peut être rendue facilement accessible à des tiers décideurs, en l’occurrence la direction générale de l’organisme.

L’approche par les processus collectifs
Les processus collaboratifs, dont certains existent depuis longtemps, sont aujourd’hui l’objet d’attentions particulières. Les réseaux de veille en constituent un bon exemple car, au-delà de leur fonction de production, ils favorisent de nombreuses interactions entre chercheurs. Ainsi, le réseau de veille initié il y a plus de vingt ans au CEA en micro-électronique s’est progressivement structuré, étendu à des chercheurs du CNRS dans le cadre de l'Observatoire des Micro et Nano Technologies, enfin constitué officiellement en unité Mixte de Service (UMS) en mai 2005, avec des objectifs encore plus étendus et plus de 200 experts impliqués, ce qui en fait un instrument sans équivalent en Europe. En matière d’intelligence collective, son intérêt réside en particulier dans les séminaires thématiques qu’il organise, au-delà de l’édition de synthèses bimestrielles et annuelles.

Plus récemment est apparu l’intérêt de démarches de prospective stratégique comme vecteurs de renforcement de l’intelligence globale des organismes, au-delà de ce qu’apportent les prospectives thématiques (scientifiques et techniques) déjà largement répandues. Ainsi, au CEA, une démarche prospective initiée en 2005 autour de la question d’entrée « Sur quoi reposeront le succès et la solidité du CEA dans vingt ans ? » a permis de construire, avec des acteurs majeurs des différents pôles opérationnels, une représentation globale de l’organisme dans son environnement, dans laquelle chaque pôle peut préciser les spécificités de sa problématique d’avenir, étape incontournable avant consolidation négociée vers une vision partagée des futurs possibles, probables ou souhaitables pour l’organisme pris dans son ensemble.


Vers de nouvelles modalités d’intelligence collective - Deux faits porteurs d’avenir
Si l’intelligence collective résultera toujours d’un processus d’interaction entre les intelligences individuelles, les formes et les usages qu’auront demain ces interactions dépasseront sans doute ce que nous pouvons imaginer aujourd’hui. Deux « faits porteurs d’avenir » donnent une ouverture sur ce que pourrait être le futur dans ce domaine.

Quel est le problème ? La construction collective des objets de recherche
Certains se plaisent à répéter qu’on n’avance pas en cherchant des réponses, mais en trouvant de nouvelles questions. Derrière cette boutade se cache une réalité de plus en plus prégnante : la complexité des aspirations et attentes de la société est telle qu’elles ne s’expriment plus sous forme de questions précises à la recherche ou, lorsque ces questions sont précises, qu’elles sont souvent sous-tendues par des choix implicites, des visions catégorielles ou options de société qu’elles sont censées conforter, ce qui affecte leur légitimité sociale et s’avère source de tensions et de conflits. Les organismes de recherche publique sont particulièrement concernés par cette situation : leur utilité sociale est en jeu, leurs capacités d’action et marges de manœuvre en dépendent.

Du côté des acteurs économiques, les difficultés ne sont pas moindres : la complexité des sujets soumis à la recherche publique par les industriels nécessite également que soient reconsidérées les questions posées dans une vision élargie, non que ces questions soient illégitimes, mais parce que toute question passe inconsciemment par le filtre de l’environnement culturel et technique d’émission, qui a tendance à n’autoriser que des formulations ne remettant pas en cause l’existant.

Un raisonnement symétrique s’applique bien entendu du côté des organismes de recherche, au sein desquels toute question posée au spécialiste du marteau peut rapidement prendre la forme d’un clou. Pour pallier cette difficulté, la force des organismes de recherche est dans leur capacité de mobiliser globalement leurs ressources intellectuelles pour prendre en charge des questions « mal posées », et les transformer en problématiques de recherche pertinentes et gérables par des équipes de recherche.

Mais l’expérience montre que même les plus diversifiés des organismes de recherche ne peuvent mener seuls la démarche : la construction des problématiques de recherche est nécessairement une co-construction avec les demandeurs ou destinataires de cette recherche, par de multiples allers et retours qui à la fois construisent et fondent la demande de recherche, et en structurent la prise en charge par l’organisme. L’offre de recherche prend corps dans son interaction avec une demande à construire.

Tout au long de ce processus qui mêle les expertises scientifiques, techniques et sociales, les savoirs professionnels et les savoirs amateurs, on retrouve les deux notions-clés de négociation et d’holoptisme. La négociation vise à optimiser la relation entre une demande qui se construit et des ressources qui apparaissent mobilisables. La vision holoptique permet à chacun d’accéder à l’intelligence globale de la situation pour s’accorder sur le couple optimal demande/offre de recherche.

Qui est l’expert ? Le phénomène Wiki
Les aspects de négociation abordés ci-dessus sont un premier coup de canif dans la paroi étanche qui séparait jusqu’alors le savant (sachant) du néophyte. La relativité des savoirs scientifiques, dont les modèles apparaissent comme liés au contexte philosophique et moral contemporain, amène à considérer que la connaissance sur un sujet concerne au moins autant la capacité de donner un sens social aux faits et observables, à les mettre en situation d’usage, qu’à les énoncer « scientifiquement » dans le cadre d’une construction intellectuelle générée par une élite. Les bases d’une expertise collective étendue sont ainsi posées.

Le phénomène Wiki prend sa source dans ce courant de pensée, il est rendu possible par la convivialité des outils collaboratifs sur internet. Wikipedia est née le 15 janvier 2001, en langue anglaise, de l’initiative de nouveaux utopistes. Il s’agit d’une encyclopédie universelle en ligne, gratuite, construite sur la base des contributions que chacun peut librement introduire. A l’été 2005, Wikipedia contient déjà 1 500 000 articles écrits par 16 000 contributeurs dans 200 langues (près de 100 000 articles pour l’encyclopédie francophone).

La question soulevée par beaucoup d’experts, bousculés dans leur territoire réservé, est évidemment celle de la légitimité (avant même de parler de pertinence) de la construction collective de savoirs sur la base de contributions anonymes. Mais la plupart de ceux qui ont examiné de près des articles dans leur domaine ont été impressionnés par une largeur et hauteur de vue sur les questions, qu’ils ne soupçonnaient pas et ne retrouvaient pas dans la plupart des encyclopédies commerciales existantes. Wikipedia est un lieu d’apprentissage d’une nouvelle relation au savoir, chacun découvrant qu’il y a d’autres points de vue sur le sujet, obéissant à d’autres logiques de pensée, dont la consolidation permet d’atteindre une complétude d’approche qu’aucun participant n’aurait pu espérer seul. Là aussi, on retrouve l’importance de la négociation au sein de la communauté constituée autour de chaque article, puisqu’il n’y a aucun moyen d’imposer son point de vue par la force, et que chacun peut réintervenir sur un article en ligne. Il apparaît par ailleurs une redoutable solidité de l’encyclopédie, les statistiques effectuées montrant que tout acte de sabotage était en moyenne réparé dans les cinq minutes par la communauté.

On ne dispose pas aujourd’hui d’un recul suffisant, pour dire s’il s’agit là d’un nouveau paradigme de construction des connaissances à l’ère de la société de l’information, ou d’une utopie qui ne résistera pas à la pression des réalités économiques, des problèmes juridiques ou des exigences scientifiques. On en retient néanmoins deux avancées qui intéressent beaucoup les responsables du management des connaissances, et pourraient conduire à déployer des intra-wikis à l’intérieur des organismes de recherche. La première est qu’il s’agit de très bons détecteurs de porteurs d’expertises, au-delà des découpages et périmètres de légitimité établis dans l’institution. La seconde concerne la nature de l’expertise explicitée par cette interactivité. En effet, les échanges critiques qui caractérisent toute rédaction collaborative d’articles amènent les contributeurs à s’appuyer sur leurs savoirs de terrain pour fonder concrètement les positions qu’ils défendent. Ce faisant, ils explicitent d’eux-mêmes ce que des méthodes comme REX, SAGACE ou MKSM s’appliquent à faire émerger lors des interviews d’experts : les connaissances tacites, si difficiles à saisir à travers les processus classiques de rédaction de documents, et qui constitueront sans doute toujours, malgré tous les efforts pour les expliciter, la base du capital immatériel des organismes de recherche.






Références bibliographiques
[1] ADENIS Jean-Claude, COTTON Claude-Marie, DAVID Bernard, ERMINE Jean-Louis, JONQUIERE Anne-Marie, MALVACHE Pierre, PENALVA Jean-Michel, TAMISIER Simon « Le livre blanc de la gestion des connaissances pour le CEA » rapport du groupe de travail inter-directions – CEA, septembre 1998.
[2] CIGREF « Gérer les connaissances : défis, enjeux et conduite de projet » rapport du groupe de travail animé par Patrick Dailhé – CIGREF, octobre 2000.
[3] BALLAY Jean-François « Knowledge management : vers une seconde génération ? » – L'Expansion Management Review, Juin 2001.
[4] KAPLAN Robert S., NORTON David P. « The Balanced Scorecard : Translating Strategy Into Action » – Harvard Business School Publishing, 1996.
[5] NONAKA Ikujiro, TAKEUCHI Hirotaka « The Knowledge-Creating Company » – Oxford University Press, 1995.