Le déploiement d’un environnement de partage

Sommaire

Introduction et contexte

Définition du problème

La globalisation, l’éloignement géographique entre les personnes, et la recherche de réactivité rapide soulèvent dans de nombreux milieux le besoin de nouveaux environnements de travail, voire, plus largement, de vie.

Pour parvenir à ce but, le recours à une « alliance » entre les hommes et la technologie a un fort potentiel. En effet, comme McDermott le souligne, « la valorisation de la connaissance implique une combinaison unique des systèmes humains et informationnels » (1999).

L’usage de la technologie peut donc faciliter grandement les besoins des utilisateurs dans la recherche de connaissance collective — mais la connaissance n’est pas de la technologie. Cette connaissance aura besoin, pour être efficace, de trouver sa bonne application et son bon « réceptacle », à travers des réseaux de communications complexes.

Bases de la discussion

Les bases de ma discussion dans ce papier sont des lectures, des réflexions et des expériences personnelles. En effet, durant plus de 6 mois, j’ai pu suivre plusieurs types de communautés, certaines composées de collègues, d’autres composées d’amis. Ce sont deux communautés « non virtuelles », mais qui malgré tout, ne se rencontrent pas tout le temps.

Ces deux types de communautés peuvent sembler ne pas avoir beaucoup de choses en commun, si ce n’est que leur adhésion se fait sur la base du volontariat. Bien sûr, l’utilisation de l’outil, et le rapport à la communication, sont différents dans ces populations, hétérogènes en ce qui concerne leur âge, leur but, leur type d’activité, leur culture, la nature des connaissances échangées, etc.

L’accent sera mis, tant que faire se peut, sur l’approche business.

Déroulement de l’exposé

Nous allons d’abord expliciter rapidement les notions utilisées.

En second lieu, ce papier s’organisera en 3 parties principales : premièrement une étude plutôt technique (que certains verront orientée sur le Knowledge Management), qui représente une description du système d’information. En effet, l’importance de l’information, et la façon de s’en servir, déterminent quel système on va utiliser. Comment utiliser intelligemment la technologie pour parvenir à nos fins ?

Ensuite prendra place une étude dynamique (orientée Intelligence Économique) présentant le cas particulier de la communication de la connaissance. Nous y verrons une étude de l’environnement, et une aide à la spécification des interactions dans le système.

Enfin, une étude plus sociale (orientée Ressources Humaines) ramènera le propos de l’environnement de partage vers l’Homme. L’aspect psychologique, parfois mis de côté lors d’initiatives de Knowledge Management, y sera présenté. Quels sont les leviers pour que les utilisateurs puissent tirer le plein parti des moyens mis en œuvre ?

Remerciements

Je souhaite exprimer toute ma gratitude à :

Définitions

Déploiement

« Déploiement » est un terme utilisé en informatique pour parler d’une nouvelle installation, de la mise à disposition d’un outil. À ce titre il bénéficie d’ordinaire d’une approche « process » héritée des projets informatiques.

Nous verrons quelles sont les phases s’un déploiement — et qu’un environnement de partage est en réalité en perpétuel re-déploiement.

Environnement

À l’origine, « environnement » provient d’un anglicisme signifiant milieu. L’environnement est le cadre de travail et de vie : il est constitué de l’ensemble des facteurs qui entourent l’individu. Un synonyme d' environnement est système.

Partage

Le partage appelle à la collaboration et peut désigner un large éventail de processus et de technologies pour la faciliter.

NDR : Parler d’environnement de « partage » est moins restrictif que d’environnement de « Knowledge Management ». En effet knowledge signifie connaissance, et nous verrons que la connaissance est liée intimement à l’homme, et non pas à la technologie.

Donnée, information, connaissance

La donnée est une information factuelle, sans contexte. Elle dit ce qui s’est passé, combien de fois ça s’est passé, mais pas pourquoi ça s’est passé.

L’information, selon Davenport et Prusak, vient sous la forme d’un message. Elle est différente de la donnée car elle a un sens, et une forme.

La connaissance transcende l’information et la donnée. C’est l’appréhension d’une information après enseignement et raisonnement. Polanyi distingue la connaissance explicite (documentation) et la connaissance tacite (qu’on ne trouve que dans la tête des gens, et qui peut difficilement être décrite). Or la maîtrise de la connaissance tacite est présentée comme la source d’avantage compétitif à long terme.

Knowledge Management

Le terme « Knowledge Management » est traduisible en français par gestion des connaissances. C’est une science de gestion relativement récente.
Une définition tirée de The KM Magazine dit : « le Knowledge Management fait référence aux stratégies et structures visant à maximiser le retour sur les ressources intellectuelles et informationnelles ».
En effet, et sans être une fin en soi, il est reconnu que l’information et la connaissance donnent un avantage essentiel — mais il faut ensuite se servir de cette connaissance, donc la mettre en action.

D’ordinaire le Knowledge Management se compose souvent d’un mélange de technocentrisme couplé à une approche « Ressources Humaines ».
Toutefois on trouve du Knowledge Management plus pragmatique (ayant une application directe dans le monde de l’entreprise), et du Knowledge Management plus idéaliste (orienté vers la psychologie des acteurs, et les facteurs qui rendent possible le partage de connaissances).

Communauté de pratique

Plus on est nombreux, et plus on a de connaissances. Une communauté peut-elle alors travailler comme un seul homme, mais avec la somme des connaissances de tous ?

Le nom de « communauté de pratique », introduit par Lave et Wenger en 1991, désigne un groupe de gens qui partagent de mêmes tâches, méthodes, buts et approches ; et donc, sont formées au contexte d’utilisation de la connaissance des autres.
De plus, avec les nouveaux moyens de communication, des gens distantes peuvent se regrouper et travailler ensemble.

Les communautés de pratique jouissent une grande popularité en ce moment : elles nécessitent un investissement financier modéré, et semblent particulièrement performantes pour repérer et utiliser la connaissance tacite des employés. Elles permettent ainsi un « apprentissage orienté sur la connectivité ».

La vie en communauté demande une certaine forme de maturité, une prise de conscience qu’il existe une sorte d’idéal commun à une classe d’individus qui se regroupent en communauté. En outre il est difficile de « décider » qu’une communauté de pratique se mette en action ; elle se crée sur le long terme.

Ces notions préalables étant explicitées, nous pouvons maintenant entrer dans le vif du sujet.

Le but de la démarche

Pourquoi le Knowledge Management est-il si important, et quelles améliorations sa pratique peut-elle apporter ?

Construire un réseau social

Le psychologue Stanley Milgram a beaucoup écrit à propos des réseaux sociaux. Ses expériences montrent qu’en 6 itérations, une personne peut être en contact avec n’importe quelle autre dans le monde.

Ainsi on se rend mieux compte du pouvoir des réseaux sociaux. Le marketing viral est d’ailleurs l’une des premières applications business de cet étonnant potentiel de communication.
Aujourd’hui et grâce aux nouveaux outils adaptés (« social software », ou logiciels sociaux), maintenant les médias décentralisés ont un potentiel aussi grand que les médias traditionnels — en termes d’audience, de vitesse, et même de crédibilité.

En outre, créer un lien social entre les gens est primordial pour toute démarche de Knowledge Management. En effet, connaître les gens simplifie le contact, même dans le cadre du travail dans une même entreprise. Sans connaissance personnelle, la plupart des gens n’oseront pas contacter d’autres individus, fussent- ils leurs collègues.

Créer un point de référence

La création d’un « point de référence » d’informations (comme une base de données) soutient souvent une création d’environnement de partage.
Cette notion est importante pour les premiers temps d’un changement : elle permet aux participants de ne pas « chercher » les informations, et donc gagner en vitesse et en efficacité.

En effet c’est souvent un prétexte, qui « matérialise » la volonté du management, et accompagne une démarche de changement culturel. Ainsi elle répond aux besoins de crédibilité, et d’officialité, d’une telle démarche.

Réduire la distance, augmenter la vitesse

Dans un monde qui s’internationalise de plus en plus, la distance entre les employés, ainsi que l’éloignement entre le siège et le marché, sont un souci permanent qu’un environnement de partage peut contribuer à résoudre.

Il existe naturellement peu de contacts entre gens éloignées, d’autant plus lorsqu’ils travaillent dans d’autres pays — où d’autres obstacles comme la culture ou la langue parachèvent de compliquer les liens.

Or, on observe souvent que les gens dispersées géographiquement se plaignent d’être trop tard au des affaires, ainsi que d’autres problèmes de communication récurrents.

L’action !

L’action le but de la démarche. Les connaissances n’ont d’intérêt que dans l’action qu’on en fait.
Or les utilisations qu’on peut en faire sont diverses : par exemple, être plus compétitif sur un marché difficile ; être proactif ; savoir répliquer des bonnes pratiques...
En effet, si les situations sont toujours uniques, il reste des bonnes idées qu’on peut répliquer.

De plus, toute information est à mettre en action par rapport à une stratégie. L’entreprise peut les utiliser pour venir à bout de ses objectifs, qui peuvent être variés :

Le but n’est pas de créer de la connaissance

Le but du Knowledge Management est d’apporter la bonne information à la bonne personne et au bon moment.

Ceci dit, la machine peut stocker des informations mais pas les mettre en relation ni en contexte. Seul l’homme peut mettre en perspective des informations pour en faire sa connaissance.

Voyons maintenant comment mettre en place les moyens d’y parvenir.

Technologies et infrastructure

Introduction

Dans le développement d’une communauté, la technologie est à présent à regarder comme un élément facilitateur essentiel.
Il est, bien, sûr utile de mentionner que ce n’est pas l’outil qui crée la connaissance, mais qu’utilisé convenablement, il peut aider significativement l’humain à mieux connaître et appréhender son environnement, à gérer les connaissances collectives de sa communauté, et accélérer les processus de travail qu’il met en œuvre quotidiennement.

En effet, dans le processus de déploiement d’un environnement de partage, il ne vaut mieux pas ignorer le potentiel qu’offre l’informatisation. Les utilisateurs sont, en effet, incapables de posséder une telle mémoire et une telle puissance de calcul. Pour cette tâche, Homme et machine doivent réussir à « travailler » main dans la main, de la façon la plus transparente possible.

Dans le même temps, le rapport à l’outil est souvent le facteur qui donne le plus de peur aux utilisateurs, et les problèmes d’adoption de l’outil peuvent freiner son adhésion à la communauté. En effet, « dompter » l’infrastructure technologique peut aussi demander beaucoup de temps à ses utilisateurs — et également aux coordinateurs !

En termes d’outils, ce n’est pas le plus compliqué qui est le meilleur : c’est l’outil qui se laisse le mieux approprié par les utilisateurs ; donc d’une certaine façon, ce serait au contraire, plutôt le plus simple. Ceci dit, faire utiliser un système aussi simple fut-il à des utilisateurs peut être un véritable défi ! Dès le commencement, il faut pouvoir leur vendre l’idée d’un outil d’une prise en main évidente, et capable de résorber les pertes de temps.
D’ailleurs, nombre de responsables informatiques avec un budget serré seront ravis de l’apprendre, puisqu’un outil simple est souvent bien moins cher qu’une suite dite « professionnelle » !

Nous allons voir ce qui constitue un déploiement d’outil, comment il peut être structuré, et quelles qualités il apporte — ainsi que les limites qu’on va rencontrer.

Étapes du déploiement

Un déploiement fait suite à une décision, et fait appel à une feuille de route. Voici les étapes à respecter :

Formulation de la stratégie

La stratégie concernant l’environnement de partage doit définir clairement quelles connaissances on veut gérer et partager, ainsi qu’à quel but on veut parvenir. Cette stratégie doit avoir une vision opérationnelle précise, et savoir répondre à la question : « quel problème de business essaie-t-on de résoudre ? »
En outre elle doit être définie de façon suffisamment souple, pour pouvoir faire évoluer cet environnement avec une « marge de manœuvre » raisonnable.

Dresser une feuille de route peut avoir un effet bénéfique, car elle montre de façon claire quelle est la stratégie et quels sont les bénéfices qu’on veut retirer de notre action. Ces buts doivent être toujours présents à l’esprit au cours de la démarche.

En revanche, il ne faut pas oublier qu’en Knowledge Management, chaque situation est unique. Aussi suivre aveuglément les « recommandations » d’autres personnes dans d’autres environnements peut être inefficace.

Sa mise en œuvre

Dans ce cas, la mise en œuvre du déploiement de l’environnement de partage est constituée de plusieurs actions : assignation des responsabilités, installation de nouveaux outils, révision des processus.
Cette mise en œuvre passe également parfois par de la formation du personnel, ou même par l’emploi de personnes supplémentaires (pour prendre en charge le contenu, l’infrastructure, ou les gens).

En outre, il ne faut pas oublier qu’une telle démarche est aussi une prise de risque, et est donc à manier avec précaution.

Métrique du succès

Pour justifier les coûts d’un tel déploiement, les allocateurs de ressources auront envie de mettre en place un certain nombre d’indicateurs de retour sur investissement.

Évidemment, on ne peut pas imaginer une métrique qui soit purement technologique ; il faut tenir compte d’éléments plus psychologiques. Ainsi on peut prévoir deux types d’indicateurs de performance :

Il est facile de dresser des statistiques de fréquentation vers des ressources informatiques. Mais quelle est la qualité de l’information elle-même ?
Il existe un nombre infini de questions. Une base de données ne contient qu’un nombre fini de réponses. La pertinence d’un article ne s’entend que par rapport à une question.
Tout le reste ne donne qu’une vague idée de la valeur d’une information.

Côté machine, j’ai pu mettre ces quelques indicateurs en place :

Dans ces indicateurs, je dois accepter comme hypothèse que le taux de fréquentation d’un article est l’un des indicateurs de sa valeur. Or, c’est bien évidemment très incomplet, mais les indicateurs automatiques sont basés sur ce type de risques.

Ceci dit, des études montrent qu’il est très subjectif de dire que le Knowledge Management a un impact sur la productivité des individus. On peut, ceci dit, au moins savoir si le système est utilisé ou non. D’autres indices, basés sur des critères plus « humains », seront plus précis sur le succès — ou non — de cet outil !

Optimisation

L’écoute des utilisateurs est la pièce centrale d’une telle démarche. Il ne suffit pas de les questionner avant le déploiement, il faut encore recueillir leurs perceptions en tant que participants : répondre à leurs besoins, auditer leurs obligations, comprendre leur processus de travail... et ne pas hésiter à impliquer les plus enthousiastes.

En effet, les autres interlocuteurs (responsables de la démarche ; managers...) n’ont pas toujours une idée claire de comment se fait le travail sur le terrain.

En outre, une réaction naturelle des concepteurs d’un système, est de chercher à prévoir tous les cas de figure que pourra traverser l’utilisateur. Ceci se matérialise par des taxonomies très détaillées, et ordinairement une grande inflexibilité. Il faut au contraire, savoir être humble et accepter qu’on ne fera pas le système parfait du premier jet.

En effet, il faut se garder de trop formaliser, car formaliser équivaut à restreindre... or il faut donner le maximum de chances, et de possibilités d’adaptation, à notre environnement.
Il vaut mieux donner son énergie dans la préparation de son l’évolution.

De plus, il est très important de ne pas implémenter ce dont les gens n’ont pas besoin immédiatement. C’est une perte de temps, d’argent, celà se révèle très souvent inutile, et cela rend le système très confus et déroutant pour les nouveaux arrivants. Même avec d’excellentes intentions, on risque d’arriver au paradoxe du « marteau pour écraser une mouche » — un bien triste exemple en matière de choix d’outil.

On pourrait même imaginer de déployer l’outil même s’il est encore imparfait. Cette imperfection ne devra bien sûr pas être dommageable pour la sécurité du système. D’un certain angle de vue, l’imperfection stimule la créativité et l’ouverture des gens : ils pourront s’exprimer, orienter le développement, et auront au final réellement l’impression que c’est « leur » système. Ceci nous donnerait une situation intéressante, entre exploitation et exploration.

De plus, il faut prendre en compte que la culture est quelque chose qui ne s’acquiert pas immédiatement. Il faut éviter aux utilisateurs, qui devront s’adapter graduellement à l’outil, d’être désarçonnés par la complexité du système. Au contraire, un outil simple pourra évoluer, en fonction des comportements des utilisateurs, et de l’usage (de plus en plus « expert ») qu’en feront les gens — c’est l’adaptation de la machine à l’homme.

L’adaptation du système est à voir comme une étape dans un processus sans fin. Il faut, autant que possible, assurer le suivi de l’application et pouvoir la développer plus finement.
Et d’ailleurs, Lao Tseu disait qu' « un voyage de mille lieues commence toujours par un premier pas ».

Architecture

Cahier des charges

Le choix de la technologie ne peut s’entendre qu’après avoir dressé un cahier des charges. En effet, dans une conduite de projets informatiques, on ne choisit qu’en dernier lieu quelle outil nous allons utiliser. C’est selon les fonctions souhaitées, qu’on peut finalement choisir un outil en toute connaissance de cause.
Dans ce cas, le cahier des charges fournit le cadrage du projet, et aide à planifier et garantir sa cohérence globale.

Il est utile de savoir dresser des scénarios d’utilisation : quels sont les problèmes d’utilisation que nous allons rencontrer ? S’adresse-t-on à des utilisateurs nomades ? Les données seront-elles très dynamiques ? Les données sont-elles lues directement par des humains, ou automatisées par des machines — ou bien, données devant être utilisables par les deux ?

Il faut en outre planifier les tests du système suffisamment tôt, ainsi que la formation sur les technologies et sur le nouvel environnement de travail. Ces éléments sont en général relégués à la fin, par manque de temps ou de moyens.

Stockage de l’information

Différentes solutions s’offrent pour stocker les informations. Il faut architecturer le système en fonction de la nature de ces données.

En effet différents types d’information ont des durées de vie, des cycles de vie, des portées, des utilisations différents. On peut classer ces informations en plusieurs classes :

Suivant une progression encore plus rapide que la loi de Moore (« le nombre de transistors sur une puce double tous les ans et demie »), il y a de plus en plus d’informations à stocker et à utiliser. Ceci crée le besoin de nouveaux processus, et d’automatisation

Par exemple, on peut notamment gagner à tirer parti de l’exploitation du web sémantique, qui est selon Tim Berners-Lee, une « extension du web actuel dans laquelle l’information a un sens bien défini, qui permet aux ordinateurs et aux gens de mieux travailler en coopération ». Ainsi selon son créateur, l’avènement du web sémantique sera aussi important que le bouleversement lié au (premier) World Wide Web : celà donnera l’interopérabilité des données entre hommes et machines — une même information pouvant être ré-exploitée à volonté, à renfort d’ontologies et de pseudo-intelligence artificielle.

En effet, pour que la connaissance soit correctement managée par les systèmes informatiques, il faut trouver d’autres voies, et développer de nouveaux modèles de données. Selon Liongosari et al. (1999), les systèmes de Knowledge Management actuels ne diffèrent quasiment pas des systèmes de gestion de documents.

On note qu’il peut être très enrichissant de simplement modifier ses formulaires, pour intégrer un champ « commentaires » avec les noms des participants à une telle discussion. Ainsi la technologie permet d’augmenter la communication expressive.

Toutefois, R. Taylor (1996) nous rappelle que « c’est un mythe dangereux de considérer que l’information se réduit à ce qui peut être stocké et manipuler sur un ordinateur ».

Trouver l’outil unique

C’est dans la nature de l’homme (l' « homo faber » de Bergson) de se construire ses propres outils, lorsqu’il en manque. La même réaction se passe lors de la gestion de l’information.
Évidemment, tous ces stocks de données (« data stores ») sont personnels : ils sont souvent adaptés à une application spécifique et pour une personne donnée, mais ne conviennent pas à l’ensemble de la chaîne processuelle, et pis, ils ne communiquent pas entre eux.

Or lorsqu’on cherche une solution commune à plusieurs personnes, l’expérience prouve que les outils des uns ne conviennent pas toujours aux autres, et qu’il faut faire des consensus entre tous les outils pour en trouver un qui regroupe toutes les données, et qui rallie la majorité de ses utilisateurs. Cependant cet exercice est excessivement difficile, à tel point que de nombreux chantiers informatiques tentent parfois de fédérer les outils existants.

En effet les différents outils ont en général évolué au cours de leur utilisation (ajout de fonctionnalités, changements d’interface) et sont très souvent totalement hermétiques aux nouveaux venants. De plus, la plupart de ces outils ont une documentation très imparfaite, et une architecture parfois surprenante et relevant plus du « bricolage ».

En toute logique, une solution intégrée est préférable et efficiente, car elle ne suppose aucune duplication de l’effort. En effet, actuellement des expériences montrent que de nombreuses heures de travail sont consacrées à du copier/coller entre différents sous-outils, principalement avec des suites bureautiques utilisant des formats propriétaires — par exemple lorsque deux reportings différents utilisent « presque » les mêmes données, mais qu’il faut donc refaire intégralement le travail.

Qualités du système

Simplicité du système

Certains outils dits de Knowledge Management ou de Customer Relationship Management (CRM), sont si compliqués — un résultat du marketing de ces produits-- qu’ils sont quasiment intimidants pour les responsables informatiques eux-mêmes ! C’est l’exemple-type d’outil dont les utilisateurs ne voudront pas. En effet la base utilisateur dans une communauté est le plus souvent loin d’être hyper-spécialisée en informatique.

Il ne faut pas oublier que le système informatique n’est utile que s’il est intégré au process de travail. Dès lors, se pose-t-on la question : « veut-on compliquer ou simplifier le processus » ?
Or l’adjonction d’un outil à un process qui marche, risque toujours de le rendre plus difficile. Il est toujours plus utile de dialoguer avec les utilisateurs, et de les faire s’exprimer sur le fonctionnement de leur travail, que de leur acheter le meilleur des outils informatiques, sans réflexion.

De manière générale, il ne pas avoir honte de proposer un outil simple. Au contraire, plus il est compréhensible, et plus rapidement l’information est ciblée — donc interprétée et utilisée.
D’ailleurs, ce n’est pas un hasard si une phrase célèbre dit : « pourquoi se fatiguer à faire simple alors qu’il est si simple de faire compliqué ? »

Souplesse du système

Peut-on « prévoir » ce qui conviendra mieux à une population donnée ?
Certainement pas, car de nombreuses variables sont encore mystérieuses avant l’utilisation effective (ergonomie, fonctionnalités, fréquence d’utilisation, média utilisés, etc.). En revanche ce que l’on peut prévoir, c’est l’évolutivité du système.

Dans notre approche, nous avons gardé une certaine humilité et avons accepté l’idée que notre système serait amené à évoluer. C’est d’ailleurs une nécessité puisqu’on s’adresse à une population dont le comportement, lui aussi, évoluera certainement au contact de l’outil.

Selon Scott (1998), et Finlay & Forghani (1998), l’accent doit être mis sur la facilité d’adaptation. Il faut donc s’assurer que cette transition pourra se faire, et se fera sans perte significative de données ou même de fonctionnalités.

Convivialité du système

Un éventuel manque de simplicité ne serait pas tant un problème, si les systèmes étaient parfaitement bien pensés. Or, cette perfection est impossible à atteindre — l’équipe qui crée le système informatique est constamment soumis à des choix, et ceux-ci peuvent bien sûr rallier l’avis de la majorité, mais jamais de tous.
Pour garder un système suffisamment intuitif pour tous, il faut sans cesse garder l’utilisateur à l’esprit : ses réflexes (hérités de sa façon de travailler), ses repères (dûs aux logiciels qu’il utilise déjà par ailleurs) et ses souhaits.
Ainsi on pourra adapter du mieux possible le véhicule à l’audience.

De plus, il peut être bénéfique de donner la possibilité pour une « touche personnelle » qui sera généralement appréciée par les utilisateurs. L’austérité n’est pas nécessaire, et la personnalisation donne un regard nouveau sur une pièce de technologie.

Qualité du contenu

Bien évidemment, la qualité du contenu exposé dans l’outil sera prévalent sur le reste — et d’une façon ou d’une autre, il doit être possible de prévoir des moyens et des mécanismes pour encourager, étoffer, et recentrer (en utilisant des fonctions de modération) le contenu de la discussion.

En effet l’information possède des caractéristiques :

Or nous pouvons veiller, auprès de leurs auteurs si possible, à ce que les informations exposées soient de qualité raisonnablement bonne pour chacun de ces points.
En effet l’outil aura beau être bien pensé et son usage suffisamment vanté, il ne sera malgré tout utilisé par quelqu’un que s’il « offre quelque chose de nouveau et d’intéressant à cette personne » (Whalsham, 2001).

La qualité du contenu étant nécessaire, il est toutefois, en raison de sa subjectivité, difficile d’en parler dans une partie réservée à la technologie. Nous pouvons au moins parler de la façon de la présenter.

Façon de présenter l’information

La façon de présenter le contenu est très importante. En effet la qualité globale du système repose également sur sa capacité à présenter une connaissance de façon explicite, donc tronquée.

Enfin, une présentation ne résulte pas nécessairement en un apprentissage, en d’autres termes, à une ingurgitation de l’information. Pour que ceci arrive, il faut que les utilisateurs du système aient une volonté active de résoudre un problème, d’avoir une réponse.

Mise en page

La connaissance est finie, et la quantité d’information infinie : dès lors un travail de tri est nécessaire. On ne peut en effet pas présenter tout et n’importe quoi à l’utilisateur, qui a une capacité de cognition limitée.
En effet le cerveau ne peut comprendre « d’un coup d’œil » qu’une certaine quantité d’information. Il faut donc la garder minimale pour pouvoir être intégrée de façon optimale, et savoir sélectionner quels sont les éléments les plus importants

Pratiquement, on remarque en outre que des portails comme Yahoo! (comprenant des centaines de liens) ont beaucoup perdu d’audience face à des sites très minimalistes, tels que Google.
En effet une telle conception est plus efficace pour l’utilisateur, en termes de clarté et de convivialité, et est donc plébiscitée.

Mise en valeur

L’information valable est celle qui sera lue, transformée en connaissance, et actionnée. De même, plus d’informations ne résoud pas les problèmes de Knowledge Management d’une entreprise.

Il faut garder à l’esprit que les utilisateurs ont déjà des plannings bien remplis. D’un point de vue informationnel, ils sont déjà largement débordés d’e-mails, et n’ont certainement pas envie de plus de travail en ce qui concerne le tri et la lecture d’autres informations.

Dans cette situation, la mise à disposition d’une information de plus, représente une « demande d’attention » supplémentaire. Or, si le temps manque, ou que le bénéfice de la lecture de cette information est mal exposé, alors cette demande d’attention peut être inefficace — ou pis, vécue comme un dérangement.

Alors, que doit-on mettre en valeur : d’abord ce qui est récent ? Ce qui est « validé » ? Ce qui est jugé important par d’autres membres ? A priori, ici la réponse peut varier en fonction du fonctionnement du système et de l’application.

Il est également utile mettre en place des « niveaux de lecture » pour ces informations. Par exemple, pour la présentation d’un long article, des ergonomes proposent de le décliner en 3 longueurs croissantes : d’abord un titre, ensuite un résumé que le l’utilisateur lira si le titre lui a convenu, et enfin le texte complet de l’article, si le lecteur a besoin de connaître en détail le sujet.

Ceci peut répondre à la question de la présentation des contributions, pour les gens qui consultent le système. Mais, comment les présenter pour les (d’ordinaire nombreuses) personnes qui ne le consultent pas ? L’idéal dans ce cas est de reprendre les « bonnes recettes » de présentation et de les envoyer sur plusieurs médias, « push » et « pull » comme nous le verrons plus tard.

Solution intégrée

L’objectif d’avoir un « point d’entrée unique » est souvent très apprécié, puisqu’il réduit le nombre de démarches nécessaires pour se tenir informé. Certaines « écoles de pensée » veillent même au développement de tels systèmes.

De plus une même information se trouve, excessivement souvent, dupliquée (et tronquée !) au sein d’une même organisation. Or avoir un unique point de référence empêche de fait que n’apparaissent de tels doublons.

D’un autre côté, avec une interopérabilité des données croissante, le système informatique a un pouvoir de « réutilisation » qui peut limiter les risques de duplication.
Comme le mentionne Martin Roulleaux Dugage : « On parle de moins en moins d’intégration des applications (logique industrielle d’automatisation de process) et de plus en plus d’intégration de contenus (logique post-industrielle de circulation contrôlée des connaissances) ».

Limites de l’outil et réalité du terrain

Les recherches sur le lieu de travail indiquent que la façon de travailler des gens est très différente de ce qui est exposé dans les manuels. De même, le management n’a pas toujours une image précise et correcte du travail au jour le jour, dans leurs équipes.
Il faut alors faire attention en cas de spécification des besoins trop rapide, et/ou trop édictée par les dirigeants (« top-down »).

Par ailleurs de nombreux écueils sont à prévoir lors du déploiement d’un environnement de partage.

La mobilité des acteurs

Tout d’abord, tous les utilisateurs ne sont pas forcément installés dans un bureau, avec une connexion rapide à l’Internet. Le système doit être pensé pour être également utile à ceux qui passent la plupart de leur temps sur le terrain, ou qui sont en déplacement fréquent (on parle de personnes « on-the-go »).
Or, nombre de systèmes sont difficiles à vivre pour des gens souvent déconnectés. Un concepteur de système doit donc se poser la question : « Où sont mes utilisateurs ? », pour avoir une idée des lacunes que rencontrera une approche uniquement technologique. On pourra, le cas échéant, prévoir des parades (telles que des réplications locales, ou parfois la recommandation d’un meilleur matériel de communication).

Quelle est la « vraie » façon de travailler ?

On ne peut bien évidemment pas se substituer aux gens sur le terrain, ni leur donner des leçons sur leur métier. Tout ce qu’on peut faire, lorsqu’on prétend créer un environnement de partage, c’est de leur apporter des moyens de communication.

Certes les utilisateurs ne sont pas rétifs à un changement de leurs habitudes, mais ne permettent pas qu’on le détériore : il faut pouvoir faire mieux. C’est sur ce « mieux », souvent pris en charge par la Direction des Systèmes Informatiques, qu’il faut faire s’exprimer les utilisateurs. Beyer et Holtzblatt proposent à cet égard des processus pour que les systèmes d’information soient faits selon le travail réel des utilisateurs, et non pas comment les informaticiens pensent qu’il est fait.

L’importance de la rencontre réelle

Bien entendu, un outil ne peut pas se substituer à un véritable environnement de partage.
En règle générale, seule une rencontre physique (« IRL », pour « in real life ») des participants permet de donner la véritable dynamique à tout outil de partage (et plus largement toute initiative de Knowledge Management). Même avec les technologies actuelles les plus avancées en matière de communication (messagerie instantanée, visioconférences, ubiquité de l’e-mail), rien ne les remplace encore.

C’est ce que nous allons expliquer dans le prochain chapitre.

Communication

Introduction : à la conquête de notre 6e sens

Les connaissances peuvent exister — mais il reste encore à les diffuser. En effet dans notre démarche, la communication est la clé du succès ; certains y voient même la partie centrale du Knowledge Management. La communication est le vecteur de diffusion de la connaissance : c’est l’interface, l’interconnexion entre des systèmes connaissants (c’est-à-dire, entre Hommes).

Notons qu’il existe également des formes de communication entre machines (couches réseau et protocoles) ; entre hommes et machines (cybernétique ; IHM). Ici nous parlerons principalement de la communication entre les Hommes, prise en tant que qualité humaine.
Or communiquer notre connaissance aux autres n’est pas chose aisée.

Dès lors, dans la plupart des applications — en toute honnêteté — on peut imaginer qu’il n’y ait pas nécessairement besoin de trop s’empêtrer dans des questions architecturales avant de faire un environnement. Le seul fait qu’il existe peut suffire à démarrer la communication — ce qui est le point névralgique.

Puisque de toute façon, le système est amené à changer, la communication entre les utilisateurs pourra guider les futures modifications : ce sont les participants qui le modifieront par la suite, l’orientant selon leurs désirs.

Voici ce qu’il faut prendre en ligne de compte pour pouvoir créer un bon climat (fluide) de communication.

Utilité de la communication

En effet la communication en elle-même a de l’utilité. Elle démontre l’activité d’une communauté, la rendant donc plus à même de mobiliser plus facilement ses participants autour de la cause commune.
Selon Prax, c’est l’échange qui appelle l’outil. Il faut donc mettre l’échange comme priorité de notre environnement — ce qui orientera la suite de notre démarche.

S’informer

Premièrement, la communication est le biais par lequel arrive l’information et la connaissance. Or il y a de plus en plus besoin de sources d’information — ce n’est donc pas un hasard si les besoins en communication soient en rapport.

La communication est dès lors une alliée naturelle dans un environnement où « l’ignorance n’est jamais une excuse » !

Se connaître

À l’évidence, il est beaucoup plus facile de travailler en groupe avec des gens qu’on connaît.
Si cette phrase semble anodine, c’est parce qu’à l’inverse, la non-connaissance des autres est problématique dans de nombreux cas de figure — et on l’expérimente malheureusement souvent : peur de déranger ; soucis de confidentialité...

Ainsi la communication a une utilité en tant qu'expérience sociale, même lorsque le contenu de la discussion est faible. Elle joue le même rôle que de coûteuses séances de « team building » et participe finalement à une meilleure entente dans l’équipe.

Selon Clark et Brennan : « [les conversations courtes] peuvent avoir plus de valeur qu’il n’apparaît immédiatement. C’est souvent où les personnalités sont exposées. Ceci peut faire une grande différence dans le temps, pour se sentir à l’aise pour demander ou donner des opinions ou de l’aide. Les échanges rapides font souvent la différence dans la construction mutuelle de la compréhension ».

Évidemment, il y a le risque que cette communication soit vue, dans son exercice quotidien, comme une perte de temps par les managers. Mais il faut les sensibiliser sur l’importance d’une connaissance mutuelle des participants, et les encourager à permettre une expression plus libre.

Mieux travailler

En outre, souvent on constate que des tensions dans un groupe (privé ou professionnel !) sont dûes à un défaut de communication : la friction engendrée pas le fait de dire la même chose mais d’une façon différente ; d’ignorer un élément ; etc.
Une meilleure communication permet d’étouffer dans l’œuf la plupart des problèmes de communication de la vie courante. C’est donc un point stratégique pour les groupes géographiquement distants, et a fortiori multinationaux, où ces problèmes sont beaucoup plus difficiles à résoudre.

Idéalement la communication doit avoir lieu dans tous les sens (horizontal et vertical) — et donc pouvoir également traverser les « frontières » de la communauté de pratique restreinte. Horizontalement, elle peut efficacement « disséminer de la connaissance externalisée ou explicite comme des informations utiles, des processus, des meilleures pratiques, et des innovations » (Zack, 1999) ; et verticalement, elle assure ses moyens d’action et sa pérennité.

Différents modes de communication

Des moyens de communication de types différents, permettent de véhiculer différents types d’informations, avec des portées, des vitesses et des pérennités différentes. Ainsi ils ont chacun leurs avantages et leurs inconvénients ; leur utilisation simultanée et complémentaire est donc souvent recommandée.

Ceci ne s’applique pas uniquement aux TIC, mais prend en compte également tous les autres moyens plus naturels de communication.

Différents vecteurs de communication

Les sujets de partage des connaissances et de réseaux sociaux (et d’architecture de l’information au milieu ?) sont naturellement reliés. Selon Hideo Yamazaki :
« Les échanges de connaissances n’apparaissent que lors d’une relation de confiance. Donc, les échanges de connaissance et le partage de sentiments doivent marcher main dans la main. L’approche psychothérapeutique, le système logiciel et l’arrangement organisationnel doivent marcher main dans la main. Les réseaux sociaux et la gestion des connaissances doivent marcher main dans la main ».

Beaucoup des efforts du Knowledge Management vont dans le sens de faire partager des idées qui ne sont pas documentées (appelées connaissances tacites). C’est une difficulté supplémentaire puisqu’elles demandent un effort d’extériorisation de la part de celui qui les détient.

Lors de la création de certaines communautés, c’est certainement plus naturel : au début, de préparer une rencontre physique entre les participants ; puis, d’animer cette communauté par téléphone ; ensuite, de faire de plus en plus appel à l’écrit. Ceci permet une transposition douce de l’échange vers le moyen de l’écriture, puisque ce moyen n’est pas si naturel — car il ne laisse pas transparaître les sentiments.

En effet la discussion orale est immédiate, directe, spontanée. Elle met en œuvre un large panel d’expressions (corporelles, intonation) en plus du message lui-même — qui parfois, sont tout aussi importants au bon passage de l’information.
C’est un processus fondamentalement social, dans le fond (présentation de son point de vue) et dans la forme (présentation de soi).
La conversation permet facilement : correction, clarification, reformulation.

Depuis la montée en volume de la communication textuelle, des efforts rédactionnels vont dans le sens de communiquer des émotions par le texte : il est possible d’ajouter des émoticônes (« smileys »), et parfois même des portraits (« avatars ») associés à une humeur ou une réaction.
De tels ajouts sont nécessaires pour une bonne discussion textuelle, afin d’en faire ressortir la portée des idées échangées.

Ainsi on comprend que plus il y a de vecteurs de communication mis en œuvre, plus on peut être sûr de son interlocuteur, car on peut mieux le comprendre, et les occasions de tricher sont plus facilement découvertes. On trouve, par degré de confiance croissant :

Ainsi on constate que la confiance qu’on peut accorder à un individu est plus facilement déterminée lors d’une communication directe avec lui.

Toutefois la situation idéale de dialogue, telle qu’on la recherche au sein d’une communauté, est lorsque tous les participants ont un accès égal à la communication, et que des différences de pouvoir ne s’exercent pas.

D’un point de vue générationnel, la façon de communiquer a encore changé depuis quelques années. Naguère la télévision avait relégué la lecture au second plan ; le téléphone avait remplacé l’écriture. Au contraire, avec la vague de l’informatique actuelle, les gens renouent avec une relation forte à l’écrit. Ceci peut se voir à l’engouement pour la conversation par IRC, les messages SMS, et pour la messagerie instantanée. On assiste par ailleurs à un choc de générations, entre ceux qui ont grandi avec ces outils, et ceux qui n’y ont pas été habitués. En effet, pour les plus jeunes, « écrit » ne veut plus dire « stocké, immobile » — celà veut aussi dire « informatisé, immédiat ».

Il y a quelques années, nos Académiciens exprimaient leur satisfaction au vu de du regain d’intérêt des Français pour la prose. Or, on peut observer que la frontière entre l’écrit et l’oral commence parfois à se réduire, comme en ce qui concerne le « langage SMS », et la forme des conversations par messagerie instantanée.

Il semble en outre qu’il y ait non pas une, mais plusieurs « cultures de l’écrit », selon que la communication est synchrone ou asynchrone, ou encore ciblée ou destinée à un large public. En effet, différents « types » d’informations transitent par le biais du texte — avec des cycles de vie (rédaction, utilisation, péremption) différents.

Push ou pull

Les deux modes classiques de diffusion de l’information sont « pull » et « push » :

Chacun a un avantage dans un domaine : selon les cas de figure, la technique « pull » peut se révéler plus précise (plus personnalisée et souvent plus gratifiant), mais demande une formulation de ce qu’on cherche. La technique « push » peut être utilisée par les utilisateurs d’ordinaire plus passifs.

Du point de vue utilisateurs, on peut supposer que « push » est plus rapide, plus simple d’utilisation pour les gens déjà familiarisées avec l’e-mail, la télévision, les panneaux d’affichage, etc.. En revanche, « pull » est peut-être moins naturel, et nécessite un apprentissage.

Naturellement, les deux sont reliés : exploiter convenablement « push » ne peut se faire que si on est capable de mettre à disposition de bonnes sources en « pull ». De même, une conversation est un mélange de « push » et de « pull ».

Il peut être efficace de communiquer à la fois sur ces deux tableaux : par exemple, créer un lien « push » pour informer une communauté d’une idée, et un lien « pull » pour leur faire exprimer leurs opinions sur cette même idée. Ceci permet de se garantir un maximum d’audience pour ce que l’on a à communiquer, et donc, peut donner des résultats qui n’auraient pas nécessairement eu lieu en n’utilisant qu’un des modes de diffusion.

Les médias

Il existe deux types de médiatisation : l’une collective et formelle, l’autre personnelle et informelle.
Elles sont utilisées à des moments différents, et pour des raisons différentes.

Médias collectifs

Avec les médias collectifs, les informations sont diffusées à beaucoup de personnes en même temps.

un excellent moyen de réunir les avis des uns et des autres reste d’organiser une conférence. C’est le lieu où les problèmes peuvent être résolus rapidement, et où une masse compacte d’informations est échangée.
Malheureusement celles-ci sont souvent coûteuses pour un entreprise, surtout lorsqu’il s’agit de réunir des personnes géographiquement distantes.

D’autre part, on peut parler de médias tels que notamment la radio ou la télévision, où les informations sont transmisses indépendamment de la personnalité de celui qui les reçoit. Ce furent historiquement les premiers moyens pour couvrir une véritablement large audience.

D’un autre côté, mais toujours dans les médias collectifs, le World Wide Web est devenu en quelques décennies, un haut lieu de la communication.
On y retrouve depuis longtemps des écrits, des manuels, et autres exposés de recherches diverses (pages statiques). Des langages de script, épaulés par des bases de données, peuvent créer des pages dynamiques, créant le contenu de la page à la volée (c’est le cas des sites d’actualités, de e-commerce, les moteurs de recherche...).

De retour au Knowledge Management, de nombreuses applications peuvent bénéficier de cette puissance, comme les bases de documents, les espaces de discussion, ou encore les traditionnelles et nécessaires applications de who’s who...

De plus, le web était soumis depuis longtemps à une approche du type gestion de contenu (« content management ») ; et depuis quelques années, plusieurs médias offrent maintenant la possibilité d’éditer des ressources en paternité distribuée (« distributed authorship »), permettant à tout le monde de participer à une discussion ou à l’élaboration d’un objet.

Le succès de ces outils est retentissant et ils changent significativement la façon dont les informations sont communiquées. Nous allons discuter rapidement de deux outils, le weblog (traduit en français par « joueb » pour « journal web », ou « blogue ») et le wiki (NDR : sans traduction française imposée, puisque ce mot vient de l’hawaiien et non pas de l’anglais).

Usenet Rule #27 (Gary Lewandowski): « In cyberspace, everyone can hear you scream. »

Les weblogs

Un certain type de site web, composé d’une succession journalière d’articles, a été nommée « weblog » en 1997. Dans les récentes années, le nombre de weblogs a explosé, et cette façon de communiquer est devenue un phénomène de société. Elle a trouvé sa place comme étant un moyen démocratique de communication de masse.

Ce ne sont plus seulement les adolescents « branchés » qui y participent, mais maintenant aussi des responsables de Knowledge Management, des politiques, des chefs d’entreprise... et même des enseignants. Certains vont plus loin en l’appelant « k-logging » (notation de connaissances) ou parlent de « personal content management ». Pour d’autres, un weblog a un aspect artistique, voire thérapeutique.

Les weblogs sont une « mémoire de l’instant », publiée et lue très facilement et immédiatement. En effet :

Les weblogs ont une forme particulière : ils permettent à leurs auteurs de jeter rapidement des idées sur le papier — ce n’est donc pas pour créer une vraie ressource structurée. Les autres lecteurs sur l’Internet peuvent immédiatement répondre aux idées publiées. C’est donc une sorte de « mutant » entre l’écrit et la culture orale — et c’est certainement ce qui fait son succès.

Les « communautés » d’auteurs de weblogs actifs s’appellent des blogosphères. On en trouve en général une par langue ou pays.

Les wikis

Autre genre de site web dynamique : les « wikis » sont un autre phénomène relativement récent dans la façon de communiquer sur l’Internet : il s’agit d’un site Web dynamique, dont tout le monde peut éditer le contenu de façon collaborative. Différentes « pages » existent, et il est possible d’en éditer le contenu, qui est centré sur un thème précis (« theme centered »).

Les wikis sont donc, par nature, plus intemporels que les weblogs.

Dans le cas de ces médias décentralisés et ouverts, il est difficile d’attribuer un droit d’auteur pour les contributions.
Tout comme sur les weblogs, la propriété des réactions postées reste encore un concept flou — et en outre, il n’est pas toujours possible de retrouver qui a écrit quoi.

Mais de telles spéculations ne sont d’ordinaire pas l’objet des wikis, comme on le voit pour, par exemple, des ouvrages comme Wikipédia.
Wikipédia est une encyclopédie où le contenu est libre de droit, et à laquelle tout le monde peut contribuer. Les résultats semblent satisfaisants : c’est actuellement la plus grande encyclopédie du monde, et également celle qui croit le plus vite, avec 2500 nouveaux articles chaque jour, et 10 fois ce nombre en mises à jour. Elle a d’ailleurs récemment été sacrée comme l’un des 10 sites de référence sur l’Internet.

Même si il faut se garder d’être trop enthousiaste, le principe d’un savoir libre de droits a une grande importance dans le monde actuel. Ceci nous ramène à une phrase célèbre dans le jargon des informaticiens, émise par S. Brand en 1984 : « information wants to be free » (l’information veut être gratuite).

Médias personnels

Par ailleurs, les médias personnels sont les plus anciens, car ne faisant pas toujours appel à un mécanisme de diffusion. Ils sont évidemment toujours utilisés dans de nombreuses applications.

La discussion orale en est l’exemple le plus évident.

Ensuite, exploité depuis les années 1870, le téléphone est devenu un moyen naturel de communication, et son utilisation prend de l’ampleur puisque c’est le moyen le plus portable de communiquer.
Celà reste un moyen assez pratique pour joindre rapidement quelqu’un ; mais on regrette qu’en tant que moyen « oral », il ne laisse pas de « trace » de la communication.

L’application la plus populaire de l’Internet, l'e-mail, laisse une trace de la discussion. Il n’est pas totalement synchrone, ce qui en fait un des moyens les plus « polis » de converser actuellement. En effet, le destinataire peut répondre soit immédiatement, soit plus tard s’il le désire.

La messagerie instantanée (comme ICQ, Jabber, etc.) tente de concilier le meilleur des deux mondes.
La discussion peut être synchrone ou asynchrone, et de plus, les conversations peuvent être stockées. Cette persistance ouvre la porte à de nombreuses autres possibilités et applications (recherche, annotation, etc.). Le manque de « langage corporel » est contré à grand renfort de smileys et autres visuels.

La messagerie instantanée semble être en plein essor en entreprise ; elle pose également d’autres problèmes de sécurité — c’est pourquoi il faut veiller à ce que cette activité soit prise en charge par l’entreprise.

Conséquences des nouveaux outils de communication

Communiquer numériquement n’est pas forcément quelque chose de naturel. En effet, même la tâche la plus simple (comme une requête sur un moteur de recherche) suppose de posséder :

L’informatique omniprésente

Le terme anglais « ubiquitous computing » désigne l’adaptation de l’informatique aux évolutions de l’environnement. Ce qui voudrait dire qu’aujourd’hui plutôt que d’être un outil par lequel nous travaillons, et donc qui disparaît de notre conscience, l’ordinateur reste trop souvent un point d’attention.

Les porteurs de cette idée espèrent qu’incorporer de la puissance de calcul dans l’environnement rendrait possible pour les gens de se déplacer et d’interagir avec des ordinateurs d’une façon plus naturelle que ce qu’ils font actuellement.

Plus de k-logging

La philosophie du k-logging peut devenir une évolution marquante de la façon de communiquer.

Son utilisation grâce aux techniques de syndication (comme un agrégateur lisant RSS, Atom, etc.), basées sur le web sémantique, peut simplifier considérablement la tâche de celui qui recherche de l’information, ainsi que permettre de faire plus en moins de temps. L’utilisateur équipé d’un agrégateur peut véritablement « faire son marché » parmi les millions de sources d’information déjà disponibles.
Comme le dit Martin Roulleaux Dugage à ce propos, « le Knowledge Management n’est plus de gérer des documents : c’est gérer des sources — pas des molécules d’eau ».

En revanche, certains problèmes poussent à penser qu’une remise en cause est nécessaire pour en faire une application optimale.

En effet, celà demande (déjà !) de grandes capacités en bande passante pour RSS.
Ainsi et comme d’autres technologies de ce type, il semble évident que ce modèle ne pourra pas s’adapter à une consommation massive. Mais, ce n’est qu’une question de format et de protocole, pas de philosophie de communication.

De plus, les agrégateurs ont besoin d’organiser mieux les sources, et ainsi d’aider intelligemment l’utilisateur dans la lecture.

Enfin, il ne sera pas possible de faire circuler tant de données sans un grand appel à des données semi-intelligentes (pour réaliser des backtracks, etc.). On n’en est donc qu’au début — même si celà fait trente ans qu’on le répète !

Décentralisation

La tendance de la communication est plutôt dans une phase de décentralisation, attisée par le succès du modèle du World Wide Web. Ceci permet une grande liberté, avec peu de contrôles et un coût très restreint.

Différents mouvements, comme le « peer-to-peer » (P2P) et l’Open Source, permettent une démocratisation des produits et des moyens de communication, avec des résultats encourageants, mais qui se heurtent de front aux pressions des grandes entreprises.

De plus, conjointement avec le développement de l’Internet et ses débits toujours plus hauts, une nouvelle « insurrection » guette les opérateurs « historiques », sous le nom de VoIP (Voice over IP = voix sur protocole Internet). Cette technologie consiste simplement à véhiculer la voix sur le réseau en la numérisant par « paquets » — mais celà peut avoir de grandes répercussion sur la façon dont nous communiquons et sur l’économie de la communication en général.
Pour faire un parallèle, ceci pourrait avoir la même incidence que lorsque l’automobile a détrôné le rail, en apportant plus d’indépendance à l’utilisateur.

Certains s’imaginent déjà que les communications seront gratuites, les entreprises à multi-millions de dollars vont s’effondrer... pour le meilleur ou pour le pire ? Avérée ou non, cette théorie ne remet pas en cause le fait que les « simples » particuliers semblent pouvoir être de plus en plus en possession des moyens de communication.

L'Open source

La communauté « Open-Source » est certainement le plus populaire exemple de communauté moderne. Elle s’est développée dans une sorte d’âge d’or (social et technologique) du logiciel libre ; elle symbolise une sorte de changement culturel global, possible dans une société arrivée à maturité.

Son but est de regrouper des gens passionnés, qui ne se connaissent pas nécessairement, pour faire des logiciels. Pour ce faire, le code source des logiciels est ouvert (« open source »), c’est à dire disponible pour tout le monde, alors que les entreprises protègent et cachent leur code source.

Cette communauté est très intéressante dans le sens où elle est très décentralisée, et peut maintenant fabriquer des produits de très haute qualité. À présent, beaucoup des meilleurs logiciels du marché sont open-source, et servent même d’étalon pour les standards, tels qu’ISO. Ce mouvement est d’ailleurs devenu un lobby rivalisant avec les multinationales.

Ce mouvement est un très bon exemple de la dépendance qu’il existe entre les communautés et les technologies de la communication, puisque sa vie est intimement liée aux TIC.
Dans cette communauté, en règle générale, plus il y a de diffusion, plus il y a de contributeurs, et donc plus la valeur est grande.

Elle a su mettre en place les moyens structurels, économiques et psychologiques pour pouvoir réutiliser efficacement les « bouts de travail » des autres.

Nouveaux handicaps

Peut-être le mot n’est-il pas trop fort lorsqu’on évoque un « 6e sens » pour parler de la communication. Aux antipodes de l’expérience catharsique de certains weblogs, certaines personnes ont des troubles neurologiques qui les empêchent de communiquer normalement. On a « découvert » de nombreuses nouvelles maladies sur ce sujet au cours du siècle dernier, et la tendance est à la hausse. Or, les gens ont fortement besoin de se faire comprendre, dans une société où l’on n’aime que ce qu’on comprend.

L’autisme, première fois décrit par Kanner en 1943, consiste en une déconnexion sociale, et une incapacité à comprendre les subtilités de la communication humaine.
Dans la même lignée, Asperger décrivit en 1944 une défaillance des capacités sociales et de communication chez des sujets d’intelligence normale, sains en apparence.
Assez curieusement, le monde actuel semble augmenter les risques de telles « maladies de la communication ». En Californie, État de la Silicon Valley, les cas d’Asperger ont triplé dans les années 90.

Par ailleurs, on constate que les utilisateurs de l’Internet se sentent en confiance, en sécurité et en situation de puissance (« empowered ») lorsqu’ils sont connectés. Lors d’expériences de déconnexion, c’est-à-dire de privation d’Internet, une part (croissante) de sujet développent des troubles dès 2 semaines.

Ceci est préoccupant car, dans cet environnement (qui se désolidarise et se communautarise), quelqu’un qui ne maîtriserait pas parfaitement la communication est beaucoup diminué. Ceci est sans doute une question d’ordre plus psychologique, mais qui a de plus en plus d’importance — et parfois malheureusement, de répercussions sur l’actualité.

La communication comme arme à deux tranchants

Comme tout outil ou tout véhicule, la communication peut avoir des aspects déplaisants.

L’appropriation de la connaissance

L’idée de l’appariement de l’information, et donc sa rétention, sont loin d’être des idées moribondes... En effet, elles répondent à un besoin simple, celui de la différenciation. Selon Lawton, les gens ont tendance à protéger ce qu’ils savent, parce que c’est ce qu’ils savent, et ceci les différencie des autres employés.

Deux mondes s’affrontent donc : l’un basé sur l’information, et l’autre basé sur le réseau. Ces deux environnements n’ont pas la même façon de « récompenser » la connaissance. Le second propose un modèle non marchand de type « académique », et permet naturellement une plus grande transversalité des flux d’information — transversalité qui fait souvent trembler ceux qui possédaient habituellement une situation de contrôle sur ces flux. De là vient l’idée d’un changement culturel nécessaire.

L’écrit est stocké

La communication écrite circulant à travers l’outil informatique a la particularité de pouvoir être facilement stockée.
Dès lors, tout écrit peut avoir de fâcheux effets, par exemple lorsqu’il est transmis à une personne inattendue — ce qui arrive très souvent — ou qu’il est « ressorti » des archives pour asseoir une attaque. Il peut devenir impératif de se livrer au « politiquement correct » ou d’édulcorer le message, de peur de dire quelque chose qui puisse fâcher, maintenant ou plus tard.

Celà signifie qu’il faut d’abord s’assurer d’être dans un vrai cadre de confiance avant de communiquer librement. Celà consiste en savoir qui va lire, comment sera utilisée l’information, et le cas échéant, comment modifier les données qu’on a écrites après publication.

Communiquer en tant que métier ?

L’exercice de la communication est également de plus en plus développé en entreprise, au point d’être quasiment devenu la tâche principale de certains managers. Pourtant, il est bon de rappeler que l’entreprise ne produit pas de la connaissance, et il faut pouvoir relativiser le temps passé à communiquer.

Même si communiquer est nécessaire, et encore trop souvent sous-évalué (ou mal évalué), il n’est pas envisageable d’en faire le cœur de l’entreprise ; ceci risque de déconnecter les managers de la réalité, à force de ne plus toucher au « vrai » travail. Un équilibre doit être respecté pour tirer pleinement parti de sa place dans l’entreprise.

Surcommunication

L’ennemi principal devient la surcommunication. En effet il est très facile de faire monter, artificiellement ou non, le nombre d’informations qu’on peur servir aux utilisateurs ; l’excès d’informations (dans sa boîte de réception d’e-mails, lors de réunions inutiles) est un cas commun qui recueille de nombreux plaignants.

Un tel débordement conduit à une gigantesque perte de temps, de crédibilité et d’énergie (sans compter, de bande passante, ou de tout autre moyen de faire circuler cette surcommunication). Devant la montée en masse des informations disponibles, il faut non seulement des méthodes de tri efficaces, mais aussi une plus grande rigueur et organisation dans la diffusion.

Insécurité

Ce qui était stratégique pour les militaires le devient pour l’entreprise.
Les moyens de communication sont très sensibles aux problèmes : pannes, piratage, DoS et attaques diverses.
La perte d’informations, ou son utilisation contre l’entreprise, peuvent coûter une fortune. Un des revers de la communication, est que l’entreprise doit toujours savoir la surveiller — comme tout autre élément stratégique de son activité.

Fracture électronique

Dans un monde qui se globalise, les différences entre les have et les have not augmentent à l’échelle mondiale. Dans nos civilisations, on observe plutôt en revanche une distribution tripartite : il y a les élites, les exclus, et la majorité.

Or on constate que la maîtrise de la communication est à mettre en parallèle avec l’influence politique et le pouvoir social. Jan van Dijk se demande alors, comment les moins motivés politiquement et les moins actifs peuvent-ils bénéficier plus des applications de réseaux électroniques ? C’est certainement une question à se poser rapidement pour ne pas creuser un fossé « communicationnel » déjà largement béant.

Composante humaine et organisationnelle

Introduction

Jusqu’à présent, nous ne parlions que de gestion des informations. En effet, pour réellement manager des connaissances, il faut manager les Hommes qui les possèdent, et hors desquels elle n’existe pas. En outre, il faut naturellement se focaliser sur l’Homme pour obtenir une meilleure diffusion de la connaissance tacite — la plus difficile à diffuser, et celle qui a le plus de valeur.

En effet Polanyi souligne que « la connaissance n’a pas d’autres fondement que phénoménologique, ne peut pas être considérée en-dehors du sujet connaissant ». Nonaka semble également favorable à l’idée qu’il n’y pas d’existence ontologique de la connaissance. Une connaissance mène à l’action : elle est donc l’apanage d’un être humain.

Ainsi Nonaka et Takeuchi soulignent que l’homme occupe le rôle central dans la création de la connaissance. Mais, raisonner au niveau individuel est souvent se tromper de granularité : il faut l’inscrire dans un contexte social, dans un environnement physique, émotionnel, et sensuel.
En effet l’homme (n’est pas une machine et à ce titre) est réceptif au contexte collectif et individuel (pair-pair) qu’il subit.

Dans le cadre de nos communautés, il faut évidemment d’abord que l’environnement de partage puisse s’adapter de manière naturelle aux habitudes de travail des utilisateurs. En revanche, il serait inexact de dire que cette même façon de travailler n’évoluera pas, au contact de cette communauté.

Les réactions à cet environnement sont un domaine d’étude très intéressant, — et sont souvent imprévisibles.
Nous allons voir les variables qui les constituent.

Ingénierie sociale

NDR : Le terme « social engineering » a été utilisé en anglais pour désigner la manipulation d’utilisateurs dans le but de voler leurs mots de passe. En français, « ingénierie sociale » désigne la façon d’influer sur l’environnement social.

Le Knowledge Management dans ce cas n’est plus simplement réduit à des outils et de la gestion de contenu. Il consiste également à tenir compte des problématiques humaines spécifiques (facteurs affectifs, émotionnels, de tropismes, styles cognitifs) et s’en servir pour orienter l’environnement de travail en le rendant le plus efficace possible.
Il faut également mettre en place les moyens humains de succès pour les utilisateurs, afin qu’ils soient réceptifs à cette nouvelle façon de travailler, et qu’ils s’y épanouissent. C’est ce que nous allons essayer de comprendre.

Socialisation

En premier lieu, on peut tenir dompte du fait que les gens aiment être entourées. Ceci les soulagent de l’anxiété du monde environnant, et c’est donc particulièrement primordial dans un environnement de travail changeant.

En communauté, on parle de « sentiment d’appartenance » : c’est ce qui fait qu’on se sent important et utile.
Il faut donc utiliser ce sentiment pour construire une communauté humaine, forte et fière, pour le bénéfice collectif et individuel.

Deux approches peuvent être utiles pour soutenir les communautés :

Pour réaliser une socialisation par le biais de l’informatique, on peut également utiliser des logiciels spécialisés, appelés « logiciels sociaux » (social software). Ce terme est maintenant utilisé pour définir les logiciels qui soutiennent une interaction de groupe. De tels logiciels ont un succès grandissant depuis au moins 2 ans, et peuvent être d’une grande utilité en entreprise.

Liberté dans le travail

Il peut tout à fait avoir un besoin de laisser un « flou créatif » pour laisser une part d’autonomie aux participants (Nonaka, 1994).
De même on peut, pourquoi pas, décider d’une adhésion autour d’une démarche d’empowerement (Gupta & Govindajaran, 2000), qui facilite l’apprentissage « double-boucle » au sein de la communauté.

Il peut également être bénéfique de laisser les gens libres de travailler de façon transversale, même si la communauté n’est pas orientée spécifiquement dans ce sens. L’organisation a beaucoup à gagner lorsque l’information est diffusée et utilisée dans ses différentes entités.

Adaptation à l’outil

La capacité d’adaptation est le propre de la vie ! À tout instant, les êtres vivants créent de nouvelles solutions en face de nouvelles situations, dans un écosystème changeant lentement. L’homme également, en s’adaptant, découvre et développe de nouveaux automatismes.

Or, la résistance au changement peut être considérée comme la variable la plus importante et la plus incertaine du développement d’un environnement de partage. De nombreux facteurs vont aider ou empêcher l’adhésion à un tel environnement.

Il est important de se rappeler avant tout, que tout processus d’adaptation est progressif.
Plus le système est compliqué, moins ses bénéfices sont clairs, et plus les gens seront rétives à l’utiliser ; ainsi le temps d’adaptation à l’outil s’en trouvera certainement rallongé (si toutefois l’outil doit être accepté, d’ailleurs).
L’avantage de préparer le système de concert avec les utilisateurs, est de ne pas leur faire vivre cet outil comme complètement issu d’une imposition.

« Bonne ambiance » de travail

La connaissance, comme beaucoup d’autres éléments, s’épanouit dans un climat humain favorable
Or le comportement des gens est toujours étroitement lié au contexte social dans lequel elles se trouvent. Il est donc particulièrement important de créer une bonne ambiance de travail, qui facilite les échanges, et libère la créativité des utilisateurs.

En outre, les communautés de pratique sont des espaces où l’on « trouve ce qu’on y apporte » — il faut donc savoir favoriser un contexte social, non pas en termes d’économie d’échange, mais ce que les anthropologues appellent la « culture de don », où la recherche d’un meilleur statut s’effectue au travers de dons. Ainsi il sera possible de développer la richesse de cette communauté à travers les efforts des uns et des autres pour faire valoir leurs connaissances, et accéder à un meilleur un statut dans cette sorte de référentiel.

Motivation

La coordination de nombreuses personnes volontaires est une ressource extrêmement précieuse : elle a une capacité de travail énorme. Parallèlement, un groupe de personnes démotivées sera extrêmement sous-productive.

Or, selon Olson et Olson, « la motivation a été reconnue comme la plus grande source d’échecs dans l’adoption de groupware en général ». Ce n’est toutefois pas si étonnant, puisqu’adopter un nouvel outil à contre-cœur n’est pas un comportement naturel.

Il faut donc savoir apporter aux participants la motivation dans leur travail et dans leur utilisation du système de partage — ceci peut être fait de plusieurs façons. Pour circonvenir les risques d’échecs liés à la motivation, se proposent un éventail d’encouragements — financiers et non financiers.

Notons qu’à une phase du développement de la communauté apparaît un type de motivation. Les choses ne sont plus forcément pareilles dans une communauté devenue mature. On dit par exemple, que la communauté des hackers est maintenant aussi intéressée par les affaires économiques que la notoriété.

Voyons comment nous pouvons encourager la motivation de nos utilisateurs...

Enthousiasme

Or dans une communauté de pratique, la participation est toujours nécessairement volontaire.
Il faut pouvoir y prévoir une part de développement personnel pour les membres, et ainsi exploiter leur enthousiasme dans une position « gagnant-gagnant ».

De plus, d’une certaine façon, toute analyse d’une nouvelle expérience ne serait pas complète, sans tenir compte de l’attrait subjectif pour les nouvelles pratiques... Mais, on constate que c’est souvent plus grisant pour ceux qui déploient que ceux qui utilisent. C’est pourquoi les concepteurs et décideurs doivent savoir garder les pieds sur terre, mais toujours encourager les utilisateurs les plus « visionnaires » et enthousiastes, qui voient dans l’environnement de partage un fort potentiel, et qui sont prêts à l’étendre et à le défendre.

Reconnaissance des pairs

N’imaginons pas que l’appartenance à une communauté est essentiellement altruiste. Au contraire, ses membres peuvent tout à fait cherchent à « flatter leur ego », asseoir leur renommée, et satisfaire leur fierté, en tentant (inconsciemment ?) d’obtenir la reconnaissance de leurs pairs.
Ainsi l’égoïsme est évidemment bénéfique est nécessaire dans la communauté — en tant qu’un ensemble d’agents égoïstes, qui cherchent à maximiser une utilité. On dit par ailleurs que « l’altruisme est une forme d’égoïsme pour l’altruiste ».

On mettrait ici en opposition la reconnaissance des pairs et la reconnaissance de la direction — la logique étant plutôt horizontale dans une communauté, sans hiérarchie pyramidale. Les « pairs » sont les plus à même de juger, et peuvent offrir leur reconnaissance dans le milieu en question, en tant qu’experts. C’est donc d’un certaine façon, le plus haut degré de considération.

De plus, valoriser les gens, c’est également renforcer leur capacité d’action. Cette recherche ne contredit donc en aucun cas les objectifs d’une communauté. Toutefois, on note deux points de friction :

La satisfaction « minimale » de celui qui met à disposition une information, est celle qui consiste à savoir si elle est consultée par les gens. Ensuite, lors de conversations, il est possible d’apprendre si elle a pu être véritablement utilisée. Si c’est le cas, les règles de bonne conduite imposent d’en remercier l’auteur original, et pourquoi pas, expliquer l’usage qu’on en a fait, ce qui permet de développer cette connaissance collaborativement.

Ces réflexes ne sont pas implémentables dans un système informatique — encore une fois, c’est l’homme qui, grâce à son intelligence et son respect, fait progresser sa communauté.

Prise de conscience

Dans le développement d’un environnement de partage, il est important que les membres sentent un commitment entre eux, qu’ils sentent vraiment le potentiel de leur communauté. Or il est difficile d’influer sur cette prise de conscience ; on ne peut que laisser le temps à la communauté d’acquérir cette part de maturité.

La communauté a un objectif business, un défi, et ce pourrait être sa seule motivation. Mais...

Les gens se rendent compte dans des applications spécifiques (et en général, dans des communautés suffisamment petites) qu’elles ont des idéaux, des intérêts communs. Cette prise de conscience leur permet d’organiser des parades contre les assauts des mal intentionnés. En effet l’existence d’un idéal commun (le « commitment ») est considérée comme une chose à défendre, capable de mobiliser l’engagement des participants.

Temps consacré

De plus, la recherche de sources de connaissance, comme toute autre recherche, prend du temps. De même, le partage de ses propres connaissances peut aussi devenir chronophage (rédaction de texte, réunion de personnes autour d’un sujet).

Or, le temps est un paramètre essentiel dans l’exercice de son métier. En conséquence, le temps « perdu » à partager ses connaissances a besoin d’encouragement, et donc au moins, d’être pris en considération en tant que « temps travaillé ».

Fun factor

Ce n’est pas interdit d’ajouter une part d’amusement, comme une pointe d’humour toujours dosée avec discernement, dans le déploiement d’un environnement de partage. Ceci peut être admis dans les relations humaines, et dans l’affichage de l’outil, et a souvent de bons résultats.

En effet un abord plus sympathique — pas forcément ludique — est un bon élément de motivation.
Il permet de s’impliquer plus volontiers et plus activement au travail et dans la communauté, et d’autre part, peut aider significativement dans l’adoption de l’outil.
D’ailleurs... n’y trouve-t-on pas le chaînon manquant entre communiquer et socialiser ?

Argent

Enfin, le plus controversé est la mise en place d’un processus qui rémunère les gens pour leur participation. D’ailleurs, la plupart du temps, la métrique informatisée est utilisée, or nous avons vu qu’elle comportait de grandes imperfections.

En effet, les récompenses en argent sont souvent désignées par certains comme « mettant le ver dans la pomme » (et sont la panacée du Knowledge Management, selon d’autres). Il faut certainement être plus inventif. De plus, de nombreux cas de figure sont défavorables à cette pratique : imaginons une association non lucrative, ou un manager qui ne désire pas budgéter ce type de récompenses...

Encore une fois, les rétributions individuelles ne contribuent pas à l’état d’esprit de partage d’informations. Or il est certain qu’une organisation qui donne de l’argent en fonction de la participation s’inscrit dans une toute autre logique.

Changement culturel

Selon une étude de Earl & Scott (1999), la démarche de Knowledge Management est composée de 20 % de technologie et 80 % de changement culturel.

Les cultures sont des mécanismes adaptatifs (réponses à des contraintes et des motivations). Or on ne peut changer avec succès le comportement de travail des gens que si on les aide à changer leur culture.

C’est pourquoi les démarches de Knowledge Management sont souvent aidées par la mise en place d’une démarche de gestion du changement. Ceci est d’une grande aide pour créer une culture de « partage de la connaissance », pour l’individu, au sein d’une communauté, et aussi à travers tous les niveaux de l’entreprise (changement organisationnel). La communauté elle-même est, en entreprise, une forme de sous-culture sociale.

Attention, ici on parle de culture, donc naturellement de long terme : le chemin vers le changement est difficile, long, et incertain. On ne change pas de culture « parce qu’on l’a décidé » — ni par plaisir. Selon Dave Pollard (2004), il faut une « extrêmement bonne raison pour le faire ».

La culture est bien plus lente à changer que le déploiement d’un outil. C’est pourquoi toutes les tentatives de Knowledge Management guidées exclusivement par la technologie échouent (comme l’idée que faire un intranet, c’est faire du Knowledge Management). Les ordinateurs ne suffisent pas, et ne constituent pas le public visé par ces initiatives.

Culture de travail

Notre société est dans une économie d’échanges, principalement à travers le commerce, où le statut social est déterminé par le contrôle sur les marchandises. Par voie de conséquence, la culture prévalente est également celle de l’échange.

Or nous avons mentionné précédemment la culture du don. Celle-ci est une réponse à l’abondance dans la société. L’abondance rend l’usage de la force injustifié et les échanges commerciaux inutiles. Le statut social devient alors déterminé par ce qu’on donne.

Ainsi cette culture s’affaire principalement du jeu des réputations. Elle semble être une situation optimale pour coopérer et avoir un travail collectif de qualité.

En tous cas, elle nous rappelle que le Knowledge Management également, ne doit pas être à sens unique, et les membres de la communauté doivent pouvoir assister à des retours sur leur participation — sans quoi la dynamique s’essouffle !

Confiance

La confiance n’existe pas en soi : elle se manifeste naturellement dans un contexte donné, même en entreprise.
Elle est particulièrement importante à l’intérieur d’une communauté, entre les participants, mais aussi avec les facilitateurs et administrateurs. C’est pour préserver ce capital confiance que les communautés semblent virtuellement fermées vues de l’extérieur.

Coordonner et administrer une communauté est un pouvoir, et nécessite que les participants prennent cette « autorité » au sérieux. Son établissement vise à ce qu’il n’y ait pas de mauvaises surprises entre les gens.

La confiance est un « climat », tel qu’il existe déjà dans un groupe d’amis. Elle suppose : humilité, respect.

Dans le cas d’un environnement de partage, on peut envisager deux types de confiance : celle entre les gens, et celle avec l’outil.

Côté outil, on parlera d’intimité et d’assurance vis-à-vis de l’outil. Selon Boynton et al. (1994), le « climat informatique » désigne la perception partagée des technologies de l’information. Sans ce climat favorable en entreprise, les participants ne se serviront pas d’un système incertain et malvenu. Boynton et al. recommandent de développer un climat informatique organique plutôt que mécanique, c’est-à-dire qui ne soit pas orienté vers le contrôle, sinon il n’y aura pas partage.
Aussi aire du système un endroit de confiance est une tâche ardue pour les concepteurs. Il faut également savoir utiliser à bon escient les mécanismes sociaux mis en œuvre par l’utilisation de l’outil.

Côté humain, en société, la confiance est en général exogène à la conversation. Elle s’acquiert au fur et à mesure qu’on connaît les interlocuteurs qui nous entourent.
Selon Prax, c’est une condition préalable au Knowledge Management. Ses principes sont :

Toujours selon Prax, on ne devrait d’ailleurs pas parler de Knowledge Management mais de Knowledge Enabling.

D’autre part, l’établissement de la confiance est le meilleur moyen de lutter contre la timidité.
En effet, des statistiques soulignent ce problème : des études sur le test de Myers-Brigg montrent que la proportion de gens « introvertis » est en forte progression, alors qu’ils ne représentaient qu’une petite part de la population il y a 50 ans. Il est tentant d’effectuer le parallèle avec l’évolution des technologies de l’information. Ainsi on observe une plus grande proportion de gens introvertis dans les métiers de l’informatique, et chez les enthousiastes de la technologie (les « geeks ») — deux populations en plein essor.

Or, il est important que les participants puissent vaincre cette timidité, et dialoguer normalement. La conversation expressive est importante : plus on sait de choses personnelles sur quelqu’un, plus on est enclin à lui faire confiance, si toutefois son comportement nous convient.

D’autre part, les soucis éventuels à propos de la privacité peuvent également faire baisser le nombre de contributions. Ceci semble aussi dépendre du « climat » informatique et de communication. En effet l’établissement d’un climat de confiance demande à définir clairement qui va lire nos documents ; l’assertion qu' « on est dans la même entreprise » n’est pas suffisant. L’idéal est quand on connaît personnellement tous ceux qui peuvent faire usage de l’information qu’on met à disposition.

Dans la négative, il est risqué de mettre à disposition des autres ses documents de travail personnels, ses e-mails, etc., puisqu’une fois que les documents sont diffusés ou stockés ailleurs, leurs propriétaires en perdent presque toujours le contrôle.

Enfin, pour certains, donner sa connaissance à disposition des autres, c’est diluer sa compétence et être ensuite plus facilement sujet à être « remplacé ». C’est une réaction est essentiellement dûe à l’environnement ; aussi dit-on souvent en parlant de Knowledge Management et de partage des connaissances : « on partage quand tout va bien ».

En somme, la confiance fait totalement partie de ce fameux « capital social » si difficile à construire (et à mesurer) ; elle suggère une entente entre les membres de l’équipe, mais aussi une foi dans l’organisation elle-même, qui bien souvent menace de « réduire les effectifs ». Or une telle attitude menaçante est très efficace pour que les gens ne se renferment sur eux-mêmes.
Le même type de menace apparaît lorsque deux départements de l’entreprise sont mis en concurrence.

La culture de l’écrit

Les outils informatiques, par lesquels passent d’une façon ou d’une autre la plupart des processus de Knowledge Management, se basent presque exclusivement sur des données écrites. En effet, c’est la façon la plus facile de stocker de l’information.
Or, pour beaucoup de gens encore, le rapport à l’écrit rappelle des mauvais souvenirs à l’école... et cette habitude est donc vite perdue dès l’arrivée dans la vie active.
Un des points clés est donc de réapprendre l’écriture. Retrouver cet enthousiasme à écrire est la première chose à faire pour obtenir des résultats avec une solution informatique.

Un environnement à long terme

Il est facile de comprendre qu’une communauté en tant que société humaine, n’est pas chose aisée à « fabriquer ». Il faut du temps, de l’enthousiasme à tous les niveaux de participation, ainsi que parfois de la formation pour l’apprentissage du fonctionnement du système.

Pris entre les pressions à court terme du travail quotidien, et l’obligation de fournir des données de retour sur investissement des chantiers en cours, il est certain que les communautés de pratique ne sont pas des démarches forcément bienvenues pour tous dans une entreprise. Mais beaucoup de personnes « croient » encore à ce genre de création, car il semble que ses résultats puissent être, finalement, particulièrement enviables — et donc rentables. Avant cette « rentabilité », elles restent donc des expérimentations, et par conséquence, peuvent être précaires. Il faut parfois savoir leur laisser le temps de s’épanouir.

Nouvelle vision de l’entreprise

Pareillement, il faut redéfinir les moyens de quantifier et de qualifier la valeur d’une entreprise, qui ne se fait plus seulement en termes financiers, mais également en intégrant les éléments intangibles ; cependant c’est une tâche assez difficile et subjective.
La prise en compte de ces actifs intangibles peut comprendre des éléments tels que le développement sur le long terme ; la gestion des connaissances ; la satisfaction des salariés...

Il n’y a actuellement pas de standard généralement accepté par tous pour juger ces aptitudes, mais plusieurs tentatives ont été faites. Par exemple, l’Intangible Assets Monitor qui tente de prendre l’organisation sous la perspective de la connaissance ; ou encore le Balanced Scorecard (BSC), qui consiste à présenter des tableaux de bord équilibrés (et donc pas seulement selon la dimension financière) ! La connaissance étant pervasive, le Knowledge Management s’infiltre partout, et semble être un autre bon indicateur de la santé d’une entreprise.
Des outils tels que le BSC étaient des outils de mesure de performance ; ils deviennent maintenant des outils de management stratégique.

Coopération dans l’organisation

Nous avons évoqué le nécessaire changement de mentalité par rapport au statut de l’information, et vu que la nouvelle définition à donner à la phrase « la connaissance est le pouvoir » (« scienta est potentia ») concerne le possesseur en tant que membre d’une communauté : on peut partager de l’information, la différence que peuvent faire les gens est dans la façon de l’utiliser. Or, on est plus capables de l’utiliser correctement lorsqu’on exerce une action coordonnée, en prenant en compte les différentes aires d’expertises présentes dans ce groupe. C’est donc — plus que la fin d’un monde basé sur le pouvoir individualisé de l’information — l’opportunité de viser plus haut.

Malheureusement, souvent le participant qui met une information à disposition, a peur également que ses idées soient « piratées » par des autres.
En vérité il faudrait mettre en place les moyens pour ne plus raisonner aussi individuellement : former et sensibiliser les gens à la culture du partage de l’information, leur expliquer les bénéfices attendus, tant collectifs qu’individuels.
Le respect, la confiance, et une processus managérial clair pour rétribuer les efforts, ou pour sanctionner les manquements, sont plus que jamais nécessaires.

Le défi est de pouvoir créer une certaine analogie entre l’entreprise et l’université, et de faire de l’organisation un espace d’apprentissage collectif et pragmatique.

Conduire la communauté

On peut segmenter grossièrement 4 niveaux de participation :

  1. les membres qui participent absolument tout le temps (qui ont leur mot à tout) ;
  2. ceux dont la participation est épisodique mais régulière ;
  3. ceux dont la participation est faible et aléatoire, ou qui ne font que regarder ;
  4. ceux qui ne montrent aucune participation.

Les attitudes 2 et 3 autres sons bonnes et normales pour une communauté, et lui permettent de se développer. En revanche les attitudes 1 et 4 sont néfastes, dans le sens où elles témoignent respectivement d’une accaparation ou d’un rejet de la communauté — donc la notion même de cette communauté s’en trouve descellée. Or, le Knowledge Management est une démarche collective, ou ce n’est pas du Knowledge Management.

De même, il faut trouver un subtil équilibre pour effectuer correctement l’encadrement de la communauté : savoir ne pas imposer, mais ne pas laisser retomber la dynamique pour autant, en tentant d’impliquer tout le monde.
Voyons quels sont nos leviers.

Le travail de facilitation

Le travail de facilitation ne devrait donc pas être fait par le manager, car c’est un travail essentiellement social et communicationnel. En revanche, le facilitateur et le manager doivent travailler main dans la main pour tirer le maximum de la communauté.

Ainsi le manager peut donner les moyens, et définir les règles ; le facilitateur doit suivre les orientations, en tentant de ramener ceux qui s’éloignent, un peu comme le chien de berger regroupe le troupeau en courant autour... mais aussi être en contact avec les membres les plus actifs de la communauté, qui la font véritablement avancer.

En outre, on voit bien que déployer un environnement et le maintenir sont deux choses différentes. En effet, il n’est pas si évident de garder sur le long terme les premiers réflexes, qui peuvent facilement s’estomper.

Trouver le « core group »

Il faut savoir être pragmatique, et accepter le fait que tous les membres désignés d’une communauté n’y participera pas forcément activement. En effet, dans tout type de groupe, on trouve certaines personnes qui regardent, mais ne communiquent pas.

En revanche, il faut être certain de trouver quand même un noyau dur de passionnés et d’enthousiastes, qui fera vivre la communauté.
En effet, ce n’est pas parce que certains semblent ne pas communiquer, qu’ils n’utilisent pas ces connaissances dans leur travail. Pour d’autres, ils n’ont parfois pas encore réellement trouvé leur intérêt.

Mais ensuite se posent les questions : faut-il encourager les plus actifs ou les moins actifs ? Faut-il tenter de les ramener à un pied d’égalité, ou encourager les meilleurs à être encore meilleurs ? Comme dans toutes les communautés, cette question ce pose et sa réponse n’est pas évidente. Faire un compromis entre les deux semble être une solution sage.

Ne pas « inonder » la communauté

D’un autre côté, il est important de veiller à ce qu’un nombre très restreint de personnes ne monopolisent les canaux de communication face aux autres participants. En effet il arrive parfois qu’une personne, voulant se rendre utile, « noie » les autres sous un grand volume d’information.
La réaction est toujours la même : les autres, se sentant étouffés, délaissent la communauté, car elle est devenue invivable et stérile.

Pareillement, pour faire évoluer correctement une communauté, il ne faut pas se faire le « hub » de ce groupe ; l’architecture à privilégier est plutôt le « réseau ». Il faut raisonner comme partie d’un ensemble, et aider à connecter des expertises et des connaissances distantes.

D’une façon générale, on ne doit pas appliquer des modèles sur la communauté sans la réflexion commune, et l’accord de la majorité. En effet elle n’est pas le jouet d’une seule personne — elle est l’outil de tous, et doit être respectée comme tel.

Implication managériale

Aussi important que la technologie, nous avons vu que le management a son rôle à jouer dans le déploiement d’un environnement de partage. L’implication directe de la direction est bénéfique, nécessaire.

En effet les initiatives de Knowledge Management ne peuvent se développer convenablement qu’avec l’appui et la validation de la direction générale. C’est cet appui qui peut influer sur la composante structurelle, si importante.

Martin Roulleaux Dugage dit que « le partage des connaissances, c’est avant tout un mouvement de pensée managériale et une théorie des organisations avant d’être un ensemble divers de techniques et d’outils » (2004).

Selon Prax, maintenant le rôle du manager devient de stimuler les échanges et la coopération. Malhotra va plus loin, en disant qu’un des défis du Knowledge Management est de s’assurer que le partage est plus encouragé que la rétention d’informations.
Leur rôle est en effet également d’expliquer clairement les bénéfices espérés et la façon d’utiliser le système de partage pour parvenir aux buts stratégiques de l’entreprise.

Aussi pour obtenir les meilleures contributions de tous, il faut renoncer à un exercice autoritaire du commandement et de la discipline, et adopter le « principe de bonne intelligence » décrit par Kropotkine, pour obtenir l'« effort soutenu de nombreuses volontés travaillant dans le même sens ».
Ceci peut donc demander un nouveau style de direction, et de nouvelles coutumes dans l’organisation.

La barrière organisationnelle

En général, on peut constater que toute structure ferme peut devenir un frein à l’innovation, car elle rend plus difficile et moins naturel le processus de création de nouvelles solutions. C’est pour celà que les communautés de pratique tentent de trouver un modèle aussi plat que possible, pour favoriser les flux et la liberté.

En effet et sauf mention contraire, le partage de la connaissance ne peut se voir que de façon horizontale. Du reste, la structure doit donc être souple et ouverte pour faciliter la circulation de la connaissance.

Notons que certains dirigeants adeptes du contrôle de l’information et de la technologie, risquent de voir d’un mauvais œil ces espaces de liberté de pensée dans l’entreprise, et les assimiler à une sorte de contre-pouvoir. Une telle réaction, associée à une structure rigide (et à peu de communication transverse) aurait tôt fait de tuer la communauté.

Il est important de mettre en œuvre une ambiance de paix, pour favoriser le développement. Ceci est aussi vrai en entreprise, où il est excessivement difficile de travailler quand on est en concurrence interne.
Les guerres que les éditeurs se livrent à travers les brevets sur les logiciels et les processus, sont un exemple parfait de mauvais climat économique, qui limite la capacité d’innovation et de réponse au marché.

Encourager l’enthousiasme

Enfin, certes l’entreprise peut difficilement manager les communautés de pratique, à cause de leur spontanéité, mais peut donner les moyens de son épanouissement. Celà consiste en de la bienveillance, et du respect pour l’enthousiasme des participants.
En effet, selon Étienne Wenger, lui-même enthousiaste : « Si une entreprise ne reconnaît pas officiellement les communautés, elles existeront quand même, mais elles ne produiront pas les bénéfices que l’entreprise aurait pu en retirer ».

Donner des moyens, celà veut dire de l’argent (dans des systèmes informatiques, dans des événements), mais surtout d’un peu de temps temps dévolu à une pratique plus orientée « recherche », et remue-méninges de leur métier.
Ceci leur permettra quoi qu’il en soit : premièrement de perdre moins de temps à réinventer ce qui existe déjà, et deuxièmement d’aller de l’avant avec des propositions innovantes.

Conclusion

À travers ce rapide exposé, nous avons donc couvert 3 aspects de la topographie d’un environnement de partage : l’importance de la composante technologique, alliée à la nécessité d’une bonne communication, et sa mise en valeur par une application humaine au sein d’une organisation. Ainsi selon cet exposé, on pourrait dire que le potentiel de la connaissance suit cette équation :

Q(k) = Q(i) × Q(c) × Q(r)

Q() est la qualité ; k la connaissance ; i l’information ; c la communication ; et r la réflexion.

Concernant la technologie, nous avons ainsi d’abord considéré comment prendre la décision de déployer un environnement de partage, qui va souvent de pair avec l’outil, puisqu’il apporte une plus-value appréciable.
Nous avons également vu que le système devait être souple et ergonomique, pour pouvoir évoluer naturellement, jusqu’à devenir réellement puissant. Nous avons par ailleurs examiné le fait que la qualité de l’information, ainsi que la façon de la présenter, étaient deux variables essentielles qui peuvent faire présager du bon usage de cet outil.
Nous avons enfin évoqué les écueils que l’outil peut faire survenir — en termes de temps et d’argent —, et vu que l’approche technologique était nécessaire, mais ne pouvait pas suffire à elle seule.

Ainsi, nous avons vu en second lieu qu’une information ne peut être utile que si elle est diffusée. Cette communication, en plus de garantir la transmission des informations, fait vivre la communauté et créant les interactions entre les gens, et façonne leur rapport à l’outil.
Après avoir étudié les différents médias par lesquels transite cette communication, nous avons vu un peu plus en détail quelques-un des nouveaux modes de communication utilisables en entreprise et en privé.
Une fois de plus, nous avons aussi constaté quelques-uns des problèmes liés à cette expansion massive du besoin de la communication.

Enfin, nous avons analysé le besoin de créer un véritable environnement social et humain propice au partage, et d’y laisser se développer un climat de confiance, tant en termes relationnels que de moyens organisationnels.
Nous avons en outre envisagé ainsi les changements culturels nécessaires, concernant tant le rapport à l’écriture (pour utiliser l’outil informatique) qu’une façon efficace de collaborer en communauté.
Parmi cette démarche, nous avons évoqué le besoin d’encouragements, afin de réellement tirer profit de la notion de communauté.

En conclusion, la sensibilisation à l’Intelligence Économique, au Knowledge Management et à la Gestion des Ressources Humaines, n’est rien d’autre que le début d’une quête, une recherche de la performance humaine et de l’excellence technique et organisationnelle.
De nombreux changements sont en cours dans les entreprises, où nous assistons à une omniprésence croissante des moyens de communication. Pourtant, cette aventure n’en est encore qu’à son commencement, et restera à mettre en rapport avec un art beaucoup plus ancien : celui de manager les Hommes, qui sont le seul véritable puits de connaissance, et dont la coordination efficace est la force de l’entreprise.

À propos de cet exposé

Bibliographie

Sans ordre particulier.

Historique des versions

Version 1.0
04/10/2004

Auteur

Cédric Kiss
http://ckiss.net/cedric