LES PME-PMI ET LES AUTOROUTES DE L'INFORMATION Novembre 1995 INTRODUCTION L'étude a pour objet de décrire le potentiel d'utilisation pour les PMI-PME françaises de l'ensemble des supports de communication réunis sous le terme générique d'autoroutes de l'information. Ce thème fait d'ailleurs l'objet d'un groupe de travail du G7 "autoroutes de l'information" qui se réunit à intervalles réguliers. Après un cadrage sur les définitions et les dynamiques, l'accent est mis sur les aspects pratiques de l'utilisation de ces supports tant en collecte qu'en diffusion [marketing] d'informations commerciales dans un cadre international. L'étude s'appuie essentiellement sur des informations chiffrées et/ou méthodologiques recueillies aux Etats-Unis, considérés à juste titre comme les chefs de file dans le secteur des technologies de l'information et des outils de communication. Il ne s'agit pas d'un énième guide d'utilisation d'Internet, ou d'une étude approfondie sur un aspect particulier du thème traité. Notre étude est destinée aux chefs de PME qui souhaitent connaître l'état de développement des autoroutes de l'information outre- Atlantique, ainsi que des enjeux, des risques et des opportunités commerciaux qui s'y rattachent. Selon des analystes dignes de foi, 80% des transactions commerciales on-line ne devraient pas dépasser un montant de 20 dollars, et 60% de ces opérations se limiteront à 1 ou 2 dollars. Cette donnée ouvre le champ du marché du micro-paiement auquel les banques s'intéressent de près, comme les grands opérateurs de cartes de crédit (Visa, MasterCard, American Express). Mais la technologie peut bouleverser le paysage actuel des transactions commerciales. Dans quelques mois, il sera possible d'acheter, en toute sécurité, des équipements au travers d'Internet. D'ores et déjà, certaines grandes entreprises comme Zenith Data Systems ont mis au point un programme Market Place sur Internet, où il est possible de consulter un catalogue de produits, avec les images, les spécifications et les prix, puis de passer commande et de payer avec sa carte de crédit, dont les coordonnées sont encryptées pour plus de sécurité. I. LES AUTOROUTES DE L'INFORMATION: DE QUOI S'AGIT-IL ? L'avènement de la société de l'information et la globalisation des marchés constituent les ingrédients majeurs d'une quatrième révolution industrielle à laquelle les PME doivent s'adapter. Le développement rapide des techniques de communication et la globalisation des marchés sont tels qu'un G7 consacré aux autoroutes de l'information a été créé afin de définir les principes applicables entre les partenaires commerciaux des pays les plus riches. Un sous-groupe a été plus particulièrement chargé du thème de l'accès des PME au marché global. Les choses vont très vite dans ce secteur, à tel point qu'il est légitime de se demander quelle est la part des phénomènes de mode et celle des changements plus profonds qui risquent d'affecter les entreprises si elles ne s'adaptent pas. Cette analyse est d'autant plus délicate que chacun sait que l'offre de services évolue très rapidement, ainsi que les coûts et les technologies, sans qu'on sache exactement ce qui en émergera et quand. Ce qui est clair à l'aune de l'expérience américaine, c'est que la production et les échanges d'images fixes et animées, de données et de paroles se généralisent, tant dans le domaine professionnel, en communication interne et externe, que dans le grand public. Le développement très rapide des technologies numériques (bases de données, puissance de mémoire, de traitement et de transmission) et du génie logiciel font penser que ces échanges seront de plus en plus conviviaux et simples d'utilisation, jusqu'à modifier en profondeur les modes de communication ou de consommation actuels. Il est nécessaire de bien faire la part entre les infrastructures et les supports de communication, le concept d'échanges planétaires et en temps réel d'informations de toutes natures que ces technologies rendent possible, et les enjeux commerciaux et industriels qui s'y rattachent. A. La genèse des autoroutes de l'information. Les autoroutes de l'information sont aujourd'hui au coeur de nombreux discours politiques et économiques concemant les grands chantiers des années futures, notamment pour la Communauté Européenne. Ces autoroutes sont des réseaux physiques (fibres optiques) véhiculant des signaux numériques à très hauts débits1 et pouvant notamment supporter des services multimédia. L'analogie avec l'infastructure routière a été initiée par le vice-président américain Albert Gore, militant des réseaux de communication électroniques à l'image de son père qui, dans les années 1960, avait lancé le programme de construction des autoroutes entre les différents Etats américains. 1 Le terme de débit définit la vitesse de transfert ou d'exécution d'une voie d'entrée ou d'un périphérique. Le débit d'une interface de transmission série sera exprimé en nombre de bits transmis par seconde (bit/s). Le débit d'un réseau est donné en méga bits par seconde. Ces autoroutes de l'information sont donc des "infrastructures de réseaux à très haut débits pouvant supporter une très grande variété de services interactifs à vocation professionnelle ou résidentielle"2. Le concept d'autoroutes de l'information recouvre des systèmes différents: - les "autoroutes à images" qui visent en priorité à véhiculer des services multimédia interactifs. - Les autoroutes pour lesquelles le texte reste essentiel avec des accès possibles à des faibles débits. Les premières visent à desservir chaque foyer pour des applications de type télévision numérique, telle que la vente par correspondance, le télétravail et l'ensemble des téléservices. Elles nécessitent des vitesses de transmission très élevées mais tous les problèmes techniques ne sont pas encore résolus tels que la confidentialité des numéros de cartes de paiement. Selon une étude du Georgia Institute of Technology, les secondes connaissent dejà depuis 20 ans un développement important avec comme ossature principale le réseau INTERNET qui compte aujourd'hui plus de 40 millions d'utilisateurs à travers le monde. A ce jour, Internet est certainement l'autoroute la plus banalisée et la plus mondialement parcourue.De nombreux services sont accessibles à faible vitesse (1200 à 28800 bauds3) et les services multimédias se sont multipliés. Internet offre des accès à des vitesses très diérentes limitant parfois les services disponibles. Dans le schéma esquissé par ces autoroutes, la dimension domestique est en effet essentielle, leur caractère universel tenant pour beaucoup à la volonté affichée d'en faire des infrastructures de masse. Ce qui suppose un déploiement à très grande échelle de ces infrastructures dont on voit mal comment elles auraient pu se limiter aux seuls cadres nationaux. C'est autour de cette partie terminale des autoroutes de l'information, la "chevelure" comme l'appelle les spécialistes, que se cristallisent la plupart des enjeux, à la fois technologiques et économiques. 2 Rapport de Gérard Théry; "Les autoroutes de l'information"; La documentation française. 3 Le baud est une unité de vitesse de transmission de données assimilable au nombre de bits transmis parseconde. 1. La montée des technologies de communication numériques et intégrées. a) Des ruptures technologiques recentes. (1)Les technologies sont prêtes. 1. Les techniques de la micro-électronique évoluent régulièrement depuis quelques décennies, multipliant par 1000 tous les 15 ans les performances en capacité de calcul et en vitesse des composants électroniques. Ces formidables progrès se répercutent directement dans la performances des ordinateurs comme dans celle des équipements de télécommunications, commutateurs, systèmes de traitement et de transmission à haut débit, systèmes sur fibre optique etc. Plus de vingt ans après les débuts de la numérisation4 du téléphone, les technologies permettent de réaliser, à un prix comparable, des réseaux capables de transmettre des informations de quelques dizaines de millions de bits par secondes. Soit 1000 fois plus que le débit du téléphone. Les progrès de la micro-électronique rendent ainsi possible, à coût raisonnable, la mise en oeuvre des autoroutes de l'information. Ces modifications obligent à maîtriser les techniques et les technologies de toute la chaîne de l'information, depuis la source jusqu'à l'utilisateur. Cette chaîne, entièrement numérique, a bénéficié d'avancées très rapides et de ruptures technologiques récentes qui la rendent aujourd'hui réalisable, alors qu'il y a seulement trois ou cinq ans son existence semblait tout à fait hypothétique à si brève échéance. La rapidité de ces progrès explique que la notion d'autoroutes de l'information soit si récente. Comment se constitue la chaine de l'information ? Elle comprend la compression de l'image numérique, les serveurs5 multimédia, les réseaux à hauts débits et les terminaux. Les réseaux à hauts débits font eux mêmes appel à plusieurs techniques, en particulier à la fibre optique, et à une nouvelle technique de commutation large bande, l'ATM6. La mise en place de telles techniques passe par le développement de serveurs capables de traiter une image animée ainsi que le son; nous verrons par la suite que l'industrie du serveur constitue un axe stratégique important chez les plus grands constructeurs de matériels informatiques et de logiciels qui travaillent pour mettre au point de tels serveurs multimédia. Notons qu'en France, une grande expérience a été acquise avec le Minitel pour le traitement des services interactifs au niveau des serveurs. 4 La numérisation est l'action de transformer une information analogique en une suite de données numériques. 5 Equipement de stockage de données auquel les équipements connectés peuvent accéder. 6 (Asynchronous Transfer Mode): C'est le principe fondamental de la commutation des autoroutes: il permet en quelques sorte d'en adapter la largeur aux besoins du traffic, et d'aiguiller les communications vers leurs destinations. Pour les équipements terminaux, il convient d'opérer une distinction entre les utilisateurs professionnels et les utilisateurs grand public: - Les entreprises disposent dejà de systèmes locaux multimédia composés de microordinateurs, sur lesquels sont connectés des lecteurs de CD-ROM7 et des cartes de décodage, avec éventuellement une caméra pour établir des communications de type visiophone. Les services ainsi apportés peuvent être mis en commun pour plusieurs utilisateurs utilisant le même réseau local à haut débit. Pour accroitre la capacité et la diversité des services disponibles, des serveurs vidéo connectables sur ces réseaux locaux sont offerts. Un exemple d'utilisation de ces serveurs est celle faite par les chaînes de télévision comme aide à la production du journal télévisé. Avec le développement des utoroutes de l'information, ces usages locaux s'ouvrent sur l'extérieur. Les réseaux informatiques d'entreprise seront connectés d'autant plus facilement aux réseaux publics qu'ils utiliseront la même technologie ATM. 7 Disque optique compact lu par faisceau laser qui permet de stocker une grande quantité d'infrmations numériques. - Les utilisateurs grand public, en France, disposent actuellement du service Minitel et, de plus en plus, d'un micro-ordinateur connecté au réseau téléphonique. Ils ont ainsi accès aux services "on-line"8 à des débits faibles mais en constante augmentation. Ainsi, le minitel vitesse rapide fonctionne à 9600 bits/s (au lieu de 1200 bit/s pour le Minitel classique) et les modems de micro-ordinateurs pourront atteindre un débit de 28,8 Kbit/s voire 64 Kbit/s sur le réseau international de téléphone numérique et de transmission de données "Numéris". Pour les particuliers, l'accès aux autoroutes de l'information et, plus particulièrement au réseau Internet, change les ordres de grandeur de vitesses de transmission et de traitement. Des adaptateurs enfichables dans les micro-ordinateurs ou connectables aux téléviseurs sont en perpétuel développement. Dans tous les cas, les terminaux multimédia bénéficient des fortes baisses de prix dues aux effets de séries de l'électronique grand public et des performances accrues des composants électroniques eux-mêmes. Les terminaux connectés aux téléviseurs, que fournissait le groupe Thomson dés 1994 pour le service américain de télévision numérique par satellite direct, étaient commercialisés à un prix inférieur à 4000 francs pour une première série d'un million de pièces. Ils comprenaient une antenne de réception satellite et le terminal de télévision proprement dit. Le traitement des images et du multimédia, la navigation intelligente dans les bases de données nécessitent des logiciels très complexes. L'augmentation de la taille des logiciels, permise par les capacités sans cesse croissantes des ordinateurs, rend nécessaire l'utilisation d'outils de développement et de tests très performants. Les progrès en matière de génie logiciel et les nouveaux langages de programmation ont permis de répondre à ces nouveaux besoins. (2) Trois grandes ruptures permettent la réalisation des autoroutes de l'information. (a) La compression numérique de l'image. La numérisation simple de la télévision conduit à des quantités énormes d'information. Pour pouvoir les transmettre, des algorithmes de compression permettent de réduire d'un facteur 10 à 100 les quantités d'information. Ces algorithmes qui analysent les images sont très complexes et n'ont été normalisés que très récemment par un groupe d'experts (audiovisuel, informatique, composant, service provider). Ensemble, ils ont mis au point la norme MPEG9. Nécessitant d'énormes investissements technologiques, ils sont désormais à la portée de l'industrie car les composants électroniques nécessaires à leur fonctionnement étaient irréalisables auparavant. 8 Caractérise tous les services "en ligne", c'est à dire circulant sur les réseaux informatiques. 9 Moving Picture Expert Group. Deux niveaux ont été conçus: MPEG 1 adapté aux traitements informatiques et MPEG 2 adapté aux progrannes audiovisuels. Grâce à ses performances, la télévision numérique peut être transmise plus efficacement que la télévision analogique. Après plus de 50 ans de commercialisation sous cette forme, la télévision analogique sera remplacée par la télévision numérique. Les circuits de décompression numérique, à la norme mondiale MPEG, sont disponibles depuis 1994, pour la réalisation des terminaux d'abonnés. Des prototypes de station de compression en temps réel sont déjà proposés, par les industriels, aux chaînes de télévision et aux opérateurs de câbles et de satellites. (b) L'ATM (Asynchronous Transfer Mode). D'abord électromécanique jusqu'aux années 1970, puis entièrement numérique, la commutation téléphonique va subir une nouvelle rupture technologique avec l'arrivée de l'ATM (Asynchronous Transfer Mode), technique conçue en France par le CNET (Centre National d'Etudes des Télécommunications) voici quelques années. Ce type de commutateur permet d'établir des liaisons à débits variables, selon la demande, et de garantir la continuité du débit avec un retard acceptable pour les communications audiovisuelles. Enorme avantage: il permet de traiter indifféremment des liaisons vocales, des données audiovisuelles, et de commuter efficacement les signaux à très hauts débits, et en particulier le multimédia. La même technique étant actuellement proposée par les constructeurs d'informatique pour les réseaux locaux d'entreprises, on devrait ainsi obtenir pour la première fois une homogénéité de techniques et de performances (la vitesse de transmission) entre les réseaux locaux informatiques et les utilisateurs de télécommunications. Cette technique constitue un élément tout à fait stratégique pour l'établissement des liaisons à hauts débits. Alcatel, le numéro un des équipements de télécommunication figure avec l'américain ATT10 et le japonais Fujitsu parmi les leaders de cette technologie. En attendant les miracles de l'ATM, France Télécom s'est mis à l'heure de Numéris, le réseau numérique à intégration de service (RNIS). Lancé à partir de 1987, il affiche un débit de 64 Kbits par seconde (plus de 50 fois celui du Minitel, voir tableaux à la page suivante) et constitue une première étape vers les autoroutes de l'information, idéal pour le transfert de gros fichiers ou le démarrage du multimédia. En forte croissance (86% en 1994), Numéris compte aujourd'hui plus de 220 000 accès, correspondant peu à peu à un million de "lignes". Les clients s'abonnent d'abord pour le téléphone (54% d'entre eux n'utiliseront Numéris que pour la voix) et pratiquent le transfert de données dans un deuxième temps. France Télécom cherche à promouvoir ses utilisations plus sophistiquées: télétravail, accès direct à Internet visioconférence sur micro-ordinateur avec l'aide des groupes français SAT et Matra et celle de l'américain Intel. Malheureusement, le Minitel s'est avéré être un échec connercial sur ce marché avec un taux d'utilisateurs inférieur à 3%. l0 Les cinq plus gandes sociétés mondiales de téléphone: NTT (CA.-en milliards de $: 60.1). ATT (CA.: 40), Deutsche Telekom (CA.: 35,5), France Télécom (CA.: 22,4). BT (CA.: 20,5). (c) La fibre optique. Les fibres optiques sont capables d'écouler de très hauts débits numériques de données et en particulier des images fixes mais aussi animées. La fibre optique remplace de plus en plus la paire de cuivre et le câble coaxial, dans le réseau de raccordement des abonnés, à l'exception des quelques demières dizaines de mètres comme par exemple les réseaux internes aux immeubles. Déjà installée depuis une dizaine d'années dans les réseaux interurbains, son coût ne permettait pas son utilisation dans tout le réseau. Les progrès réalisés dans la fabrication de la fibre optique et dans l'intégration des composants et des systèmes optoélectroniques rendent aujourd'hui possible la réalisation en grande série de systèmes permettant le raccordement des abonnés aux fibres optiques. (d) Les hauts débits. Une fois numérisés, tous les types de signaux sont composés d'unités élémentaires d'information (bit) n'ayant que les deux valeurs distinctes (0 et 1) dont le débit est mesuré par la quantité de bits transmis par seconde: milliers de bits par secondes (Kbit/s), ou millions (Mbit/s). Pour caractériser les très hauts débits, il faut en premier lieu les situer par rapport aux débits des réseaux, et des services les plus courants: Les bas débits qui se mesurent en Kbit/s (en France). 1,2 Kbit/s Minitel. Ce débit est depuis peu porté à 9,6 Kbit/s avec le Minitel rapide. 13 Kbit/s Radiotéléphont mobile avec sa compression numérique de la voix (GSM). 28,8 Kbit/s Téléphone classique. Il est numérisé sans compression numérique de la voix à l'intérieur du réseau. La commutation du téléphone et les liaisons entre centraux sont effectuées sous cette forme. 64 Kbit/s Numéris. Il permet à la fois d'établir des liaisons téléphoniques numériques de bout en bout, et de transmettre une image fixe en couleur de la qualité de la télévision en environ 10 secondes. Ce débit ne permet pas de transmettre des émissions de télévision, mais seulement des images animées en couleur de petit format et de qualité médiocre. 128 Kbit/s Visiophone numérique d'entrée de gamme utilisant deux canaux Numéris. (Source: Rapport Théry) Les hauts débits qui se mesurent en Mbit/s (en France). 1,4 Mbit/s Disque compact pour un son hi-fi stéréo, sans compression numérique. 1,5Mbit/s Visiophone avec image de qualité. Consultation multimédia ou jeux vidéo avec une image animée sur un terminal dérivé d'un micro-ordinateur. Image de télévision de qualité équivalente à celle d'un magnétoscope, à condition d'utiliser une compression numérique à la norme MPEG 1 . 4 à 5 Mbit/s Image de télévision de qualité habituelle, en utilisant une compression numérique à la norme MPEG 2. 20 à 30 Mbits/s Image de télévision haute définition, en utilisant, une compression numérique. Ce débit, très important, n'est jamais utilisé pour des transmissions. 155, 622 et 2488 Mbits/s Débits des nouveaux systèmes de transmissions numériques pour les liaisons à haut débit sur fiibre optique entre centraux. 80K Mbit/s Capacité maximale d'un commutateur ATM. (Source: Rapport Théry) b) Comment, à partir des réseaux existants, les autoroutes de l'information se sont constituées ? (1) Les limites des réseaux existants. Les réseaux actuels ne peuvent constituer de véritables autoroutes de l'information même au prix d'ajonction d'équipements supplémentaires. Le raccordement des abonnés aux réseaux téléphoniques et aux réseaux câblés constituent aujourd'hui un goulet d'étranglement de la chaîhe de communication. En effet, la fibre optique est déjà largement déployée sur les liaisons interurbaines et entre les centraux. Ces réseaux sont donc capables de transmettre les signaux à hauts débits et les terminaux sont capables de les exploiter. La paire de cuivre téléphonique qui arrive aujourd'hui chez l'abonné est limitée à de faibles débits. De plus, si des investissements supplémentaires ne sont pas faits les réseaux câblés se limiteront à une transmission dans un seul sens. Sans faire évoluer le réseau téléphonique en remplaçant les paires de cuivre par de la fibre optique, les solutions techniquement envisageables pour faire sauter ces goulets d'étranglement sur les quelques kilomètres qui séparent le central de l'utilisateur consisteraient à: - Réutiliser la paire de cuivre existante du téléphone en ajoutant à ses deux extrémités un système électronique complexe, appelé ADSL (Asymetric Digital Subscriber Loop, ou réseau de raccordement numérique asymétrique). - Réutiliser les réseaux câblés existants en faisant évoluer leur architecture pour leur permettre de fonctionner de manière interactive. L'ADSL est un système électronique installé sur une ligne téléphonique, constitué de deux boitiers, l'un situé au central téléphonique, l'autre chez l'abonné. Il permet d'établir, en plus de la liaison téléphonique sur la paire de cuivre, un canal unilatéral d'un débit de 1,5 Mbit/s, ou de 6 Mbit/s du central vers l'abonné, et un canal bilatéral permettant au minimum une liaison du type Numéris, et au maximum une liaison visiophonique de bonne qualité. Il permet en particulier l'établissement d'un canal vidéo interactif entre l'abonné et un serveur. Cependant, ce système très complexe, qui utilise au maximum les capacités de la paire de cuivre téléphonique, est très coûteux sauf s'il peut être fabriqué à plusieurs millions d'exemplaires. En ce qui conceme la France, elle ne bénéficie pas d'un marché suffisant pour développer un tel système. Seuls les Etats-Unis auraient la taille requise et la France pourrait alors en profiter. En France, la diffusion de l'ADSL restera limitée à de gros consommateurs de services vidéo, seuls capables de justifier un tel investissement sans perspective d'évolution. Les réseaux câblés utilisant un raccordement arborescent des abonnés en coaxial n'ont pas la même capacité que la fibre optique. Ils ne fonctionnent actuellement que dans un sens, suivant un schéma de diffusion, et même s'ils peuvent être perfectionnés par l'ajonction d'une voie retour, il faut aussi modifier leur architecture pour qu'ils puissent offrir des liaisons point à point. Pour cela, il faut affecter, à la demande, un canal de transmission à l'utilisateur pendant la durée de la communication interactive. Des investissements conséquents dans le réseau sont nécessaires et le coût de terminal d'abonné est renchéri. En tous cas, la capacité totale limite l'accès au service téléphonique à une minorité d'utilisateurs et ne permet pas d'obtenir des débits élevés dans les deux sens de transmission. En AIlemagne, aucune convergence des réseaux câblés et du service téléphonique n'a jusqu'à présent été étudiée. En Angleterre, où les câblo-opérateurs offrent le service téléphonique, British Telecom a mis au point deux réseaux construits en parallèle dès l'origine, en équipant le domicile des utilisateurs d'un câble comprenant un coaxial et une paire de cuivre téléphonique. Aux Etats-Unis, les câblo-opérateurs orientent plutôt l'architecture de leurs réseaux pour pouvoir utiliser la partie en fibre optique pour le raccordement d'immeubles professionnels et de bomes de réseaux mobiles. Compte tenu de l'arrivée des autoroutes de l'information, de nouveaux réseaux câblés en couiaux seraient obsolètes en moins de 5 ou 10 ans, rendant illusoire tout espoir d'un retour satisfaisant sur l'investissement. Enfin, les réseaux de diffusion que sont les réseaux par satellites et par difision hertzienne n'offrent pas de possibilité de voie de retour. Il est donc également difficile de les faire évoluer vers des autoroutes de l'information qui fonctionnent dans les deux sens. En revanche, les réseaux existants peuvent constituer un bon support pour des expérimentations ou des plates-formes de développement en attendant la disponibilité de réseaux en fibre optique. (2) La fibre optique: Elément essentiel et nécessaire pour l'accès des utilisateurs aux services multimédia La fibre optique a une capacité de transmission quasiment illimité11 et peut donc facilement transmettre dans les deux sens de grands débits. Elle est donc le support privilégié des futurs services interactifs multimédia et donc d'images animées. Elle est désormais compétitive dans les réseaux de raccordement. Contrairement au câble coaxial, la fibre optique ne nécessite pas d'amplificateurs ni d'éléments actifs dans le réseau. Elle permet donc d'utiliser des architectures plus simples et plus fiables. Les autoroutes de l'information nécessitent le prolongement des infrastructures de transmission en fibre optique jusque chaque abonné par un réseau de raccordement totalement ou partiellement en fibre optique. Suivant le type d'habitat (immeuble, zone pavillonnaire ou habitat dispersé) et sa densité, ainsi que les services proposés, diverses architectures sont possibles. o L'architecture FTTH (Fiber to the Home): Cette architecture, pour laquelle la fibre va jusque chez l'abonné, constitue l'architecture cible. En effet, aucun équipement électronique n'est nécessaire dans le réseau de distribution, qui peut être purement passif Toutes les possibilités de la fibre sont présentes chez l'abonné sans être grevées par un câble de branchement en cuivre. Les équipements électroniques sont uniquement situés aux deux extrémités: dans le central et chez l'abonné. L'introduction du FTTH permet donc une simplification de l'exploitation, tout en offrant les possibilités d'évolutions maximales en matière de nouveaux services tel que l'accès au réseau Internet. D'autre part, on distingue trois autres types d'architecture mixte: o FTTB (Fiber to the building): La fibre optique va jusqu'au pied de l'immeuble. L'équipement est partagé par une ou quelques dizaines d'abonnés. o FTTC (Fiber To The Curb): La fibre optique va jusqu'à une "armoire" ou une borne en extérieur, sur le trottoir, pour desservir plusieurs maisons. o Système hybride fibre-câble coaxial: C'est le système développé pour les zones pavillonnaires américaines. La fibre va jusqu'à une "armoire" desservant 100 à 500 logements. Le branchement final est en câble coaxial pour pouvoir offrir la distribution classique de chaînes de télévision par câble, enjeu important pour les compagnies de téléphone américaines. Ces architectures permettent de transmettre de la téléphonie, des données à hauts débits dans les deux sens, et surtout des programmes de télévision soit sous forme numérique, soit sous forme analogique suivant la technique actuelle des réseaux câblés. Ces architectures mixtes utilisent sur les dernières dizaines ou centaines de mètres du raccordement, une paire de cuivre, un câble coaxial, ou les deux. Alors qu'il est très difficile de transmettre de très hauts débits sur une paire de cuivre sur quelques kilomètres, une telle transmission est relativement facile sur une centaine de mètres. 11 150 Mbit/s équivaut environ à 50 films. 1000 communications téléphoniques et à 250 000 Minitel. Le coût d'un raccordement terminal en fibre optique (capable d'adapter l'infrastructure existante au réseau commuté en fibre) représenterait, en 1994, un investissement d'environ 200 milliards de francs. La question est de savoir si aujourd'hui nous sommes prêts à payer une telle somme. La réponse est non lorsque l'on sait qu'une prise cuivre, comme la prise cable, coûte environ 400 francs, alors que le prix d'un raccord optique "à domicile" s'élève à plus de 20 000 francs. D'ailleurs si ce coût est davantage à la portée des entreprises qu'à celle des particuliers, un réseau commuté en fibre optique n'apporterait aux entreprises, par rapport à l'infrastructure actuelle et l'exploitation que l'on peut en faire, que le transport de la vidéo animée. Mais il existe avant que cette solution, techniquement la plus achevée, ne soit généralisable, d'autres moyens plus "rustiques" d'utiliser les voies de circulation existantes, compte tenu des contraintes de temps et d'argent. Les développements étudiés ci-dessus restent cantonnés au marché français: chaque pays disposant de sa propre stratégie. Nulle comparaison en effet entre les techniques de raccord et les investissements prévus par les Etats- Unis, les Japonais et les Français. Normes, infrastructures, nombre de câblo-opérateurs (moins d'une dizaine en France, plus de 1400 aux Etats-Unis): Le poids des acteurs informatiques reste très différent. Monopoles12 des opérateurs dans certains pays (France), influences gouvemementales plus ou moins fortes dans d'autres (Etats-Unis) sont autant de paramètres qui influent directement sur les techniques et moyens à mettre en oeuvre pour se raccorder et accéder à ces autoroutes. c) Etat de l'art des technologies clés. La réalisation des autoroutes de l'information passe par l'implantation de la fibre optique comme support essentiel. Cependant, tout le potentiel de ces nouvelles technologies ne peut être obtenu qu'en conjuguant les trois fonctions suivantes. 1) a continuité numérique d'un bout à l'autre de la liaison. La continuité d'un bout à l'autre de la chaîne de communication, c'est à dire depuis la source d'information jusqu'au terminal de l'utilisateur, est indispensable pour fournir les nouveaux services. Le traitement informatique des données, des textes, des images et du son13 permet d'ofir des services élaborés et complexes tout en rendant intelligent et simple l'accès à l'information. Ce traitement informatique est assuré principalement en deux endroits: dans le serveur, source de l'information, et dans le terminal de l'utilisateur. 12 Ces monopoles arriveront à échéance en 1998, date à laquelle France Télécom doit être entièrement privatisé. 13 L'ensemble de ces traitements informatiques correspond au multimédia. La continuité numérique entre ces deux extrémités est donc nécessaire, car elle seule autorise la convergence des trois techniques que sont l'informatique, les télécommunications, et l'audiovisuel. En France, le réseau Numéris offre déjà cette continuité numérique, mais à bas débit. (2) La transmission rapide dans les deux sens pour permettre l'interactivité L'interactivité14 est une capacité de dialogue entre l'utilisateur et la source d'information. Elle reste cependant très limitée si elle n'est pas en temps réel. L'interactivité en temps réel du réseau Internet reste encore non résolue surtout en ce qui conceme les services de bases de données financières. Pour les simples consultations de services, le débit sur la voie de retour, c'est à dire dans le sens utilisateur vers serveur, est faible. Mais d'autres applications, telles que l'échange de fichiers, le travail en groupe sur des documents et la visiophonie, nécessitent que les deux sens de transmission fonctionnent à hauts débits. Les autoroutes de l'information doivent donc allier interactivité et instantanéité. (3) La banalisation des services multimédias Le futur du multimédia passe par l'interactivité. Mais les réseaux ne seront pas tout; l'arrivée du CD-ROM réinscriptible à des prix attractifs annonce la vraie banalisation du multimédia. Dans peu de temps, les réseaux multimédias offriront aux utilisateurs, professionnels et privés, la possibilité de se connecter à un service à partir duquel ils interrogeront, grâce à la vidéo, un professeur, un collègue, un médecin ou un avocat. Internet, sera l'un des principaux véhicules de cette interactivité ainsi que les dizaines de milliers de sites commerciaux qu'il héberge déjà. Plusieurs fournisseurs présentent déjà des logiciels qui permettent de faire du visiophone sur Internet à partir d'un nticro-ordinateur connecté au réseau téléphonique commuté normal. Même si le manque de synchronisation entre le son et les images est encore présent, la banalisation d'une ligne RNIS (Réseau Numérique à Intégration de Services) et l'amélioration des algorithmes de compression rendront bientôt cette technologie plus transparente. D'autre part, les coûts auront tendance à se stabiliser compte tenu de la concurrence que commencent à se livrer opérateurs de téléphone et câblo-opérateurs aux Etats-Unis. La généralisation de ces services conduira également à rendre presque nul le coût du téléphone uniquement vocal, puisqu'il ne représentera qu'une quantité négligeable dans le flot d'informations multimédia déversées chez chaque abonné. Les ventes de produits multimédia en France, ont augmenté de 80% entre les quatrième trimestres 1993 et 1994. Selon l'institut I+C, le CD-ROM enregistre la plus forte hausse avec 90% alors que le CD-I15 augmente de 65%, même si 15% des points de vente ont décidé d'abandonner ce support en raison du faible nombre de titres disponibles. 14 Possibilité donnée à l'utilisateur de rester maître des flux d'informations qui lui sont proposés (arrêt, pause, retour en arrière, tri...), d'interroger le serveur ou de lui répondre. 15 Le CD-1 (Compact Disc Interactif) est similaire au CD- Rom mais il utilise un terminal spécifique branché sur un téléviseur. Aux Etats-Unis, où les taux d'équipement sont les plus importants, le nombre de CD-ROM vendus sur la totalité de 1994 est en hausse de 229% 2. La percée conceptuelle du système Internet. Un rapport du début de l'année 1995 de Goldman Sachs & Co estime que le marché de l'Internet (accès, contenu, logiciel, service, expertise) doit augmenter d'un montant de $366 millions en 1994 à un montant de $3,7 milliards en 1998, c'est à dire une multiplication par 10 en cinq ans. Le seul marché de l'accès à Internet devrait atteindre une valeur de $850 millions en 1998, représentant un montant de $135 millions en 1994. Mais si ces prévisions de croissance sont certes impressionnantes, les six premiers mois de l'année indiquent un développement de ce marché encore plus rapide. D'après un rapport plus récent de la société Maloff sortie en Juin 1995, le marché de l'accès à Internet connaît une croissance effrénée avec un taux d'augmentation de 28,4% par mois en moyenne. Il est passé d'un montant annuel de $118,8 millions (calculé en mars 1994) à un montant annuel de $521,41 millions (calculé en janvier 1995). En ajoutant l'impact des "Informations Services Providers" (comme AOL, Compuserve, Prodigy, etc.) qui totalisent à la fin août 1995 un total de 7,3 millions de membres (en progression de 46% par rapport à 1994), le marché des services on-line et de l'Internet représente un montant de $1,071 milliards. En 1996, ce marché devrait dépasser la valeur de $2,5 milliards. a) Qu'est-ce que l'Internet ? Le réseau Internet est constitué de plusieurs milliers de réseaux d'ordinateurs interconnectés utilisant un ensemble commun de protocoles de communication pour créer un moyen universel de communication. Le nombre d'utilisateurs de ce réseau est estimé à plus de 40 millions répartis dans plus de 90 pays (93 en Mai 1995). Tous ces utilisateurs accèdent à Internet à partir d'ordinateurs et de terminaux depuis les instituts d'éducation, les fournisseurs d'accès Internet (providers), et autres organisations. Ces milliers de réseaux interconnectés (du réseau local au réseau étendu) sont contrôlés par différentes organisations, sont de différentes tailles et utilisent une palette étendue de technologies de réseau. Ils sont unis par l'emploi de protocoles et services communs. A travers l'Internet, vous retrouvez les mêmes services, implémentés sur de nombreux systèmes d'exploitation et matériels différents et ce, de façon transparente pour vous. b) Qui contrôle l'Internet ? Clairement, personne en particulier. L'Internet est constitué de plusieurs milliers de réseaux indépendants, chacun d'entre eux ayant ses propres autorités pour l'administrer. Cependant, l'orientation générale d'Internet est suivie par l'Internet Society, une association de volontaires dont l'intention est de promouvoir et de permettre l'échange global d'informations à travers ce réseau. Les aspects techniques d'Internet sont pris en charge par l'Internet Architecture Board (IAB) et ses subdivisions. Ils conçoivent et approuvent les nouveaux protocoles réseau et les applications qui sont utilisés à grande échelle sur Internet. Une autre autorité, connue sous le nom de InterNIC, est responsable de l'enregistrement et du référencement de tous les ordinateurs et réseaux connectés à l'Internet, aussi bien qu'à la mise à disposition de services de consultant aux membres d'Internet. InterNIC est constitué de plusieurs organisations commerciales et principalement de General Atomics qui possède CERFNet, Performance Systems International (PSINet), et AT&T. PSINet et CERFNet sont deux des plus importants réseaux de l'Internet. Internet Architecture Board (IAB) et InteNIC, cependant, ne supervisent pas les activités quotidiennes de l'Internet. Cette tâche est laissée aux administrateurs propres à chaque réseau. Ces réseaux individuels peuvent également avoir leurs propres règles pour l'utilisation de leurs services et l'échange de leurs données. Ainsi, certains réseaux n'autorisent pas l'échange de données commerciales. D'autres empêchent les échanges de données non sécurisés. c) Comment Internet a-t-il été créé ? Ce réseau a été créé à l'initiative de l'armée américaine qui avait besoin d'être capable de communiquer en cas de coflit nucléaire. Ainsi, en 1964, l'idée d'un réseau sans direction centralisée fût proposée. Ce réseau a été conçu pour pouvoir fonctionner même détruit partiellement, chaque noeud du réseau étant similaire aux autres, avec sa propre autorité de création, de transmission ou de réception des messages. Les premiers tests d'un tel réseau furent effectués en 1968 en Grande-Bretagne. Peu de temps après, l'agence du Pentagone pour les projets de recherches avancées (Advanced Research Projects Agency: ARPA) décida de financer un projet plus vaste et plus ambitieux aux Etats-Unis. Les noeuds du réseau seraient alors de "super-ordinateurs" très rapides. A l'automne 1969, le premier noeud de la sorte fût installé à l'université de Californie à Los Angeles. En décembre 1969, il y avait quatre noeuds installés sur le réseau naissant qui fût appelé ARPANET (réseau ARPA). En 1972, il y en avait 37. A la fin de la seconde année du projet, on constata curieusement que les utilisateurs d'ARPANET avait converti le réseau partagé d'ordinateurs en un bureau de poste à grand vitesse, subventionné au niveau fédéral. En effet, la majeure partie des échanges sur ARPANET ne concemait plus des échanges longues distances mais davantage des actualités et messages personnels. Durant les années 70, le réseau ARPANET se développa. Sa structure décentralisée rendît son expansion aisée. Contrairement aux réseaux standards constitués, le réseau ARPA pouvait accueillir plusieurs types de machines. Le premier protocole utilisé pour communiquer sur ARPA fût NCP (Network Control Protocol). Mais avec le temps et la technique progressant, NCP fût supplanté par un standard plus sophistiqué connu sous le nom TCP-IP (Transmission Control Protocol, Internet Protocol), qui est toujours utilisé de nos jours. En 1977, TCP/IP fût utilisé par de nombreux réseaux pour se connecter à ARPANET. ARPANET lui-même resta assez fortement contrôlé jusqu'en 1983, quant sa composante militaire fût retirée de son architecture pour devenir MILNET. Pendant les années 80, ARPANET s'étendit massivement et devint connu sous le nom INTERNET. Une fois les protocoles mis en place, les outils qui constituent l'Internet aujourd'hui sont apparus: - logiciel d'accès, FTP et messagerie fin 70, - Usenet en 81, - Gopher en 82, - le World Wide Web en 89, - Mosaïc en 92. En 1990, ARPANET fût pris en charge par NSFNET fondé par la National Science Foundation. 3. Politique et autoroutes de l'information. a) Enjeu stratégique. La tenue d'un G7 spécialisé sur la société de l'information confirme à quel point ce sujet est considéré comme stratégique, et notamment par les Etats-Unis. Le développement de nouvelles industries autour des technologies de l'information devrait assurer le développement économique d'une nouvelle ère industrielle. Aux Etats-Unis, on estime que près de 40% de l'augmentation du PNB provient de ces nouvelles technologies. Le marché des télécommunications devrait à lui seul pratiquement doubler d'ici l'an 2000 pour atteindre 900 milliards de dollars contre 580 en 1993. Ces nouvelles technologies devraient également modifier la nature des échanges, la circulation des savoirs prévaudrait sur celle des marchandises. Les nations devront organiser "leurs industries" autour de la maîtrise et du transport de "cette intelligence". b) Implications pour les P.M.E. La mise en place du projet pilote No.10 du G7, Marché global pour les P.M.E., veut aider les P.M.E. à échanger des informations commerciales, trouver de nouveaux marchés, et améliorer les paiements grâce au réseau informatique. Les entreprises qui mâtriseront ces technologies, bénéficieront d'un avantage sur les marchés globaux (vendre dans le monde entier plus vite et plus sûrement sans avoir les moyens financiers des multinationales), alors que les autres risquent d'être marginalisées. La numérisation de toutes les données (texte, image fixe, image animée, son) modifient et facilitent leurs conditions de diffusion, d'exploitation et d'archivage tout en abaissant les coûts de ces opérations. Lorsque des informations, précises et fiables, comme des répertoires d'activité de sociétés sont accessibles, facilement, par tous, dans le monde entier, la seule maîtrise d'un fichier client n'est plus un gage de compétitivité. De nouveaux services de réservations en ligne ("on line") liés avec le système interne de gestion de flux tendus pourraient permettre, aussi bien pour une PME que pour une multinationale, une optimisation des transports. C'est l'accès rapide et fiable à l'information, la capacité d'échanger de "l'intelligence" et non plus seulement des produits qui seront la clé de la compétitivité. B. Les acteurs de l'offre et leurs stratégies. La bataille qui s'engage principalement aux Etats-Unis pour contrôler les réseaux des futures autoroutes de l'information, met en présence les plus grandes sociétés américaines et mondiales dans des domaines très divers qui peuvent être classés en sept groupes: - les fournisseurs d'infrastructures, - les fournisseurs de supports d'accès hardware et software, - les opérateurs de services d'accès, - les fournisseurs de logiciels d'accès aux services on- line et à Internet, - les fabricants de matériels et de logiciels informatiques, - les développeurs de produits, - les fournisseurs de produits. Le paysage est en perpétuelle évolution. Les banques sont a priori des utilisateurs mais pourraient songer à devenir des acteurs si leurs analyses stratégiques les conduisent à penser que le développement des transactions on-line peut leur porter préjudice. Il en va de même des grands opérateurs de cartes de crédit. Microsoft, plutôt connu pour ses logiciels et notamment son interface Windows, essaie de prendre pied sur le marché du micro-paiement et de la gestion financière grand public. En l'absence d'axes stratégiques clairement perceptibles, toutes les entreprises du secteur cherchent avant tout des alliances, dans un contexte où les pouvoirs publics se méfient avant tout de l'apparition de super-monopoles. La conquête de l'espace avait été proposée au peuple américain par le Président Kennedy comme la nouvelle frontière du 20ème siècle. De la même manière, le projet "National Information Infrastructure" (NII)16 a été proposé par le vice-président Al Gore, comme une nouvelle frontière pour le 2lème siècle. Grâce à cette impulsion, archétype des stratégies à l'américaine, les Etats-Unis ont vu les industries du spectacle, de l'informatique, des télécommunications, de la distribution, et de l'information entrer dans une effervescence dont on ne voit pas encore bien les résultats, mais dont l'objectif est clairement affirmé: le contrôle de la chaîne numérique de l'information à l'échelle mondiale de l'aval vers l'amont. 16 "National Information Infrastructure": projet proposé le 15 Septembre 1993 par Clinton pour la création d'un groupe de travail composé de fonctionnaires et de professionels afin de promouvoir les investissements du secteur privé, promouvoir le développement d'applications dans l'éducation. Ia santé, et prévoir des standards permettant l'interconnexion de réseaux hétérogènes. Le développement des autoroutes de l'information passe par une profonde recomposition du paysage des télécommunications et de l'audiovisuel. Les américains ont les premiers montré la voie en multipliant les alliances et les fusions. 1. Les fournisseurs d'infrastructures. On distingue les sociétés de télécommunications opérant sur des longues distances des sociétés de télécommunications locales. a) Les sociétés de télécommunication opérant sur les longues distances (AT&T, MCI, Sprint) Ces sociétés appelées "carriers" voient dans l'avènement des autoroutes de l'information l'occasion de remettre en cause le partage d'activités qui leur fût imposé à l'occasion de la déréglementation des années 1980. Parce que l'explosion du multimédia dont nous parlions précédemment implique une combinaison d'éléments complexes (voix, son, données, images) et une maîtrise complète de la chaîne de communication, ces entreprises récupèrent une clientèle locale dont elles ont été écartées au profit des sociétés de télécotnmunications locales. AT&T, qui est aussi l'un des plus grands constructeurs de matériel de télécommunication, y voit aussi l'opportunité de vendre de nouveaux équipements (serveurs, réseaux, commutateurs, logiciels). Aux Etats-Unis, les sociétés les plus impliquées dans ce processus sont AT&T, MCI, Sprint, et News Corp. France Télécom en France et Deutsche Télécom en Allemagne se sont engagés dans des discussions délicates outre- Atlantique avec l'opérateur téléphonique américain Sprint. Au Royaume-Uni, les principaux protagonistes sont Cable & Wireless et British Télécom. Ce dernier dispose d'une autonomie accrue du fait de sa récente privatisation. En Allemagne, à la différence des Etats-Unis et du Royaume- Uni, il n'y a qu'un opérateur chargé des télécommunications et du câble: Deutsche Telekom, qui sera lui aussi à son tour partiellement privatisé en 1996. b) Les sociétés de télécommunications locales, issues du démantèlement d'AT&T en 1984. Ces sociétés sont appelées Regional Bell Operating Compagnies (RBOC's). Ce sont des entreprises bénéficiant jusqu'à présent d'une position sinon monopolistique, du moins dominante dans les liaisons téléphoniques locales sur des régions regroupant plusieurs Etats. Les concurrents des compagnies locales, les Competitive Access Provider (CAP), ne réalisent que moins de 1% du chiffre d'affaires de cette activité. Ce chiffre fait ressortir les limites d'une politique de concurrence pourtant affichée clairement par l'autorité de réglementation. Cette autorité de réglementation est la Federal Communication Commission (FCC) qui relève du Congrès. La capitalisation boursière des RBOC's représente aujourd'hui de deux à quatre fois la valeur initiale lors du démantèlement d'AT&T au début de 1984. Elles ont chacune un chiffre d'affaires approchant celui de France Télécom. Elles disposent de véritables trésors de guerre, qui les placent en position favorable pour la conquête de nouveaux marchés. Ces principaux opérateurs, que l'on sumomme les "baby bell", sont Bell South, GTE, Nynex, US West, Pacific Telesis, South Westem Bell, SWB, et Bell Atlantic. Ces compagnies de téléphone ont été les premières à annoncer le déploiement massif d'autoroutes utilisant très largement la fibre optique. 2. Les câblo-opérateurs. Les câblo-opérateurs ont une taille plus modeste: la plus petite RBOC a un chiffre d'affaires triple de celui du plus gros câblo-opérateur, TCI. Leur situation financière est beaucoup moins florissante car ils souffrent d'un manque de fonds propres. Leurs perpectives tarifaires sont peu encourageantes; ils ont notamment subi une réduction autoritaire de leurs tarifs, décidée par la "FCC"". Nombre de réseaux câblés étaient et restent vétustes et ont besoin d'être renouvelés. C'est la raison pour laquelle, en dépit de l'autorisation de faire de la téléphonie, qu'ils ont activement participé à la recherche d'alliances. Les principaux câblo-opérateurs aux Etats-Unis sont Viacom et Time Warner, que l'on retrouvera dans le domaine du software et de la télévision interactive. Mais le plus gros reste encore TCI. En Europe, British Telecom, France Telecom et Deutsche Telekom sont les plus gros intervenants. Nous verrons que par le jeu des alliances, RWE, deuxième opérateur allemand, est également très présent sur le marché européen. 17 FCC: Federal Communication Commission. 3. Les opérateurs de services d'accès. Les opérateurs de service d'accès sont des prestataires qui permettent aux entreprises comme aux particuliers d'avoir un accès informatique aux services on-line ou à Internet. Dans le cas de services on-line, ces opérateurs sont également propriétaires de l'infrastructure à laquelle ils connectent leurs abonnés et des informations qu'elle véhicule. Sur le marché des services on-line, on peut citer comme opérateurs de services propriétaires: America On Line, Compuserve, Prodigy, Genie, Delphi, Lexis Nexis, Medis, Datatimes, Dun & Bradstreet, Dow Jones News, Dialog,... Dans le cas d'Internet, l'opérateur de services d'accès employé dépend du type de connexion choisie. Nous reviendrons précisément sur les types de connexion disponibles plus loin dans cette étude. Pour cette partie, citons les deux types d'opérateurs de services d'accès à Internet et les types de connexion qu'ils proposent: - opérateur de services spécialisé dans l'accès Internet avec accès direct par câblage d'une machine à un routeur de l'Internet ou accès par liaison téléphonique en utilisant un modem. Parmi ces opérateurs de services d'accès spécialisés, citons CERFNet, Netcom, PSINet, InternetU, AlterNet/UUnet... pour les Etats-Unis, EUnet, TransNet, Oléane, FranceNet... pour la France et l'Europe (une liste complète des opérateurs de services accès à l'Internet est fournie en annexe 1 avec, pour chacun, les services proposés et les tarifs). - opérateur de services d'accès à un service on-line propriétaire et qui propose un accès Internet. De plus en plus, les services on-line grand public intègrent dans les services offerts, un accès Internet (America On Line, Compuserve, Prodigy). Le type de connexion proposée est identique à celui de la connexion au service on-line: Liaison téléphonique en utilisant un modem. 4. Les fournisseurs de logiciels d'accès aux services on- line et Internet. Il existe sur le marché plusieurs fournisseurs de logiciels d'accès aux services on-line et Internet. Les logiciels d'accès aux services on-line sont foumis par les services on-line eux-mêmes. Dans ce cas, l'utilisateur n'a pas le choix. Ces logiciels sont conçus pour être exécutés dans des environnements graphiques (type Windows) dans le cas de services on-line grand public. Ce n'est pas toujours le cas pour les bases de données professionnelles où l'interface reste une interface texte. Certains services on-line sont accessibles par l'intermédiaire de logiciels de communication classiques (Ex: Terminal, Smartcom...). Pour l'accès à Internet, le choix est plus vaste car il n'y a pas d'interface propriétaire mais plutôt une offre assez large d'outils développés pour utiliser les normes et protocoles du réseau. Les fournisseurs de logiciels d'accès au réseau Internet sont nombreux et parmi les principaux: - Netscape Communications Corporation (voir annexe 3) dont l'objectif est d'être le premier fournisseur de logiciels ouverts qui permettent au public et aux entreprises d'échanger des informations et d'effectuer du commerce sur Internet et les réseaux globaux. Cette entreprise fût fondée en 1994 par James H. Clark, le fondateur de Silicon Graphics Inc., et Marc Andreessen créateur du logiciel Mosaic (premier logiciel de navigation du World Wide Web). Netscape Communications Corporation distribue deux types de produits: le logiciel de navigation client et le logiciel serveur: o Le logiciel de navigation client permet aux utilisateurs d'accéder et de consulter tous les sites du World Wide Web. o Le logiciel serveur permet d'installer et de maintenir un serveur pour publier des informations et conduire des opérations commerciales sur Internet. - Microsoft Corporation permet accès au réseau Internet par l'intermédiaire du réseau propriétaire MSN (Microsoft Network) et du logiciel Microsoft Internet Explorer 2.0. Le réseau MSN est un nouveau service on-line dont accès est possible par Windows 95. - Spry Inc., devenu la division des services Internet de Compuserve en Mars 1995, commercialise plusieurs produits pour accéder ou mettre des informations sur Internet. Parmi ces produits, Mosaic in a box for Windows 95, Internet in a box, Internet Office Professionnal et Internet Office Server. - Netmanage commercialise un ensemble d'outils regroupés sous le nom de Chameleon. Chameleon peut être installé, configuré et connecté à Internet en cinq minutes environ selon Netmanage. La fonctionnalité "Instant Internet" permet à l'utilisateur de souscrire automatiquement à l'un des cinq fournisseurs accès proposés à savoir: Advantis, Alternet, CERFNet, Portal ou Performance Systems International Inc (PSI). Le fournisseur accès PSI offre même 7 jours gratuits de pleins services aux utilisateurs de Chaméléon. 5. Les fabricants de matériels. Ces industries les plus connues du grand public sont vivement attirées par les autoroutes de l'information. Elles considèrent que ces marchés ont des perspectives de croissance importantes et espèrent y prendre position, grâce à des produits de plus en plus sophistiqués. Les fabricants de matériels informatiques sont très sollicités par les exigences dues au développement des autoroutes de l'information car ils se trouvent en amont de la chaîne. De plus, toute la chaîne informatique, des grands ordinateurs au marché des portables, y trouve un intérêt. Les micro-ordinateurs intègrent de plus en plus une configuration du type multimédia que ce soit pour les desktop ou les notebook. Ces configrations nouvelles permettent d'accroîre la convivialité des micro-ordinateurs ainsi que leur puissance de calcul. Le CD-ROM, le CD-I et le microprocesseurs Pentium et Power-P.C18 permettent respectivement de développer ces deux caractéristiques. L'industrie du serveur fait aussi partie intégrante des stratégies de développement des fabricants de micro- ordinateurs dans un marché principalement tourné vers les réseaux. D'autre part, la convivialité des micro-ordinateurs est renforcée par les innovations des industries de logiciels. Parmi elles, Microsoft, qui dispose d'un quasi-monopole mondial laisse peu de marge de manoeuvre pour les concurrents notamment avec la sortie du nouveau système d'exploitation Windows 95, intégrant son propre service "on-line". Il serait trop long de dresser une liste complète de tous les intervenants sur ces marchés; cependant il convient de citer certains d'entre eux. Parmi les principaux fabricants de matériel informatique, le peloton de tête, comprend: Compaq, IBM, Apple, Packard Bell, Nec, Hewlet Packard, Apple, Zenith Data Systems et Olivetti. 18 Architecture miicroprocesseur Intel pour le Pentium et IBM-Motorola-Apple pour le Power PC. 6. Les développeurs de produits. a) Sociétés de services, consultants, agences de communication interactive. Ces prestataires conseillent, réalisent un plan marketing, possèdent des designer, organisent les informations et développent des serveurs Web. Leur compétence dépend en grande partie de leur capacité à intégrer dans leur offre des métiers très différents (compétence en design, en marketing et en technologie). Ces sociétés proposent du sur-mesure. A l'opposé, certaines sociétés telles IndustryNet, proposent un service unique, plus adapté aux PME. b) Les agences de publicité généralistes Si vous travaillez déjà avec elles, elles vous expliqueront les possibilités des nouveaux médias pour votre marketing, elles proposent un service complet, et en général font sous-traiter la réalisation. Leurs approches et leurs coûts les rendent peu accessibles aux moyennes entreprises. 7. Les fournisseurs de produits. Fer de lance des exportations américaines, ces industries, surtout celles du cinéma et des programmes audiovisuels, voient le déploiement des autoroutes sur le sol américain et mondial comme moyen de multiplier la valorisation de catalogues déjà amortis, et d'écouler des produits nouveaux. Ces produits sont facilement amortissables grâce à des effets de série. Les groupes d'édition cherchent à rentabiliser leur contenu par une diversification de leur mode de diffusion. Parmi ces industries de programme, les industries du cinéma sont en première ligne. Le chiffre d'affaires de la vaste nébuleuse "télécoms- médias-loisirs-informatique-électronique grand public" devrait passer de 1400 milliards de dollars en 1992 à 2200 milliards de dollars en l'an 2000. S'il est trop tôt pour identifier, dès à présent, les créneaux stratégiques et les centres de profit de ce malstrom industriel, il semble désormais acquis que le software (logiciels, applications, programmes, services) dégagera davantage de marge que le hardware (machines, terminaux) ou la distribution, partout en voie de déréglementation. Les entreprises qui domineront ce secteur s'appellent DreamWorks SKG, Reuters, Viacom/MTV, Disney, Microsoft, Sony. Ce qui rapproche ces firmes, au premier abord disparates, c'est que leur succès dépend de leur capacité à se placer favorablement sur les "inforoutes", à inventer, à véhiculer ou mettre en bouquet ces programmes et services qui constituent le nouvel or noir de nos économies immatérielles. Leur inffluence, ils la tireront sans doute moins de leur gigantisme ou de la taille de leurs profits que de leur capacité à modeler nos sociétés. L'offensive de ces géants de l'industrie américaine pose, avec une acuité renouvelée, le problème du déséquilibre des échanges culturels transatlantiques. C. Les stratégies des acteurs. 1. Historique: Des échecs retentissants... qui ne remettent pas en cause le mouvement. De très imposantes tentatives d'alliances (TCI/BELL) ont contribué à imposer une dynamique d'ensemble propice aux développements des autoroutes de l'information. Cette dynamique a donné lieu à des effets d'annonces qui n'ont pu être que profitables pour la suite des événements. Le projet du "National Information Infrastructure" est, pour partie, à l'origine des grands rapprochements qui se sont opérés outre Atlantique. Ce projet vient récemment d'être complété par un projet de loi adopté le 4 août dernier par la Chambre des représentants. Même si l'état actuel des négociations ne fait pas encore de ce projet une loi, c'est déjà une révolution. Il ne s'agit ni plus ni moins que d'une très large déréglementation de l'industrie de la communication, ouvrant les différents secteurs de cette industrie à la concurrence et libéralisant considérablement les limites fixées au cumul de propriété des différents médias. On le remarque bien, les pouvoirs publics, que ce soit aux Etats-Unis ou en France, encouragent vivement un développement en faveur des autoroutes de l'information. a) Des stratégies par alliance. Il serait trop ambitieux et quasiment impossible de faire un inventaire des principales alliances stratégiques dans le domaine des autoroutes de l'information. La raison est simple: l'ensemble des acteurs énumérés précédemment entend être présent sur un marché en pleine expansion (voir annexe 2: tableau récapitulatif des alliances). C'est donc dans le cadre de ces nouvelles déréglementations, en cours ou à venir, que les grands opérateurs et les entreprises appartenant aux secteurs des nouveaux modes de télécommunication se doivent de fournir une offre complète et homogène, faute de quoi elles risquent de se retrouver dans une situation de marginalisation. L'impulsion est venue des Etats-Unis avec la bataille financière opposant les compagnies locales de téléphone et les câblo-opérateurs. Malgré quelques échecs, il faut retenir: - l'accord entre US West et la Time Wamer avec un enjeu financier de 2 milliards de dollars, - le rapprochement de Nynex et Viacom avec un enjeu financier de 1,6 milliards de dollars, - en mars 1995, Sprint s'allie à TCI, Comcast et Cox (câblo-opérateurs), - plus récemment, deux grandes alliances stratégiques se sont conclues; l'une entre Bell Atlantic, Nynex, US West, et Air Touch dans le domaine du téléphone cellulaire et l'autre entre Bell South, Ameritech, SBC communications (téléphone) et Disney (industries de programmes), - accord entre Netscape et Terisa Systems Inc (avril 1995) pour créer un standard unique de cryptage pour le transfert sécurisé d'informations on-line [le système Secure Hypertext Transfert Protocol (S-HTTP) de Terisa et le système Secure Socket Layer (SSL) seront confondus]. Le secteur des Télécoms d'entreprise est également en pleine mutation, dans la mesure ou des groupes de taille très importante et de nationalités différentes s'associent sous forme de consortiums afin d'élaborer ensemble des stratégies communes de développement. Télécoms d'entreprises: Les principales alliances. Consortiums Opérateurs IRIS Compagnie Générale des Eaux. Unisource (KPN-Tolia-Swiss télécom) ATLAS France Télécom / Sprint Deutsche Telekom CONCERT British Telecom MCI (Etats-Unis) INFONET Deutsche Telekom / Swiss Télécom / Tella (Suède) France Telecom / KPN (Pays-Bas) GLOBAL DIGITAL Cable & Wireless (CaGB) / Téléglobe (Canada) / IDC (Japon) HIGHWAY HKT (Hongkong) / Télé2 (Suède) WORLD ATT / STL (Singapour) PARTNERS KDD (Japon) UNIWORLD ATT (projet) Unisource b) Des partenaires différents pour des stratégies gagnantes. Les petites sociétés de services en informatique qui sont à l'origine d'évolutions technologiques majeures sur les autoroutes de l'information sont aspirées par le marché. La demande étant très forte et urgente, elles connaissent pour la plupart rapidement des crises de croissance (problème de cash flow); ce qu'elles gèrent à court terme plutôt bien, en trouvant des alliances avec des partenaires "gros calibre " (IBM, Microsoft, les banques, les opérateurs de téléphonie et de câble) ou en se lançant sur les marchés financiers. L'exemple le plus spectaculaire est celui de la société Netscape (voir annexe 3) qui lors de son introduction en bourse en août dernier a capitalisé 30 fois son chiffre d'affaires (alors que la société fait des pertes !). (2) Etre présent à n'importe quel prix pour les majors. Ce marché et les technologies qui le portent sont en telle expansion que les grosses entreprises préfèrent racheter à n'importe quel prix une société qui offre une technique ou un savoir faire susceptible de les positionner sur ces marchés (et surtout de ne pas les laisser à l'écart). C'est ainsi que Compuserve, voyant ses parts de marché réduire en mai dernier suite à la stratégie de son concurrent America On Line, qui offrit quelques semaines plus tôt un accès Internet via son serveur, a racheté la société SPRY (qui propose une solution complète d'accès Internet) pour $ 100 millions. D'après les analystes financiers, cette société n'en valait pas le quart ! Il fallait être présent et vite, or il n'y avait pas d'autres sociétés à acheter, expliquent les responsables de Compuserve. Ceci à pour effet de stimuler la créativité des petites sociétés et permet aux grosses sociétés de maintenir leurs parts de marché. La Silicon Valley reprend sa place de star californienne aux Etats-Unis et dans le monde où les américains demeurent leader aussi bien en terme de développement de technologies que d'intensité d'utilisation. c)Les conséquences des alliances. (1) Les conséquences inhérentes au marché des autoroutes de l'information. Ces conséquences sont celles qui sont propres au développement des autoroutes de l'information. Elles s'inscrivent dans le cadre de la déréglementation des télécommunications aussi bien aux Etats-Unis qu'en Europe. Cette évolution de l'accès aux informations au niveau planétaire présente les mêmes caractéristiques que n'importe laquelle des révolutions. Par analogie avec le domaine militaire, une révolution implique des stratégies d'attaque et de défense. L'histoire et la sociologie ont montré que les alliances entre les différents belligérants permettent de construire une unité; et c'est cette unité renforcée qui permet de mieux avancer ou de mieux se défendre. La maîtrise de la chaîne de l'information à l'ère du numérique passe avant tout par le désir de chacun des intervenants de s'unir là où ils sont technologiquement en position de faiblesse. La conséquence directe que l'on peut qualifier de positive et nécessaire permet la progression technologique vers une meilleure maîtrise de la recherche. Plus les alliances se multiplieront, et plus les industries domineront les techniques de la diffusion des informations. Ainsi, la multinationalisation des firmes crée trois avantages (avantage spécifique, avantage à la localisation et avantage à l'interrnalisation) permettant ainsi des économies d'échelle et une différenciation en terme de produit. (2) Les implications industrielles et commerciales de ces alliances. Un deuxième type de synergie est à dégager de ces stratégies de développement par alliances. D'un point de vue industriel, l'ensemble des firmes citées précédemment tire un avantage compétitif dû à ces alliances stratégiques. Mais ce concept d'avantage compétitif est à considérer en termes relatifs. Il dépend de la manière dont les concurrents réagissent à l'avantage compétitif de la firme leader. Le rachat de Lotus par IBM, a permis à ces deux firmes de réagir en terme de produit face au leader Microsoft. IBM, avec le Lotus Notes, produit vedette de Lotus (logiciel de travail en groupe), qui peut être utilisé sur toutes les machines quel que soit leur système d'exploitation, a fait réagir Microsoft qui prépare actuellement le lancement d'un produit concurrent, baptisé "Exchange". La firme IBM dispose ainsi d'un avantage compétitif en terme de produit et en terme de temps. Les stratégies coopération/concurrence dans un environnement comme celui-ci où les frontières des secteurs, des groupes, et des firmes sont mouvantes, prennent la forme de courses entre les différents concurrents. Ces courses stratégiques peuvent être observées pour la recherche et développement, la production/distribution (Zenith Data Systems et tout récemment NEC et IPC) et l'adoption de normes techniques tout le long du processus de production. L'importance de ces stratégies de coopération est cruciale en matière de R&D, surtout dans ces industries intensives en technologie. La R&D est l'un des principaux domaines d'investissements stratégiques, via ces accords de coopérations et d'alliances. La forme principale de coopération de l'ensemble des accords précités est la Joint venture. La principale motivation est technologique, elle consiste en des transferts ou des rapprochements de savoir faire. D'une façon générale, le rapprochement permet soit aux deux firmes (joint-venture), soit à plusieurs firmes (consortium): - des économies d'échelle, puisque l'activité est rationalisée en un ou plusieurs centres de recherche et de production, - un accès à la connaissance ou la possibilité de mettre en route une activité dans laquelle il existe une complémentarité entre les deux sociétés, - une réduction du risque, - une accélération de la concurrence, dans la mesure où ces regroupements influencent les bases de la compétition dans les secteurs de l'informatique, du logiciel et des télécommunications. D'un point de vue commercial, certains accords permettent une amélioration en termes de marketing et de communication. Bien souvent, des entreprises développeront leurs secteurs communication et marketing en passant des alliances avec des acteurs de renom présents sur la chaîne de l'information. Ainsi, certaines de ces alliances, parfois ponctuelles, auront pour vocation une amélioration de la notoriété de l'entreprise. Outre l'aspect financier et technologique, il ne faut pas négliger qu'une présence sur les autoroutes de l'information, que se soit par la création d'un serveur Web ou par une alliance avec un autre partenaire, représente, avec une bonne couverture presse (articles, mailing, publicité...), un bon outil de communication exteme. L'accord entre Zenith Data Systems, Netscape et Libération a permis au constructeur de micro-ordinateur français de développer un serveur Internet à l'occasion du dernier festival de Cannes. La société française qui, malgré sa position moyenne sur le plan des médias aux Etats-Unis, a su montrer qu'elle était capable d'être présente sur un événement aussi retentissant que le festival de Cannes. Les retombées en terme de publicité et de communication furent importante puisque plus de 300000 "visiteurs" sont venus consulter le serveur. Le serveur permettait d'obtenir des informations sur les films et les acteurs en compétition pendant la quinzaine du festival mais permettait en outre un accès direct sur le serveur de la société en donnant la possibilité aux visiteurs de s'informer sur les nouveaux produits de la firme et surtout de passer des commandes. D. Les nouveaux supports de téle-services et téle- marketing. 1. Services on-line. En pleine émergence, le marché des services on-line est difficile à appréhender car il s'inscrit et se pense d'emblée dans un contexte mondial. Face à une terminologie compliquée, au lancement de multiples projets, à un foisonnement d'alliances et à l'implication des "politiques", il nous est apparu nécessaire de clarifier la notion même de services on-line et de définir notre champ d'investigation. Avec l'arrivée en force de la micro-informatique communicante, un foisonnement de services nouveaux émerge et pénètre aussi bien le monde professionnel que le grand public: ces nouveaux services sont communément appelés services on-line. Comme nous l'avions précisé ultérieurement, lors de l'énumération des différents acteurs prenant part au marché des autoroutes de l'information, une grande confusion règne en ce qui concerne le marché des services on-line et ceci, pour un certain nombres de raisons: - le foisonnement des alliances et des rachats, - le lancement de multiples projets, - l'apparition d'un terminologie compliquée, - l'implication des politiques avec le débat sur les autoroutes de l'information. Face à ce marché émergent encore mal maîtrisé et mal défini, il est indispensable de préciser ce que l'on entend par services on-line et d'en donner une définition cohérente. D'une manière générale, les services on-line sont une association de techniques de télécommunication et de l'informatique en vue du traitement de l'information à distance. Partant de cette définition, on s'aperçoit que l'on peut mettre ce que l'on veut dans ces services on- line. Quels critères de segmentation adopter pour cerner au mieux ce marché ? Une analyse des services on-line permet d'extraire plusieurs critères de différenciation: - les services on-line s'inscrivent dans une problématique de diffusion au plus grand nombre de l'information, - les services on-line sont diffusés sur un réseau de télécommunication ouvert au public, - ils permettent la connexion à des serveurs d'information, - ils impliquent une interactivité entre le service et l'utilisateur, - enfin, le terminal doit posséder une interface graphique. Suite à ce premier ciblage, il est possible de distinguer deux types de services on-line: - service télématique bas débit du type vidéotexte19, - service télématique micro-commercial du type Compuserve, a) Deux types de services on-line (1) Les services télématiques à bas débit Le vidéotexte est un moyen de communication permettant d'accéder, à partir de terminaux simples et gratuits (ou peu chers), à des services informatiques hébergés par des centres serveurs. Le vidéotexte s'est développé d'abord en Europe à partir de terminaux spécifiques sans normalisation globale au préalable. La multiplication des normes au niveau mondial a entraîné un cloisonnement des marchés. Mais comme nous pouvons le voir dans le tableau ci-dessous, c'est le système français, mondialement connu sous le nom de son terminal Minitel, qui a remporté le plus franc succès. Type de Pays Nom du Année de Nombre de Utilisateurs facturation service création service réguliers Abonnement Allemagne BTX 1983 2 600 700 000 Angleterre PRESTEL 1980 1 000 40 000 Kiosque France TELETEL 1982 22 000 13 000 000 /MINITEL Etats-Unis NAPLPS 1984 1 500 200 000 (Source: Intégration Marketing, mai 95) (2) Les services télématiques micros commerciaux. (a) Les "serveurs-réseaux". Les "serveurs-réseaux" sont des services on-line possédant leurs propres réseaux. Ces réseaux sont constitués de liaisons spécialisées reliant les fournisseurs de contenus et différents points d'accès répartis dans différents pays. 19 Le vidéotexte est le terme retenu pour désiger les systèmes et services de terminaux du réseau téléphonique mettant en oeuvre un écran pour l'affichage des pages commandées par le poste de l'abonné. Le contenu de tels serveurs sont des banques de données structurées, consultables à l'aide de terminaux (micro- ordinateur + terminal vidéotexte) via les réseaux de télécommunications, interactifs et payants sous trois formes: l'abonnement, un coût horaire de connexion, des coûts supplémentaires suivants les services utilisés. On peut dénombrer deux gandes familles de "serveurs- réseaux": ceux à vocation professionnelle et ceux à vocation grand public (comme Compuserve). Les "serveurs-réseaux" à vocation commerciale se caractérisent surtout par leur qualité de service (bonne gestion de l'abonné, convivialité, information structurée, interface de qualité...). Les serveurs électroniques commercaux (ou "serveurs reseaux") Année de Les acteurs Nombres Principaux Tarifs création d'abonnés services Grand public E-mail Compuserve Forums 1979 AOL 12 millions News (voir annexe 4) GEnie Jeux Delphi... Sport... Professionnel Lexis/Nexis Finance Medis 5 millions News 1982 Dow Jones News Banques de Variables20 Dialog données spécialisées (Source: Intégration Marketing, mai 1995) Nombre d'abonnés des services on-line (en millions). Jan 95 Fev 95 Mar 95 Août 95 Evolution: mars-août 95 Prodigy 1,38 1,45 1,55 1,7 9,6% Compuserve 1,7 1,75 1,8 2,5 38,8% AOL 1,75 1,87 2,2 3,1 40,9% (Source: PEE Chicago) Prévision d'évolutions du nombre d'abonnés en millions. Abonnés 1994 1995 1996 1998 2000 AOL 1,3 2,6 3,9 5,5 6,3 Compuserve 2,4 3,6 4,7 5,6 6,3 Prodigy 1,1 1,2 1,3 1,6 1,9 Total 5 7,7 10,2 13,1 14,9 (Source: Integration Marketing, mai 1995) Il existe également deux autres types de services télématiques micro que sont les BBS et le kiosque micro (pour la France). 20 Tarification complexe basée sur des abonnements et des paiements à l'acte. Cette tarification est nettement plus élevée: l'abonnement est à plus de $100/mois et les coûts horaires peuvent être compris entre $100 et $250. b) Comment se connecter aux services on-line? La connexion aux Etats-Unis est différente de celle en France. En effet, la plupart des serveurs-réseaux disponibles en France le sont par l'intermédiaire de services France Télécom. Pour la France, il existe trois façons de se connecter aux services on-line: o "en direct": on appelle le serveur; il nous envoie une disquette qu'on installe sur notre micro-ordinateur. On compose le numéro du serveur et on s'y connecte. o par le kiosque: - pour le Télétel, il suffit de composer un code générique (type 36 15) et on se connecte via un code d'accès, - pour le kiosque micro, on doit d'abord faire la démarche de contacter le serveur pour obtenir une disquette d'installation et ensuite c'est le même fonctionnement que pour le Télétel/minitel. o par une ligne dédiée à travers un opérateur (Transpac en France, Datex J en Allemagne...) Ces trois modes d'accès permettent à l'utilisateur d'obtenir une tarification adaptée à ses besoins et au serveur d'élargir leur cible potentielle. Tableau récapitulatif des modes d'accès aux services on- line Points forts Points faibles Accès direct Fidélité de l'utilisateur Tarification non utilisable pour (abonné) tout le territoire Contact direct entre le serveur Tarification différente de la et l'abonné facture téléphonique. Le Kiosque Accessible facilement Volatilité de l'utilisateur Cible potentielle importante Services restreints Tarification unique pour (pour le Minitel) l'utilisateur Tarification élevée. Opérateurs Fidélité de l'utilisateur Câble pas très répandu dans (Transcable) (abonné) certains Pays Tarification unique pour l'utilisateur (Source: Integration Marketing, mai 1995) 2. Internet. a) Rappel C'est dans les années 1960, en 1969 exactement, qu'a été conçu le réseau Internet, réseau public subventionné, qui dans l'esprit du Vice Président américain A1 Gore pourrait constituer l'épine dorsale d'un réseau d'autoroutes à la fois national et international. Internet, est un "réseau de réseaux" initialement destiné aux besoins d'échanges et de communications entre centres de l'armée, centres de recherche et universités. Aujourd'hui, il permet l'interconnexion de sites informatiques et de réseaux locaux d'entreprises. Avec des coûts abaissés par la prise en charge d'une partie de son exploitation par l'administration fédérale aux Etats-Unis, Internet s'est largement étendu au niveau mondial. Internet peut s'envisager comme une structure hiérarchique à trois niveaux. On part d'un réseau local connecté à un réseau régional, lui même raccordé à un réseau national. L'interconnexion de l'ensemble des réseaux nationaux ainsi formée (ou "backbone") constitue l'Internet. A ce jour, Internet est certainement l'autoroute la plus banalisée et la plus mondialement parcourue. Internet, est un réseau géant rassemblant environ 17 000 sous réseaux à travers le monde, et fonctionnant sous le même protocole TCP/IP (Transmission Control Protocol/Internet Protocol). Le protocole a été initié par le département de la Défense américaine dans les années 1980. b) Les outils Internet Un certain nombre d'outils permettent d'accéder aux ordinateurs connectés à ces réseaux et donc aux informations qu'il contient. Les principaux outils sont au nombre de cinq: - la messagerie électronique. (E-mail), - l'accès aux banques de données (Gopher), - les forums électroniques (newsgroup), - les transferts de fichiers (FTP), - le World Wide Web. Ces outils forment la charpente d'Internet. (1)- La messagerie. Ce service de base permet la connunication internationale à très bas coût outrepassant les problèmes de distances et de décalages horaires. L'intérêt principal du réseau Internet est la possibilité d'échanger des messages avec les autres utilisateurs, par l'intermédiaire du service de messagerie appelé E. Mail (Electronic Mail). Au lieu d'avoir une adresse postale ou un numéro de téléphone, on dispose d'une adresse E. Mail. En France, la plupart des sites sont identifiés par le suffixe fr. (uk désigne la Grande-Bretagne et jp le Japon...). Pour envoyer un message à un correspondant, on utilise un logiciel spécial (Eudora,...). La messagerie est un excellent moyen d'information. Ceci permet de recevoir et d'envoyer des messages ainsi que des fichiers à tous les utilisateurs, en connaissant leurs adresses. chaque organisme connecté à Internet, possède une adresse propre et unique (tel un numéro de téléphone) du type: - name@domain_name.suf. Exemples de suffixe: - .edu désigne les universités américaines, - .com désigne les entreprises, - .org les organisations, - .gov les agences gouvernementales. Si vous êtes serveur sur le réseau, ou si vous désirez plusieurs adresses (une par personne, ou une par service). il vous faudra choisir un domain_name qui sera le nom de votre organisme sur le réseau (Ex: Dupont@société.com, ventes@société.com). Si vous avez un seul accès via un prestataire, votre domain_name sera celui du prestataire. On peut citer comme exemple l'adresse du PEE de Chicago: FRTRADE@interaccess.com La messagerie est l'application la plus utilisée. Le graphe ci-dessous montre l'évolution importante de son utilisation. FIGURE page 38 (2) - L'accès aux banques de données (Gopher) Des banques de données sont recensées dans des répertoires, 1000 catalogues de bibliothèques sont aujourd'hui accessibles sur le réseau, 100 catalogues français accessibles depuis juin 1995 (Bibliothèques de mathématiques, informatique, bibliothèques de laboratoire...). On trouve aussi sur le réseau des banques bibliographiques. Il existe également des banques signalant les sommaires des revues scientifiques développées par un consortium de bibliothèques américaines. Cette banque dépouille plus de 8 000 revues de toutes les disciplines. (3)- Les forums électroniques. Le développement des messageries a permis de créer des centres virtuels de discussions entre spécialistes, non gérés par le réseau. Il suffit de s'inscrire sur une "mailing list" pour recevoir tous les messages concernant un thème particulier. Beaucoup de ces conférences sont accessibles sous la forme de "news group"21 . Ce sont des espaces virtuels dans lesquels on échange des idées ou des renseignements sur n'importe quel sujet. On en compte actuellement plus de 10 000, de l'étude de la Bible au reengineering en passant par la gestion des déchets radioactifs et la libération de la femme. Chaque thème, est repéré par des initiales "alt" pour alternale (divers), comp pour computers, rec pour recreation, etc. Pour y accéder, il est recommandé d'utiliser un logiciel particulier comme NewsWatcher, Air News ou Spry. Ces forums sont utilisables de trois façons différentes: - Consultation régulière pour suivre un marché, un secteur. Vous devez sélectionner précisément vos groupes, certains vous consommeront beaucoup de temps avec des informations anecdotiques. Préférez de manière générale les groupes "moderated", tous les messages sont filtrés par un modérateur, ce qui garantie l'intérêt dts messages visibles. - Interrogation ponctuelle d'un ou des groupes spécialisés. Vous avez ainsi immédiatement à disposition un groupe d'expert. Vous obtiendrez toujours une réponse ou des indications de réponse. - Diffusion d'information sur vos produits, sur votre savoir-faire à tous les groupes cibles. Il ne s'agit pas de faire de la publicité franche, vous devez toujours apporter de l'information (respect de la "Netiquette", éthique du Net). Il peut être ainsi utile de demander auparavant l'avis du groupe, et donner un titre de message explicite... 21 autre nom pour désigner les forums électroniques Exemples: - Recherche d'informations From: jmallen@netcom.com (John Allen) Subject: Re:bar code tags Date: Fri, 12 May 1995 17:24:56 GMT Question Gene Arguelles (gene@interport.net) wrote: We are looking to attach bar code tags to our equipment. We do re-manufaturing of rail road parts. The parts are cleaned in caustic solutions. So far nothing has withstood this process. We are looking at stainless steal tags but still lack a way of mounting them. Has anyone looked into this ? Also does anyone have any info on 2d coding ? Reponse: Some manufacturers use a specialized bar code, which is basically raised bars that are molded into the manufactured component. This has worked with tire manufacturers. Also have you tried looking into RF ID solutions to your problem ? - Recherche de partenaires - From: futind@aol.com (FUTIND) Subject: Manufacturer's Reps Wanted Date: 13 May 1995 14:37:29 -0400 Reply-To: futind@aol.com (FUTIND) We are a manufacturer of deep drawn metal products (Eyelets, Ferrules, Shells, Cans, etc.) seeking professional representation in most MANA territories. We work with both ferrous and non-ferrous material. SPC and JIT are available. Reply to: Marco J. Gabriele - Margo Services Co., Inc. 777 Amity Road Bethany, CT 06524-3028 Phone: 203-393-2965 Fax: 203-393-3659 - From: naletras@epix.net (Nick Aletras) Subject: Wanted: Sales reps - Timing Pulleys & Spur Gears Date: 15 May 1995 01:14:08 GMT We manufacture a line of standard and custom timing belt pulleys and spur gears. Also precision contract machining. We are seeking sales reps in all parts of the country. Nick Aletras D J Manufacturing Email naletras@epix.net Phone: 717-836-2229 Fac:717-836-5089 - Publicité From: stevemomo@aol.com (steveMomo) Subject: ANNOUNCE: IMTS HOME PAGE Date: 25 May 1995 14:15:25 -0400 Please visite the IMTS Home Page located at http://www.tmn.com/amt/index.html. At the site you will find information regarding exhibiting and attending the world famous manufacturing technology show, held in Chicago in 1996. (4) Les transferts de fichiers (FTP). C'est une fonction de base qui permet de transférer sur son micro-ordinateur la copie d'un fichier existant. Pour rechercher des fichiers, il faut se connecter à un site, identifié en général par le préfixe "ftp" (file transfer protocol), au moyen d'un logiciel adapté. Ce logiciel offre en outre la possibilité de connaitre sur quels serveurs se trouve un fichier. Un autre moyen consiste à utiliser un programme appelé Gopher pour se connecter à des sites du même nom. On peut aussi y effectuer des recherches grâce à des logiciels utilitaires qui analyseront tous les serveurs Gopher répartis dans le monde. Outre le programme Gopher, il existe le World Wide Web (WWW), plus connu sous le nom de Web. Un serveur Web donne souvent accès aux mêmes ressources que celles du serveur Gopher, associé au même site, mais il peut donner accès, en plus, à des produits multimédia (image et son). (5) - Le World Wide Web. Créé par le CERN (Centre Européen de Recherches Nucléaires) en 1989, le WWW (World Wide Web) ou Web est le plus récent des services. Il permet d'accéder de manière très simple et très intuitive via les interfaces graphiques de type MOSAIC22 aux informations sous forme d'hypertexte (Interface graphique développée en 1993 au NCSA, National Center for Supercomputing Applications à l'Université de l'ILLINOIS). Les produits de Netscape (environ 75% du marché), de Spry, de Netmanage, et de tous les autres fournisseurs du marché en sont issus. Le phénomène Web est à comparer au développement de la micro-informatique et d'un standard comme le PC et le DOS. L'évolution de l'utilisation du Web est exponentielle comme le montre le graphique ci-dessous. FIGURE page 41 22 Navigateur du World-Wide Web le plus répandu. Mis au point à l'origine à l'Université de l'Illinois, la license Mosaic appartient aujourd'hui à une entreprise privée. Spyglass Incorporated. L'utilisation d'Internet a évolué de manière importante dès 1992, alors que l'utilisation du Web n'a commencée que fin 1993, prouvant que le besoin de communication via cet outil était déjà existant. FIGURE PAGE 42 Le format de fichiers HTML (HyperText Markup Language) lisible par ces interfaces graphiques s'est imposé comme un véritable standard. Les informations mises sous ce format sont ainsi accessibles par toutes les machines et tous les systèmes d'exploitation. De plus ce format combine simplicité de production et puissance de communication. Avec la possibilité d'envoyer de l'information sous forme de texte, d'images, de son (et de vidéo d'ici quelques temps), accessible facilement, le Web se définit comme un nouveau média. Si certains (N. Negroponte, directeur du Medialab au MIT) prévoient qu'il deviendra le média le plus important d'ici l'an 2000 devant la télévision ou l'édition papier, le Web pour une utilisation massive doit encore trouver toutes ses applications et prouver sa valeur ajoutée. Le Web permet une utilisation très large, depuis l'édition grand public avec des serveurs sophistiqués et chers qui seront de plus en plus multimédia, jusqu'à l'édition business-to-business (échanges d'informations entre interlocuteurs spécialisés) avec des serveurs plus simples, économiques, évolutifs, adaptés aux besoins et donc rentables. Une caractéristique de cet outil est son l'interactivité. Elle permet, sans changer de support, un échange entre celui qui envoie l'information et celui qui la reçoit. Son utilisation encore limitée donne néanmoins à ce média un intérêt très particulier notamment pour une utilisation marketing. Le développement d'Internet et le nombre croissant d'utilisateurs connectés est probablement du à sa simplicité d'utilisation. Les documents véhiculés par un serveurs Web s'affichent à l'écran sous formes d'images et de textes accompagnés parfois même de son. Un simple clic avec la souris sur une phrase ou sur un mot clé et l'on passe à une autre page, voire à un autre document stocké sur un serveur australien, japonais ou américain. On "navigue" ainsi et on "surf sur le Net", d'un continent à l'autre au moyen de liens dynamiques, en même temps qu'on importe sur l'ordinateur des textes et des images, ou encore des fichiers, mis en téléchargement sur certains sites Web. Ainsi, une personne qui ne possède aucune base informatique pourra, avec autant de facilité que le Minitel, accéder à tous les types d'informations qu'elle désire. FIGURE PAGE 43 Le Web représentait 20% du trafic total sur Internet en mars 95. Avec une progression mensuelle de 2 à 3%, il devrait en représenter prés de 50% d'ici la fin de l'année. c) Comment se connecter à Internet ? Trois types accès à Internet sont possibles: o mode "accès direct": peu adapté au grand public, l'utilisateur se connecte directement sur l'Internet et a accès à l'ensemble des serveurs. En fait, il se constitue lui-même serveur et l'abonnement dépend du type de liaison utilisée (RNIS, liaisons spécialisées...). L'inconvénient dans ce type d'accès, c'est que l'utilisateur doit connaitre les commandes Unix. o accès par un "Internet Provider" (ou " Dial-up IP): l'utilisateur n'est pas connecté directement à l'Internet mais se voit ouvrir un compte sur un serveur avec un espace disque qui lui est réservé. Il peut envoyer et recevoir des messages, consulter des bases de données ou encore échanger des idées à travers les forums. L'utilisateur, après avoir acquitté d'un abonnement, se connecte via un micro- ordinateur équipé d'un modem. o accès par un "serveur-réseau" (ou Dial-up simple): en effet, celui-ci peut offrir parmi ces services un accès restreint à l'Internet et la tendance est même d'offrir du Full Internet. d) Baisse des coûts de connexion On constate depuis 1 an une baisse générale des prix, principalement pour les connections hauts débits. Un accès dialup (connecté via le réseau téléphonique avec un débit maximum aujourd'hui de 28,8 Kbps) coûte en moyenne $34.29 par mois. Une connexion permanente haut débit 56 Kbps (connexion normale d'une entreprise moyenne) coûte en moyenne $550 par mois, en baisse de 30% par rapport à 1994. Une connexion permanente très haut débit T1 (1,5 Mbps) (connexion pour les grandes entreprises et les prestataires Internet eux-mêmes) coûte en moyenne $1324 par mois, en baisse de 30% par rapport à 1994. Le développement important du marché, une concurrence accrue devraient encore accentuer ces baisses de tarifs. La déréglementation américaine du marché des télécoms devrait faire nâtre une concurrence encore plus accrue entre les opérateurs télécoms grande distance (ATT, MCI, Sprint), les opérateurs locaux (Ameritech, US West, Pacific bell,...) et les cablo-opérateurs (TCI,...) qui vont tous proposer des services de transferts de données qui conservent une valeur ajoutée plus importante que la téléphonie classique et investir les ressources du réseau mondial Internet (cette tendance s'est confirme à l'occasion le salon mondial TELECOM 95 à Genève en octobre 95). 3. Croissance des services on-line et d'Internet. La force de frappe potentielle de Microsoft ne doit pas faire oublier la concurrence vive qui existe déjà sur ce marché et qui ne va pas cesser de croître avec l'arrivée des groupes de télécommunications et câblo-opérateurs américains. On estime actuellement à 7,5 millions le nombre d'abonnés dans le monde pour les sociétés "Service en ligne", actuellement répartis sur trois entreprises (US): America On Line, Compuserve et Prodigy, qui se partageraient 95% du nombre d'abonnés, le solde restant pour des acteurs mineurs (Delphi et Genie) Depuis peu, MCI et News Corp ont créé une société commune qui proposera une double prestation: un accès direct au réseau Internet ainsi que l'offre de multiples services on- line exclusifs. La compagnie de téléphone a été l'une des premières de son secteur à proposer un accès direct à Internet à ses abonnés. Nombre d'abonnés aux réseaux de services en ligne propriétaire. Millions d'abonnés Janv. 95 Fév. 95 Mars 95 Août 95 Variation mars- août Prodigy 1,38 1,45 1,55 1,7 9,6% Compuserve 1,7 1,75 1,8 2,5 38,8% America On Line 1,75 1,87 2,2 3,1 40,9% On observe qu'une part importante de l'augmentation des abonnés à Prodigy provient de l'accès Internet intégré à l'offie annoncé en mars 95, avec le renfort d'une campagne de 30 millions de dollars, ayant eu avec comme résultat un rythme d'adhésion de 100 000 nouveaux abonnés par mois. Depuis, Compuserve et America On Line proposent également un accès à Internet. D'après plusieurs études marketing, le marché potentiel est illimité. a) L'Europe en demarrage Sur le marché européen, le démarrage est beaucoup plus lent. Seul, Compuserve est présent en France et affiche quelques milliers d'abonnés (12 000 annoncés en France et 90 000 abonnés en Allemagne). Le marche européen se situe dans une phase plutot de découverte que dans une vraie phase de décollage. On peut probablement penser que 1996 sera l'année du décollage des services en ligne en Europe, avec la mise en service réelle des différents nouveaux services et le début de la concurrence des réseaux avec le récent lancement du réseau Microsoft Network. Ce dernier, déjà installé sur le système d'exploitation Windows 95, permettra à chaque utilisateur de micro ordinateur compatible IBM de se familiariser avec Internet. Cette familiarisation avec l'utilisation des réseaux a trouvé en France une résonance unique au monde avec la banalisation du Minitel. Cette dynamique de réseau, à la fois simple et ergonomique, ne risque-t-elle pas à terme de compromettre une utilisation accrue d'Internet par le grand public ? FIGURE PAGE 45 b) Etats-Unis: Un marché plus mature. La croissance du marché du on-line est fortement corrélée à l'augmentation du parc de micro-ordinateurs. Cette croissance profitera aussi bien à Internet qu'aux serveurs- réseaux. Comme nous venons de le voir, les principaux serveurs- réseaux sont américains. Pour le grand public, cinq serveurs se partagent le marché: il s'agit de Compuserve, America On Line, Prodigy, GEnie, Delphi et Eworld. D'autre part, avec la commercialisation récente de Windows 95, Microsoft devrait prendre une part de marché importante dans ce secteur avec son système Microsoft Network. FIGURE PAGE 46 Pour les "serveurs-réseaux" Professionnels le tableau ci- dessous permet de bien résumer la situation. Service Détenteur Nombre d'abonnés Déc. 1994 Lexis Mead Data Central 680 000 Dow Jones News- Dow Jones Infornation 220 000 Retrieval Services 143 000 Dow Jones News 91 000 Services Telerate Reuters Reuters Holdings 290 000 Credit Services Equifax Inc. 161 000 Dialog Dialog Information 158 000 Service D&B Information Dun & Bradstreet 120 000 services Corporation TRW Inc. TRW Information 116 000 Services Medlar National Library of 93 000 Medicine Brokerage Service Automatic Data 92 000 Processing Apple Link Apple Computer 60 000 Autres services - 470 000 TOTAL 2 700 000 (Source: Intégration Marketing d'après Jupiter Communications et entretiens) La croissance des abonnés aux "serveurs-réseaux" professionnels est deux fois moindre que celle des "serveurs-réseaux" grand public. L'explication de cette différence de croissance tient sans doute au taux d'équipement en micro-ordinateurs des professionnels qui n'a pas connu une aussi forte augmentation. 4. CD-ROM (off-line). Depuis les manuels de maintenance aérienne jusqu'aux librairies de documents légaux, le petit disque brillant est clairement devenu le choix indiscuté pour la publication de volumes importants d'informations. Le CD-ROM est un média unique. Composé principalement de plastique et d'aluminium, il est une version du disque compact audio qui a été modifié pour pouvoir être employé par un ordinateur. Ses caractéristiques les plus appréciables sont sa taille et sa légèreté par rapport à son contenu (peut contenir les 26 volumes du Thomas Register ou l'intégralité de l'encyclopédie Universalis...), sa résistance et l'étendue de ses possibilités d'utilisation. Tout ce qui peut être numérisé peut être stocké sur un CD-ROM et ce jusqu'à un volume de 640 Mégaoctets de données sur un seul disque (de 12cm de diamètre). a) Le marché des CD-ROM Le marché des CD-ROM est un marché de plusieurs milliards de US dollars. Le nombre de titres disponibles sur le marché augmente de 60% par an. Il y a trois ans encore, peu de personnes envisageaient un tel développement de ce nouveau média. 20% des produits ont un prix inférieur à $100 et 20%, un prix supérieur à $1000. Le prix moyen est de $300. Un CD- ROM largement diffusé (grand public) coûte $70 en moyenne. On distingue sur le marché des CD-ROM deux grandes familles. Celle des disques destinés aux grand public et celle des disques destinés aux professionnels. (1) Les disques compacts grand public. Les disques compacts grand public proposent des encyclopédies, des jeux23, des ouvrages de littérature. (2) Les disques compacts professionnels. Il existe deux sortes de disques compacts. Les disques gravés à usage interne à l'entreprise et les disques commerciaux (destinés à la vente). (a) Les disques gravés à usage interne. Certaines entreprises utilisent le disque compact en interne pour archiver des documents. L'archivage sur disque est une solution plus fiable, plus durable et moins coûteuse que celle de remplir des salles de documents papiers, de microfilms ou de microfiches. Elle offie de plus les avantages d'une recherche électronique qui est plus rapide qu'une recherche manuelle. Cette solution est à choisir lorsque le volume d'informations à archiver est important. D'autres entreprises utilisent le disque compact pour référencer leurs bases de données statiques (normes, nomenclatures des produits, guides de maintenance,...). Après avoir numérisé l'information à stocker au moyen d'un scanner, elles utilisent un lecteur/enregistreur et un disque compact enregistrable (CD-R: Compact Disc Recordable). Le disque compact enregistrable devient un CD- ROM après avoir été enregistré. En effet, ces disques ne sont enregistrables qu'une seule fois. (b) Les disques commerciaux. Les disques commerciaux (vendus ou distribués dans une démarche de vente) représentent la plus grosse proportion des disques compacts du marché (hors disques compacts audio) même si les disques compacts internes aux entreprises (enregistrables) et grand public prolifèrent. 23 Les Postes d'Expansion Econonmique de Los Angeles et San Fransisco ont réalisé une étude sur le marché des jeux vidéo aux Etats-Unis (nov 95, 63 pages). La majorité des disques commerciaux sont des bases de données textes ou numériques. Ces bases de données couvrent principalement des bibliographies et des revues pour le marché médical et scientifique. D'autres concernent des études de marché, des répertoires d'organismes (Ex: Company de Gale Research, Corporate America de Dialog, Thomas Register), des informations financières pour les analystes et les financiers (Ex: Dun&Bradstreet on disc), des données statistiques (Ex: Import/Export USA de US department of Census), des textes de référence légaux, des documents de brevets et marques déposés et toute une collection d'actualité et de presse professionnelle (Ex: Intelliseek et ComputerSelect de Dataware Technologies). b) Publier sur disque compact. Vous pouvez publier votre information sur deux types de disque: le CD-R (enregistrable) et le CD-ROM. Les disques erregistrables peuvent être lus sur les lecteurs de CD-ROM. (1) produire un CD-R Utiliser un CD-R est équivalent à publier une brochure en utilisant un logiciel de traitement de texte sur micro- ordinateur et l'imprimer sur imprimante laser. Vous pouvez mener à bien cette démarche en interne avec peu de moyens (un lecteur/enregistreur + son logiciel d'enregistrement: moins de 3000$). Un CD-R vierge coûte de 10 à 25 US$ selon sa capacité (640 Mégaoctets maximum). (2) Produire un CD-OM Pour produire un CD-ROM commercial, il faut envoyer votre information à un organisme où elle sera reproduite, c'est à dire gravée sur un CD-ROM. La publication d'un CD-ROM est comparable à l'édition d'un livre. Dans les deux cas, le produit final est fabriqué en masse par une machine chez un prestataire spécialisé. Les deux produits passent par une série de procédés avant d'être fini. Un CD-ROM est gravé, "labellisé" et emballé, tout comme un livre est imprimé, découpé et relié. (3) Coûts de production. Le schéma suivant représente les courbes typiques de coûts pour la gravure de CD-ROM et CD-R (La courbe relative au CD-R n'intègre pas les coûts matériel et logiciel). FIGURE PAGE 50 (a) Coûts de production d'un CD-R. Les disques compacts enregistrables sont pour les publications en faible quantité. En général, si vous publiez plus de 40 à 100 disques, il est préferable de publier sur CD-ROM. Remarque: Le coût d'acquisition du matériel et du logiciel de gravure d'un disque compact enregistrable, la vitesse de duplication doivent aussi être pris en considération. La plupart des entreprises de gravure sur CD-ROM proposent un délai minimum de 1 jour avec en moyenne un délai de 5 ou 10 jours. Un CD enregistrable peut être gravé depuis un micro- ordinateur en une heure ou moins. Un disque compact enregistrable peut être utilisé comme prototype et, dans sa forme final, copié ensuite sur CD- ROM. (b) Coûts de production d'un CD-ROM. Le coût de production d'un CD-ROM en nombre inclut le coût de production de la matrice et un coût par disque supplémentaire. Les deux coûts dépendent en majorité du délai de reproduction demandé par le client. Voir en annexe 5 deux exemples sur les coûts de publication sur CR-ROM. 5. Avantages/lnconvénients de chaque média pour la recherche et la diffusion d'informations. Le tableau suivant rassemble les avantages et inconvénients de chaque média. Pour la recherche 1 d'informations, nous nous positionnons comme utilisateur. Recherche d'informations Diffusion d'informations (Editeur) (utilisateur) Avantages Inconvénients Avantages Inconvénients CD-ROM - Information - Informations - Diffusion d'une - Gravure d'un choisie (ciblée) et mises àjour grande quantité nouveau CD correspond au moins d'informations à ROM à chaque besoin fréquemment la fois mise àjour des informations q - Outils de - Coût de recherche du CD- l'information (Prix ROM adaptés à du CD-ROM) l'information contenue INTERNET - Information - Rechercher - Large difision - Besoin d'un gratuite l'information suivi assidu Pertinente peut - Mise à jour Prendre du temps aisée des sans garantie de informations. succès BASES DE - Information - Information (réservée à des (réservée à des DONNÉES ON-LINE pertinente et chère sociétés spécialisées) sociétés spécialisées) PROFESSION- fiable NELLES E. Les risques techniques. La sécurité est un concept général, on peut distinguer deux problèmes techniques différents: - la protection contre les virus, - la protection de votre système interne contre les accès extérieurs. 1. Virus. Un des intérêts réels du réseau est la possibilité de télécharger ("downloader") des fichiers. Ces fichiers peuvent parfois contenir des virus transmis lors de leur utilisation. Mais ce danger est de nature semblable lors de copie de fichiers par disquette ou par d'autres moyens. Il revient à l'utilisateur d'agir avec prudence et d'utiliser des programmes anti-vims. 2. Piratage. Le danger existe de voir son réseau d'entreprise violé par des intrus, mais le risque est très faible. Connecté à Internet en accès "dial-up" (par l'intermédiaire d'un prestataire et d'un modem), il est impossible d'accéder à votre ordinateur depuis Internet car vous n'êtes pas serveur vis à vis d'Internet. Si vous êtes connecté de façon permanente à Internet (pour utiliser par exemple l'infrastructure uu réseau comme passerelles entre vos différents sites, ou pour disposer d'un serveur) vous devez prendre en compte ce risque en installant une protection de type "fireWall". Les solutions technologiques software et Hardware existent et des sociétés spécialisées assurent l'installation (point critique) suivant vos besoins. Il n'est pas nécessaire de se surprotéger. Seuls quelques techniciens sont réellement capables de s'introduire dans un réseau qui connaît un minimum de sécurité. Contrairement aux réseaux de grandes entreprises, de banques ou d'universités, pénétrer sur un réseau d'une entreprise quelconque ne présente que peu d'intérêts pour ces spécialistes. II. IMPLICATIONS POUR LES PME/PMI. A. L'impact sociologique et micro-économique des autoroutes de l'information. 1. La situation actuelle et les évolutions en cours. Les autoroutes de l'informations représentent aujourd'hui l'un des principaux vecteurs de nos économies. Elles sont au coeur de nombreux discours politiques et économiques. Alors que le concept d'autoroute semblait fou il y a encore quelques mois, il est aujourd'hui quasiment impossible de les ignorer. Les réseaux de télécommunication et la montée en puissance de l'Internet et des services on-line entrent dans une phase de banalisation. Cette période, sans aucun doute la plus longue, implique un bouleversement extraordinaire de nos habitudes. Le contexte socio-économique dans lequel nous vivons est réglé par des méthodes de travail et des techniques d'accès à l'information que nos connaissons bien. Nos méthodes traditionnelles d'enseignement, de travail, d'achat sont en complète mutation. Nous ne savons toujours pas comment cette révolution influencera l'individu dans ses changements de comportements économiques et sociaux sur le plan individuel et collectif. Ce que nous savons en revanche, c'est que de nouvelles formes d'organisations économiques et industriels sont en passe de se mettre en place. Des techniques présentes actuellement sur le marché tel que la vidéoconférence, la télésurveillance ou le télétravail et plus généralement l'ensemble des téléservices contraignent les entreprises à faire évoluer leurs structures juridique et organisationnelle dans le souci d'une plus grande compétitivité. L'informatisation des transactions commerciales par exemple est un des aspects du développement des sociétés post- industrielles qui conditionne l'amélioration des secteurs de service et de distribution. L'informatisation du commerce va de pair avec l'infrmatisation des ménages et de la vie quotidienne. L'infrmatisation des ménages nécessaire à la "téléconsommation" entraînera par ailleurs de nouvelles formes de dialogue et par conséquence aura des impacts certains sur les relations entre Ie grand public et les entreprises. Le fossé traditionnel entre ces deux principaux acteurs de la vie économique tend à s'estomper dans la mesure où le dialogue est facilité par le biais de l'informatisation. Actuellement, être présent sur le réseau Internet est un moyen pour chaque entreprise d'anticiper les mutations et de participer au marché des autoroutes de l'information. De la même façon que les entreprises des années 1980 ont du s'informatiser, l'entreprise de demain24, devra intégrer dans son processus d'organisation interne et externe ces nouvelles technologies de l'information et plus particulièrement l'ensemble des téléservices25 qui leur permettront de traiter l'information de façon spécifique en éliminant les contraintes de déplacement, de temps et de distance. 2. L'énumération des opportunités offertes. Les opportunités offertes sont d'une grande diversité et leur expression est plus ou moins avancée. Certaines ont déjà fait l'objet d'une première mise en place à travers les services offerts sur le Minitel. D'autres commencent à être formulées. Mais il y a une attente générale des perspectives offertes par les autoroutes de l'information pour offrir des services améliorés ou nouveaux. Les opportunités offertes correspondent à cinq grandes catégories de services: - les services d'informations, - les services interentreprises et interadministrations, - les services financiers et de vente par correspondance, - les services d'intérêt public, - les services de télécommunications. a) Les services d'informations. (1) - La presse ecrite. La presse fera un usage croissant des réseaux nouveaux dès l'instant où elle aura entièrement numérisé son processus de production. Les nouveaux réseaux électroniques constituent un atout pour la presse, qu'elle soit nationale, régionale ou départementale, pour les magarines. La presse écrite s'est déjà largement développée sur le marché des services on-line. Elle a également l'expérience de l'exploitation de systèmes de diffusion en ligne, notamment à travers le Minitel (notes brèves d'actualités, bourse, météo informations routières...). Compuserve, met à la disposition de ses abonnés un très grand nombre de magazines et de joumaux. La liste des principales publications disponibles sur Compuserve se trouve en annexe 6. 24 A ce sujet, lire l'étude réalisée auprès de 25 personnalités du monde des affaires, par le magazine "Industry Week": How to mammage your company...between 1995 & 2020 (Août.95). Le Poste d'Expansion Economique de Chicago propose, dans La Lettre de l'Industrie de novembre 1995, une synthèse de cet article. 25 cf "Les téléservices en France. Quels marchés pour les autoroutes de l'iformation en France." (Thierry Breton, La Documentation Française, Collection rapport officiel). Il existe par ailleurs des CD-ROM qui rassemblent, comme IntelliSeek et Computer Select, des articles de plus de 400 publications américaines dans des domaines très variés (agro-alimentaire, informatique, finance, presse économique...). L'AFP, REUTERS, ASSOCIATED PRESS et d'autres agences de presses diffusent également des informations en temps réel sur ces réseaux. (2) - L'édition. L'édition constitue un enjeu majeur compte tenu de son rôle culturel et linguistique. Elle est d'ores et déjà engagée dans les encyclopédies électroniques qui offrent un gain de place et une facilité de consultation incomparables avec les encyclopédies sur papier. Quatre segments sont particulièrement enclin à se développer en termes de capacité de développement de l'édition électronique: - les ouvrages de référence, - les ouvrages éducatifs pour les jeunes (marché en progression avec un chiffre d'affaires de 1,2 milliard de francs), - les ouvrages pratiques, - les ouvrages techniques (manuels d'utilisation, logiciels...). (3) - Les médias audiovisuels. Les services qui utilisent aujourd'hui les réseaux de télévision vont s'amplifier et se diversifier. Dans ce domaine, la télévision numérique est le marché le plus porteur. Nous savons à quel point les fabricants de téléviseurs (Thomson Multimédia), les industries de programmes (Time Warner), et les fabricants de logiciels Microsoft et Oracle) y portent attention dans leurs stratégies de développement industriel. L'enjeu est commercialement aussi important pour les télévisions payantes que pour les télévisions publiques. La mission d'intérêt général qui incombe aux chaînes publiques les rend particulièrement sensibles aux possibilités offertes par les autoroutes de l'information. (4) - Le traitement de l'image. L'image prend une place croissante dans le monde de la communication. Portée par la transcription numérique et par les nouveaux réseaux électroniques, elle peut dépasser la simple représentation du réel pour le préfigurer et l'inventer. Actuellement, l'augmentation de la puissance de calcul et les techniques de compression permettent de manipuler localement des images fixes et animées. La capacité des modems dans les micro-ordinateurs est de plus en plus grande. (5) - Les jeux vidéo électroniques. Les jeux électroniques ont connu un développement rapide, dominé par quelques fournisseurs japonais (Sega Nintendo). Les jeux vont connaître une impulsion nouvelle grâce à l'apparition de l'image animée et à la possibilité de jouer à plusieurs avec des acteurs répartis dans le monde entier. Dans le domaine des loisirs électroniques, le marché26 des jeux vidéo suscite aux Etats-Unis de grands espoirs et attentes. Avec en 1995, un chiffre d'affaire estimé à 7 milliards de dollars, ce secteur génère des investissements publicitaires et médiatiques records. Cette industrie du loisir interactif présente de forts potentiels de croissance, ce qui ne signifie pas pour autant que quiconque y investit deviendra riche. En effet, les dix jeux les plus vendus totalisent 90% des ventes. Les éditeurs sont donc devenus très sélectifs et il est maintenant difficile pour un petit développeur d'entrer sur ce marché. b) Les services interentreprises et interadministrations Les autoroutes de l'information trouveront un marché très actif en ce qui conceme les besoins d'échanges entre les entreprises. Les applications de la télématique permettront de mettre en relation différents sites d'une entreprise ou d'une administration pour faciliter les relations entre elles et avec la clientèle. L'EDI (Electronic Data Interchange) qui se met peu à peu en place est une des application qui devrait à terme faci1iter les relations entre l'entreprise et sa clientèle (Voir partie spécifique sur l'impact de l'EDI sur la vie des entreprises). L'ensemble de ces services ne donnent pas lieu à des transactions. Ils exigent des réseaux et des serveurs performants en vitesse compte tenu des volumes traités. Ces services regroupent entre autre l'ensemble des téléservices que les experts qualifient de fonctionnels: télésecrétariat, télésaisie, télégestion... Le télétravail comme nouveau mode d'organisation du travail dans l'entreprise, offrira probablement de nombreuses possibilités avec l'utilisation des réseaux internes entre entreprises. Thierry Breton27, dans son rapport sur le télétravail en France, définit le télétravail comme "une modalité d'organisation et/ou d'exécution d'un travail exercé à titre habituel, par une personn physique, dans les conditions suivantes: 26 "Le marché des jeux video aux Etats-Unis" (novembre 1995). Poste d'Expansion Economique de San Francisco et de Los Angeles. 27 Thieny Breton. est l'auteur d'un rapport sur "Le télétravail en France"; La documentation française. - d'une part, ce travail s'effectue: o à distance, c'est à dire hors des abords immédiats de l'endroit ou le résultat de ce travail est attendu; o en dehors de toute possibilité physique pour le donneur d'ordre de surveiller l'exécution de la prestation par le télétravailleur; - d'autre part, ce travail s'effectue au moyens de l'outil informatiques et/ou des outils de télécommunication. Il implique nécessairement la transmission au moyen d'une ou plusieurs techniques de télécommunication: o des données utiles à la réalisation du travail demandé; o et du travail réalisé ou en cours de réalisation." Cette définition établit une distinction claire entre le télétravail et les téléservices. Alors que le télétravail est un mode d'organisation du travail, les téléservices sont, quant à eux, une offre marchande de services. c) les services financiers et de vente par correspondance La variété et la multiplicité des services commerciaux transactionnels est importante. Leur développement et leur perfectionnement les rendent susceptibles d'utiliser de plus en plus les autoroutes de l'information. La demande dans ce secteur va s'amplifier et devenir plus exigeante en qualité de réseaux et en serveurs. Les services financiers et surtout le téléachat semblent être les marchés les plus porteurs. - Les services financiers. Le développement du concept de banque à domicile permettra la multiplication des opérations dans le secteur bancaire, concept déjà bien exploité en France avec le Minitel et présent aux Etats-Unis où l'on peut consulter son compte American Express sur America On Line. Il reste encore le problème de la sécurisation des transactions surtout en ce qui conceme le télépaiement. Le secteur des assurances n'est pas aussi avancé dans la mesure où leurs produits nécessitent un certain contact direct. Le visiophone et la vidéo conf rence peuvent tous les deux apporter un plus de ce point de vue et augmenter sensiblement la qualité des contacts avec la clientèle. Dans le domaine du télétravail, le GAN et le groupe Axa sont les premiers à développer le travail à domicile. - Les services de vente. La vente par correspondance, avec aujourd'hui un potentiel de dizaines de millions d'acheteurs répartis sur toute la planète, nous semble être d'ores et dejà le marché le plus prometteur. Dés que la sécurité des transactions sera assurée, dans quelques mois, on peut prévoir une explosion des échanges commerciaux sur le Web où le niveau des transactions n'a atteint que 118 millions de dollars entre septembre 1994 et août 1995. d) Les services d'intérêts publics. Ces services regroupent les services éducatifs, la médecine et des activités culturelles comme les musées, les expositions, les foires et les salons. Il existe une interactivité de plus en plus grande entre les universités, les écoles et les centres de recherche. Aux Etats-Unis, l'ensemble des Universités sont équipées en infrastructure de réseaux et les étudiants ont à leur disposition les technologies les plus sophistiquées pour communiquer entre eux ou avec leurs professeurs ainsi que pour l'accès aux bases de données on-line. Rappelons qu'historiquement, ce sont les universités et les autres centres de recherches qui, les premiers, utilisèrent Internet. En France, cette démarche initiée plus tardivement tend également à se généraliser. La télémédecine, alliant télécommunication, informatique et médecine, est un enjeu important des prochaines années par son impact sur les soins grâce au télédiagnostic en l'absence de spécialiste et à la téléexpertise. Les technologies de l'information et de la communication sont au coeur des nouvelles pratiques médicales et permettent de développer le suivi à distance des patients restés à domicile dans un soucis de plus de réduction des dépenses de santé. e) Les services de télécommunications Les autoroutes de l'information, grâce à leur potentialité de débit et à leur souplesse d'exploitation, permettront d'offrir des services professionnels très performants. Les liaisons à haut débit ouvriront de nouvelles perspectives pour le travail à distance sur un micro-ordinateur ou une station de travail. La vidéo conférence est une autre application des technologies de l'information qui se met peu à peu en place dans les entreprises. Elle permet d'éliminer les contraintes de temps, de distance et de diminuer considérablement les frais de voyage dans les budgets des sociétés. Son coût reste encore élevé mais les techniques de transmission sont de plus en plus performantes. B. Commerce et autoroutes de l'information. 1. Les tendances. Les organisateurs de la première conférence internationale sur le Commerce Electronique qui vient de se terminer à Austin (TX) avaient comme slogan: "Le commerce électronique sur Internet ou sur les autoroutes de l'Information va changer les institutions commerciales, les opérations, les produits et les services tels qu'il sont connus aujourd'hui; juste comme le téléphone, la télévision, le fax, les messageries électroniques et l'échange de documents électroniques (EDI) changent la façon dont communiquent les consommateurs et les vendeurs". Depuis le printemps dernier, faisant suite aux accords entre Netscape, Mastercard, Visa et des établissements bancaires, la notion de commerce électronique s'est considérablement développée. Les banques et les compagnies de téléphone investissent beaucoup dans ce type de projet. AT&T et MCI, deux des plus grands opérateurs de téléphonie longue distance, prévoient de réserver une part de leur réseau public pour développer, via le réseau des vendeurs de logiciels, des services spéciaux tels que la messagerie ou l'échange électronique de documents, le partage de données et de listings qui permettraient aux utilisateurs d'effectuer des transactions privées et sûres sur Internet. Aujourd'hui plus de 400 banques ont un site sur le Word Wide Web (dont la BNP depuis le mois de novembre 1995). Beaucoup entrevoient ce support comme un moyen de publicité. D'autres, beaucoup plus actives, forment des alliances avec des sociétés d'informatiques impliquées sur Internet (Cybercash, Netscape, First Virtual ou Microsoft), car elles voient l'Internet comme une opportunité de créer des relations profitables et soutenues entre les acheteurs et les vendeurs. Elles sont d'autant plus motivées qu'elles se souviennent de leur précédente expérience qui leur à fait perdre 70% de l'activité du traitement des paiements par carte de crédit, lorsque le traitement électronique a été introduit pour la première fois sur ce marché. Depuis la fin du mois d'août 1995, la NASA dans le cadre du contrat SWEP (Scientific Engineering and Workstation Procurement) est le premier organisme gouvememental à utiliser les transactions à l'aide de carte de crédit sur Internet, pour des quantités et livraisons indéfnies. Auparavant, l'achat par le biais du contrat SWEP prenait 3 jours, aujourd'hui seulement 5 minutes. Le client devait également disposer d'une connexion spécialisée et de logiciels de sécurité spécifiques. Aujourd'hui, il suffit de se connecter sur le site Web de la société (GTSI - Government Technology Services Inc.) qui a mis le système en place pour la NASA (http://www.gtsi.com). 2. Les chiffres. Dés que les problèmes de sécurité seront définitivement réglés, on devrait assister à une explosion des échanges commerciaux sur le Web. Le niveau des transactions n'aurait atteint que 118 millions de dollars entre septembre 94 et août 1995. Les banques estiment que le niveau des transactions commerciales devrait se situer au delà de 10 milliards de dollars avant l'an 2000. Par ailleurs, les responsables d'IndustryNet nous indiquent que les 350 000 acheteurs d'équipements industriels qui utilisent leurs services représentent un potentiel d'achats de 126 milliards de dollars, dont une part non négligeable pourrait prochainement être effectuée on-line. D'après une étude confidentielle récente, 85% des transactions à venir sur le WWW porterait sur des montants inférieurs à $20, dont 65% d'entre elles sur des montants inférieurs à un dollar par opération. Ce qui ne rend pas moins intéressant ce marché, étant donné le très grand nombre d'utilisateurs, pour les organismes (Visa, Mastercard, American Express, les banques,...) qui devront garantir ces paiements. Le nombre de sites de commercialisation s'est accru exponentiellement au cours de cette année. L'annuaire des sites commerciaux, The Open Market Commercial Sites Index (http://www.directory.net) recensait seulement 588 sites commerciaux sur le WWB à la fin du mois de septembre 1994. Il en compte aujourd'hui plus de 16 000 (21% de ces sociétés ont généré des ventes supérieures à $ 10 000 durant les premiers mois). 3. Commercenet. Devant l'importance du potentiel du réseau Internet et de son développement commercial, les Etats-Unis, suite aux déclarations du gouvemement concernant "les autoroutes de l'information", ont mis en place de nombreux projets d'étude dont le consortium Commercenet. Les objectifs ambitieux mais concrets de ce consortium, la vision de développement du commerce électronique sont révélateurs des enjeux de ce médium pour les P.M.E. et des premières utilisations d'Internet dans un but commercial. CommerceNet, organisation à but non lucratrif a été créée le 24 novembre 1994 par les entreprises BBN BARRRNET, EIT et la Stanford University's Center for Information Technology sous l'égide du programme gouvememental Technology Reinvestment Project: TRP (créé par CLINTON). Ce progamme TRP est sponsorisé par les agences américaines suivantes: ARPA, NIST, NSF, DOE, NASA. Un consortium a été créé, constitué des plus importantes sociétés informatiques de la Silicon Valley. Cette association, qui compte aujourd'hui 70 membres, n'est en principe ouverte qu'aux entreprises américaines. On y retrouve toutes les grandes entreprises informatique américaines, les grandes banques et les agences gouvernementales intéressées par le commerce électronique. a) ses objectifs: - Faciliter l'utilisation d'une infrastructure Internet pour le commerce électronique, - Permettre une interaction efficace entre clients, fournisseurs, et prestataires de service, - Réduire de 80% le cycle d'approvisionnement, de 50% le cycle de développement et réduire les coûts d'achats grâce à une meilleure visibilité de l'offre concurrente. b) sa méthodologie: - Maintenir un serveur Web comme plate-forme ouverte de communication business to business, - Mettre en place de projets pilote sur des points clés, notamment: la sécurité des transactions, les services de paiement, le catalogue électronique, l'EDI via Internet, les échanges de données entre conception et production, - Mettre en avant les services Internet existants et stimuler le développement de nouveaux services, - Encourager le travail en commun de PME et de grandes entreprises. La dernière réunion du groupe de travail du G7 sur les PME/PMI et les autoroutes de l'information (voir partie: Politique et autoroutes de l'information - Implications pour les PME) qui s'est tenue dans la Silicon Valley (San Jose, CA) en septembre 95, a permis à ce consortium de prendre une large part dans les débats et les orientations à proposer en matière de commerce électronique mondial. Pour répondre, d'une certaine façon, à l'initiative américaine, a été créé au début de mois de novembre 1995, un consortium européen sur le Word Wide Web. Ce consortium travaillera avec le consortium américain, afin de développer notamment les perpectives en matière de commerce électronique. Vingt groupes européens (dont Nokia, Siemens, British Telecoms, France Télécoms, AGF, EDF, Bull, Aerospatiale, Thomson CSF, Alcatel Alsthom, Michelin,...) sont représentés au sein de cette organisation, dont le siège est à l'INRIA en France. C. Internet et petites entreprises aux USA. 1. Equipement informatique des petites entreprises. Une étude de BIS Stratégic sur les équipements technologiques des petites entreprises (1200 entreprises de moins 600 personnes), parue en janvier 1995, donne les résultats suivants: FIGURE PAGE 61 On note que 12% utilisent déjà les services on-line et 8% prévoient de le faire. C'est à dire, très rapidement, une entreprise sur cinq va utiliser les services on-line. 2. Equipement en technologie réseaux locaux. Aujourd'hui les entreprises de moins de 100 employés, et entre $5 et $99 millions de chiffre d'affaires, représentent le segment de marché qui possède la plus grande croissance de l'industrie de réseau informatique. Les études montrent que 82% possèdent des ordinateurs, et que 40% ont déjà mis en place un réseau interne. Une étude du Gartner Group prévoit un taux d'équipement en réseaux de 60% en 1996. D'après une étude menée par IBM et Coopers & Lybrand, les entreprises utilisant ces technologies croissent en moyenne de 27,8%. Leur revenu par employé est 2,5 fois plus élevé que celui des entreprises n'utilisant pas ces technologies. Les petites entreprises ont compris que dans un environnement très compétitif la maîtrise des technologies de l'information est vitale. D'après une étude de Novell (No 1 mondial des réseaux locaux de PC), la mise en réseau des informations contenues sous formes numériques est entrainée par trois facteurs: - la recherche de gain de productivité et la réduction des coûts, - les exigences des clients qui imposent ces possibilités de communication, - le retrait d'avantages des réseaux d'informations globaux. Si le premier facteur est une décision interne, les deux autres facteurs sont directement une pression de l'environnement extérieur. Les entreprises seront contraintes de suivre cette évolution. 3. Utilisation des technologies de l'information. Une étude menée par une société de marketing (National Pen Inc) auprès de sa clientèle donne des résultats plus qualitatifs et plus précis sur Internet. L'échantillon semble représentatif, puisque 72% utilise un ordinateur et 33% un modem. Ces chiffres ne diffèrent pas de l'étude de BIS Strategic ci-dessus. FIGURE PAGE 62 Sur les 1000 réponses reçues par BIS Strategic, 572 réponses jugées représentatives ont été retenues, et ont donné les résultats suivants: - 41% des personnes interrogées sont conscientes de l'intérêt qu'offre Internet, spécifiquement pour les petites entreprises. D'ailleurs, elles sont plus nombreuses que les 33% qui déclarent utiliser un modem (outil pourtant indispensable pour se connecter). Toutes semblent informées (99% de réponses) et une petite moitié se déclare déjà convaincue. Le résultat le plus étonnant est le suivant: plus d'une entreprise sur cinq est sûre des potentialités marketing des services on-line pour son entreprise (2% les jugent excellentes), et pense faire de la publicité sur Internet. Mais à ces deux dernières questions très précises, plus de la moitié des entreprises ne répondent pas. Cela peut signifier qu'elles n'ont pas encore pris leur décision par manque d'information. Ces chiffres montrent la progression très rapide possible des entreprises utilisant ces technologies (plus de 70% peuvent potentiellement répondre favorablement à une offie particulière). 4. Conclusion. Internet, réseau mondial et standardisé devrait devenir le moyen de communication principal entre les différents sites d'une même entreprise et entre clients et fournisseurs. L'exemple de ce cabinet d'architecte de 20 personnes qui travaille pour une dizaine de gros clients (chaine de restauration comme Mac Donald) est révélateur. C'est le cas typique d'une petite entreprise sous-traitante, où 20% des clients représentent 80% des revenues. Sa capacité de communication en temps réel par E. Mail et l'utilisation du logiciel "Notes" (demandé par le client) lui permet, d'après un des responsables, de garder son plus gros client malgré un coût de prestation jugé trop cher par ses clients. Il s'agit donc bien d'un outil stratégique. La connexion informatique des différents sites de l'entreprise permet de partager, de façon pratiquement transparente et facilement, la réalisation des projets entre les deux sites de production. Il s'agit également d'un outil d'organisation interne. L'E. Mail a remplacé 5 à 7 envois par jour (courriers et plans) par Fed-Ex. Le coût unitaire passant en moyenne de $20 à $1, l'économie réalisée est d'environ $2000/mois. L'E. Mail est aussi un outil de productivité. Bien qu'aujourd'hui le responsable de cette entreprise estime être l'un des seuls à utiliser ces technologies dans sa profession d'architecte, il prévoit une généralisation d'ici deux ans. Nos différents entretiens ont tous confirmé l'importance d'Internet et des services on-line pour les PME. M. Dumas, Directeur du software de Zenith Data Systems (groupe BULL), partage ce sentiment principalement fondé sur sa connaissance du marché américain, sur les retours surprenants en terme de marketing et de communication suite à la mise en place du "serveur Web Zenith Data Systems" et sur sa participation au consortium CommerceNet. Des changements importants et rapides s'opèrent actuellement aux Etats-Unis. Ces technologies deviennent de manière définitive et inéluctable des outils de productivité accessibles à tous. Les entreprises et notamment les PME internationales devraient utiliser de manière plus importante Internet pour les raisons suivantes: - La messagerie électronique, qui permet de joindre facilement tous ses contacts dans le monde entier en s'affranchissant des problèmes de décalage horaire, réduit fortement les coûts de téléphones internationaux. - Les relations avec les clients et les fournisseurs sont accélérées et cela permet de gagner des contrats lorsque les délais comptent. - La mise en place d'un réseau informatique international utilisé pour animer le réseau de distribution (business-to- business) est rendue possible à un coût abordable. Le Web se révèle un standard compris par toutes les machines et tous les systèmes d'exploitation. D. Les pratiques commerciales liées aux nouveaux supports. 1. L'impact de l'EDI (Electronic data Interchange) sur la vie des entreprises. a) definition et avantages. Les évolutions structurelles auxquelles l'entreprise de demain devra faire face montrent que l'ensemble des secteurs se transforment tant dans leurs structures que dans leur stratégie. Une des stratégies gagnantes consiste à mettre en réseau informatisé des activités que les entreprises avaient traditionnellement pour habitude de traiter manuellement (commandes, recherche et développement). L'Echange de Données Informatisé (EDI) permet non seulement un dialogue direct avec les partenaires commerciaux, mais c'est aussi l'occasion de repenser ses relations avec ses fournisseurs et ses clients et d'améliorer sa propre organisation. Il consiste en un échange (normalisé) de données (sous forme de messages) entre deux entités juridiques distinctes et effectué au moyen d'une communication électronique de bout en bout. Son principal intérêt: le remplacement des circuits "papier" par des transmissions de données informatiques. Les principaux avantages de l'EDI sont: - la réduction des coûts administratifs: traitement automatique, élimination des erreurs, - l'augmentation de la productivité, - l'amélioration de la qualité de service, des délais de paiement, de la notation des stocks et de la gestion de la trésorerie, - l'amélioration du service client. L'EDI progresse à grand pas avec, en France, 63 millions de messages échangés en 1994 contre 18 millions en 1991. Selon une étude réalisée par Intégration Marketing, en collaboration avec Edifrance, des utilisateurs toujours plus nombreux envoient des messages de plus en plus volumineux (109 gigaoctets ont transité par EDI en 1994, au lieu de 23 gigaoctets en 1991). Dans l'assurance, le commerce, et la grande distribution, l'EDI est en phase de banalisation. L'automobile et le transport sont déjà fortement impliqués. En revanche, des secteurs comme l'industrie pharmaceutique et la santé démarrent seulement. La mise en place d'un tel système doit s'inscrire dans une réflexion globale sur les performances de l'entreprise. Cette mutation technologique a également des conséquences organisationnelles et structurelles en interne. En effet, l'informatisation des échanges doit s'accompagner d'une remise en cause d'une partie du fonctionnement de l'entreprise. b) adapter son organisation interne. Avant d'automatiser les échanges de données avec ses clients, il vaudra mieux commencer par une analyse de ses propres procédures de traitement. La mise en place d'un tel système implique bien souvent une remise à plat des flux d'information à l'intérieur de l'entreprise. Grâce aux messages EDI, les prises de commandes (par les filiales étrangères ou les clients) alimentent directement l'outil informatique qui calcule l'ordonnancement de la fabrication. Cette simplification permettra de supprimer les tâches ou au moins de les faire évoluer. En effet, seules les exceptions comme les commandes posant un problème particulier devront être traitées par un opérateur. La transition vers un traitement des données informatisées doit se faire en douceur. Il est nécessaire de fiabiliser toutes les données à la source, de façon à générer le moins d'erreurs possibles une fois que les informations sont transmises sur les réseaux internes et externes des entreprises. La mise en place de l'EDI dans les PME françaises favorise le développement des télé-services et implique également une évolution de la nature des tâches à exécuter: aujourd'hui, c'est désormais au "télé vendeur" de valider le contenu des messages (quantités, références...) avant qu'ils ne soient transmis au système de gestion commerciale. Si les contraintes liées à l'EDI commencent par des changements dans le fonctionnement de l'entreprise, à plus long terme, elles ont un effet bénéfique d'homogénéisation au sens où le traitement des informations s'exécutera toujours de la même manière. c) L'EDI implique une modification des relations avec ses clients. Lorsqu'il s'agit d'établir des liens EDI avec le maximum de clients, la standardisation est un impératif. Celle-ci doit s'opérer avec une coopération active entre partenaires. La mise en place de l'EDI suppose une relation non seulement forte mais de confiance entre le client et le fournisseur. La normalisation permet de standardiser la structure des messages mais, si l'on veut vraiment effectuer des échanges et des traitements automatiques, le contenu doit lui aussi être très soigneusement codifié. Une des conséquences essentielles du renforcement des liens entre le fournisseur et ses clients est l'existence d'un retour d'informations vers le client. Ainsi, chez FujiFilm, qui livre ses produits aux photographes indépendants, magasins spécialisés et grandes surfaces, la mise en place de l'EDI avec les transporteurs a débouché sur la création d'une nouvelle fonction d'assistance à la clientèle. L'échange de données informatisé sort quelque peu du cadre de l'étude, mais il nous est apparu essentiel d'en dégager les principaux éléments dans la mesure ou la demande est de plus en plus croissante notamment de la part des PME. Aux Etats-Unis, l'étude du marché de l'EDI indique que le système est présent en 1995 dans 100 000 entreprises et que d'ici à l'an 2000, c'est environ 300 000 entreprises qui profiteront de ce système. d) Caractéristiques o L'EDI s'est implanté aux Etats-Unis dans les années 1970 avec le standard ANSI X 12 (American National Standards Institute). o L'EDI correspond à l'implantation d'échanges sur la base d'une norme sectorielle. Les messages EDI sont donc transmis selon des normes différentes dont les principales sont: - Automobile: ODETTE en Europe et AIAG aux USA - Distribution: EAN et GENCOD, - Transport aérien: IATA (pour le frêt) / AMADEUS (pour les passagers), - Industrie aéronautique: SPEC 2000 (civil)/ SPEC 2000 M (militaire), - EDIFACT: Standard international élaboré par les Nations Unies et qui correspond à l'ensemble des messages couvrant toutes les fonctions du circuit commercial et de la chaîne transport/logistique. C'est une norme investie d'une autorité internationale et destinée à devenir universelle vis-à-vis des utilisateurs. Voir page suivante: La chaîne de l'EDI FIGURE PAGE 67 2. Recherche d'informations. a) Internet: outil d'intelligence économique ? (1) Recherche d'informations: l'utilisation d'Internet Quelles sont les informations disponibles sur ce réseau, et comment les trouver ? Il ne suffit pas que de nombreuses informations soient disponibles par ces services pour qu'une utilisation commerciale soit possible. Il faut que ces informations soient "accessibles". Ceci signifie facilité de recherche, coût acceptable, délai rapide. (a) Les outils de recherche: méthodologie. Les deux outils de recherche les plus utilisés et les plus plébiscités sont Yahoo (http:/www.yahoo.com) et Lycos (http://www.lycos.edu). Ces deux serveurs indiquent, de plus, la référence d'autres outils de recherche complémentaires (il est important de toujours essayer au moins deux outils de recherche car aucun n'est exhaustif). Il existe deux types différents de serveurs de recherche: - Répertoires (ex: Yahoo): ils répertorient et classent tous les serveurs selon une hiérarchie propre, - Base de donnés (Lycos): Ils enregistrent et qualifient par un certain nombre de mots clés les serveurs Web. Il est ainsi possible de faire une recherche sur ces mots clés. (i) La méthodologie Yahoo. Elle représente l'avantage de donner la possibilité de chercher l'information soit par mots clés sur toute la base, soit en regardant ce que contient chaque répertoire et sous-répertoire. La recherche par mots clés est moins puissante car la base est beaucoup moins importante qu'un outil comme Lycos. La classification "répertoire" permet de retrouver l'information de manière très intuitive. De plus, l'information est référencée à de nombreux endroits différents. Ceci est parfait pour une recherche d'informations sur un domaine spécifique (mais seul le titre du serveur est indiqué, ce qui est parfois insuffisant pour comprendre l'intérêt réel du serveur). (ii) Le serveur Lycos. Il contient une base beaucoup plus importante, qui s'enrichit automatiquement puisque les utilisateurs sont invités à enregistrer eux mêmes leurs serveurs en donnant non seulement le titre et l'adresse mais aussi un explicatif résumé du serveur. Les utilisateurs peuvent enregistrer séparément les différentes parties de leurs serveurs. Ceci présente deux avantages; le résultat de la recherche est plus parlant et il permet d'accéder directement à la bonne page d'un serveur (ceci fait gagner beaucoup de temps !). (iii) Cout. Pour l'instant l'accès à ces outils de recherche est gratuit, et devrait le rester encore un certain temps. Ce travail de recensement et de répertoriation étant de plus en plus lourd, il n'est pas impossible à terme que l'usage de ces services soit payant. Certaines de ces sociétés proposent leur serveur uniquement aux abonnés, d'autres ont vendues des licences d'utilisations non exclusives à des sociétés comme Microsoft ou Netscape, et enfin ces serveurs étant les plus visités elles vendent de l'espace publicitaire. (iv) Délai. La puissance de ces outils constitue leur limite même. En effet, à toute requête, ces outils vont donner des pistes de réponses qu'il faudra alors systématiquement épuiser pour trouver éventuellement l'information recherchée. La recherche peut ainsi durer plusieurs heures. Internet ne fournit pas de devis. Il est difficile de prévoir la durée et d'estimer les chances de succès d'une recherche. Un grand nombre de serveurs contiennent simplement des liens vers d'autres serveurs, il y a ainsi un risque réel de tourner autour de l'information sans jamais l'atteindre vraiment. Pour utiliser de manière plus productive ces outils, il est indispensable avant toute recherche d'analyser quels types d'organismes pourraient mettre à disposition une telle information. La recherche des sources d'information doit toujours précéder la recherche de l'information proprement dite, même si ces recherches se font avec les mêmes outils (et c'est là une des forces de ces outils). Il est donc intéressant de comprendre quels sont les différents organismes présents sur Internet et quelles types d'informations ces organismes diffusent. (b) Qui et que trouve-t-on sur le Web ? Tous les acteurs économiques. Il est en effet assez étonnant de constater la formidable diversité des informations accessibles via le Web. On y trouve notamment tous les différents acteurs économiques listés ci-après. (i) Agences fédérales, gouvernementales. Des administrations de toutes sortes sont présentes sur ce média qui leur permet d'ofir a un coût maîtrisé une bonne information générale sur leurs services. Le serveur Fedworld28 (http://www.Fedworld.gov) classe par thème et alphabétiquement tous les serveurs des agences américaines. Les serveurs du US Department of Commerce (http://www.doc.gov) et du Census, l'agence de statistiques américaine (http://www.census.gov) donnent accès à de nombreuses informations économiques, des études de marchés (tous secteurs, tous pays), des statistiques (import/export), ainsi que des informations sur leur fonctionnement et leurs programmes. 28 Voir annexe 9: Quelques adresses utiles sur le Word Wide Web (ii) Les associations professionnelles. Le Web remplit parfaitement la vocation des associations professionnelles: communication entre les membres, représentativité, visibilité, promotion ". Cela va leur permettre d'informer non seulement leurs membres mais aussi ceux que l'association ne connaît pas, 24h/24, sans nécessité de payer une infrastructure de permanence coûteuse. La liste des membres avec le nom d'un contact, les détails sur l'activité de l'entreprise peut être accessible on-line. Il est alors possible de faire une recherche de partenaires parmi ces membres sur un produit, une localisation,... Beaucoup d'associations professionnelles ont déjà leur serveur et pas seulement dans le domaine de l'informatique (ex: Chicago Chambre of Commerce, Association des Fabricants de Pneus, Instrument Society of America sur IndustryNet, Food Processing Machinery & Suppliers Associations,...). Lorsque toutes les grandes associations professionnelles seront présentes sur le Web, toute recherche de partenaires sur les Etats-Unis devra commencer sur ce support. Une recherche via les outils (type Yahoo, Lycos), décrite ci- dessus, permettra d'identifier rapidement les associations professionnelles d'un secteur, puis en consultant leur serveur, vous pourrez connaître certaines tendances du marché, constituer une liste de partenaires potentiels et communiquer directement par E. Mail. (iii) Entreprises secondaires. Les entreprises qui vont utiliser le Web, notamment pour le marketing, pourront donner de plus en plus d'informations sur leur entreprise, leurs produits, leurs marchés. On trouve par exemple sur le serveur de Novell (No. 1 mondial des réseaux de PC) la synthèse d'études de marché sur les réseaux, et notamment sur l'utilisation des réseaux par les moyennes entreprises (cible principale de Novell). Ces informations doivent systématiquement être utilisées par les entreprises pour comprendre les évolutions d'un marché, suivre ses concurrents (surtout internationaux), connaître les nouveaux produits... Il n'existe pas réellement d'informations supplémentaires sur le Web par rapport à d'autres médias (presse, salons) mais l'information y est beaucoup plus accessible et est disponible en continu. (iv) Les entreprises de service. Les entreprises de services utilisent déjà fortement le Web pour leur marketing, Elles peuvent facilement mettre en avant leur savoir-faire en diffusant à tous une première information sur leurs expertises. Elles font ainsi la promotion de leurs connaissances et peuvent se présenter comme spécialiste. Cette première information gratuite peut être, dans un premier temps, suffisante. Certaines entreprises utiliseront cette technologie comme canal de distribution et de ventes de leurs services (par exemple un réseau juridique international répondant aux questions de droit international par E. Mail, un service de traduction implanté directement dans le pays étranger,...). (v) Les vendeurs d'informations: les sources habituelles. Les sociétés dont le métier principal est de vendre de l'information ne peuvent plus négliger ce support. On peut citer les répertoires d'entreprises comme Thomas Register (http://www.register.com), Hoover's (http://www.hoovers.com), les renseignements financiers comme Dun&Bradstreet (http://www.dbisna.com), les journaux économiques et financiers comme le Wall Street Journal (http://update.wsj.com). Les informations contenues sont moins complètes que lorsque l'on s'adresse directement à ces organismes, mais elles sont gratuites. D'ailleurs le numéro DUNS (propriété de D&B), seul numéro d'identification des entreprises couvrant un très gand nombre de pays, officiellement reconnu par les USA et l'ONU, vient d'être aussi officiellement reconnu par l'Union Européenne. Ainsi une base de données économiques et financières sera homogène et accessible via Internet au niveau mondial. La protection des impayés et les recherches de partenaires au niveau international seront facilitées et accessibles par tous. D'ici six mois, tous ces grands vendeurs d'informations économiques seront présents et commenceront à vendre leurs informations sur le Web. Ils ont compris qu'ils devaient être présents sur tous les supports et que le choix du support revenait de plus en plus au client, en fonction de ses besoins. (vi) La presse professionnelle. La presse professionnelle et gand public du secteur informatique est déjà très présente. Les secteurs industriels ne sont pas encore tous représentés mais cela devrait évoluer très rapidement. (vii) Les serveurs "thématiques", salons permanents. Si les entreprises se servent de ce média pour leur promotion, la visibilité (règle classique du marketing) apparaît comme déterminante. Aussi il faudra être présent sur un certain nombre de serveur "référence" dans chaque domaine. Ainsi en regroupant de façon continue l'information d'un même domaine, ces serveurs deviennent une source d'information privilégiée agissant comme une salon permanent. Ceci est parfaitement illustré par le serveur IndustryNet, qui permet gratuitement en tant qu'utilisateur d'avoir des informations générales sur 3 500 entreprises, de consulter les annonces des nouveaux produits, nouveaux procédés, de connaître (et de s'y inscrire) l'ensemble des salons professionnels, séminaires, conférences classés par thème et par région, de savoir quelles entreprises exposaient telle technologie dans quels salons. Il est aussi possible d'acheter du matériel, des machines d'occasion, et de participer à des groupes de discussion sur des secteurs précis. Le Poste de Chicago utilise de manière systématique cette source d'information (cf. annexe 7). (viii) Les universités et les laboratoires de recherche. Les universités américaines qui utilisent depuis 20 ans Internet ont aujourd'hui des ressources électroniques considérables et la majorité sont mises à disposition du public. Les entreprises peuvent y trouver des ressources très intéressantes, notamment des informations statistiques ou économiques. L'université du Michigan (http://www.uchm.edu/ ) propose, par exemple, les tendances de la R&D dans divers secteurs. Elles peuvent aussi les utiliser pour faire de la veille technologique, du transfert de technologie, ou pour le recrutement d'étudiants spécialisés dans un domaine. (c) Conclusion. o C'est la présence de l'ensemble des acteurs professionnels (entreprises, banques, administration, presse, universités,...) au niveau américain et bientôt mondial sur un même support qui donne à Internet ce rôle de support universel des échanges commerciaux mais aussi sociaux et culturels. Ce potentiel sera pleinement affirmé quand chaque type d'acteurs sera représenté de manière exhaustive dans chaque secteur (toutes les administrations, toutes les entreprises d'un secteur donné, ".). o De plus en plus, les sources d'information habituelles utilisées par les entreprises seront disponibles on-line. De même que les entreprises connaissent la presse spécialisée de leurs secteurs et d'autres sources d'information, elles devront maîtriser celles on-line qui peuvent les concerner. Aujourd'hui, ces sources sont encore marginales par rapport aux médias plus traditionnels (presse spécialisée, salons professionnels, association professionnelle...), et nécessite qu'on les recherche spécifiquement. Mais au fur et à mesure de la professionnalisation de ces nouvelles sources, le marché les obligera à se faire connaitre sur les médias traditionnels (c'est le cas du serveur IndustryNet actif sur support papier, présent sur les grands salons industriels) pour que les entreprises ainsi informées viennent naturellement sur les services on-line. o Trois clés apparaissent pour la validité de ce support comme outil d'information professionnelle. - Les outils de recherche, qui bien que déjà très puissants et très faciles à utiliser, doivent encore apporter plus de souplesse pour être utilisables par le plus grand nombre et éviter les pertes de temps. "Les agents intelligents", programmes personnalisés qui scrutent continuellement les réseaux et qui vous rapatrient systématiquement toutes les informations qui sont susceptibles de vous intéresser, sont peut-être la réponse... (de nombreux laboratoires et entreprises travaillent dessus). Cette technologie très prometteuse semble pourtant, d'après de nombreux spécialistes, encore très incertaine. En effet il est encore très difficile d'imaginer comment un processus automatique peut qualifier une information et juger de son intérêt, - Les serveurs spécialisés qui apporteront "un ordre" dans cette information en réunissant l'information sur un serveur donné, tel le serveur IndustryNet, - La possibilité de rémunérer son serveur d'information soit par la publicité soit par la vente d'informations. Ceci est lié aux travaux sur la sécurité, les signatures électroniques et la définition d'un processus de paiement. Plus le serveur gagnera d'argent, plus riche sera le contenu, et plus agressif sera son marketing, donc son impact sur les utilisateurs potentiels. 3. Diffusion d'informations. a) Exemple: le serveur INDUSTRYNET Ce serveur est un exemple très concret de l'utilisation et du potentiel des nouvelles technologies de l'information dans l'établissement des relations commerciales d'une entreprise. Il est un des seuls aujourd'hui qui mérite vraiment le nom de site commercial (cf. annexe 8: les meilleurs sites Web pour le commerce on-line). (1) Descriptif du service on-line. Faire rencontrer l'offre et la demande dans l'industrie américaine: 3 500 industriels annonceurs, 350 000 utilisateurs représentant un pouvoir d'achat annuel de produits et de services de $126 milliards. Au cours du mois de janvier 1995, il y a eu 60 000 visiteurs sur ce serveur, ce qui représente 800 000 demandes d'informations. Le taux de croissance de ce nombre de visites est de 20% par mois. Les responsables prévoient 1 million d'utilisateurs en 1996. Des noms comme 3M, Elli Lilly, Allen Bradley, Deere&Co, IBM, Square D, ATT, Andersen Consulting mais aussi des petites entreprises (moins de 500 employés) qui représentent 75% de l'offre. Des associations professionnelles (IEEE, ISA, IDA...) sont également présentes. Ce qui montre le caractère attractif de ce serveur. (2) Stratégie. IndustryNet regroupe quatre médias complémentaires: - le service on-line accessible via Internet ou en direct via modem, - un répertoire d'entreprises qui achètent, par région, présenté sur disquette (The Locator) - un hebdomadaire spécialisé, par région, diffusé systématiquement à toutes les industries (IndustryNet Report) - l'organisation de séminaires techniques régionaux. Le répertoire disquette permet d'avoir très rapidement une liste d'entreprises par produits ou type de produits et des informations détaillées sur les entreprises. Le média papier permet de faire de la publicité "classique" et d'apporter ainsi l'information au devant du client. Les séminaires permettent à IndustryNet d'affirmer le sérieux technique de la société et d'attirer de nouveaux clients. Le service on-line permet d'avoir des informations à jour (mise à jour gratuite et encouragée), une possibilité de recherche par mots clés, un guide d'achat national (prévu avant la fin de l'année) et bien entendue une interactivité qui permet cette rencontre de l'offre et de la demande. Enfin, l'annonceur présent dans IndustryNet reçoit sans surcoût un rapport complet tous les trois mois sur les demandes et les consultations faites on-line et mentionnant le type et les coordonnées du visiteur (en effet le système permet à l'opérateur IndustryNet de connaître qui consulte quoi). Ceci, bien utilisé, peut constituer une étude de marché précise, continue et gratuite. Il est alors très facile à une entreprise de mesurer l'efficacité d'un lancement de nouveaux produits, d'une nouvelle campagne de publicité, d'un nouveau positionnement. Ceci ne peut être fourni par aucun autre média. La stratégie d'IndustryNet réside dans la complémentarité de cette offre globale (service intégré - one stop shop) très adaptée au milieu industriel. Elle permet à IndustryNet d'être très proche de ses clients et donc de répondre exactement à leurs besoins. La valeur ajoutée qu'apporte cette société est sa notoriété auprès de sa cible: l'industrie, qu'elle entretient grâce à un marketing très poussé. En effet, le support papier permet une publicité systématique auprès de l'industrie. De plus IndustryNet est présent physiquement (stand) dans tous les grands salons industriels, Manufacturing Week, Quality Expo, Promat, ID Expo, Autofact,...). En moins de deux ans, 16 bureaux ont été ouverts permettant à la société de couvrir l'ensemble des Etats-Unis. (3) Nouveaux services. IndustryNet veut devenir un média incontournable pour l'industrie américaine (#1 Industry MarketPlace). Elle propose désormais un package pour introduire un nouveau produit ou service sur tous les Etats-Unis: le référencement dans le "National et Regional Buyers Guide"; la création de la plaquette écran; la promotion sur le service on-line et sur la revue papier; un micro-ordinateur compatible IBM livré et une connexion Internet. Coût: $22,000. De plus, grâce à l'analyse systématique faite par le serveur des demandes d'informations des utilisateurs, IndustryNet, en compilant ces informations, peut être capable ou sera capable de produire des statistiques et des tendances du marché assez précises et sans délai. Ce potentiel n'est pas encore réellement exploité. Ce service étude de marché pourra faire partie du package pour les clients ou faire l'objet d'une promotion particulière. (4) Evolution. - Transactionnel: Pour l'instant, le service ne permet pas de réaliser de transactions, c'est à dire de procédures d'achat on-line. Ceci n'est pas, aujourd'hui, le besoin prioritaire des utilisateurs professionnels industriels qui souhaitent, avant tout, des outils de recherche d'informations précises, ciblées et fiables et des outils marketing interactif. Néanmoins IndustryNet prévoit d'intégrer cette possibilité dès que le problème sur la sécurité des transactions on-line sera réglé. - Multimédia: Les évolutions multimédia possibles d'Internet, grâce notamment à Ia technologie Mbone, sont suivies de près et seront intégrées dès que possible. Il sera alors possible d'insérer des vidéos de démonstration de produits ou de la vidéoconférence. - Internationalisation: Cette évolution qui est voulue très rapidement sur les marchés du Canada, de l'Europe et du Japon donnera une dimension supplémentaire à ce serveur. D'une part les mêmes possibilités seront offertes aux industries dans chaque pays, chaque zone où IndustryNet sera implanté, d'autre part les mêmes informations sur les industries présentes dans l'Ain, dans le nord de l'Illinois ou au Japon seront accessibles de n'importe quel point du monde. On voit arriver un outil renforçant réellement la globalisation des marchés. b) Les utilisations du marketing on-line. Une étude menée pendant les six premiers mois de l'année 1995 sur 1600 sites on-line commerciales permet, pour la première fois, une analyse qualitative et quantitative des débuts du marketing on-line. La synthèse des résultats met en avant les points suivants: o la nouveauté de ces services: 36% seulement des sites ont plus de six mois en juin 95, o l'apparition et la standardisation de nouvelles techniques de marketing propres au support on-line, o la viabilité du Web parmi les outils on-line (Email, FTP, Gopher, services on-line privés) comme outil marketing: 98% des entreprises l'utilisent, o la rentabilité financière possible de ces services: 22% sont rentables dès la première année; 40% des entreprises estiment qu'ils le seront d'ici un à deux ans; seules 5% des entreprises sont totalement déçues. o l'intérêt naissant pour le commerce électronique: 21% ont généré des ventes mensuelles, via le Web, supérieures à $ 10 000; 2%, supérieures à $ 100 000; 1%, supérieures à $ 1 million (27% des entreprises sondées considèrent qu'Internet est devenu vital pour elles, et 20% n'existerait pas sans ce support). o l'utilisation uniforme de ces technologies par des entreprises de toutes tailles. Bien qu'Internet soit un outil marketing très récent, plus de 37% des entreprises sondées pensent qu'elles auront de plus en plus recours à Internet même si elles peuvent continuer de s'en passer. Les entreprises poursuivent plusieurs buts par cette présence on-line. Elles recherchent à la fois une communication passive vers le client (image de marque, catalogue produits) et à la fois un retour très concret de leurs investissements (génération de "sales lead", de commandes, amélioration du service clientèle). (1) But recherche par une présence on-line suivant la taille de la société. Les buts d'une présence on-line semblent être équivalents pour les entreprises quelque soit leur taille (sauf pour la communication interne et la communication avec le réseau de distribution qui mobilisent environ 70% des grandes entreprises contre seulement 40% des petites entreprises). Les grandes entreprises sont pratiquement unanimes (94%) sur l'intérêt d'une présence on-line pour leur image de marque. Les petites entreprises privilégient plutôt la génération de "sales leads" plus proche de l'acte de vente proprement dit. Le tableau ci-dessous représente les différentes utilisations des services on-line selon la taille des sociétés. Utilisation 1-10 10-100 >100 employés employés employés Générer des "sales leads" 85% 83% 7l% Donner des informations sur les prix/produits 79% 76% 74% Communiquer son image de marque 70% 74% 94% Générer des commandes 76% 55% 58% Améliorer le service au client 66% 64% 74% Améliorer la communication avec les 40% 31% 71% agents commerciaux / distributeurs Améliorer la communication interne 34% 38% 68% Distribuer des produits via réseau électronique 39% 3l% 45% (Source: PEE Chicago, d'après Activmedia Inc) (2) Utilisation actuelle de l'E. Mail suivant la taille de la société. Les entreprises traduisent assez fidèlement ces buts dans leur utilisation réelle d'outils de base comme l'E. Mail. On constate néanmoins logiquement un petit décalage entre l'utilisation et les buts recherchés, certaines entreprises ne considérant plus comme un but ce qu'elles pratiquent déjà. Utilisation 1-10 10-100 >100 employés employés employés Améliorer le service au client 75% 70% 74% Donner des Informations sur les prix/produits 72% 65% 68% Générer des "sales leads" 70% 75% 58% Communiquer son image de marque 66% 73% 68% Améliorer communication interne 49% 70% 87% Générer des commandes 67% 53% 42% Améliorer la communication avec les 50% 45% 81% agents commerciaux / distributeurs Distribuer des produits via réseau électronique 34% 33% 39% (Source: PEE Chicago, d'après Activmedia Inc) (3) Les nouvelles techniques marketing. La comparaison des pratiques entre les sites rentables (sont exclus de cette analyse les sites des entreprises qui ont déclarées ne pas avoir rentabilisé leur investissement dans la création d'un tel outil) permet de valider un certain nombre de nouvelles techniques marketing. Voici les plus importantes: o Développer une bonne connaissance de ce nouveau support: une présence on-line réussie nécessite de la part de l'entreprise, une bonne compréhension de ce nouveau média et donc une utilisation régulière. 33% des responsables des sites rentables utilisent régulièrement Internet. MANQUE DANS LE DOCUMENT PAPIER LA PAGE 77 d'un tel serveur par des professionnels, seuls les responsables de l'entreprise connaissent leurs produits, leurs marchés, et les attentes de leurs clients. o Oublier d'apporter une valeur ajoutée visible. La démarche de consultation de votre site doit être récompensée par l'obtention d'informations rapides, précises, économiques, sinon il n'y a pas de raison majeure pour que les utilisateurs préfèrent ce nouveau média aux supports traditionnels (téléphone, fax, salons, courriers,...) o Le manque de "culture technologique". On ne peut espérer un retour sur investissement sans une bonne coordination de ces nouveaux outils avec l'ensemble des procédures classiques. Cela exige, même si l'utilisation de ces outils demeure très simple, que l'ensemble du personnel appelé à utiliser ces technologies ait une culture infrmatique minimum sans être forcement informaticien (voir partie III: Méthodologie d'utilisation) o Confondre technologie et marketing. La technologie n'est pas une fin un soi. Bien que ces nouveaux médias engendrent la pratique de nouvelles techniques marketing, les règles de base du marketing doivent toujours être respectée. Et malheureusement l'utilisation de ces technologies ne change pas l'adaptation de vos produits au marché et ne remplace pas une stratégie bien définie. o Sous-estimer les coûts induits. La consultation du Web en interne exige l'achat de modems et d'ordinateurs puissants. Un serveur doit être mise à jour régulièrement (au moins deux fois par mois). Si Internet est utilisé par exemple pour améliorer le service au client, le temps de réponse global de l'entreprise doit être en accord avec ce que sous entend ces outils. Il est cohérent de répondre dans la joumée à tout E. Mail. Si l'entreprise en reçoit une centaine par jour, cela doit être inclus notamment dans la charge de travail du personnel. o Rendre le processus d'achat trop facile et trop rapide. Le processus d'achat on-line est encore à découvrir. Trop d'informations risquent de décourager le client. A l'inverse, une procédure d'achat trop rapide (sans phase d'argumentation, de conseils, de mise en garde) risque d'entrainer un taux de retour élevé. L'objectif n'est pas d'obtenir uniquement des commandes, mais d'être payé et de satisfaire son client pour le fidéliser. o Une certaine culture "du gratuit". Certains serveurs ont, dans un premier temps, négligé cette non-habitude des utilisateurs on-line à payer les infotmations accessibles via ce support; ils en ont fait les frais. Mais il s'avère surtout que les utilisateurs Internet sont beaucoup plus exigeants. Des études ont montré que 80oo des utilisateurs étaient prêts à payer si la qualité et le prix étaient intéressants. Il ne suffit donc pas de mettre à disposition un service et le rendre payant, il faut en démontrer la qualité et l'intérêt. 4. Qui utilise le World Wide Web ? Pourquoi ? Devant l'importance du développement de l'utilisation du World Wide Web, différents organismes aux Etats-Unis ont, dès 1994, effectué des études très précises sur les utilisations de ce nouveau média et les nouvelles habitudes de consommation qui peuvent en découler. Le Georgia Institute of technology est à l'origine d'une des études les plus sérieuses et détaillées sur ce sujet. Cet organisme a fait paraitre en juin 1995 sa troisième étude, réalisée entre Avril et Mai 1995, qui est le fruit d'un travail considérable: l'analyse de plus de 13 000 réponses à plusieurs milliers de questionnaires difusés et remplis sur le Web. Le résultat est clair, Internet via le Web est devenu aux Etats-Unis un outil utilisé dans un contexte professionnel. a) Activite des utilisateurs du Web (en %). FIGURE PAGE 79 Les utilisateurs ne sont plus exclusivement une population de techniciens et d'universitaires (étudiants, chercheurs) qui ne représentent plus que 50%. Au contraire, 34% sont des professionnels dont 12% ont un poste de management. Ce pourcentage monte à 48% pour les utilisateurs ayant accès au Web à travers un service on-line comme Prodigy. La moyenne d'age générale est désormais de 35 ans, elle était de 31 ans il y a six mois. Elle a augmenté en même temps que le pourcentage de managers. Ceci est confirmé par la moyenne d'age encore plus élevée (38,8 ans) des utilisateurs accédant à Internet, via Prodigy, et qui représentent près de 50% de managers. Les utilisateurs ne sont plus que 7% à posséder un Ph.D (13% il y a six mois) mais restent très éduqués (67% possèdent un diplôme universitaire). Le taux d'accès à Internet à travers "une université" a chuté (en six mois) de 50% à 27%. Pour l'Europe, ce taux reste de 46%. L'accès via un service commercial payant représente 65%. L'arrivée des accès via Compuserve et AOL devraient encore augmenter cette proportion. 1 b) Intérêt des ressources du Web29. FIGURE PAGE 80 Les utilisateurs consultent le Web en premier lieu pour les informations de référence et pour des magazines et des news electroniques. La recherche d'informations commerciales arrive en 3ème position devant les rapports pour la recherche et les informations du gouvemement. Faire du shopping arrive en demière position. c) Raisons d'utilisation du Web30. FIGURE PAGE 80 5l% des utilisateurs (57% pour les Etats-Unis) évoquent leur travail professionnel comme une raison d'utiliser le Web. Le caractère "découverte" (browsing) de ce nouveau média est utilisé par une très grande majorité des utilisateurs. Ceci ne signifiant pas que c'est la seule raison d'utilisation du Web; la phase "browsing" étant nécessaire à toute recherche préalable, dans quelque domaine que ce soit. 29 La légende a été laissée dans sa langue originale pour ne pas trahir la signification des résultats. 30 La légende a été laissée dans sa langue originale pour ne pas trahir la signification des résultats. d) Evolution des raisons d'utilisation du Web aux Etats- Unis et en Europe FIGURE PAGE 81 L'évolution est claire: "Word related" et "business research" sont les deux raisons qui progressent au détriment des autres. Aux Etats-Unis cela conceme désormais 57% et 42% des personnes interrogées contre 53% et 31% il y a six mois. Il est très clair de constater que l'utilisation professionnelle du Web en Europe a fortement augmentée sur cette période (+ 60% pour "Word related" et + 120% pour "Business research"). L'écart entre les Etats-Unis et l'Europe est en train de se combler très rapidement. Contrairement à une idée très répandue, près de 80% des utilisateurs sont prêts à payer pour l'accès au Web et aux services proposés. Par contre comme tout nouveau média, celui ci doit clairement prouver sa valeur ajoutée, 67% sont prêts à payer uniquement si coût et qualité (les deux conjointement) sont jugés intéressants. 5. Les limites commerciales. a) Validité des informations et certification. La fiabilité de l'information est primordiale pour une utilisation commerciale. Celle-ci vient souvent de la fiabilité que l'on accorde au fournisseur de l'information. Dun&Bradstreet, par exemple, fournira une information aussi fiable sur Internet que via ses autres supports. Par contre aujourd'hui il est possible de vérifier ou d'être sûr de l'identité de son interlocuteur. Ceci n'est pas un problème pour la fiabilité de l'information puisée sur le serveur du Census Bureau (agence fédérale américaine), mais cela empêche tout développement important d'échanges commerciaux. En effet, comment valider une commande venant d'un interlocuteur dont rien ne garantit l'identité ? Les Etats-Unis sont très en avance sur ces questions qui sont discutées au sein du consortium CommerceNet. De même qu'aujourd'hui les individus possèdent une carte d'identité délivrée et donc certifiée par une agence gouvernementale, de même qu'une entreprise en France possède un numéro de TVA il existera des signatures électroniques qui, atachées à tous vos documents, certifieront votre identité sur les réseaux. Cette certification sera délivrée soit par des agences gouvernementales comme le US Department of Commerce, la Poste, des banques ou des sociétés de service, bénéficiant d'une bonne notoriété et qui pourrait se spécialiser dans cette activité. Cette certification serait bien entendu payante et pourrait constituer une manne financière importante pour des agences gouvemementales en manque de revenus. Différents prix annuels sont déjà proposés (non définitifs) par le consortium: de $50 pour un individu à $ 1 million pour une banque. b) Confidentialité, cryptage. Vos fichiers ou E. Mail, voyageant dans le réseau, peuvent être interceptés assez facilement. Ceci interdit la circulation de messages confidentiels (assez rare pour une utilisation commerciale) ou l'envoi d'un numéro de carte de crédit sur le réseau et limite un processus de paiement simple (utilisé par exemple pour la vente par téléphone). La solution technologique existe, c'est le cryptage. La technologie PGP (méthode des deux clés privée et publique) semble être aujourd'hui retenue. Pour envoyer un document vous devrez d'abord posséder la clé publique du dtstinataire avec lequel vous allez encoder le document. Seul celui-ci muni de sa clé privée pourra décoder votre document. Des serveurs permettent déjà d'envoyer son numéro de carte de crédit de façon sûre (technologie développée par Netscape) comme pour le serveur MarketPlace de MCI. Ces technologies de cryptage jusqu'alors peu utilisées feront partie intégrante du prochain protocole de communication utilisé par le Web (un seul standard S-HTTP existera: un accord est intervenu au mois de mai 95 entre les sociétés Netscape et EIT). L'utilisateur pourra de manière simple utiliser ou non ce cryptage pour la confidentialité de ses messages ou pour envoyer son numéro de carte bancaire. Le même logiciel apportera la confidentialité et permettra d'apposer à vos documents une signature électronique. Un problème reste cependant en suspens, ce qui montre encore le retard de la législation sur ces technologies: le crytage est interdit dans plusieurs pays comme la France. L'exportation des produits de cryptage est interdite aux Etats-Unis, ce qui retarde toute utilisation de ces technologies dans un cadre international. c) Processus de paiement Le problème de la sécurité est souvent utilisé pour discréditer les réseaux comme outil commercial. Aujourd'hui Internet n'est pas un outil transactionnel (qui permet les transactions monétaires), mais beaucoup d'utilisations (internes, business-to-business, marketing) ne nécessitent ni confidentialité ni processus de paiement. Celles-ci sont au coeur du développement d'Internet aujourd'hui. Néanmoins, le développement d'un processus de paiement est indispensable our une utilisation plus systématique du commerce électronique sur Internet acteurs (industriels, banques, gouvemements...). Depuis mai 1995, deux accords fondamentaux ont vu le jour. Les solutions se précisent: - les deux standards sécurisés de communication sur Internet seront tout simplement fusionnés et commercialisés par la société mixte TERISA (les actionnaires sont: EIT, RSA et depuis quelques semaines Netscape, AOL, Compuserve, IBM/Prodigy), - Les deux chefs de file américains de l'industrie des cartes bancaires Mastercard et Visa ayant chacun des accords avec des firmes informatiques (Visa avec Microsoft, Mastercard avec Netsape) ont annoncé (Wall street journal, 23/06/95) un accord de coopération pour la mise en place d'un processus complet de paiement (ils supporteront notamment le même standard, décrit ci-dessus). IlI. METHODOLOGIE D'UTILISATION. A. Exemple du Poste d'Expansion Economique de Chicago. Dans le cadre de ses activités de veille économique et commerciale, mais également d'aide aux entreprises françaises exportatrices, le Poste de Chicago a développé un certain savoir faire dans le recours aux nouvelles technologies de l'information depuis 18 mois31. Ces outils sont régulièrement utilisés pour: - établir des listes de prospects ou de partenaires potentiels; - rechercher de l'information macro-économique, commerciale ou technique; - accéder au ressources des différents organismes fédéraux ou d'associations professionnelles; - suivre l'actualité économique, politique et commerciale en France, aux Etats-Unis et dans le monde; - communiquer et échanger des fichiers avec certains de nos correspondants. De cette expérience, il ressort les conclusions suivantes. 1. Il n'existe pas de produit miracle aux USA. Aucun produit ne permet des requêtes par noms, régions, produits, totalement fiables avec des possibilités d'extraction ou de récupération aisées. Certains se rapprochent de l'idéal, comme Thomas Register on disk (équivalent du Kompass France) ou Market Place Directory de Dun & Bradstreet, qui sont meilleurs que les autres et plutôt moins chers. 2. Nécessité de recourir à plusieurs sources pour croiser l'information. Le manque de finesse des descriptions sectorielles est une source d'erreurs importantes, d'où la nécessité d'avoir des opérateurs bien formés à ce type de recherche, et capables de comparer le résultat obtenu aux objectifs poursuivis. 31 Les Postes aux Etats-Unis disposent d'une "home page" Internet (http://www.ftcsfo.org/), rtiisée par le PEE de San Francisco. Le PEE de Chicago dispose d'un serveur de CD-ROM (10 produits accessibles simultanément) et d'abonnements partagés à Internet, Compuserve, Datatimes, et Dun & Bradstreet. 3. Un taux d'erreur encore élevé. On doit constater, que toutes les sources, sans exception et quelque soit le prix et la fréquence de mise à jour possèdent un taux d'erreur de 5 à 20%, selon la définition et la complexité des requêtes (recherches multi-critères, définition du produit). Les explications sont multiples (changement d'adresse ou de numéro de téléphone, absorption ou disparition de la société, nomenclature des produits trop vague ou incorrect, erreur de saisie lors de la constitution de la base, informations non mises à jour,...). 4. Cela reste un outil informatique. Si les logiciels d'accès sont le plus souvent très conviviaux, performants et très simple d'utilisation, l'utilisation n'est pas aussi aisée que le recours à un annuaire ou tout autre source papier, même si elle est plus performante. De plus, ces produits requièrent parfois des installations complexes, notamment en réseau et les manuels d'utilisation/installation ou les services d'assistance technique de ces sociétés d'édition ne sont pas toujours performants et souvent peu disponibles (un message électronique envoyé à l'un de ces services a eu pour réponse "étant donné le volume important d'E. Mail reçu par nos services, votre message ne pourra etre ouvert que dans trois jours". 5. Un problème de nomenclature. La plupart des outils de ce type aux Etats-Unis référencent les produits par code SIC (Standard Industrial Classification). Cette classification est très reconnue dans l'industrie américaine, mais prend mal en compte les fonctions de négoce et n'a pas de correspondance directe avec les codes d'activité en vigueur en France (NAP, NAPCE, APE,..). D'autres produits proposent des recherches par mots clefs (nomenclature Kompass, Thomas Register), ce qui est plus précis, ou par codes douaniers (plus détaillés que les codes SIC, mais toujours sans équivalence avec la nomenclature française), d'où la nécessité de cumuler plusieurs sources. 6. Les aspects juridiques. A ce stade, il ne sembIe pas y avoir de contraintes, la plupart des produits prévoient la fonctionnalité d'extraction (et récupération sur le disque dur). La totalité des informations peuvent donc être exportées, modifiées. La notion de Copyright ne semble pas s'appliquer pour les informations extraites d'un CD-ROM ou récupérées depuis un serveur on-line. 7. Conclusion. L'offre, qui était quasi inexistante il y a encore 18 mois, est aujourd'hui très abondante. Il faut donc suivre de près l'évolution des produits existants et la publication de nouveaux produits. Ainsi, le CD-ROM Kompass USA qui vient de sortir il y a quelques mois, se révèle être très faible mais il n'est pas impossible qu'il s'améliore considérablement d'une version à l'autre. Il ne faut pas négliger les aspects techniques pour l'installation et l'extraction des données (le recours à un "informaticien" est parfois nécessaire). L'accès à de nombreuses informations depuis sa station de travail n'est pas la garantie d'une fiabilité parfaite (même en croisant plusieurs sources) et les vérifications directes (téléphones ou fax) sont indispensables pour fiabiliser les listes. Néanmoins, les gains de productivité sont conséquents. B. Construire son serveur Web: Méthodologie. Alors que les commentaires varient d'un enthousiasme sans limite à un pessimisme aveugle, une réalité plus pragmatique se développe avec le concours des professionnels et des entreprises de toutes tailles qui ont compris comment elles pouvaient tirer parti des services on-line pour leur marketing. Les outils sont là, des règles marketing se développent, de grandes incertitudes subsistent, les plus clairvoyants y voient des opportunités. Les objectifs doivent concorder avec les investissements consentis. Aujourd'hui on peut construire un serveur Web à partir de $5000 pour la première année et les serveurs des marques de grande consommation (les plus sophistiqués) coûtent de $60 000 à $ 120 000 par an. Ces coûts et les résultats sont à comparer avec les prix de publicités de la TV, d'un magasine spécialisé, ou d'une équipe de télémarketing. Comme tout outil marketing, celui-ci doit résulter d'une stratégie et tenir compte des règles du medium utilisé. Cette analyse est la seule assurance que votre serveur Web ne sera pas un gadget mais un réel outil de communication et de promotion. 1. Définition des objectifs. Avant de construire un tel outil, il est indispensable de définir clairement ses objectifs: - proposer un meilleur service clientèle, - prospecter de nouveaux clients, - réduire les coûts. De nombreux échos négatifs sur l'utilité de ces outils viennent d'une mauvaise définition au départ des objectifs à atteindre. Ceci est la partie la plus importante, car seule la société peut mener à bien cette réflexion. Voici une liste non exhaustive de questions à se poser: - Quel est le problème ou les problèmes que je souhaite résoudre ? - Quelle est ma cible ? - Ce serveur est-il destiné à ma clientèle existante ou à acquérir une nouvelle clientèle ? - Si oui, cette cible aura-t-elle bien accès au Web ? - Comment ce serveur sera-t-il "visible" (publicité, communication) ? - Pour quelles raisons ma cible se connectera sur mon serveur ? - Comment cet outil sera-t-il connecté avec les autres outils de communication et les ressources humaines ? - Quelles sont les expériences d'autres sociétés de même type, confrontées aux mêmes problèmes ? La question de la visibilité est une question primordiale. Il ne suffit pas d'ouvrir un serveur Web pour que votre cible le consulte, il faut qu'elle en connaisse l'adresse et qu'elle en éprouve le besoin. Ouvrir un serveur Web sans assurer sa promotion est aussi inutile que produire une plaquette sans la diffuser. Vu les coûts faibles de conception d'un serveur Web, l'investissement doit porter sur sa visibilité. Les publicités faites dans les magazines spécialisés doivent mentionner l'adresse "http" de votre entreprise. Le Wall Street Journal a ouvert une section spéciale Internet Directory de 8 pages tous les mois où les sites font leurs publicités. La TV peut être aussi un support, de même qu'en France certaines publicités font référence à un code "3615". D'autres idées, beaucoup moins coûteuses peuvent être développées: - inscription sur vos cartes de visites, papiers à en tête, enveloppes, - dans le contenu de messages d'attente téléphonique, - de manière plus originale sur tout support utilisé pour votre communication événementielle (T-shirts, briquets, agendas, stylos,...), - sur l'emballage de votre produit lui-même. Ces outils permettent d'assurer une certaine visibilité hors d'Internet pour attirer une cible qui ne fera pas forcément la recherche on-line. Pour ceux qui vous rechercheront "en surfant", il est indispensable de référencer sa page Web sur Internet sur les nombreux outils de recherche généralistes (Yahoo, Lycos, Infoseek - voir la partie II, D, 2 sur la recherche d'informations), et préférable de construire un tissu de liens à partir de tous les forums et les pages spécialisées de votre domaine. Par exemple, vous recherchez des distributeurs et des partenaires sur le marché américain. Il n'est pas suffisant de montrer sur le Web une photo du produit et dix lignes de textes. Les entreprises potentiellement intéressées ne viendront pas spontanément visiter votre serveur. Par contre, ces entreprises peuvent être membre de la chambre de commerce de Chicago (http://www.chicago.org), membre de l'association professionnelle Food Processing Machinery Suppliers (http://www.FPMS.com), et vont consulter le serveur Web de ces organisations qu'elles connaissent. Si sur ces serveurs il existe une rubrique "international" ou opportunités d'affaires, un intermédiaire tel que le poste de Chicago ou un cabinet marketing spécialisé pourra négocier avec ces organismes pour que votre offre soit accessible par un simple "clic" (cela revient à diffuser une annonce sur un journal d'une association professionnelle, sans délai d'envoi et de parution). Un bon plan marketing doit systématiquement comporter cette recherche de référencement et de liens qui doit être proposé par votre prestataire. 2. Conception et réalisation. Une fois cette étape de définition des objectifs et de repérage des sites du même domaine, il faut concevoir votre serveur Web. Outre le contenu, quatre paramètres sont à considérer: la conception, la navigation, l'interactivité, la maintenance. o Suivant votre activité la conception devrait être plus ou moins travaillée. Dans tous les cas, une cohérence d'image doit exister. Votre logo devra être présent (certains pensent qu'il doit l'être sur la totalité des pages, en effet si l'information est imprimée, elle portera ainsi votre marque). Les pages devront être lisibles sur un écran. Couleurs et images devront apporter une réelle valeur ajoutée. o La navigation est une des clés de l'utilisation de votre serveur. Plus votre serveur est dense, plus celle-ci doit être travaillée. Le plus intéressant est de combiner des liens hypertextes permettant de suivre des associations d'idées et ou de donner des détails sur un sujet et une arborescence précise organisant vos informations. Cette arborescence sera visualisée par la présence d'un menu (sous forme d'images ou de texte) présent à toutes les pages. Les liens hypertextes au milieu des pages permettent d'accéder directement à d'autres informations ("références croisées"). Pour les serveurs très volumineux, des outils de recherche par mots clés peuvent être inclus. Par exemple, le serveur Federal Government (http://www.federal.gov), qui recense de manière alphabétique et par thème tous les serveurs des agences américaines, est impressionnant tant par son efficacité que sa facilité d'utilisation. L'interactivité, grande supériorité de ces outils doit être réellement utilisée. Tout serveur doit indiquer au moins un E. Mail (appelé en général webmaster@société.com) pour que l'utilisateur donne son avis sur votre serveur. Vous avez la possibilité de donner accès à certaines informations uniquement aux personnes enregistrées, celles-ci pouvant s'enregistrer on-line en remplissant un formulaire. Ceci peut vous constituer une base de données et peut être la base d'une étude de marché précise et continue. Vous êtes ainsi capable de savoir qui visite votre serveur et quelles informations sont consultées. Par exemple si vous avez mis à disposition l'ensemble de votre catalogue produits, vous êtes capable en continu de savoir quelles sont, dans votre gamme, les produits qui suscitent le plus d'intérêt et de réagir ainsi beaucoup plus rapidement à tout changement de marché qui pourrait s'opérer. Il est également nécessaire d'essayer de quantifier le temps qu'un utilisateur est prêt à passer devant votre serveur. En effet, le coût n'étant pas forcément lié directement au volume d'information, il peut être dangereux de noyer l'utilisateur sous trop d'informations. La maintenance comprend la mise à jour des informations contenues dans votre serveur. Le succès de votre Web dépend beaucoup de sa "vitalité". En effet si un client visite pour la seconde fois votre serveur une semaine ou un mois après son premier passage, et qu'il n'y trouve rien de nouveau, il est probable que cette visite soit la dernière. Ainsi, vous risquez d'éloigner votre clientèle. C'est le danger d'un outil de communication puissant, qui met en évidence vos forces et qui peut aussi mettre à jour vos faiblesses. L'information contenue doit être à jour et exacte. Si l'écrit implique une information ayant une certaine pérennité, les services on-line impliquent une information fraîche, vivante, à jour. Il est très important de prévoir les moyens nécessaires d'assurer cette maintenance dès le début de votre projet. Cette aperçu rapide montre qu'il existe d'ores et déjà un certain nombre de règles propres à ce médium. Néanmoins ce médium étant très jeune, il reste de nombreuses règles marketing à découvrir. Voilà ce qui fait la force d'un nouveau média où les bonnes idées et les innovations vous donneront un réel avantage compétitif. 3. Programmation et hébergement. Il est possible de réaliser ces opérations en interne, la base de programmation en langage HTML (le standard des pages Web) s'apprend en quelques heures (il existe sur le marché plusieurs logiciels de progammation HTML qui coûtent en moyenne moins de $50). En ce qui concerne le texte, il existe aujourd'hui des logiciels qui traduisent directement un fichier texte MS-Word (Web assistant sera inclus désormais dans MS-Word) en langage HTML. Pourtant, une progammation soignée avec des images "cliquables" demande du temps et une certaine expertise. De même, il est possible d'héberger son serveur sur son propre ordinateur. Vous devez posséder une machine puissante (Pentium, Power PC, 16 MO de mémoire vive) et une connexion permanente la plus rapide possible (T1: 1,5 Mbauds). Votre prestataire de service Internet ou la société qui développe votre application vous proposera d'héberger votre serveur. Cette solution a l'avantage de vous affranchir de tous les problèmes techniques (sécurité, maintenance technique, et puissance pour garantir l'accessibilité de votre serveur). Par exemple, l'hébergement d'un petit serveur peut vous coûter: $25 de frais initiaux par répertoire, plus $0, 1 par mégaoctet échangé. Il existe de nombreuses façons de facturer, des comparaisons sont indispensables et il est toujours possible de changer de prestataire. Ce prestataire devra vous fournir régulièrement (par semaine ou par mois) des statistiques sur l'utilisation de votre serveur. 4. Conclusion. Cette méthodologie est la seule assurance que votre serveur Web ne sera pas un gadget mais un réel outil. Les objectifs doivent être définis clairement en fonction de vos besoins, et de l'investissement accordé. L'efficacité de ce support est à vérifier régulièrement, et les objectifs à affiner ou redéfinir. Comme tout outil modifiant l'organisation de votre entreprise, un réel savoir faire spécifique dans l'entreprise est à développer. Ceci demande du temps et de l'énergie, d'où l'importance de considérer le potentiel de ce médium le plus tôt possible. C'est le développement de ce savoir-faire qui constitue le seul réel avantage compétitif des technologies de l'information (et non pas les technologies en elles-mêmes). C. L'impact sur les utilisateurs (conseils d'implantation). 1. La disponibilité des outils (dans le domaine technique ou commercial). La publicité et la disponibilité de ces difirentes sources étant fortes, il n'est pas forcément plus compliqué de recenser les sources d'informations électroniques utiles que de les trouver en support papier. Beaucoup d'associations ou organismes professionnels qui offrent de nombreuses publications commerciales ou techniques ont également leur propre serveur télématique, accessible en direct par modem ou via Internet. Gale Research a édité, en début d'année, un annuaire des banques de données, qui recense et décrit plus de 10 000 banques de données disponibles selon différents formats. La plupart de ces outils sont proposés avec des périodes d'essais gratuits de 1 mois pour les CD-ROM et des unités (ou heures) gratuites pour les abonnements "on-line" (voir annexe 9: quelques adresses utiles sur le World Wide Web). 2. Les différentes utilisations. Dans le cadre de cette étude, nous avons interrogé plusieurs sociétés qui ont répondu de manière inégale mais ont foumi des éléments précieux d'appréciation: o Les CD-ROM sont utilisés de manière différente selon qu'il s'agisse de petites sociétés ou de grands groupes (peu utilisés par les petites sociétés industrielles). o Les petites sociétés ont parfois du mal à investir dans l'achat de CD-ROM complets et spécialisés. (C'est le cas, par exemple, pour des sociétés de consulting qui emploient moins de 50 personnes et ayant une compétence sur plusieurs secteurs et qui n'utilisent qu'un ou deux CD-ROM "généralistes"). o Les sociétés ayant accès à des services on-line ont souvent quelques "experts maison" qui permettent à l'ensemble des employés de gagner du temps lors de recherches plus complexes. On constate que plus le nombre de services on-line utilisés est important, plus la notion de "knowledge manager" (celui qui sait où il peut trouver l'information et organiser les recherches pour les autres) semble primordiale. o Inversement pour les CD-ROM, il apparaît que leur utilisation est plus laissée aux utilisateurs qu'aux spécialistes. o Les CD-ROM sont souvent considérés comme des outils généraux, idéaux pour l'élaboration de listes de contacts ou de références sur un sujet. o Les banques de données on-line permettent d'obtenir des renseignements plus précis sur un marché spécifique et sont donc utilisées plus fréquemment. o Il faut plusieurs semaines (ou mois) pour publier un CD- ROM, et l'information est mise à jour annuellement ou trimestriellement (exceptionnellement tous les mois): l'information disponible a donc trois à six mois lorsqu'elle est utilisée. Ce délai n'est pas comparable avec celui de la disponibilité des informations sur les serveurs on-line. o Pour les plus grosses sociétés, l'utilisation des services on-line est directement liée à des pôles de connaissance. Les grands groupes tel Motorola ou de grosses sociétés comme First Chicago Bank disposent de spécialistes qui consultent quasi en permanence les services on line les mieux adaptés à leurs besoins et qui rendent ces informations disponibles au sein de leur réseau. 3. L'investissement et la formation. Le prix des équipements de lecture et d'interrogation ont fortement baissé ces derniers mois, un lecteur de CD-ROM et un modem rapide coûtent moins de $200 chacun. L'investissement en matériel est donc devenu négligeable. Quant aux sources elles-mêmes (achats de CD-ROM ou interrogations on-line), du fait de leur plus grande disponibilité et diversité, leur prix devrait continuer à baisser sensiblement dans les années à venir. Néanmoins, s'il est relativement simple de consulter un CD- ROM, il n'est pas toujours aisé d'effectuer des requêtes sophistiquées et encore moins de transérer les résultats obtenus dans un format usuel. Quant aux interrogations de banques on-line, s'il est relativement facile de consulter Compuserve, il faut malheureusement pour Internet parler plus souvent d'exploration ou de navigation que de véritable consultation (tout au moins au début). C'est pourquoi toutes les personnes interrogées mentionnent un effort de formation spécifique de 3 à 6 jours minimum par an pour chaque utilisateur de ce type de supports. De nombreux supports de formation voient le jour aujourd'hui, ainsi que des sociétés de services qui proposent des formations spécifiques sur l'utilisation de ces nouvelles technologies. D'autre part, des consultants se spécialisent sur ces questions afin de conseiller les entreprises sur les modalités d'accès, l'utilisation de ces outils et leur intégration au sein de leur système d'information. 4. Les modes d'organisation de l'entreprise. A l'issu du recensement des outils disponibles, du type d'utilisation que l'on peut en faire et des avantages et contraintes respectifs de l'utilisation des ces produits, plusieurs thèmes de réflexion doivent être abordés et différentes hypothèses en matière d'organisation peuvent être proposées: la centralisation ou la délocalisation des ressources est au coeur des débats lorsqu'on parle d'optimiser l'utilisation de ces nouvelles sources d'information. Plusieurs schémas apparaissent au sein des structures qui ont mis en place ce type de systèmes d'information. a) Un centre de ressources centralisées. (1) caractéristiques o Une architecture en réseau régional ou mondial, avec comme support d'échanges de données le logiciel Lotus Note ou Internet; le réseau utilise des lignes spécifiques et des lignes publiques, en fonction des pays. o Des structures de "knowledge management" au sein de ce réseau, qui maintiennent et entretiennent la base de connaissances. Ces réseaux sont connectés sur des serveurs externes du type America on line, Compuserve et Internet, mais aussi avec des CD-ROM et directement chez des prestataires de service (par exemple Gardner Group pour les études, Microsoft pour les logiciels) o Les informations échangées sont de 3 types: - bases de donnés de références (méthodologie générale, listes de clients, informations internes,...) - thèmes particuliers (technologies, produits, maintenance,...) - messagerie (discussions) (2) Il ressort de ce type d'organisation les avantages suivants: o Réduction des investissements et de la formation, par spécialisation des "knowledge manager" ou "informations searchers". Ce sont des groupes de quelques personnes par région ou par base de connaissances (pour des centaines ou des milliers de bénéficiaires). Ce qui procure une extemalisation sûre et peu coûteuse de la recherche d'informations. o Le temps de réponse est souvent faible (24 heures ou 48 heures maximum) et l'information est plus exhaustive. o Interconnectivité avec les partenaires extérieurs de la société, selon des modalités d'accès limitées et sécurisées. o Les requêtes et les résultats peuvent être sauvegardés et gérés par le knowledge manager et pourront alimenter le réseau d'information propriétaire. (3) Les Limites de ce type de système. o Il peut prendre du temps pour se mettre en place et pour être rendu opérationnel et efficace aux yeux de la majorité des intervenants. o On peut perdre en degré de précision sur certains types de requêtes (le demandeur n'est pas le chercheur). o Une réponse sous 24 ou 48 heures n'est pas satisfaisante dans certains cas. o Des demandes très spécifiques peuvent rester sans réponse, faute de spécialisation de la cellule, dans le domaine recherché. o L'investissement humain est lourd pour des petites structures. b) Une organisation décentralisée ou mixte. (1) caractéristiques o Pas de système organisé de gestion de l'information externe. o Chacun peut proposer et consulter les sources qui l'intéressent. o Communication interne pour informer de la disponibilité des produits. o Recours occasionnels aux centres de recherche documentaire, car certaines personnes y sont formées à l'utilisation des nouveaux outils d'accès à l'information. (2) Les avantages qui ressortent de cette solution. o Montée progressive du taux d'utilisation de ces outils. o Faible investissement en organisation et en personnel. o Autonomie des centres de compétences. o Souplesse et rapidité d'interrogation pour les utilisateurs assidus. o Possibilité de faire des recherches plus fines et plus précises, car le demandeur est l'utilisateur. (3) Les limites de ce type d'organisation. o Accès partiel en fonction de la capacité et de la volonté de certaines personnes à utiliser ces outils informatiques. o Redondance des outils et des requêtes, au sein de structures ayant des besoins quasi identiques (augmentation des investissements et dépenses). o Manque d'expertise en matière de méthodologie de recherche, de traitement, de récupération et de stockage. o Manque d'exhaustivité, en terme d'acquisition et d'utilisation de ces produits. 5. Les stratégies d'attente, de veille, d'action. De ces types d'expériences, on peut tirer des enseignements pour la mise en place d'un modèle d'organisation afin d'optimiser l'utilisation de ces technologies d'accès à l'information au sein de l'entreprise (PME/PMI françaises): 1 - Création d'un comité de réflexion (task force) pour continuer à recenser les nouvelles sources et les évaluer, mais aussi étudier les conditions (coûts, ressources humaines,...) de la mise en place d'une structure adéquate pour gérer et utiliser ces outils. 2 - Recensement du type de demandes et par conséquent des moyens d'accès qui peuvent être centralisés ou décentralisés. 3 - Etudier la possibilité d'utiliser des lignes spécialisées en fonction du flux d'information, afin d'optimiser les coûts, la rapidité et la sécurité de transmission. 4 - Instauration de procédures pour: . le transfert des demandes et des réponses. . Ie contenu type des réponses en fonction du type de demandes, ainsi que le format des demandes et des réponses, . les modalités en matière de priorité des requêtes (4 heures, 24 heures, 3 jours ou plus,...). 5 - Maintenir un dialogue entre cette structure et les responsables techniques et commerciaux afin que chacun puisse proposer et s'informer de la disponibilité de nouvelles informations. CONCLUSION Cette nouvelle révolution des technologies de l'information conduira à des modifications, voire des bouleversements plus rapides que les grandes révolutions industrielles précédentes. Les technologies évoluent beaucoup plus rapidement qu'il y a un siècle et leurs effets se font sentir tout aussi profondément sur la société. Les autoroutes de l'information ne sont que les infrastructures d'une nouvelle forme d'accès à la connaissance. L'enjeu qui se dessine actuellement sous nos yeux est de savoir comment s'organiseront ces immenses réseaux et quels en seront les réels bénéficiaires intellectuels et économiques. Cette révolution a déjà modifié la donne économique, obligeant les cablo-opérateurs, les compagnies de téléphone, les fabricants de logiciels et de micro- ordinateurs, les créateurs d'images et les éditeurs à se rapprocher. Désormais, avec un ordinateur personnel, chacun peut devenir consommateur, producteur, acteur, distributeur et intervenir dans cette communauté mondiale. Reliée et à la fois concurrente des techniques d'informations classiques (presse écrite, télévision généraliste, radio, etc.), la communication numérisée de l'information doit désormais inscrire son processus dans un espace médiatique multimodial, intemational, pluriculturel. Ce réseau de réseaux n'a aujourd'hui qu'un seul nom: Internet. Paradoxalement, il appartient à tous et à personne à la fois ! L'information devient l'une des clés du système économique, essentiellement des pays développés. Dans un tel contexte, il est donc nécessaire de se préoccuper dès aujourd'hui du contenu véhiculé, autrement dit des téléservices. Parmi ceux-ci. le commerce électronique et le télétravail sont les contenus et les enjeux qui nous semblent les plus porteurs à court terme. Ces nouveaux marchés qui se développent à une vitesse vertigineuse ne semblent pas encore prendre en compte certaines contraintes juridiques qui devront leur être imposées. En effet, ces autoroutes de l'information présentent beaucoup d'aspects positifs, mais ne peut-on envisager une dérive du système ? Faut-il légiférer ? Qui peut le faire ? De quelle manière ? Une fois de plus, l'appareil législatif semble suivre, plutôt qu'accompagner ces évolutions techniques. Aujourd'hui beaucoup de personnes pensent que le commerce électronique ne pourra se développer sans l'implication des gouvernements et un développement, conjoint avec l'industrie, d'un standard de cryptage. Nous l'avons vu, beaucoup d'alliances se sont formées dans ce but, mais rien de définitif et de mondial ne semble se dessiner. De toutes façons, les conditions de l'organisation du commerce mondial seront certainement différentes de ce que l'on peut imaginer aujourd'hui. De nouvelles technologies, de nouveaux effets, la présence de nouveaux acteurs ne sont pas encore intégrés. Au moment où l'Unesco organise à Paris une confrence mondiale sur les technologies de l'information et où depuis plusieurs mois le G7 a créé des groupes de travail pour évaluer l'impact de ces technologies sur le commerce mondial, il est important, malgré les formidables bouleversements économiques et sociologiques qu'elles entraineront, de rester lucide et vigilant. En effet, encore aujourd'hui, et même aux Etats-Unis, pays sans aucun doute le plus avancé dans ce domaine, beaucoup d'organisations choisissent d'ignorer les possibilités d'échanges électroniques (notamment pour le commerce). D'après une étude de CGI, cabinet de consulting en management et en systèmes d'information, les raisons principales sont la peur de la technologie et le manque de soutien de la part du management. Une autre étude, auprès de 323 dirigeants de sociétés de distribution montre que 92% d'entre eux considèrent qu'il y a encore trop peu de clients potentiels on-line et que les coûts d'investissement sont encore trop élevés. Pour les entreprises qui se posent encore la question: en quoi suis je concerné ?, on a vu dans cette étude que les retombées pouvaient être innombrables, notamment dans un souci de productivité et d'intemationalisation de son activité. Le risque d'être absent de ces nouveaux supports est à notre avis plus grand, que celui d'y être et de nt pas complètement en tirer profit. Les coûts vont continuer à baisser, le nombre d'utilisateurs ne fait qu'augmenter (37 millions d'utilisateurs d'Internet, en Amérique du Nord, soit près de 15% de la population, d'après une étude très sérieuse de la société Nielsen). On a rarement vu un marché croître si vite. Par exemple, la société Allen-Bradley assure que 28% des demandes d'informations ou de cotations qu'elle reçoit, proviennent de sa présence on-line (notamment sur IndustrrNet), alors que ce support ne représente que 2% de son budget de promotion. On qualifie souvent ces outils d'"intelligence économique", le gouvemement américain l'a déjà bien compris. Il faut donc se positionner en stratégie de veille et appréhender ces technologies comme "un plus", qui pourrait devenir vital dans un proche avenir. Il faut s'y préparer, sans négliger l'impact sociologique que peut avoir la mise en place de ces outils sur le personnel et sur l'organisation de la société. Que peut-on penser aujourd'hui de sociétés comme Compuserve ou Netscape qui, à peine introduites en bourse, affichent des performances de 400 à 500% de hausse par an. Il faudra d'ailleurs suivre de près la prochaine introduction (prévue avant la fin de l'année) de la société IndustryNet, présentée dans cette étude comme un excellent vecteur pour les PME/PMI industrielles. Les marchés financiers, dont c'est devenu la fonction d'anticiper les évolutions, pourraient nous apporter des éléments de réponse sur l'avenir de ce marché.