Comprendre InternetLigue Tunisienne Anti Rhumatismale


 EN SAVOIR PLUS SUR L'INTERNET 

Internet est l'abrévation de " INTERconnexion of NETworks ". L'Internet est donc un réseau de réseaux. Il permet de véhiculer des données facilement et économiquement dans le monde entier. Le réseau est multimédia puisqu'il transmet du texte, des images, du son, de la vidéo, des animations et tout autre type de données. L'Internet est bâti sur une architecture appelée client-serveur, ce qui signifie que l'utilisateur ("client") effectue des requêtes auprès d'un ordinateur ("serveur") qui lui propose des informations et des services. l'Internet offre un nouveau modèle de communication, fondé sur des technologies ouvertes, par opposition aux réseaux traditionnels .
D'un point de vue matériel, le réseau se compose de deux types d'éléments :

  • Les matériels informatiques : ordinateurs, routeurs (logiciels et machines permettant d'assurer la transmission sécurisée de paquets d'information sur le réseau), serveurs.
  • Les infrastructures de télécommunication, qui relient les matériels informatiques.Elles sont caractérisées par leur capacité de transmission, autrement dit leur débit. Celui-ci est mesuré est mesuré en bits/seconde, c'est-à-dire en nombre d'unités élémentaires informatiques pouvant circuler simultanément. Ainsi, sur le réseau téléphonique classique (RTC), les données peuvent circuler jusqu'à 28 800 bits par seconde (28,8 Kbits/s). Sur des liaisons en fibre optique, elles peuvent transiter à plusieurs millions de bits par seconde (Mbits/s).

Du point de vue logiciel, la transmission de données sur l'Internet s'appuie sur un langage de communication (un protocole) dénommé TCP/IP (" Transfert Control Protocol/Internet Protocol ") .
Ce protocole permet de faire communiquer entre eux des ordinateurs différents (Mac, PC, Unix).

 L'Internet est-il un média neuf ? 

L'Internet a été créé en 1969 à UCLA par les ingénieurs de l'Advanced Research Project Agency (ARPA) du ministère de la défense américain. Son premier nom était ARPANet. Il fut créé pour parer au danger de rupture des liaisons de communication en cas d'attaque nucléaire soviétique, grâce au principe de la transmission par paquets.
En 1972, Vinton Cerf, alors président de l'InterNetworking Group, commence à élaborer une architecture de grande taille.
Les protocoles de connexion à distance (Telnet), de transfert des fichiers (FTP)et de contrôle des transmission (TCP) voient le jour entre 1972 et 1974, suivis en 1982 du protocole de messagerie (SMTP). La première connexion internationale est réalisée en 1973.
En 1982, le réseau ARPANet adopte le protocole de transfert utilisé aujourd'hui sur l'Internet (leTCP/IP). Le réseau s'étend dans les années 80 grâce à son appropriation par les chercheurs universitaires. Les premières connexions en France ont lieu au début des années 80, à l'INRIA, Institut National de Recherche en Informatique et Automatisation, et au Conservatoire Nationale des Arts et Métiers.
Le développement massif de l'Internet et son ouverture au grand public date du début des années 90, avec l'émergence du World Wide Web. Le Web est d'ailleurs souvent confondu avec l'Internet lui-même. Le Web a été développé dans les laboratoires du CERN (Centre Européen de Recherche Nucléaire), à Genève, en 1989, par Tim Berners-Lee. Il a pris son essor avec la création du logiciel de navigation Mosaïc au NCSA (National Center for Supercomputing Applications) de l'université d'Illinois.
En France, la première grande initiative en faveur du développement du réseau a lieu en 1992. Renater est créé sous l'égide du CEA, du CNES, du CNRS, d'EDF, de l'INRIA et du ministère de l'enseignement supérieur.
En 1994, les premiers fournisseurs d'accès apparaissent en France (Oléane, Calvacom, EUNet).

 Quelle est l'importance de son développement ? 

La croissance de l'Internet dans le monde est spectaculaire :

  • Plus de 50 millions d'utilisateurs sont connectés sur 30 000 réseaux différents ;
  • Chaque mois, 1,5 million de nouveaux utilisateurs se connectent ;
  • 1600 nouveaux services se créent en moyenne chaque semaine 

L'amélioration des débits, le développement des contenus multimédias et l'apparition de solutions de connexion pour le grand public favorisent le développement de l'Internet .

 Quels sont les outils Internet ? 

L'Internet désigne un ensemble de fonctions communicantes. Elles ont en commun d'utiliser l'architecture TCP/IP du réseau mondial.
Le World Wide Web (Web)
Le Web signifie littéralement "toile d'araignée mondiale". Fonction la plus récente de l'Internet, il a acquis une si forte importance depuis sa création, en 1993, qu'il est parfois confondu avec l'Internet lui-même. Le Web est le réseau multimédia de l'Internet. La consultation des sites s'effectue à l'aide d'un navigateur (Netscape Navigator, Microsoft Explorer) .
Le courrier électronique (e-mail)

Il permet d'échanger des informations avec un internaute. Ce système de messagerie autorise le transfert de tout type de fichiers (texte, images, sons, vidéo, fichiers applications bureautiques...). Les navigateurs Web intègrent désormais une fonction e-mail. Navigator 3.0 permet en outre l'inclusion de liens hypertextes au sein d'un courrier électronique. Le destinataire d'un message peut ainsi parvenir automatiquement à une adresse Web. L'utilisateur a la possibilité de sauvegarder un message, de l'imprimer ou de l'orienter vers un autre utilisateur.
Les listes de diffusion

Le principe des listes de diffusion (ou mailing-lists) s'apparente à celui de la messagerie. Les utilisateurs s'inscrivent à une liste dont le thème les intéresse (le cancer de la prostate par exemple). Ils reçoivent ensuite régulièrement des articles sur ce thème, dans leur boîte aux lettres électronique. Chaque liste est gérée par un animateur, garant moral et technique des échanges.
Les groupes de discussion

Les groupes de discussions, ou Newsgroups, rassemblent des internautes autour d'un thème. Ces groupes sont organisés sur Usenet, un sous-réseau de l'Internet. Ils peuvent être gérés par un modrateur. Les navigateurs Web intègrent désormais une fonction Newsgroup. Ils tendent à devenir des outils globaux pour l'utilisation de l'Internet.
Les conférences IRC

L'Internet Relay Chat permet de discuter à plusieurs en direct. C'est la fonction la plus proche de la messagerie Minitel. Les utilisateurs peuvent participer à une discussion sur un canal existant ou créer leur propre canal. Un modérateur autorise les accès à la discussion et veille à la correction des échanges. L'IRC s'effectue en direct, contrairement aux newsgroups.
FTP

File Transfert Protocol permet le transfert de fichiers informatiques. Les utilisateurs se connectent à un serveur ; ils importent ou exportent un document. Les serveurs FTP peuvent compléter un serveur Web pour le transfert de biens immatériels (documents, livres, logiciels).

 Comment les informations sont-elles transmises sur le réseau ? 

L'Internet est un réseau à " commutation de paquets ", fondé sur le protocole TCP/IP. Un message émis sur le réseau est découpé en morceaux, appelés " paquets ". Chaque paquet regroupe une partie des informations contenues dans le message d'origine.
Les paquets sont expédiés sur des voies téléphoniques et passent par plusieurs ordinateurs relais avant de parvenir à destination. Or, les lignes directes entre deux ordinateurs peuvent être encombrées. Les paquets peuvent donc passer par divers autres itinéraires. Pour cela, chaque paquet contient l'adresse du destinataire et un numéro d'ordre servant à son identification. Ce principe est très économique puisqu'il permet de répartir la charge de travail sur les voies téléphoniques existantes.
L'autre avantage de ce mode de transmission est la sécurité. Si une ligne téléphonique est coupée, les autres la suppléent. Tel était l'objectif des militaires américains lorsqu'ils créèrent Arpanet, l'ancêtre de l'Internet .L'ordinateur destinataire reconstitue le message, quel que soit l'ordre d'arrivée des paquets. S'il en manque un ou s'il n'est pas lisible, le logiciel de réception en demande la réexpédition. Plus de cinquante milliards de paquets sont ainsi échangés chaque mois par les quelque cinquante millions d'utilisateurs de l'Internet.

 Comment fonctionnent les adresses Internet ? 
Les adresses Internet mentionnent toujours l'application concernée ("www" pour le Web par exemple), le nom de domaine et le suffixe d'identification, géographique ("uk" pour le Royaume-Uni) ou thématique ("com" pour commercial).

1 - Principes: Sur le réseau, un serveur est identifié par son adresse. Celle-ci se présente sous deux formats.

 

1/ Les machines sont identifiées par des numéros d'adresse IP. Chaque adresse IP est unique et identifiable par les routeurs du réseau. Les paquets de données transitent sur le réseau avec l'adresse IP du destinataire et celle de l'émetteur. Les multiples combinaisons de chiffres étant difficiles à retenir, ce système d'adressage a été doublé d'un procédé plus explicite.
2/ Les noms de domaines (DNS) permettent d'identifier chaque site de façon logique. Les adresses sont appelées URL. La correspondance entre le DNS d'un site et son adresse IP est faite par des tables de routage sur les serveurs. Les adresses se terminent par un suffixe désignant la localisation géographique ou le champ d'activité du service. "Medcost.fr" indique par exemple que le site Medcost est situé en France.

Adresses Internet : les suffixes

Domaine Zone
Commerce com Tunisie tn
Education edu France fr
Gestion du réseau net Royaume-Uni uk
Organisations org Allemagne de
Armée américaine mil Canada ca
Gouvernement gov Etats-Unis us

Jusqu'à récemment, seuls les services américains comportait un suffixe de type "domaine". Les autres services comportaient le suffixe du pays dont ils dépendaient. Désormais, un site français peut revendiquer un suffixe correspondant à son activité (ex : http://www.paribas.com/).

2 - Configuration des adresses
Web:
Exemple d'adresse Web : http://www.netscape.com
Newsgroups:
Les forums sont classés de façon hiérarchique, chaque niveau étant séparée par un point.

Thèmes des forums : premier niveau hiérarchique

comp ordinateurs
sci sciences
soc société
talk polémique
rec loisirs
news nouvelles
misc divers

Lorsqu'un forum se limite à une dimension nationale, son adresse commence par le préfixe du pays. Il reste néanmoins accessible à l'ensemble des internautes. fr.misc.transport.autostop, par exemple, est une discussion française sur l'autostop.
Courrier électronique:
Une adresse électronique (e-mail) est formée d'une partie locale (nom d'utilisateur) et d'une partie identifiant le site de l'utilisateur (la société par exemple). Le sigle"@", ou arrobase, se prononce "at" et signifie "chez". Exemple d'adresse électronique : Durand@XXX.fr, ce qui signifie que monsieur Durand a son adresse chez la société XXX, localisée en France.
FTP
. Exemple d'adresse FTP : ftp.univ-valenciennes.fr

 La pénurie d'adresses I.P est-elle résolue ? 
Les adresses I.P (Internet Protocol) permettent aux navigateurs d'atteindre les machines qui hébergent les sites sur l'Internet La problème des adresses IP est semblable à celui des numéros de téléphone en France. Le nombre de caractères formant une adresse détermine le nombre de combinaisons mathématiques possibles, et in fine le nombre d'adresses attribuables. De même que la numérotation téléphonique est passée à 10 chiffres en France pour générer un nombre d'adresses téléphoniques plus important, de même le mode de codage des adresses IP doit évoluer pour permettre le développement de l'Internet par la création de nouveaux sites.
1 - Un protocole nouveau pour le réseau: 

Un nouveau protocole IP, baptisé IPv6 ou IPng (IP Next Generation), permet de résoudre le risque de pénurie d'adresses IP. Il repose sur un en-tête qui a doublé en longueur pour atteindre 40 octets. Les champs d'adresse passent de 32 à 128 bits. Cela représente une capacité d'adressage théorique mille milliards de milliards de milliards de fois plus grande que celle d'IPv4, le protocole actuel. Les utilisateurs pourront changer de fournisseur d'accès Internet ou connecter un réseau privé au réseau mondial de façon simple. Pour faciliter la période de transition, IPv6 permet également l'encapsulation des adresses NSAP (OSI), IPX (Novell), et IPv4 existantes.
2 - Une qualité de service accrue: 

Les concepteurs d'IP6 ont intégré au protocole des fonctions nouvelles. L'en-tête contient un champ de 24 bits appelé " étiquette de flux ", qui permettra aux routeurs de distinguer des paquets issus d'une application spécifique et de leur accorder un traitement particulier selon les souhaits (et le contrat de service) de l'utilisateur. Les flux vidéo ou sonores pourront ainsi être traités en quasi-temps réel. La sécurité a également été optimisée. IPv6 pourra authentifier chaque paquet.
Les systèmes IPv6 et IPv4 seront capables de communiquer dans les deux sens. Cette complémentarité était nécessaire puisque les protocoles pourraient coexister pendant des années. L'implémentation de IP6 se fera de façon pragmatique et décentralisée. Son lancement ne nécessitera aucune coordination globale.

 Comment navigue-t-on sur le Web ? 
La navigation sur le Web est fondée sur l'hypertexte. Elle s'effectue à l'aide de logiciels spécifiques. Aujourd'hui, divers outils facilitent cette navigation.

Principe de l'hypertexte
La navigation hypertexte permet de passer d'un document à un autre en cliquant sur un lien. Ce lien peut être un mot (il est alors souligné et mis en couleur), une image (ou une zone spécifique au sein d'une image) ou un lieu précis dans un univers tridimensionnel. Le curseur se transforme automatiquement en une icône spécifique (une main) lorsqu'il entre en contact avec un lien hypertexte. L'utilisateur dispose de fonctions "retour" et "avance" dans son navigateur. Il peut donc refaire un chemin déjà emprunté ou revenir sur une page précise après s'en être écarté. La fonction "historique" lui permet de consulter l'ensemble des pages par lesquelles il est passé. La navigation hypertexte implique un mode d'appréhension de l'information différent de la consultation linéaire, propre aux médias traditionnels.

Navigateurs:
La navigation sur le Web se fait par l'intermédiaire d'un navigateur, ou browser . Au cours de la navigation, le browser met en forme le texte, le son, la vidéo et les animations qu'il rencontre. Pour cela, il interprète les codes HTML (Hyper Text Markup Language), qui servent à écrire les pages Web. Il fait appel à des modules additionnels pour exploiter les éléments multimédias insérés dans les pages HTML .

Accès aux pages Web:
Lorsque l'utilisateur connaît l'adresse du site qu'il recherche, il y accède en tapant cette adresse dans son navigateur. Si le site lui plaît, il peut inclure d'un geste l'adresse dans son annuaire personnel. Lors d'une consultation ultérieure, il lui suffira d'ouvrir son carnet d'adresses et de cliquer sur celle où il souhaite se rendre. Lors de sa navigation, l'utilisateur peut ne mentionner qu'un nombre restreint d'adresses. Il navigue alors de page en page, grâce aux liens hypertextes. Comme il n'existe pas d'annuaire des services Web, les gestionnaires de sites proposent des liens vers d'autres serveurs. Pour accéder à une information, les utilisateurs peuvent aussi recourir aux moteurs de recherche .

Optimiser la navigation
  -  Les agents intelligents: Les agents intelligents assistent l'internaute dans ses recherches. Librement paramétrables, ils glanent sur le réseau les informations qui l'intéressent.
  - Les logiciels spécifiques: Pour faciliter sa navigation, l'utilisateur peut recourir à des logiciels qui lui permettent de télécharger sur son disque dur une partie ou l'ensemble d'un site Web pour le consulter en local. L'intérêt de cette démarche est triple :

  • L'utilisateur diminue sensiblement le coût de sa connexion.
  • Il réalise des économies de temps. Plus rapide, la navigation en local est aussi plus agréable.
  • La veille sur le réseau est simplifiée. L'utilisateur peut en effet programmer un renouvellement des pages modifiées. Il peut également visualiser l'ensemble d'un site.

 Comment utiliser les moteurs de recherche sur l'Internet ? 
Le volume d'informations sur le réseau croît continuellement. Or, il n'existe pas d'annuaire des sites Internet puisque le réseau se développe de façon décentralisée. Pour trouver l'information qui l'intéresse, l'utilisateur peut recourir aux moteurs de recherche, majoritairement gratuits et financés par la publicité. Le tableau ci-dessous présente les principaux moteurs.
Google:
www.google.com
Notre Préféré pour la rapidité de ses recherches et leur pertinence. Voir Rubrique "Recherche sur le Web"
Alta Vista:
www.altavista.digital.com
Alta Vista permet d'accéder aux pages Web contenant les termes que l'utilisateur a mentionnés. 16 millions de pages sont indexées, par titre et par URL. La consultation du site (deux millions de requêtes par jour) témoigne de sa qualité. Alta Vista est produit par Digital. Le robot est aujourd'hui commercialisé et peut être utilisé en Intranet.
Lycos: www.lycos.com
Ce moteur fonctionne comme Alta Vista mais ses performances (vitesse, volume de documents indexés, pertinence des recherches) sont inférieures. Il indexe 6,5 millions de pages d'accueil par URL, titre et en tête. Il affiche jusqu'à 20% du document et les 100 mots les plus importants (technique frontale).
Yahoo:
www.yahoo.fr 
L'intérêt de Yahoo réside dans le classement thématique des sites. Les arborescences sont néanmoins d'une telle complexité que le recours à Yahoo se justifie davantage pour les recherches thématiques que pour la recherche d'un site en particulier. L'ancêtre des moteurs de recherche utilise la solution Digital (AltaVista) pour la recherche par mot-clé.
Webcrawler: www.webcrawler.com 
Webcrawler utilise la technique frontale mais il la complète en sondant le contenu des pages. Il permet les recherches booléennes (l'utilisateur peut effectuer des recherches de type "et, ou...") et par mots apparentés. Il indexe 25 000 pages Web.

Infoseek: www.infoseek.com

Ce moteur est simple d'utilisation puisqu'il permet une recherche par mots-clés en texte intégral et langage naturel. Il indexe 400 000 pages d'accueil, plus de 100 publications informatiques et 10 000 newsgroups.

Magellan: www.mckinley.com

Magellan indexe 1,5 million de pages d'accueil. Il offre une évaluation pertinente des sites et une description préliminaire dès la première étape de la recherche. Il recense en outre tous les types de ressources : Web, FTP, Telnet, Newsgroups, Gopher. La recherche par mots-clés ne semble pas optimale.

Open Text: www.opentext.com

Open Text indexe 1,2 millions de pages d'accueil. La recherche s'effectue en texte intégral. Des requêtes booléennes (et/ou) et simultanées sont possibles. La fonction d'échantillonage permet de voir le contexte dans lequel apparaît chaque occurrence de la recherche et d'éviter le téléchargement des pages sans intérêt.

Pour optimiser une recherche d'informations, il est possible de recourir à des logiciels (Webcompass par exemple) qui effectuent des recherches combinées sur plusieurs moteurs de recherche. Des meta-moteurs de recherche apparaissent également sur le réseau. Metacrawler permet notamment d'accéder à Lycos, Open Text, Webcrawler, Infoseek, Alta Vista et Excite. Certains sites, comme CNET, offrent par ailleurs des annuaires de sites capables de rivaliser avec les meilleurs moteurs de recherche.

 Comment le réseau est-il géré ? 
Aucun organisme ni aucune entreprise ne disposent d'un pouvoir hiérarchique sur le réseau. Les acteurs de l'Internet ont néanmoins formé des organismes chargés de veiller au bon déroulement de son évolution. L'instance la plus importante est l'Internet Society (ISOC), essentiellement composée de scientifiques. Elle se définit comme " une organisation globale et internationale destinée à promouvoir l'interconnexion ouverte des systèmes et de l'Internet ". L'inscription à l'ISOC est libre. L'organisme est composé de plusieurs comités, dont le plus important est l'Internet Architecture Board. Son activité consiste à gérer l'évolution de l'Internet et notamment des protocoles de communication.
L'IAB se compose de trois comités :

  • L'Internet Engineering Task Force. Ce groupe travaille actuellement au développement du protocole IP version 6.
  • L'Internet Research Task Force. Il étudie l'évolution du réseau à long terme.
  • L'Internet Assigned Numbers. Il gère les adresses Internet et les noms de domaines .

Autre organisme influent, le World Wide Web Consortium veille à l'évolution des technologies du Web et dispose de correspondants en France (INRIA), en Suisse (CERN) et aux Etats-Unis (MIT).
Au-delà de cette gestion coopérative de l'Internet, les entreprises phares du secteur exercent un effet structurant sur le réseau. Netscape a notamment contribué à l'évolution du langage HTML en imposant des standards de fait. Aucun groupe ne dispose cependant d'un rôle assez global pour revendiquer la tutelle du réseau.

 Qui paye quoi lors d'une connexion Internet ? 
Lors d'une connexion Internet, trois flux financiers principaux sont engendrés :
- L'utilisateur final paie un abonnement mensuel à un fournisseur d'accès Internet (IAP). Il s'acquitte également de sa facture téléphonique puisqu'il se connecte généralement à son fournisseur d'accès à l'aide de sa ligne téléphonique. La connexion correspond à la consommation d'unités locales.
- Cet IAP est un détaillant de connexions, qu'il achète ou loue en gros à un opérateur de réseau, pour les proposer ensuite aux utilisateurs finaux.
- L'opérateur-propriétaire de réseau possède physiquement un réseau de lignes à hauts débits (par exemple un câble transatlantique ou un satellite) par lesquels transitent les messages et les données. On appelle ces lignes des colonnes vertébrales, ou backbones.
Né d'une culture de partage de ressources, l'Internet doit encore beaucoup à la collaboration entre opérateurs de réseaux, qui financent les infrastructures de télécommunication.
En Europe, une grande partie des communications Internet empruntent l'E-Bone (European Bone), réseau appartenant à un consortium d'opérateurs de réseaux publics et privés. Structure à but non lucratif, l'E-Bone investit l'intégralité de ses recettes dans la maintenance et l'amélioration de son réseau. Ces recettes sont payées par les réseaux participant au consortium en fonction du volume de connexion qu'ils utilisent.
Europanet, financé par l'Union Européenne, est uniquement utilisé par l'éducation et la recherche.
Eunet est un backbone appartenant à la société commerciale du même nom.
Tous ces backbones sont connectés à leurs homologues des autres continents tels que l'ancien NSFNet américain, aujourd'hui détenu par des opérateurs privés comme Sprint ou MCI. Trois acteurs jouent un rôle majeur en France en matière de connectivité : Renater, Eunet et Oléane.

 L'Internet est-il un réseau sécurisé ? 
En se développant, l'Internet a gagné en sécurité. Les solutions décrites ci-dessous sont complémentaires ; elles permettent de sécuriser l'échange de données et l'accès à un réseau privé.
La sécurité par les navigateurs

Navigator utilise le cryptage RSA pour sécuriser la communication entre les clients et les serveurs. La version américaine de Netscape est inviolable (codage sur 128 bits) mais cette solution n'est pas exportée puisqu'elle relève de la législation sur les armes. Le système utilisé (40 bits) permet déjà une sécurisation très satisfaisante. En France, le protocole RSA sera utilisé pour la carte de professionnel de santé (CPS) .
La sécurité par les serveurs

Des versions sécurisées de serveurs Web sont disponibles. Commerce Server de Netscape, par exemple, crypte les informations qu'il diffuse sur le réseau et impose aux utilisateurs de disposer d'une version sécurisée de Navigator.
La sécurité par le système d'exploitation

La sécurisation des réseaux est paradoxale. Les données ne sont transférées que pendant une fraction de seconde et ne sont donc pas aussi interceptibles qu'on l'imagine. Les données sont surtout vulnérables lorsqu'elles résident sur le serveur. La sécurisation d'un serveur Internet repose donc largement sur la sécurisation du système d'exploitation utilisé. A cet égard, les défauts de protection d'Unix et de Windows NT sont progressivement corrigés .
Les pare-feux (firewalls)

Une protection à l'entrée d'un système privé complète efficacement la sécurisation du serveur et du système d'exploitation. Selon une enquête du CSI menée en 1995, près de la moitié des entreprises connectées à l'Internet ont mis en place des pare-feu. Parmi celles qui ne l'ont pas fait, 70 % ont prévu d'en installer. Il existe deux principaux types de pare-feu : les équipement de filtrage de paquets et les passerelles entre applications, appelées proxy :

  • Le filtrage de paquets régule, en fonction de l'adresse des paquets, les flux de données entre un réseau interne et l'Internet.
  • Un proxy est un tampon entre l'Internet et un groupe d'ordinateurs. Le proxy est d'abord un filtre. Il interdit par exemple l'accès à certains sites. Dans l'autre sens, il filtre les intrusions en provenance du réseau. Le proxy joue également le rôle d'antémémoire. Comme il stocke les pages visitées, les consultations sont plus rapides.

Les cartes d'accès
La technologie des cartes offre un niveau supplémentaire de sécurisation. Elle garantit qu'une personne appelant un serveur est un utilisateur autorisé. Du format d'une carte de crédit, la carte SecureID émet par exemple un mot de passe numérique nouveau toutes les minutes, en synchronisation avec le serveur de sécurité. L'utilisation d'une telle carte, peut être envisagée pour sécuriser les accès à un Intranet.

 Quel choix effectuer en matière d'hébergement ? 
Pour que le contenu d'un site soit visible sur l'Internet, la machine serveur doit être connectée au réseau. Dès lors, une entreprise peut choisir d'héberger elle même son serveur ou de le faire héberger par un fournisseur d'accès Internet.
Hébergement en propre:
Cette solution implique d'établir une connexion fixe avec un fournisseur d'accès à l'Internet. Au-delà, les organisations qui choisissent cette option doivent s'assurer qu'elles disposent des ressources humaines et matérielles adéquates pour assurer la maintenance du site, son suivi ainsi que la sécurité globale du projet.
Hébergement chez un fournisseur d'accès:
La solution la plus simple et la moins coûteuse consiste à faire héberger son site par un fournisseur d'accès à l'Internet. Le prix de cet abonnement varie entre 2 000 et 10 000 francs par mois selon le type de service (flux de données, utilisation d'un moteur de bases de données...) et le fournisseur considéré. Cette formule a pour (léger) désavantage de restreindre l'autonomie technique des gestionnaires du projet.

 Les outils de mesure d'audience des sites sont-ils fiables ? 
En croisant les éléments dont ils disposent, les gestionnaires de sites ont la possibilité de connaître les informations suivantes :

  • Origine géographique des utilisateurs
  • Nombre de consultations
  • Pages consultées
  • Répartition des consultations dans le temps (jours et heures)

A partir de ces éléments, les responsables d'un service peuvent affiner leur politique éditoriale et définir des stratégies complémentaires pour atteindre leurs cibles.
Les outils de comptage sont néanmoins imprécis. En effet, les gestionnaires de sites emploient souvent la notion de " hit " (requête) alors qu'elle est trompeuse. Ainsi une audience de 100 000 hits peut-elle correspondre au téléchargement de 10 000 pages (adresses URL relevant d'un même site Web), puisqu'une page contient régulièrement une dizaine d'éléments et que le téléchargement de chaque élément (une image au sein d'une page par exemple) correspond à un "hit". En somme, le nombre de " hits " le plus significatif est celui des pages html (URL). Il indique le nombre de pages ayant été visitées dans un site.
A partir de cet élément, il reste difficile de connaître le nombre d'utilisateurs. Cela impose en effet de définir le nombre moyen de pages consultées par chaque utilisateur.
Le " MagicCookie ", marqueur informatique développé par Netscape, est un moyen efficace de connaître les utilisateurs d'un site puisqu'il intègre le système logiciel de l'utilisateur et suit son parcours. Cependant, ce procédé n'est pas légal en France car il constitue une atteinte à la vie privée.
Des panels d'usagers permettent, enfin, d'apprécier le comportement des internautes, sur le modèle des échantillons représentatifs de téléspectateurs. Néanmoins, la population des internautes évolue si rapidement que les panels sont rapidement déclassés. Une telle solution ne répond en outre que partiellement aux souhaits des gestionnaires de sites. Alors que les panels constituent un outil d'aide à la décision efficace pour les chaînes de télévision (les analyses ont une pertinence micro-économique car le public est stable et le nombre de chaînes limité), ils ne permettent de dessiner que des tendances générales des comportements sur l'Internet. Pour les gestionnaires de sites, des outils d'audience propres restent nécessaires.

 L'Internet est-il contrôlable par les Etats ? 
L'Internet a été largement médiatisé par les scandales liés aux serveurs pédophiles ou néonazis. La diffusion du livre du docteur Gübler a également servi l'idée que l'Internet était un réseau incontrôlable. Dans le domaine médical, les sites qui encouragent l'automédication renforce cette défiance . Les Etats occidentaux ont trouvé dans ces épiphénomènes les facteurs susceptibles de légitimer leur démarche régulatrice. Dès lors, la possibilité d'encadrer l'information diffusée sur le réseau fait aujourd'hui l'objet de toutes les interrogations.
L'attitude radicale adoptée par les Etats autoritaires est a priori la plus à même de permettre un contrôle des contenus et des échanges. En Iran par exemple, seuls deux prestataires d'accès sont autorisés par le pouvoir islamique. Des serveurs proxy servent à filtrer toutes les données téléchargées par les utilisateurs sur le réseau mondial. L'accès aux sites interdits est donc théoriquement impossible. Les moyens technologiques et humains requis pour ce contrôle total sont considérables.
Or, l'efficacité de cette démarche est hasardeuse. Les résidents d'un pays qui applique ce type de censure peuvent la contourner en appelant directement un réseau téléphonique international. Certains logiciels permettent en outre de s'affranchir des contraintes imposées par les serveurs proxy.
Dans les Etats occidentaux, le contrôle effectué par les pouvoirs publics est évidemment plus délicat. Le respect des libertés publiques interdit en effet que les gouvernements interviennent sur les réseaux de télécommunications, les routeurs ou les serveurs. Dans la pratique, une telle démarche serait vouée à l'échec du fait de l'ouverture des systèmes. Les gouvernements peuvent simplement demander aux fournisseurs d'accès d'empêcher la consultation de sites illégaux. Cette logique se heurte elle aussi à un problème de moyens. L'importance des contenus et la navigation hypertexte compliquent la volonté de fermer les accès aux sites illégaux sans nuire aux autres.
Dès lors, les Etats occidentaux essaient d'encadrer les communications sur les réseaux en adaptant ou en renforçant leur cadre juridique. Le conflit entre utilisateurs et pouvoirs publics prend de l'ampleur aux Etats-Unis, où les internautes souhaitent protéger la liberté d'expression. Les pétitions s'opposant aux velléités réglementaires rassemblent plusieurs centaines de milliers de signatures. La communication électronique devient un enjeu politique majeur.
En France, le CSA comme le Conseil supérieur de la télématique, créé par décret en février 1993, revendiquent le rôle de régulateurs de l'Internet. Cette confusion révèle le caractère singulier de l'Internet, qui relève à la fois des réglementations de l'audiovisuel, des télécommunications et de l'informatique.

Ainsi la crainte née d'un réseau favorisant les activités illégales se double t-elle aujourd'hui de la crainte d'une intrusion des Etats dans son fonctionnement. Le caractère mondial du réseau complique pourtant les tentatives de réglementation, par définition entreprises au niveau national. La régulation juridique est délicate puisqu'un acteur a toujours la possibilité d'héberger anonymement un site à l'étranger et de le déplacer en fonction des tentatives de blocage. Seule la coopération internationale peut permettre de prévenir les abus observés sur l'Internet sans induire de contrôle excessif.