Tuesday, March 15, 2011

MMS WHAT'S THAT?

Jim Humble
MMS Home Page

Powered byTranslate
New Protocols 1,000, 2,000 & 3,000
MMS Basic Information
Genesis II Church of Health & Healing
 
Jim Humble's MMS Training Courses
MMS Newsletter
 Remove Subscribe
 MMSnews 






Humble's Articles - 2009
World Peace
21 MMS Protocols - Alphabetical List
Testimonies
Cancer Gone!!!!
Dear Mr. Humble,

I thought you would like to know that I have cured myself of uterine and ovarian cancer with MMS. One year ago I was diagnosed with stage 4 malignant melanoma (Skin Cancer spread to my lymph hodes). I had an ultrasound in June of this year. the Dr. said I had a tumor on my right ovary and my uterus showed signs of cancer/precancer. The Dr. said I would have to have a hysterectomy. We decided to repeat the ultrasound in 1 month and do a biopsy and schedule the surgery after the results of the second ultrasound. In July I did a course of MMS lasting about 3 weeks. The MMS treatment was unpleasant. Every time I took a dose I felt ill. I had diarhea and nausea and vomitting. I also experienced excruciating pain in my right side (the affected ovary). I stuck with it dropping down a few drops then ramping back up until I reached 15 drops a day 2 times a day. I also found I would get less nauseus if I ate a half hour before taking MMS. I just got the results of the repeat ultrasound. The ovarian tumor is gone completely and my uterus is normal and healthy, The Dr. said he doesn't know why but I no longer need surgery or a biopsy. Everthing is normal and healthy!

Sincerly,
anonymous MMS patient( scared of the F...
anonymous ( Cancer Gone!!! ) 11/30/-0001 12:00am
Bronchitis Cured
I suffered with a severe case of bronchitis every year in the winter for 5 years in a row. I found MMS and started taking it at the first sign of symptoms. I haven't had bronchitis in over 3 years now. I take it once a week during cold season just as prevention and every time anyone in our household shows any symptoms of cold, flu, etc., we grab the MMS and start dosing. It works every time. Thanks so much for making this information available to the pub...
M. Robinson ( South Carolina ) 02/22/2011 02:52am
amazing healing
I've been taking MMS for 2 years and could not ingest enough to win. Then added wrapping a towel over my body and found improvement. About 4 months ago began squirting 2 squirts in a tub and soaking in the bath and finally started winning. Increasing the quantity made breathing difficult. So 2 regular squirts and soak as often as possible and I've improved remarkably to near cleared. Absurd and astonishing these MMS soaks have me nearly well. Thank you ...
Dave Cunningham ( Florida ) 01/30/2011 08:24am

Thursday, March 10, 2011

HAITI AND THE SEISMIC WEARPON

Haiti and the seismic weapon

  •  





The controversy that followed the publication on our website of an article entertaining the possibility that the earthquake in Haiti was caused artificially, calls for clarification. Yes, seismic weapons do exist and the United States, among others, have them. Yes, the U.S. military forces were pre-positionned to be deployed to the island. These facts are not conclusive in themselves but they certainly warrant heightened scrutiny into this matter.
In publishing “Was the earthquake in Haiti caused by the United States”, our purpose was to bring out an issue that is stirring military and media circles in several countries, but which is being ignored in others [1]. What matters here is not to take a stand. In keeping with our approach, though often misunderstood, we maintain that it is impossible to have a good grasp of international relations without studying what the leaders of this planet are thinking.
Prevailing conformity has led to a situation where, while no one is ruffled when we report on contentious issues kindling in Washington, a general outcry is fueled when the controversy stems from a non-aligned country. It would appear that Europeans have a preconceived opinion that only “western” concerns are pertinent while all the others should not be taken seriously.
One of our collaborators attempted to trace the origin of the allegation regarding the possible artificial causes of the earthquake in Haiti. He was concerned that the whole thing might have been a hoax launched by a certain David Booth (alias Sorcha Faal), which then penetrated government circles throughout the world. In the end, we are not sure exactly who is behind the allegation, but what we know for certain is that this issue is being heatedly discussed at the highest level in several countries in Latin America, Eastern Europe and Asia.
As editor-in-chief of Voltaire Network, I made the decision to research and translate the dispatch from VivéTv, which had been disseminated as a communiqué on the website of the Communications Ministry of Venezuela, and to publish it together with the related video fromRussia Today, preceded by the remark: “Oddly enough, the Venezuelan channel designates the Russian Army as the source of these claims whereas the Russian channel attributes them to President Chávez.”
While these elements were faithfully relayed by numerous newspapers, especially in the Middle East, they were distorted by the Atlanticist media which chose to reflect Sorcha Faal’s article. Faal pulled certain fragments from the VivéTv text, and by adding inverted commas put them into Hugo Chávez’s mouth. What was initially intended as a working hypothesis has been converted into the Government’s position. Some of these media outlets went so far as to completely fabricate the context in which President Chávez expressed himself, pointedly implying that the President and his audience suffer from acute anti-american frenzy and thatVoltaire Network shares the same ailment.
But instead of yielding to this manipulation, let us go deeper into this hypothesis.
How much do we know about seismic weapons at present ?
During the Second World War, a group of New Zealand researchers attempted to develop a device capable of provoking tsunamis that could be unleashed against Japan. The research work was conducted by Thomas Leech, an Australian national, at Auckland University behind the code name of “Project Seal”. Several small-scale test explosions were carried out successfully, between 1944 and 1945, at Whangaparaoa off the coast of Auckland.
The United States deemed this programme to be as equally promising as the “Manhattan Project”, involving the development of the atomic bomb, and appointed Dr. Karl T. Compton to maintain the liaison between the two research units. Compton was an American physicist and president of the Massachusetts Institute of Technology from 1930 to 1948.
The work started by Thomas Leech was pursued during the Cold War. In 1947, King George VI elevated him to the rank of Knight of the British Empire for his role in the elaboration of this new weapon. At the time, Project Seal was still a military secret and it was therefore not disclosed that Thomas Leech had in fact been rewarded for concocting the “tsunami bomb”. Subsequently, the US intelligence services covered it up by claiming that the research had never really existed and that the whole thing had been an artifice to impress the Soviets. However, the authenticity of Leech’s tests was established in 1999, when the New Zealand Ministry of Foreign Affairs declassified part of the documentation. The research studies are officially back on track and taking place at the University of Waikato. [2]
[efoods]
It is not known whether the research undertaken by the Anglo-Saxons continued during the 60’s, but it was resumed by force of circumstances when atmospheric nuclear tests were abandoned in favour of sub-marine tests. The United States were afraid of provoking earthquakes and tsunamis unintentionally. They preferred to learn how to do it intentionally.
Officially, at the end of the Vietnam War, the United States and the Soviet Union gave up environmental wars (earthquakes, tsunamis, environmental balance destabilization, atmospheric modification – clouds, rain, cyclones, tornadoes -, modification of the climate, ocean currents, the ozone layer and the ionosphere) upon signing the 1976 “Convention on the Prohibition of Military or Any Other Hostile Use of Environmental Modification Techniques”.
Nevertheless, in 1975, the USSR embarked on a new research, this time in the field of Magnetohydrodynamics (MHD) for the purpose of studying the earth’s crust and be able to anticipate earthquakes. The Soviets examined the possibility of provoking small quakes in order to forestall a big one. This research was quickly militarized and resulted in the construction of Pamir, the earthquake machine.
After the dismemberment of the USSR, those in charge of this programme decided to go to the United States for lure of money, but the Pentagon refused to pay them since their research was incomplete. In 1995, when Russia was governed by Boris Yeltsin and oligarch Viktor Chernomyrdin, the US Air Force recruited the researchers working at their Nizhny Novgorod laboratory. They built a much more powerful machine, Pamir 3, that was tested successfully. At that point, the Pentagon bought the men together with the material and shipped them to the United States, where they were incorporated into the HAARP programme.
Machine a tremblement de terre ! par lorelianeGTQ.” The Earthquake Machine”, excerpt from a French television Channel 5 programme, based on a documentary by Jeff Swimmer “Les colères du climat” (The wrath of climate) aired on National Geographic (2005).
Various instances where the seismic weapon might have been employed have been contemplated, especially in Algeria and Turkey. However, the most discussed one is the 12 May 2008 earthquake in Sichuan (China). During the 30 minutes that preceded the earthquake, the inhabitants of the region observed atypical colours in the sky. While some interpreted these events as a sign that the sky was repudiating the Communist Party, others reacted in a more rational way. The same energy used to provoke the earthquake is also likely to have perturbed the ionosphere.
30 minutes before the 2008 Sichuan earthquake in China
Back to Haiti
Nothing distinguishes an artificial earthquake from a natural one; this being said, they have the knowhow to induce only superficial earthquakes, like the one in Haiti.
What is particularly disturbing is the reaction of the United States. While the Western media are immersed in a controversy over the violation of Haiti’s sovereignty, the Latin American media are perplexed about the swiftness of GI deployment: as of the first day, more than 10000 soldiers and contractors arrived in Haiti. This logistical feat can be easily explained since these troops were already pre-positioned in the context of a military exercise. Under the orders of General P.K. Keen, Military Deputy Commander of U.S. Southern Command (USSOUTHCOM), they took part in an excercise simulating a humanitarian operation in Haiti after a hurricane. Keen and his staff had arrived a few days earlier. At the precise moment that the earth shook, they were already sheltered in the US Embassy, built in compliance with anti-earthquake norms; only two men who were not at the Embassy but at the Hotel Montana have been reported injured.
General Keen has granted several interviews to the US media, which has provided ample coverage mainly focusing on the relief operations. While Keen’s presence in Port-au-Prince during the earthquake has been referred to several times, the reasons for his presence were never mentioned.
Among the objectives of the military exercise was the application of a new software enabling the NGOs and the armed forces to coordinate their humanitarian efforts. In the few minutes that followed the catastrophe, the software was put on line and 280 NGOs readily signed up.
It is legitimate to question whether such coincidences are simply due to chance.
REF: 
Thierry Meyssan
Voltaire Network
January 27, 2010

Wednesday, March 9, 2011

HAARP AND HAITI

Haiti Earthquake Caused by HAARP Weapon

The HAARP Induction Magnetometer, a device used to measure the geomagnetic activity induced by the Alaskan HAARP weapon (which has proven to produce earthquakes), began powering up on January 10th at about 4pm UTC lasting on full blast until January 12th at around 3pm UTC, when it powered down again. The Haiti earthquake happened 5-6 hours later.


-The earthquakes epicenter was only 10 miles from the Haitian capital

-There was a lack of related seismic and tsunamic activity usually associated with quakes of this magnitude

-Haiti was only 6 weeks away from national elections

-Haiti has a long anti-NWO, anti-globalist history (Click here for details)

-The day before the Earthquake, the Defense Information Systems Agency was in Haiti running drills of providing natural disaster relief (Click here for details) Just like on 9/11, and 7/7 when the government was "coincidentally" running drills for the exact event that happened.

-The Heritage Foundation think-tank responded within hours of the earthquake with a demand that the US should use this crisis to it's advantage.

-The US Military "aid" is looking more like US Military "occupation" as they work much more on "maintaining security" than actually getting aid to the Haitian people

-Watch the videos below for much more detail on all of this:










Also see the following:

What's Really Going on in Haiti?


Haiti and the Seismic Weapon

Haiti's Oil, Gold, and Iridium Resources Explains the Post Earthquake Occupation/Invasion

Watch Jesse Ventura's HAARP Conspiracy Show

Proof the 2008 China Earthquake was caused by HAARP

Sunday, March 6, 2011

RÉSEAUX INFORMATIQUES

1 - Introduction

Les constructeurs informatiques ont proposé des architectures réseaux propres à leurs équipements. Par exemple, IBM a proposé SNA, DEC a proposé DNA... Ces architectures ont toutes le même défaut : du fait de leur caractère propriétaire, il n'est pas facile des les interconnecter, à moins d'un accord entre constructeurs. Aussi, pour éviter la multiplication des solutions d'interconnexion d'architectures hétérogènes, l'ISO (International Standards Organisation), organisme dépendant de l'ONU et composé de 140 organismes nationaux de normalisation, a développé un modèle de référence appelé modèle OSI (Open Systems Interconnection). Ce modèle décrit les concepts utilisés et la démarche suivie pour normaliser l'interconnexion de systèmes ouverts (un réseau est composé de systèmes ouverts lorsque la modification, l'adjonction ou la suppression d'un de ces systèmes ne modifie pas le comportement global du réseau).

Au moment de la conception de ce modèle, la prise en compte de l'hétérogénéité des équipements était fondamentale. En effet, ce modèle devait permettre l'interconnexion avec des systèmes hétérogènes pour des raisons historiques et économiques. Il ne devait en outre pas favoriser un fournisseur particulier. Enfin, il devait permettre de s'adapter à l'évolution des flux d'informations à traiter sans remettre en cause les investissements antérieurs. Cette prise en compte de l'hétérogénéité nécessite donc l'adoption de règles communes de communication et de coopération entre les équipements, c'est à dire que ce modèle devait logiquement mener à une normalisation internationale des protocoles.

Le modèle OSI n'est pas une véritable architecture de réseau, car il ne précise pas réellement les services et les protocoles à utiliser pour chaque couche. Il décrit plutôt ce que doivent faire les couches. Néanmoins, l'ISO a écrit ses propres normes pour chaque couche, et ceci de manière indépendante au modèle, i.e. comme le fait tout constructeur.

Les premiers travaux portant sur le modèle OSI datent de 1977. Ils ont été basés sur l'expérience acquise en matière de grands réseaux et de réseaux privés plus petits ; le modèle devait en effet être valable pour tous les types de réseaux. En 1978, l'ISO propose ce modèle sous la norme ISO IS7498. En 1984, 12 constructeurs européens, rejoints en 1985 par les grands constructeurs américains, adoptent le standard.

2 - Les différentes couches du modèle

2.1 - Les 7 couches

Le modèle OSI comporte 7 couches :

TCPIP IPV6 VOIP VPN IP IPV4

Les principes qui ont conduit à ces 7 couches sont les suivants :

- une couche doit être créée lorsqu'un nouveau niveau d'abstraction est nécessaire,
- chaque couche a des fonctions bien définies,
- les fonctions de chaque couche doivent être choisies dans l'objectif de la normalisation internationale des protocoles,
- les frontières entre couches doivent être choisies de manière à minimiser le flux d'information aux interfaces,
- le nombre de couches doit être tel qu'il n'y ait pas cohabitation de fonctions très différentes au sein d'une même couche et que l'architecture ne soit pas trop difficile à maîtriser.

Les couches basses (1, 2, 3 et 4) sont nécessaires à l'acheminement des informations entre les extrémités concernées et dépendent du support physique. Les couches hautes (5, 6 et 7) sont responsables du traitement de l'information relative à la gestion des échanges entre systèmes informatiques. Par ailleurs, les couches 1 à 3 interviennent entre machines voisines, et non entre les machines d'extrémité qui peuvent être séparées par plusieurs routeurs. Les couches 4 à 7 sont au contraire des couches qui n'interviennent qu'entre hôtes distants.

2.2 - La couche physique

La couche physique s'occupe de la transmission des bits de façon brute sur un canal de communication. Cette couche doit garantir la parfaite transmission des données (un bit 1 envoyé doit bien être reçu comme bit valant 1). Concrètement, cette couche doit normaliser les caractéristiques électriques (un bit 1 doit être représenté par une tension de 5 V, par exemple), les caractéristiques mécaniques (forme des connecteurs, de la topologie...), les caractéristiques fonctionnelles des circuits de données et les procédures d'établissement, de maintien et de libération du circuit de données.

L'unité d'information typique de cette couche est le bit, représenté par une certaine différence de potentiel.

2.3 - La couche liaison de données

Son rôle est un rôle de "liant" : elle va transformer la couche physique en une liaison a priori exempte d'erreurs de transmission pour la couche réseau. Elle fractionne les données d'entrée de l'émetteur en trames, transmet ces trames en séquence et gère les trames d'acquittement renvoyées par le récepteur. Rappelons que pour la couche physique, les données n'ont aucune signification particulière. La couche liaison de données doit donc être capable de reconnaître les frontières des trames. Cela peut poser quelques problèmes, puisque les séquences de bits utilisées pour cette reconnaissance peuvent apparaître dans les données.

La couche liaison de données doit être capable de renvoyer une trame lorsqu'il y a eu un problème sur la ligne de transmission. De manière générale, un rôle important de cette couche est la détection et la correction d'erreurs intervenues sur la couche physique. Cette couche intègre également une fonction de contrôle de flux pour éviter l'engorgement du récepteur.

L'unité d'information de la couche liaison de données est la trame qui est composées de quelques centaines à quelques milliers d'octets maximum.

2.4 - La couche réseau

C'est la couche qui permet de gérer le sous-réseau, i.e. le routage des paquets sur ce sous-réseau et l'interconnexion des différents sous-réseaux entre eux. Au moment de sa conception, il faut bien déterminer le mécanisme de routage et de calcul des tables de routage (tables statiques ou dynamiques...).

La couche réseau contrôle également l'engorgement du sous-réseau. On peut également y intégrer des fonctions de comptabilité pour la facturation au volume, mais cela peut être délicat.

L'unité d'information de la couche réseau est le paquet.

2.5 - Couche transport

Cette couche est responsable du bon acheminement des messages complets au destinataire. Le rôle principal de la couche transport est de prendre les messages de la couche session, de les découper s'il le faut en unités plus petites et de les passer à la couche réseau, tout en s'assurant que les morceaux arrivent correctement de l'autre côté. Cette couche effectue donc aussi le réassemblage du message à la réception des morceaux.

Cette couche est également responsable de l'optimisation des ressources du réseau : en toute rigueur, la couche transport crée une connexion réseau par connexion de transport requise par la couche session, mais cette couche est capable de créer plusieurs connexions réseau par processus de la couche session pour répartir les données, par exemple pour améliorer le débit. A l'inverse, cette couche est capable d'utiliser une seule connexion réseau pour transporter plusieurs messages à la fois grâce au multiplexage. Dans tous les cas, tout ceci doit être transparent pour la couche session.

Cette couche est également responsable du type de service à fournir à la couche session, et finalement aux utilisateurs du réseau : service en mode connecté ou non, avec ou sans garantie d'ordre de délivrance, diffusion du message à plusieurs destinataires à la fois... Cette couche est donc également responsable de l'établissement et du relâchement des connexions sur le réseau.

Un des tous derniers rôles à évoquer est le contrôle de flux.

C'est l'une des couches les plus importantes, car c'est elle qui fournit le service de base à l'utilisateur, et c'est par ailleurs elle qui gère l'ensemble du processus de connexion, avec toutes les contraintes qui y sont liées.

L'unité d'information de la couche réseau est le message.

2.6 - La couche session

Cette couche organise et synchronise les échanges entre tâches distantes. Elle réalise le lien entre les adresses logiques et les adresses physiques des tâches réparties. Elle établit également une liaison entre deux programmes d'application devant coopérer et commande leur dialogue (qui doit parler, qui parle...). Dans ce dernier cas, ce service d'organisation s'appelle la gestion du jeton. La couche session permet aussi d'insérer des points de reprise dans le flot de données de manière à pouvoir reprendre le dialogue après une panne.

2.7 - La couche présentation

Cette couche s'intéresse à la syntaxe et à la sémantique des données transmises : c'est elle qui traite l'information de manière à la rendre compatible entre tâches communicantes. Elle va assurer l'indépendance entre l'utilisateur et le transport de l'information.

Typiquement, cette couche peut convertir les données, les reformater, les crypter et les compresser.

2.8 - La couche application

Cette couche est le point de contact entre l'utilisateur et le réseau. C'est donc elle qui va apporter à l'utilisateur les services de base offerts par le réseau, comme par exemple le transfert de fichier, la messagerie...

3 - Transmission de données au travers du modèle OSI

Le processus émetteur remet les données à envoyer au processus récepteur à la couche application qui leur ajoute un en-tête application AH (éventuellement nul). Le résultat est alors transmis à la couche présentation.

La couche présentation transforme alors ce message et lui ajoute (ou non) un nouvel en-tête (éventuellement nul). La couche présentation ne connaît et ne doit pas connaître l'existence éventuelle de AH ; pour la couche présentation, AH fait en fait partie des données utilisateur. Une fois le traitement terminé, la couche présentation envoie le nouveau "message" à la couche session et le même processus recommence.

Les données atteignent alors la couche physique qui va effectivement transmettre les données au destinataire. A la réception, le message va remonter les couches et les en-têtes sont progressivement retirés jusqu'à atteindre le processus récepteur :

TCPIP IPV6 VOIP VPN IP IPV4

Le concept important est le suivant : il faut considérer que chaque couche est programmée comme si elle était vraiment horizontale, c'est à dire qu'elle dialoguait directement avec sa couche paire réceptrice. Au moment de dialoguer avec sa couche paire, chaque couche rajoute un en-tête et l'envoie (virtuellement, grâce à la couche sous-jacente) à sa couche paire.

4 - Critique du modèle OSI

La chose la plus frappante à propos du modèle OSI est que c'est peut-être la structure réseau la plus étudiée et la plus unanimement reconnue et pourtant ce n'est pas le modèle qui a su s'imposer. Les spécialistes qui ont analysé cet échec en ont déterminé 4 raisons principales.

4.1 - Ce n'était pas le bon moment

David Clark du MIT a émis la théorie suivant quant à l'art et la manière de publier une norme au bon moment. Pour lui, dans le cycle de vie d'une norme, il y a 2 pics principaux d'activité : la recherche effectuée dans le domaine couvert par la norme, et les investissements des industriels pour l'implémentation et la mise en place de la norme. Ces deux pics sont séparés par un creux d'activité qui apparaît être en fait le moment idéal pour la publication de la norme : il n'est ni trop tôt par rapport à la recherche et on peut donc assurer une certaine maîtrise, et il n'est ni trop tard pour les investissements et les industriels sont prêts à utiliser des capitaux pour l'implémenter.

Le modèle OSI était idéalement placé par rapport à la recherche, mais hélas, le modèle TCP/IP était déjà en phase d'investissement prononcé (lorsque le modèle OSI est sorti, les universités américaines utilisaient déjà largement TCP/IP avec un certain succès) et les industriels n'ont pas ressenti le besoin d'investir dessus.

4.2 - Ce n'était pas la bonne technologie

Le modèle OSI est peut-être trop complet et trop complexe. La distance entre l'utilisation concrète (l'implémentation) et le modèle est parfois importante. En effet, peu de programmes peuvent utiliser ou utilisent mal l'ensemble des 7 couches du modèle : les couches session et présentation sont fort peu utilisées et à l'inverse les couches liaison de données et réseau sont très souvent découpées en sous-couches tant elles sont complexes.

OSI est en fait trop complexe pour pouvoir être proprement et efficacement implémenté. Le comité rédacteur de la norme a même du laisser de côté certains points techniques, comme le la sécurité et le codage, tant il était délicat de conserver un rôle bien déterminé à chaque couche ainsi complétée. Ce modèle est également redondant (le contrôle de flux et le contrôle d'erreur apparaissent pratiquement dans chaque couche). Au niveau de l'implémentation, TCP/IP est beaucoup plus optimisé et efficace.

La plus grosse critique que l'on peut faire au modèle est qu'il n'est pas du tout adapté aux applications de télécommunication sur ordinateur ! Certains choix effectués sont en désaccord avec la façon dont les ordinateurs et les logiciels communiquent. La norme a en fait fait le choix d'un "système d'interruptions" pour signaler les événements, et sur des langages de programmation de haut niveau, cela est peu réalisable.

4.3 - Ce n'était pas la bonne implémentation

Cela tient tout simplement du fait que le modèle est relativement complexe, et que du coup les premières implémentations furent relativement lourdes et lentes. A l'inverse, la première implémentation de TCP/IP dans l'Unix de l'université de Berkeley (BSD) était gratuite et relativement efficace. Historiquement, les gens ont donc eu une tendance naturelle à utiliser TCP/IP.

4.4 - Ce n'était pas la bonne politique

Le modèle OSI a en fait souffert de sa trop forte normalisation. Les efforts d'implémentation du modèle étaient surtout "bureaucratiques" et les gens ont peut-être vu ça d'un mauvaise oeil.

A l'inverse, TCP/IP est venu d'Unix et a été tout de suite utilisé, qui plus est par des centres de recherches et les universités, c'est-à-dire les premiers a avoir utilisé les réseaux de manière poussée. Le manque de normalisation de TCP/IP a été contre-balancé par une implémentation rapide et efficace, et une utilisation dans un milieu propice à sa propagation.

5 - L'avenir d'OSI

Au niveau de son utilisation et implémentation, et ce malgré une mise à jour du modèle en 1994, OSI a clairement perdu la guerre face à TCP/IP. Seuls quelques grands constructeurs dominant conservent le modèle mais il est amené à disparaître d'autant plus vite qu'Internet (et donc TCP/IP) explose.

Le modèle OSI restera cependant encore longtemps dans les mémoires pour plusieurs raisons. C'est d'abord l'un des premiers grands efforts en matière de normalisation du monde des réseaux. Les constructeurs ont maintenant tendance à faire avec TCP/IP, mais aussi le WAP, l'UMTS etc. ce qu'il devait faire avec OSI, à savoir proposer des normalisations dès le départ. OSI marquera aussi les mémoires pour une autre raison : même si c'est TCP/IP qui est concrètement utilisé, les gens ont tendance et utilisent OSI comme le modèle réseau de référence actuel. En fait, TCP/IP et OSI ont des structures très proches, et c'est surtout l'effort de normalisation d'OSI qui a imposé cette "confusion" générale entre les 2 modèles. On a communément tendance à considérer TCP/IP comme l'implémentation réelle de OSI.

6 - Discussion autour de la documentation

Vous pouvez poser toutes vos questions, vos remarques et vos expériences à propos du modèle OSI. Pour cela, rendez-vous sur le Forum "TCP-IP".

7 - Suivi du document

Le 02 mai 2003, par Sylvain, dernière mise à jour.