Les débuts des années 1980 ont marqué une ère naissante mais en rapide évolution dans le domaine de l'informatique, caractérisée par la prolifération de systèmes informatiques spécialisés et d'architectures réseau propriétaires. Suite à l'adoption généralisée de l'ordinateur personnel et au passage subséquent d'un calcul centralisé sur mainframe à des stations de travail plus distribuées au sein des départements et des individus, les organisations ont dû faire face à un environnement technologique de plus en plus complexe. Les entreprises et les institutions de recherche acquéraient souvent des machines auprès de différents fournisseurs, chacune avec ses propres spécifications matérielles uniques et, surtout, des protocoles de communication incompatibles tels que DECnet, l'Architecture de Réseau des Systèmes d'IBM (SNA), IPX/SPX de Novell et AppleTalk, aux côtés du Protocole Internet (IP) émergent. Cette fragmentation signifiait que l'échange de données entre les systèmes était laborieux, sinon impossible. Les réseaux locaux (LAN) gagnaient en popularité au sein des organisations, permettant aux dispositifs situés dans une zone géographique limitée de partager des ressources et des périphériques. L'Ethernet, en particulier, devenait rapidement une norme dominante pour la connectivité LAN, facilitant la communication à haute vitesse au sein d'un seul segment de réseau. Cependant, la capacité d'échanger des données de manière transparente entre différents LAN, ou entre des LAN et des réseaux étendus (WAN) comme ARPANET, restait un obstacle majeur. Ce paysage technique créait un besoin pressant de dispositifs sophistiqués capables de traduire et de transférer des paquets de données à travers ces réseaux disparates et hétérogènes de manière efficace et fiable.
À l'Université de Stanford, un pôle de recherche et d'innovation en informatique avancée, ce défi était particulièrement aigu. L'université maintenait plusieurs réseaux informatiques distincts, chacun fonctionnant avec différents protocoles matériels et logiciels, soutenant un écosystème diversifié de ressources informatiques allant des mini-ordinateurs DEC VAX et des mainframes IBM aux stations de travail Sun et aux Macintosh d'Apple. La variété même des systèmes et leur isolement créaient des inefficacités opérationnelles significatives et entravaient les efforts de recherche collaborative. C'est dans cet environnement que Leonard Bosack, responsable des installations du département d'informatique, et Sandy Lerner, qui gérait les ordinateurs à l'École de Commerce de Stanford, ont abordé indépendamment et en collaboration le problème de l'interopérabilité des réseaux. Tous deux avaient une expérience pratique approfondie de l'infrastructure informatique complexe de l'université et reconnaissaient l'inefficacité fondamentale et les implications de coût des réseaux isolés. Leur vision commune était centrée sur la création d'un système robuste capable de permettre à des réseaux divers de communiquer comme un tout unifié et cohérent, favorisant un véritable environnement numérique interconnecté pour les enseignants, les chercheurs et les étudiants.
L'expertise technique de Bosack était profondément ancrée dans les travaux préliminaires sur les protocoles réseau et le commutateur de paquets, en particulier avec l'ARPANET du Département de la Défense des États-Unis, qui utilisait la suite de protocoles Internet (IP) naissante. Il avait une compréhension profonde de la manière dont les paquets de données traversaient les réseaux et des complexités impliquées dans la gestion du trafic à travers différents segments. Il observait que les solutions de mise en réseau existantes, telles que les ponts simples ou les répéteurs, avaient souvent du mal avec l'évolutivité, la sécurité et la capacité à router intelligemment le trafic à travers plusieurs types de réseaux, en particulier ceux utilisant des protocoles non-IP. Les ponts fonctionnaient à un niveau inférieur de la pile réseau, transférant tout le trafic sans distinction entre les segments connectés, ce qui pouvait entraîner des tempêtes de diffusion et de la congestion réseau à mesure que les réseaux grandissaient. Les routeurs, en revanche, fonctionnaient à un niveau supérieur, prenant des décisions de transfert intelligentes basées sur les adresses réseau. Lerner, avec son expérience en informatique et son expérience pratique dans les opérations commerciales, comprenait les profondes implications pratiques d'une connectivité transparente pour les chercheurs et les administrateurs, non seulement d'un point de vue technique mais aussi d'un point de vue d'efficacité organisationnelle. Leur collaboration était motivée par un besoin pragmatique et urgent de connecter les multiples systèmes de Stanford - de DEC à IBM en passant par diverses machines Unix - et de permettre à leurs utilisateurs de partager des ressources et des informations plus efficacement, favorisant une collaboration qui transcendait les frontières départementales.
Le concept initial, développé dans le contexte de Stanford, tournait autour d'un dispositif désormais connu sous le nom de routeur multi-protocoles. Ce dispositif innovant interpréterait les adresses réseau et transférerait des paquets de données d'un réseau à un autre, même si ces réseaux utilisaient différentes technologies matérielles sous-jacentes ou protocoles de communication. La distinction cruciale était sa capacité à comprendre et à traduire entre divers protocoles réseau, prenant des décisions de routage intelligentes basées sur la topologie du réseau et les conditions de trafic. Le défi n'était pas simplement de relier deux réseaux, mais de créer un système robuste et évolutif capable de gérer le trafic à travers un maillage de systèmes interconnectés en constante expansion, s'adaptant dynamiquement aux changements de réseau. La propriété intellectuelle de cette technologie de routeur précoce, y compris le logiciel fondamental (écrit en C) et les conceptions matérielles (initialement construites autour d'un micro-ordinateur LSI-11 de Digital Equipment Corporation (DEC)), a été développée en utilisant les ressources et l'équipement de l'Université de Stanford. Ce travail fondamental deviendrait plus tard un point de discorde significatif entre les fondateurs et l'université, un défi commun pour les startups émergeant d'environnements de recherche académique dans la Silicon Valley.
Reconnaissant le potentiel commercial plus large de leur invention, en particulier alors que les entreprises commençaient à adopter des environnements informatiques multi-plateformes similaires et que le modèle client-serveur gagnait en importance, Bosack et Lerner décidèrent de commercialiser leur technologie. L'esprit entrepreneurial de la Silicon Valley au milieu des années 1980 offrait un terreau fertile pour de telles entreprises, avec un écosystème croissant de capital-risqueurs, d'ingénieurs et de services de soutien. Le marché de l'ordinateur personnel était en plein essor, entraînant une demande croissante de solutions de mise en réseau sophistiquées au-delà des LAN de base. Cependant, le chemin pour établir une entité commerciale formelle n'était pas sans obstacles. L'Université de Stanford, en tant que propriétaire de la propriété intellectuelle développée sur son territoire et avec ses ressources, cherchait initialement à conserver le contrôle ou à sécuriser des redevances significatives pour la technologie. Cela a créé une période de négociations intenses et de disputes sur les droits de ce qui deviendrait les produits phares de la nouvelle entreprise. La politique standard de l'université impliquait généralement soit un accord de licence avec des redevances, soit une participation au capital dans toute entreprise dérivée exploitant la propriété intellectuelle développée par l'université.
Malgré les complexités entourant la propriété intellectuelle, qui ont retardé leur lancement officiel et leurs efforts de collecte de fonds, les fondateurs ont maintenu leur conviction concernant la demande de marché significative pour leur solution de mise en réseau. Ils comprenaient que l'environnement informatique d'entreprise en plein essor, de plus en plus dépendant des systèmes distribués et des architectures client-serveur, nécessiterait des solutions de connectivité réseau robustes, flexibles et évolutives. Les acteurs existants dans le domaine de la mise en réseau à l'époque, tels que 3Com (se concentrant sur les adaptateurs Ethernet), Ungermann-Bass (offrant des réseaux d'entreprise généraux) et Bridge Communications (fournissant des ponts et des serveurs de terminaux), n'offraient pas de solution de routage multi-protocoles complète avec le même niveau de sophistication ou de prévoyance sur l'avenir des réseaux interconnectés. Cette compréhension a fourni l'impulsion pour une incorporation formelle. Après avoir navigué à travers les défis juridiques et logistiques nécessaires, et finalement atteint un accord avec Stanford concernant la licence de leur technologie - un accord qui aurait impliqué des redevances continues versées à l'université - Leonard Bosack et Sandy Lerner ont officiellement établi Cisco Systems, Inc. en décembre 1984. Le nom 'Cisco' était dérivé de San Francisco, reflétant leurs origines géographiques, bien qu'il ait été initialement stylisé avec un 'c' minuscule pour faire subtilement allusion à la ville au bord de la baie. Avec l'incorporation, la scène était prête pour que l'entreprise passe d'un projet académique à une entreprise commerciale, visant à résoudre des défis critiques de connectivité pour les entreprises et les institutions à l'échelle mondiale.
L'acte d'incorporation formelle a marqué un moment décisif, transformant un projet universitaire en une entreprise commerciale avec une mission claire. L'entreprise a commencé avec une technologie fondamentale conçue pour répondre à une demande croissante d'interopérabilité dans un paysage informatique fragmenté. Fonctionnant initialement avec une équipe réduite, principalement les deux fondateurs, et un capital autofinancé, Cisco s'est concentré sur le perfectionnement de sa technologie de routeur pour un déploiement commercial. Leur premier produit, l'AGS (Advanced Gateway Server), a été officiellement expédié en 1986. Les premières ventes étaient souvent destinées à d'autres institutions académiques et installations de recherche, où le besoin de routage multi-protocoles était bien compris et immédiat. Cet alignement stratégique a positionné Cisco Systems pour capitaliser sur la complexité croissante des réseaux d'entreprise et le besoin émergent de solutions de routage multi-protocoles évolutives, définissant la trajectoire de son développement futur dans l'industrie de la mise en réseau naissante. Le défi initial de connecter des systèmes disparates au sein d'un environnement universitaire avait fourni le plan pour un produit qui deviendrait bientôt indispensable à la communication numérique mondiale. Les fondateurs, désormais dotés d'une structure commerciale formelle, se préparaient à introduire leur technologie de routage sur un marché plus large, passant du cadre académique au domaine commercial où la demande pour une communication réseau efficace était en forte hausse et prête à connaître une croissance explosive.
