Die frühen 1980er Jahre stellten eine aufkeimende, aber sich schnell entwickelnde Ära in der Computertechnik dar, die durch die Verbreitung spezialisierter Computersysteme und proprietärer Netzwerkarchitekturen gekennzeichnet war. Nach der weit verbreiteten Einführung des Personal Computers und dem anschließenden Übergang von zentralisierten Mainframe-Computing zu mehr verteilten Abteilungs- und Einzelarbeitsplätzen sahen sich Organisationen einer zunehmend komplexen technologischen Umgebung gegenüber. Unternehmen und Forschungseinrichtungen erwarben häufig Maschinen von verschiedenen Anbietern, die jeweils ihre eigenen einzigartigen Hardware-Spezifikationen und, entscheidend, inkompatible Kommunikationsprotokolle wie DECnet, IBMs Systems Network Architecture (SNA), Novells IPX/SPX und AppleTalk sowie das aufkommende Internet Protocol (IP) verwendeten. Diese Fragmentierung bedeutete, dass der Datenaustausch zwischen Systemen umständlich, wenn nicht gar unmöglich war. Lokale Netzwerke (LANs) gewannen innerhalb von Organisationen an Bedeutung, indem sie Geräten innerhalb eines begrenzten geografischen Bereichs ermöglichten, Ressourcen und Peripheriegeräte zu teilen. Ethernet wurde insbesondere schnell zum dominierenden Standard für die LAN-Konnektivität und erleichterte die Hochgeschwindigkeitskommunikation innerhalb eines einzelnen Netzwerksegments. Die Fähigkeit, Daten nahtlos zwischen verschiedenen LANs oder zwischen LANs und Weitverkehrsnetzen (WANs) wie ARPANET auszutauschen, blieb jedoch ein erhebliches Hindernis. Diese technische Landschaft schuf einen dringenden Bedarf an ausgeklügelten Geräten, die in der Lage waren, Datenpakete effizient und zuverlässig über diese unterschiedlichen und heterogenen Netzwerke zu übersetzen und weiterzuleiten.
An der Stanford University, einem Zentrum für fortgeschrittene Computerforschung und Innovation, war diese Herausforderung besonders ausgeprägt. Die Universität unterhielt mehrere unterschiedliche Computernetzwerke, die jeweils mit verschiedenen Hardware- und Softwareprotokollen arbeiteten und ein vielfältiges Ökosystem von Computerressourcen unterstützten, das von DEC VAX-Minicomputern und IBM-Mainframes bis hin zu Sun-Workstations und Apple Macintosh reichte. Die schiere Vielfalt der Systeme und ihre Isolation führten zu erheblichen betrieblichen Ineffizienzen und behinderten die Zusammenarbeit in der Forschung. In diesem Umfeld wandten sich Leonard Bosack, ein Manager der Einrichtungen des Fachbereichs Informatik, und Sandy Lerner, die die Computer an der Stanford Graduate School of Business verwaltete, unabhängig und gemeinsam dem Problem der Netzwerkinteroperabilität zu. Beide hatten umfangreiche praktische Erfahrungen mit der komplexen Computerinfrastruktur der Universität und erkannten die grundlegende Ineffizienz und die Kostenimplikationen isolierter Netzwerke. Ihre gemeinsame Vision konzentrierte sich darauf, ein robustes System zu schaffen, das es unterschiedlichen Netzwerken ermöglichen würde, als einheitliches, kohärentes Ganzes zu kommunizieren und ein wirklich vernetztes digitales Umfeld für Fakultäten, Forscher und Studenten zu fördern.
Bosacks technische Expertise war tief in der frühen Arbeit an Netzwerkprotokollen und Paketvermittlung verwurzelt, insbesondere mit dem ARPANET des US-Verteidigungsministeriums, das das aufkommende Internet Protocol (IP)-Paket verwendete. Er hatte ein tiefes Verständnis dafür, wie Datenpakete Netzwerke durchquerten und welche Komplexitäten mit der Verwaltung des Datenverkehrs über verschiedene Segmente verbunden waren. Er stellte fest, dass bestehende Netzwerklösungen, wie einfache Brücken oder Repeater, oft mit Skalierbarkeit, Sicherheit und der Fähigkeit, den Datenverkehr intelligent über verschiedene Netzwerktypen zu leiten, insbesondere solche, die keine IP-Protokolle verwendeten, zu kämpfen hatten. Brücken arbeiteten auf einer niedrigeren Ebene des Netzwerkstapels und leiteten den gesamten Datenverkehr indiscriminately zwischen verbundenen Segmenten weiter, was zu Broadcast-Stürmen und Netzwerküberlastungen führen konnte, wenn die Netzwerke größer wurden. Router hingegen arbeiteten auf einer höheren Ebene und trafen intelligente Weiterleitungsentscheidungen basierend auf Netzwerkadressen. Lerner, mit ihrem Hintergrund in der Informatik und praktischen Erfahrungen im Geschäftsbetrieb, verstand die tiefgreifenden praktischen Auswirkungen nahtloser Konnektivität sowohl für Forscher als auch für Administratoren, nicht nur aus technischer Sicht, sondern auch aus der Perspektive der organisatorischen Effizienz. Ihre Zusammenarbeit wurde von einem pragmatischen und dringenden Bedürfnis getrieben, die zahlreichen Systeme von Stanford – von DEC über IBM bis hin zu verschiedenen Unix-Maschinen – zu verbinden und ihren Nutzern zu ermöglichen, Ressourcen und Informationen effektiver zu teilen, um eine Zusammenarbeit zu fördern, die über Abteilungsgrenzen hinausging.
Das ursprüngliche Konzept, das im Kontext von Stanford entwickelt wurde, drehte sich um ein Gerät, das heute als Multi-Protokoll-Router bekannt ist. Dieses innovative Gerät würde Netzwerkadressen interpretieren und Datenpakete von einem Netzwerk zu einem anderen weiterleiten, selbst wenn diese Netzwerke unterschiedliche zugrunde liegende Hardware-Technologien oder Kommunikationsprotokolle verwendeten. Der entscheidende Unterschied war seine Fähigkeit, zwischen verschiedenen Netzwerkprotokollen zu verstehen und zu übersetzen, intelligente Routing-Entscheidungen basierend auf der Netzwerk-Topologie und den Verkehrsbedingungen zu treffen. Die Herausforderung bestand nicht nur darin, zwei Netzwerke zu überbrücken, sondern ein robustes, skalierbares System zu schaffen, das den Datenverkehr über ein immer größer werdendes Netz von miteinander verbundenen Systemen verwalten konnte und sich dynamisch an Netzwerkänderungen anpasste. Das geistige Eigentum für diese frühe Router-Technologie, einschließlich der grundlegenden Software (in C geschrieben) und Hardware-Designs (ursprünglich um einen Digital Equipment Corporation (DEC) LSI-11 Mikrocomputer herum gebaut), wurde unter Verwendung von Ressourcen und Geräten der Stanford University entwickelt. Diese grundlegende Arbeit würde später zu einem bedeutenden Streitpunkt zwischen den Gründern und der Universität werden, eine häufige Herausforderung für Startups, die aus akademischen Forschungsumgebungen im Silicon Valley hervorgehen.
In Anerkennung des breiteren kommerziellen Potenzials ihrer Erfindung, insbesondere als Unternehmen begannen, ähnliche Multi-Plattform-Computing-Umgebungen zu übernehmen und das Client-Server-Modell an Bedeutung gewann, beschlossen Bosack und Lerner, ihre Technologie zu kommerzialisieren. Der Unternehmergeist des Silicon Valley in den mittleren 1980er Jahren bot einen fruchtbaren Boden für solche Unternehmungen, mit einem wachsenden Ökosystem von Risikokapitalgebern, Ingenieuren und Unterstützungsdiensten. Der Markt für Personal Computer boomte, was zu einer steigenden Nachfrage nach ausgeklügelten Netzwerk-Lösungen über grundlegende LANs hinaus führte. Der Weg zur Gründung einer formalen Geschäftseinheit war jedoch nicht ohne Hindernisse. Die Stanford University, als Eigentümer des auf ihrem Gelände und mit ihren Ressourcen entwickelten geistigen Eigentums, strebte zunächst an, die Kontrolle zu behalten oder erhebliche Lizenzgebühren für die Technologie zu sichern. Dies führte zu einer Phase intensiver Verhandlungen und Streitigkeiten über die Rechte an dem, was die Kernprodukte des neuen Unternehmens werden würden. Die Standardpolitik der Universität beinhaltete typischerweise entweder eine Lizenzvereinbarung mit Tantiemen oder eine Beteiligung an einem Spin-off-Unternehmen, das auf universitätsentwickeltem IP basierte.
Trotz der Komplexität, die das geistige Eigentum umgab und die ihre offizielle Einführung und Fundraising-Bemühungen verzögerte, hielten die Gründer an ihrer Überzeugung fest, dass eine erhebliche Marktnachfrage nach ihrer Netzwerk-Lösung bestand. Sie verstanden, dass die aufstrebende Unternehmens-Computing-Umgebung, die zunehmend auf verteilte Systeme und Client-Server-Architekturen angewiesen war, robuste, flexible und skalierbare Netzwerkverbindungslösungen erfordern würde. Bestehende Akteure im Netzwerkbereich zu dieser Zeit, wie 3Com (fokussiert auf Ethernet-Adapter), Ungermann-Bass (Angebot allgemeiner Unternehmensnetzwerke) und Bridge Communications (Bereitstellung von Brücken und Terminalservern), boten keine umfassende Multi-Protokoll-Routing-Lösung mit dem gleichen Maß an Raffinesse oder Weitblick in die Zukunft vernetzter Netzwerke. Dieses Verständnis gab den Anstoß zur formellen Gründung. Nach der Bewältigung der notwendigen rechtlichen und logistischen Herausforderungen und dem Erreichen einer Vereinbarung mit Stanford über die Lizenzierung ihrer Technologie – eine Vereinbarung, die Berichten zufolge laufende Tantiemen an die Universität beinhaltete – gründeten Leonard Bosack und Sandy Lerner im Dezember 1984 offiziell Cisco Systems, Inc. Der Name 'Cisco' wurde von San Francisco abgeleitet und spiegelte ihre geografischen Ursprünge wider, obwohl er zunächst mit einem kleinen 'c' stilisiert wurde, um subtil auf die Stadt an der Bucht hinzuweisen. Mit der Gründung war die Bühne bereitet, damit das Unternehmen von einem akademischen Projekt zu einem kommerziellen Unternehmen übergehen konnte, das darauf abzielte, kritische Konnektivitätsherausforderungen für Unternehmen und Institutionen weltweit zu lösen.
Der Akt der formalen Gründung markierte einen entscheidenden Moment, der ein Universitätsprojekt in ein kommerzielles Unterfangen mit einer klaren Mission verwandelte. Das Unternehmen begann mit einer grundlegenden Technologie, die darauf abzielte, einer wachsenden Nachfrage nach Interoperabilität in einer fragmentierten Computerlandschaft gerecht zu werden. Zunächst mit einem schlanken Team, hauptsächlich den beiden Gründern, und bootstrap Kapital operierend, konzentrierte sich Cisco darauf, seine Router-Technologie für den kommerziellen Einsatz zu verfeinern. Ihr erstes Produkt, der AGS (Advanced Gateway Server), wurde 1986 offiziell ausgeliefert. Frühe Verkäufe gingen oft an andere akademische Institutionen und Forschungseinrichtungen, wo der Bedarf an Multi-Protokoll-Routing gut verstanden und unmittelbar war. Diese strategische Ausrichtung positionierte Cisco Systems, um von der zunehmenden Komplexität der Unternehmensnetzwerke und dem aufkommenden Bedarf an skalierbaren Multi-Protokoll-Routing-Lösungen zu profitieren, und setzte den Kurs für die zukünftige Entwicklung in der aufstrebenden Netzwerkbranche. Die anfängliche Herausforderung, disparate Systeme innerhalb einer Universitätsumgebung zu verbinden, hatte den Entwurf für ein Produkt geliefert, das bald unverzichtbar für die globale digitale Kommunikation werden würde. Die Gründer, nun mit einer formalen Geschäftsstruktur, bereiteten sich darauf vor, ihre Routing-Technologie einem breiteren Markt vorzustellen und über den akademischen Rahmen hinaus in den kommerziellen Bereich zu wechseln, wo die Nachfrage nach effizienter Netzwerkkommunikation schnell anstieg und auf ein explosives Wachstum vorbereitet war.
