Netzwerk-Überwachung: Sichtbarkeit des Rechenzentrums herstellen


Entdecken Sie den Schlüssel zur Schaffung von Transparenz im Rechenzentrum und zur Einführung neuer Technologien


Inhaltsverzeichnis:

Die Evolution der IT und die Entstehung neuer Technologien

  • Historische IT-Auswirkungen auf das moderne Unternehmen
  • Was die digitale Transformation heute wirklich bedeutet
  • Netzwerkauswirkungen der wichtigsten spielverändernden Technologien in der IT

Implikationen für das Konstrukt und die Grenzen des traditionellen Rechenzentrums

  • Innovation als Herausforderung für das traditionelle Rechenzentrum
  • Rechenzentrumsgrenzen fallen, und IT-Inseln bilden sich
  • Das moderne Rechenzentrumsnetzwerk ist entstanden: Software-Defined,

Hyperkonvergent und automatisiert

  • Wie die Netzwerküberwachung der IT die Möglichkeit gibt, Innovationen zu nutzen
  • Ein neues Netzwerk stellt Analysten und Administratoren vor neue Herausforderungen
  • Netzwerküberwachung ebnet den Weg für neue Technik

 


Die Evolution der IT und die Entstehung neuer Technologien

Historische IT-Auswirkungen auf das moderne Unternehmen

Traditionell arbeitete die IT-Abteilung in einem Vakuum. Sie unterstützte die internen Bedürfnisse des Unternehmens und konzentrierte sich auf das Back-Office, den Endbenutzer-Support und vielleicht ein gewisses Maß an Netzwerkmanagement oder die Verwaltung von Anwendungen.

Die Informationstechnologie hat heute einen enormen Einfluss nicht nur auf das Unternehmen selbst, sondern auch auf das Geschäftsmodell, das das Unternehmen auf dem Markt propagiert. Das traditionelle Konzept des Rechenzentrums ist längst überholt, ebenso wie die grundlegenden Kundenanforderungen der Vergangenheit. Rechenzentren müssen als Tor zum Computing fungieren
und gleichzeitig die Rolle eines ausgelagerten Betriebsteams übernehmen. Das traditionelle, siloartige Rechenzentrumsmodell gilt nicht mehr.

Darüber hinaus ist die Rolle der Software unumstritten. Die Erstellung von softwaregesteuerten Diensten rund um Backups, IP-Adressverwaltung, IaaS, PaaS - im Grunde jeder erdenkliche Dienst - ist eine wichtige Komponente der modernen Rechenzentrumsinfrastruktur. Letztlich wird die Schnittstelle zwischen dem Unternehmen und dem Rechenzentrum softwaregesteuert sein. Die Consumerization der IT hat die Notwendigkeit für Unternehmen geschaffen, Endanwendern und Kunden die Möglichkeit zu geben, Services so zu nutzen, wie sie es bevorzugen: schnell, bequem und digital.

Es ist unmöglich, einen genaueren Blick auf das moderne Rechenzentrum zu werfen, ohne zu berücksichtigen, wie sich die COVID-19-Krise auf den Technologiesektor ausgewirkt hat. Die Pandemie führte zu einem fast nächtlichen Übergang zu fast vollständig dezentralen Belegschaften sowie zu einem massiven Anstieg von BYOD-Geräten. Sicherheits- und Software-definierte Lösungen wurden verstärkt eingesetzt. Da Unternehmen das Netzwerk zunehmend auf eine Weise nutzen, für die es nicht geplant war, wurde die Welt der Informationstechnologie an ihre kritische Bedeutung erinnert.


Was die digitale Transformation heute wirklich bedeutet

Die digitale Transformation ist der Evolution der IT auf den Fersen. Sie findet schon seit über einem Jahrzehnt statt, aber die Tech-Welt hat ihr erst in den letzten Jahren einen Namen gegeben und sie in den Vordergrund der Diskussion gerückt. Da die digitale Transformation oft auf ein Modewort reduziert wird, kann es leicht passieren, dass man sie von dem, was sie wirklich bedeutet, und wie sie sich auf die Informationstechnologie auswirkt, und damit auch auf die Art und Weise, wie Geschäfte gemacht werden, abgrenzt. Tatsächlich sind laut Gartner 91 % der Unternehmen in irgendeiner Form an einer digitalen Initiative beteiligt, während 40 % der Unternehmen die Größenordnung ihrer digitalen Initiative erreicht haben.2

Worauf die digitale Transformation in Bezug auf die IT hinausläuft, ist die Tatsache, dass man sich zunehmend weniger auf Hardware und gleichzeitig mehr auf Software (und die damit verbundenen Möglichkeiten) verlässt. Software ist in vielerlei Hinsicht der Katalysator, der die digitale Transformation ermöglicht und eine Disruption in jeder Branche einleitet - weil die IT jetzt die Macht hat, Dinge zu tun, die in der Vergangenheit ohne Hardware einfach nicht möglich waren. Praktisch jedes Unternehmen bewegt sich von einer Welt der Rechenzentren, die sich auf die Leistung von Hardware, Servern, Speicher und Netzwerkgeräten verließ, zu einer Welt, in der die Besonderheiten der Hardware irrelevant sind und Software die neuen technologischen Möglichkeiten bestimmt.

Unabhängig von Produkt, Dienstleistung oder Branche kommt DX immer wieder auf die Consumerization der IT zurück. Kunden wollen Self-Service, digitale Mechanismen, um das zu bekommen, was sie brauchen, und Unternehmen befinden sich in verschiedenen Stadien des Prozesses, um auf ihre Anforderungen zu antworten: digitale Transformation.

"Digital sollte zu jeder Zeit der Standard sein. Das soll nicht heißen, dass der physische Raum nicht seinen Platz hat, aber er sollte digital aufgewertet werden, z. B. durch kontaktloses Bezahlen in einem physischen Geschäft, unabhängig davon, ob die physischen oder digitalen Funktionen nahtlos bereitgestellt werden." - Gartner 1


Netzwerkauswirkungen der wichtigsten spielverändernden Technologien in der IT

Mit den vielen Veränderungen, die im Bereich der Informationstechnologie stattgefunden haben, ist natürlich auch eine Vielzahl von technologischen Innovationen entstanden. Von Hyperautomation und Robotik bis hin zum Internet of Behavior (IoB) und der verteilten Cloud befinden sich einige aufstrebende Technologien noch in den frühen Phasen des Hype-Zyklus, während andere bereits Teil unseres Alltags geworden sind. Wir haben fünf der einflussreichsten aufstrebenden Technologien identifiziert, um zu untersuchen, wie sie die moderne IT und damit auch das Netzwerk beeinflusst haben.

1.) Edge Computing

Der Markt für Edge Computing wächst rasant. Der prognostizierte weltweite Umsatz wird bis 2024 9 Milliarden US-Dollar erreichen (Statista).3 In Branchen wie der Fertigung oder den Finanzdienstleistungen hat sich die Technologie bereits durchgesetzt, während andere Unternehmen noch prüfen, ob sie sinnvoll ist.

Edge Computing ermöglicht es Unternehmen, Dienste in der Nähe ihrer Quelle zu nutzen, die darauf ausgelegt sind, niedrige Latenzzeiten aufrechtzuerhalten und gleichzeitig die Datenkosten zu senken und alle Compliance-Anforderungen zu erfüllen, die den Verbleib der Daten an einem bestimmten geografischen Standort erfordern.

Aus der Netzwerkperspektive sind die Treiber für Edge Computing direkt mit der digitalen Transformation verbunden. Bandbreite kann teuer und die Latenz hoch sein. Die Verlagerung von Daten näher an ihre Quelle erleichtert die Belastung. Auf
Andererseits führt es zu mehr Komplexität, da die IT-Assets zunehmend disparater werden. Unabhängig davon wird die Bedeutung des Netzwerks im Zusammenhang mit dem Edge wohl größer, da die Nachfrage nach lokalisierter Netzwerkinfrastruktur und Rechenleistung steigt. Das Netzwerk trägt auch eine größere Last, weil mehr Daten an den Endpunkten generiert werden. Es besteht ein unbestreitbarer Bedarf, verteilte IT-Ressourcen zentral zu verwalten, und ohne ständige Konnektivität kommt es zu Problemen.

2.) IoT

Eng verwandt mit dem Edge Computing ist das Internet der Dinge, denn auch dieses basiert auf lokalem Compute. Das IoT ist keine Allzwecktechnologie; vielmehr sind seine Anwendungsfälle sehr vertikal spezifisch. Eine Studie von Fujitsu hat ergeben, dass Unternehmen das IoT aus einer Vielzahl von Gründen einsetzen, von der Sicherheit (47 % der Befragten) bis hin zur Umsatzsteigerung (45 %).

Während sich viele Unternehmen mitten in der IoT-Einführung befinden, sehen andere das Potenzial, versuchen aber noch, die Frage zu beantworten: "Wie können wir mitspielen?" Obwohl ein erheblicher potenzieller Wert besteht, ist die Einführung nicht ohne Herausforderungen, insbesondere was das Netzwerk betrifft. Tatsächlich geben 23 % der Unternehmen an, dass die Netzwerkkonnektivität heute das größte Hindernis für den erfolgreichen Einsatz von IoT ist.5

Die Realität ist, dass IoT einige Komplikationen mit sich bringt, wenn es um das Netzwerk geht. Gartner berichtet: "Die meisten IoT-Projekte in Unternehmen, die von außerhalb der IT-Abteilung vorangetrieben werden, versäumen es oft, die Auswirkungen der IoT-Implementierung auf die Netzwerkelemente zu identifizieren und zu beheben, was den Netzwerkverantwortlichen Kopfzerbrechen bereitet. "6

Erstens ist die IoT-Angriffsfläche multidimensional und risikobehaftet. Die Erkennung von Netzwerkgeräten, Netzwerktransparenz, Sicherheitsanalysen sowie Identitätsmanagement und Authentifizierung sind allesamt wichtige Sicherheitsmaßnahmen. Darüber hinaus wird sich das IoT weiter entwickeln, was bedeutet, dass es sich auch auf die zukünftige Netzwerkarchitektur von Unternehmen auswirken wird. Um den Anforderungen des IoT gerecht zu werden, ist ein Netzwerk erforderlich, das in der Lage ist, Leistung, Skalierbarkeit, Sicherheit, Gerätekonnektivität und Interoperabilität zu überwachen.

"Das IoT wird als eine der fünf wichtigsten spielverändernden Technologien angesehen, da es neue Datenquellen erschließt, Leistungsupdates in Echtzeit liefert und neue Wertangebote schafft." - Gartner 4

3.) Microservices

  • 28 % der Unternehmen nutzen Microservices seit mindestens drei Jahren. 61 % nutzen Microservices seit einem Jahr oder länger.
  • 29 % der Unternehmen migrieren oder implementieren die meisten ihrer Systeme unter Verwendung von Microservices (O'Reilly Media).7Microservices wurden zuerst unter vorausschauenden Anwendungsentwicklern populär, aber heute sind sie Teil des Mainstreams. Das Aufbrechen von Anwendungen in komprimierte Dienste hat das Potenzial
    Obwohl Microservices viele Vorteile mit sich bringen können, sind sie auch von einer hervorragenden Netzwerktransparenz und -kontrolle abhängig. Denn die Automatisierung erhöht zwar die Geschwindigkeit eines bestimmten Prozesses, aber auch die Geschwindigkeit, mit der Fehler gemacht werden können.

    Microservices sind weit entfernt von traditioneller Architektur. Folglich bereitet es der IT großes Kopfzerbrechen, bestehende Überwachungstaktiken auf Cloud-native Prozesse zu übertragen. Es obliegt den Netzwerkanalysten und -administratoren sicherzustellen, dass das richtige Netzwerküberwachungssystem für eine dynamische Umgebung vorhanden ist - vollständige Sichtbarkeit in jeden Winkel des Netzwerks ist entscheidend.

    Darüber hinaus ist auch die Geschwindigkeit der Netzwerkkommunikation zu berücksichtigen. Die Leistung wird kritischer, da Microservices das physische Netzwerk nicht als Leistungsbeschränkung wahrnehmen. Außerdem werden Microservices, obwohl sie auf Skalierbarkeit ausgelegt sind, manchmal zu schnell zu groß und wirken sich negativ auf das Netzwerk aus.

4.) Hybride IT

- 72 % der Unternehmen beschreiben ihre Cloud-Strategie als "hybrid-first" oder "private-first" (Everest Group).8

Es ist eine gängige Vorhersage unter Branchenanalysten, dass hybride IT in Zukunft die vorherrschende Methode der Bereitstellung sein wird, und die Forschung scheint diese Vorstellung zu unterstützen. Mega-Cloud-Anbieter haben ihre eigenen On-Prem-Cloud-Angebote auf den Markt gebracht, um die Vorteile der Public Cloud auf private Umgebungen auszuweiten. Die meisten Unternehmen evaluieren, welche Workloads in die Cloud verlagert werden können und sollten, und viele haben die Migration bereits abgeschlossen.

Ein Großteil der Entscheidungsfindung basiert auf der Kostenoptimierung. Die IT-Entscheider ermitteln, welche Ressourcen vor Ort bleiben sollten, welche die Cloud rechtfertigen oder welche durch SaaS- oder Edge-Lösungen ersetzt werden können.

Jede hybride IT-Umgebung ist anders, aber die daraus resultierende Herausforderung ist die gleiche: Komplexität. Da viele Unternehmen mehrere Cloud-Anbieter nutzen und gleichzeitig Assets an unterschiedlichen Standorten verwalten, ist eine vollständige Netzwerktransparenz erforderlich, um den Überblick zu behalten und die Verwaltung so einfach wie möglich zu gestalten.

5.) SD-WAN

- Die Größe des globalen SD-WAN-Marktes lag 2019 bei 1,4 Milliarden US-Dollar und wird bis 2030 voraussichtlich 43,0 Milliarden US-Dollar erreichen (P&S Intelligence).9

Viele Jahre lang waren Kupferleitungen zwischen zwei Standorten die einzige (sehr teure) Möglichkeit, die Kommunikation zwischen Geräten zu ermöglichen. Es folgte MPLS, das von Drittanbietern von Telekommunikationsdiensten verwaltet wird; ein Modell, das auch heute noch bei der Verbindung mehrerer Standorte dominiert. Es gibt auch die Möglichkeit von einfachen VPNs, obwohl die Skalierbarkeit bei mehr als ein paar Standorten ein Problem darstellt.

Heute ist SD-WAN auf dem Vormarsch und bietet eine kosteneffiziente Möglichkeit, Multi-Internet-Verbindungen herzustellen, die früher nur den High-End-Unternehmen vorbehalten waren. Die sich daraus ergebenden Möglichkeiten umfassen erhebliche Kosteneinsparungen und erweiterte Dienste für Unternehmen.

Es ist auch erwähnenswert, dass IoT eng mit Edge verbunden ist und SD-WAN eng mit hybrider IT verbunden ist. Hybrid trägt zur Nachfrage nach SD-WAN auf dem Markt bei, da es mit traditionellen Netzwerken ziemlich schwierig zu verwalten ist. SD-WAN macht es kosteneffizienter, einfacher zu verwalten, zunehmend agiler und kann die Fähigkeit zur Feinabstimmung der Anwendungsleistung ermöglichen.

Das Problem ist, dass SD-WAN durch die massenhafte Cloudifizierung vorangetrieben wird und nicht den traditionellen Modellen im Netzwerk folgt, was Ihre Umgebung undurchsichtiger macht. Daher muss die Etablierung von Netzwerktransparenz, um sicherzustellen, dass das Netzwerk so funktioniert, wie es sollte, Teil der SD-WAN-Einführung sein. Im Idealfall ermöglicht eine Überwachungs- und Managementlösung dem Netzwerkteam, überflüssige Point-Tools zu eliminieren und die Vorteile von SD-WAN frei zu nutzen.

"Denken Sie daran: Software-Defined ist nur eine Abstraktion, d. h. Betriebssysteme müssen nach wie vor auf Hardware laufen und Hardware muss nach wie vor in einem Rechenzentrum betrieben werden. Dieses Rechenzentrum braucht immer noch das Netzwerk - die gleichen Kupferkabel. Wenn Sie die Möglichkeit verlieren, Betriebszeit, Leistung oder Transparenz zu kontrollieren, können Sie Netzwerkprobleme nicht proaktiv erkennen." - Jordan MacPherson, Programm-Manager, Park Place Technologies


Implikationen für das Konstrukt und die Grenzen des traditionellen Rechenzentrums

Innovation stellt das traditionelle Rechenzentrum in Frage.

In einer Zeit, die eine Ewigkeit her zu sein scheint, waren Server üblicherweise im Büro untergebracht. Die IT-Anlagen befanden sich alle lokal in Bürogebäuden vor Ort, und die Datenverbindungen waren übermäßig teuer.

Im Laufe der Zeit wurden die Verbindungen immer erschwinglicher. Die Unternehmen begannen, ihre IT-Ressourcen in Colocation-Umgebungen zu verlagern. Das war zuverlässiger und führte zu einem großen Umkreis um das traditionelle Rechenzentrum, bei größeren Unternehmen vielleicht in einer physischen Colocation-Einrichtung. Alle Daten wurden sicher und zuverlässig innerhalb der Mauer betrieben.

Dann kamen neue Bereitstellungsmethoden wie Cloud und hybride IT ins Spiel, die die Mauer effektiv schrumpfen ließen und das Konzept des Zero Trust hervorbrachten. Plötzlich war das Firmennetzwerk näher an einem öffentlichen Netzwerk als an einem traditionellen Unternehmensnetzwerk.

Die zunehmenden Innovationen in der IT haben das traditionelle Rechenzentrum herausgefordert und schließlich demontiert und seine Vorherrschaft in Frage gestellt. Obwohl viele Diskussionen über die heutige Rolle des Rechenzentrums geführt wurden und werden, ist angesichts der bis 2025 erwarteten Datenmenge von über 175 Zettabyte klar, dass Rechenzentren bei der Aufnahme, Berechnung, Speicherung und Verwaltung von Informationen weiterhin von entscheidender Bedeutung sein werden (CB Insights).10 Das Rechenzentrum ist das Rückgrat des Internets und wird auch weiterhin für die Kommunikation, den Transport und die Speicherung der von uns täglich produzierten Informationsmengen zuständig sein. Auch wenn sich das Rechenzentrum verändert hat, ist seine Vitalität unbestritten.

Die Grenzen des Rechenzentrums fallen, und es bilden sich IT-Inseln.

Früher reichte das Rechenzentrum bis in die Unternehmensnetzwerke hinein. In einigen Fällen tut es das immer noch. Aber wir sehen das Rechenzentrum nicht mehr als eine Festung mit einer Umfassungsmauer. Jetzt sehen wir das Rechenzentrum als eine Insel, da sich seine Grenzen erweitert haben, während sein Zentrum kleiner geworden ist. Virtualisierung, Cloud Computing und Software-definierte Netzwerke haben den Perimeter grundlegend verändert.

Das moderne Rechenzentrumsnetzwerk ist entstanden: Software-definiert, hyperkonvergent und automatisiert.

Mit dem Wandel des Rechenzentrums änderte sich auch das Netzwerk, das es unterstützt. Das moderne Rechenzentrumsnetzwerk ist softwaredefiniert, konvergiert und automatisiert.

  • Software-definiert
    Die physischen Attribute der verfügbaren Ressourcen sorgten früher für Einschränkungen in hardwaredefinierten Rechenzentren. Heute können die Anwendungen, die auf dem Netzwerk eines SDDCs laufen, Netzwerkressourcen in Echtzeit erstellen, bereitstellen und einsetzen, wenn der Bedarf besteht.
  • Hyperconverged
    Hyperconverged Infrastructure geht Hand in Hand mit dem SDDC. HCI kombiniert alle traditionellen Rechenzentrumselemente in einem einheitlichen System und ersetzt Hardware durch Software und x86-Server. Dies ermöglicht eine geringere Komplexität und eine höhere Skalierbarkeit.
  • Automatisiert
    Durch die Automatisierung der Arbeitsabläufe und Prozesse im Rechenzentrum müssen die Betreiber Aufgaben wie Wartung, Verwaltung und Überwachung nicht mehr manuell durchführen, was letztlich Zeit spart und Risiken verringert.

Wie die Netzwerküberwachung der IT die Möglichkeit gibt, Innovationen zu nutzen

Ein neues Netzwerk stellt Analysten und Administratoren vor neue Herausforderungen.

Bei so viel technologischem Wandel sehen sich Netzwerkanalysten und -administratoren mit neuen Herausforderungen konfrontiert, wenn es um die Interaktion mit den Rechenzentren und Netzwerken von heute geht.

Erstens sind, wie bereits erwähnt, viele moderne Rechenzentren softwaregesteuert, wenn nicht sogar vollständig softwaredefiniert. Infolgedessen müssen Netzwerkexperten, die es gewohnt waren, mit einer CLI-Schnittstelle zu interagieren, Python oder Programmierung lernen. Es ist unerlässlich, mit APIs interagieren zu können und aus Sicht der praktischen Fähigkeiten auf eine andere Art zu arbeiten.

Auch die Sichtbarkeit ist eine große Herausforderung, da viele Netzwerk-Tools und -Plattformen, die das Rechenzentrum unterstützen, in sich geschlossen und nicht auf Interoperabilität ausgelegt sind. Früher zuverlässige Netzwerküberwachungsprotokolle wie SNMP sind nicht mehr so zuverlässig, so dass die Fähigkeit, unterschiedliche Netzwerkansichten zusammenzufügen, absolut notwendig ist.

Schließlich hat sich eine erhebliche Qualifikationslücke für das Management neuer Technologien entwickelt. Viele Unternehmen sehen sich gezwungen, ihre internen Fähigkeiten zu verbessern oder auf dem Markt nach Experten zu suchen, die ihnen bei der Einführung neuer Technologien vom organisatorischen Standpunkt aus helfen können.

Netzwerküberwachung schafft den Weg für neue Technik.

Bleiben Sie uns auf den Fersen. Trotz der vielen technologischen Konvergenzen, die gegenwärtig stattfinden, werden das Rechenzentrum und das Netzwerk oft noch in Silos diskutiert. Technische Fachleute denken in der Regel nicht an Netzwerküberwachung und assoziieren damit reiche Möglichkeiten für Innovation und Weiterentwicklung.

Aber das sollten Sie.

Die Gewissheit, dass das Netzwerk verfügbar, sicher und leistungsfähig ist, ermöglicht intelligente Investitionen in die einflussreichen Technologien, die wir in diesem Dokument besprochen haben.
die wir in diesem Dokument besprochen haben, sowie in Technologien, die gerade auf den Markt kommen. Ein Beispiel: Wenn Ihr IT-Team eine Edge-Implementierung plant, Sie aber nicht garantieren können, dass das Netzwerk in der Lage ist, diese zu bewältigen, wie könnte diese Implementierung ablaufen? Keine Sorge, das ist eine rhetorische Frage.

Aus geschäftlicher Sicht klärt die Netzwerküberwachung die Kapazität und Leistung. Aus der Perspektive eines Netzwerkteams liefert die Netzwerküberwachung die Voraussetzungen für eine erfolgreiche Bereitstellung. In der heutigen On-Demand-Geschäftsumgebung, in der der Kunde im Mittelpunkt steht, müssen Kontrollen vorhanden sein, um neue Infrastruktur- und Netzwerkkomponenten zu unterstützen und die Verfügbarkeit und Leistung für das jeweilige Nutzungsmodell sicherzustellen. Einfach ausgedrückt, ist die Netzwerküberwachung ein Enabler für die Beschleunigung und Bereitstellung neuer Technologien.

Außerdem führt der Einsatz neuer Technologien in der Regel zu einer Erweiterung des Netzwerks. Die Netzwerküberwachung trägt auch dazu bei, die Komplexität in einer Umgebung mit mehr Integrationspunkten, Fehlern und Komplexität zu reduzieren. Die Fähigkeit, jeden kritischen Punkt zu überwachen, überbrückt die Lücke zwischen den Wachstumsschmerzen der Umgebung und der tatsächlichen Einführung von Technologielösungen, die diese lindern sollen.

Die Quintessenz ist: Die einzige Möglichkeit, neue Technologien auf kohärente und vertretbare Weise einzuführen, besteht in einer starken Netzwerküberwachung und -verwaltung. Ohne ein Verständnis der heutigen Leistung ist das Verfolgen von Zukunftsplänen gleichbedeutend mit dem Hoffen auf das Beste - ein Ansatz, der in der Netzwerk- oder Rechenzentrumswelt niemals empfohlen wird.

Obwohl die Netzwerküberwachung einen Einblick in das Rechenzentrum verschafft und den Weg für die Einführung neuer Technologien ebnet, ist sie nicht immer einfach. Eine Möglichkeit, den Druck zu verringern, besteht darin, auf den Versuch zu verzichten, das Talent intern aufzubauen, und stattdessen eine As-a-Service-Lösung für die Netzwerküberwachung zu suchen, die die bereits vorhandenen Experten unterstützt. Darüber hinaus bietet das As-a-Service-Modell Ihren internen Experten die Möglichkeit, die von den Netzwerküberwachungsdiensten bereitgestellten Daten und Erkenntnisse zu nutzen, um die Einführung neuer Technologien zu erleichtern und systemische Probleme zu identifizieren.

 



Referenzen
1. Smarter with Gartner, "Gartner Top Strategic Technology Trends for 2021", 19. Oktober 2020. https://www.gartner.com/smarterwithgartner/gartner-top-strategic-technology-trends-for-2021/
2. Gartner, "DigitalizationstrategyforBusinessTransformation, "2020.https://www.gartner.com/en/information-technology/insights/digitalization
3. https://www.statista.com/topics/6173/edge-computing/.
4. Gartner, "InternetofThings:UnlockingTrueDigitalBusinessPotential, "2019.https://www.gartner.com/en/information-technology/insights/internet-of-things
5. https://www.fujitsu.com/global/themes/internet-of-things/white-paper/index.html.
6. Gartner,TheTopThreeImpactsofIoTonNetworks,BillMenezes,SaniyeAlaybeyi,17März2017.https://www.gartner.com/en/documents/3644117/the-top-three-impacts-of-iot-on-networks
7. https://www.oreilly.com/radar/microservices-adoption-in-2020/.
8. https://www.tcs.com/content/dam/tcsbts/images/insights/cloudinfrastructure/Exploring-Private-Cloud-for-the-Digital-Age.pdf
9. https://www.psmarketresearch.com/market-analysis/sd-wanmarket
10. https://www.cbinsights.com/research/future-of-data-centers/