Monitorización de la red: Estableciendo Data Center Visibilidad


Explore la clave para establecer la visibilidad de data center y abrazar las nuevas tecnologías


Índice de contenidos:

La evolución de la informática y la aparición de nuevas tecnologías

  • Impacto histórico de las TI en la empresa moderna
  • Qué significa realmente la transformación digital hoy en día
  • Repercusiones en la red de las principales tecnologías que cambian el juego en las TI

Implicaciones para la construcción y los límites de lo tradicional Data Center

  • La innovación desafía lo tradicional Data Center
  • Data Center Los perímetros cayeron, y se formaron islas de TI
  • Ha surgido la red moderna Data Center : Definida por software,

Hiperconvergente y automatizado

  • Cómo la monitorización de la red da a los informáticos el poder de adoptar la innovación
  • Una nueva red plantea nuevos retos a los analistas y administradores
  • La supervisión de la red crea el camino para la nueva tecnología

 


La evolución de la informática y la aparición de nuevas tecnologías

Impacto histórico de las TI en la empresa moderna

Tradicionalmente, el departamento de TI operaba en un vacío. Se trataba de dar soporte a las necesidades internas de la organización, centrado en el back-office, el soporte a los usuarios finales y quizás algún nivel de gestión de la red o de las aplicaciones.

Hoy en día, la tecnología de la información tiene un enorme impacto no sólo en la propia empresa, sino en el modelo de negocio que la organización propaga en el mercado. El concepto tradicional de data center ha quedado atrás, al igual que las exigencias básicas de los clientes del pasado. Data centers debe funcionar como la puerta de entrada a la informática
y asumir simultáneamente el papel de un equipo de operaciones subcontratado. El modelo tradicional de data center en silos ya no es válido.

Además, el papel del software es indiscutible. La creación de servicios impulsados por software en torno a las copias de seguridad, la gestión de direcciones IP, IaaS, PaaS - esencialmente cualquier servicio que se pueda concebir, es un componente principal de la infraestructura moderna de data center . En última instancia, la interfaz entre la empresa y la data center estará impulsada por el software. La consumerización de las TI ha creado la necesidad de que las empresas permitan a los usuarios finales y a los clientes contratar los servicios de la forma que prefieran: de forma rápida, cómoda y digital.

Es imposible echar un vistazo a la moderna data center sin tener en cuenta el impacto de la crisis del COVID-19 en el sector tecnológico. La pandemia dio lugar a una transición casi nocturna hacia plantillas casi totalmente remotas, así como a un aumento masivo de dispositivos BYOD. Las soluciones de seguridad y definidas por software se adoptaron con mayor frecuencia. A medida que las organizaciones han ido utilizando la red de formas no previstas, el mundo de la tecnología de la información ha recordado su importancia crítica.


Qué significa realmente la transformación digital hoy en día

La transformación digital ha llegado tras la evolución de las TI. Lleva produciéndose desde hace más de una década, pero el mundo de la tecnología le ha dado un nombre y la ha llevado al primer plano del debate en los últimos años. Dado que la transformación digital se reduce a menudo a una palabra de moda, puede ser fácil disociarla de lo que realmente significa, de cómo está afectando a las tecnologías de la información y, por extensión, a la forma de hacer negocios. De hecho, según Gartner, el 91% de las organizaciones están involucradas en algún tipo de iniciativa digital, mientras que el 40% de las organizaciones han alcanzado la escala de su iniciativa digital.2

En lo que respecta a las TI, la transformación digital se reduce a la realidad de que cada vez se depende menos del hardware y, al mismo tiempo, se depende más del software (y de las posibilidades que éste ofrece). El software es, en muchos sentidos, el catalizador que está permitiendo la transformación digital e introduciendo la disrupción en todas las industrias, porque la TI tiene ahora el poder de hacer cosas que simplemente no eran posibles sin el hardware en el pasado. Prácticamente todas las empresas están pasando de un mundo de data centers que dependía del rendimiento del hardware, los servidores, el almacenamiento y los equipos de red, a un mundo en el que los detalles del hardware son irrelevantes y el software determina las nuevas capacidades tecnológicas.

Independientemente del producto, el servicio o la industria, DX siempre vuelve a la consumerización de las TI. Los clientes quieren mecanismos digitales de autoservicio para conseguir lo que necesitan, y las empresas se encuentran en distintas fases del proceso de respuesta a sus demandas: la transformación digital.

"Lo digital debería ser lo predeterminado en todo momento. Eso no quiere decir que el espacio físico no tenga su lugar, pero debe ser mejorado digitalmente, por ejemplo, la caja sin contacto en una tienda física, independientemente de que sus capacidades físicas o digitales deben ser entregadas sin problemas." - Gartner 1


Repercusiones en la red de las principales tecnologías que cambian el juego en las TI

Con los numerosos cambios que se han producido en el ámbito de las tecnologías de la información, ha surgido naturalmente un sinfín de innovaciones tecnológicas. Desde la hiperautomatización y la robótica hasta la Internet del Comportamiento (IoB) y la nube distribuida, algunas tecnologías emergentes siguen en las primeras fases del ciclo de exageración, mientras que otras ya forman parte de nuestra vida cotidiana. Hemos identificado cinco de las tecnologías emergentes más influyentes para examinar cómo han impactado en las TI modernas y, por consiguiente, en la red.

1.) Computación de borde

El mercado de la computación de borde está creciendo rápidamente. La previsión de ingresos globales es que alcance los 9.000 millones de dólares en 2024 (Statista).3 Se ha adoptado más ampliamente en sectores como el manufacturero o los servicios financieros, mientras que otras empresas todavía están evaluando si es una actividad valiosa.

La computación de borde permite a las organizaciones consumir servicios cerca de su origen, diseñados para mantener una baja latencia, al tiempo que se reducen los costes de los datos y se adaptan a cualquier requisito de cumplimiento que exija que los datos permanezcan en una ubicación geográfica concreta.

Desde la perspectiva de la red, los impulsores de la computación de borde están directamente relacionados con la transformación digital. El ancho de banda puede ser caro y la latencia alta. Acercar los datos a su origen alivia la carga. En
Por otro lado, introduce complejidad a medida que los activos de TI se vuelven cada vez más dispares. En cualquier caso, la importancia de la red se hace más grande en el contexto del borde, ya que la demanda de infraestructura de red localizada y potencia de cálculo aumenta. La red también soporta una mayor carga porque se generan más datos en los puntos finales. Existe una necesidad innegable de gestionar de forma centralizada activos informáticos dispares, y sin una conectividad continua, los problemas se suceden.

2.) IoT

La Internet de las Cosas está estrechamente relacionada con la computación de borde; después de todo, se basa en la computación localizada. El Internet de las cosas no es una tecnología de uso general, sino que sus casos de uso son muy específicos para cada sector. Del mismo modo, un estudio de investigación de Fujitsu indicó que las organizaciones están desplegando IoT por una amplia gama de razones, desde la seguridad, citada por el 47% de los encuestados, hasta la generación de ingresos, citada por el 45%.

Mientras que muchas empresas se encuentran en medio de la adopción de IoT, otras ven el potencial pero todavía están tratando de responder a la pregunta: "¿Cómo podemos jugar?" Aunque existe un importante valor prospectivo, el despliegue no está exento de desafíos, especialmente en lo que respecta a la red. De hecho, el 23% de las organizaciones afirman que la conectividad de la red es el mayor obstáculo para el éxito del despliegue de IoT en la actualidad.5

La realidad es que IoT introduce varias complicaciones cuando se trata de la red. Según Gartner, "la mayoría de los proyectos empresariales de IoT impulsados desde fuera de las TI no suelen identificar ni remediar el impacto de la implementación de IoT en los elementos de la red, lo que genera dolores de cabeza a los responsables de las redes".6

En primer lugar, la superficie de ataque del IoT es multidimensional y está cargada de riesgos. El descubrimiento de dispositivos de red, la visibilidad de la red, los análisis de seguridad y la gestión y autenticación de identidades son medidas de seguridad fundamentales. Además, el IoT seguirá desarrollándose, lo que significa que seguirá afectando a la futura arquitectura de la red empresarial. En consecuencia, para satisfacer las demandas del IoT se requiere continuamente una red bien equipada para supervisar el rendimiento, la escalabilidad, la seguridad, la conectividad de los dispositivos y la interoperabilidad.

"El IoT está considerado como una de las cinco principales tecnologías que cambian el juego debido a su capacidad para crear nuevas fuentes de datos, proporcionar actualizaciones de rendimiento en tiempo real y crear nuevas propuestas de valor." - Gartner 4

3.) Microservicios

  • El 28% de las organizaciones han estado utilizando microservicios durante al menos tres años. El 61% lleva un año o más utilizando microservicios.
  • El 29% de las organizaciones están migrando o implementando la mayoría de sus sistemas utilizando microservicios (O'Reilly Media).7 Los microservicios se hicieron populares primero entre las organizaciones de desarrollo de aplicaciones con visión de futuro, pero hoy forman parte de la corriente principal. Descomponer las aplicaciones en servicios condensados tiene el potencial de
    para mejorar la resiliencia y acelerar el tiempo de comercialización, por no hablar de mejorar enormemente la escalabilidad, permitir la entrega continua y facilitar la depuración y el mantenimiento en general.Aunque los microservicios pueden aportar muchas ventajas, también dependen de una excelente visibilidad y control de la red. Después de todo, aunque la automatización aumenta la velocidad de un determinado proceso, también aumenta la velocidad a la que se pueden cometer errores.

    Los microservicios están muy lejos de la arquitectura tradicional. Como resultado, forzar las tácticas de monitorización preexistentes en los procesos nativos de la nube provoca grandes dolores de cabeza en TI. Corresponde a los analistas y administradores de la red asegurarse de que el sistema de supervisión de la red es el adecuado para un entorno dinámico: la visibilidad completa de cada rincón de la red es crucial.

    Además, también es importante tener en cuenta la velocidad de las comunicaciones de red. El rendimiento se vuelve más crítico porque los microservicios no son conscientes de que la red física es una limitación de rendimiento. Además, aunque los microservicios están diseñados para ofrecer ventajas de escalabilidad, a veces crecen demasiado rápido y afectan negativamente a la red.

4.) TI híbrida

- El 72% de las empresas describen su estrategia de nube como híbrida primero o privada primero (Everest Group).8

Es una predicción común entre los analistas de la industria que la TI híbrida va a ser el método dominante de despliegue en el futuro, y la investigación parece apoyar la noción. Los proveedores de meganube han lanzado sus propias ofertas de nube on-prem para extender las ventajas de la nube pública en entornos privados. La mayoría de las empresas están evaluando qué cargas de trabajo pueden y deben trasladarse a la nube, y muchas ya han completado las migraciones.

Gran parte de la toma de decisiones se basa en la optimización de costes. Los responsables de la toma de decisiones de TI llevan a cabo el ejercicio de determinar qué activos deben mantenerse on-prem, tienen necesidades de ráfagas o de escalado que justifican la nube, o pueden ser sustituidos por SaaS o soluciones de borde.

Cada entorno de TI híbrido es diferente, pero el reto que conlleva es el mismo: la complejidad. Dado que muchas empresas utilizan varios proveedores de nube y mantienen activos en ubicaciones dispares, es necesario tener una visibilidad total de la red para poder controlar y simplificar al máximo la gestión.

5.) SD-WAN

- El tamaño del mercado mundial de SD-WAN se situó en 1.400 millones de dólares en 2019, y se espera que alcance los 43.000 millones de dólares en 2030 (P&S Intelligence).9

Durante muchos años, los hilos de cobre entre dos ubicaciones fueron la única forma (muy cara) de permitir la comunicación entre dispositivos. Le siguió el MPLS, gestionado por terceros proveedores de servicios de telecomunicaciones; un modelo que sigue siendo el dominante en la conexión de múltiples sedes en la actualidad. También existe la opción de las VPN básicas, aunque la escalabilidad tiende a ser un problema más allá de un par de sitios.

Si avanzamos hasta hoy, la SD-WAN está prosperando y ofrece una forma rentable de realizar conexiones multi-internet que antes estaban reservadas a la gama alta. Las oportunidades resultantes incluyen un considerable ahorro de costes y un aumento de los servicios para las empresas.

También vale la pena señalar que, como el IoT está estrechamente relacionado con el borde, la SD-WAN está estrechamente relacionada con la TI híbrida. Lo híbrido está contribuyendo a la demanda de SD-WAN en el mercado, ya que es bastante difícil de gestionar con las redes tradicionales. SD-WAN hace que sea más rentable, más fácil de gestionar, cada vez más ágil, y puede permitir la capacidad de ajustar el rendimiento de las aplicaciones.

El problema es que la SD-WAN está impulsada por la nubosidad masiva y no sigue los modelos tradicionales en la red, lo que hace que su entorno sea opaco. Por lo tanto, establecer la visibilidad de la red para asegurar que la red está operando como debería tiene que ser parte de la adopción de SD-WAN. Idealmente, una solución de supervisión y gestión permitirá al equipo de red eliminar el exceso de herramientas puntuales y disfrutar libremente de las ventajas de SD-WAN.

"Recuerde: lo definido por software es sólo una abstracción, por lo que los sistemas operativos siguen teniendo que ejecutarse en hardware y el hardware sigue teniendo que ejecutarse en un data center. Ese data center sigue necesitando la red: los mismos cables de cobre. Si pierdes la capacidad de controlar el tiempo de actividad, el rendimiento o la visibilidad, no puedes ver los problemas de la red de forma proactiva". - Jordan MacPherson, director de programa, Park Place Technologies


Implicaciones para la construcción y los límites de lo tradicional Data Center

La innovación desafió al tradicional Data Center.

Durante un tiempo que parece una eternidad, los servidores solían estar ubicados en la oficina. Los activos informáticos estaban todos localizados en edificios de oficinas in situ, y las conexiones de datos eran excesivamente caras.

Con el paso del tiempo, las conexiones se hicieron más asequibles. Las empresas empezaron a trasladar sus activos informáticos a entornos de colocación. Era más fiable y daba lugar a un gran perímetro alrededor de la tradicional data center, quizás en una instalación física de colocación en el caso de las empresas más grandes. Todo funcionaba sano y salvo dentro del muro.

Entonces, los nuevos métodos de despliegue como la nube y la TI híbrida entraron en la mezcla, reduciendo efectivamente el muro y haciendo surgir el concepto de confianza cero. De repente, la red de la empresa estaba más cerca de una red pública que de una red corporativa tradicional.

Las crecientes innovaciones informáticas desafiaron y acabaron por desmantelar la tradicional data center, poniendo en entredicho su dominio. Aunque se ha debatido y se seguirá debatiendo sobre el papel de la data center en la actualidad, con más de 175 zettabytes de datos previstos para 2025, está claro que la data centers seguirá siendo vital en la ingestión, el cálculo, el almacenamiento y la gestión de la información (CB Insights).10 La data center es la columna vertebral de Internet y seguirá comunicando, transportando y almacenando las hordas de información que producimos a diario. Aunque la data center ha cambiado, su vitalidad es incuestionable.

Data Center Los perímetros cayeron, y se formaron islas de TI.

El data center solía extenderse a las redes corporativas. En algunos casos, todavía lo hace. Pero ya no vemos la data center como una fortaleza con un muro perimetral. Ahora vemos la data center como una isla, ya que sus límites se han ampliado mientras su centro ha disminuido. La virtualización, la computación en la nube y las redes definidas por software han cambiado fundamentalmente el perímetro.

Ha surgido la red moderna Data Center : Definida por software, hiperconvergente y automatizada.

A medida que el sitio data center cambiaba, también lo hacía la red que lo soportaba. La red moderna de data center está definida por el software, es convergente y está automatizada.

  • Definido por software
    Los atributos físicos de los recursos disponibles solían crear limitaciones en el hardware definido data centers. Hoy en día, las aplicaciones que se ejecutan en la red de un SDDC pueden crear, aprovisionar y desplegar recursos de red en tiempo real según las necesidades.
  • Hiperconvergente
    La infraestructura hiperconvergente va de la mano del SDDC. La HCI combina todos los elementos tradicionales de data center en un sistema unificado, sustituyendo el hardware por software y servidores x86. Esto permite reducir la complejidad y aumentar la escalabilidad.
  • Automatizado
    La automatización del flujo de trabajo y de los procesos de data center elimina la necesidad de que los operarios realicen manualmente tareas como el mantenimiento, la gestión y la supervisión, lo que permite ahorrar tiempo y reducir los riesgos.

Cómo la monitorización de la red da a los informáticos el poder de adoptar la innovación

Una nueva red plantea nuevos retos a los analistas y administradores.

Con tantos cambios tecnológicos, los analistas y administradores de redes se encuentran con nuevos retos a la hora de interactuar con las data centers y las redes de hoy en día.

En primer lugar, como ya se ha mencionado, muchos de los modernos data centers se basan en el software, si no están totalmente definidos por el software. Como resultado, los profesionales de la red que estaban acostumbrados a interactuar con una interfaz CLI deben aprender Python o programación. Es esencial ser capaz de interactuar con las API y trabajar de una manera diferente desde una perspectiva de habilidades prácticas.

La visibilidad es también un reto importante, ya que muchas herramientas y plataformas de red que soportan la data center son autónomas y no están construidas con interoperabilidad. Los protocolos de supervisión de la red que antes eran fiables, como el SNMP, ahora lo son menos, por lo que la capacidad de unir vistas de red dispares es absolutamente esencial.

Por último, se ha producido un importante déficit de competencias para gestionar las nuevas tecnologías. Muchas organizaciones se están encontrando con la necesidad de actualizar sus competencias internas o de buscar en el mercado expertos que puedan ayudarles a impulsar las tecnologías emergentes desde un punto de vista organizativo.

La supervisión de la red crea el camino para la nueva tecnología.

Quédese con nosotros en esta ocasión. A pesar de las numerosas convergencias tecnológicas que se están produciendo en la actualidad, la data center y la red suelen seguir discutiéndose en silos. Los profesionales técnicos no suelen pensar en la supervisión de la red y la asocian con ricas oportunidades de innovación y avance.

Pero deberías hacerlo.

Tener plena confianza en que la red está en funcionamiento, es segura y funciona, permite realizar inversiones inteligentes en las tecnologías influyentes que hemos analizado en
este documento, así como en las que se están abriendo camino en el mercado. Considere un ejemplo: si su equipo de TI tiene un despliegue de borde en el horizonte, pero no puede garantizar que la red sea capaz de manejarlo, ¿cómo podría ir ese despliegue? No se preocupe, es una pregunta retórica.

Desde una perspectiva empresarial, la supervisión de la red aclara la capacidad y el rendimiento. Desde el punto de vista del equipo de red, la supervisión de la red proporciona los medios para una entrega satisfactoria. En el entorno empresarial actual, en el que el cliente es lo primero, debe haber controles para soportar los nuevos componentes de la infraestructura y la red, así como garantizar la disponibilidad y el rendimiento para el modelo de consumo en cuestión. En pocas palabras, la supervisión de la red es un elemento que permite acelerar y desplegar nuevas tecnologías.

Además, el despliegue de nuevas tecnologías suele conllevar la ampliación de la red. La supervisión de la red también ayuda a reducir la complejidad en un entorno con más puntos de integración, fallos y complejidad. Ser capaz de supervisar cada punto crítico acortará la distancia entre los dolores de crecimiento del entorno y la adopción real de soluciones tecnológicas diseñadas para aliviarlos.

La conclusión es la siguiente: la única manera de adoptar nuevas tecnologías de forma coherente y defendible es con una sólida supervisión y gestión de la red. Si no se conoce el rendimiento actual, seguir los planes futuros equivale a esperar lo mejor, un enfoque que nunca se recomienda en el mundo de las redes o en data center .

Aunque la supervisión de la red establece la visibilidad en data center y despeja el camino para adoptar nuevas tecnologías, no siempre es fácil. Una forma de reducir la presión es renunciar a intentar crear el talento internamente y buscar una solución de monitorización de red como servicio que apoye a los expertos que ya tiene en plantilla. Además, el modelo as-a-service ofrece a sus expertos internos la oportunidad de utilizar los datos y la información que proporcionan los servicios de supervisión de la red para facilitar la adopción de nuevas tecnologías e identificar problemas sistémicos.

 



Referencias
1. Smarter with Gartner, "Gartner Top Strategic Technology Trends for 2021", 19 de octubre de 2020. https://www.gartner.com/smarterwithgartner/gartner-top-strategic-technology-trends-for-2021/
2. Gartner, "DigitalizationtrategyforBusinessTransformation, "2020.https://www.gartner.com/en/information-technology/insights/digitalization
3. https://www.statista.com/topics/6173/edge-computing/
4. Gartner, "InternetfThings:UnlockingTrueDigitalBusinessPotential, "2019.https://www.gartner.com/en/information-technology/insights/internet-of-things
5. https://www.fujitsu.com/global/themes/internet-of-things/white-paper/index.html
6. Gartner, TheTopTreeImpactsofIoTonNetworks,BillMenezes,SaniyeAlaybeyi,17March2017.https://www.gartner.com/en/documents/3644117/the-top-three-impacts-of-iot-on-networks
7. https://www.oreilly.com/radar/microservices-adoption-in-2020/
8. https://www.tcs.com/content/dam/tcsbts/images/insights/cloudinfrastructure/Exploring-Private-Cloud-for-the-Digital-Age.pdf
9. https://www.psmarketresearch.com/market-analysis/sd-wanmarket
10. https://www.cbinsights.com/research/future-of-data-centers/