De los sistemas de mascotas a las granjas de ganado: ¿qué pasó con el centro de datos?

Data Center Noticias

Hay algo en la artesanía. Es personal, su arte, y puede ser increíblemente eficaz para lograr sus objetivos. Por otro lado, la producción para el mercado masivo puede ser efectiva de otras maneras, a través de la velocidad, la eficiencia y el ahorro de costos.

La historia de los centros de datos es la de pasar de la artesanía, donde cada máquina individual es un proyecto favorito, mantenido con gran cuidado, a la producción en masa con grandes servidores donde las unidades individuales son completamente desechables.

En este artículo, echamos un vistazo a cómo los centros de datos han cambiado de forma a lo largo de las décadas. Examinamos las implicaciones para las cargas de trabajo del centro de datos y para las personas que los ejecutan, que ahora han perdido sus sistemas favoritos. También revisaremos las implicaciones de seguridad cibernética del nuevo panorama del centro de datos.

Sistema de mascotas con un gran propósito

Para cualquier administrador de sistemas que comenzó su carrera antes de la llegada de la virtualización y otras tecnologías de nube y automatización, los sistemas eran piezas de hardware finamente diseñadas y tratadas con el mismo amor que una mascota.

Comienza con el surgimiento de las salas de computadoras en la década de 1940, donde las grandes máquinas conectadas manualmente por miles de cables eran lo que solo podría llamarse un trabajo de amor. Estas salas de ordenadores contenían las máquinas de vapor de la era informática, que pronto serían reemplazadas por equipos más sofisticados gracias a las revoluciones del silicio. ¿En cuanto a la seguridad? Una gran cerradura en la puerta era todo lo que se necesitaba.

Los mainframes, los precursores de los centros de datos actuales, también fueron soluciones finamente diseñadas, con una sola máquina que ocupaba toda una sala y necesitaba una mano de obra experta y continua para seguir funcionando. Eso involucró tanto habilidades de hardware como habilidades de codificación donde los operadores de mainframe deben codificar sobre la marcha para mantener sus cargas de trabajo en funcionamiento.

Desde una perspectiva de seguridad, los mainframes eran razonablemente fáciles de administrar. Fue (mucho) antes del amanecer de la era de Internet, y los sistemas favoritos de los administradores de TI tenían un riesgo razonablemente limitado de vulneración. Los primeros virus informáticos surgieron en la década de 1970, pero no representaban ningún riesgo para las operaciones de mainframe.

Potencia informática prefabricada con requisitos de gestión únicos

Llegue la década de 1990 y la aparición de los centros de datos. Las máquinas individuales producidas en masa ofrecían una potencia de cómputo lista para usar que era mucho más asequible que las unidades de mainframe. Un centro de datos simplemente consistía en una colección de estas computadoras, todas conectadas entre sí. Más adelante en la década, el centro de datos también se conectó a Internet.

Aunque las máquinas individuales requerían un mantenimiento físico mínimo, el software que impulsaba las cargas de trabajo de estas máquinas requería un mantenimiento continuo. El centro de datos de la década de 1990 estaba compuesto en gran medida por sistemas de mascotas. Eso contó para cada máquina, que fue un acto de artesanía de administración de servidores.

Desde las actualizaciones manuales de software hasta la ejecución de copias de seguridad y el mantenimiento de la red, los administradores de TI tenían mucho trabajo por delante, si no en el mantenimiento físico de las máquinas, sí en la gestión del software que respalda sus cargas de trabajo.

También es una era en la que las cargas de trabajo corporativas fueron expuestas por primera vez a vulnerabilidades de seguridad externas. Con los centros de datos ahora conectados a Internet, de repente hubo una puerta para que los atacantes ingresaran a los centros de datos. Pone en riesgo los sistemas favoritos del administrador de TI: riesgo de robo de datos, riesgo de mal uso del equipo, etc.

Entonces, la seguridad se convirtió en una preocupación importante. Los firewalls, la detección de amenazas y la aplicación regular de parches contra las vulnerabilidades son el tipo de herramientas de seguridad que los administradores de TI tuvieron que adoptar para proteger sus sistemas favoritos durante el cambio de milenio.

Granjas de servidores: producidas en masa, administradas en masa

La década de 2000 vio un cambio importante en la forma en que se manejaban las cargas de trabajo en el centro de datos. El impulso central detrás de este cambio fue la eficiencia y la flexibilidad. Dada la enorme demanda de cargas de trabajo informáticas, las soluciones que incluyen la virtualización y la creación de contenedores un poco más adelante ganaron terreno rápidamente.

Al aflojar el vínculo estricto entre el hardware y el sistema operativo, la virtualización significó que las cargas de trabajo se volvieron relativamente independientes de las máquinas que las ejecutan. El resultado neto trajo una amplia gama de beneficios. El equilibrio de carga, por ejemplo, garantiza que las cargas de trabajo difíciles siempre tengan acceso a la potencia informática, sin necesidad de una inversión financiera excesiva en potencia informática. La alta disponibilidad, a su vez, está diseñada para eliminar el tiempo de inactividad.

En cuanto a las máquinas individuales, bueno, ahora son completamente desechables. Las tecnologías en uso en los centros de datos modernos significan que las máquinas individuales esencialmente no tienen ningún significado, son solo engranajes en una operación mucho más grande.

Estas máquinas ya no tenían buenos nombres individuales y simplemente se convirtieron en instancias; por ejemplo, el servicio del servidor web ya no lo proporciona el increíblemente poderoso servidor «Aldebaran», sino un grupo de «webserver-001» a «webserver-032». Los equipos de tecnología ya no podían darse el lujo de dedicar tiempo a ajustar cada uno con la misma precisión que antes, pero los grandes números utilizados y la eficiencia obtenida gracias a la virtualización significaron que la potencia informática general en la sala aún superaría los resultados de los sistemas de mascotas.

Oportunidad limitada para la artesanía.

Las tecnologías de contenedores como Docker y Kubernetes más recientemente han llevado este proceso aún más lejos. Ya no necesita dedicar sistemas completos para realizar una tarea determinada, solo necesita la infraestructura básica proporcionada por el contenedor para ejecutar un servicio o aplicación. Es aún más rápido y eficiente tener innumerables contenedores que respaldan un servicio en lugar de sistemas específicos y dedicados para cada tarea.

La implementación de un nuevo sistema ya no requiere la instalación manual de un sistema operativo o un proceso de implementación de servicios y configuración que requiere mucha mano de obra. Ahora todo reside en archivos de «recetas», documentos simples basados ​​en texto que describen cómo debe comportarse un sistema, utilizando herramientas como Ansible, Puppet o Chef.

Los administradores de TI aún podrían incluir algunos ajustes u optimizaciones en estas implementaciones pero, debido a que cada servidor ya no es único, y debido a que hay tantos de ellos que admiten cada servicio, no tiene sentido dedicar el esfuerzo para hacerlo. Los administradores que necesitan más rendimiento siempre pueden reutilizar la receta para activar algunos sistemas más.

Si bien algunos servicios básicos, como los servidores de administración de identidad u otros sistemas que almacenan información crítica, seguirían siendo mascotas, la mayoría ahora se consideraban ganado; claro, no quería que ninguno de ellos fallara, pero si fallara, podría ser reemplazado rápidamente por otro sistema, igualmente anodino, que realiza una tarea específica.

Tenga en cuenta el hecho de que las cargas de trabajo operan cada vez más en recursos informáticos alquilados que residen en grandes instalaciones en la nube y está claro que los días de ejecutar servidores como un sistema mascota han terminado. Ahora se trata de producción en masa, de una manera casi extrema. ¿Eso es algo bueno?

La producción en masa es genial: pero hay nuevos riesgos

La flexibilidad y la eficiencia que trae consigo la producción en masa son cosas buenas. En el entorno informático, se pierde poco al no tener que «hacer a mano» y «nutrir» los entornos informáticos. Es una forma mucho más elegante y rápida de hacer que las cargas de trabajo entren en funcionamiento y asegurarse de que permanezcan en funcionamiento.

Pero hay una serie de implicaciones de seguridad. Si bien la seguridad podría «elaborarse» en los sistemas de mascotas, los entornos de ganado requieren un enfoque ligeramente diferente, y ciertamente todavía requieren un fuerte enfoque en la seguridad. Por ejemplo, los sistemas de ganado se generan a partir de los mismos archivos de recetas, por lo que cualquier falla intrínseca en las imágenes base utilizadas para ellos también se implementará a escala. Esto se traduce directamente en una superficie de ataque más grande cuando surge una vulnerabilidad, ya que hay muchos más objetivos posibles. En esta situación, realmente no importa si puede iniciar un nuevo sistema en minutos o incluso segundos; hágalo en miles de servidores a la vez y sus cargas de trabajo se verán afectadas independientemente del tiempo que tarde, y eso afectará su línea de fondo.

En gran medida, la automatización es ahora la respuesta a la seguridad en las granjas de servidores. Piense en herramientas como el escaneo de penetración automatizado y herramientas automatizadas de parcheo en vivo. Estas herramientas brindan una seguridad más hermética contra una amenaza igualmente automatizada y reducen la sobrecarga administrativa de administrar estos sistemas.

Un panorama informático cambiado

El entorno en evolución en TI ha cambiado la arquitectura del centro de datos y el enfoque de las personas que hacen que los centros de datos funcionen. Simplemente no es factible confiar en prácticas antiguas y esperar obtener los mejores resultados, y este es un desafío difícil, ya que requiere una cantidad considerable de esfuerzo por parte de los administradores de sistemas y otros profesionales de TI: es un cambio de mentalidad significativo y requiere un esfuerzo consciente. para cambiar la forma en que razona sobre la administración del sistema, pero aún se aplican algunos principios subyacentes, como la seguridad. Dado que los números de vulnerabilidad no parecen disminuir, de hecho, todo lo contrario, continuará aplicándose en el futuro previsible, independientemente de otros cambios evolutivos que afecten a su centro de datos.

En lugar de oponerse, los administradores de TI deberían aceptar que sus sistemas favoritos ahora, para todos los efectos, se han ido, reemplazados por la entrega de producción en masa. También significa aceptar que los desafíos de seguridad todavía están aquí, pero en una forma diferente.

Al hacer que las cargas de trabajo del servidor se ejecuten de manera eficiente, los administradores de TI confían en un nuevo conjunto de herramientas, con métodos adaptados que se basan en la automatización de tareas que ya no se pueden realizar manualmente. Entonces, de manera similar, al ejecutar operaciones de seguridad de la granja de servidores, los administradores de TI deben echar un vistazo a las herramientas de automatización de parches como Empresa KernelCare de TuxCarey vea cómo encajan en su nuevo conjunto de herramientas.

David
Rate author
Hackarizona