Por Fernando García

MD IDP Data Centers

La industrialización de los procesos de la tecnología de la información (TI) nos obliga a adoptar sistemas cada vez más complejos y, a la vez, más inteligentes, capaces de actuar de manera independiente, eliminando la necesidad de intervención humana. De sobra es sabido que los humanos somos siempre el eslabón débil en cualquier sistema de producción que requiera tomas de decisión en tiempo real. La precisión del piloto automático de un avión o la seguridad que da un coche con conducción autónoma está muy por encima del equivalente humano.

La disrupción que supone la transformación digital ha puesto de manifiesto que el factor limitante para avanzar con esa transformación somos las mismas personas. Todavía hay taxistas que creen saber circular mejor que Waze; ellos no tienen en cuenta un factor fundamental: el análisis masivo de información del tráfico en tiempo real. De la misma manera, la captura de información en tiempo real por miles de sensores (IoT, por sus siglas en inglés), el intercambio de información entre equipos o máquinas remotas (M2M, por sus siglas en inglés), el aprendizaje automático de máquinas (o machine learning) y el análisis masivo de esa información (big data) permiten tomar más y mejores decisiones que cualquier equipo de personas, por más inteligentes que sean.

“El factor limitante para avanzar con la transformación digital somos las mismas personas”

Para sustentar la industrialización y la transformación de los procesos de las tecnologías de la información, se requiere una infraestructura física muy diferente. Los centros de datos actuales deben estar preparados para soportar mayores densidades, cargas térmicas variables, mayor eficiencia y seguridad, diseños versátiles y flexibles que simplifiquen y faciliten las reconfiguraciones y cambios constantes. Para lograr esto, se requieren procesos de diseño y construcción estandarizados e industrializados. Hoy en día no tiene sentido diseñar y construir un centro de datos ad hoc, a la medida de cada necesidad. Debemos recurrir a prototipos, es decir, soluciones estándar, modulares, replicables y, en la medida de lo posible, prefabricadas. Solamente de esa manera podremos operar dicha infraestructura de una forma autónoma y sin intervención humana.

Para conseguir centros de datos autónomos, debemos comenzar por un diseño y una construcción modular y estándar, basados en bloques replicables. Deben estar basados en topologías eléctricas y mecánicas innovadoras que permitan asegurar el mantenimiento concurrente y la tolerancia a fallos a nivel de rack y equipo TI. Estas topologías no se limitan a las tradicionales N+1 o 2N.  En realidad, existen múltiples configuraciones: redundante distribuido, diferentes esquemas de bloque redundante, así como topologías híbridas que permiten asegurar la continuidad eléctrica y mecánica, a la vez que se aumentan la eficiencia y la seguridad de todo el sistema, manteniendo un nivel de inversión mínimo.

Otro requisito es un alto grado de instrumentalización que permita captar información en tiempo real acerca de parámetros físicos y ambientales, control de acceso y seguridad. Es el Internet of Things o internet de las cosas, aplicado a los centros de datos. Se trata de poblar el centro de datos con cientos de sensores que nos permitan capturar los signos vitales del centro de datos y generar registros masivos de información que puedan ser analizados después. Además de los sensores, se requieren dispositivos que permitan actuar sobre la infraestructura de manera automática (M2M), desde el control de acceso a los racks o diferentes ambientes, hasta el control automático de equipos, válvulas o tableros.

Finalmente, necesitamos el componente de inteligencia: un sistema de gestión que permita el análisis masivo de esa información (Big Data + DCIM), genere modelos predictivos para anticipar cambios o fallos en el sistema (machine learning) y tome decisiones de control sobre la infraestructura para maximizar la disponibilidad, la seguridad y la eficiencia del sistema. Ese sistema de gestión debe estar configurado con base en un modelo de operación sustentable que esté en constante retroalimentación con tecnologías de inteligencia artificial.

“Los centros de datos autónomos representan grandes beneficios al eliminar costos innecesarios y aumentar la disponibilidad, seguridad y eficiencia de todo el sistema”

Estos centros de datos industrializados son imprescindibles cuando hablamos de la computación periférica o edge computing. Esta tendencia hacia centros de datos más pequeños, distribuidos fuera de las grandes capitales y cerca de núcleos urbanos de población, representa importantes retos desde el punto de vista de operación, mantenimiento y seguridad. Los centros de datos autónomos representan grandes beneficios en estos casos al eliminar costos innecesarios y aumentar la disponibilidad, seguridad y eficiencia de todo el sistema. El siguiente paso es el uso de tecnologías de realidad virtual y aumentada para poder operar y mantener de manera remota múltiples sitios desde un único centro de control.

Las tecnologías que se requieren para operar y mantener un centro de datos de manera autónoma ya existen y están disponibles. De la misma forma que nuestras carreteras pronto estarán llenas de vehículos autónomos, nuestra información será gestionada en infraestructuras de tecnología y centros de datos completamente autónomos.

En Ingenium trabajamos para que los centros de datos autónomos sean una realidad en Latinoamérica. Contactanos a través del correo electrónico [email protected] o bien llamanos al +506 4001-9348 y con gusto te asesoraremos.