in

The Machine de Hewlett-Packard vuelve a la carga con un nuevo prototipo

160 terabytes de memoria en una sola plataforma

Hewlett-Packard Enterprise completó el prototipo original de su proyecto The Machine en noviembre de 2016, pero al poco tiempo fue cancelado. Los memristores aún no están listos para conquistar el mundo, sin embargo, la idea de reducir nuestra dependencia sobre procesadores y arquitecturas rígidas favoreciendo a gigantescos bancos de memoria e interfaces ópticas sigue firme. Eso habilitó el «regreso» de The Machine, ahora con 160 terabytes de memoria, estableciendo un nuevo récord.

Los primeros ordenadores y programas fueron diseñados a partir de la escasez. La memoria era cara, al igual que los medios de almacenamiento con mayor densidad. Todos estábamos obligados a ser eficientes y económicos, aún si eso significaba sacrificar velocidad. Hoy, la historia es muy diferente. Una tarjeta de memoria con 64 GB no supera los 20 euros, los nuevos smartphones poseen una cantidad de RAM a la par de los ordenadores de escritorio, y algunas compañías ya prometen hasta 100 TB de estado sólido para guardar datos. Aún así, en el mundo empresarial podemos ver objetivos mucho más avanzados y extremos. El concepto de memoria unificada se presenta como una solución de primer orden a los problemas más críticos de la Web, y detrás de esa solución encontramos a The Machine.

Hewlett-Packard Enterprise comenzó a trabajar sobre The Machine en 2014, pero le bajó el pulgar dos años después tras finalizar su primer prototipo. En ese entonces, un único servidor cargaba con ocho terabytes de memoria, sin embargo, esta reinterpretación de The Machine va mucho más allá. Es una nueva arquitectura que busca eliminar demoras asociadas a cuellos de botella, latencia y transferencias internas, colocando todo a nivel software dentro de un enorme banco de memoria disponible sin restricciones. El prototipo posee un total de 160 terabytes de memoria unificada (léase «un solo espacio de dirección»), y 40 procesadores Cavium ThunderX2 (ARM) con 32 núcleos cada uno, llevando el número final a 1.280. A esto debemos sumar el soporte para interfaces fotónicas, una tecnología que en el futuro habilitará cambios de escala en verdad impresionantes.

En estos momentos, The Machine tiene a sus 160 terabytes repartidos en 40 nodos, pero el anuncio oficial de HPE arroja números escandalosos. Han sugerido máximo de 4.096 yottabytes, algo así como nuestro universo digital actual completo… multiplicado 250 mil veces. Ahora, la pregunta: ¿Cuánto hay que esperar para ver esta tecnología en centros de datos? Entre tres y cinco años.

Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

One Comment

Leave a Reply

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Los logos son la imagen de tu marca

Aplicaciones y consejos para crear logotipos

Athena: El nuevo spyware de la CIA expuesto por WikiLeaks