in

K computer: Superordenador supera los 10 petaflops

Llegaron hace mucho tiempo para hacer más fáciles nuestras vidas calculando todo aquello que con ordenadores convencionales podrían demorar dos vidas humanas, y su crecimiento ha sido exponencial todos los años. Hablamos de los superordenadores como el que acaba de superar la barrera de los 10 petaflops, el japonés K Computer. Construido con casi 90.000 procesadores de 2ghz cada uno, este computador gigante procesa a una velocidad que se escribe con 16 ceros.

Ordenadores que podrían mover montañas, enviar hombres a la luna, investigar sobre minerales insospechados y predecir movimientos estratégicos de enemigos en medio de una batalla. De esto se trata cuando hablamos de superordenadores, y luego de haberlos vistos todos, lo que prima ahora es descubrir las novedades que puedan incluir los más modernos, aunque en realidad la competencia por lograr la mayor velocidad de procesamiento sea lo más termine importando. Y si hablamos de velocidades de los superordenadores, sacar la “regla” para medir gigaHertz podría mover a risa, pues de lo que hay que hablar es de petaflops, una barrera que se ha sobrepasado incansablemente desde hacer algunos años, y que todos los años alguna de estas maravillas de la informática supera y suben el listón de la competencia. Quien ahora parece ser el responsable del subidón de velocidad es el K Computer, que superó, como si nada, los 10 petaflops.

El superordenador desarrollado y en funciones en Japón, acaba de  llegar y superar 10 petaflops de cálculos cuando se le indicó realizar una operación tan compleja, que le llevó casi 30 horas en completarse. Este ordenador al que habíamos hecho mención anteriormente cuando había superado los 8.2 petaflops, ha tenido que agregarle a su sistema un 30% más de procesadores de los que tenía hace 5 meses, llegando al número asombrador de 88.128 procesadores actuales corriendo al máximo de su potencia. Los procesadores utilizados son los SPARC64 VIIIfx que corren cada uno a unos 2Ghz. El impresionante crecimiento y la llegada a los 10 petaflops no parecen ser una limitación temporal, sino que mientras hablamos, los japoneses de la anteriormente llamada Fujitsu K, están en búsqueda de seguir agregando procesadores para que este superordenador sea el más rápido del mundo durante largo tiempo.

La prueba con la que midieron la velocidad de esta bestia computacional fue la llamada LINPACK, que dio un número de capacidad de cálculos de coma o punto flotante que accedió a 10 elevado a la 16ta potencia, algo que se escribiría así: 10. 000.000.000.000.000 El superordenador continuará siendo utilizado para labores científicas como la simulación en tiempo real de reacciones atómicas, modelación del clima, investigación relacionada a campos como lo nuclear, la medicina y la sismología. De todas maneras, no hay que desesperarse en pensar que esta será la nueva Skynet o que su poder creará un agujero negro que nos tragará, pues no se trata de una inteligencia artificial ni de un acelerador de partículas. Es meramente un ordenador convencional. Bueno, 88.128 ordenadores convencionales unidos y corriendo Linux.

Reportar

¿Qué te pareció?

Escrito por Nico Varonas

9 Comments

Leave a Reply
  1. Estos ordenadores se suelen usar para procesar datos de investigaciones como las del LHC por ejemplo, son millones y millones de datos, y para procesarlos hacen falta aplicar ecuaciones diferenciales y combinar esas ecuaciones sobre cada uno de los datos, para asi encontrar algún patrón del que extraer ecuaciones que justifiquen el funcionamiento de todo

    Ese es solo uno de sus usos, tambien se usan para simulaciones de..seismos, cargas de estructuras y miles de cosas que no alcanzo ni a imaginar. Esa velocidad de procesamiento se repartirá entre cada uno de esos usos sobre los que trabaja, corrijanme si me eqivoco

  2. ps como lo dijeron, la resolución de matrices de ecuaciones diferenciales es lo principal en cuanto al uso que se le da a este tipo de super ordenadores, ya sea para análisis de datos experimentales o simulaciones teóricas, para que te des una idea, un ejemplo concreto es la simulación en programas tipo Spice de el comportamiento de determinadas combinaciones de materiales de transistores multicompuerta que con un i7 se llevan dos días… y eso es aparentemente sencillo, ahora imagínate calcular y reducir todos los datos de una colisión de partículas en el CERN…

  3. 90000 procesadores movidos con linux en este macroordenador. ¿Y aun dicen que solo el 1% de los ordenadores usan linux? Quizás es un 1% muy bestia con estos petaflops famosos.

  4. Procesadores SPARC de Fujitsu; ¿No usará Solaris u OpenSolaris?

    Creo que aunque son código abierto, no utilizan el kernel de Linux. Y Solaris está diseñado para optimizar el rendimiento de procesadores trabajando en paralelo.

  5. Con estos adelantos de nanociencia referente a los super ordenadores en informatica y almacenamiento de datos NO ES importante la velocidad, es el ORDEN Y COMPLEMENTACION de la enciclopedia atesorada en los ARCHIVOS de los maestros.- Como es sabido existe en desorden la enciclopedia mas grande del mundo (wikepedia) esta en su gran mayoria a medida que aparecen soluciones o respuestas de las MAXIMAS que a esta fecha humana no tienen cognicion.- CEREBRO MENTE logro funcionar y va en desarrollo de perfeccion con la involucion y evolucion de todos los elementos de la existencialidad a la fecha humana, porque no ha de tener consciencia mas adelante los supercomputadores (GENELECTROQUIMICOHUMANUM)estos futuros cerebrocomput ya han iniciado su gestacion inicial.- mivego latinoamericano "Atraccion psicosomatica" obra en desarrollo inicializacion de exposicion+++

Responder a gruñon Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

PGP: Criptografía híbrida para más seguridad

Need for Speed: The Run, por Michael Bay (trailer)