Menu
in

Chips inexactos que se equivocan para ahorrar energía

La industria de los microchips se revoluciona ante la salida de chips más pequeños y con más potencia cada año, y un factor común de la fabricación es la búsqueda de la perfección y de la exactitud de los procesos. Pero este modelo de construcción y trabajo, ¿es el más eficiente? Un grupo de investigadores de varias universidades del mundo coinciden en que no, en que ellos tienen un método 15 veces más eficiente que los chips convencionales utilizando chips “inexactos” que sacan provecho de los errores que cometen.

En 2003 un grupo de investigadores se reunió en torno a un proyecto que a sus cercanos dejó boquiabiertos: queremos hacer un chip que sea inexacto. Imaginamos respuestas como: ¿Qué? Hace 50 años nos devanamos los sesos intentando evitar la propagación de errores técnicos y humanos en el desarrollo de los chips y ustedes quieren hacer uno que directamente esté destinado a equivocarse. ¿Están locos? Al parecer los muchachos de la Universidad de California, la de Rice, la de Berkeley, la SNT de Singapur y el CEM de Suiza justificaron la internacional unificación de trabajo para crear su chip inexacto. Este cuenta con un sistema especial que le permite equivocarse para sacar más provecho y efectividad. Tanto como 15 veces más efectivo.

No se trata de otro intento frustrado por hacerme el gracioso, sino de un chip que al equivocarse por ser inexacto puede lograr –según sus responsables-, ser 15 veces más eficiente que los chips convencionales. Lo único que tiene que hacer para lograr este desafío es errar cálculos. Sí. Porque utiliza una técnica llamada “pruning” (traducible como “poda”), que consiste en permitir un tamaño menor de chips al eliminar alguno de sus componentes de uso irregular, además de permitirle a los que quedan que puedan cometer errores. La principal meta de estos chips inexactos es que usen sólo una fracción de energía eléctrica que usan los microprocesadores actuales, sin que los humanos podamos notar la diferencia en muchos aspectos.

El concepto es simple: Recortar el consumo de energía al permitir que los componentes de procesamiento -sumar y multiplicar números, en general- puedan cometer algunos errores. Al gestionar con inteligencia la probabilidad de errores y la limitación en la que los cálculos producen errores, los responsables descubrieron que al mismo tiempo puede reducir la demanda de energía e incrementar el rendimiento.

La idea es fantástica si la pensamos para actividades que soportan errores o que los tienen por inherencia, como el sonido y el video. Si el sistema puede manipularse y ser inteligente en la forma de “escoger” sus objetivos, podríamos tener 3 procesadores trabajando en conjunto y tener 1 que tenga un trabajo menos exacto para actividades menos exigentes. De esta manera, sacrificando un poco de funcionalidad en renderizado de imágenes o texto, por ejemplo en un móvil, la batería nos duraría un poco más. Según la fuente, estos chips pueden producir un 0.25% de errores en procesamiento, algo que no es perceptible al ojo humano en una imagen, por ejemplo, y esto ayudó a alcanzar niveles de eficiencia considerables sobre chips considerables. También podría ser útil para GPUs, pero sabremos más de ellos en 2013 cuando el proyecto esté finalizando su lanzamiento.

Escrito por Nico Varonas

Leave a Reply