in

La era de la computación envolvente (AMD)

Sus procesadores y sus tarjetas gráficas son las cosas que más atención suelen recibir por parte de los medios, pero al igual que toda empresa, AMD también piensa en el futuro, y de acuerdo al CTO Mark Papermaster, el futuro se trata de la computación envolvente. Bajo este concepto, los ordenadores no van a estar identificados como dispositivos exclusivos (sean estáticos o móviles), sino que funcionarán a nuestro alrededor, sin la necesidad de teclados o ratones, con interfaces naturales e intuitivas, y anticipando nuestras necesidades.

En la actualidad, el debate se concentra sobre la llamada “Era PC”. Con la impactante llegada de las tablets al mercado, y su rápida adopción por parte de los consumidores, los formatos tradicionales de ordenador están siendo cuestionados como nunca antes. ¿Acaso ya no hay lugar para la carcasa junto al monitor? ¿Los sistemas “todo en uno” son un reemplazo coherente? ¿Las tablets van a absorber todo a su paso? ¿O la PC como la conocemos simplemente cambiará de rol y evolucionará? Varios directivos de diferentes empresas han dado su opinión sobre el asunto, pero hay algo que no cambia: La informática busca tener un alcance mayor. Puede que una persona no sepa instalar Windows o configurar un controlador de vídeo, pero con el smartphone que lleva en el bolsillo tiene acceso a una capacidad de procesamiento impresionante. Hoy llevamos smartphones, tablets y ordenadores portátiles, sin embargo, de acuerdo a AMD, eso también dejará de ser necesario.

Tomando las palabras del CTO Mark Papermaster, esto se logrará gracias a la “computación envolvente”. Con la computación envolvente, el usuario no dependerá de interfaces físicas tradicionales como teclados y ratones. Todo será natural, con un gran énfasis sobre lo visual y lo auditivo. Las interfaces surgirán de acuerdo al requerimiento del usuario, y se saldrán del camino apenas cumplan con su tarea. Voz, gestos, rastreo ocular y otra clase de sistemas biométricos serán parte de este complejo concepto. La nube tendrá un rol crítico en la computación envolvente, intercambiando “exabytes” de imágenes, vídeo y lenguaje natural para el usuario. El objetivo más grande de la computación envolvente llegará con el desarrollo de dispositivos con percepción, que anticipen las necesidades del usuario y brinden datos relevantes.

Se trata de una visión fabulosa, aunque muy ambiciosa, y como tal requerirá drásticos avances en hardware y software. La computación heterogénea de la que hemos hablado en el pasado será fundamental si AMD quiere desarrollar algo similar a lo que presenta en este concepto, sin mencionar una sólida estructura de propiedad intelectual (después de todo, las demanda es casi un deporte entre los gigantes del mercado en estos días). Papermaster también agregó que el camino hacia la computación envolvente “no será menos desafiante” que el “viaje de 20 años” en materia de procesamiento gráfico que llevó a los jugadores desde el Pong a los títulos actuales. En lo personal diría que fueron unos 30 años, pero no deja de tener razón. Hoy, la computación envolvente parece un sueño delirante. Con un poco de suerte, en dos décadas tal vez miremos hacia atrás y pensaremos qué errados estábamos al dudar.

Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

4 Comments

Leave a Reply
  1. Personalmente, lo que los de AMD proponen me parece lo mas lógico. Si no me equivoco los de IBM ya tiene algo como esto en marcha con lo de smartcity, cosas pequeñas que por ahora no son tan entrelazadas pero algún día todo sera un mismo sistema. Con el cambio de paradigma de la automoción (de combustión a eléctrico) se busca una mejor interacción entre vehículos y también vehículo conductor, etc.

    Pero hay algo que para mi es preocupante. Toda esta información "compartida" (si se me permite | y que sea mínima) necesitara de protección, se necesita nuevas leyes que la protejan, nuevas formas de ver los datos. A mi me preocupa que pueda pasar como con MU, que cualquiera con algo de poder pueda acceder como le da la gana.

  2. Tengo para mi que hay dos cuestiones que deben cambiar antes de llegar a este futuro interesante. 1º las conexiones a Internet. Con el ancho de banda actual poco podemos hacer. 2º La nube, concepto falso si los hay, porque el usuario pierde la potestad de todo lo que va a parar a "la nube". La lista sigue, seguro muchos usuarios podran sumar debilidades a este interesante concepto. Un alter ego virtual que nos acompañe permanentemente, pienso, mas que brindarnos libertad nos torna dependientes.

  3. Es buenísimo si todo esto llega a ser cierto algún día. Lo cierto es que coincido con los que dicen que es mejor prevenir que curar y hacer leyes para proteger nuestra información privada.

    Me llamó la atención eso de "anticipar las necesidades del usuario".
    Me hizo acordar a una película en donde te ponían propagandas en los sueños, en donde te bombardeaban con "necesidades" todo el tiempo. Ojalá que NUNCA lleguemos a un futuro con cosas de ese estilo.

  4. Para el que no entendió bien que significa esta noticia y se asusto les dejo este concepto sacado de otra pagina, porque aquí lo describen de una forma hmmmm no sé que da miedo.

    Esta organización es un consorcio sin fines de lucro, creado y establecido para definir y promover estándares abiertos para la computación heterogénea, que proveerá una especificación de hardware común y amplio ecosistema de soporte para hacer las cosas más fáciles para que los desarrolladores de software puedan crear aplicaciones innovadoras que puedan tomar gran ventaja de los actuales y modernos procesadores.

    La organización está conformada inicialmente por AMD y ARM como impulsores, junto con Imagination Technologies, Mediatek Inc y Texas Instruments (TI), pero al ser una fundación independiente y sin fines de lucro que busca estandarizaciones para la programación para sistemas de cómputo heterogéneo, pueden incorporarse sin problemas otras compañías que quieran unirse a la iniciativa.

    Estas compañías trabajaran conjuntamente para impulsar una especificación de arquitectura única y simplificar el modelo de programación para ayudar a los desarrolladores de software a aprovechar mejor las capacidades que se encuentran en las modernas unidades de procesamiento central (CPU) y unidades de procesamiento gráfico (GPU), y desbloquear el rendimiento y eficiencia energética de los motores de computación en paralelo que se encuentran en los procesadores heterogéneos.

    Al estandarizar el modelo de programación heterogénea, los desarrolladores pueden más fácilmente y de forma rentable desarrollar un nuevo software diseñado para tomar ventaja del mercado heterogéneo (también conocido como “híbrido”).

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Octane: El nuevo benchmark de Google para navegadores

Estadísticas personalizadas de Facebook (por Wolfram Alpha)