in

GeekyGeeky Thug lifeThug life Una moneríaUna monería

OpenAI presentó a GPT-4, su siguiente fase en inteligencia artificial

Y ahora… puede entender imágenes

GPT-4

Millones de usuarios en tiempo récord, millones de dólares en inversiones, titanes aterrorizados por su potencial. Todo parece indicar que vivimos en el mundo de ChatGPT, pero detrás del chatbot hay un modelo, y las mentes maestras de OpenAI acaban de anunciar su nueva versión, GPT-4. Al tratarse de un modelo multimodal, GPT-4 puede aceptar imágenes como elementos de entrada, interpretar su contenido, y responder con información más precisa que su predecesor.


OpenAI menciona a través de su página oficial que las diferencias entre GPT-3.5 y GPT-4 pueden ser muy sutiles en una conversación casual, pero todo cambia cuando la complejidad de la tarea cruza un determinado umbral. A partir de allí, GPT-4 demuestra una mayor estabilidad, creatividad, y capacidad al procesar instrucciones específicas. Para respaldar esto, la página presenta una serie de benchmarks que incluye exámenes de muy alto perfil. En todos los casos, el nuevo modelo supera tanto a GPT-3.5 como a otros competidores, por lo que no tendría dificultades para entrar a la universidad.


GPT-4: Aprueba exámenes, interpreta imágenes, ¿entiende bromas?


Sin embargo, uno de los aspectos más impresionantes de GPT-4 es que puede interpretar imágenes. Dicho de otra forma, GPT-4 no es simplemente un modelo de lenguaje, sino que también funciona como modelo visual, aceptando prompts que combinan texto y fotografías. Por ejemplo, la imagen del «cargador VGA» que aparece abajo tiene un perfil viral bastante obvio para nosotros, pero algunas personas necesitan un poco de contexto. Ese no es el caso con GPT-4, que además de describir correctamente la imagen, entendió el chiste a la perfección.


Lo admito: Estoy impresionado

Ahora, analizar imágenes virales es apenas la punta del iceberg para GPT-4. El modelo puede procesar documentos, diagramas, gráficos, ilustraciones y fotografías. Esto parece ser el primer escalón para lo que muchos investigadores llaman «Inteligencia Artificial General» o «IA Fuerte», que supera la inteligencia humana. A finales de febrero, OpenAI publicó un artículo en el que explora el potencial de estos modelos avanzados, pero GPT-4 aún se encuentra lejos de eso. Los sesgos en su dataset de entrenamiento no se fueron a ninguna parte, al igual que sus momentos de delirio.

¿Te gustaría probar GPT-4? Actualmente existen dos opciones. La primera de ellas es suscribirse a ChatGPT Plus, con un costo de 20 dólares mensuales. La segunda… es acceder a la versión mejorada de Bing con inteligencia artificial. Después de la presentación oficial de GPT-4, Microsoft confirmó en el blog oficial de Bing que la compañía utiliza una variante de GPT-4 personalizada para búsquedas. De hecho, todo usuario que haya entrado a Bing en las últimas cinco semanas ya experimentó con GPT-4. ¿Qué estás esperando?


Sitio oficial: Haz clic aquí


Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

2 Comments

Leave a Reply
  1. “que supera la inteligencia humana”

    Vaya flipados los que escriben esto. Es el problema de estas cosas, que con tal de picar en el anzuelo de la noticia, se dicen tonterías.

    • La expresión parece exagerada a simple vista, pero no deja de ser correcta. Una IA fuerte puede entender y aprender como base cualquier tarea intelectual al alcance de un humano, y seguir mejorando desde allí. Pero aún deben crearla…

Responder a Lisandro Pardo Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

LCD de doble capa

Cómo fabricar un monitor LCD de doble capa y crear un «falso OLED»

Vertedero Animado de la Semana (N°250)