in

GeekyGeeky Una moneríaUna monería

Ollama: Cómo ejecutar modelos de inteligencia artificial en tu PC

Docenas de opciones para descargar, hablar, y reírse de sus delirios

Ollama: Modelos de inteligencia artificial

Si te vendas los ojos, giras 50 veces y arrojas una piedra, inevitablemente le darás a un modelo basado en inteligencia artificial. El hype asociado a esta tecnología dejó atrás cualquier sensación de control, pero más allá de las dudas sobre su calidad y utilidad, lo cierto es que se ha vuelto mucho más sencilla de instalar en entornos convencionales. De hecho, el proyecto Ollama reduce todo el proceso a una descarga inicial, un par de comandos en PowerShell, y algunos minutos de tu tiempo.


Tal vez te hayas preguntado por qué no estoy cubriendo novedades relacionadas a inteligencia artificial como antes. La verdad es que atravesamos una fase de «Yo También» que roza lo desesperante. El número de proyectos abusando de la leyenda «ahora con IA» o similar es absurdo, y en la gran mayoría de los casos, sus resultados son decepcionantes.

A eso se suma la inmediata disponibilidad de los modelos más importantes, como ChatGPT (que eliminó el requerimiento de login en su versión free), Google Gemini, y Copilot (que Microsoft nos ofrece hasta para ir al baño). Sin embargo, hoy presento un pequeño acto de rebeldía, en la forma de modelos locales, privados, y offline. Obviamente, necesitarás cierto poder de fuego para que funcionen sin sobresaltos, pero los requerimientos de software son muy simples. El primer paso, es descargar Ollama.


Ollama: Una forma efectiva para ejecutar modelos de inteligencia artificial offline

modelos de inteligencia artificial
Los modelos no son pequeños que digamos. Paciencia.

Una vez que hayas descargado e instalado Ollama, notarás un pequeño icono en la bandeja de sistema. Esto no hace más que indicar el funcionamiento del entorno. También puedes ingresar a http://localhost:11434/, y verificar que aparezca la frase «Ollama is running». Ahora, Ollama no posee interfaz, pero tampoco la necesita: El «chat» propiamente dicho funciona bajo PowerShell.


modelos de inteligencia artificial
Los comandos básicos de Ollama. También puedes ejecutar «ollama –help» en PowerShell para saber más.

Recomiendo abrir PowerShell con privilegios elevados, ya que Ollama deberá descargar los modelos para garantizar su ejecución local. La lista completa está aquí, pero Llama2 y Mistral son dos opciones interesantes para comenzar. Por ejemplo, al ejecutar el comando «ollama run llama2», Ollama obtendrá automáticamente una copia de Llama2. El promedio es de 4 gigabytes por modelo, o sea que deberás tener un poco de paciencia «y» espacio suficiente en tu unidad. El modelo estará listo para usar cuando veas el cursor, acompañado por la expresión «Send a message (/? for help)».


modelos de inteligencia artificial
Repetitivo, aunque nada demasiado extraño…
modelos de inteligencia artificial
… yyyyyy aquí empezó el delirio.

Entonces, ¿qué tan bien funciona Ollama? Admito que el entorno es muy bueno, pero la calidad final de las sesiones siempre estará atada a lo que pueda hacer o no cada modelo. Tanto Llama2 como Mistral registraron un buen comienzo, sin embargo, en menos de diez minutos ya estaban delirando con información incorrecta. Mistral conjuró un proyecto estadounidense (Project ALFRED) basado en RTGs a mediados de los ‘60 del cual no encontré nada. En cambio, Llama2 me dio dos fechas diferentes para las elecciones generales en México… e inventó nombres de candidatos. ¯\_(ツ)_/¯


modelos de inteligencia artificial
Aparentemente, hablar sobre uranio es «información sensible o clasificada»
modelos de inteligencia artificial
(suspiro)… la fecha está mal, y el artículo 83 bloquea la posibilidad de una reelección.

En resumen, como herramienta de experimentación, Ollama tiene solidez. Los modelos, son otra historia. ¡Enlace más abajo!


Sitio oficial y descarga: Haz clic aquí


Reportar

¿Qué te pareció?

Escrito por Lisandro Pardo

2 Comments

Leave a Reply
  1. Saludos Lisandro

    en otras palabras, es como la version de texto de “ComfyUI” ? es decir un DIY sin tokens extras pero no dejando de lado que no es perfecta, es genial para probar y pasar el rato sin los tediosos “gratis si colocas tu tarjeta de crédito par luego comprar dos creditos que al final ni convence”

    • Precisamente, todo lo que se necesita es espacio en disco para los modelos, una buena dosis de VRAM (que crece mucho dependiendo del número de parámetros)… y un poco de paciencia cuando empieza a mezclar fechas y lugares. XD

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Refractor juego

Refractor: Un laberinto de colores por día

Tráiler Flash: The Dead Don’t Hurt

Tráiler Flash: The Dead Don’t Hurt