Menu
in

Ollama: Cómo ejecutar modelos de inteligencia artificial en tu PC

Docenas de opciones para descargar, hablar, y reírse de sus delirios

Ollama: Modelos de inteligencia artificial

Si te vendas los ojos, giras 50 veces y arrojas una piedra, inevitablemente le darás a un modelo basado en inteligencia artificial. El hype asociado a esta tecnología dejó atrás cualquier sensación de control, pero más allá de las dudas sobre su calidad y utilidad, lo cierto es que se ha vuelto mucho más sencilla de instalar en entornos convencionales. De hecho, el proyecto Ollama reduce todo el proceso a una descarga inicial, un par de comandos en PowerShell, y algunos minutos de tu tiempo.


Tal vez te hayas preguntado por qué no estoy cubriendo novedades relacionadas a inteligencia artificial como antes. La verdad es que atravesamos una fase de «Yo También» que roza lo desesperante. El número de proyectos abusando de la leyenda «ahora con IA» o similar es absurdo, y en la gran mayoría de los casos, sus resultados son decepcionantes.

A eso se suma la inmediata disponibilidad de los modelos más importantes, como ChatGPT (que eliminó el requerimiento de login en su versión free), Google Gemini, y Copilot (que Microsoft nos ofrece hasta para ir al baño). Sin embargo, hoy presento un pequeño acto de rebeldía, en la forma de modelos locales, privados, y offline. Obviamente, necesitarás cierto poder de fuego para que funcionen sin sobresaltos, pero los requerimientos de software son muy simples. El primer paso, es descargar Ollama.


Ollama: Una forma efectiva para ejecutar modelos de inteligencia artificial offline

Los modelos no son pequeños que digamos. Paciencia.

Una vez que hayas descargado e instalado Ollama, notarás un pequeño icono en la bandeja de sistema. Esto no hace más que indicar el funcionamiento del entorno. También puedes ingresar a http://localhost:11434/, y verificar que aparezca la frase «Ollama is running». Ahora, Ollama no posee interfaz, pero tampoco la necesita: El «chat» propiamente dicho funciona bajo PowerShell.


Los comandos básicos de Ollama. También puedes ejecutar «ollama –help» en PowerShell para saber más.

Recomiendo abrir PowerShell con privilegios elevados, ya que Ollama deberá descargar los modelos para garantizar su ejecución local. La lista completa está aquí, pero Llama2 y Mistral son dos opciones interesantes para comenzar. Por ejemplo, al ejecutar el comando «ollama run llama2», Ollama obtendrá automáticamente una copia de Llama2. El promedio es de 4 gigabytes por modelo, o sea que deberás tener un poco de paciencia «y» espacio suficiente en tu unidad. El modelo estará listo para usar cuando veas el cursor, acompañado por la expresión «Send a message (/? for help)».


Repetitivo, aunque nada demasiado extraño…
… yyyyyy aquí empezó el delirio.

Entonces, ¿qué tan bien funciona Ollama? Admito que el entorno es muy bueno, pero la calidad final de las sesiones siempre estará atada a lo que pueda hacer o no cada modelo. Tanto Llama2 como Mistral registraron un buen comienzo, sin embargo, en menos de diez minutos ya estaban delirando con información incorrecta. Mistral conjuró un proyecto estadounidense (Project ALFRED) basado en RTGs a mediados de los ‘60 del cual no encontré nada. En cambio, Llama2 me dio dos fechas diferentes para las elecciones generales en México… e inventó nombres de candidatos. ¯\_(ツ)_/¯


Aparentemente, hablar sobre uranio es «información sensible o clasificada»
(suspiro)… la fecha está mal, y el artículo 83 bloquea la posibilidad de una reelección.

En resumen, como herramienta de experimentación, Ollama tiene solidez. Los modelos, son otra historia. ¡Enlace más abajo!


Sitio oficial y descarga: Haz clic aquí


Escrito por Lisandro Pardo

Leave a Reply