title | date | description | tags | ||||
---|---|---|---|---|---|---|---|
Guía Completa para Instalar Ollama y OpenWebUI Localmente |
2024-11-26 |
Guía completa para instalar Ollama y OpenWebUI localmente en tu dispositivo. |
|
Bienvenido a esta guía paso a paso, donde aprenderás cómo configurar Ollama y OpenWebUI en tu dispositivo local. Ya seas un estudiante curioso, un entusiasta de la tecnología o alguien que quiere experimentar con modelos de lenguaje (LLMs), esta guía te ayudará a navegar por el proceso. Al final de este proyecto, tendrás un entorno completamente funcional para ejecutar modelos de inteligencia artificial localmente, lo que te dará control, privacidad y flexibilidad.
OpenWebUI es una interfaz gráfica de código abierto diseñada para interactuar con modelos de lenguaje (LLMs). Ofrece una experiencia intuitiva basada en chats donde los usuarios pueden hacer preguntas, generar texto y hasta interactuar con los modelos utilizando voz o imágenes. Algunas características clave de OpenWebUI incluyen:
- Resaltado de código.
- Formateo con Markdown y LaTeX.
- Gestión de parámetros del modelo.
- Integración de información externa mediante Recuperación Aumentada de Generación (RAG).
Este sistema está diseñado para ser fácil de usar y es accesible tanto en computadoras como en dispositivos móviles.
Ollama es una herramienta ligera y de código abierto que actúa como backend para gestionar y ejecutar modelos de lenguaje localmente en tu dispositivo. Escrito en Go, Ollama permite desplegar e interactuar con modelos como Llama2, Mistral, y otros. Funciona en segundo plano como el motor que impulsa interfaces como OpenWebUI u otras herramientas similares.
Beneficios clave de Ollama:
- Ejecución local de modelos, lo que garantiza privacidad.
- No depende de servicios en la nube, reduciendo costos.
- Compatibilidad con GPUs potentes para un procesamiento más rápido.
Un modelo es el "cerebro" de un sistema de IA. En este contexto, se refiere a un modelo de aprendizaje automático preentrenado, como Llama2 o Llama 3.2, que genera texto similar al humano basado en las indicaciones que recibe. Estos modelos varían en complejidad:
- Modelos más pequeños (por ejemplo, 1 mil millones de parámetros): Requieren menos memoria y son más rápidos, pero su comprensión puede ser limitada.
- Modelos más grandes (por ejemplo, 70 mil millones de parámetros): Ofrecen respuestas más precisas y matizadas, pero necesitan más recursos computacionales.
Ejecutar modelos localmente tiene varias ventajas:
- Privacidad: Tus datos permanecen en tu dispositivo, asegurando control total y seguridad.
- Ahorro de Costos: No necesitas pagar suscripciones de servicios en la nube.
- Personalización: Permite afinar modelos e integrarlos en tus propios flujos de trabajo.
- Acceso Sin Conexión: Puedes usar los modelos sin necesidad de estar conectado a internet.
Sin embargo, un entorno local requiere un equipo con especificaciones decentes (suficiente RAM, CPU y GPU) para un rendimiento óptimo.
Este proyecto está dividido en los siguientes pasos:
- Instalar Docker (y WSL para usuarios de Windows).
- Instalar Ollama.
- Instalar el modelo Llama 3.2: 1B.
- Ejecutar y configurar OpenWebUI.
- Probar e interactuar con tu configuración.
Docker es una plataforma de contenedores que permite ejecutar aplicaciones en entornos aislados. OpenWebUI utiliza Docker para simplificar su configuración.
Docker Desktop requiere Windows Subsystem for Linux (WSL). Sigue estos pasos:
-
Instalar WSL:
- Abre PowerShell como Administrador y ejecuta:
wsl --install
- Reinicia tu computadora si se te solicita.
- Confirma la instalación ejecutando:
wsl --list --online
- Abre PowerShell como Administrador y ejecuta:
-
Instalar Docker Desktop:
- Descarga Docker Desktop desde la página oficial e instálalo.
- Durante la instalación, asegúrate de seleccionar la opción "Enable WSL 2 integration".
- Una vez instalado, inicia Docker Desktop y verifica que esté funcionando.
-
Probar Docker:
- Abre un terminal (Command Prompt, PowerShell o tu distribución de WSL) y ejecuta:
docker --version
- Deberías ver la información de la versión de Docker.
- Abre un terminal (Command Prompt, PowerShell o tu distribución de WSL) y ejecuta:
- Visita la página de instalación de Docker y descarga la versión adecuada para tu sistema operativo.
- Instala Docker y sigue las instrucciones en pantalla.
- Prueba Docker ejecutando:
docker --version
Ollama sirve como backend para ejecutar modelos. Sigue estos pasos:
-
Abre tu terminal y usa Homebrew para instalar Ollama:
brew install ollama
-
Verifica la instalación:
ollama --version
-
Descarga el instalador de Windows desde la página oficial de Ollama.
-
Ejecuta el instalador y sigue las instrucciones.
-
Configura la siguiente variable de entorno para que Ollama escuche en todas las interfaces:
- Busca "Variables de entorno" en el menú de inicio.
- Agrega una nueva Variable de Usuario:
- Nombre de la Variable:
OLLAMA_HOST
- Valor de la Variable:
0.0.0.0:8080
- Nombre de la Variable:
- Guarda los cambios y reinicia tu computadora.
-
Verifica la instalación:
- Abre un terminal y ejecuta:
ollama --version
- Abre un terminal y ejecuta:
Llama 3.2 es uno de los modelos de lenguaje más avanzados, con mejoras significativas en eficiencia y capacidades multimodales (procesamiento de texto e imágenes). Sigue estos pasos para instalar la versión de 1 mil millón de parámetros:
-
Abre un terminal y asegúrate de que Ollama esté funcionando:
ollama serve
-
Descarga el modelo Llama 3.2: 1B ejecutando:
ollama pull llama3.2:1b
- Este comando descargará la versión ligera del modelo Llama 3.2 (1B parámetros) en tu sistema local.
- Dependiendo de la velocidad de tu conexión a internet, este proceso puede tardar unos minutos.
-
Verifica que el modelo se haya instalado correctamente:
ollama list
- Deberías ver
llama3.2:1b
en la lista de modelos disponibles.
- Deberías ver
-
Prueba el modelo ejecutándolo directamente en el terminal:
ollama run llama3.2:1b
- Ejemplo de prompt:
>>> ¿Cuál es la capital de Francia?
- Respuesta esperada:
La capital de Francia es París.
- Ejemplo de prompt:
OpenWebUI proporciona la interfaz gráfica para interactuar con los modelos. Utiliza Docker para simplificar su despliegue.
-
Abre un terminal y ejecuta el siguiente comando para iniciar OpenWebUI:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data --name open-webui --restart always \ ghcr.io/open-webui/open-webui:main
-
Confirma que el contenedor de Docker esté funcionando:
docker ps
Deberías ver
open-webui
en la lista. -
Abre tu navegador e ingresa a:
http://localhost:3000
-
Inicia sesión en OpenWebUI:
- Crea una cuenta o usa las credenciales predeterminadas.
-
Conecta el Modelo Llama 3.2: 1B:
- En el menú de Configuración de OpenWebUI, ve a Modelos.
- Selecciona
llama3.2:1b
y haz clic en Conectar.
-
Prueba el Modelo:
- Escribe un mensaje en la interfaz principal y comienza a interactuar con él.
Ejemplo de prompt:
Escribe una historia corta sobre un gato que se convierte en detective.
- Experimenta con Otras Funciones:
- Usa Markdown o LaTeX para formatear texto y ecuaciones matemáticas.
- Ajusta los parámetros del modelo para personalizar las respuestas.
¡Felicidades! 🎉 Has configurado con éxito Ollama y OpenWebUI en tu dispositivo local junto con el modelo Llama 3.2: 1B. Este entorno te permite explorar las capacidades de los modelos de lenguaje de manera privada, personalizable y sin depender de servicios en la nube. Úsalo para aprender, crear contenido o integrarlo en tus proyectos.
Si tienes dudas o quieres compartir tus experiencias, no dudes en hacerlo mientras exploras esta emocionante tecnología. ¡Felices experimentos!