Skip to content

Latest commit

 

History

History
257 lines (170 loc) · 8.96 KB

README.es.md

File metadata and controls

257 lines (170 loc) · 8.96 KB
title date description tags
Guía Completa para Instalar Ollama y OpenWebUI Localmente
2024-11-26
Guía completa para instalar Ollama y OpenWebUI localmente en tu dispositivo.
ia-generativa
llm
ollama
openwebui

Guía Completa para Instalar Ollama y OpenWebUI Localmente

Bienvenido a esta guía paso a paso, donde aprenderás cómo configurar Ollama y OpenWebUI en tu dispositivo local. Ya seas un estudiante curioso, un entusiasta de la tecnología o alguien que quiere experimentar con modelos de lenguaje (LLMs), esta guía te ayudará a navegar por el proceso. Al final de este proyecto, tendrás un entorno completamente funcional para ejecutar modelos de inteligencia artificial localmente, lo que te dará control, privacidad y flexibilidad.


¿Qué es OpenWebUI?

OpenWebUI es una interfaz gráfica de código abierto diseñada para interactuar con modelos de lenguaje (LLMs). Ofrece una experiencia intuitiva basada en chats donde los usuarios pueden hacer preguntas, generar texto y hasta interactuar con los modelos utilizando voz o imágenes. Algunas características clave de OpenWebUI incluyen:

  • Resaltado de código.
  • Formateo con Markdown y LaTeX.
  • Gestión de parámetros del modelo.
  • Integración de información externa mediante Recuperación Aumentada de Generación (RAG).

Este sistema está diseñado para ser fácil de usar y es accesible tanto en computadoras como en dispositivos móviles.


¿Qué es Ollama?

Ollama es una herramienta ligera y de código abierto que actúa como backend para gestionar y ejecutar modelos de lenguaje localmente en tu dispositivo. Escrito en Go, Ollama permite desplegar e interactuar con modelos como Llama2, Mistral, y otros. Funciona en segundo plano como el motor que impulsa interfaces como OpenWebUI u otras herramientas similares.

Beneficios clave de Ollama:

  1. Ejecución local de modelos, lo que garantiza privacidad.
  2. No depende de servicios en la nube, reduciendo costos.
  3. Compatibilidad con GPUs potentes para un procesamiento más rápido.

¿Qué es un Modelo?

Un modelo es el "cerebro" de un sistema de IA. En este contexto, se refiere a un modelo de aprendizaje automático preentrenado, como Llama2 o Llama 3.2, que genera texto similar al humano basado en las indicaciones que recibe. Estos modelos varían en complejidad:

  • Modelos más pequeños (por ejemplo, 1 mil millones de parámetros): Requieren menos memoria y son más rápidos, pero su comprensión puede ser limitada.
  • Modelos más grandes (por ejemplo, 70 mil millones de parámetros): Ofrecen respuestas más precisas y matizadas, pero necesitan más recursos computacionales.

¿Por Qué Ejecutar Modelos Localmente en Lugar de Usar la Nube?

Ejecutar modelos localmente tiene varias ventajas:

  • Privacidad: Tus datos permanecen en tu dispositivo, asegurando control total y seguridad.
  • Ahorro de Costos: No necesitas pagar suscripciones de servicios en la nube.
  • Personalización: Permite afinar modelos e integrarlos en tus propios flujos de trabajo.
  • Acceso Sin Conexión: Puedes usar los modelos sin necesidad de estar conectado a internet.

Sin embargo, un entorno local requiere un equipo con especificaciones decentes (suficiente RAM, CPU y GPU) para un rendimiento óptimo.


Visión General del Proyecto: Instalar Ollama y OpenWebUI Localmente

Este proyecto está dividido en los siguientes pasos:

  1. Instalar Docker (y WSL para usuarios de Windows).
  2. Instalar Ollama.
  3. Instalar el modelo Llama 3.2: 1B.
  4. Ejecutar y configurar OpenWebUI.
  5. Probar e interactuar con tu configuración.

Paso 1: Instalar Docker

Docker es una plataforma de contenedores que permite ejecutar aplicaciones en entornos aislados. OpenWebUI utiliza Docker para simplificar su configuración.

Para Usuarios de Windows

Docker Desktop requiere Windows Subsystem for Linux (WSL). Sigue estos pasos:

  • Instalar WSL:

    • Abre PowerShell como Administrador y ejecuta:
      wsl --install
    • Reinicia tu computadora si se te solicita.
    • Confirma la instalación ejecutando:
      wsl --list --online
  • Instalar Docker Desktop:

    • Descarga Docker Desktop desde la página oficial e instálalo.
    • Durante la instalación, asegúrate de seleccionar la opción "Enable WSL 2 integration".
    • Una vez instalado, inicia Docker Desktop y verifica que esté funcionando.
  • Probar Docker:

    • Abre un terminal (Command Prompt, PowerShell o tu distribución de WSL) y ejecuta:
      docker --version
    • Deberías ver la información de la versión de Docker.

Para Usuarios de macOS y Linux

  • Visita la página de instalación de Docker y descarga la versión adecuada para tu sistema operativo.
  • Instala Docker y sigue las instrucciones en pantalla.
  • Prueba Docker ejecutando:
    docker --version

Paso 2: Instalar Ollama

Ollama sirve como backend para ejecutar modelos. Sigue estos pasos:

Para Usuarios de macOS

  • Abre tu terminal y usa Homebrew para instalar Ollama:

    brew install ollama
  • Verifica la instalación:

    ollama --version

Para Usuarios de Windows

  • Descarga el instalador de Windows desde la página oficial de Ollama.

  • Ejecuta el instalador y sigue las instrucciones.

  • Configura la siguiente variable de entorno para que Ollama escuche en todas las interfaces:

    • Busca "Variables de entorno" en el menú de inicio.
    • Agrega una nueva Variable de Usuario:
      • Nombre de la Variable: OLLAMA_HOST
      • Valor de la Variable: 0.0.0.0:8080
    • Guarda los cambios y reinicia tu computadora.
  • Verifica la instalación:

    • Abre un terminal y ejecuta:
      ollama --version

Paso 3: Instalar el Modelo Llama 3.2: 1B

Llama 3.2 es uno de los modelos de lenguaje más avanzados, con mejoras significativas en eficiencia y capacidades multimodales (procesamiento de texto e imágenes). Sigue estos pasos para instalar la versión de 1 mil millón de parámetros:

  • Abre un terminal y asegúrate de que Ollama esté funcionando:

    ollama serve
  • Descarga el modelo Llama 3.2: 1B ejecutando:

    ollama pull llama3.2:1b
    • Este comando descargará la versión ligera del modelo Llama 3.2 (1B parámetros) en tu sistema local.
    • Dependiendo de la velocidad de tu conexión a internet, este proceso puede tardar unos minutos.
  • Verifica que el modelo se haya instalado correctamente:

    ollama list
    • Deberías ver llama3.2:1b en la lista de modelos disponibles.
  • Prueba el modelo ejecutándolo directamente en el terminal:

    ollama run llama3.2:1b
    • Ejemplo de prompt:
      >>> ¿Cuál es la capital de Francia?
    • Respuesta esperada:
      La capital de Francia es París.

Paso 4: Ejecutar OpenWebUI

OpenWebUI proporciona la interfaz gráfica para interactuar con los modelos. Utiliza Docker para simplificar su despliegue.

  • Abre un terminal y ejecuta el siguiente comando para iniciar OpenWebUI:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
    -v open-webui:/app/backend/data --name open-webui --restart always \
    ghcr.io/open-webui/open-webui:main
  • Confirma que el contenedor de Docker esté funcionando:

    docker ps

    Deberías ver open-webui en la lista.

  • Abre tu navegador e ingresa a:

    http://localhost:3000

Paso 5: Probar e Interactuar con la Configuración

  • Inicia sesión en OpenWebUI:

    • Crea una cuenta o usa las credenciales predeterminadas.
  • Conecta el Modelo Llama 3.2: 1B:

    • En el menú de Configuración de OpenWebUI, ve a Modelos.
    • Selecciona llama3.2:1b y haz clic en Conectar.
  • Prueba el Modelo:

    • Escribe un mensaje en la interfaz principal y comienza a interactuar con él.

    Ejemplo de prompt:

    Escribe una historia corta sobre un gato que se convierte en detective.
  1. Experimenta con Otras Funciones:
    • Usa Markdown o LaTeX para formatear texto y ecuaciones matemáticas.
    • Ajusta los parámetros del modelo para personalizar las respuestas.

Conclusión

¡Felicidades! 🎉 Has configurado con éxito Ollama y OpenWebUI en tu dispositivo local junto con el modelo Llama 3.2: 1B. Este entorno te permite explorar las capacidades de los modelos de lenguaje de manera privada, personalizable y sin depender de servicios en la nube. Úsalo para aprender, crear contenido o integrarlo en tus proyectos.

Si tienes dudas o quieres compartir tus experiencias, no dudes en hacerlo mientras exploras esta emocionante tecnología. ¡Felices experimentos!