Cómo probar Granite 3 de manera local con Ollama y Python

Granite 3OllamaPythonLangChain
Publicado el 12/7/2024
Fecha de ultima actualización: 12/7/2024

Contar con modelos avanzados de inteligencia artificial que puedan ejecutarse de manera local es una gran ventaja para desarrolladores. Granite 3 es uno de esos modelos, optimizado para tareas de lenguaje natural y diseñado para ejecutarse localmente con herramientas como Ollama. En este artículo, explico paso a paso cómo puedes configurar y probar Granite 3 utilizando Python.

¿Qué es Granite 3?

IBM Granite 3 es la tercera generación de modelos de lenguaje natural desarrollados por IBM. Estos modelos están diseñados para ser flexibles y pueden ejecutarse tanto localmente como en la nube. Granite 3 ofrece capacidades avanzadas para tareas de procesamiento de texto, como generación de contenido, análisis de texto, clasificación y más.

Granite 3 se destaca por su rendimiento y seguridad, siendo ideal para aplicaciones empresariales. Los modelos están optimizados para escalar y pueden integrarse fácilmente en aplicaciones a través de plataformas como Ollama para uso local, o watsonx.ai para implementaciones en la nube.

Si quieres conocer más detalles técnicos sobre Granite y su ecosistema, puedes visitar la documentación oficial de Granite.

Pasos para probar Granite 3

1. Instalar Ollama

Ollama es necesario para descargar y ejecutar Granite 3. Para instalarlo, ejecuta el siguiente comando en tu terminal:

cmd
curl -fsSL https://ollama.com/install.sh | sh

2. Ejecutar el modelo Granite 3

Una vez instalado Ollama, ejecuta el modelo Granite 3 con el siguiente comando:

cmd
ollama run granite3-dense:8b

Esto iniciará el modelo en segundo plano y estará listo para recibir solicitudes.

3. Crear un proyecto Python

Crea un directorio para tu proyecto e inicializa un entorno virtual:

cmd
mkdir app
cd app
python -m venv venv

4. Verificar modelos en ejecución

Para confirmar que Granite 3 está corriendo, utiliza el siguiente comando:

cmd
ollama ps

Esto mostrará todos los modelos actualmente activos en tu máquina.

5. Activar el entorno virtual

Activa el entorno virtual para instalar dependencias de manera aislada:

cmd
source venv/bin/activate

6. Instalar la librería langchain-ollama

Instala la biblioteca que te permitirá interactuar con Granite 3 desde Python:

cmd
pip install langchain-ollama

7. Ejecutar un script de prueba

Crea un archivo Python, por ejemplo main.py, y copia el siguiente código:

main.py
from langchain_core.prompts import ChatPromptTemplate
from langchain_ollama.llms import OllamaLLM
# Inicializa el modelo Granite 3
model = OllamaLLM(model="granite3-dense:8b")
# Define un prompt para interactuar con el modelo
template = """Question: {question}
Answer: Let's think step by step."""
prompt = ChatPromptTemplate.from_template(template)
# Combina el prompt con el modelo
chain = prompt | model
# Realiza una consulta
response = chain.invoke({"question": "¿En qué año se fundó IBM?"})
print(response)

Ejecuta el script con:

Terminal window
python main.py

Esto enviará una consulta al modelo y te devolverá la respuesta generada por Granite 3.

Conclusión

Probar Granite 3 localmente con Ollama y Python es un proceso sencillo que ofrece una experiencia fluida para desarrollar aplicaciones basadas en inteligencia artificial. Sigue estos pasos y podrás aprovechar al máximo las capacidades de este modelo de lenguaje avanzado.