Oliver Barreto
by Oliver Barreto

Categories

  • Blog

Tags

  • ChatGPT
  • Ollama
  • Python
  • JavaScript
  • AI

image-center

🦙❤️🐳 Ollama, el Docker de los Modelos LLM

Si quieres trabajar con LLMs en local sin conexión de Internet, o no pasar por OpenAI ChatGPT lo sabe y lo usa todo, esta es la mejor solución.

Instalar Modelos LLMs en local con Ollama Server

1.Descarga desde Ollama.ai para tener servidor en local

Ahora ya puedes ejecutar modelos como Llama 2, Code Llama, y otros. También permite modificar y crear modelos personalizados como harías con una imagen de Docker.

2.Para utilizar Ollama:

  • descargar modelos: ollama pull llama2. Existen muchos modelos en https://ollama.com/library
  • ejecutar modelos: ollama run lava y tendrás el modelo listo en una terminal
  • ver los modelos descargados: ollama list
  • eliminar un modelo descargado: ollama rm llama2
  • también puedes arrancar Ollama desde la terminal sin necesidad de la aplicación de escritorio con ollama serve
  • ejecutar una consulta desde el prompt ollama run llama2 "why is ths sky blue?"
  • ejecutar una consulta desde el prompt pasándole un archivo como argumento para el contexto ollama run llama2 "haz un resumen del siguiente archivo: $(cat README.md)"
  • ejecutar una consulta multimodal sobre una imagen en tu disco local ollama run llava "what is in this image? /users/me/images/myimage.jpg"
  • saber más: ollama --help

3.Para saber más, puedes leer su blog en https://ollama.ai/blogy el canal de Youtube de su PM & Evangelist en https://www.youtube.com/@technovangelist que van publicando lo último que van sacando, y mejoran muy rápido.

Utilizar un asistente personal local con VS Code en lugar de Github Copilot

1.Descargar Cody Plugin para VS Code:

  • hacer el login con una cuenta de Github por ejemplo y autorizar su uso.
  • Abrir Cody plugin settings / pick "⚙ Cody Extension Settings" with gear icon.

2.Hacer scroll hasta llegar abajo a y cambiar:

  • opción Cody > Autocomplete > Advanced: Provider y seleccionar experimental-ollama o unstable-ollama.
  • opción Cody > Autocomplete > Advanced: Model y dejar null para dejarlo por defecto.

3.Empezar a utilizar Cody como asistente ya dentro de VS Code pero esta vez en local, con tu LLM Open Source favorito por ejemplo codellama:7b-code.

Librerías para Python y JavaScript

Ya están disponibles las versiones iniciales de librerías para poder utilizar Ollama en lugar de las APIs de OpenAI ChatGPT.

pip install ollama
npm install ollama

Para saber como utilizarlas tienes el blog https://ollama.com/blog/python-javascript-libraries y video en su canal de Youtube.

Utilizar la API REST de Ollama

También puedes utilizar la API REST que funciona en la trastienda:

curl http://localhost:11434/api/generate -d '{
	"model": "llama2",
	"prompt": "Why is the sky blue"
}'


curl http://localhost:11434/api/chat -d '{
	"model": "llama2",
	"messages": [
		{ 
			"role": "user",
			"content": "Why is the sky blue" 
		}
	]
}'

Otros recursos interesantes