🦙❤️🐳 Ollama, el Docker de los Modelos LLM
Si quieres trabajar con LLMs en local sin conexión de Internet, o no pasar por OpenAI ChatGPT lo sabe y lo usa todo, esta es la mejor solución.
Instalar Modelos LLMs en local con Ollama Server
1.Descarga desde Ollama.ai para tener servidor en local
Ahora ya puedes ejecutar modelos como Llama 2
, Code Llama
, y otros. También permite modificar y crear modelos personalizados como harías con una imagen de Docker.
2.Para utilizar Ollama:
- descargar modelos:
ollama pull llama2
. Existen muchos modelos en https://ollama.com/library - ejecutar modelos:
ollama run lava
y tendrás el modelo listo en una terminal - ver los modelos descargados:
ollama list
- eliminar un modelo descargado:
ollama rm llama2
- también puedes arrancar Ollama desde la terminal sin necesidad de la aplicación de escritorio con
ollama serve
- ejecutar una consulta desde el prompt
ollama run llama2 "why is ths sky blue?"
- ejecutar una consulta desde el prompt pasándole un archivo como argumento para el contexto
ollama run llama2 "haz un resumen del siguiente archivo: $(cat README.md)"
- ejecutar una consulta multimodal sobre una imagen en tu disco local
ollama run llava "what is in this image? /users/me/images/myimage.jpg"
- saber más:
ollama --help
3.Para saber más, puedes leer su blog en https://ollama.ai/blogy el canal de Youtube de su PM & Evangelist en https://www.youtube.com/@technovangelist que van publicando lo último que van sacando, y mejoran muy rápido.
Utilizar un asistente personal local con VS Code
en lugar de Github Copilot
1.Descargar Cody Plugin
para VS Code
:
- hacer el login con una cuenta de Github por ejemplo y autorizar su uso.
- Abrir
Cody plugin settings / pick "⚙ Cody Extension Settings" with gear icon
.
2.Hacer scroll hasta llegar abajo a y cambiar:
- opción
Cody > Autocomplete > Advanced: Provider
y seleccionarexperimental-ollama
ounstable-ollama
. - opción
Cody > Autocomplete > Advanced: Model
y dejarnull
para dejarlo por defecto.
3.Empezar a utilizar Cody como asistente ya dentro de VS Code
pero esta vez en local, con tu LLM Open Source favorito por ejemplo codellama:7b-code
.
Librerías para Python y JavaScript
Ya están disponibles las versiones iniciales de librerías para poder utilizar Ollama
en lugar de las APIs de OpenAI ChatGPT
.
pip install ollama
npm install ollama
Para saber como utilizarlas tienes el blog https://ollama.com/blog/python-javascript-libraries y video en su canal de Youtube.
Utilizar la API REST de Ollama
También puedes utilizar la API REST que funciona en la trastienda:
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "Why is the sky blue"
}'
curl http://localhost:11434/api/chat -d '{
"model": "llama2",
"messages": [
{
"role": "user",
"content": "Why is the sky blue"
}
]
}'