Update Ollama authored by FEDERICO MUNOZ ROJAS's avatar FEDERICO MUNOZ ROJAS
......@@ -2,6 +2,7 @@
title: Ollama
---
Se puede ejecutar Ollama en el cluster por medio de contenedores de _Singularity_. A continuación se muestra un ejemplo de _script_ de cola para ejecutar Ollama:
```
......@@ -27,9 +28,9 @@ singularity instance list
singularity exec instance://ollama.instance ollama serve&
#singularity exec instance://ollama.instance ollama pull llama3.3
singularity exec instance://ollama.instance \
curl http://localhost:11434/api/generate -d
'{"model": "llama3.3",
"prompt":"por qué el cielo es azul?",
"stream": false}'
curl http://localhost:11434/api/generate -d '{
"model": "llama3.3",
"prompt":"Why is the sky blue?",
"stream": false
}'
```