Update Ollama authored by FEDERICO MUNOZ ROJAS's avatar FEDERICO MUNOZ ROJAS
...@@ -2,6 +2,7 @@ ...@@ -2,6 +2,7 @@
title: Ollama title: Ollama
--- ---
Se puede ejecutar Ollama en el cluster por medio de contenedores de _Singularity_. A continuación se muestra un ejemplo de _script_ de cola para ejecutar Ollama: Se puede ejecutar Ollama en el cluster por medio de contenedores de _Singularity_. A continuación se muestra un ejemplo de _script_ de cola para ejecutar Ollama:
``` ```
...@@ -27,9 +28,9 @@ singularity instance list ...@@ -27,9 +28,9 @@ singularity instance list
singularity exec instance://ollama.instance ollama serve& singularity exec instance://ollama.instance ollama serve&
#singularity exec instance://ollama.instance ollama pull llama3.3 #singularity exec instance://ollama.instance ollama pull llama3.3
singularity exec instance://ollama.instance \ singularity exec instance://ollama.instance \
curl http://localhost:11434/api/generate -d curl http://localhost:11434/api/generate -d '{
'{"model": "llama3.3", "model": "llama3.3",
"prompt":"por qué el cielo es azul?", "prompt":"Why is the sky blue?",
"stream": false}' "stream": false
}'
``` ```