Update Ollama authored by FEDERICO MUNOZ ROJAS's avatar FEDERICO MUNOZ ROJAS
......@@ -5,6 +5,7 @@ title: Ollama
Se puede ejecutar Ollama en el cluster por medio de contenedores de _Singularity_. A continuación se muestra un ejemplo de _script_ de cola para ejecutar Ollama:
```
......@@ -56,7 +57,8 @@ curl http://localhost:11434/api/chat -d '{
"model": "llama3.3",
"messages": [ { "role": "user",
"content": "why is the sky blue?" } ],
"stream": false }'
"stream": false
}'
```