Update Ollama authored by FEDERICO MUNOZ ROJAS's avatar FEDERICO MUNOZ ROJAS
......@@ -7,6 +7,7 @@ title: Ollama
Se puede ejecutar Ollama en el cluster por medio de contenedores de _Singularity_. A continuación se muestra un ejemplo de _script_ de cola para ejecutar Ollama:
```
......@@ -31,7 +32,7 @@ singularity instance start --nv $SIF_DIR/ollama.sif ollama.instance ollama serve
singularity exec instance://ollama.instance ollama serve&
curl http://localhost:11434/api/generate -d '{
"model": "llama3.3",
"model": "llama4",
"prompt":"Why is the sky blue?",
"stream": false
}'
......@@ -54,7 +55,7 @@ singularity instance start --nv $SIF_DIR/ollama.sif ollama.instance ollama serve
singularity exec instance://ollama.instance ollama serve&
curl http://localhost:11434/api/chat -d '{
"model": "llama3.3",
"model": "llama4",
"messages": [ { "role": "user",
"content": "why is the sky blue?" } ],
"stream": false
......
......