0 Pluspunkte 0 Minuspunkte

Wenn ich ollama starten will kommt ein Fehler

C:\Users\manuel>ollama run llama3
Error: Head "http://127.0.0.1:11434/": dial tcp 127.0.0.1:11434: connectex: Es konnte keine Verbindung hergestellt werden, da der Zielcomputer die Verbindung verweigerte.

Wenn ich es mit serve starte kommen lauter Debug Nachrichten

C:\Users\manuel>ollama serve
2024/08/04 08:51:45 routes.go:1033: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_LLM_LIBRARY: OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MAX_VRAM:0 OLLAMA_MODELS:C:\\Users\\manuel\\.ollama\\models OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://*] OLLAMA_RUNNERS_DIR:C:\\Users\\manuel\\AppData\\Local\\Programs\\Ollama\\ollama_runners OLLAMA_SCHED_SPREAD:false OLLAMA_TMPDIR: ROCR_VISIBLE_DEVICES:]"
time=2024-08-04T08:51:45.550+02:00 level=INFO source=images.go:751 msg="total blobs: 5"
time=2024-08-04T08:51:45.552+02:00 level=INFO source=images.go:758 msg="total unused blobs removed: 0"
time=2024-08-04T08:51:45.554+02:00 level=INFO source=routes.go:1080 msg="Listening on 127.0.0.1:11434 (version 0.2.1)"
time=2024-08-04T08:51:45.556+02:00 level=INFO source=payload.go:44 msg="Dynamic LLM libraries [cuda_v11.3 rocm_v5.7 cpu cpu_avx cpu_avx2]"
time=2024-08-04T08:51:45.556+02:00 level=INFO source=gpu.go:205 msg="looking for compatible GPUs"
time=2024-08-04T08:51:45.750+02:00 level=INFO source=types.go:103 msg="inference compute" id=GPU-b1cadaec-1997-fbcb-e3f2-cba1ba48b094 library=cuda compute=5.2 driver=12.3 name="NVIDIA GeForce GTX 960" total="2.0 GiB" available="1.6 GiB"

Wenn ich dann Strg-C drücke und wieder run eingebe steht wieder das Ollama nicht gestartet ist.

D:\Users\manuel>ollama run llama3
Error: Head "http://127.0.0.1:11434/": dial tcp 127.0.0.1:11434: connectex: Es konnte keine Verbindung hergestellt werden, da der Zielcomputer die Verbindung verweigerte.

Wie kann ich Ollama im Hintergrund starten?

von  

1 Antwort

0 Pluspunkte 0 Minuspunkte

So kannst du Ollama im Hintergrund starten.

start /B ollama serve >NUL 2>&1

von (716 Punkte)