OLLAMA IL TUO SERVER CHATGPT LOCALE

Ho provato ad installare OLLAMA per avere una AI locale su server Linux

Hai mai pensato a quanto potrebbe migliorare la tua produttività utilizzare un’intelligenza artificiale installata direttamente sul tuo server? In questo articolo, esploreremo insieme i numerosi vantaggi di un’AI locale, dai costi ridotti alla maggiore sicurezza dei dati. Avere un’AI che funziona direttamente sui tuoi dispositivi significa minori latenze e un accesso più rapido alle informazioni. Non solo, ma potrai anche personalizzare l’AI secondo le tue esigenze specifiche, rendendo la tua esperienza unica! Continua a leggere per scoprire come configurare e sfruttare al meglio questa tecnologia innovativa.

Se vuoi sperimentare e se ritieni la cosa interessante ecco i passaggi per avere la tua prima AI “indipendente”

Per prima cosa vi consiglio di utilizzare WSL di Windows che vi permette di installare da prompt un sottosistema operativo LINUX UBUNTU. E’ molto meglio che utilizzare una macchina virtuale (esempio VNWARE) in quanto con la VM poi non vi è la possibilità di utilizzare direttamente la GPU di sistema (ho provato in tutti i modi)e quindi la vostra AI funzionerebbe solo con CPU e sarebbe di fatto lentina

Vi riassumo i passaggi che dovrete fare

  • installazione distro Linux UBUNTU su WSL di windows
  • installazione OLLAMA
  • installazione modello AI
  • installazione DOCKER per GUI (facoltativo ma effetto spettacolare)

WINDOWS

Se installazione su WSL da prompt di Windows

wsl –install

installazione Ubuntu in WSL
wsl -d Ubuntu

Installazione di Ollama
https://ollama.com/download

LINUX UBUNTU

verifica se i driver NVIDIA sono installati (se vuoi GPU)

nvidia-smi

Installa Docker (opzionale, solo se userai GUI come OpenWebUI)

Non necessario per Ollama CLI, ma utile se vuoi la GUI:

sudo apt install docker.io -y
sudo systemctl enable –now docker
sudo usermod -aG docker $USER

Installa Ollama

Ollama fornisce un installer ufficiale per Linux. Esegui:

curl https://ollama.com/install.sh | bash

Questo installerà Ollama in /usr/local/bin/ollama

Verifica versione:

ollama version

Installazione modello AI

ollama pull llama2

Verifica modelli installati

ollama list

Riga comando per monitor utilizzo GPU

watch -n 0.5 nvidia-smi


se si vuole GUI in container:

Rimuovi completamente il container OpenWebUI se esistente in precedenza

docker stop open-webui
docker rm open-webui
docker rmi ghcr.io/open-webui/open-webui:main

(verifica che non resti nulla)

docker ps -a

Verifica che Ollama sia raggiungibile dalla VM

Da Ubuntu VM, deve rispondere:

curl http://127.0.0.1:11434/api/tags

Avvia OpenWebUI CORRETTAMENTE (configurazione consigliata)
Metodo più affidabile (host networking)

Questo evita tutti i problemi di binding / localhost / bridge.

docker run -d \
–name open-webui \
–restart unless-stopped \
–network=host \
-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
-v open-webui-data:/app/backend/data \
ghcr.io/open-webui/open-webui:main

Accesso alla GUI

Apri dal browser (PC o rete):

http://192.168.123.139:8080


verifica modelli Ollama disponibili sul web

https://ollama.com/search


AGGIORNAMENTI del docker

Scarica la versione aggiornata

docker pull ghcr.io/open-webui/open-webui:main

Ferma e rimuovi il container attuale

docker stop open-webui
docker rm open-webui

Ricrea il container (IDENTICO al precedente)

docker run -d \
–name open-webui \
–restart unless-stopped \
–network=host \
-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
-v open-webui-data:/app/backend/data \
ghcr.io/open-webui/open-webui:main

Verifica rapida

docker ps
docker logs open-webui –tail=20

 


a questo link tutti i dettagli (thanks all’autore)

https://www.itflashcards.com/blog/it/ollama-open-webui-eseguire-llm-localmente/

Tags:

Comments

Lascia un commento