{"id":6209,"date":"2025-02-21T23:22:34","date_gmt":"2025-02-21T22:22:34","guid":{"rendered":"https:\/\/roccadomenico.it\/wordpress\/?p=6209"},"modified":"2026-03-05T22:16:39","modified_gmt":"2026-03-05T21:16:39","slug":"ollama-il-tuo-server-chatgpt-locale","status":"publish","type":"post","link":"https:\/\/roccadomenico.it\/wordpress\/ollama-il-tuo-server-chatgpt-locale\/","title":{"rendered":"OLLAMA IL TUO SERVER CHATGPT LOCALE"},"content":{"rendered":"\t\t<div data-elementor-type=\"wp-post\" data-elementor-id=\"6209\" class=\"elementor elementor-6209\">\n\t\t\t\t<div class=\"elementor-element elementor-element-75b2455 e-flex e-con-boxed e-con e-parent\" data-id=\"75b2455\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-161d656 elementor-widget elementor-widget-heading\" data-id=\"161d656\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Ho provato ad installare OLLAMA per avere una AI locale su server Linux<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-137748c e-grid e-con-full e-con e-child\" data-id=\"137748c\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t<div class=\"elementor-element elementor-element-5HGyVkj elementor-widget-mobile__width-initial elementor-widget elementor-widget-image\" data-id=\"5HGyVkj\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" data-attachment-id=\"6211\" data-permalink=\"https:\/\/roccadomenico.it\/wordpress\/ollama-il-tuo-server-chatgpt-locale\/ollama\/\" data-orig-file=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" data-orig-size=\"225,220\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;domenico rocca&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;1739799624&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"ollama\" data-image-description=\"\" data-image-caption=\"\" data-medium-file=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" data-large-file=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" width=\"225\" height=\"220\" src=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" class=\"attachment-large size-large wp-image-6211\" alt=\"\" data-attachment-id=\"6211\" data-permalink=\"https:\/\/roccadomenico.it\/wordpress\/ollama-il-tuo-server-chatgpt-locale\/ollama\/\" data-orig-file=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" data-orig-size=\"225,220\" data-comments-opened=\"1\" data-image-meta=\"{&quot;aperture&quot;:&quot;0&quot;,&quot;credit&quot;:&quot;domenico rocca&quot;,&quot;camera&quot;:&quot;&quot;,&quot;caption&quot;:&quot;&quot;,&quot;created_timestamp&quot;:&quot;1739799624&quot;,&quot;copyright&quot;:&quot;&quot;,&quot;focal_length&quot;:&quot;0&quot;,&quot;iso&quot;:&quot;0&quot;,&quot;shutter_speed&quot;:&quot;0&quot;,&quot;title&quot;:&quot;&quot;,&quot;orientation&quot;:&quot;0&quot;}\" data-image-title=\"ollama\" data-image-description=\"\" data-image-caption=\"\" data-medium-file=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" data-large-file=\"https:\/\/i0.wp.com\/roccadomenico.it\/wordpress\/wp-content\/uploads\/2025\/02\/ollama.jpg?fit=225%2C220&amp;ssl=1\" \/>\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-E6rmijy elementor-widget elementor-widget-text-editor\" data-id=\"E6rmijy\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Hai mai pensato a quanto potrebbe migliorare la tua produttivit\u00e0 utilizzare un&#8217;intelligenza artificiale installata direttamente sul tuo server? In questo articolo, esploreremo insieme i numerosi vantaggi di un&#8217;AI locale, dai costi ridotti alla maggiore sicurezza dei dati. Avere un&#8217;AI che funziona direttamente sui tuoi dispositivi significa minori latenze e un accesso pi\u00f9 rapido alle informazioni. Non solo, ma potrai anche personalizzare l&#8217;AI secondo le tue esigenze specifiche, rendendo la tua esperienza unica! Continua a leggere per scoprire come configurare e sfruttare al meglio questa tecnologia innovativa.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-320c8bf e-flex e-con-boxed e-con e-parent\" data-id=\"320c8bf\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-55e1b9f elementor-widget elementor-widget-heading\" data-id=\"55e1b9f\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Se vuoi sperimentare e se ritieni la cosa interessante ecco i passaggi per avere la tua prima AI \"indipendente\"<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-5a28033 e-flex e-con-boxed e-con e-parent\" data-id=\"5a28033\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-bd7ce0b elementor-widget elementor-widget-text-editor\" data-id=\"bd7ce0b\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Per prima cosa vi consiglio di utilizzare WSL di Windows che vi permette di installare da prompt un sottosistema operativo LINUX UBUNTU. E&#8217; molto meglio che utilizzare una macchina virtuale (esempio VNWARE) in quanto con la VM poi non vi \u00e8 la possibilit\u00e0 di utilizzare direttamente la GPU di sistema (ho provato in tutti i modi)e quindi la vostra AI funzionerebbe solo con CPU e sarebbe di fatto lentina<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-6b042b1 e-flex e-con-boxed e-con e-parent\" data-id=\"6b042b1\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-16e1f58 elementor-widget elementor-widget-text-editor\" data-id=\"16e1f58\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Vi riassumo i passaggi che dovrete fare<\/p><ul><li>installazione distro Linux UBUNTU su WSL di windows<\/li><li>installazione OLLAMA<\/li><li>installazione modello AI<\/li><li>installazione DOCKER per GUI (facoltativo ma effetto spettacolare)<\/li><\/ul>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-1242d85 e-flex e-con-boxed e-con e-parent\" data-id=\"1242d85\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-d626137 elementor-widget elementor-widget-text-editor\" data-id=\"d626137\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>WINDOWS<\/p><p><strong>Se installazione su WSL da prompt di Windows<\/strong><\/p><p>wsl &#8211;install<\/p><p><strong>installazione Ubuntu in WSL<\/strong><br \/>wsl -d Ubuntu<\/p><p><strong>Installazione di Ollama<\/strong><br \/>https:\/\/ollama.com\/download<\/p><p>LINUX UBUNTU<\/p><p>verifica se i driver NVIDIA sono installati (se vuoi GPU)<\/p><p><strong>nvidia-smi<\/strong><\/p><p>Installa Docker (opzionale, solo se userai GUI come OpenWebUI)<\/p><p>Non necessario per Ollama CLI, ma utile se vuoi la GUI:<\/p><p><strong>sudo apt install docker.io -y<\/strong><br \/><strong>sudo systemctl enable &#8211;now docker<\/strong><br \/><strong>sudo usermod -aG docker $USER<\/strong><\/p><p>Installa Ollama<\/p><p>Ollama fornisce un installer ufficiale per Linux. Esegui:<\/p><p><strong>curl https:\/\/ollama.com\/install.sh | bash<\/strong><\/p><p>Questo installer\u00e0 Ollama in \/usr\/local\/bin\/ollama<\/p><p>Verifica versione:<\/p><p><strong>ollama version<\/strong><\/p><p>Installazione modello AI<\/p><p><strong>ollama pull llama2<\/strong><\/p><p>Verifica modelli installati<\/p><p><strong>ollama list<\/strong><\/p><p>Riga comando per monitor utilizzo GPU<\/p><p><strong>watch -n 0.5 nvidia-smi<\/strong><\/p><p>Aggiornamento versione Ollama<\/p><p><strong>curl -fsSL https:\/\/ollama.com\/install.sh | sh<\/strong><\/p><p>Verifica versione<\/p><p><strong>ollama -v<\/strong><\/p><p>Se non vuoi il processo di &#8220;think mode&#8221;<\/p><p><strong>&gt;&gt;&gt; \/set nothink<\/strong><\/p><hr \/><p>se si vuole GUI in container:<\/p><p>Rimuovi completamente il container OpenWebUI se esistente in precedenza<\/p><p><strong>docker stop open-webui<\/strong><br \/><strong>docker rm open-webui<\/strong><br \/><strong>docker rmi ghcr.io\/open-webui\/open-webui:main<\/strong><\/p><p>(verifica che non resti nulla)<\/p><p><strong>docker ps -a<\/strong><\/p><p>Verifica che Ollama sia raggiungibile dalla VM<\/p><p>Da Ubuntu VM, deve rispondere:<\/p><p><strong>curl http:\/\/127.0.0.1:11434\/api\/tags<\/strong><\/p><p>Avvia OpenWebUI CORRETTAMENTE (configurazione consigliata)<br \/>Metodo pi\u00f9 affidabile (host networking)<\/p><p>Questo evita tutti i problemi di binding \/ localhost \/ bridge.<\/p><p><strong>docker run -d \\<\/strong><br \/><strong>&#8211;name open-webui \\<\/strong><br \/><strong>&#8211;restart unless-stopped \\<\/strong><br \/><strong>&#8211;network=host \\<\/strong><br \/><strong>-e OLLAMA_BASE_URL=http:\/\/127.0.0.1:11434 \\<\/strong><br \/><strong>-v open-webui-data:\/app\/backend\/data \\<\/strong><br \/><strong>ghcr.io\/open-webui\/open-webui:main<\/strong><\/p><p>Accesso alla GUI<\/p><p>Apri dal browser (PC o rete):<\/p><p><strong>http:\/\/192.168.123.139:8080<\/strong><\/p><p>\u00a0<\/p><hr \/><p>verifica modelli Ollama disponibili sul web<\/p><p><a href=\"https:\/\/ollama.com\/search\">https:\/\/ollama.com\/search<\/a><\/p><hr \/><p>AGGIORNAMENTI del docker<\/p><p>Scarica la versione aggiornata<\/p><p><strong>docker pull ghcr.io\/open-webui\/open-webui:main<\/strong><\/p><p>Ferma e rimuovi il container attuale<\/p><p><strong>docker stop open-webui<\/strong><br \/><strong>docker rm open-webui<\/strong><\/p><p>Ricrea il container (IDENTICO al precedente)<\/p><p><strong>docker run -d \\<\/strong><br \/><strong>&#8211;name open-webui \\<\/strong><br \/><strong>&#8211;restart unless-stopped \\<\/strong><br \/><strong>&#8211;network=host \\<\/strong><br \/><strong>-e OLLAMA_BASE_URL=http:\/\/127.0.0.1:11434 \\<\/strong><br \/><strong>-v open-webui-data:\/app\/backend\/data \\<\/strong><br \/><strong>ghcr.io\/open-webui\/open-webui:main<\/strong><\/p><p>Verifica rapida<\/p><p><strong>docker ps<\/strong><br \/><strong>docker logs open-webui &#8211;tail=20<\/strong><\/p><hr \/>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t<div class=\"elementor-element elementor-element-189487b e-flex e-con-boxed e-con e-parent\" data-id=\"189487b\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-c9683ac elementor-widget elementor-widget-text-editor\" data-id=\"c9683ac\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>a questo link tutti i dettagli (thanks all&#8217;autore)<\/p><p><a href=\"https:\/\/www.itflashcards.com\/blog\/it\/ollama-open-webui-eseguire-llm-localmente\/\">https:\/\/www.itflashcards.com\/blog\/it\/ollama-open-webui-eseguire-llm-localmente\/<\/a><\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t","protected":false},"excerpt":{"rendered":"<p>Ho provato ad installare OLLAMA per avere una AI locale su server Linux Hai mai pensato a quanto potrebbe migliorare la tua produttivit\u00e0 utilizzare un&#8217;intelligenza artificiale installata direttamente sul tuo server? In questo articolo, esploreremo insieme i numerosi vantaggi di un&#8217;AI locale, dai costi ridotti alla maggiore sicurezza dei dati. Avere un&#8217;AI che funziona direttamente [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[30],"tags":[],"class_list":["post-6209","post","type-post","status-publish","format-standard","hentry","category-informatica"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/posts\/6209","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/comments?post=6209"}],"version-history":[{"count":34,"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/posts\/6209\/revisions"}],"predecessor-version":[{"id":6611,"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/posts\/6209\/revisions\/6611"}],"wp:attachment":[{"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/media?parent=6209"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/categories?post=6209"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/roccadomenico.it\/wordpress\/wp-json\/wp\/v2\/tags?post=6209"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}