Cyberkriminelle nutzen falsch konfiguriertes KI-Tool, um KI-generierte Payloads auszuführen
#Bedrohungserkennung #Cryptominer #Cybersecurity #Fehlkonfiguration#LLM #OpenWebUI #Schwachstelle @Sysdig #ThreatDetection
Cyberkriminelle nutzen falsch konfiguriertes KI-Tool, um KI-generierte Payloads auszuführen
#Bedrohungserkennung #Cryptominer #Cybersecurity #Fehlkonfiguration#LLM #OpenWebUI #Schwachstelle @Sysdig #ThreatDetection
Self-hosted #LLM's are so much fun, and I am very impressed how quickly FOSS ecosystem caught up with it.
I just installed #OpenWebUI [0] + #Ollama [1] (bundled) to my midsize VPS tonight in less than 30 mins and was able to run small (≤ 3b) models on *CPU* with good performance.
Unlocking the Power of Large Language Models: A Developer's Journey
Navigating the complexities of Large Language Models (LLMs) can be daunting, but with the right strategies and tools, developers can streamline their workflows. This article delves into key techniques...
https://news.lavx.hu/article/unlocking-the-power-of-large-language-models-a-developer-s-journey
Je viens de publier un playground de déploiement de #OpenWebUI connecté à la Generative API de #Scaleway
https://github.com/stephane-klein/open-webui-deployment-playground/
Ich habe einen Mac mini mit #OpenWebUI (über #Docker) in einem #LAN (Port 3000) mit #Fritzbox und will den per Portfreigabe aus dem Internet zugreifbar machen (über die externe IP der Fritzbox). Per HTTP geht das gut. Gibt es eine Anleitung, wie ich das konfigurieren muss, dass ich per HTTPS auf den Mac min zugreifen kann?
@Gina If I had to choose, I'd probably go with #Ollama (which has been mentioned several times already). It's licensed under the MIT license and the models are about as close to open source as you can get. When I play with LLMs, it's what I use. Locally run and with an API that could be used to integrate with other stuff. I also have #OpenWebUI to make things prettier. Both can run locally, though OpenWebUI can integrate with cloud LLMs too. Of course, tomorrow everything could change.
Deepseek Model R1 läuft lokal auf dem Mac Studio M3 Ultra
Das Large Language Modell R1 vom Chinesischen Startup Deepseek lässt sich ohne Probleme lokal auf einem vollausgebauten Mac Studio mit M3 Ultra installieren und betreiben. Aber nicht nur das: Es steht dann auch auf iPhone, iPads und Mac im gleichen Netzwerk zur
https://www.apfeltalk.de/magazin/news/deepseek-model-r1-laeuft-lokal-auf-dem-mac-studio-m3-ultra/
#KI #News #AI #GenerativeKI #KI #KnstlicheIntelligenz #Ollama #OpenWebUI
I set up #OpenWebUI on one of my more powerful servers, and it is fantastic. I'm running a couple smaller local Llama models, and hooked up my Anthropic and OpenRouter API keys to get access to Claude and a bunch of other models including Mistral, DeepSeek, and others. I also linked up my Kagi search API key to give web search capabilities to the models that don't have a web index. I will probably lower my Kagi Ultimate subscription to Professional since I no longer have a need for their Assistant.
Do you have access to a GPU card, or maybe even multiple ones?
Are you interested in running a state-of-the-art #LLM #chatbot locally, i.e. without paying #openai et al. and in a privacy-preserving fashion?
Then #OpenWebUI with the #deepseek model and #Firefox might be an interesting (and, I can attest, very well working) combination.
https://github.com/open-webui/open-webui
https://docs.openwebui.com/tutorials/integrations/firefox-sidebar/
@skykiss That's why you download the model and use it on your local system only. #deepseek #ollama #ollamacuda #docker #openwebui
I was sooo inspired by just HOW easy it was to set up a local LLM with a nice web UI on #nixos that I made a quick video.
Seriously, well done #ollama #nixos #openwebui
Unlocking the Power of Self-Hosting: A Developer's Journey with AI and Cloudflare
In a world driven by cloud solutions, one developer takes the plunge into self-hosting, leveraging powerful tools like ollama and Open WebUI to create a personalized AI experience. Discover the techni...
#TIL Aufsetzen einer eigenen Chatbot-Plattform auf Basis #OpenWebUI mit Anbindung an GPT-4o (über API) auf einem neu aufgesetzten Hetzner-Server inkl. Einrichtung #ollama und #nginx (für Reverse Proxy und SSL-Verschlüsselung) braucht nur knapp 45 Minuten
Reclaiming Digital Autonomy: The Vision Behind Open WebUI
In an era where our digital lives hinge on centralized platforms, the call for true decentralization has never been more urgent. Open WebUI aims to empower individuals and communities to thrive indepe...
https://news.lavx.hu/article/reclaiming-digital-autonomy-the-vision-behind-open-webui
Thanks to this video by NetworkChuck we are setting up our own #AI locally in studio using #Ollama and #openwebui to break free from similar cloud based services widely reported to use unreasonable amounts of energy and water resources. This will also empower us to choose more ethically-trained #opensource models over time.
https://m.youtube.com/watch?v=Wjrdr0NU4Sk
#LocalAI #OpenSourceAI #EthicalChoices
Bisher war meine Frau noch nicht so überzeugt von LLMs. Aber mit der Anwendung, mit allen Elternbriefen der Schule unserer Tochter im heimischen Intranet chatten zu können, habe ich ihr Interesse geweckt
Für Technikinteressierte: habe #Ollama und #OpenWebUI mit einem für deutsch feingetunten Llama 3.1 auf einem Macbook Air M1 laufen. Elternbriefe werden automatisch aus dem internen Bereich der Schule heruntergeladen und als Ordner mit PDFs als lokaler Informationsspeicher eingebunden (RAG).
How To Setup Ollama LLM AI Chabot With Open WebUI, An Open-source AI User Interface On An Ubuntu VPS https://youtu.be/hGgy2uaUvo4 #Websplaining #Ollama #OpenWebUI #DigitalOcean #AI #LLM #ML #ChatBot #AiChatBot #AiAssistant #OpenSource #AiModels #CharacterAI #CharacterAiModel #BaseModel #WebUI #UI #AiUserInterface #AiDashboard #VPS #Ubuntu #UbuntuLinux #VirtualPrivateServer #Cloud #CloudServer #Droplet #OllamaWithOpenWebUI #VirtualMachine #ArtificialIntelligence #MachineLearning #LargeLanguageModel
Ich durfte gestern beim "Heidelberger Informatiklehrkräftetag" (#HILT) Lehrer:innen der #Informatik zeigen, wie man sein eigenes #LLM GRATIS finetunen kann - in unserem Fall #Llama3 und #Phi3 - mit der #MacgAIver Pipeline.
Das Ziel ist dabei nicht (nur), Geld zu sparen, sondern mit einfachen Mitteln für mehr #KIMuendigkeit zu sorgen, indem Schüler:innen einen kleinen Blick unter die Motorhaube von Sprachmodellen werfen können.
Dabei helfen uns u.a. #ollama, #openwebui, #llamafactory und #llamacpp, aber auch Grundwissen aus den Geisteswissenschaften (bzw. den Fächern Deutsch, Englisch, Geschichte...), um zu einem tiefergehenden Verständnis von #genAI und seinen Umgang mit unserem "kulturellen Archiv" zu gelangen.
Es hat Spaß gemacht!
Für künftige MacgAIver-Ideen kann man dieser Gruppe folgen: @macgaiver
#fediLZ #lernenmitKI #KI #edubw #bildung #Heidelberg #education #ai #aieducation #genAI #Informatikunterricht #Medienkompetenz #InformatikEdu #AILiteracy
Wer im Sinn von #KIMündigkeit die Motorhaube zwei Millimeter öffnen möchte (lokal, ganz ohne Kosten, eigenen Server oder GPU):
1. #openwebui installieren: https://github.com/open-webui/open-webui
2. Ollama.ai Modell "phi3.5" laden
3. Sofort loschatten, Dokumente ins #RAG laden, im Web suchen...