techhub.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A hub primarily for passionate technologists, but everyone is welcome

Administered by:

Server stats:

4.6K
active users

#ollama

29 posts27 participants4 posts today

🌖 Ollama 推出 Turbo 功能,加速模型運行效能
➤ 體驗前所未有的模型運行速度與彈性
ollama.com/turbo
Ollama 公司推出名為「Turbo」的新功能,旨在利用資料中心等級的硬體,大幅提升 AI 模型的推論速度與運行大型模型的可能性。Turbo 功能讓使用者透過 Ollama 的應用程式、命令列介面(CLI)及 API 進行模型運行,同時能將運算負載從個人裝置轉移,節省電池電力並釋放個人電腦的效能。Ollama 強調 Turbo 功能注重使用者隱私,不會保留使用者資料,並提供 hourly 和 daily 的使用上限以確保服務穩定性。
+ 終於有辦法在我的舊筆電上跑比較大的模型了!希望價格親民一些。
+ 看到 Ollama 在隱私上的堅持很不錯,期待 Turbo 功能正式推出後能帶來更流暢的體驗。
#AI 模型 #雲端運算 #Ollama

ollama.comOllamaGet up and running with large language models.

Wir haben spaßeshalber mal ein lokales Large Language Model (LLM) über einen Retrieval Augmented Generation (RAG) -Ansatz mit Veranstaltungen des EventHub gefüttert.

Rausgekommen, ist ein Chatbot, den man über den Browser nach Veranstaltungen fragen kann.

Eine Oberfläche wäre leicht zu machen.

Ich denke jedoch nicht, dass das wirklich jemand braucht. Oder doch?

Der Sourcecode ist hier:
codeberg.org/EventHub/applicat

#ki#ai#chat

So I'm playing with some technologies while I look for my next work adventure, and I now have a #AI Code Review action that uses #ollama and is set up to review PRs to its own repository.

The comments aren't great, but it's showing promise. Some of the concerns are slop, others are things that I'd expect from a junior dev unfamiliar with the code.

The performance, however, is pretty good, given I'm using Ollama on an #AppleSilicon m4 Mac mini.

Here's an example;
github.com/alsutton/ollama-pr-

GitHubUse the main tip for self-reviews by alsutton · Pull Request #2 · alsutton/ollama-pr-review-actionBy alsutton

Verständnisfrage: Ich habe #paperless_ngx auf meiner #Synology NAS installiert.
Ich habe #Ollama und #AnythingLLM auf meinem Desktop-Rechner installiert (aus Leistungsgründen, weil die Synology halt nicht so viel Leistung hat wie ein Desktop-Rechner).
Nun möchte ich #paperless_ai installieren. Wie kann ich das auf dem Desktop tun und mit dem bestehenden Ollama verbinden, damit ich nicht Gefahr laufe, nochmals Ollama auf der Synology NAS zu installieren?

Continued thread

Richtig enttäuschend war der Einstieg in Handschrift-#OCR mit #tesseract. Deutlich besser war #llama-vision mit #ollama auf dem Alpaca-Flatpak. Das Setup hat es allerdings nicht geschafft, meine CPU im Notebook richtig zu nutzen und war entsprechend langsam. Ein #LLM mit Bildverarbeitung scheint mir auch Overkill zu sein.

I invented `.awesome-ai.md` - the new standard for AI tool discovery!

Like `.gitignore` for Git, but for AI tools on GitHub . My system automatically scans the entire GitHub and discovers new AI projects.

Website: awesome-ai.io/submit-info
Repository: github.com/teodorgross/awesome

Awesome AIHow to Submit Your AI Tool | Awesome AILearn how to submit your AI tool to our curated collection with a simple .awesome-ai.md file.

Oh, and I should add that it also supports pointing the tool at any URL that implements an OpenAI (or Anthropic) compatible API, including your local servers. This means that you can use it with Ollama and any model that you expose through it.

#ai#rust#ollama