techhub.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A hub primarily for passionate technologists, but everyone is welcome

Administered by:

Server stats:

4.6K
active users

#cuda

7 posts6 participants0 posts today

**ACE-Step** — фреймворк для генерации музыки на локальной машине
🎼 Треки до 4 хв за 20 сек
⚡️ В 15× швидше Suno AI
🎛️ Контроль жанру, тексту, ритму
🧠 Працює з 19 мовами
🎚️ Редагує існуючий аудіо
💻 A100 / 4090 / 3090 (мін. 16ГБ VRAM)
GitHub: [github.com/ace-step/ACE-Step](
\#MusicGen #AIaudio #OpenSource #LLM #GenAI #TextToMusic #LocalAI #RTX4090 #AItools #GeekStack #Python #cuda

**ACE-Step** — open-source фреймворк для генерации музыки “как у Suno”, только локально и без соплей.
⚙️ Жрёт текст, стиль, жанр, теги — выдаёт трек с нормальной мелодией, ритмом и даже гармонией.
🚀 До 4 минут звуку за ~20 секунд на A100. В 15 раз быстрее LLM-монстров.
🧩 Генерит, ремикширует, маскует, заменяет строки, делает вариации.
🧠 19 языков, включая русский.
🎧 От техно до оркестра — без лишних API-ключей и очередей.
🎮 Работает на A100 / 4090 / 3090, минимум 16 ГБ RAM, Python + CUDA.
👉 GitHub: github.com/ace-step/ACE-Step
#AIAudio #ACEstep #GenMusic #OpenSource #RTX4090 #CUDAcore #LLMsucks #SunoAlt #LocalStack #DevRig #GeekTools

ACE-Step — это не просто ещё один генератор музыки. Это *реальный прорыв в том, как ИИ превращается в инструмент*, а не в сервис по подписке. Почему это важно:
🚀 **1. Скорость, близкая к реальному времени**
4 минуты финализированного трека за ~20 секунд рендера — это уже не "ждать результат", а **генеративный live-loop**, как у музыканта в DAW.
Ни Suno, ни Udio, ни LLM-генераторы не дают такой latency. Здесь — практически instant feedback. Можно строить процесс продакшна как с сэмплером или synth engine.
🔧 **2. Полный контроль и редактируемость**
Возможность:
менять жанр и стиль без потери ритмики,
редактировать текст и фразы,
маскировать участки и встраивать новые — делает это **настоящим DAW-компаньоном**, а не просто "black-box генератором".
🧠 **3. Генеративная музыка стала **open-source**
Всё это — локально, open-source, без API ключей, лимитов и цензуры.
Это то, чего не было с MidJourney в графике и Suno/Udio в музыке: **независимый pipeline, разворачиваемый у себя**.
Ты можешь не просто использовать — ты можешь **встраивать, модифицировать, хакать**.
🎛️ **4. Это уже не игрушка — это production-ready**
19 языков, профессиональное звучание, управляемая структура и поддержка микса/мастеринга.
Подходит для:
синтезаторов с AI backend’ом,
генерации треков под видео, игры, фон, рекламу,
авто-написания демо, подкастов, фоновых саундтреков.
🧬 **5. Это новая веха: генеративный ИИ стал инструментом, а не платформой**
Переход от модели-сервиса к **модели-библиотеке**.
Это как сравнивать Google Translate и локальную модель для встраивания в продукт.
Это shift: **LLM-мозг** + **DAW-интеграция** + **музыкальная интерактивность** = новое поколение ПО для творчества.
ACE-Step — это та точка, после которой "ИИ делает музыку" уже не метафора, а **новый workflow**.
Без ограничений. Без посредников. Без лагов. У тебя на GPU.
Хэштеги:
**#GenerativeAI #AIinMusic #OpenSourceMusic #TextToAudio #AIProducer #RealtimeAudioAI #DAWnextgen #LLMsound #AceStep **#aitools

соус: bastyon.com/post?s=874313bd495

🌘 GitHub - tripplyons/cuda-fractal-renderer:在 CUDA 中快速渲染碎形圖
➤ 善用 GPU 平行運算,瞬息生成萬千碎形世界
github.com/tripplyons/cuda-fra
此 GitHub 專案 `tripplyons/cuda-fractal-renderer` 旨在利用 NVIDIA 的 CUDA 平臺,實現碎形圖的快速平行渲染。專案以 Python 和 CUDA C/C++ 為主要程式語言,透過 GPU 加速大幅提升運算效能。使用者可透過簡單的指令安裝依賴並執行程式,並藉由 `--seed` 參數調整碎形樣式或使用 `--grid-size` 參數一次渲染多個碎形,最終成果將輸出為 `output.png` 圖像。此專案具備清晰的設置指南與易於上手的操作流程,並採用 MIT 授權。
+ 「對於需要高效能碎形生成的研究者或視覺藝術家而言,這是一個極具價值的開源工具。易於安裝與操作,且成果令人驚艷。」
+ 「很
#開源專案 #碎形渲染 #GPU運算 #CUDA #Python

Quickly render fractals in CUDA. Contribute to tripplyons/cuda-fractal-renderer development by creating an account on GitHub.
GitHubGitHub - tripplyons/cuda-fractal-renderer: Quickly render fractals in CUDAQuickly render fractals in CUDA. Contribute to tripplyons/cuda-fractal-renderer development by creating an account on GitHub.

The Nvidia RTX A2000 6GB is not the best by far, it lacks VRAM. But computing wise and in term of fair use, with patience, @70W it is a really good deal. It is silent, small, and it works on older computers (no need to change the PSU). I think great for machine learning rather than generative AI, it supports #CUDA (it is for working e.g not gaming).

NB: non sponsored review

In a surprise move, NVIDIA is bringing CUDA to RISC-V CPUs 💥
Announced at RISC-V Summit China , this allows RISC-V processors to run CUDA drivers + logic, with NVIDIA GPUs handling compute tasks ⚙️
Enables open CPU + proprietary GPU AI systems—big for edge, HPC & China’s chipmakers 🇨🇳

A potential shift in global AI infrastructure 🌐

@itsfoss

news.itsfoss.com/nvidia-cuda-r

It's FOSS News · In a Surprise Move, NVIDIA Brings CUDA to RISC-V ProcessorsA surprise collaboration, I must say.

#NVIDIA Bringing #CUDA To #RISCV
NVIDIA's drivers and CUDA software stack are predominantly supported on x86_64 and AArch64 systems but in the past was supported on IBM POWER. This week at the RISC-V Summit China event, NVIDIA's Frans Sijstermans announced that CUDA will be coming to RISC-V.
#AMD for their part with the upstream #opensource #AMDKFD kernel compute driver can already build on RISC-V and the #ROCm user-space components can also be built on RISC-V.
phoronix.com/news/NVIDIA-CUDA-

www.phoronix.comNVIDIA Bringing CUDA To RISC-VNVIDIA announced this week that they are bringing their CUDA software to RISC-V processors.