-
Hugging Face detalha o boom de MoE (Mixture of Experts) e por que isso acelera LLMs sem explodir custo
Novidade que importa: a Hugging Face publicou um guia bem pé-no-chão sobre Mixture of Experts (MoE) em Transformers — a arquitetura “esparsa” que está virando…
-
MoE em Transformers: como modelos “sparsos” entregam mais qualidade com menos custo
Se você acompanha a evolução dos LLMs, já percebeu o padrão: modelos densos ficam cada vez maiores e mais caros de treinar e servir. A…
-
GGML e llama.cpp entram para a Hugging Face: o que isso muda para quem roda IA local
Uma das maiores peças do ecossistema de IA rodando no seu próprio computador é o llama.cpp (baseado em GGML). Nesta semana, a Hugging Face anunciou…
-
Como rodar um VLM open-source no NVIDIA Jetson (vLLM + Live VLM WebUI)
Modelos Vision-Language (VLMs) estão ficando bons e leves o suficiente para sair do datacenter e ir para a borda (robôs, câmeras, inspeção, automação). Um tutorial…
-
Rodando um VLM open-source no Jetson: Cosmos Reason 2B + vLLM (e por que isso importa)
Resumo rápido: a Hugging Face publicou um guia mostrando como servir o NVIDIA Cosmos Reason 2B (um modelo visão+linguagem) em dispositivos NVIDIA Jetson usando vLLM…
-
Guia prático: deploy de VLM open-source no NVIDIA Jetson com vLLM + Live WebUI (Cosmos Reasoning 2B)
Guia prático: deploy de VLM open-source no NVIDIA Jetson com vLLM + Live WebUI Se você quer rodar um Vision-Language Model (VLM) na borda (edge)…
-
GGML e llama.cpp se juntam à Hugging Face: o que muda para IA local
Uma novidade importante para quem acompanha IA rodando localmente: o time por trás do GGML e do llama.cpp anunciou que está se juntando à Hugging…
-
Guia rápido: rodando IA local com llama.cpp + modelos do Hugging Face (GGUF)
Guia rápido: rodando IA local com llama.cpp + modelos do Hugging Face (GGUF) Se você quer testar modelos de linguagem sem depender de nuvem (mais…
-
Hugging Face traz o time do llama.cpp (GGML) para fortalecer a IA local
A Hugging Face anunciou que o time por trás do GGML e do llama.cpp (projetos essenciais para rodar LLMs localmente) está se juntando à empresa…
-
Guia prático: fine-tuning barato de LLM com Unsloth + Hugging Face Jobs (até com créditos grátis)
Treinar (ou ajustar) um modelo de linguagem deixou de ser um luxo de quem tem GPU cara. Hoje dá para fazer fine-tuning rápido e econômico…
![FRI – Ficando Rico Com [IA]](https://ficandoricocomia.com/wp-content/uploads/2025/10/cropped-fri2.png)
