Membro desde nov 2023
288º Promoção mais quente
3 Reações em comentários
0 Seguidores
0 Seguindo
RSousa5946Sim, precisa de muito mais que 12GB de VRAM e 3584 CUDA cores pra treinar LLM. Se não fosse possível usar o Colab por algum motivo, como dados sensíveis, comprar uma ou mais RTX 3090 usadas também faria sentido. A RTX 3060 é suficiente pra inferência dependendo do modelo usado, como pra fazer RAG com o Llama.
Expirada
RSousa5946Pra jogar, a 4060 é melhor e consome menos. Pra edição e IA, os 12GB da 3060 fazem a diferença.
RSousa5946Em promoção fica por 1499
Crie um alerta para o produto que você procura!