PC Notícias NVIDIA revoluciona a criação de IA em placas GeForce RTX Por Leila Lombardo Postado em 6 horas atrás 6 min de leitura Empresa anuncia novos modelos de IA, capazes de gerar imagens mais rápido A NVIDIA divulgou como a inteligência artificial generativa está revolucionando a forma como as pessoas criam, imaginam e interagem com conteúdo digital. Com a evolução dos modelos de IA, como o Stable Diffusion 3.5 Large, a demanda por VRAM cresce rapidamente. Esse modelo, por exemplo, consome mais de 18 GB de VRAM, o que restringe sua execução eficiente a sistemas mais robustos. Redução de VRAM com quantização FP8 Para contornar essa limitação, a NVIDIA aplicou a técnica de quantização — que permite executar partes menos críticas do modelo com menor precisão. As GPUs GeForce RTX Série 40, com arquitetura Ada Lovelace, e as GPUs RTX PRO já oferecem suporte à quantização em FP8, enquanto a nova geração Blackwell também suporta FP4. Em parceria com a Stability AI, a NVIDIA quantizou o Stable Diffusion 3.5 Grande para FP8, reduzindo o uso de memória em 40%. Além disso, otimizações via TensorRT SDK dobraram o desempenho tanto da versão Grande quanto da versão Média do modelo. TensorRT agora com suporte para PCs com RTX O TensorRT foi redesenhado para rodar em PCs com GPUs GeForce RTX, reduzindo o tempo de construção das engines just-in-time (JIT) em até 8 vezes. Isso viabiliza a implantação fluida de IA em mais de 100 milhões de PCs com RTX. O TensorRT para RTX já está disponível como SDK independente para desenvolvedores. Benefícios para os usuários Com as melhorias de quantização e aceleração via TensorRT, os usuários agora conseguem: Rodar o SD3.5 Grande com apenas 11 GB de VRAM. Executar o modelo em cinco GPUs RTX Série 50, em vez de apenas uma. Obter desempenho até 2,3x maior (no SD3.5 Grande) e 1,7x maior (no SD3.5 Médio) em relação à versão original em BF16 rodando no PyTorch. Esses ganhos não comprometem a qualidade das imagens geradas, como mostram comparações diretas entre as versões em FP8 e BF16. Modelos otimizados e novos serviços Os modelos otimizados já estão disponíveis no perfil da Stability AI no Hugging Face. Além disso, a NVIDIA e a Stability AI também lançarão o SD3.5 como microsserviço NIM — facilitando o acesso e a implementação em diversas aplicações. O lançamento está previsto para julho de 2025. TensorRT para RTX: mais rápido e acessível Apresentado durante o Microsoft Build, o novo SDK TensorRT para RTX: Reduz o tamanho da engine em até 8 vezes; Permite otimizações locais em segundos; Está integrado ao novo framework Windows ML da Microsoft. Os desenvolvedores podem baixar o SDK no site NVIDIA Developer ou testá-lo diretamente na versão prévia do Windows ML. Inscreva-se no nosso canal do Youtube e da Twitch! Conheça também o nosso podcast: Playzuandocast, o podcast da zueira e dos games! Disponível no iTunes, Deezer, Google Podcasts, além do Amazon Music e Spotify! Quer que algum jogo ou série que você conhece seja pauta nossa? Então nos mande uma mensagem através do e-mail, do formulário fale conosco ou nossas redes sociais @playzuandoCompartilhe isso: Clique para compartilhar no WhatsApp(abre em nova janela) WhatsApp Clique para compartilhar no Telegram(abre em nova janela) Telegram Clique para compartilhar no Facebook(abre em nova janela) Facebook Clique para compartilhar no X(abre em nova janela) 18+