Imagine que a inteligência artificial é como uma receita de bolo muito complexa. Existem dois tipos de “receitas”:
Modelos fechados: Só a empresa dona pode utilizar cobrando por isso.
Modelos abertos: Qualquer um pode utilizar.
Os modelos abertos trazem vários benefícios:
Gratuitos: Você não paga licenças caras.
Personalizáveis: Pode adaptar para suas necessidades específicas.
Sem amarras: Pode usar comercialmente sem restrições.
A OpenAI, famosa pelo ChatGPT, surpreendeu a todos lançando modelos gratuitos:
GPT-OSS-120b: Versão mais poderosa para tarefas complexas.
GPT-OSS-20b: Versão mais leve para uso básico.
Meta: Criadora do modelo LLaMA.
Microsoft: Desenvolve ferramentas como LoRA para otimização.
Technology Innovation Institute (Abu Dhabi): Criadora da série Falcon.
GitHub: Hospeda mais de 8.000 projetos de IA generativa.
Mesmo sendo gratuitos, esses modelos exigem máquinas muito poderosas:
Para o modelo maior (GPT-OSS-120b):
Precisa de uma placa de vídeo profissional H100 (custa dezenas de milhares de reais).
Equivale a ter um supercomputador em casa.
Para o modelo menor (GPT-OSS-20b):
Precisa de pelo menos 16GB de memória RAM dedicada.
Ainda assim, requer um computador bem robusto.
Para fazer esses modelos funcionarem, você precisa saber:
Programação: Principalmente Python.
Configuração de sistemas: Linux, drivers de GPU.
Frameworks especializados: Como Transformers, PyTorch, vLLM (Para usos mais complexos).
Fine-tuning: Processo para adaptar o modelo às suas necessidades (Também para uso complexo).
Se você não tem o hardware necessário, pode alugar:
Atenção: Esses serviços podem custar centenas ou milhares de reais por mês, o ideal mesmo é optar por plataformas simplificadas ou no uso por outros provedores via api, pagando apenas o que é consumido.
Hugging Face: Permite testar modelos gratuitamente (com limitações).
Ollama: Facilita a instalação local de modelos menores.
Colab: Google oferece acesso gratuito limitado a GPUs.
Podem criar soluções de IA personalizadas sem depender de gigantes da tecnologia.
Reduzem custos a longo prazo.
Mantêm controle total sobre seus dados.
Acesso a tecnologia de ponta sem custo de licença.
Possibilidade de inovar e criar novos produtos.
Aprendizado profundo sobre como a IA funciona.
Infelizmente, ainda não é plug-and-play.
Requer investimento significativo em hardware e conhecimento.
Melhor opção ainda são os serviços prontos como ChatGPT, Claude, etc.
A tendência é que:
Os modelos fiquem mais eficientes (precisem de menos recursos).
Surjam mais ferramentas para simplificar o uso.
O hardware necessário fique mais barato.
Mais empresas entrem nessa competição.
Às vezes, a melhor propaganda para modelos abertos vem de onde menos esperamos. Quando uma decisão judicial recente obrigou a OpenAI a manter todos os dados de usuários - mesmo aqueles que foram deliberadamente excluídos - muitas empresas tiveram seu “momento eureka” sobre a importância de rodar IA localmente. Suddenly, aqueles requisitos técnicos complexos e custos de hardware não pareciam mais tão absurdos comparados à possibilidade de ter dados confidenciais retidos indefinidamente por terceiros.
A pergunta mudou de “vale a pena o investimento em infraestrutura local?” para “posso me dar ao luxo de NÃO ter controle total sobre meus dados?”.
Paradoxalmente, quanto mais as Big Techs crescem e se tornam alvos legais, mais atrativo fica o modelo descentralizado. É a lei não intencional da oferta e demanda: quanto menor a confiança em serviços centralizados, maior a demanda por alternativas que você controla completamente.
Fonte: Ars Technica - OpenAI court order privacy nightmare
O lançamento do GPT-OSS pela OpenAI marca uma mudança histórica - até mesmo a empresa mais associada a modelos fechados está abraçando o código aberto. Isso é excelente para:
Inovação: Mais pessoas podem experimentar e melhorar a tecnologia.
Competição: Força outras empresas a também abrirem seus modelos.
Democratização: Em teoria, torna a IA mais acessível.
Mas a realidade é que, para a maioria das pessoas, esses modelos ainda não são acessíveis.
A verdadeira democratização da IA ainda está por vir, quando esses modelos poderosos conseguirem rodar no seu notebook comum ou quando surgirem serviços que tornem seu uso tão simples quanto usar um aplicativo no celular.