brunorodrigues.com

b

Latest stories

A ascensão das novas LLMs: Grok 3 e Deepseek são realmente alternativas viáveis?

A

O mercado de modelos de linguagem de grande porte (LLMs) tem mudado rapidamente. Até pouco tempo atrás, OpenAI, Google e Anthropic dominavam o setor, com suas soluções altamente sofisticadas e um custo proporcionalmente alto. Mas, recentemente, novas opções começaram a ganhar espaço.

O Grok 3, desenvolvido pela xAI de Elon Musk, impressionou ao atingir níveis de desempenho comparáveis ao GPT-4 em diversos benchmarks. Enquanto isso, o Deepseek, um modelo chinês menos conhecido, surpreendeu ao oferecer alta qualidade por um custo menor. Essas inovações naturalmente levantam uma questão: essas LLMs podem substituir as soluções tradicionais?

A resposta curta é depende. Para um usuário comum, que apenas faz perguntas ocasionais para um chatbot, modelos como Grok 3, Deepseek, Gemini ou GPT-4 podem parecer quase equivalentes. Mas, no contexto empresarial e em aplicações de produção, a troca entre LLMs não é tão trivial.

Muito além da precisão

Cada modelo tem características próprias que influenciam sua usabilidade. O primeiro ponto que precisa ser avaliado é o modelo de precificação e os custos operacionais. O Deepseek, por exemplo, gerou grande interesse justamente porque oferece um desempenho sólido por um preço inferior ao das big techs. Mas há outros fatores igualmente importantes.

As limitações de tokens de entrada e saída variam entre os modelos. Algumas LLMs lidam melhor com textos longos, enquanto outras oferecem respostas mais curtas e objetivas. O tempo de resposta da API também é um fator crítico. Uma empresa que usa IA para atender clientes ou processar dados em tempo real precisa de previsibilidade e estabilidade.

Além disso, cada modelo tem suas especialidades. Alguns são melhores para geração de texto, enquanto outros se destacam em código ou lógica matemática. Mesmo entre modelos poderosos, o desempenho pode variar significativamente dependendo do tipo de tarefa.

A questão do viés e das limitações invisíveis

Outro ponto crucial é o viés incorporado nos modelos. O Deepseek, por exemplo, é conhecido por evitar discussões políticas sensíveis ao governo chinês. Perguntas triviais, como “quem é o presidente da China?”, podem não ser respondidas. Já o Grok 3 levanta suspeitas de possíveis filtros em relação a críticas direcionadas a Elon Musk ou Donald Trump.

Para empresas, esses viéses não são apenas detalhes técnicos — eles afetam diretamente a confiabilidade do modelo em determinados contextos. Uma empresa que deseja garantir respostas neutras e imparciais precisa levar isso em consideração antes de decidir qual LLM utilizar.

Infraestrutura e governança importam

A confiabilidade de um modelo de IA também está atrelada à infraestrutura e à maturidade da empresa por trás dele. Modelos como GPT-4 (OpenAI) e Gemini (Google) rodam em infraestrutura robusta, apoiada por gigantes como Microsoft e Google Cloud.

Já o Deepseek, por ser uma empresa muito menor, tem enfrentado desafios para lidar com o crescimento explosivo da demanda. Desde seu recente sucesso, os servidores passaram por quedas constantes e instabilidades, algo que pode ser inviável para empresas que dependem de uma IA sempre disponível.

O red teaming, processo de avaliação de segurança que testa vulnerabilidades nos modelos, também é um diferencial. Big techs investem pesadamente nesses testes para minimizar riscos de jailbreaks, vieses indesejados e respostas potencialmente perigosas. Modelos emergentes, como o Deepseek e o Grok, ainda não demonstraram passar por processos de validação tão rigorosos, o que pode representar um risco para aplicações empresariais.

Escolher uma LLM não é só uma questão de preço

O aumento da concorrência no setor de IA generativa é uma excelente notícia. Mais opções significam inovação acelerada e custos potencialmente menores. Mas para empresas que dependem de IA para aplicações críticas, a decisão de mudar de modelo não pode ser baseada apenas no hype ou no preço.

A escolha precisa levar em conta fatores como estabilidade, segurança, governança, viés e desempenho em tarefas específicas. Afinal, no mundo real, nem sempre o modelo que brilha nos benchmarks é o que entrega os melhores resultados em produção.

Estudo da BBC aponta erros em modelos de linguagem

E

Um estudo realizado pela BBC evidenciou problemas sérios de acurácia no ChatGPT da OpenAI, Gemini do Google, Copilot da Microsoft e Perplexity, mostrando como respostas fornecidas por tais sistemas podem apresentar falhas importantes, especialmente quando se trata de notícias.

O estudo teve um escopo bastante direto: testar a precisão e a confiabilidade de quatro grandes assistentes de IA, disponibilizando a eles acesso ao conteúdo do próprio site da BBC para responder a 100 perguntas sobre notícias. A proposta era verificar se as ferramentas conseguiam representar o conteúdo com fidelidade e sem distorções.

Os resultados foram preocupantes:

  • 51% das respostas apresentaram problemas significativos, como erros factuais ou de contexto.
  • 19% das respostas que citavam artigos da BBC reproduziram incorretamente números, datas ou declarações.
  • 13% das citações usadas foram alteradas em relação ao texto original ou simplesmente não existiam na fonte citada.

Esses números chamam a atenção não apenas pela frequência dos erros, mas também pela gravidade deles: ao citar indevidamente um veículo de credibilidade (como a BBC), as IA acabam dando uma aura de legitimidade a informações equivocadas. E, para o público que lê tais respostas, pode ser quase impossível detectar a manipulação ou a incorreção, pois a marca de um veículo respeitado sugere confiança imediata.

Exemplos de Erros e Seus Impactos

O relatório publicado pela BBC apresenta uma série de exemplos concretos:

  1. Citações distorcidas ou criadas
    Várias vezes, as ferramentas forneceram citações supostamente retiradas de artigos da BBC, mas que, na prática, não constavam do texto original.
  2. Erros factuais graves
    Em algumas respostas, datas importantes foram trocadas, como afirmar que um determinado acontecimento ocorreu em outro mês ou até mesmo em outro ano.
  3. Falta de contexto e opinião tratada como fato
    Muitas respostas foram avaliadas como tendenciosas ou com tom de editorialização, apresentando o que eram apenas opiniões (ou especulações) como se fossem dados factuais. Em alguns casos, as respostas ignoraram pontos de vista conflitantes ou omitiram detalhes cruciais, o que pode levar a interpretações deturpadas.

O Desafio da Curadoria de Dados

Esses resultados reforçam a importância de se trabalhar com bases de dados de qualidade e com mecanismos de seleção e curadoria robustos. Na Okai, resolvemos esse problema para compliance integrando técnicas de IA Generativa a sistemas que fazem curadoria de informações, assegurando que apenas fontes confiáveis e atualizadas sejam utilizadas pelos modelos.

Eu escrevi um artigo no ano passado explicando em mais detalhes as técnicas que utilizamos para lidar com esses problemas.

O Paradoxo da Métrica: Equilíbrio Entre Números e Cultura

O

No universo empresarial atual, marcado pela onipresença de dados e indicadores de desempenho, pode parecer contrassenso levantar um alerta sobre os riscos de medir demais. A verdade, porém, é que ao focar exclusivamente no que é fácil de quantificar, corremos o risco de criar pontos cegos. Métricas são, sem dúvida, essenciais para acompanhar a saúde de um negócio, mas não refletem toda a complexidade envolvida na construção de uma cultura sólida, na conquista da lealdade de clientes ou na promoção de inovações transformadoras.

O perigo de se apoiar cegamente em métricas não é exatamente novo. Já em 1956, o estudioso V. F. Ridgway alertava sobre o uso indiscriminado de indicadores de desempenho, enfatizando que aquilo que não é capturado pelos números tende a ser deixado de lado nas discussões estratégicas. No mesmo sentido, gigantes do pensamento em gestão, como Peter Drucker e W. Edwards Deming, sempre destacaram que os aspectos mais críticos de uma organização — confiança, cultura, relacionamento com clientes e parceiros — são frequentemente impossíveis de quantificar de forma direta. Deming, por exemplo, sublinhava a importância de um ambiente colaborativo e criativo que não se deixe aprisionar pelos números.

Isso não significa abrir mão dos dados e indicadores de desempenho. Pelo contrário: eles são fundamentais para apontar tendências, corrigir rumos e identificar oportunidades de melhoria. A questão é que esses indicadores devem ser contextualizados em uma perspectiva mais ampla. Se o objetivo principal de uma empresa é gerar valor autêntico para o cliente — e, consequentemente, para a sociedade — , então métricas de curto prazo não podem ofuscar o propósito maior. É preciso questionar constantemente o que os números não estão mostrando. Será que um pico de vendas não está sendo alcançado às custas de um esgotamento da equipe ou de uma experiência de marca aquém do ideal?

Grandes líderes se distinguem por enxergar além das planilhas. Eles entendem que uma cultura organizacional saudável depende de diálogo, transparência e liberdade para experimentar. Quando a gestão é feita apenas com base no que pode ser rapidamente medido, surgem os riscos de manipulação de métricas e de foco excessivo no curto prazo. Às vezes, a busca por indicadores positivos pode inibir comportamentos criativos e inovadores, já que tais iniciativas frequentemente demandam tempo e paciência para mostrar resultados.

Por fim, fomentar uma cultura de aprendizado contínuo passa por encorajar testes e iterações frequentes, sem que cada fracasso seja visto como um desastre absoluto. Muitas das ideias mais revolucionárias surgem justamente em ambientes onde as equipes se sentem à vontade para experimentar — inclusive cometendo erros e aprendendo com eles. Essa abordagem mira, em última análise, o sucesso genuíno do cliente, não a mera contagem de cliques ou outro indicador que, sem o contexto adequado, pouco diz sobre a real qualidade da experiência entregue.

Em suma, os dados são uma ferramenta poderosa, mas não devem se tornar uma prisão. Há uma rica dimensão de valor que não se deixa capturar por planilhas ou dashboards. Ao balancear métricas quantitativas com a sensibilidade para aspectos intangíveis — como relacionamento, cultura e inovação — , as organizações conseguem se manter fiéis ao seu propósito, entregar resultados sustentáveis e, ao mesmo tempo, construir as bases para uma vantagem competitiva difícil de copiar.

Margens comprimidas, oportunidades expandidas: o dilema da inteligência artificial de base

M

O surgimento de fenômenos como o Deepseek, aliado a avanços notáveis em modelos compactos como o GPT o3-mini, tem reconfigurado rapidamente o cenário da inteligência artificial generativa. Em poucos dias, testemunhamos uma verdadeira inflexão no desenvolvimento de algoritmos e hardware, resultando em ganhos de eficiência que derrubam custos operacionais (OPEX) e de capital (CAPEX). Essa confluência de fatores torna a tecnologia cada vez mais acessível e democratizada, permitindo que empresas de diferentes portes incorporem a IA generativa a suas soluções sem enfrentar grandes barreiras de entrada.

Essas inovações, que antes demandavam investimentos robustos em infraestrutura, veem seus custos caírem rápido. Modelos em nuvem, que antes obrigavam companhias a lidar com despesas substanciais no consumo de recursos, estão se tornando mais baratos. Por outro lado, a disseminação de modelos open source self-hosted, impulsionada por comunidades de pesquisa que crescem em ritmo acelerado, reduz significativamente o custo de implementação inicial, pois aproveita ambientes locais de computação que também vêm se tornando cada vez mais potentes.

O ponto central desse processo é a velocidade com que ele acontece. Não se trata de uma evolução linear ou gradativa, mas de um salto exponencial em que, de uma semana para outra, surgem soluções capazes de realizar tarefas complexas a frações do custo anterior. Esse fenômeno vai além do puro avanço tecnológico: ele molda o ambiente competitivo, criando um dilema para as empresas que desenvolvem os modelos de base. A competição intensa e a consequente desvalorização do produto principal — o modelo — repetem o efeito de outras indústrias de alta tecnologia, mas com margens historicamente estreitas, como o transporte aéreo.

Enquanto isso, as empresas que utilizam a IA generativa em seus produtos e serviços estão em uma posição francamente vantajosa. À medida que o custo de implementação cai, abre-se um leque maior de possibilidades para automatizar processos, criar experiências personalizadas para clientes ou mesmo desenvolver novos fluxos de trabalho antes impossíveis de se sustentar financeiramente. Nesse sentido, o cenário é um verdadeiro presente para quem busca inovar: a criatividade e a capacidade de integrar tecnologias podem ser exercidas sem o peso das despesas mais elevadas que caracterizavam a IA em seu período inicial de consolidação.

Em última análise, a tendência é que os custos de GenAI continuem a despencar ainda mais rápido do que se projetava. Cada vez mais, veremos o surgimento de startups e projetos independentes capazes de rivalizar com grandes corporações, justamente porque a barreira de acesso à computação e ao conhecimento especializado vem diminuindo de forma notável. Essa quebra de paradigma evidencia que, para prosperar, não basta possuir modelos avançados — é preciso saber orquestrar a inovação de modo a criar valor efetivo para os usuários. E quando isso acontece, todos ganham: da pequena empresa que aposta em IA para evoluir processos internos até o consumidor final, que passa a ter acesso a soluções mais inteligentes e acessíveis em seu dia a dia.

De onde virá o diferencial competitivo? O valor dos dados proprietários em IA

D

Está ficando claro para todos que não há segredos duradouros em IA. Modelos de Inteligência Artificial vivem de pesquisa — e, nesse mundo, inovações se espalham rapidamente entre laboratórios, startups e gigantes de tecnologia. Sendo assim, o que garantiria uma vantagem competitiva real a uma empresa que aposta em IA?

Minha aposta e de muitos são os dados proprietários. São eles que podem constituir um moat, protegendo a liderança de quem detém informações valiosas, exclusivas e difíceis de reproduzir. Neste artigo, vamos entender por que, em meio ao avanço frenético dos modelos de IA, os dados particulares de cada negócio se tornam o ativo mais disputado.

O avanço coletivo da IA

Algoritmos, arquiteturas de redes neurais e métodos de treinamento se tornam commodities muito rapidamente. Basta um paper relevante ser publicado para aquele novo método se popularizar. A ponte entre a descoberta e a replicação é cada vez mais curta.

Open source tem sido um grande vetor de disseminação de conhecimentos em IA. O modelo de linguagem Llama, por exemplo, da Meta, rapidamente inspirou forks e variações desenvolvidas por grupos independentes. Isso demonstra como mesmo um modelo avançado pode perder exclusividade rapidamente quando se abre a caixa-preta.

O que são dados proprietários?

Dados proprietários são informações específicas que  a sua empresa (ou um grupo muito restrito) coleta e consolida ao longo do tempo. Exemplos incluem:

  1. Dados de uso e performance de produtos: dispositivos IoT e métricas de telemetria em geral, que mostram o comportamento do usuário no mundo real, podem ter grande valor para treinar algoritmos de diagnóstico ou personalização.
  2. Base de interações ou comportamentos em plataformas: redes sociais, plataformas de streaming e sistemas de comércio eletrônico que acumulam trilhões de registros de cliques, visualizações e compras.
  3. Bancos de imagens ou vídeos altamente específicos: em setores como saúde, radiografias e exames médicos rotulados constituem um dataset difícil de coletar — e com alto valor de treinamento para algoritmos de detecção de doenças.
  4. Dados transacionais sigilosos: bancos, seguradoras e grandes varejistas possuem históricos volumosos de transações, essenciais para construir modelos de risco, recomendação de produtos, etc.
  5. Conteúdo próprio: artigos, vídeos, cursos e outros conteúdos produzidos pela equipe da empresa ou profissionais subcontratados são uma fonte valiosíssima de informação curada que pode alimentar os algoritmos.

A principal característica é que esses dados não estão simplesmente disponíveis na internet. São frutos de relações de longo prazo com clientes, sensores instalados em produtos físicos ou acordos de confidencialidade que tornam difícil — e às vezes impossível — alguém replicá-los.

Algoritmos mais poderosos

Se dois modelos de IA são arquitetonicamente parecidos, mas um tem acesso a um volume maior (e melhor) de dados, ele tende a apresentar desempenho superior ao ser aplicado em cenários reais. E quanto mais os algoritmos aprendem com dados relevantes, mais inteligentes eles ficam, em um ciclo virtuoso de retroalimentação.

Existem domínios em que a curadoria de dados é extremamente desafiadora. Pense no setor de energia, em que dados de geologia e exploração de poços são distribuídos entre poucas empresas. Ou em grandes frotas de automóveis, em que só algumas gigantes conseguem capturar e processar bilhões de quilômetros rodados anualmente. Esse conhecimento específico faz toda a diferença na precisão dos modelos.

Caso sua empresa seja a única a coletar certo tipo de dado, outros players não conseguem igualar essa base de treinamento sem grandes investimentos — muitas vezes, inviáveis ou demorados. Enquanto eles tentam recuperar o atraso, sua empresa consolida a liderança de mercado.

Exemplos de estratégias focadas em dados

  1. Tesla e dados de direção
    Com milhões de carros conectados em circulação, a Tesla recolhe informação de condução em cenários que vão de estradas congeladas a ruas esburacadas na zona rural. Esse dataset massivo alimenta os sistemas de direção autônoma e, por ser quase impossível reunir a mesma frota e condições, se torna um ativo formidável.
  2. Redes sociais e comportamento do usuário
    Plataformas como o X (antigo Twitter), Facebook ou YouTube contam com trilhões de interações, likes, compartilhamentos e metadados sobre o que chama a atenção do público. Esse conhecimento, aplicado a IA, lhes permite criar algoritmos de recomendação incrivelmente eficientes — difíceis de serem reproduzidos por qualquer concorrente que tenha menos escala.
  3. Empresas de seguros e análise de risco
    Uma seguradora que atua há décadas em vários países acumula histórico minucioso de sinistros e perfis de clientes. Ao alimentar modelos de classificação de risco, esse dataset único torna suas projeções de perda mais exatas do que as de um novato no ramo.

Como captar e proteger dados proprietários

1. Incentivos e acordos de troca de dados

Para obter dados cada vez mais granulares, algumas empresas oferecem incentivos diretos a clientes ou parceiros — descontos, serviços VIP ou programas de fidelidade em troca do compartilhamento de informações de uso. Além disso, firmam acordos de troca com fornecedores e distribuidores para reunir dados ao longo de toda a cadeia produtiva.

2. Arquiteturas de coleta seguras e escaláveis

É crucial ter infraestrutura robusta para armazenar e processar grandes volumes de informações com segurança. Isso inclui políticas de governança, criptografia e segregação de dados que garantam conformidade legal (pense em LGPD, GDPR, HIPAA etc.).

3. Rotulagem, limpeza e qualidade

Dados brutos, cheios de ruído ou sem padronização, não ajudam muito no treinamento de IA. Investir em data engineering (limpeza, padronização, enriquecimento) e rotulagem (especialmente em áreas como visão computacional ou detecção de fraudes) pode custar caro, mas é onde se constrói uma vantagem sólida. Se é difícil fazer, também é difícil para o concorrente imitar.

O futuro da vantagem competitiva em IA

Com mais modelos surgindo e o custo de desenvolvimento caindo, é natural que grande parte da indústria encare os algoritmos como peças intercambiáveis. Mas quando se olha para os dados, a situação muda. Cada empresa precisa fazer as contas: Quais dados só nós temos? E como eles podem ser transformados em insights ou produtos únicos?

  1. Personalização extrema
    Se você tem dados proprietários ricos, pode oferecer soluções personalizadas que nenhum concorrente iguala. Por exemplo, criar previsões de demanda sob medida para cada cliente, considerando variáveis que só você monitora.
  2. Monetização de dados
    Empresas com dados muito valiosos podem licenciar parte dessas informações para terceiros ou criar plataformas B2B, transformando-se em provedoras de conhecimento de mercado.
  3. IA como serviço interno
    Em vez de simplesmente vender software, a empresa passa a integrar as soluções de IA internamente, otimizando produtos, logística e atendimento de forma invisível mas efetiva.

Dados são a nova fronteira

O valor dos dados proprietários é inegável. Eles são o que diferencia um modelo que só leu textos genéricos na internet de uma IA capaz de entender, prever e intervir em problemas complexos e específicos. No entanto, é importante lembrar que dados por si só não bastam se não houver uma estratégia clara de coleta, qualidade e aplicação em produtos e serviços que realmente gerem valor.

Investir em dados proprietários pode ser a melhor forma de defender seu espaço em um mercado onde inovações tecnológicas se espalham em um piscar de olhos. Nesse sentido, dados são tão (ou mais) preciosos que o melhor dos algoritmos.