Durante os testes com os novos recursos do GPT na Okai, observamos um padrão curioso. Sempre que pedimos ao sistema de geração de imagens que represente a si mesmo como uma pessoa, ele responde com a mesma figura: um homem branco, nos seus vinte e poucos anos, cabelo castanho, barba rala, às vezes com óculos. Essa imagem se repete com pequenas variações, como se fosse uma espécie de avatar implícito do modelo.
À primeira vista, isso pode parecer apenas um detalhe estético. Mas o padrão revela algo mais profundo sobre como esses sistemas foram treinados e com quais referências operam. Quando a máquina não recebe instruções específicas, ela preenche o vazio com o que aprendeu ser o “neutro”. E nesse preenchimento automático está embutida uma decisão, mesmo que involuntária, sobre o que representa o padrão humano.
Esse tipo de viés não é novo. Ele aparece em mecanismos de busca, em sistemas de recomendação, em assistentes virtuais. A diferença agora é que os modelos estão ficando mais sofisticados, mais expressivos, mais presentes nas interações cotidianas. Isso amplia o impacto das suposições que carregam. Quando o default sempre aponta para a mesma figura, algo se cristaliza na experiência dos usuários. Há uma história sendo contada sobre quem representa o futuro.
Para quem desenvolve produtos de IA, esse tipo de padrão precisa ser enfrentado desde a origem. É necessário aplicar testes com prompts variados, observar os vieses que emergem e ajustar os modelos antes que cheguem aos usuários. O fine-tuning com dados mais diversos não é uma etapa opcional. Ele define o grau de inclusão que a ferramenta será capaz de oferecer.
Nenhuma tecnologia é neutra. Todo sistema que produz linguagem, imagem ou decisão carrega, em alguma medida, uma visão de mundo. Quando essa visão não é examinada, o que surge é uma normalidade silenciosa, que reafirma a presença de uns e apaga a de outros. É fácil deixar passar, porque não se apresenta como exclusão. Apenas como ausência.
O rosto que a IA projeta quando não dizemos nada importa. Ele aponta para o imaginário embutido nos dados e nas decisões de quem constrói os sistemas. Se queremos que esses modelos representem de fato a sociedade que os utiliza, é preciso começar pela pergunta mais simples: quem aparece quando ninguém é especificado?