A primeira vez que vi um engenheiro de IA testar um chatbot com a avó no Zoom, percebi algo estranho. O modelo compreendia as palavras dela na perfeição, mas não o mundo dela. Respondia depressa, com gramática impecável, e mesmo assim falhava no que ela realmente perguntava: “Isto vai ajudar-me a sentir-me menos sozinha?”
O neto tentou ajustar os prompts em tempo real, acrescentando coisas sobre empatia e linguagem simples. Ela continuava a semicerrar os olhos para o ecrã. “Porque é que fala como um folheto?” riu-se.
Ninguém naquele laboratório tinha a intenção de criar algo distante ou enviesado. Simplesmente construíram com as pessoas que já tinham.
A sala, os dados, as decisões - tudo tinha o mesmo aspeto.
Os utilizadores lá fora não.
Porque é que a IA centrada no ser humano começa na mesa de contratação
Entre na maioria das equipas de IA e nota-se logo: a tecnologia é futurista, mas a força de trabalho muitas vezes parece do passado. Mesmas universidades, percursos semelhantes, as mesmas conversas nas daily stand-ups. Os modelos evoluem todos os trimestres. As pessoas que os constroem, nem tanto.
A IA centrada no ser humano costuma ser apresentada como um desafio de design ou uma lista de verificação ética. Mas, antes de tudo isso, é uma história de recrutamento. Quem tem o poder de definir o que é “humano”? Quem está à mesa quando uma funcionalidade é lançada, um conjunto de dados é escolhido, um risco é descartado como “caso extremo”?
É aqui que a inclusão deixa de ser um slogan e passa a ser um conjunto de decisões de contratação com consequências bem reais.
Pense num banco global que lançou uma ferramenta de concessão de crédito orientada por IA. No papel, foi um sucesso: mais automatização, menos tempo de processamento, administração satisfeita. Depois, associações comunitárias começaram a notar padrões. Candidatos de determinados bairros, maioritariamente negros e latinos, eram rejeitados com maior frequência. Rendimentos e scores de crédito eram semelhantes. Os resultados, não.
Seguiu-se uma corrida: auditorias externas, correções apressadas de fairness, uma sequência de comunicados defensivos. Numa revisão interna tensa, um analista júnior referiu discretamente que ninguém dessas comunidades tinha trabalhado no projeto. Ninguém sequer tinha estado na sala durante as entrevistas a utilizadores.
O banco não “desenhou” o enviesamento no sistema. Simplesmente treinou a IA - e a equipa - com uma fatia estreita da realidade.
A lógica é brutalmente simples. Sistemas de IA aprendem com dados. As equipas decidem que dados contam, que sinais importam, que utilizadores são “típicos”. Se a força de trabalho partilha origens semelhantes, é mais provável que partilhe pontos cegos. Essas lacunas acabam codificadas nos produtos como padrões, guardas de segurança (guardrails) ou opções que nem existem.
Estratégias para uma força de trabalho inclusiva funcionam como uma lente mais ampla. Idades diferentes levantam receios de privacidade diferentes. Pessoas com deficiência detetam barreiras muito antes das equipas de conformidade. Colegas de grupos sub-representados identificam estereótipos que nunca chegam ao slide deck.
Uma IA não se torna centrada no ser humano porque o dizemos; torna-se centrada no ser humano porque quem a constrói está ancorado em experiências humanas mais diversas.
De declarações de DEI a escolhas reais de contratação
As equipas mais eficazes não começam com um grande manifesto de ética em IA. Começam com uma pergunta pragmática: “Quem é que falta nesta sala?” E depois redesenham o recrutamento a partir dessa resposta.
Uma medida prática é alargar as portas sobre de onde vem o talento. Isso pode significar recrutar em cursos técnicos-profissionais e politécnicos, bootcamps de programação, redes de pessoas com deficiência ou profissionais em mudança de carreira (por exemplo, vindos do serviço social, educação ou jornalismo). Parece caótico quando comparado com o funil “melhor universidade, melhor média”. Mas esses percursos não lineares trazem muitas vezes precisamente o que a IA precisa: reconhecimento de padrões moldado pela vida real, não apenas por manuais.
IA centrada no ser humano não é só mais doutoramentos. É mais histórias a alimentar o código.
Uma startup de saúde em Berlim tentou isto de forma deliberada. O primeiro modelo sinalizava doentes com elevado risco de readmissão hospitalar. Os primeiros pilotos pareciam precisos, até que enfermeiros começaram a apontar um problema silencioso. Doentes que raramente iam ao médico - migrantes, trabalhadores por turnos noturnos, homens mais velhos que evitavam consultas - quase não apareciam como “alto risco”, porque o sistema se apoiava demasiado nos registos clínicos existentes.
Em vez de apenas ajustar variáveis, a empresa mudou o seu canal de contratação. Trouxe uma enfermeira especialista, um ex-organizador comunitário e um cuidador a tempo parcial como vozes permanentes na equipa de IA. A equipa de recrutamento reescreveu anúncios de emprego em linguagem simples, retirou alguns requisitos de grau académico e fez parcerias com ONG locais de saúde para encontrar candidatos.
O modelo mudou. Foram adicionados mais sinais: faltas a consultas, barreiras linguísticas, distância de casa à unidade de saúde. Seis meses depois, a ferramenta identificava mais casos silenciosos de alto risco. Não por causa de um algoritmo revolucionário, mas porque pessoas diferentes desafiaram as pressuposições.
Há uma verdade social que ninguém gosta de admitir: o recrutamento em tecnologia muitas vezes otimiza para conforto, não para criatividade. As pessoas contratam pessoas que “são como nós”, que falam da mesma forma nas reuniões, que partilham a mesma lista de blogues e podcasts de tecnologia. Isso acelera a colaboração - até percebermos que estamos a lançar produtos polidos que só entendem, de facto, uma faixa estreita de utilizadores.
Construir uma força de trabalho inclusiva em IA significa aceitar um pouco mais de fricção no início. As conversas podem ser mais lentas. As definições de “sucesso” são debatidas, não apenas aprovadas. Mas essa fricção é o que impede equipas de marcharem em passo certo, confiantes, rumo a danos evitáveis.
Sejamos honestos: ninguém reescreve do zero a matriz de contratação todos os anos. Ainda assim, as equipas que mais se aproximam disso são as que criam ferramentas de IA que envelhecem melhor no mundo real.
Tornar a inclusão uma prática diária, não um comunicado
Quando talento diverso entra pela porta, começa o trabalho a sério. Um fracasso comum - e silencioso - é contratar pessoas de origens diferentes e depois exigir que se adaptem totalmente à cultura existente. Convidam-se novas vozes e, pouco depois, são silenciadas por hábitos antigos.
Um método concreto que funciona: incorporar rituais estruturados de decisão nos projetos de IA. Por exemplo, antes de “congelar” um modelo, as equipas fazem uma revisão de impacto no utilizador em que, pelo menos, uma pessoa de um perfil não técnico lidera a conversa. As perguntas são simples: “Quem é ajudado?”, “Quem pode ser prejudicado?”, “Quem está invisível aqui?” As respostas ficam documentadas ao lado das métricas técnicas, não numa pasta de ética separada que ninguém lê.
Com o tempo, isto normaliza a ideia de que a experiência vivida é um input de design, não um comentário lateral.
Muitas empresas tropeçam no mesmo ponto: acreditam que contratar para diversidade resolve automaticamente o enviesamento. Depois surpreendem-se quando colaboradores de grupos sub-representados entram em exaustão ou saem em silêncio. Todos já vimos esse momento em que uma empresa celebra uma nova iniciativa “inclusiva” enquanto as pessoas que supostamente apoia ficam no fundo da sala, exaustas.
Dar lugares à mesa sem dar poder real é uma forma rápida de destruir confiança. O mesmo acontece quando se tratam essas pessoas como porta-vozes permanentes de comunidades inteiras. As equipas mais sustentáveis distribuem a responsabilidade: toda a gente no projeto de IA - não apenas quem está mais vulnerável - assume parte do trabalho de detetar e sinalizar riscos.
Quando os erros acontecem - e vão acontecer - a resposta que mantém a equipa unida é simples: ouvir depressa, corrigir de forma visível, reconhecer o mérito de forma ampla.
Numa grande empresa de comércio eletrónico, uma revisão interna detetou que o motor de recomendação desvalorizava sistematicamente produtos de pequenos vendedores pertencentes a minorias. O enviesamento não era malicioso; era um efeito colateral de um modelo afinado para cliques e vendas históricas.
Durante uma reunião geral tensa, um engenheiro sénior disse finalmente o que muitos pensavam:
“Treinámos o modelo para perseguir o passado, não para imaginar um futuro mais justo. Essa foi a nossa escolha, mesmo que não lhe chamássemos assim.”
A partir daí, redesenharam tanto o algoritmo como a forma de trabalhar da equipa. Criaram um pequeno “conselho de equidade”, com pessoas de vários departamentos - não apenas ciência de dados - para intervir em pontos-chave de decisão. E deram a cada equipa de IA uma checklist curta e recorrente:
- Que grupos estão sobre- ou sub-representados nos nossos dados de treino?
- Quem fora desta sala veria este resultado como injusto?
- Que métricas estamos a ignorar porque são difíceis de medir?
- Quem na equipa ainda não falou sobre este lançamento?
Estas perguntas não eram mágicas. Eram um lembrete diário de que a IA centrada no ser humano é uma prática, incorporada em calendários e dashboards, e não um valor que vive apenas em cartazes.
Manter a IA verdadeiramente humana num mundo confuso
IA centrada no ser humano não é uma meta final. É um alvo móvel que muda com cada novo caso de uso, cada nova comunidade, cada efeito secundário inesperado. Isto pode ser desgastante, sobretudo para equipas já pressionadas a lançar mais depressa, mais barato, mais “inteligente”. Mas é também aqui que o trabalho se torna mais profundamente humano.
Uma força de trabalho inclusiva não garante uma IA perfeita. O que oferece é algo mais realista e mais valioso: sistemas que conseguem aprender com quem os cria. Quando algo corre mal, as pessoas mais próximas do impacto sentem-se seguras para falar. Quando uma funcionalidade se torna prejudicial num novo contexto, já existe alguém na sala capaz de dizer: “Já vi isto antes - só não era em código.”
Se a IA vai ficar entre as pessoas e habitação, emprego, saúde e educação, não pode ser construída apenas por quem sempre teve acesso fiável a tudo isso.
A questão para líderes já não é se devem investir em IA responsável. A pergunta mais certeira e prática é: de que realidade está a sua IA a aprender - e quem continua à espera do lado de fora das paredes de vidro, a ver decisões sobre o seu futuro serem tomadas sem si?
| Ponto-chave | Detalhe | Valor para o leitor |
|---|---|---|
| Equipas inclusivas criam melhor IA | Experiências diversas expõem pontos cegos em dados, design e implementação | Ajuda a defender ou desenhar sistemas mais fiáveis e menos enviesados |
| Contratação é uma decisão técnica | Canais de talento determinam que utilizadores e riscos são vistos como “normais” | Liga escolhas de RH diretamente ao desempenho da IA e à reputação da marca |
| A inclusão tem de ser operacionalizada | Rituais como revisões de impacto no utilizador e conselhos de equidade incorporam ética nos fluxos de trabalho | Dá práticas concretas que podem ser aplicadas ou adaptadas em equipas próprias |
FAQ:
- Como é que a diversidade da força de trabalho reduz, na prática, o enviesamento em IA? Pessoas com experiências de vida diferentes detetam pontos cegos nos dados, na formulação e nas pressuposições que equipas homogéneas não veem, levando a correções mais cedo e a requisitos de produto mais completos.
- A excelência técnica não é mais importante do que contratar de forma inclusiva? Precisa de ambas: engenharia forte cria sistemas robustos; equipas inclusivas decidem que problemas resolver e para quem, o que afeta diretamente o desempenho no mundo real.
- E se a minha empresa for pequena e ainda não conseguir contratar uma grande equipa diversa? Comece por envolver utilizadores diversos, consultores ou colaboradores a tempo parcial em revisões e testes, e alargue a pesquisa de candidatos para além das escolas e redes habituais.
- Como evito transformar colaboradores de grupos sub-representados em “token”? Distribua a responsabilidade por questões éticas e de impacto no utilizador por toda a equipa e trate essas pessoas como colegas com expertise - não como grupos focais de uma só pessoa.
- Qual é um passo simples que podemos dar neste trimestre? Adicione uma revisão curta e recorrente de “quem falta nesta fotografia?” antes de grandes lançamentos de IA e documente como esse feedback altera o design ou as métricas.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário