top of page

HumanX 2025: Por que a confiança dominou a conferência de IA em Las Vegas

  • Heitor Simão
  • May 24
  • 3 min read

Updated: Aug 25

Em março de 2025, mais de 3.000 pessoas se reuniram em Las Vegas para participar da primeira edição da HumanX AI Conference, um evento que rapidamente se consolidou como um dos mais relevantes para o ecossistema de inteligência artificial. E se houve uma palavra que ecoou em praticamente todas as conversas, painéis e apresentações, foi confiança.

O grande dilema: confiança em tecnologia probabilística Logo na abertura, Stefan Weitz, CEO da HumanX, foi direto ao ponto:

“Estamos no momento de menor confiança em IA da história. Se quisermos avançar, precisamos construir estruturas que garantam responsabilidade e transparência.”

Essa frase resume o espírito da conferência. Como confiar em uma tecnologia baseada em probabilidades, que não garante respostas determinísticas? Essa pergunta guiou muitos dos debates.

Dados apresentados pela AWS deram mais peso à discussão: apenas 6% dos projetos de IA chegam à produção real. Ao mesmo tempo, o setor atraiu mais de US$ 100 bilhões em investimentos em 2024, um salto de 80% em relação a 2023. Dinheiro não é o problema. O gargalo está na confiança.


Frameworks que nasceram para criar confiança

Para enfrentar esse desafio, Weitz apresentou o RAIL (Responsible AI Landscape), um framework para mensurar e promover o uso responsável da inteligência artificial. E ele não estava sozinho. A Feedzai trouxe outro modelo, chamado TRUST, baseado em cinco pilares: Transparência, Robustez, Ausência de Viés, Segurança e Testes.

Esses frameworks não são modismos, mas respostas concretas a uma lacuna de mercado: a falta de parâmetros claros para validar a confiabilidade da IA.


Você confiaria na IA sem revisar?

Um dos momentos mais comentados foi protagonizado por Ori Goshen, cofundador da AI21. Ele fez uma pergunta simples à plateia:“Quem aqui confiaria na IA para escrever um e-mail para um cliente?”Diversas mãos se levantaram. Mas a segunda pergunta mudou o cenário:“E quem enviaria esse e-mail sem revisar antes?”Quase todas as mãos caíram. Um exemplo prático e poderoso de como a confiança plena ainda está longe de ser realidade.


HumanX não foi só tecnologia: foi humanidade

Apesar do tom sério dos debates, a HumanX trouxe momentos que reforçaram o aspecto humano. Havia um parque para interagir com cães, cabines de massagem e até um speakeasy secreto. Parece detalhe, mas não é. Foi uma forma de lembrar que, no centro da inovação, ainda estão as pessoas. E confiança não se constrói apenas com algoritmos — ela nasce das relações humanas.


Política e regulação: inclusão é parte da equação

O tema da confiança não se limitou às empresas. Kamala Harris, vice-presidente dos EUA, trouxe um paralelo interessante:“Estamos na fase da IA que lembra o início da eletrificação: poucos tinham acesso. Só depois vieram as políticas e os investimentos que permitiram a democratização. Precisamos garantir que a IA siga o mesmo caminho.”

Outro ponto levantado foi a fragmentação das leis estaduais nos EUA, que cria barreiras para inovação. O congressista Jay Obernolte defendeu um marco regulatório federal e reforçou a necessidade de investir em talento e comunicar melhor os benefícios da IA para a sociedade.


IA adaptada ao mundo real

Alfred Lin, da Sequoia, trouxe uma visão prática:“Não basta criar IA sofisticada. Precisamos adaptá-la aos ambientes já existentes, assim como adaptamos estradas e edifícios para humanos.”

Mistral reforçou essa ideia ao defender modelos menores e abertos, que oferecem mais controle e soberania de dados — fator essencial para aplicações físicas, como robôs, que exigem latência mínima.


Confiança como métrica de sucesso

Se tem algo que a HumanX deixou claro é que o sucesso da IA não deve ser medido apenas por investimento ou capacidade técnica, mas por adoção real, impacto transformador, governança responsável e confiança social.

Empresas precisarão investir não só em tecnologia, mas em cultura e capacitação interna. Um estudo citado durante a conferência alerta que até 15% da força de trabalho global precisará se reposicionar até 2030 por causa da automação. Adaptabilidade será um diferencial competitivo.


Conclusão: IA poderosa não basta. IA confiável é o futuro.

A HumanX Las Vegas foi mais que uma vitrine tecnológica: foi um chamado para repensarmos os alicerces da inteligência artificial. Confiança, equidade, governança e conexão humana foram as palavras de ordem. Como resumiu Stefan Weitz:“A questão não é apenas o que a IA pode fazer. É se podemos confiar no que ela faz.”

E talvez essa seja a lição mais importante: não basta criar IA poderosa. É preciso construir IA confiável — que beneficie a todos com responsabilidade e humanidade no centro.

 
 
 

Comments


bottom of page