Com uma carreira marcada pela dedicação à Estatística, Helio dos Santos Migon construiu uma trajetória de destaque no Brasil e no exterior. Graduado pela Escola Nacional de Ciências Estatísticas, mestre pela USP e doutor pela University of Warwick (UK), é atualmente professor emérito da UFRJ, pesquisador visitante do IPRJ/UERJ com bolsa de Pesquisador Visitante Emérito da Faperj. E, também, bolsista sênior de produtividade em pesquisa do CNPq. Ao longo de mais de cinco décadas, publicou em algumas das principais revistas científicas internacionais da área, como Journal of the American Statistical Association e Biometrika, além de ser autor de obras de referência em Estatística, como Statistical Inference: an Integrated Approach.
Sua atuação vai além da pesquisa: foi presidente da Associação Brasileira de Estatística (ABE), coordenou programas de pós-graduação, integrou comitês do CNPq e da CAPES e orientou gerações de novos pesquisadores. Especialista em Inferência Bayesiana, Modelos Dinâmicos e aplicações em finanças e atuária, segue ativo como um dos coordenadores do Laboratório de Sistemas Estocásticos (LSE/UFRJ-COPPE), mantendo um papel relevante no desenvolvimento científico e acadêmico do país.
Nesta entrevista concedida à Murabei, ele compartilha trajetória, desafios, conquistas e reflexões sobre o futuro da Estatística.
“Arrisco dizer que a Estatística é a espinha dorsal das Ciências de Dados.”
Murabei — Ao longo da sua trajetória, o que mais te motivou a continuar contribuindo com a Estatística, mesmo após se tornar professor emérito?
Helio Migon — Durante minha carreira, concentrei esforços na pesquisa, no ensino e na orientação de dissertações e teses. Vale destacar que muitos de meus alunos são hoje pesquisadores renomados nacional e internacionalmente. Meus artigos eram, em sua maioria, de natureza metodológica utilizando análises de dados apenas para ilustrar os modelos propostos. Embora, nesse período, eu tenha realizado algumas consultorias, elas tinham como principal objetivo a difusão de metodologias. Após me tornar professor emérito, senti o desejo de me aproximar mais do mercado, do chamado “mundo real”. Não tenho dúvidas de que a interação entre universidade e empresa é benéfica para ambos os lados — um intercâmbio que enriquece tanto a prática quanto a teoria.
O que te motivou a escolher a Estatística como carreira ainda nos anos 70, e o que te fez continuar na área até hoje?
Minha trajetória começou com um curso técnico em Estatística, seguindo a orientação de que ali teria contato com noções introdutórias de Economia e uma base sólida em Matemática — dois temas que já despertavam meu interesse. Naquela época — início dos anos 60 (pasmem!) — era bastante comum ver colegas optarem por cursos técnicos, especialmente em São Paulo, onde concluí o Ginásio.
O Brasil vivia um momento cultural e econômico vibrante: efervescência nas artes, conquistas esportivas e crescimento industrial. O clima era de entusiasmo e de possibilidades. Talvez tenha sido esse cenário promissor que impulsionou tantos jovens, como eu, a buscar uma formação técnica como porta de entrada para o futuro.
A Escola Nacional de Ciências Estatísticas – ENCE – oferecia tanto o curso técnico quanto o bacharelado, funcionando em um único andar de um prédio no centro do Rio de Janeiro. Apesar do espaço físico modesto, o ambiente era intelectualmente vibrante. As turmas eram pequenas, o que criava uma atmosfera próxima e acolhedora — quase familiar. Muitos dos professores eram profissionais altamente respeitados em suas áreas, o que tornava o aprendizado ainda mais instigante.
Os conteúdos exigiam dedicação e disciplina, e não era incomum que poucos chegassem ao final do curso. Ainda assim, para mim, a transição do curso técnico para a graduação em Estatística foi um caminho natural. Mais do que um simples interesse pela área, essa mudança foi impulsionada pelo encantamento com aquele ambiente de aprendizado tão estimulante.
Como foi ver a Estatística se transformar tanto ao longo das décadas, desde os métodos clássicos até a era da inteligência artificial? O que mais te surpreendeu nessa mudança?
A história da Estatística é relativamente recente. Muitos dos avanços da estatística moderna ocorreram ao longo do século passado: a fundamentação probabilística, os métodos inferenciais, a teoria da decisão, a inferência Bayesiana, e, mais recentemente, a otimização Bayesiana, entre outros. Com o avanço da computação, as aplicações passaram a dar um caráter cada vez mais prático às chamadas “ciências estatísticas”.
Minha trajetória profissional, portanto, caminha lado a lado com essa evolução da Estatística. Compartilho aqui, sob uma ótica bastante pessoal, alguns momentos marcantes desse percurso.
Nos anos 60, chamavam minha atenção os trabalhos de análise exploratória de dados (EDA) de John Tukey, que lidavam com os chamados small data sets. Tive contato com os “bebês” da computação: os IBM 1130, com meros 32K de memória. Utilizávamos o então moderno “sistema de cafeteria”: entregávamos os decks de cartões perfurados (feitos na IBM 029) e, após uma caminhada até a saída, recebíamos a listagem impressa. Com frequência, porém, ela vinha com erros — e corrigir esses “bugs” levava tempo e paciência.
Os métodos não paramétricos, que utilizei em minha dissertação de mestrado, também pertencem a esse período. Os dados simulados com que trabalhei vinham de amostras pequenas; era fundamental usar métodos robustos, capazes de resistir à presença de valores espúrios.
Apenas como curiosidade: minha dissertação levou mais de nove meses para ser elaborada. Com as facilidades computacionais de hoje, arrisco dizer que um bom aluno poderia produzi-la em algumas tardes.
Ainda durante o mestrado, tive meu primeiro contato com os fundamentos da inferência Bayesiana. Naquela época, tive acesso a duas obras fundamentais: Bayesian Inference in Statistical Analysis, de George Box e George Tiao (1973), e An Introduction to Bayesian Inference in Econometrics, de Arnold Zellner (1971) — verdadeiras bíblias para quem se interessava por métodos Bayesianos e aprendizado sequencial, mas difíceis de acompanhar com meus conhecimentos da época.
Após o mestrado, passei a integrar um grupo de excelência na área. Desenvolvemos aplicações de análise exploratória de dados (EDA) para a detecção de fraudes em grandes sistemas tributários. Também definimos amostras ótimas para representar a população de contribuintes de determinado imposto (big data), com o objetivo de simular os impactos de alterações quantitativas e estruturais na legislação vigente. Outros exemplos dessa fase incluem análises multivariadas aplicadas à dados da estrutura agrária brasileira e o desenvolvimento de um modelo econométrico voltado à avaliação da viabilidade de um estoque regulador de preços para um mercado de commodities.
Nos anos 80, tive a oportunidade de interagir com cientistas de alta competência e grande espírito colaborativo, todos comprometidos com o avanço da inferência Bayesiana. Foi nesse contexto que surgiram os Modelos Dinâmicos Bayesianos Generalizados — ou, de forma mais acessível, regressões generalizadas com parâmetros variando ao longo do tempo ou no espaço.
Embora ainda não sejam amplamente mencionados como técnicas centrais dentro do mundo de machine learning, esses modelos são altamente eficazes em tarefas de predição, controle de sistemas e classificação — tanto supervisionada quanto não supervisionada. Sua base probabilística torna-os particularmente robustos para problemas com dados escassos, ruidosos ou sujeitos a mudanças estruturais ao longo do tempo ou espaço.
Permito-me citar, de forma bem-humorada, uma observação atribuída a Clive W.J. Granger (1986), que ilustra o valor prático da abordagem Bayesiana:
“Em termos de capacidade de previsão, um bom bayesiano superará um não-bayesiano, que se sairá melhor do que um bayesiano ruim” — Granger, C. W, J, (1986). Developments in the study of cointegrated economic variables. Oxford Bulletin of Economics and Statistics, 48(3), 213 – 228.
Essa citação destaca, com certa ironia, que o sucesso na modelagem não depende apenas da escolha entre abordagens alternativas da inferência, mas da qualidade com que essas metodologias são aplicadas.
Qual é sua visão do potencial da Inferência Bayesiana para aplicações práticas e por que seu uso ainda é limitado?
De fato, o uso da Estatística está longe de ser limitado — ao contrário, nunca foi tão presente — ainda que muitas vezes sob novos nomes, como Data Science, Big Data ou Machine Learning. No fundo, a base continua sendo estatística — e, em especial, Bayesiana.
Essa abordagem moderna, baseada em algoritmos, não elimina os fundamentos; apenas os reposiciona. Basta observar livros recentes de Machine Learning, como Probabilistic Machine Learning, de Kevin Murphy, ou Pattern Recognition and Machine Learning, de Christopher Bishop: mais da metade dos capítulos é dedicada a tópicos de probabilidade e estatística. É a Estatística que sustenta, interpreta e dá coerência aos algoritmos modernos.
Arrisco dizer que a Estatística é a espinha dorsal das ciências de dados. Quem domina seus fundamentos tem vantagem no uso de modelos, na interpretação de resultados, evita armadilhas conceituais e é capaz de tomar decisões baseadas em evidências. A sofisticação computacional veio para amplificar — não para substituir — a inteligência estatística.
A Murabei atua em projetos que conectam Inteligência Artificial e Estatística aplicada. Como o senhor vê o papel de empresas como a Murabei na fronteira entre academia e mercado?
Minha experiência com a Murabei tem sido positiva e intelectualmente estimulante. Embora ainda em processo de familiarização com o setor de empresas dedicadas à Ciência de Dados, observo que a Murabei se diferencia por sua forte articulação com o meio acadêmico — um ativo estratégico com elevado potencial de geração de valor e inovação.
As parcerias com universidades não apenas ampliam a capacidade técnica da empresa, como também promovem transferência de conhecimento em ambas as direções. Tal integração, no entanto, ainda é rara no sistema empresarial brasileiro. A baixa adesão ao financiamento de projetos conjuntos com instituições de pesquisa parece estar associada à escassez de profissionais com formação acadêmica avançada e experiência aplicada, capazes de formular problemas relevantes e operacionalizar colaborações tecnocientíficas eficazes entre os setores público e privado.
A Murabei mantém uma forte conexão com a universidade e com a pesquisa científica. Na sua visão, por que é importante que empresas de tecnologia e inovação estejam tão próximas do meio acadêmico?
Ao longo da minha trajetória profissional, constatei que os maiores avanços metodológicos emergem da necessidade de resolver problemas reais. Nesse contexto, a aproximação entre o setor empresarial e o meio acadêmico não é apenas desejável — é estratégica e mutuamente vantajosa.
No ambiente corporativo, caracterizado por prazos curtos e demandas operacionais intensas, há pouco espaço para que os profissionais se dediquem ao desenvolvimento ou à experimentação de novas abordagens metodológicas. Soma-se a isso o fato de que a permanência de técnicos e especialistas em funções técnicas tende a ser relativamente breve. Em geral, esses profissionais evoluem rapidamente para cargos gerenciais, o que reduz a continuidade e o aprofundamento técnico nas organizações.
Como consequência, torna-se comum a adoção de modelos preexistentes e amplamente validados, muitas vezes sem a devida contextualização. Essa prática, embora funcional, pode comprometer a qualidade da tomada de decisão e resultar em soluções sub-ótimas frente à complexidade dos desafios enfrentados.
Para o senhor, que acompanhou a evolução da Estatística no Brasil, o que torna a Murabei um exemplo interessante de como essa área pode se reinventar no século XXI?
Um dos principais diferenciais da Murabei está na valorização da abordagem Bayesiana — cada vez mais reconhecida como essencial no contexto contemporâneo da estatística e ciência de dados aplicadas.
O argumento Bayesiano permite integrar conhecimento prévio (inclusive subjetivo ou pessoal), por meio de processos formais de elicitação, com dados observacionais ou experimentais. Essa abordagem reflete com precisão a lógica do processo decisório nas organizações: decisões precisam ser tomadas mesmo diante de incerteza, com base em informações parciais, e devem ser continuamente ajustadas à luz de novos dados.
Mais do que uma técnica estatística, a Estatística Bayesiana é pensada como um modelo generativo de conhecimento — capaz de aprender, evoluir e adaptar-se a contextos diversos. Essa visão reforça nosso compromisso com soluções estatísticas robustas, interpretáveis e alinhadas com os desafios reais enfrentados por empresas e instituições.
Qual deve ser, na sua visão, o próximo grande debate que a comunidade estatística e científica precisa enfrentar diante das transformações que estão por vir? Qual o papel da estatística?
Refletir sobre os rumos da Estatística exige cautela, pois o campo encontra-se em rápida transformação. Ainda assim, considero fundamental que profissionais e estudantes se debrucem sobre debates estruturantes da disciplina. Destaco, nesse sentido, o ensaio de Breiman (2001), Statistical Modeling: The Two Cultures (Statistical Science, 16(3), 199–231), no qual o autor contrapõe duas tradições estatísticas — a modelagem estocástica clássica, orientada por pressupostos e inferência, a minha preferida, e a abordagem algorítmica, associada ao aprendizado de máquina. Também é pertinente a reflexão proposta por Efron (2020) em The Future of Statistics: The Statistician’s Job in the Era of Big Data (Journal of the American Statistical Association, 115(530), 1–7), onde discute o papel do estatístico frente à crescente disponibilidade de dados massivos, ressaltando a importância da integração entre fundamentos estatísticos e ferramentas computacionais.
Esses textos fornecem uma base sólida para compreender os desafios e oportunidades que caracterizam a chamada “nova era da Estatística”, marcada por avanços computacionais, expansão interdisciplinar e crescente demanda por soluções interpretáveis e robustas.
Com a crescente automação dos processos analíticos e o uso cada vez mais massivo de algoritmos, qual o papel que o senhor acredita que a intuição e o julgamento humano ainda terão nas decisões orientadas por dados?
A conhecida máxima “garbage in, garbage out” continua extremamente válida, especialmente no contexto da modelagem algorítmica. Etapas como a coleta, a limpeza e a estruturação dos dados são cruciais para garantir resultados confiáveis e relevantes. Essas atividades, por si só, já representam um componente essencial da ciência de dados, ainda que muitas vezes se confundam com ela como um todo.
Entretanto, dados — experimentais ou observacionais — são essenciais para testar hipóteses científicas bem formuladas. Ou seja, os dados não falam por si: exigem um referencial teórico.
Daí a cautela diante da crescente “algoritmização” de problemas. Por exemplo, métodos numéricos estocásticos sofisticados são, por vezes, aplicados em contextos onde abordagens analíticas mais simples e transparentes seriam suficientes — e até preferíveis. Tal tendência possivelmente decorre do fato de que, atualmente, o custo computacional é frequentemente menor do que o custo do esforço analítico.
Diante das transformações trazidas pela ciência de dados, inteligência artificial e o avanço das tecnologias, como o senhor acredita que as universidades, especialmente os cursos de Estatística, devem se posicionar para preparar as novas gerações de profissionais? O que não pode mais faltar na formação de um estatístico do futuro?
Desde seus primórdios, a Estatística tem se caracterizado por uma notável dualidade: por um lado, fundamenta-se em uma base teórica sólida; por outro, é essencialmente aplicada, encontrando espaço em praticamente todas as áreas do conhecimento, dada sua capacidade de lidar com incerteza e apoiar a tomada de decisão em busca de validar hipóteses científicas.
Com essa visão integradora, ainda durante minha graduação (pretensiosamente), propus — em conjunto com colegas — uma reforma curricular que incorporasse formações complementares em áreas específicas de aplicação, como experimentação agronômica, pesquisas sociais e economia. O objetivo era fomentar, desde a formação inicial, a capacidade de dialogar com problemas concretos oriundos de diferentes contextos científicos e sociais. Anos mais tarde, deparei-me em Warwick com uma proposta semelhante, porém mais estruturada, sintetizada na sigla MORSE (Mathematics, Operational Research, Statistics, and Economics), que expressa de forma clara a integração entre fundamentos e aplicações.
Entendo que uma formação sólida em matemática e computação é indispensável para que os futuros estatísticos (se quiser Cientistas de Dados) possam acompanhar a rápida evolução das ciências e das tecnologias ao longo de suas carreiras. No entanto, ainda não me parece trivial definir o equilíbrio adequado entre a ênfase nos fundamentos teóricos e a capacitação prática em ferramentas computacionais. Trata-se de uma questão pedagógica e epistemológica central para o desenho curricular dos cursos de Estatística e Ciência de Dados.
Outro aspecto igualmente relevante refere-se à necessidade de inserir os estudantes, desde os estágios iniciais da formação, em projetos concretos e interdisciplinares. A experiência mostra que o diálogo entre estatísticos e pesquisadores de áreas aplicadas é frequentemente difícil, em razão de diferenças conceituais, linguagens distintas e, por vezes, expectativas divergentes quanto ao papel da Estatística nos processos de investigação. Superar essa barreira exige não apenas domínio técnico, mas também competências comunicacionais e uma postura colaborativa, que podem e devem ser desenvolvidas ao longo da formação.
Diante desses desafios, parece imprescindível repensar os currículos e metodologias de ensino, de forma a preparar profissionais capazes de transitar entre teoria e prática, entre o rigor formal e a complexidade dos problemas reais. A formação do estatístico, nesse sentido, não pode se limitar à excelência técnica: ela deve incluir também a capacidade de dialogar, adaptar-se e inovar.
A trajetória de Helio dos Santos Migon mostra como a dedicação à ciência, ao ensino e à formação de novos pesquisadores pode transformar não apenas uma área de conhecimento, mas também a forma como ela impacta a sociedade. Com contribuições relevantes na Estatística no Brasil e no cenário internacional, ele segue inspirando gerações ao unir excelência acadêmica e compromisso com a pesquisa aplicada.
Para a Murabei, foi uma honra registrar essa conversa e compartilhar reflexões tão valiosas sobre ciência, inovação e futuro.