09 Junho 2022
Il Memming Park
A decifrar conversas neurais.
09 Junho 2022
A decifrar conversas neurais.
Graças a avanços tecnológicos, que permitem o registo da atividade de centenas de neurónios simultaneamente e em tempo real, é agora possível recolher quantidades de dados capazes de deixar um neurocientista “com água na boca”. Mas qual é a utilidade de ter acesso a esta imensidão de dados neurais se depois não os conseguirmos entender?
Il Memming Park, jovem professor da Stony Brook University, que em breve se juntará ao Champalimaud Research como investigador principal, está pronto para enfrentar este desafio. Ao contrário da maioria dos neurocientistas, não se dedica a uma determinada área do cérebro ou a estudar um comportamento. Em vez disso, salta de uma pergunta científica para outra e, pelo caminho, cria novas ferramentas matemáticas.
Nesta entrevista, Park fala entusiasticamente sobre o seu percurso e até revela algumas das suas armas secretas.
Basicamente, a minha maior influência para me tornar cientista foi o meu pai. Ele é Físico, dedicado à Física do Estado Sólido, e está sempre a fazer perguntas que começam com “porquê…?”. Acho que todas as crianças fazem o mesmo mas, no meu caso, ele tinha sempre uma resposta científica pronta para os meus porquês. Até aos meus 25 anos, as nossas conversas eram sempre sobre ciência.
Enquanto criança mudei várias vezes o local onde morava mas a minha educação acabou por ser toda em escolas públicas na Coreia. Quando tinha cerca de sete anos comecei a programar. Na época, a forma como se aprendia a programar era lendo livros cujas páginas estavam repletas de linhas de código. Eu não sabia o significado daquelas linhas, limitava-me a digitá-las e a fazer correr o código. E então pensava… “O que acontecerá se eu mudar isto aqui ou ali?” Como é fácil de imaginar, aprender a programar assim é um processo muito longo, mas ainda assim eu divertia-me.
A fase de programação mais criativa começou mais tarde, quando eu estava no segundo ciclo. Naquela época, fiz o meu primeiro programa do tipo IA, uma versão de um software para psicologia chamado ELIZA. Trata-se de um sistema de resposta combinada que reage a diferentes palavras-chave com perguntas como "Disse sentir-se triste, qual o motivo?”, ou seja, é inteligente o suficiente para fingir ser um terapeuta humano.
Na verdade, foi alguns anos mais tarde que me deparei com um livro sobre redes neurais artificiais. Foi então que percebi que as máquinas podem reconhecer diferentes dígitos usando estruturas de rede neural. Foi fascinante. Metade do livro era apenas código; Escrevi-o e construí um perceptron multicamada.
É o primeiro algoritmo de aprendizagem alguma vez criado a partir de estruturas semelhantes às neurais. Na verdade, todo o campo da aprendizagem automática (machine learning) emergiu da neurociência. Os cientistas da época pensaram: "Ah, os neurónios comportam-se como chaves binárias que ligam e desligam dependendo do input, tal como uma porta lógica. Podemos usar esta estrutura para programação, para criar sistemas que aprendem".
Quando foi criado o primeiro perceptrão, nos anos 60, acreditava-se que tínhamos “descoberto como o cérebro funciona!”. Mas entretanto passamos pelo "inverno da IA", um período no qual não houve progresso. Mais tarde, percebeu-se que era possível criar perceptrões multicamadas, empilhando perceptrões individuais, o que eventualmente possibilitou o avanço deste campo.
Isto é apenas um pouco da história. Mas os perceptrões multicamadas são, ainda hoje, os blocos de construção fundamentais do deep learning, e funcionam basicamente como um conjunto de camadas interligadas e camadas de unidades artificiais semelhantes a neurónios.
Entretanto, li outro livro que me influenciou muito chamado The Emperor's New Mind. É um livro de ciência popular do autor Roger Penrose, vencedor do Prémio Nobel da Física em 2020. Neste livro, ele estabeleceu um limite lógico, dizendo que há um limite definido para o que os computadores conseguem fazer. E eu pensei: "Isto não pode ser verdade. Temos que quebrar este limite matemático. Como é que os computadores não conseguem fazer mais do que isto?" Eu estava muito interessado em entender essa questão em particular, e então dediquei os anos seguintes a estudar Lógica e Teoria da Computação.
Acontece que este acabou por se revelar um esforço inútil em termos de compreensão do cérebro. Tudo o que eu disse até agora revela apenas a motivação para este trabalho de enigmas que comecei mais tarde. Felizmente, eu ainda era muito jovem e ainda a tempo de mudar de área. Foi assim que acabei por deixar a ciência da computação e dediquei-me à neurociência.
O meu supervisor de doutoramento foi o Dr. José Príncipe, líder do laboratório de Neuroengenharia Computacional na Universidade da Flórida. É um cientista português profundamente empenhado na compreensão do processamento de informação e sistemas de aprendizagem automática. Curiosamente, foi através dele que tive conhecimento da Fundação Champalimaud quando ainda era um estudante no seu laboratório.
A ciência da computação é baseada em coisas binárias - 0's e 1's. E por isso não é possível lidar com fluxos contínuos de informação. No entanto, os engenheiros elétricos trabalham com esta poderosa ferramenta chamada processamento de sinal, que usam para estudar sinais contínuos, como o som, as ondas de rádio ou de vídeo... na realidade qualquer coisa que mude ao longo do tempo.
É uma ótima ferramenta, mas foi difícil aplicá-la à neurociência porque os neurónios funcionam com “tudo-ou-nada”, o que significa que os “comboios de picos neurais” são compostos de eventos discretos. Parte do meu doutoramento foi dedicada à construção de um conjunto de ferramentas matemáticas capazes de processar os sinais destes “comboios”.
Entretanto também comecei a trabalhar com sistemas neurais reais. Até então, eu apenas conceptualizava como o cérebro funciona puramente baseado em teoria e esse… não é o caminho certo a seguir. Os sinais neurais reais não são nada parecidos com os sinais elétricos dos computadores modernos. São super variáveis, extremamente não lineares e muito difíceis de compreender. Levei algum tempo para entender o que estava a acontecer, quais eram os sinais e por que havia tanto “barulho”.
Desde então, tudo o que faço começa a partir de dados neurais. Eu colaboro regularmente com experimentalistas e trabalhei em muitos tipos diferentes de dados e, no processo, desenvolvi muitos métodos matemáticos e estatísticos diferentes.
Nem por isso. No meu pós-doutoramento, juntei-me a Jonathan Pillow, que nessa época estava na Universidade do Texas em Austin (entretanto mudou-se para Princeton). Ele estava mesmo a começar o seu laboratório com alguns alunos, e eu entrei como o seu primeiro pós-doutorado. Fui atraído para o seu trabalho pela mão do meu orientador de doutoramento, que partilhou comigo artigos científicos que eram impressionantes; eu gostava realmente daqueles artigos.
Foi lá que fui apresentado ao novo mundo do Machine Learning Bayesiano. Parece complicado, mas o princípio é simples: é preciso, antes de começarmos a análise, definir explicitamente as nossas suposições. Quando tiramos conclusões a partir de um conjunto de dados, temos sempre que nos basear em certas suposições, mas estas podem não ser explícitas ou não terem sido escritas à partida. O que nem sempre é o melhor cenário. Na análise Bayesiana, estas são sempre explicitamente escritas como uma distribuição de probabilidades. De seguida, combinamos as nossas suposições com os dados e é assim que chegamos a uma conclusão. Isto permite extrair a estrutura biológica que pode ter gerado aqueles dados. Desenvolvemos muitas técnicas de Machine Learning Bayesiano para analisar dados neurais.
Claro! Quando cheguei a Stony Brook em 2015, como investigador principal júnior, fiquei muito confuso. Ninguém nos ensina como ser professor... Eu interesso-me por muitas coisas e senti que tinha de concentrar-me em apenas algumas das questões que gostaria de responder. Durante a minha formação pós-doutoral, trabalhei principalmente com modelos probabilísticos. Mas agora quero expandir os meus interesses e focar-me em questões sobre computação e dinâmica. Isto é, descrever o processo de codificação neural e como este muda ao longo do tempo. A ideia é que essa transformação temporal esteja na base de toda a computação e comportamento, bem como, quando falha, das doenças neurais. Foi neste contexto que comecei a construir um conjunto de ferramentas de machine learning que permitem extrair essas estruturas temporais.
Existem duas formas diferentes de o fazer. Por vezes temos uma ideia interessante e só depois procuramos os dados. A outra forma acontece quando trabalhamos em estreita colaboração com um colega, e surgem determinadas questões específicas que podem precisar de novos métodos. No final do processo, alcançamos inovação em termos de algoritmos, computação e estatísticas, que depois partilhamos com o mundo para que todos possam beneficiar dela.
Estatisticamente falando, precisamos de modelos que possam ser ajustados à dimensionalidade dos dados. Isto por si só é um grande problema. Alguns conjuntos de dados têm informação sobre centenas de neurónios, o que quer dizer que estamos a lidar com um espaço de grande dimensão, pelo menos tão grande quanto o número de neurónios.
Felizmente, existem regularidades nos dados que podem ajudar-nos a reduzir o número de dimensões. Por exemplo, mesmo que estejamos a considerar 1.000 neurónios em simultâneo, sabemos que nem todos os neurónios funcionam independentemente. Na realidade eles estão numa rede e trabalham juntos para realizar uma computação. Se conseguirmos identificar relacionamentos próximos na atividade dos neurónios, podemos tirar partido dessas relações para estudar os dados num espaço de menor dimensão.
Muitos dos métodos que desenvolvi vão exatamente nesta direção. Extraímos a estrutura de dados neurais através de suposições inteligentes, consistentes com a biologia e com a nossa teoria sobre como o cérebro funciona.
Sim, estou muito entusiasmado com a ideia de estabelecer novas colaborações com os investigadores experimentalistas na Fundação Champalimaud. Também pretendo continuar a colaborar com grupos externos, por exemplo, com o Alex Huk na Universidade do Texas, em Austin. Pretendemos aplicar diferentes tipos de análise em dados neurais recolhidos durante a execução de tarefas de memória de trabalho. Também estou interessado no processo de tomada de decisões, por isso irei dedicar algum tempo a tentar resolver estes problemas. Mas estas são apenas algumas das muitas coisas que quero fazer.
Não quero revelar todas as minhas armas secretas! Mas posso partilhar que tenho muito interesse num método específico, que consiste na criação de um sistema de neurociência em tempo real.
Atualmente, o que acontece durante uma experiência é que os neurocientistas registam centenas, até milhares de neurónios simultaneamente. Depois, vão para casa e analisam os dados separadamente. Depois de tirarem conclusões, a experiência é repetida com ajustes e todo o processo recomeça novamente. É um loop muito longo e lento.
As ferramentas que estou a desenvolver poderão realizar este tipo de análise na hora. Isto é, um neurocientista pode estar a gravar a atividade de centenas de neurónios e, em milissegundos, eu gostaria de lhe fornecer um sinal visual que lhe indicasse: "Repara neste dado! Há uma estrutura 3D oculta na atividade neural!" Com este tipo de análise online, o experimentalista poderá ver imediatamente o que está a acontecer e até ajustar a experiência em tempo real, permitindo-lhe testar como diferentes manipulações influenciam a relação entre os neurónios.
Acredito que os sistemas de neurociência em tempo real são críticos para a realização de novos tipos de experiências e para acelerar o progresso científico. E têm também aplicações clínicas. O feedback online já se encontra disponível para estimulação cerebral, por exemplo, para interromper crises epilépticas. No entanto, os dispositivos atuais não são muito inteligentes. Estamos por isso a construir algoritmos de análise de última geração que poderão fazer este tipo de análise de forma rápida e eficiente.