O big data e o cérebro
O estudo da função cerebral e da integração de suas células necessita de uma mudança na maneira de pensar por parte dos cientistas
Você sabe o que é um petabyte? Ou o que isto pode ter a ver com a pesquisa sobre o cérebro? Estamos acostumados a pensar em megabytes e, mais recentemente, terabytes em nossos computadores. O petabyte corresponde a 1000 terabytes, do mesmo modo que um terabyte corresponde a 1000 megabytes, etc.
A pesquisa sobre o funcionamento cerebral encontra-se hoje em uma encruzilhada. Conseguimos elucidar uma grande parte dos mecanismos que podemos estudar macroscopicamente, ou seja, aquilo que podemos enxergar a olho nu ou usando microscópios ou aparatos de imagem, como a ressonância magnética. Mas o estudo da função cerebral e da integração de suas células necessita de uma mudança na maneira de pensar por parte dos cientistas.
É bastante óbvio que os métodos que hoje utilizamos não serão suficientes. Necessitaremos de enormes quantidades de informação (petabytes, não terabytes) e também de uma mudança no comportamento dos pesquisadores. Para reunirmos tal quantidade de informações, os pesquisadores precisarão realmente trabalhar em cooperação. Este tipo de cooperação não era habitual entre os centros de pesquisa, que sempre relutaram em compartilhar abertamente seus dados e mecanismos de análise. Mas as novas gerações de pesquisadores, mais acostumados a coisas com mídia social, parecem mais abertas a isto.
Processamento de dados cerebral
Recentemente, pesquisadores de Taiwan mapearam sessenta mil neurônios da mosca da fruta; metade dos cerca de 120.000 neurônios que este insetos possuem. A análise de cada neurônio absorveu um gigabyte, portanto 60 petabytes de dados! Precisaríamos empilhar milhares de computadores para estudar um inseto. Lembremos que um cérebro humano possui cerca de 85 bilhões de neurônios (em comparação com os 120.000 da mosca).
Felizmente, hoje temos iniciativas como o Centro de Coordenação de Neuroinformática – International Neuroinformatics Coordinating Facility (INCF) – e o Centro de Distribuição de Métodos Informatizados em Neuroimagem – Neuroimaging Informatics Tools and Resources Clearinghouse (NITRC) -, que começam a gerar um ambiente adequado para gerar “big data”.
Para ter-se uma ideia, o desafio é milhares de vezes mais complexo do que ler o genoma humano. Hoje, ler o genoma humano é somente tempo de computação. Para que isto aconteça com o funcionamento cerebral, precisaremos de uma capacidade de processamento de dados que ainda não dispomos. Mas pela velocidade da ciência de computação, talvez não precisemos esperar muito.
Quem faz Letra de Médico
Adilson Costa, dermatologista
Adriana Vilarinho, dermatologista
Ana Claudia Arantes, geriatra
Antonio Carlos do Nascimento, endocrinologista
Antônio Frasson, mastologista
Artur Timerman, infectologista
Arthur Cukiert, neurologista
Ben-Hur Ferraz Neto, cirurgião
Bernardo Garicochea, oncologista
Claudia Cozer Kalil, endocrinologista
Claudio Lottenberg, oftalmologista
Daniel Magnoni, nutrólogo
David Uip, infectologista
Edson Borges, especialista em reprodução assistida
Fernando Maluf, oncologista
Freddy Eliaschewitz, endocrinologista
Jardis Volpi, dermatologista
José Alexandre Crippa, psiquiatra
Ludhmila Hajjar, intensivista
Luiz Rohde, psiquiatra
Luiz Kowalski, oncologista
Marcus Vinicius Bolivar Malachias, cardiologista
Marianne Pinotti, ginecologista
Mauro Fisberg, pediatra
Miguel Srougi, urologista
Paulo Hoff, oncologista
Paulo Zogaib, medico do esporte
Raul Cutait, cirurgião
Roberto Kalil, cardiologista
Ronaldo Laranjeira, psiquiatra
Salmo Raskin, geneticista
Sergio Podgaec, ginecologista
Sergio Simon, oncologista