novembro 21, 2024

Blog do Prof. H

Adaptando conhecimento útil às necessidades da humanidade

Seu cérebro tem mais memória do que a internet!

Complexidade assombrosa!
             Complexidade assombrosa!

Aquele que disse que o cérebro humano é a porção de matéria mais altamente organizada do universo estava mais correto do que imaginava. Uma nova pesquisa modelou minúsculas estruturas de células nervosas e descobriu uma tática esperta que os cérebros utilizam para aumentar seu poder de computação, ao mesmo tempo em que maximizam a eficiência energética. Seu design poderia formar a base de toda uma nova e melhorada classe de computadores. Neurobiólogos do Salk Institute of La Jolla, Califórnia, e da University of Texas, Austin, desenvolveram modelos computacionais 3D que simulam seções minúsculas de hipocampos de ratos – região do cérebro de mamíferos em que os neurônios constantemente processam e armazenam recordações. Um dos modelos, publicado no jornal de biologia eLife, ajudou a revelar que as dimensões das sinapses mudam em questão de minutos.[1]

Sinapses ocorrem em junções de células nervosas, como “duas pessoas de mãos dadas”. Cada célula pode ter milhares de “mãos” em contato, tanto quanto vizinhos que formam uma rede 3D com bilhões de conexões e vias. Cada junção transfere informação entre células através de minúsculas substâncias químicas, chamadas neurotransmissores.

Imagens inovadoras publicadas em 2011 revelaram muitas outras dessas conexões de tipo nervo-a-nervo nunca antes imaginadas, incitando comparações entre o cérebro humano e o número de interruptores em todos os computadores e conexões à internet da Terra.[2] Os tamanhos desses pontos de conexão, chamados sinapses, comutam com o uso ou desuso – processo este chamado plasticidade sináptica. Sinapses se intensificam quando ocorre um aprendizado ou atenuam quando não utilizadas.

Como os cérebros fazem isso? Eles não armazenam e transmitem informação com os simples 0 e 1 dos códigos computacionais, mas com graus de intensidade de sinapses. Em outras palavras, eles não transferem informação com um único impulso por vez, mas reconhecem 26 níveis diferentes de intensidade sináptica. Os autores da nova pesquisa observaram possíveis vantagens nessa complicada variabilidade molecular. Eles escreveram que sinapses “podem refletir uma estratégia amostral concebida [designed] para a eficiência energética”.[1] Células nervosas usam o tamanho e a estabilidade de cada sinapse para processar e registrar informações como fazem as memórias [de computador].

Noutra pesquisa, publicada na Nature Communications, foi descoberto que a comunicação bioquímica dentro de cada sinapse faz o monitoramento e os ajustes constantes da plasticidade sináptica.[3] Esse “mecanismo habilitador de plasticidade” inclui loops defeedback positivo e um mecanismo de segurança para prevenção da morte da célula, conforme o sumário de uma pesquisa publicada na Nature por Christine Gee e Thomas Oertner, do Center of Molecular Neurobiology Hamburg.[4]

Terry Sejnowski, autor co-senior do estudo publicado pela eLife, reportou ao Salk Institute:

“Descobrimos a chave para desvendar o princípio construtivo [design principle] de como os neurônios hipocampais funcionam com baixo consumo de energia, porém com alta potência computacional. Nossas novas medições de capacidade da memória cerebral aumentam estimativas conservadoras por um fator de 10, para, pelo menos, um petabyte, no mesmo patamar da World Wide Web.”[5]

O que é um petabyte? 8.000.000.000.000.000 de bits de informação. Os níveis alucinantes de organização e protocolos regulatórios necessários das sinapses refutam todas as noções de que cérebros possam ter evoluído de simples células através de meros processos naturais. As estratégias, os algoritmos e princípios construtivos empregados pelo cérebro poderiam somente ter surgido por obra de um Arquiteto transcendental, cujo conhecimento a humanidade só pode sonhar em copiar.

Referências:

[1] Bartol Jr., T. M. et al. 2015. “Nanoconnectomic upper bound on the variability of synaptic plasticity.” eLife. 10.7554/eLife.10778.

[2] Thomas, B. “Brain’s Complexity ‘Is Beyond Anything Imagined’” (http://www.icr.org/article/5877/293/). Creation Science Update. Posted on icr.org January 17, 2011, accessed January 20, 2016.

[3] Tigaret, C. M. et al. 2016. “Coordinated activation of distinct Ca2+ sources and metabotropic glutamate receptors encodes Hebbian synaptic plasticity.” Nature Communications. 7: 10289.

[4] Gee, C. E. and T. G. Oertner, 2016. “Pull out the stops for plasticity.” Nature. 529 (7585): 164-165.

[5] “Memory capacity of brain is 10 times more than previously thought” (http://www.salk.edu/news-release/memory-capacity-of-brain-is-10-times-more-than-previously-thought/). Salk News. Posted on salk.edu January 20, 2016, accessed January 20, 2016.

[6] “The new work also answers a longstanding question as to how the brain is so energy efficient and could help engineers build computers that are incredibly powerful but also conserve energy” (Salk News).

Nota do blog Engenharia Filosófica: “Passou da hora de biólogos evolucionistas (os sensatos não precisam) terem aulas de sistemas digitais e microprocessadores em turmas de engenharia, ciência da computação e tecnologia da informação. Quem sabe, então, a teoria da evolução seja finalmente enterrada. Até lá, estudos como esse apenas servem para apoiar vídeos como este.”

Fonte: Traduzido e adaptado de Brian Thomas, ICR.

   Send article as PDF   

Deixe uma resposta