Por mais que tentem, cientistas do cérebro e psicólogos cognitivos nunca encontrarão uma cópia da 5ª Sinfonia de Beethoven no cérebro – ou cópias de palavras, imagens, regras gramaticais ou qualquer outro tipo de estímulos ambientais. O cérebro humano não está realmente vazio, é claro. Mas não contém a maioria das coisas que as pessoas pensam – nem mesmo coisas simples, como “memórias”.
Nossa má ideia sobre o cérebro tem profundas raízes históricas, mas a invenção dos computadores na década de 1940 nos deixou especialmente confusos. Há mais de meio século, psicólogos, linguistas, neurocientistas e outros especialistas em comportamento humano, têm afirmado que o cérebro humano funciona como um computador.
Para ver quão vazia é essa ideia, considere os cérebros dos bebês. Graças à evolução, os recém nascidos humanos, como os recém-nascidos de todas as outras espécies de mamíferos, entram no mundo preparado para interagir efetivamente. A visão de um bebê está embaçada, mas presta atenção especial aos rostos e é rapidamente capaz de identificar a mãe. Ele prefere o som de vozes para sons não-discográficos e pode distinguir um som de voz de outro. Estamos, sem dúvida, construídos para fazer conexões sociais.
Um recém nascido saudável também está equipado com mais de uma dúzia de reflexos – reações pré-fabricadas a certos estímulos que são importantes para sua sobrevivência. Ele gira a cabeça na direção de algo que encosta em sua bochecha e, em seguida, sugere o que entra em sua boca. Mantém a respiração quando está submerso em água. Ele agarra as coisas colocadas em suas mãos com tanta força que quase pode suportar seu próprio peso. Talvez o mais importante seja que os recém nascidos estejam equipados com poderosos mecanismos de aprendizagem que lhes permitam mudar rapidamente para que eles possam interagir de forma cada vez mais eficaz com o mundo deles, mesmo que esse mundo seja diferente do que seus antepassados distantes enfrentaram.
Sentidos, reflexos e mecanismos de aprendizagem – é isso que começamos, e é o bastante, quando você pensa sobre isso. Se não tivéssemos nenhuma dessas capacidades ao nascer, provavelmente teríamos problemas para sobreviver.
Mas aqui estão as coisas nas quais nós não nascemos: informações, dados, regras, software, conhecimento, léxicos, representações, algoritmos, programas, modelos, memórias, imagens, processadores, sub-rotinas, codificadores, decodificadores, símbolos ou buffers – elementos de design que permitem que computadores digitais se comportem de forma um pouco inteligente. Não só nascemos com essas coisas, mas também não as desenvolvemos – nunca.
Não armazenamos palavras ou regras que nos dizem como manipulá-las. Não criamos representações de estímulos visuais, não as armazenamos em um buffer de memória de curto prazo e, em seguida, transferimos a representação para um dispositivo de memória de longo prazo. Não recuperamos informações ou imagens ou palavras de registros de memória. Os computadores fazem todas essas coisas, mas os organismos, não.
Os computadores, literalmente, processam informações – números, letras, palavras, fórmulas, imagens. As informações primeiro devem ser codificadas em um formato que os computadores podem usar, o que significa padrões de zero e zero (‘bits’) organizados em pequenos pedaços (‘bytes’). No meu computador, cada byte contém 64 bits, e um certo padrão desses bits representa a letra d , outro para a letra o e outro para a letra g . Lado do lado, esses três bytes formam a palavra dog. Uma única imagem – digamos, a fotografia do meu gato Henry na minha área de trabalho – é representada por um padrão muito específico de um milhão desses bytes (“um megabyte”), cercado por alguns caracteres especiais que contam ao computador para esperar uma imagem, nenhuma palavra.
Os computadores, literalmente, movem esses padrões de um lugar para outro em diferentes áreas de armazenamento físico gravados em componentes eletrônicos. Às vezes, eles também copiam os padrões, e às vezes eles os transformam de várias maneiras – digamos, quando corrigimos erros em um manuscrito ou quando estamos tirando uma fotografia. As regras que os computadores seguem para mover, copiar e operar nessas matrizes de dados, também são armazenadas dentro do computador. Juntos, um conjunto de regras é chamado de ‘programa’ ou ‘algoritmo’. Um grupo de algoritmos que trabalham em conjunto para nos ajudar a fazer algo (como comprar ações ou encontrar uma data on-line) é chamado de “aplicativo” – o que a maioria das pessoas agora chama de “app”.
Perdoe-me por esta introdução à informática, mas preciso ser claro: os computadores realmente operam em representações simbólicas do mundo. Eles realmente armazenam e recuperam . Eles realmente processam . Eles realmente têm memórias físicas . Eles são realmente guiados em tudo o que fazem, sem exceção, por algoritmos .
Os seres humanos, por outro lado, não – nunca fizeram, nunca o fariam. Dada essa realidade, por que tantos cientistas falam sobre nossa vida mental como se fossemos computadores?
Em seu livro, In Our Own Image (2015), o especialista em inteligência artificial, George Zarkadakis, descreve seis metáforas diferentes que as pessoas empregaram nos últimos 2.000 anos para tentar explicar a inteligência humana.
No primeiro momento, eventualmente preservados na Bíblia, os humanos foram formados a partir de argila ou sujeira, que um deus inteligente então infundiu com seu espírito. Esse espírito “explicou” nossa inteligência – gramaticalmente, pelo menos.
A invenção da engenharia hidráulica no século III aC levou à popularidade de um modelo hidráulico de inteligência humana, a idéia de que o fluxo de diferentes fluidos no corpo – os “humores” – representava tanto o nosso funcionamento físico como o mental. A metáfora hidráulica persistiu por mais de 1.600 anos, impedindo a prática médica durante todo o tempo.
Em 1500, os autômatos alimentados por molas e engrenagens tinham sido inventados, eventualmente inspirando pensadores líderes, como René Descartes, para afirmar que os humanos são máquinas complexas. Em 1600, o filósofo britânico Thomas Hobbes sugeriu que o pensamento surgisse de pequenos movimentos mecânicos no cérebro. Em 1700, descobertas sobre eletricidade e química levaram a novas teorias da inteligência humana – novamente, em grande parte de natureza metafórica. Em meados dos anos 1800, inspirado pelos recentes avanços nas comunicações, o físico alemão Hermann von Helmholtz comparou o cérebro com um telégrafo.
O matemático John von Neumann afirmou, categoricamente, que a função do sistema nervoso humano é ” prima facie digital”, traçando paralelos depois de paralelos entre os componentes de computadores da época e partes do cérebro humano
Cada metáfora refletia o pensamento mais avançado da era que gerou. Previsivelmente, apenas alguns anos após o início da tecnologia informática na década de 1940, o cérebro foi dito funcionar como um computador, com o papel do hardware físico desempenhado pelo próprio cérebro e nossos pensamentos servindo como software. O evento histórico que lançou o que agora é amplamente chamado de “ciência cognitiva” foi a publicação do Linguagem e Comunicação (Language and Communication – 1951) pelo psicólogo George Miller. Miller propôs que o mundo mental fosse estudado rigorosamente usando conceitos de teoria da informação, computação e linguística.
Este tipo de pensamento foi levado a sua expressão máxima no pequeno livro The Computer and the Brain (1958), no qual o matemático John von Neumann declarou categoricamente que a função do sistema nervoso humano é ” prima facie digital”. Embora reconhecesse que pouco se sabia sobre o papel que o cérebro desempenhava no raciocínio humano e na memória, ele desenhou paralelamente entre os componentes das máquinas de computação do dia e os componentes do cérebro humano.
Impulsionada por avanços subsequentes em tecnologia da informática e pesquisa cerebral, um ambicioso esforço multidisciplinar para entender a inteligência humana foi gradualmente desenvolvido, firmemente enraizado na ideia de que os humanos são, como os computadores, processadores de informação. Este esforço envolve milhares de pesquisadores, consome bilhões de dólares em recursos e gerou uma vasta literatura composta por artigos e livros técnicos e convencionais. O livro de Ray Kurzweil, como “Criar uma mente: O segredo do pensamento humano revelado (2013), exemplifica essa perspectiva, especulando sobre os “algoritmos” do cérebro, como o cérebro processa os dados e até mesmo como se parece aos circuitos integrados em sua estrutura.
A metáfora de processamento de informação (PI) da inteligência humana agora domina o pensamento humano, tanto na rua como nas ciências. Não há praticamente nenhuma forma de discurso sobre o comportamento humano inteligente que prossegue sem empregar essa metáfora, assim como nenhuma forma de discurso sobre o comportamento humano inteligente poderia prosseguir em certas eras e culturas sem referência a um espírito ou divindade. A validade da metáfora de PI no mundo de hoje é geralmente assumida sem dúvida.
Mas a metáfora do PI é, afinal, apenas uma outra metáfora – uma história que contamos para dar sentido a algo que na verdade não entendemos. E, como todas as metáforas que a precederam, certamente será deixada de lado em algum momento – seja substituída por outra metáfora ou, no final, substituída por conhecimento real.
Há pouco mais de um ano, em uma visita a um dos institutos de pesquisa mais prestigiados do mundo, desafiei os pesquisadores a explicar o comportamento humano inteligente sem qualquer aspecto da metáfora do PI. Eles não podiam explicar, e quando eu educadamente levantei a questão nas comunicações por e-mails subsequentes, eles ainda não tinham nada a oferecer meses depois. Eles viram o problema. Eles não descartaram o desafio como trivial. Mas eles não podiam oferecer uma alternativa. Em outras palavras, a metáfora PI é “pegajosa”. Isso acumula nosso pensamento com linguagem e idéias tão poderosas que temos dificuldade em pensar em torno delas.
A lógica defeituosa da metáfora de PI é fácil de indicar. Baseia-se em um silogismo defeituoso – um com duas premissas razoáveis e uma conclusão errada. Prática razoável # 1: todos os computadores são capazes de se comportar de forma inteligente. Prática razoável # 2: todos os computadores são processadores de informações. Conclusão errada: todas as entidades que são capazes de se comportarem de forma inteligente são processadores de informações.
Deixando de lado a linguagem formal, a ideia de que os seres humanos devem ser processadores de informações apenas porque os computadores são processadores de informações, é simplesmente ridículo, e quando, algum dia, a metáfora do PI é finalmente abandonada, quase certamente será vista dessa maneira pelos historiadores, assim como vemos as metáforas hidráulicas e mecânicas serem bobas.
Se a metáfora do PI é tão boba, por que é tão pegajoso? O que nos impede de deixa-la de lado, assim como podemos afastar um ramo que estava bloqueando nosso caminho? Existe uma maneira de entender a inteligência humana sem se apoiar em uma frágil muleta intelectual? E qual o preço que pagamos por inclinar-se tão fortemente nessa muleta particular há tanto tempo? A metáfora do PI, afinal, orientou a escrita e o pensamento de um grande número de pesquisadores em vários campos há décadas. A que custo?
Em um exercício de sala de aula que realizei muitas vezes ao longo dos anos, comecei por recrutar um aluno para desenhar uma imagem detalhada de uma nota de dólar – “o mais detalhado possível”, eu digo – no quadro negro em frente à sala. Quando o aluno terminou, eu cobri o desenho com uma folha de papel, retirei uma nota de dólar da minha carteira, coloquei-a no quadro e pedi ao aluno que repita a tarefa. Quando ele ou ela está pronto, eu retiro a capa do primeiro desenho, e começa os comentários da aula sobre as diferenças.
Porque você nunca pode ter visto uma demonstração assim, ou porque você pode ter problemas para imaginar o resultado, perguntei a Jinny Hyun, um dos estudantes internos no instituto onde eu conduzi minha pesquisa, para fazer os dois desenhos. Aqui está o desenho dela “da memória” (veja a metáfora):
E aqui está o desenho que ela fez posteriormente com um presente de dólar:
Jinny ficou tão surpreso com o resultado como você provavelmente ficou, mas é típico. Como você pode ver, o desenho feito na ausência do dólar é horrível em comparação com o desenho feito de um exemplar, apesar de Jinny ter visto um dólar milhares de vezes.
Qual é o problema? Não temos uma “representação” da nota de dólar “armazenada” em um “registro de memória” em nossos cérebros? Não podemos simplesmente “recuperá-lo” e usá-lo para fazer nosso desenho?
Obviamente, não, e mil anos de neurociência nunca encontrarão uma representação de um dólar registrado armazenado dentro do cérebro humano pela simples razão de que não está lá para ser encontrado.
A ideia de que as memórias são armazenadas em neurônios individuais é absurda: como e onde a memória é armazenada na célula?
Uma riqueza de estudos cerebrais nos diz, de fato, que as áreas múltiplas e, por vezes, grandes do cérebro, muitas vezes estão envolvidas em tarefas de memória mais mundanas. Quando emoções fortes estão envolvidas, milhões de neurônios podem se tornar mais ativos. Em um estudo de 2016 sobre os sobreviventes de um acidente de avião pelo neuropsicólogo Brian Levine, da Universidade de Toronto, e outros, lembrando que o acidente aumentou a atividade neural na “amígdala, lobo temporal medial, linha média anterior e posterior e córtex visual” dos passageiros.
A ideia, avançada por vários cientistas, de que as memórias específicas são de alguma forma armazenadas em neurônios individuais é absurda; Seja como for, essa afirmação apenas empurra o problema da memória para um nível ainda mais desafiador: como e onde, afinal, a memória é armazenada na célula?
Então, o que está ocorrendo quando Jinny desenha o dólar em sua ausência? Se Jinny nunca visse um dólar antes, seu primeiro desenho provavelmente não se assemelharia ao segundo desenho. Tendo visto notas de dólar antes, ela foi alterada de alguma forma. Especificamente, seu cérebro foi mudado de uma maneira que lhe permitiu visualizar uma nota de dólar – ou seja, re-experimentar a ver uma nota de dólar, pelo menos até certo ponto.
A diferença entre os dois diagramas nos lembra que visualizar algo (ou seja, ver algo em sua ausência) é muito menos preciso do que ver algo na sua presença. É por isso que somos muito melhores em reconhecer do que em lembrar. Quando reencontramos algo (do latim re , “novamente” e memorizar , “tenha em mente”), devemos tentar reviver uma experiência; Mas quando reconhecemos algo, devemos apenas estar conscientes do fato de termos tido essa experiência perceptiva antes.
Talvez você se oponha a esta demonstração. Jinny tinha visto contas de dólar antes, mas não havia feito um esforço deliberado para “memorizar” os detalhes. Se ela tivesse feito isso, você pode argumentar, ela provavelmente poderia ter desenhado a segunda imagem sem a nota estar presente. Mesmo neste caso, porém, nenhuma imagem do dólar já foi “armazenada” no cérebro de Jinny . Ela simplesmente se tornou melhor preparada para desenhá-lo com precisão, assim como, através da prática, um pianista se torna mais hábil em tocar um concerto sem inalar uma cópia da partitura.
Por este simples exercício, podemos começar a construir o quadro de uma teoria livre de metáforas do comportamento humano inteligente – em que o cérebro não está completamente vazio , mas está pelo menos vazio da bagagem da metáfora de PI.
Ao navegar pelo mundo, somos alterados por uma variedade de experiências. De especial atenção são as experiências de três tipos: (1) observamos o que está acontecendo ao nosso redor (outras pessoas se comportam, sons de música, instruções direcionadas para nós, palavras em páginas, imagens em telas); (2) estamos expostos ao aparecimento de estímulos sem importância (como sirenes) com estímulos importantes (como a aparência de carros policiais); (3) somos punidos ou recompensados por se comportar de determinadas maneiras.
Nós nos tornamos mais eficazes em nossas vidas se mudarmos de maneiras consistentes com essas experiências – se podemos agora recitar um poema ou cantar uma música, se pudermos seguir as instruções que nos são dadas, se respondemos aos estímulos sem importância mais do que nós fazemos para os estímulos importantes, se abstivermos de se comportar de maneiras que são punidas, se nos comportamos com mais frequência de maneiras que são recompensadas.
Apesar das manchetes enganosas, ninguém realmente tem a menor ideia de como o cérebro muda depois que aprendemos a cantar uma música ou a recitar um poema. Mas nem a música nem o poema foram “armazenados” nele. O cérebro simplesmente mudou de maneira ordenada que agora nos permite cantar a música ou recitar o poema sob certas condições. Quando chamado para executar, nem a música nem o poema são “recuperados” de qualquer lugar do cérebro, mais do que os movimentos de meus dedos são “recuperados” quando toque meu dedo na minha mesa. Nós simplesmente cantamos ou recitamos – não é necessário recuperar.
Alguns anos atrás, perguntei ao neurocientista Eric Kandel da Universidade de Columbia – vencedor de um Prêmio Nobel por identificar algumas das mudanças químicas que ocorrem nas sinapses neuronais da Aplysia (um caracol marinho) depois de aprender algo – por quanto tempo ele pensou que nos levaria a entender como a memória humana funciona. Ele respondeu rapidamente: “Cem anos”. Não pensei em perguntar-lhe se achava que a metáfora do PI estava diminuindo a neurociência, mas alguns neurocientistas estão realmente começando a pensar o impensável – que a metáfora não é indispensável.
Alguns cientistas cognitivos – notadamente Anthony Chemero da Universidade de Cincinnati, autor de Radical Incorporod Cognitive Science (2009) – rejeitam completamente a visão de que o cérebro humano funciona como um computador. A visão geral é que nós, como computadores, fazemos sentido do mundo ao realizar cálculos nas representações mentais dele, mas Chemero e outros descrevem outra maneira de entender o comportamento inteligente – como uma interação direta entre os organismos e seu mundo.
Meu exemplo favorito da diferença dramática entre a perspectiva do PI e o que alguns agora chamam de “visão anti-representacional” do funcionamento humano envolve duas maneiras diferentes de explicar como um jogador de beisebol consegue pegar uma bola “na mosca” – lindamente explicada por Michael McBeath, agora na Arizona State University, e seus colegas em um artigo de 1995 em Science . A perspectiva de PI exige que o jogador formule uma estimativa de várias condições iniciais do voo da bola – a força do impacto, o ângulo da trajetória, esse tipo de coisa – e, então, criar e analisar um modelo interno do caminho ao longo do qual a bola provavelmente se moverá, então, para usar esse modelo para orientar e ajustar os movimentos do motor de forma contínua no tempo, para interceptar a bola.
Isso é bom e bom se funcionássemos como os computadores, mas McBeath e seus colegas deram uma conta mais simples: para pegar a bola, o jogador simplesmente precisa se mover de uma maneira que mantenha a bola em constante relação visual em relação a placa de casa e a paisagem circundante (tecnicamente, em uma “trajetória óptica linear”). Isso pode parecer complicado, mas na verdade é incrivelmente simples e completamente livre de cálculos, representações e algoritmos.
Dois professores de psicologia determinados na universidade de Leeds Beckett no Reino Unido – Andrew Wilson e Sabrina Golonka – incluem o exemplo de beisebol entre muitos outros que podem ser vistos de forma simples e sensível fora do quadro de PI. Eles têm blogado há anos sobre o que eles chamam de “abordagem mais coerente e naturalizada para o estudo científico do comportamento humano … em desacordo com a abordagem dominante da neurociência cognitiva”. Isso está longe de ser um movimento; no entanto; As ciências cognitivas mainstream continuam a revirar sem crítica na metáfora da PI, e alguns dos pensadores mais influentes do mundo fizeram grandes previsões sobre o futuro da humanidade que dependem da validade da metáfora.
Uma previsão – feita pelo futurista Kurzweil, o físico Stephen Hawking e o neurocientista Randal Koene, entre outros – é que, porque a consciência humana é supostamente como um software de computador, em breve será possível baixar mentes humanas para um computador, nos circuitos do qual nos tornaremos imensamente poderosos intelectualmente e, possivelmente, imortais. Este conceito levou a trama do filme distópico Transcendence (2014), estrelado por Johnny Depp como o cientista de Kurzweil, cuja mente foi baixada para a internet – com resultados desastrosos para a humanidade.
Felizmente, porque a metáfora do PI não é mesmo um pouco válida, nunca teremos que nos preocupar com uma mente humana que se encolhe no ciberespaço; Infelizmente, nós também nunca alcançaremos a imortalidade através do download. Isto não é apenas por causa da ausência de software de consciência no cérebro; Há um problema mais profundo aqui – vamos chamá-lo de problema de singularidade – o que é inspirador e deprimente.
Não basta que os “bancos de memória” nem “representações” de estímulos existam no cérebro, e porque tudo o que é necessário para que possamos funcionar no mundo é que o cérebro mude de forma ordenada como resultado de nossas experiências, há nenhuma razão para acreditar que dois de nós são alterados da mesma maneira pela mesma experiência . Se você e eu comparecemos no mesmo show, as mudanças que ocorrem no meu cérebro quando eu ouço a 5° de Beethoven certamente serão completamente diferentes das mudanças que ocorrem em seu cérebro. Essas mudanças, seja lá o que for, são construídas sobre a estrutura neural única que já existe, cada estrutura que se desenvolve ao longo da vida de experiências únicas.
É por isso que, como Sir Frederic Bartlett demonstrou em seu livro Recordando (1932), duas pessoas não repetirão uma história que ouviram da mesma maneira e por que, ao longo do tempo, suas recitações da história divergem cada vez mais. Nenhuma “cópia” da história é feita; Em vez disso, cada indivíduo, ao ouvir a história, muda até certo ponto – o suficiente para que, quando perguntado sobre a história mais tarde (em alguns casos, dias, meses ou mesmo anos depois que Bartlett lê a história primeiro) – eles podem re-experimentar a audição da história até certo ponto, embora não muito bem (veja o primeiro desenho da nota de dólar, acima).
Isso é inspirador, suponho, porque isso significa que cada um de nós é verdadeiramente único, não apenas na nossa composição genética, mas mesmo na forma como nossos cérebros mudam ao longo do tempo. Também é deprimente, porque torna a tarefa do neurocientista assustadora quase além da imaginação. Para qualquer experiência dada, a mudança ordenada poderia envolver mil neurônios, um milhão de neurônios ou mesmo todo o cérebro, com o padrão de mudança diferente em cada cérebro.
Pior ainda, mesmo que tivéssemos a capacidade de tirar um instantâneo de todos os 86 bilhões de neurônios do cérebro e, em seguida, simular o estado desses neurônios em um computador, esse vasto padrão significaria nada fora do corpo do cérebro que o produziu . Esta é, talvez, a maneira mais flagrante em que a metáfora do PI distorceu nosso pensamento sobre o funcionamento humano. Enquanto os computadores armazenam cópias exatas dos dados – cópias que podem persistir inalteradas durante longos períodos de tempo, mesmo que a energia tenha sido desligada – o cérebro mantém nosso intelecto somente enquanto permanecer vivo . Não há nenhum interruptor on-off. Ou o cérebro continua funcionando, ou nós desaparecemos. Além disso, como o neurobiologista Steven Rose apontou no The Future of the Brain (2005),
Pense em quão difícil é esse problema. Para entender até mesmo o básico de como o cérebro mantém o intelecto humano, talvez precisemos saber não apenas o estado atual de todos os 86 bilhões de neurônios e suas 100 trilhões de interconexões, não apenas as forças variadas com as quais estão conectados e não apenas a estados de mais de 1.000 proteínas que existem em cada ponto de conexão, mas como o momento-a-momento, a atividade do cérebro contribui para a integridade do sistema. Adicione a isso a singularidade de cada cérebro, em parte devido à singularidade da história de vida de cada pessoa, e a previsão de Kandel começa a parecer excessivamente otimista. (Em uma recente edição do The New York Times ,
Enquanto isso, grandes somas de dinheiro estão sendo criadas para pesquisa do cérebro, com base em alguns casos sobre idéias e promessas defeituosas que não podem ser mantidas. A instância mais flagrante da neurociência foi errada, documentada recentemente em um relatório em Scientific American , diz respeito ao Projeto de Cérebro Humano de US $ 1,3 bilhão lançado pela União Européia em 2013. Convencido pelo carismático Henry Markram de que ele poderia criar uma simulação de todo o cérebro humano em um supercomputador até o ano de 2023, e que tal modelo revolucionaria o tratamento da doença de Alzheimer e outros distúrbios, os funcionários da UE financiaram seu projeto praticamente sem restrições. Menos de dois anos, o projeto se transformou em um “naufrágio cerebral”, e Markram foi convidado a demitir-se.
Somos organismos, não computadores. Deixe isso para trás. Vamos continuar com o negócio de tentar entender a nós mesmos, mas sem ser engarrafado por bagagem intelectual desnecessária. A metáfora da PI teve uma corrida de meio século, produzindo poucas, se alguma, ideias ao longo do caminho. Chegou a hora da tecla DELETE.
Esta matéria foi publicada originalmente em Aeon. Clique aqui para ler a original em inglês.