Domingo, 27 de Maio de 2018
ISSN 1519-7670 - Ano 19 - nº988
Menu

E-NOTíCIAS > ENTREVISTA / RAY KURZWEIL

Computadores vão se equiparar à mente humana

Por Salvador Nogueira em 02/10/2012 na edição 714
Reproduzido da Folha de S.Paulo, 1/10/2012; título original: “Computadores vão se equiparar à mente humana no ano 2029”; intertítulos do OI

Em coisa de 50 anos, a humanidade será completamente diferente do que sempre foi. Máquinas menores que a espessura de um fio de cabelo ajudarão a manter a saúde no interior do corpo e participarão da atividade cerebral, tornando mundos virtuais tão realistas para os sentidos quanto o mundo verdadeiro. E a imortalidade estará ao nosso alcance.

Maluquice? Pode ser. Mas o maior proponente dessas ideias certamente não é maluco. Um dos inventores mais brilhantes das últimas décadas, o americano Ray Kurzweil é um importante impulsor da inteligência artificial há mais de 30 anos. Entre suas criações estão sistemas de reconhecimento de caracteres e de voz.

Aos que torcem o nariz para a sua futurologia, Kurzweil lembra que, usando o mesmo raciocínio, ele foi capaz de prever a explosão mundial da internet quando ela se resumia a 2.000 cientistas usuários, na década de 1980. Ele prevê alguns avanços notáveis que podem servir de balizas para o seu poder de previsão. O inventor sugere, por exemplo, que um computador poderá exibir comportamento que imite de forma indistinguível um ser humano em 2029.

Confira a seguir trechos da entrevista que ele concedeu à Folha durante sua última passagem por São Paulo, durante o evento de gestão Fórum HSM.

O sr. fala do aumento exponencial da tecnologia, mas há quem já fique irritado de ter de comprar um iPhone novo todo ano. O próprio perfil de consumo não vai frear o ritmo de avanço tecnológico?

Ray Kurzweil– Isso não vai acontecer porque a tecnologia está evoluindo para se adaptar ao ser humano. Quando eu era jovem, computadores eram só para engenheiros e técnicos. Hoje, a interface está cada vez mais simples e intuitiva. Hoje, as pessoas conhecem faixas muito estreitas do conhecimento, mas temos nossas ferramentas computadorizadas para encontrar as informações de que precisamos. Então, já estamos expandindo nossas mentes por essas ferramentas. No fim das contas, elas vão parar dentro do nosso corpo e do nosso cérebro.

Como o sr. vê o percurso futuro da tecnologia, uma vez que mesmo eventos como guerras mundiais ou recessões econômicas fortes parecem ser incapazes de frear seu avanço? Há um limite?

R.K.– Os limites definitivos, que vêm das leis da física, na verdade não são muito limitadores. Podemos expandir nossa inteligência trilhões de vezes antes de alcançar esse limiar. Agora, o que pode parar tudo é um derretimento existencial da civilização. Isso não é impossível. Nós temos armas atômicas em número suficiente para fazer isso.

E quanto ao risco representado por novas tecnologias?

R.K.– Eu escrevi muito sobre o risco existencial vindo da genética, da nanotecnologia e da robótica. Não acho que a solução certa seria banir essas tecnologias. Primeiro, estaríamos nos privando dos benefícios. Ainda há muito sofrimento no mundo. Não acho que queremos dizer aos pacientes de câncer “Bem, estamos muito próximos de reprogramar a biologia e eliminar o câncer, mas vamos cancelar tudo isso por causa do risco de bioterrorismo”. Em segundo lugar, seria preciso um sistema totalitário para impor um banimento em biotecnologia. Mais importante, contudo, isso não funcionaria. Só empurraríamos essas tecnologias para o submundo, onde as únicas pessoas que teriam acesso a elas seriam os criminosos. Cientistas responsáveis, com quem contaríamos para nos proteger, não teriam acesso às ferramentas para fazer isso.

Embora sua visão seja extremamente otimista quanto ao avanço da medicina, temos um sistema de desenvolvimento e aprovação de novos medicamentos que consome muitos anos. Isso não impedirá a evolução acelerada?

R.K.– Eu acho que há problemas com a regulação. Mas não acho que seja um problema com a FDA [agência que regula remédios nos EUA] e com as agências reguladoras de outros países, e sim com as expectativas públicas e a ideia do juramento de Hipócrates, que eu acho errada. Ele diz: “Em primeiro lugar, não faça mal.” Se você quer não fazer mal, demita todos os médicos e feche todos os hospitais porque então você nunca faria mal nenhum. Sempre que você tenta ajudar as pessoas, há uma possibilidade de fazer mal a elas.

Sim, mas a ideia é ser cauteloso…

R.K.– Não é um jogo de risco zero, você tem de considerar o risco da doença. E isso não recebe igual atenção na regulamentação. Se houver uma pequena chance de prejudicar o paciente, isso vai segurar o processo, mesmo que haja uma chance enorme de ajudar o paciente.

O sr. tem defendido que o desenvolvimento de máquinas capazes de pensar passa por usar o cérebro humano como modelo e o sr. também fala de superinteligência, muito superior à do cérebro humano. Entretanto, temos exemplos de supercapacidades em humanos, como os savants, que têm memória e habilidades prodigiosas, mas, em compensação, apresentam um sério déficit em outras áreas da cognição. Será que não há aí uma barreira intransponível para a superinteligência?

R.K.– O cérebro humano tem limitações. Faz certas coisas muito bem, e só podemos nos beneficiar aprendendo como funciona e então evitando algumas de suas limitações. Uma delas diz respeito à capacidade. Estimo que haja cerca de 300 milhões de reconhecedores de padrões no neocórtex. É isso que pode caber lá, biologicamente, por causa da arquitetura do crânio. Uma vez que possamos criar um córtex artificial que funcione do mesmo modo, não existe razão pela qual o limitemos em 300 milhões, porque não teremos essa limitação física. Você pode ir para 1 bilhão, 1 trilhão…

Mas como saber que vai funcionar? Talvez haja uma limitação inerente à arquitetura do sistema. Não há como saber se ele continuará operando se você aumentar a escala ou se simplesmente haverá uma sobrecarga.

R.K.– Você obviamente terá de tentar construir [esse supercérebro] para saber se ele funciona. Até agora funciona bem. Ainda não estamos no nível humano de inteligência. Mas, quando os computadores aprendem a fazer alguma coisa, conseguem fazê-la muito bem, na verdade melhor que os humanos. Temos muito caminho a percorrer, mas não acho que estejamos muito longe. A data que eu sugiro é 2029, quando os computadores estarão no nível dos humanos.

E quanto à diferença entre inteligência e consciência? O sr. acha que máquinas serão capazes de fazer esse salto de autopercepção?

R.K.– Bem, é uma questão filosófica. Algumas pessoas acham que a consciência é pensar sobre pensar; se você pode descrever seu processo de pensamento, isso é consciência. Minha posição é de que algumas teorias a esse respeito soam científicas, mas não são. Não são diferentes da crença religiosa de que há um ser supremo que atribui consciência a certas coisas, como humanos. Minha conclusão: você não pode evitar saltos de fé.

A aceleração da tecnologia leva, numa expressão que o sr. tomou emprestado da física, a uma singularidade -uma realidade imprevisível que não podemos ver agora porque está escondida de nós da mesma forma que um buraco negro. Queria levar essa metáfora um pouco mais adiante. Se eu fosse um viajante espacial e passasse perto de uma singularidade, faria tudo para evitá-la. Nós devemos evitar a singularidade tecnológica?

R.K.– É uma ótima pergunta. Eu acho que estamos sendo puxados para ela e não podemos evitá-la. Nós temos inteligência suficiente para falar de como seria cair numa singularidade. Nós não necessariamente perceberíamos que cruzamos o horizonte dos eventos. Acho que é a mesma coisa aqui. O mais difícil de encarar é a noção de uma IA (inteligência artificial) não amigável, que seria mais inteligente que nós e defenderia valores que não reconhecemos em nosso sistema moral. Acho que o melhor jeito de nos defendermos disso é enfatizar os valores que respeitamos em nossa sociedade hoje, valores como democracia, tolerância, apreciação pelo próximo, liberdade de expressão e por aí vai. O mundo do futuro não virá de um único laboratório. Ele emergirá do mundo de hoje. Se praticarmos esses valores agora, temos a melhor chance de refleti-lo no mundo do futuro. Não é uma estratégia infalível. Mas acho que é o melhor que podemos fazer.

Mas como os nossos valores vão ser transferidos às máquinas?

R.K.– Bem, acho que nossas máquinas estão tremendamente integradas à nossa sociedade. Elas não estão isoladas em algum laboratório. Há 6 bilhões de celulares, 1 bilhão de smartphones, uma criança na África tem mais poder na sua mão que o presidente dos Estados Unidos tinha 15 anos atrás, em termos de acesso ao conhecimento e à informação. Indivíduos, jovens, têm o poder de mudar o mundo. Não é uma abstração. E as máquinas não estão lá fora com sua própria cultura. Nós já somos uma civilização homem-máquina.

***

[Salvador Nogueira, para a Folha de S.Paulo]

Todos os comentários

x

Indique a um amigo

Este é um espaço para você indicar conteúdo do site aos seus amigos.

O Campos com * são obrigatórios.

Seus dados

Dados do amigo (1)

Dados do amigo (2)

Mensagem