Volume 22 - Novembro de 2017 Editor: Walmor J. Piccinini - Fundador: Giovanni Torello |
Abril de 2015 - Vol.20 - Nº 4 COLUNA PSIQUIATRIA CONTEMPORÂNEA RUMO À INTELIGÊNCIA ARTIFICIAL. ESTAREMOS PREPARADOS PARA A SINGULARIDADE? Fernando Portela Câmara, Prof. Associado UFRJ Vivemos hoje um boom
na tecnologia da informática que evolui rapidamente sua interface entre
máquinas processadoras e usuário. Mal nos damos conta que uma nova revolução
começou e que caminhamos em direção à inteligência artificial. Esta perspectiva
gerou um debate que beira a ficção científica – mas não é – que envolve a Ética
na relação futura na criação e aperfeiçoamento dessas máquinas. Como um dos milhares de signatários da carta aberta de Hawking e Musk sobre essa questão, venho divulgando o assunto
em duas frentes, IA e mind upload, esperando que os psiquiatras
possam se interessar pelo tema que, alias, é um excelente material para se repensar
o conceito e significado de autoconsciência. Claro que o assunto choca os mais
conservadores, mas isso acontece mais por falta de familiaridade com o que esta
acontecendo nos bastidores da tecnologia e pesquisa computacionais, e para isso
recomendo o excelente livro de Bostrom (2014). Par mim essa realidade materializou na minha
experiência e convivência com a estatística. Mesmo nos meios acadêmicos, ainda
são poucas pessoas que se dão conta de que a estatística tradicional está
mudando radicalmente. De fato, ela foi desenvolvida numa época em que as
amostras eram bem controladas e finitamente razoáveis. Desenvolveu-se o
conceito de modalidade, limite de confiança, etc. Hoje muitos pesquisadores –
especialmente na área médica – estranham que os dogmas do p-valor e da
inferência a partir de amostra única estejam sendo abandonadas. As imensas
quantidades de dados com que temos de lidar atualmente, a
necessidade de acompanhar mudanças em tempo real, tornam a velha estatística
limitada, ao mesmo tempo em que mostra que uma inferência estatística não é um
teorema matemático e tem validade limitada e relativa, fazendo com que
modelos sejam revistos após certos períodos de tempo, pois padrões podem mudar
por variadas razões. Hoje o p-valor está sedo abandonado, a técnica de bootsraping vem substituindo a tradicional inferência amostral,
processos de análise inferencial como a computação por redes neurais vem
ganhando cada vez mais adeptos, e a abordagem bayesiana cada
vez mais caminha para a imitação dos processos inteligentes. O desenvolvimento da computação e a rapidez com que computam dados
tem mudado a face da estatística e, em certa extensão, da matemática, e
se tornando cada vez mais computacional. O computador Watson
(IBM) já diagnostica câncer com uma precisão muito maior que um médico humano e
as coisas estão caminhando na direção da computação e avança rapidamente para a
concretização da inteligência artificial (que podemos definir como máquinas
processadoras que aprendem com a própria experiência e são capazes de deduzir
novos conhecimentos a partir de outros). A tecnologia computacional
avança, e em breve a estatística, como outras áreas do conhecimento estarão obsoletas.
Em breve iremos conviver com máquinas inteligentes ao alcance dos nossos smartphones.
E essas máquinas se tornarão mais inteligente que nós e iremos recorrer cada
vez mais a elas, e não estamos aqui falando de utopias. Estamos superando a fase da estatística
convencional, entramos na mineração de dados (data mining) e agora estamos na era do Big-Data, em que volumes
imensos de dados são analisados em tempo real e continuamente. O propósito é o
mesmo, obter insights a partir de uma grande massa de dados cujo padrão de
distribuição não é necessariamente fixo e uniforme. Precisamos agora de
máquinas que “entendam” datasets e “intuam”
conhecimentos que nossos cérebros, limitados em
processar dados, não alcançam. Essas máquinas são necessárias ao desempenho de
muitas tarefas que hoje utilizam imensas e cambiáveis massas de dados, cuja análise
dedutiva não é acessível à nossa mente. Outras trabalham com inferência
indutiva cujo “mecanismo” não nos é acessível, como é o caso das redes neurais,
que “aprendem” a partir de datasets e inferem com boa
precisão reconhecimento de padrões a partir de dados não constantes nos seus datasets de aprendizagem. Elas aprendem ajustando a “força”
de suas “sinapses” de modo tal que muitas vezes não conseguimos saber como ela
chegou a um resultado, embora apenas saibamos como isso é possível. Isto nos
leva a antever o futuro das máquinas processadoras quando, finalmente, tivermos
avançado o suficiente para tornar a inteligência artificial (IA) uma
possibilidade real. O leigo pensa que já temos máquinas inteligentes,
mas isso ainda não se concretizou. No meu artigo anterior (Câmara, 2014a, 2014b)
deixei claro que devemos entender por IA uma máquina que, além
de uma velocidade extraordinária de processamento (como muitos possuem hoje),
tenha um poder analítico cognitivo que seja capaz de encontrar soluções para
problemas que a humanidade jamais conseguiu resolver, e entra em loop sempre que se defronta com
eles. Recentemente a imprensa inglesa noticiou as declarações do astrofísico Stephen Hawking e do investidor Elon Musk (Hawking, 2014; Hawking e Musk, 2014) que veem na eminente concretização da inteligência artificial (IA) o maior risco para humanidade dentro de poucas décadas. Alguns receiam que a IA crie novas matemáticas e desenvolvam tecnologias que mudem completamente a ordem do mundo e ameace a existência de nossas sociedades. E ainda mais: a IA irá superar nossa inteligência, e suas descobertas estarão além de nossa capacidade cognitiva, e, mais preocupante ainda, assumirão sem que percebamos o controle sobre o planeta através da rede mundial de computadores. Nesse ponto, o leitor dirá, e com razão, que estamos no terreno da ficção científica, mas alguns cientistas como Hawkings, discordam. Para ele, p. ex., a IA poderá criar novas ciências, novas tecnologias que melhorem muito nossa qualidade de vida como, p. ex., eliminando o sistema bancário por outras formas mais ágeis e seguras (o bitcoin é a primeira ideia que surge), mas também poderão decidir que não nossa existência é prejudicial ao “novo mundo” e nos eliminar como ruídos potencialmente destrutivos, dentro de um lógica precisa e objetiva, já que uma máquina não sente emoções ou remorso e ignora o que sejam “valores humanos”. Musk, talvez exageradamente, acredita que a IA é mais perigosa que as arma nucleares. Ele considera que elas podem aumentar sua inteligência recursivamente, aumentando assim sua capacidade computacional e reprogramar milhões de máquinas constantemente, tornando-se cada vez mais capaz e avançada que nós e será incontrolável se protocolos específicos não forem criados antecipadamente. Exageros à parte, novos e
revolucionários algoritmos estão surgindo e tornando nossa vida mais fácil – ao
mesmo tempo em que mudam sutilmente nosso comportamento -, mas a sociedade
precisa se posicionar e começar a mudar planejadamente em direção aos novos
rumos que estão surgindo no domínio da ética, segurança, direito individuais,
etc. A IA estuda como reproduzir em máquina as operações mentais humanas e
deixar que as máquinas futuramente as aperfeiçoem. Não se trata em construir
imitações de cérebros biológicos – os chips são muito mais eficientes que os
neurônios -, mas em aprender em como ele funciona cognitivamente e socialmente,
ou seja, como é seu processamento de dados. Há três grandes projetos atualmente
nessa direção, que estão mapeando as conexões do nosso cérebro analogamente ao
que fizemos ao decifrar a sequência do genoma humano (Blue Brain, da Universidade de Lausanne, Human Brain Project, da União
Europeia, e Human Conectome
Project). A IBM e o Google acreditam que concluirão esse projeto em uma
década. Os mais ousados acreditam que seremos capazes de digitalizar nossas
mentes na web como uma espécie de backup. E da mesma forma que nossos dados
servirão como implantes para aumentar a inteligência de alguns superexecutivos eles também poderão ser hackeados…
Ray Kurzweil, inventor e empreendedor, o maior
divulgador dessas ideias, publicou recentemente um livro em que assume publicamente
essa possibilidade e trabalha para viabiliza-la (Kurzweil, 2005, 2012). Teoricamente, se soubermos como um
cérebro humano armazena e processa informações, poderíamos fazer downloads de
experiências individuais e compartilha-las, mas isso ainda está mais no terreno
da ficção embora alimente a convicção de alguns visionários. Antecipando o futuro, a Coreia do
Sul já criou uma declaração de direitos sobre robôs, que futuramente servirá à
legislação sobre implantes de melhoramentos robóticos e, por extensão, à
seleção de indivíduos que serão submetidos a melhoramentos genéticos, pois
robôs e humanos terão direitos semelhantes no que tange ao melhoramento de
habilidades e estirpes. Naturalmente, já podemos antever que será o mercado que irá regular
isso, pois, os “melhorados” o serão com um propósito e também serão mais bem
pagos por isso. Esses melhoramentos têm muitas implicações, p. ex., no nosso
caso, poderemos nos tornar resistentes a certas doenças, trocar órgãos
biológicos por processadores mais eficientes, controlar indivíduos violentos e
algumas doenças mentais, implantar habilidades para lidar com certas tarefas e
capacidade para lidar com certas classes de dados, etc. Outra corrente de
pensamento considera que quando a IA surgir (o momento denominado de
“singularidade”) esta será a última invenção do homem, que a partir disso se tornaria obsoleto. Para Nick
Bostrom (2014)
uma IA poderá ser uma ameaça à humanidade se não tomarmos certas precauções agora.
A IA é incapaz de ter emoções tais como compaixão,
remorso, odiar, etc., portanto ela é indiferente a nós, e seguem seus objetivos
independentes das consequências que poderão surgir – boas ou más (a máquina é
moralmente neutra). Bostrom nos dá um exemplo.
Suponha que uma IA seja programada para se tornar autossuficiente em energia.
Ora, ela não terá remorso algum se precisar desviar energia de uma cidade ou de
uma usina para se manter em atividade. Os cientistas deveriam então se
concentrar em desenvolver protocolos eficientes de controle dessas máquinas. Foi
a partir do livro de Bostrom que Hawking e Musk se interessaram pelo tema. O ponto central da tese
de Bostrom é que a IA irá ultrapassar a inteligência
humana – biologicamente limitada – em muito, pois a tecnologia sintética não
está limitada pela natureza e propriedades do material biológico. Para evitar
problemas, deveríamos estabelecer limites através de protocolos de controle que
deixe ser nossa a “palavra final”. Parece que a principal preocupação desses
cientistas e empreendedores é o uso militar da IA, que poderá construir máquinas
eficientes em destruição em massa e em ataques pontuais, e os drones parecem profetizar isso. Máquinas controladas por IA
podem causar muitos danos humanos (físicos, no caso militar; econômicos, no
caso de eliminação de concorrência por recursos; sociais, etc.) antes de serem
desativadas. Ao seguirem um protocolo próprio, otimizado
e autoaperfeiçoado, elas podem causar danos por suas
ações, não intencionalmente, é claro. Uma viagem espacial controlada por uma IA, p. ex., poderá levar a consequências inesperadas durante
o seu curso ao tomar decisões acertadas, porém, “não humanas”. IAs não são sensíveis, pois não
tem compreensão humana – sua compreensão é somente técnica e matemática – para
questões sociais, altruístas, emocionais, valores e interesses, etc. Enquanto a singularidade
não vem, talvez seja oportuno ampliar o debate da Ética e Bioética na
perspectiva de um futuro que talvez já esteja chegando às nossa s portas. Referências Bostrom N. Superintelligence: paths, dangers and strategies, Oxford: Oxford Univ. Press, 2014. Câmara FP. Mind uploading, singularidade e inteligência artificial – Parte I, Psychiatry On-Line Brazil, vol.19 no. 7, 2014a. http://www.polbr.med.br/ano14/cpc0714.php#1 Câmara FP. Podemos ser
substituídos por inteligência artificial? Psychiatry
On-Line Brazil, vol.19 no.
12, 2014b. http://www.polbr.med.br/ano14/cpc1214.php#1 Hawking
S, Musk E. Research
Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter, disponível em (acessado em 27/04/15) http://futureoflife.org/misc/open_letter Hawking S. Transcendence looks at the
implications of artificial intelligence - but are we taking AI seriously enough?
The Independent, Saturday 12, July 2014, disponivel em (accessado em
30/06/2014):
http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html
Hawking S. Artificial intelligence 'could be
the worst thing to happen to humanity': Stephen Hawking warns that rise of
robots may be disastrous for mankind. Mail Online, 2 March 2014 disponível em (acessado em 30/06/2014):
http://www.dailymail.co.uk/sciencetech/article-2618434/Artificial-intelligence-worst-thing-happen-humanity-Stephen-Hawking-warns-rise-robots-disastrous-mankind.html#ixzz30lfgxtUB
Kurzweil, R. The
singularity is near: When humans transcends biology.
New York: Viking Press, 2005. Kurzweil, R. How
to Create a Mind, New York: Viking Press,
2012.
|