Volume 22 - Novembro de 2017 Editor: Giovanni Torello |
Julho de 2014 - Vol.19 - Nº 7 COLUNA PSIQUIATRIA CONTEMPORÂNEA MIND UPLOADING, SINGULARIDADE E INTELIGÊNCIA ARTIFICIAL – PARTE I Fernando Portela Câmara Recentemente foi exibido nos cinemas o
filme “Transcendente”, com Johnny Depp e Morgan Freeman. O filme trata do tema
Inteligência Artificial (IA) e discute as visões conflitantes dessa tecnologia
para o futuro da humanidade, quando a tecnologia para carregar (upload) nosso
processamento cerebral ou parte dele for implementada em computadores. Isto não
é apenas ficção científica, mas uma realidade futura e já é um assunto que vem
criando discussões em círculos e reuniões de IA. Esse estágio do desenvolvimento da
engenharia neural foi denominado de Singularidade por Vernor
Vinge, e que no filme é denominada de
Transcendência. A singularidade tem em
Ray Kurzweil seu maior defensor e propagador atual.
Uma vez atingida a Singularidade, o ser humano entrará numa fase de
Transcendência, como abordado no filme. E o que significa isto? O monólogo do
personagem Dr. Will Caster, vivido por John Depp, é esclarecedor:
“Imagine uma máquina com uma gama
completa de emoções humanas. Seu poder analítico será maior do que a
inteligência coletiva de cada pessoa que já viveu em toda a história humana.
Alguns cientistas se referem a isso como a Singularidade. Eu chamo isso de
Transcendência”. Essa máquina encontraria solução para os problemas para os
quais nossa mente mostrou-se limitada, tais como uso de energia limpa,
regeneração de órgãos e tecidos, solução para o problema da fome e controle
populacional, regeneração da ecologia planetária, purificação dos mares e
atmosfera, erradicação da guerra e da pobreza, controle sobre todas as doenças,
etc. Isto ilustra bem o que é Inteligência Artificial (IA): um projeto para
expandir a inteligência humana, ampliar a capacidade de pensar do ser humano e
encontrar soluções para problemas até então inalcançáveis em nossas
mentes. Embora originalmente tenha sido um projeto auxiliar da mente humana,
hoje a possibilidade de substituir a mente humana por um IA já é uma questão aceita
por muitos que trabalham neste campo. Isto suscitou recentemente uma polemica com o
conhecido físico nobelista Stephen Hawking. Após uma
entrevista ao jornal The Independent
em 12 de julho deste ano, ele disse que o filme “Transcendence”
não deveria ser visto apenas como uma obra de ficção científica, mas “potencialmente o pior erro da nossa história
pensar que a ideia de máquinas altamente inteligentes é apenas ficção
científica”. O progresso da IA está rapidamente em curso e invenções como o
assistente digital Siri, Google Now e Cortana, carros que já dirigem sozinhos, máquinas que
ganham qualquer partida de xadrez, máquinas que respondem a qualquer pergunta
em linguagem natural são apenas sintomas do que está por vir em breve. Em 1965 Gordon E. Moore, então
presidente da Intel, predisse que os chips dobrariam seu numero de transistores
a cada 18 meses. Essa observação acabou sendo uma realidade e ganhou com isso o
nome de “Lei de Moore”. A capacidade de computação aumentou exponencialmente
desde então a cada década. Irving Good, um matemático
britânico que trabalhou com Alan Turing, previu nesse mesmo ano que chegaríamos
à Singularidade, que ele definiu como o estágio em que máquinas ultrainteligentes atuariam sobre si mesmas aperfeiçoando
suas capacidades e construindo réplicas melhores. Para Hawking, isso afetaria
drasticamente a humanidade, pois essas novas máquinas teriam uma lógica que o
ser humanado não conseguiria compreender, e a atuação delas mudaria
radicalmente a sociedade, colocaria a humanidade submissa ou até mesmo à beira
da extinção, como ocorreu com os neandertais quando passaram a compartilhar o
mesmo espaço com nossos ancestrais. Podemos
agora compreender a opinião de Hawking quando ele declara que a Singularidade
seria “a maior conquista da humanidade e provavelmente a última”. Citando
Irving Good, ele comentou as ideias contidas no filme
“Transcendence” dizendo que “não há lei da física que
impeça partículas de serem organizadas em maneiras que possibilitem computações
ainda mais avançadas do que as realizadas no cérebro humano”, e arremata que
isto levaria à “uma transição explosiva e
instantânea”, mas não necessariamente como acontece no filme. “podemos imaginar
tal tecnologia atuando inteligentemente sobre os mercados financeiros,
orientando pesquisadores humanos, manipulando líderes, e desenvolvendo tipos de
armas que não poderemos sequer entender”. O impacto a curto prazo da IA
“dependerá de quem a controla, e a longo prazo se ela poderá ser controlada”. Apesar de estarmos enfrentando potencialmente a melhor ou a pior coisa
que aconteceu na história humanidade, pouca investigação séria é dedicado a
essas questões. No momento elas se restringem apenas a poucas instituições sem
fins lucrativos tais como o Cambridge Center for the Study of
Existencial Risk, o Future Humanity
Institute, o Machine Intelligence
Research Institute, e o
Future of Life Institute. Deveríamos nos perguntar o que podemos fazer
agora para melhorar as chances de colher os benefícios e evitar os riscos. Hawking não
está só em suas opiniões, com ele concordam os
físicos Max Tegmark e Frank Wilczek, além do
cientista da computação Stuart Russel. Todos concordam que os benefícios da
inteligência artificial “poderiam ser enormes, mas não podemos prever suas
consequências, tanto as boas quanto as ruins”. O potencial disruptivo
da IA para a nossa civilização pode ser comparado à chegada dos conquistadores
europeus na América pré-colombiana. A
humanidade ira encarar um futuro incerto na medida em que máquinas aprendam a
pensar por si mesmas e se adaptem ao seu ambiente. Sabemos que a inteligência
militar está numa corrida frenética para criar armamentos algoritmicamente
controlados que substituam soldados humanos. Os drones
já são o primeiro resultado bem sucedido desse projeto. A IBM já desenvolveu
chips inteligentes que futuramente servirão para desenvolver redes de sensores
que imitariam a capacidade humana de percepção, ação e pensamento, e a partir
desse dia o desenvolvimento de máquinas com inteligência maior que o dos
humanos em certas capacidades. Talvez seja o momento de perguntarmos o que
podemos fazer agora para melhorar as chances de colhermos benefícios e
evitarmos os riscos. Bibliografia 1.Kurzweil, R. The singularity is near: When humans transcends
biology. New York: Viking Press, 2005. 2.Kurzweil, R. How to Create a
Mind, New York: Viking Press, 2012. 3.Stephen Hawking: 'Transcendence
looks at the implications of artificial intelligence - but are we taking AI
seriously enough?'. The Independent, Saturday 12, July 2014, disponivel em (accessado em 30/06/2014):
http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html
4.Artificial intelligence 'could be the
worst thing to happen to humanity': Stephen Hawking warns that rise of robots
may be disastrous for mankind. Mail Online, 2 March 2014 disponível em (acessado em 30/06/2014):
http://www.dailymail.co.uk/sciencetech/article-2618434/Artificial-intelligence-worst-thing-happen-humanity-Stephen-Hawking-warns-rise-robots-disastrous-mankind.html#ixzz30lfgxtUB
|