Este texto é
baseado em um trabalho intitulado “Gödel e Anti-Gödel, míssil e antimíssil ou
como parar o mundo”, escrito em 2012 e publicado
neste blog. Introduzi algumas modificações que estão mais de acordo com a minha
forma atual de pensar. O texto original continua disponível e esta versão
continua como algo preliminar que precisa de discussão, amadurecimento e
melhoria.
Cláudio Thomas
Bornstein
Para
cada Gödel existe um Anti-Gödel. Esta é metade da história. Outra metade é que
para cada Anti-Gödel existe um Gödel. Será que estas duas metades compõem a
história toda ou existiria uma questão maior por trás? Vejamos. No início eram
os paradoxos a atrapalhar a vida dos matemáticos. Russel, com a Principia Mathematica,
tentou fazer um sistema à prova de paradoxos e Gödel desenvolveu um paradoxo à
prova da Principia Mathematica. Será que a coisa pára por aí? Não me parece
tarefa impossível, fazer um sistema à prova de Gödel, e tampouco parece
impossível o surgimento de um meta-Gödel que encontre uma brecha no novo
sistema. E assim por diante. Tudo isto lembra a luta do míssil e do antimíssil.
Será que é por aí que deve caminhar a ciência?
Algo
similar acontece com a Lógica. A lógica clássica bivalente, com o princípio do
terceiro excluído (tertium non datur),
ao dizer que as afirmações são certas ou erradas, esbarra em uma realidade que
não se deixa modelar desta maneira. Daí a tentativa de desenvolver lógicas alternativas que seriam capazes
de lidar com a contradição. Temos as lógicas para-consistentes, a lógica da
diferença, a lógica dialética, lógica fuzzy, etc. Estas lógicas abolem algumas
regras, enfraquecem outras, introduzem o caráter probabilístico nas afirmações,
etc. Como fica, no entanto, a situação, se houver o questionamento de todas as
regras? Eu não estou dizendo que não vale regra nenhuma. Eu estou tão somente falando
da possibilidade de toda e qualquer regra estar sujeita em algum momento, em
alguma situação a algum tipo de questionamento. Regras seriam válidas, mas
mutáveis. A única constante que haveria seria a da constante mutação e
transformação das regras.
Finalmente
existe a máquina, em especial, aquela que tenta atingir o que, antes, seria
considerado inatingível: o pensar [1]. Turing
com a sua máquina propõe um artefato capaz de pensar, ou seja, capaz de realizar
aquilo que muitos consideram ser o cerne da atividade humana. Logo surgem os
Penrose, Searle, etc. a brandir a bandeira antropocêntrica e a reação não
tarda. Surgem as máquinas de Turing não determinísticas, as máquinas R-Turing
(randomized Turing machines), a RASP (Random Acess Stored Program Machine), o
computador quântico, o computador de DNA, etc. O que está por trás de tudo
isto?
Gödel e
anti-Gödel, lógica consistente e para-consistente, Turing e Penrose, são, na
verdade, personagens de uma história muito mais complexa. Alguns, poucos,
elementos desta história serão mencionados no texto abaixo. Matemática, lógica
e computador estão interligados e a luta de alguns, ressaltando as suas deficiências,
e outros, enaltecendo as suas virtudes faz parte do caminho da ciência. Apontar
virtudes e deficiências é parte do processo de desenvolvimento científico. Afinal
é a superação das deficiências que leva ao aperfeiçoamento da ciência. Será que
tudo é tão simples assim?
A luta entre aqueles que
ressaltam as deficiências e outros que ressaltam as virtudes da matemática, da
lógica e do computador pode, no entanto, ser um indicador de um conflito maior.
Turing no seu famoso artigo Computing Machinery
and Intelligence, na parte final, a guisa de conclusão diz: Podemos esperar que possivelmente máquinas vão
competir com o ser humano em todos os campos da atividade intelectual [2]. O que está por trás desta competição [3] [4]?
Na verdade, máquina e ser humano deveriam estar juntos e unidos na resolução
dos problemas e a máquina deveria servir ao homem no desempenho daquelas
tarefas que ela realiza melhor, possibilitando ao ser humano se dedicar a
outras atividades. A máquina é tão somente a continuação do ser humano em aço,
cobre e silício. O que é o homem hoje em dia sem a máquina? Mesmo papel, lápis
e livros apesar de não serem máquinas, são artefatos, conquistas tecnológicas inseparavelmente
ligadas ao ser humano. Qual o sentido em se dizer que o computador é superior à
mente humana se ele nada mais é do que um produto desta última [5]? Faz
sentido delimitar o natural do artificial, ou tudo não passa de um vício metafísico
sempre buscando o estabelecimento de fronteiras e limites quando, na verdade, a
realidade não se deixa delimitar? Será que o vício metafísico é a única
explicação para justificar a quantidade de trabalhos realizados sobre a competição
homem/máquina?
Na verdade, a competição entre
máquina e homem é de longa data. Basta lembrar-se do Ludismo no final do século
XIX, na Inglaterra, onde os operários quebravam os teares que ameaçavam os seus
postos de trabalho. A máquina costuma fazer as tarefas de forma mais rápida,
mais eficiente e com menos erro e o valor do investimento é rapidamente amortizado
através do aumento da escala de produção. Para o patrão a máquina representa
uma enorme economia de recursos e, consequentemente, aumento dos lucros. Além
disso máquina é investimento, é valorização da empresa e mão de obra é despesa,
é oneração da folha de pagamento. Mas a mais gritante vantagem da máquina é a
obediência cega. Onde no ser humano existe a inquietação, a insatisfação e a reivindicação,
na máquina existe a aceitação e a submissão. É interessante notar que esta aceitação
de ordens e instruções por parte da máquina, uma das razões para a ampla
difusão da automação, é a mesma aceitação que Turing nega ao nos vender a idéia
de uma máquina capaz de superar as instruções embutidas na sua programação. A
máquina cumpre ordens e não as discute. Esta é a principal vantagem da máquina,
do ponto de vista do patrão. Já Turing defende a idéia de uma máquina capaz de
fazer algo diferente daquilo para o qual ela foi originalmente programada [6]. Turing
assim como os demais apregoadores da automação, na verdade está nos vendendo a ilusão
de uma máquina capaz de superar as suas limitações quando é justamente o
contrário que acontece. É a aceitação, a submissão a ordens, instruções e
programas que constitui a grande vantagem da máquina, claro, para o patrão.
A difusão de ilusões é talvez
a mais eficiente arma à disposição daqueles que vendem novos sistemas e novas
tecnologias [7]. O sonho
iluminista, que procura fazer crer que o progresso científico, por si só, seria
capaz de melhorar a qualidade de vida da humanidade, é uma destas ilusões. É inegável
que ciência e tecnologia trouxeram melhorias, mas estas se concentraram nas
mãos de alguns poucos. A grande maioria continua à margem do progresso
científico, ou então, sofrendo de suas consequências funestas, como, por
exemplo, o desemprego. Desemprego este que em grande parte é fruto de uma
automação desenfreada feita meramente para baixar os custos e baratear a
produção. Evidentemente que preços mais baixos possibilitaram maior acesso às
tecnologias, mas esta é tão somente uma parte da história. Bem menos divulgado,
mas igualmente verdadeiro, é o fato da difusão das novas tecnologias ter permitido
baixar os custos e aumentar a escala de produção, possibilitando maiores lucros
aos empresários.
O computador possibilitou que
fosse atingido um novo degrau na escala da automação. Se o tear substituiu os
braços, o automóvel o pé, agora, com o computador, é chegado o momento da
substituição da cabeça. Enquanto a automação anteriormente concentrava-se em operações
mecânicas a cargo da classe operária, o computador possibilita a automação do
processamento de informações, historicamente nas mãos da classe média.
Evidentemente são também criados novos postos de trabalho responsáveis pelo
desenvolvimento dos novos sistemas de automação, mas estes ganhos de forma
alguma compensaram as perdas sofridas.
Olhando a questão social da
substituição do homem pela máquina de um ângulo mais filosófico e procurando
estender esta tendência ad extremum,
verificamos que, no fundo, trata-se da velha tese de Parmênides, em nova
roupagem. Senão vejamos. Originalmente, a máquina de Turing, base da maioria
dos computadores que se encontra no mercado hoje em dia, era um sistema fechado
[8]. A
máquina tinha um número finito e limitado de instruções, um número finito e
limitado de estados possíveis e um número finito e limitado de informações não
vazias (non-blank symbols) armazenadas
em uma fita [9]. A redução do homem à máquina então nada
mais seria do que uma tentativa de parar
o mundo, de paralisar a constante mutação e transformação de suas regras e
estados. Usando uma metáfora, podemos dizer que parar o mundo é equivalente a
encerrá-lo em uma caixa. A tentativa de equiparação do ser humano/mundo ao computador,
isto é, um sistema fechado, seria equivalente ao seu encerramento em uma caixa [10].
Cabe aqui um breve paralelo
entre a visão matemático-filosófica delineada no parágrafo acima e a visão
social da substituição do trabalho humano pela máquina. Também a visão social
traz implícito o sonho de Parmênides
de parar o mundo, caso consideremos a classe operária como o motor da história.
Eliminar o trabalhador, substituindo-o pela máquina seria parar a história, uma
vez que esta é movida pelas suas reivindicações e lutas. Isto é respaldado por
fatos da atualidade. A automação aplicada em larga escala, sem barreiras,
restrições e mecanismos de compensação, gera desemprego. Funciona como uma ameaça,
atemoriza o trabalhador e acaba por paralisá-lo em sua capacidade de luta e
mobilização, impedindo desta forma o surgimento de novos sistemas políticos e
econômicos [11].
A respeito do caráter estático
dos sistemas computacionais baseados na máquina de Turing pode ser contra-argumentado
que também a máquina de Turing gera um conjunto de declarações que pode ser
constantemente acrescido, de forma que, em sua totalidade, o seu número seria constantemente
crescente [12]. Isto,
de fato, é verdade. Acontece, no entanto, que este número constantemente
crescente é produzido na máquina fechada
a partir de um número finito e limitado de declarações. Por exemplo, em um
instante t seja
o conjunto de
declarações de uma máquina de Turing fechada.
Tudo o que acontece na máquina a partir deste instante t é decorrência do
conjunto
e está implícita ou
explicitamente contido em
, ou seja, todas as instruções geradas a partir deste
instante o são a partir das instruções e informações contidas em
. Não importa que o seu número seja constantemente crescente,
não importa a inclusão de resultados não-determinísticos, pois também afirmações
probabilísticas são decorrência do conjunto
, finito e limitado. O fato que para nós é importante, é que
tudo na máquina fechada é decorrência de
um conjunto finito e limitado de declarações disponíveis em um instante t [13] [14].
Façamos agora a hipótese de que
a realidade não se deixa reduzir a
este esquema. Suponhamos que as instâncias e os fatos do mundo real não possam
ser reduzidos a um conjunto
do qual elas seriam decorrência. Ou seja, dentro de certo
nível de abrangência nas dimensões espaço/tempo, fatos e instâncias do mundo
real não poderiam ser obtidos ou produzidos a partir de um conjunto
de regras e
informações. Razões para esta impossibilidade pode haver muitas e não cabe,
neste espaço, detalhar esta questão. Somente a título de ilustração, menciono uma
situação possível.
Suponhamos que certo nível de
indefinição é inerente à realidade. A realidade não se deixaria definir, de
forma que a definição, exigida por sistemas computacionais para a especificação
de estados e instruções, não poderia ser atendida. Pode ser contra-argumentado
que é possível incluir a indefinição
na máquina, por exemplo, através de probabilidades. A objeção que se pode
fazer, é que neste caso se estaria definindo a indefinição, ou seja,
estabelecendo um padrão de variabilidade ao qual a realidade não
necessariamente teria que estar sujeita. A própria definição da indefinição
seria tarefa impossível, ou seja, haveria indefinição da indefinição. Novamente
poderíamos tentar definir a indefinição da indefinição e novamente poderia
haver objeções. Como vemos, cada Gödel tem o anti-Gödel que merece e
vice-versa.
As idéias do parágrafo acima
talvez possam ser mais bem precisadas utilizando o princípio de incerteza de Heisenberg. Este princípio da mecânica
quântica se aplica a nível de partículas e diz que o produto dos desvios padrão
das variáveis que descrevem a posição e o momento linear da partícula é sempre
maior ou igual a uma constante (de Planck). Assim, por exemplo, para que o
desvio padrão da variável posição decresça, necessariamente o desvio padrão do
momento linear tem que crescer. Ora, desvio padrão mede a variação da variável.
Assim para possibilitar uma afirmação mais precisa sobre a posição da partícula
é preciso abdicar da precisão na definição do seu momento linear. Como momento
linear é o produto da massa pela velocidade ele traduz a energia cinética que a
partícula possui. Assim, de uma forma sintética, o princípio de incerteza diz que
para definir com mais precisão a posição da partícula precisamos abdicar da
precisão referente à energia cinética. Ou seja, certo nível de imprecisão e,
portanto, de indefinição das características básicas da partícula, é inerente
ao sistema.
O princípio de incerteza
guarda algumas semelhanças em termos de dificuldade de descrição de sistemas
com a questão da influência do observador
(observer effect) em física. O ato de
observar um sistema, ato este que é necessário para descrevê-lo, resulta em uma
interação que altera os elementos a serem observados. Por exemplo, a colocação
de um termômetro para medir a temperatura de um fluido pode alterar esta
última.
Estes fatos traduzem para a
esfera científica idéias já amplamente conhecidas na filosofia, em particular,
na dialética. Por exemplo, um objeto descrito como uma mesa tanto menos se encaixará nesta categoria quanto maior for a
precisão da descrição. Aqui temos a contradição entre o geral e o particular
que é inerente a qualquer sistema. O geral só existe na forma do particular e o
particular nega o geral na medida em que ele justamente é particular. Ou dito
de outra maneira, quanto mais precisa a descrição, mais particular ela será e,
portanto, menos se encaixará dentro da categoria geral a qual ela pertence e,
portanto, menos precisa será a descrição.
Não é objetivo do presente
texto, aprofundar estas questões. O que se quer é tão somente jogar algumas
dúvidas sobre afirmativas dos vendedores
de sistemas computacionais que insistem em colocar na máquina falsas
expectativas referentes a possibilidades de reproduzir, abranger ou mesmo
entender aspectos da realidade, em particular, do pensamento. Vimos que até
mesmo a descrição da realidade é tarefa difícil, quando mais reproduzi-la,
abrangê-la, entendê-la ou modificá-la. Não se está aqui negando a possibilidade
do conhecimento nos moldes do ignoramus
et ignorabimus (ignoramos e ignoraremos). A subordinação da ciência à fé é
uma característica da escolástica a qual se segue a, por vezes excessiva fé na
ciência decorrente do iluminismo. Neste sentido, como antídoto, é bom por vezes
relembrar o só sei que nada sei de
Sócrates ou o eu quase que nada sei, mas
desconfio de muita coisa, de Guimarães
Rosa [15]. Nas
últimas décadas, em ciência e na cultura de forma geral, têm se colhido bem
melhores resultados com a dúvida do que com a certeza. Aceitar a dúvida, no
entanto, absolutamente nada tem a ver com a impossibilidade de dissipá-la, ao
menos, parcial e provisoriamente. Se o ignoramus
et ignorabimus pretende fazer uma afirmativa com relação ao todo e ao tudo, ou seja, quanto à possibilidade de tudo saber, então se trata
aqui de uma declaração vazia de significado, pois o que é o tudo para que dele tudo se possa saber?
Como, tantas vezes, aqui tudo e nada estão intimamente associados. Existem,
no entanto, fortes suspeitas de que a possibilidade de tudo saber, na verdade
não está a serviço de saber tudo, mas sim de definir como tudo aquilo que se sabe, ou seja, parar e imobilizar o saber em certo
patamar. O conhecimento vive da mudança e da transformação e quanto mais se
sabe, mais ainda resta a saber.
Foi dito acima que a
possibilidade de abarcar a realidade através de sistemas computacionais esbarra
em dificuldades. A título de ilustração mencionei a dificuldade de descrever e
precisar a realidade. Um segundo tipo de dificuldade surge se admitirmos a
visão dialética em que cada coisa inclui também a sua negação. De certa maneira,
a indefinição da realidade, que foi vista nos parágrafos anteriores e, a visão
dialética, que será analisada a seguir, estão intimamente relacionadas. Ambas
dizem respeito a um mundo em permanente transformação. Para abordar o mundo é
necessário observá-lo o que equivale a pará-lo nem que seja por um instante, e
isto é tarefa impossível.
Como já foi dito, a visão
dialética consiste em olhar o mundo como algo em permanente mudança e
transformação. Cada coisa inclui a sua negação, pois é a não-coisa que alavanca
a mudança da coisa, ou, dito de outra maneira, para que algo se transforme é
preciso que saia do seu estado atual e isto implica em negar este último.
Pessoas com forte viés
positivista, ou seja, pessoas acostumadas a olhar para o mundo pelo ângulo do ser, e não pelo ângulo do ser e
do não-ser, têm extrema dificuldade
de lidar com a visão dialética. Tendem a achar que se a coisa é e não é então vale-tudo, ou seja, vale
qualquer coisa, e, se vale qualquer coisa, então não vale nada [16] [17].
Cessa o domínio da razão e do conhecimento científico objetivo, e passa a
existir tão somente o achismo e o
subjetivismo relativista.
É importante deixar bem clara
a distinção entre dialética e o vale-tudo.
Dialética não é sinônimo de caos, absurdo, aleatoriedade e arbitrariedade,
ausência de regras e irracionalismo. O fato de, em qualquer momento, qualquer
regra ou qualquer estado poder transformar-se em seu oposto é inteiramente
distinto da pura e simples ausência de regras. O fato de uma linha de
pensamento poder, de um momento para outro, ter a sua validade questionada,
pelo fato de ter surgido um fato novo, ou ter sido reconhecida uma incapacidade
de lidar com algum aspecto da realidade, não tem absolutamente nada a ver com a
negação da racionalidade. A dialética não é a negação da razão. Pelo contrário,
ela é a razão capaz de lidar com o
movimento e como realidade é movimento, a dialética é a razão capaz de lidar com a realidade, por excelência. As outras
formas de raciocínio permitem lidar com aproximações da realidade [18].
Nortear-se pela dialética é admitir a constante e permanente dúvida, é aprender
a viver com ela, é aceitá-la como algo natural, é aprender a duvidar da todas
as certezas. Dialética não significa não ter certezas, mas sim é admitir poder
ter a cada momento uma certeza diferente.
O que se está aqui dizendo é
que em função da constante mudança da realidade é difícil criar uma máquina
capaz de representá-la. O mesmo se dá em relação à capacidade de reproduzir o
pensamento. A principal linha de argumentação dos defensores da IA forte [19] não negaria este fato, mas tenderia a
argumentar que também o ser humano só é capaz de lidar com uma realidade em
permanente transformação de uma forma aproximada.
Tanto a máquina como o ser humano lidariam com a realidade de uma forma aproximada e o objetivo seria fazer uma
máquina que utilizasse uma aproximação
tão boa ou melhor do que aquela que é utilizada pelo homem.
A questão central parece ser a
da dinâmica do pensamento humano que marcaria a diferença fundamental para
sistemas computacionais fechados. Como
se dá a evolução e quais são os fatores que introduzem novos sistemas de
pensamento, o que faz com que surjam novas ideias e conceitos, como se produzem
os insights? Pois, se o objetivo é
fazer uma máquina capaz de reproduzir o pensamento então, necessariamente, esta
máquina precisa incorporar toda esta dinâmica.
As respostas às perguntas
feitas no parágrafo acima transcendem em muito os limites deste texto. Segundo
a dialética hegeliana o movimente e a transformação são produzidos pela
contradição. Mas não seria possível plantar também na máquina o gérmen da contradição? Em resposta a
esta pergunta a única coisa que pode ser dita é que o fechamento em relação ao mundo é também o fechamento em relação às contradições. Neste sentido, a conexão do
ser humano com o mundo seria uma garantia de que este funcionaria como sistema aberto. Da conexão e interação
com o mundo exterior e interior resultariam os insights, as novas idéias e os pensamentos [20] [21]. Estes
seriam o resultado de uma multiplicidade de fatores dos quais fariam parte
experiências sensoriais, influências do inconsciente, leituras, conversas, lógica
e raciocínio dedutivo, indução, acontecimentos, passado, carga genética,
influências da sociedade, pressões, interesses econômicos, desejo, etc. Mesmo
possibilitando-se mudanças e alterações do programa e do conjunto de
instruções, seria a máquina capaz desta abrangência?
A resposta a esta pergunta
implica em futurologia e me parece fazer pouco sentido. Se será possível no
futuro construir uma máquina capaz de incluir toda a imensa e riquíssima gama
de informações e transformações que está disseminada pelo mundo, isto é
impossível de ser respondido atualmente, nem pelo sim, nem pelo não. A resposta
pelo lado do sim implicaria em já ter
a chave desta inclusão. A resposta
pelo não ainda é pior, pois implica
em negar a possibilidade de obtê-la, até mesmo em um futuro remoto. Colocar o
mundo dentro de uma máquina parece tarefa difícil, mas, por mais difícil que
seja, a ninguém é dado o direito de negar a possibilidade de fazê-lo, pelo menos
enquanto fechamento do mundo através
da máquina não for sinônimo de fechamento
às mudanças e transformações. Como já foi mencionado anteriormente, existe a
forte suspeita de que o fechamento do
mundo através da máquina objetiva de fato criar um mundo fechado, tarefa esta que evidentemente jamais será possível de ser
realizada [22].
De fato, as tentativas
modernas de criar alternativas à máquina de Turing fechada passam pela abertura.
Assim, por exemplo, o computador quântico,
o computador não determinístico
ou o computador de DNA visam
aparentemente contornar a rigidez e inflexibilidade de sistemas formais incorporando
estruturas mais flexíveis. No entanto, antes de examinar com mais detalhe as
tentativas de abrir a máquina, vamos abordar
rapidamente a tentativa de inclusão da contradição através das lógicas para-consistentes. Como já
vimos, a contradição é o motor da transformação e a possibilidade de uma
máquina passar a negar regras e instruções com a qual foi programada poderia
ser a chave para aumentar a sua flexibilidade.
As lógicas para-consistentes admitem
a contradição, isto é, admitem a possibilidade de A e não-A serem verdades.
Para evitar as consequências do princípio
da explosão, ou seja, para evitar que, em consequência da admissão da
contradição, toda e qualquer declaração seja verdadeira, o que levaria à
trivialidade do sistema, pois nenhuma declaração produzida teria valor, as lógicas
para-consistentes normalmente suprimem uma ou mais regras da lógica clássica. Daí
resultam sistemas mais fracos, ou
seja, não mais se mantém a mesma capacidade da lógica clássica em fazer
afirmações. O sacrifício da consistência tem o alto preço da perda da
completude [23].
Cabe aqui fazer algumas claras
distinções entre as lógicas para-consistentes e a dialética. Em primeiro lugar,
nas lógicas para-consistentes admite-se uma ou outra contradição e não, como na
dialética, a possibilidade de contestação de toda e qualquer regra. Outra
diferença marcante é que nas lógicas para-consistentes o sacrifício da
consistência implica na perda da completude. Na dialética, pelo contrário, a
possibilidade da contradição aumenta a abrangência do método, ou seja, mais
fenômenos podem ser explicados se admitirmos a possibilidade de mudança e
transformação das regras que regem o sistema.
Evidentemente os positivistas mencionarão
o caráter não-científico de tais
afirmações. Dirão que a admissão de uma constante mudança e transformação das
leis e regras impossibilita o seu processo de validação [24]. É
claro que o critério de validação é uma típica ferramenta positivista que não
se aplica à dialética em seu sentido estrito [25]. Isto
não significa a impossibilidade de diálogo entre adeptos de um e outro campo da
ciência nem tampouco significa a circularidade tautológica de que somente
dialéticos poderiam justificar a dialética. Pelo contrário, permanece válido o método científico só que dentro de uma
abrangência bem maior. A própria validação
teria que ter os seus paradigmas questionados o que, no entanto, não eliminaria
a possibilidade de comprovação e rejeição dos resultados pela realidade [26]. Por
exemplo, no caso em questão, o próprio desenvolvimento das lógicas
para-consistentes surgidas em função das dificuldades da lógica clássica em
lidar com fenômenos reais, comprovaria a importância da contradição, reforçando
pontos de vista da dialética.
Para encerrar este trabalho
pretende-se ainda examinar as tentativas feitas para gerar uma máquina aberta, isto é, incluir na máquina a
possibilidade de sua transformação e evolução através da incorporação de
aspectos importantes da realidade. Já foram aqui mencionados o computador quântico e o computador de DNA. A questão do aprendizado da
máquina não será examinada por ser assunto por demais conhecido. O aprendizado, hoje em dia presente na
maioria dos sistemas computacionais, costuma se dar de forma bastante rígida,
não levando em conta uma mudança e transformação da máquina em um sentido mais
amplo.
Em função dos limites de
espaço e tempo examinaremos tão somente o computador
não determinístico e para tornar a discussão mais concreta examinaremos com
algum detalhe o artigo de Jef Raskin, Computers
are not Turing Machines [27]. Raskin começa mencionando os
limites impostos pela máquina de Turing para a construção de um artefato capaz
de pensar ou de ter consciência. A sua proposta é uma máquina de Turing probabilística que seria mais adequada à
modelagem de problemas da realidade. O que Raskin defende é uma máquina não algorítmica
[28]
que não teria um sistema formal como base e que, portanto, não estaria sujeita
aos resultados dos teoremas de Gödel. A essência é o acesso externo a números
aleatórios (number selected at random,
também conhecidos como NSAR) que
seriam diferentes de números produzidos por um gerador aleatório de dados. Este último é um programa, tem um
algoritmo por base e, portanto, pode ter tendenciosidade. Sendo um programa, os
números gerados podem, em princípio, ser previstos o que pode ser usado para
provar a incapacidade da máquina de realizar determinada tarefa. Por exemplo,
caso se deseje determinar o máximo de uma função diferenciável com um grande
número de máximos locais, uma pessoa, evidentemente mal-intencionada, poderia
ser levada a colocar o máximo global em um ponto não gerado pelo gerador. Como
consequência a máquina seria incapaz de encontrar o máximo global mesmo em um
tempo infinito [29]. Já no
caso dos NSARs isto é impossível, pois dada uma lista de k números gerados nenhum algoritmo é
capaz de prever o (k+1)-ésimo número.
Os NSARs seriam acessíveis ao
computador através de fenômenos externos dotados de aleatoriedade verdadeira e Raskin cita uma série de
situações onde isto seria possível. Por exemplo, os dígitos de ordem inferior
do número de pessoas ativas em certo instante em uma rede computacional
suficientemente grande poderia ser uma possível fonte de NSARs [30].
Para o caso examinado da determinação do máximo global de uma função diferenciável
no
com grande número de máximos locais, a partir de pontos gerados
com base nos NSARs faríamos uma busca
nas imediações do ponto. Indubitavelmente acabaríamos por identificar o ótimo
global com uma probabilidade diferente de zero depois de algum tempo finito e
esta probabilidade tenderia a um à medida que o tempo tendesse para infinito.
Cabem algumas críticas a este
modelo de computador aberto. Em
primeiro lugar, a alegada aleatoriedade verdadeira
tão somente o é enquanto não for provado o contrário [31]. Por
exemplo, o que aconteceria com a maneira de Raskin gerar números aleatórios se,
por algum motivo, a rede computacional caísse, ou se a rede fosse desativada
durante certo intervalo de tempo? No sentido contrário, o que ocorreria se, por
algum motivo, a partir de certo instante, todos os usuários da rede resolvessem
permanecer ativos? Como fornecer garantias que isto não possa ocorrer a
qualquer momento?
O próprio princípio de incerteza de Heisenberg que caracteriza fenômenos da
mecânica quântica como intrinsecamente
aleatórios pode cair amanhã se puder ser desenvolvida uma ferramenta que
permita calcular com precisão estipulada pelo usuário a posição e a velocidade
de uma partícula. Em ciência nada é definitivo, nem mesmo a suposta
aleatoriedade de certos fenômenos naturais. Não se pode excluir a possibilidade
de que, de fato, Deus não joga dados.
O mais grave, no entanto, é a
afirmativa implícita no artigo de Raskin de que a abertura da máquina para o mundo e a tentativa de incluir o
pensamento, passa pela inclusão da aleatoriedade.
O fato de existirem fenômenos onde reina
a aleatoriedade não pode servir de pretexto para negar a imensidade dos
fenômenos onde a explicação passa por leis, princípios e regras. Como já foi
dito anteriormente, o fato destas mudarem ao longo do tempo não pode servir de
pretexto para negar que grande parte da nossa racionalidade é baseado no
encadeamento lógico, raciocínio indutivo e dedutivo, capacidade de associação,
generalização, princípio de causalidade, etc. Querer reduzir tudo isto à geração de números aleatórios é de um
primarismo semelhante ao do algoritmo de tentativa
e erro que está por trás da determinação de máximos globais, único exemplo
dado por Raskin para um procedimento inteligente
da sua máquina. Que tentativa e erro seja
hoje utilizado para resolver um problema difícil como o da determinação de um
máximo global, isto talvez seja um lamentável fato a se aceitar. Que seja
utilizado pela indústria farmacêutica para gerar novas drogas cuja eficácia é
muitas vezes baseada exclusivamente em ensaios estatísticos, é um fato mais
lamentável ainda.
O que leva à popularidade de
métodos como tentativa e erro? Na
indústria farmacêutica a razão é óbvia: barateamento de custos. É muito mais
barato fazer testes estatísticos do que tentar estabelecer bases analíticas
para a eficácia de uma droga. Dentro de uma visão mais ampla, este procedimento
se encaixa no que poderíamos chamar de automação
da atividade de pesquisa e, neste sentido, é mais uma etapa no processo
geral de automação. Ensaios estatísticos são procedimentos gerais,
implementados de forma quase automática, enquanto o entendimento analítico
requer mão-de-obra qualificada e ferramental específico.
Meta-heurísticas, tentativa e
erro e aleatoriedade tudo aponta em uma mesma direção: a substituição da
complexidade de um mundo real por um mundo virtual esquemático e simplificado.
A redução da complexidade visa possibilitar a automação. Aqui temos uma
resposta concreta e real para a questão central levantada neste trabalho. Não
se trata, como costuma ser apregoado, de fazer uma máquina capaz de lidar com
uma realidade complexa, mas, pelo contrário, trata-se de simplificar e
esquematizar a realidade para que esta caiba dentro da máquina.
Se a máquina de Turing
representa a tentativa de substituição de um mundo rico em contradições e transformações
pela platitude da lógica positivista, a máquina probabilística de Raskin tenta
ir um passo além. Se considerarmos que nos últimos 50 anos manteve-se o nível
de complexidade das operações elementares que o computador é capaz de realizar,
mas aumentou substancialmente a velocidade de processamento e a capacidade de
armazenamento, é fácil entender porque métodos gerais como tentativa e erro ou meta-heurísticas, onde aleatoriedade tem papel
fundamental, são tão difundidos. Significam um passo a mais na automação do
raciocínio, substituindo qualidade por quantidade. Ao invés de programas
elaborados, opta-se por instruções simples e gerais repetidas grande número de
vezes.
Afinal, se o objetivo fosse
mesmo fazer uma maquina pensante
provavelmente o mais promissor seria a máquina biológica ou o clone. Questões
de ética costumam ser alegadas contra este último. Mas porque seria antiético
fazer um clone de Einstein e ético fazer um robô que pensasse exatamente da
mesma maneira? Seria porque o primeiro teria que ser considerado um ser vivo e
o segundo uma mera máquina [32]?
Sendo vivo teria que ter os mesmos direitos e as mesmas características de um
ser humano, provavelmente teria a mesma independência e a mesma capacidade
crítica. Será que é isto que atrapalha?
Através da manipulação
conveniente do DNA, em tese, deveria ser possível criar super-homens até mais inteligentes que o ser humano tradicional, ou
então, híbridos que reunissem a criatividade do ser vivo com a rapidez e a
eficiência da eletrônica [33]. O
monstro que vai resultar desta
experiência, os problemas que surgirão, se a ideia, na prática, vai funcionar
ou não, isto é uma questão em aberto, além dos problemas éticos já mencionados [34]. Seja
como for, clones, engenharia genética e a biomecatrônica parecem, de um ponto
de vista estritamente técnico, capazes de criar a máquina pensante que aparentemente solucionaria o problema proposto
neste trabalho. Tratar-se-ia de um sistema aberto
e com o mesmo potencial do ser humano, incorporando a essência das transformações
e da flexibilidade do mundo e da vida. Tal engenho indubitavelmente seria um artefato [35]. Mas seria uma máquina?
O que é que significa ser máquina? Aqui atingimos a essência
do que está por trás da máquina pensante.
Máquina costuma descrever algo mecânico, rígido e inflexível, sujeito a
comandos e instruções, realizando tarefas programadas. Máquina pensante encerra uma contradição na medida em que o pensante significa exatamente o
contrário. Significa liberdade, flexibilidade e capacidade de tomar decisões de
forma independente. Qual o sentido desta contradição? Será que o pensante entra na máquina tão somente para glamorizar o monótono e repetitivo ou será
que visa subordinar o pensamento à rigidez da máquina, colocando-o na camisa-de-força de um conjunto de
regras e instruções? Será que o objetivo é dourar a pílula amarga da automação
ou será que é engessar o pensamento?
Na verdade, o ou não precisa ser exclusivo e ambas as
razões podem ser verdadeiras. Máquina
pensante vende melhor a máquina e, de quebra, tenta parar o pensamento, ao
menos aquele que incomoda e que insiste em transformar aquilo que melhor seria
que ficasse como está.
[1] É aqui que começa o
erro. Será que o pensar é realmente o
ápice da atividade humana? O que seria do pensar
sem, por exemplo, o ver (e máquinas
para o ver remontam pelo menos ao
século XVII)?
[2] O artigo do Turing foi
publicado originalmente em 1950 na revista Mind, vol. LIX, no. 236 e mais tarde
publicado no livro Minds and Machines
editado por Alan Ross Anderson, Prentice Hall, 1964 sendo esta última a
referência que usamos no presente texto.
[3] O que aparentemente
está por trás da disputa Máquina/Homem é a velha competição Criatura/Criador. Este arquétipo está presente em praticamente
todas as culturas e todos os tempos. O aprendiz
de feiticeiro (sorcerer’s apprentice)
é uma versão deste arquétipo. Adão e a árvore do fruto proibido é outra versão
desta história em que pai e filho concorrem pelo saber. Trata-se de uma
contradição inerente à vida em que a criatura, que deve a sua existência ao
criador, tem que se voltar contra este último para conseguir trilhar o seu
próprio caminho. Visto de outro ângulo, o criador teme que a criatura, que é a
sua criação, o supere e com ele concorra. Aqui Édipo é quase que pensamento obrigatório,
pois a concorrência primeira que ocorre é pelo amor da mãe/esposa. No caso
Máquina/Homem é lógico que este último tem medo que a máquina o suplante e lhe
roube, não a mulher, mas o posto de trabalho que é a sua inserção no social.
Este roubo não é um medo infundado, como veremos mais adiante.
[4] Outra interpretação
que pode ser dada pela excessiva expectativa colocada em cima da máquina é
expressa pelo Deus ex machina da
dramaturgia grega. Na tragédia grega frequentemente o conflito no palco era
solucionado por uma divindade que surgia dos céus transportada por uma máquina.
Da mesma forma, espera-se da máquina a solução mágica dos nossos problemas.
[5] Excelente exemplo da
tentativa de criar uma competição entre a máquina e o homem é dado pelo artigo
de Jef Raskin, Computers are not Turing
Machines, disponível em http://humane.sourceforge.net/unpublished/turing_machines.html.
Raskin menciona uma série de tarefas que máquinas modernas seriam capazes de
desempenhar melhor do que o homem, aparentemente sem notar que ele poderia ter
economizado a retórica, pois uma mera alavanca é capaz de levantar um peso além
do alcance de qualquer ser humano. O que é deveras estranho é que em nenhum
lugar Raskin menciona que todas as invenções que ele coloca nas alturas são criação humana e nada mais do que isto.
Evidentemente que o que está por trás de afirmações deste tipo é o
anti-humanismo que tem por finalidade colocar a espécie humana em um segundo
plano para colocar o artefato no topo da escala de valores. Cabe lembrar que
embora as invenções possam estar ao
alcance de toda humanidade, elas são, na maioria das vezes, concebidas por
poucos, produzidas em poucas fábricas de poucos países e, mais importante,
pertencendo a poucos. Enaltecendo as invenções produzidas por estes poucos se
os coloca acima da grande maioria, o que é justamente o objetivo.
[6] Veja por exemplo pg.
29 do artigo de Turing mencionado na referência acima: Most of
the programs which we can put into the machine will result in it doing
something that we cannot make sense of at all, or which we regard as completely
random behavior. Intelligent behavior presumably consists in a departure form
the completely disciplined behavior involved in computation…
[7] Aqui temos novamente o
Deus ex machina, ou seja, a máquina
que surge dos céus (com Deus) para resolver nossos problemas.
[8] Aqui usamos o termo fechado no sentido de fechado e limitado, ou seja, um sistema
que tem um limite ou fronteira em relação ao mundo, ou seja, a máquina é
claramente delimitada em relação ao mundo que a cerca.
[9] Bastaria este fato
para caracterizar a impossibilidade deste sistema representar o ser humano e,
por extensão, o mundo, se considerarmos regras e estados do ser humano/mundo em
constante mutação e transformação. Ou seja, não é necessário considerar o ser
humano/mundo infinito para caracterizar a impossibilidade da sua representação
por um sistema finito e limitado. Bastaria considerar regras e estados regendo
o ser humano/mundo em constante mutação e transformação de forma que o seu
número fosse crescente. Claro, se o tempo, ou seja, a duração do mundo for
infinita, então, necessariamente este número de regras e estados também será
infinito. Como, no entanto, a permanência do homem no mundo claramente é finita
e como aquilo que vem depois do homem já não mais lhe diz respeito, podemos
abdicar da necessidade do infinito, para chegar à conclusão de que é impossível
reduzi-lo a um sistema finito e limitado.
[10] Encerrar o mundo em uma caixa guarda alguma semelhança
com o “sonho de Hilbert” da axiomatização da matemática. O programa de Hilbert
se propunha a revelar as verdades matemáticas a partir de uma
série de axiomas. Os axiomas
encerrariam em si todas as verdades, ou seja, reduzir-se-ia a matemática aos
axiomas. Os teoremas de Gödel colocaram sérias restrições ao sonho de Hilbert.
De forma equivalente, existiria o sonho dos adeptos da IA forte na criação de um sistema formal capaz de gerar todas as
verdades do mundo. Neste caso o mundo seria representado por suas verdades. Na
mesma linha de pensamento se situa o sonho positivista de reduzir tudo à
ciência (veja, por exemplo, systematic musicology na Wikipedia e o sonho positivista de descobrir leis da música; veja também The paradox of positivism de Jennifer
Vermilyea em web.uvic.ca/~onpol/spring2006, revista On Politics, spring 2006, pgs. 121-130 em que é mencionado que the
positivist dream is to make language a scientific neutral means by which it can
then mirror the world it seeks to know).
[11] Neste sentido é
interessante examinar o livro de Francis
Fukuyama, “The End of History and the Last Man” que defende a idéia de que
a ampla difusão do capitalismo e do livre mercado significam o fim da evolução
sócio-cultural da humanidade e implicam na conquista de uma forma final de
sistema de governo.
[12] Vamos aqui chamar de declarações todo o conjunto de
instruções, informações contidas na fita e estados da máquina.
[13] Inclusive podemos
imaginar que o conjunto
contém instruções ou informações associadas a
probabilidades.
[14] Evidentemente é
possível considerar que em um instante
novas instruções sejam
incluídas o que não muda absolutamente nada nos resultados da análise feita,
pois simplesmente a desloca de
para
. A questão muda de figura se imaginarmos uma situação em que
constantemente novas instruções são inseridas no sistema, por exemplo, via
entrada de dados. Isto não mais caracterizaria uma máquina fechada e será examinado neste texto mais adiante.
[16] Veja principio da explosão na lógica clássica
ou então o artigo “Paraconsistent logic” na
Wikipedia/en onde o princípio da explosão é formalizado. Na lógica clássica ex contradictione sequitur quodlibet, ou
seja, a partir da aceitação de uma contradição tudo pode ser admitido, isto é,
qualquer afirmação passa a poder ser considerada como verdadeira.
[17] Típico da visão
positivista é a afirmativa de Lucas no artigo Minds, Machines and Gödel, pg. 56, no livro de A.R. Anderson
mencionado acima: “not only can we fairly say simply that we know we are
consistent, apart from our mistakes, but we must in any case assume that we
are, if thought is to be possible at all”. Em defesa de Lucas deve ser dito que apesar
dele defender com unhas e dentes a consistência,
isto é, a ausência de contradição, ele admite, de acordo com o segundo teorema
de Gödel, a impossibilidade de prová-la de
dentro do sistema, ou seja, ele admite a necessidade de abdicar de algum
nível de formalização para que possamos chegar à conclusão de que o sistema é
consistente. Segundo Lucas, o fato da máquina ser regida por um sistema formal tornaria esta tarefa
impossível. Somente o ser humano poderia transcender
a esta formalização.
[18] Da mesma maneira em que
a mecânica Newtoniana permite lidar com a realidade se nos mantivermos no
âmbito dos fenômenos do nosso cotidiano e o modelo da terra plana da Grécia
pré-socrática permite lidar com fenômenos geográficos se nos mantivermos no
limite de um raio de alguns quilômetros, a racionalidade não-dialética
representa um modelo simplificado da realidade que pode ser extremamente útil
no nosso dia-a-dia, mas que deve ser apreciado com a devida cautela se
abordarmos fenômenos mais complexos.
[19] A IA forte defende a idéia de que sistemas computacionais podem
reproduzir o pensamento humano, ou seja, a máquina poderia, no futuro,
desempenhar todo tipo de tarefa mental que o ser humano é capaz de realizar.
Alan Turing é um típico representante desta visão.
[20] Novos paradigmas científicos são obviamente um
resultado da interação do ser humano com o mundo, na medida em que o paradigma
antigo não mais é capaz de explicar convenientemente os fatos que acontecem
(veja Thomas Kuhn, The structure of scientific
revolutions, 1962). Kuhn
também oferece importante argumento que depõe contra as teses da IA forte, quando ele menciona que a
noção de uma verdade científica jamais pode ser determinada exclusivamente por
critérios objetivos. Certo nível de subjetividade faria parte da compreensão
científica. Estas idéias evidentemente colocam em cheque teses da IA forte, pois se o pensamento envolve
subjetividade, quem forneceria a subjetividade da maquina pensante? O seu criador? Neste caso, qual seria a sua validade?
Além disso como seria possível colocar a subjetividade dentro de um objeto como
a máquina? Tratar-se-ia de uma subjetividade objetiva?
[21] Segundo esta visão,
alguém encarcerado desde o nascimento em uma cela escura, sem nenhum contato
com o mundo exterior, seria incapaz de qualquer tipo de conhecimento (apesar do
seu acesso ao seu mundo interior) e
existem algumas experiências que fazem
supor o acerto desta afirmação.
[22] Possivelmente o
objetivo real, mas não confesso, seja não o de fechar o mundo a todas as transformações, mas sim fechá-lo a algumas transformações.
[23] Consistência implica na ausência de contradição, ou seja, uma afirmação não pode ser
falsa e verdadeira ao mesmo tempo. Completude
é a capacidade do sistema gerar toda verdade a ele pertinente. Dizemos que
um sistema é completo se toda
afirmação pertinente ao sistema puder ser obtida a partir dele.
[24] Veja Karl Popper, Logic of Scientific discovery (1959).
Veja também os conceitos de flaseabilidade
(falseability) ou refutabilidade.
[25] Aqui vale mais uma vez
ressaltar afirmações de Thomas Kuhn já mencionadas em nota anterior.
Necessariamente existe algum tipo de subjetivismo no estabelecimento dos
paradigmas científicos. Dialética e positivismo não se deixam reduzir um ao
outro, nem tampouco um pode ser validado com ferramentas que pertencem ao
outro.
[26] Por exemplo, uma afirmação
do tipo todos os cisnes são brancos
que pode ser refutada pela existência de um único cisne negro tenderia, na dialética,
a ser substituídas pela afirmação a
maioria dos cisnes são brancos, mas existem também alguns poucos cisnes negros.
Dizer que esta última afirmação é não
científica porque não pode ser refutada é um total disparate. Se for
verificado que a maioria dos cisnes são negros e que somente alguns poucos
cisnes são brancos, vamos ter que alterar a afirmação inicial o que implica em
refutá-la. Mais uma vez verificamos que o oposto do que é dito é verdadeiro. Se
ciência deve servir à realidade o que é não científica é a afirmação de que todos os cisnes são brancos pois esta
afirmação não tem nenhum significado real. O fato de ser colocar a refutabilidade acima da realidade dá bastante informação sobre
as intenções perseguidas.
[28] Um algoritmo implica
em uma série de regras que definem uma sequencia de operações. Baseia-se na
existência de instruções bem definidas realizadas passo a passo, produzindo
certo número de estados. A maioria dos algoritmos é recursiva, ou seja,
baseia-se na repetição de um mesmo conjunto de operações, realizadas em
diferentes estágios do sistema.
[31] O próprio Raskin
confessa que a aleatoriedade verdadeira
é uma questão de fé quando ele diz: I take it as granted that the
natural world has truly random phenomena.
[32] Aqui temos o dilema artificial x natural. O termo artificial é utilizado para designar
aquilo que é criado pelo ser humano. Mas este nada mais é do que um produto da
natureza. Então como delimitar precisamente o artificial do natural? Estes limites
tendem a desaparecer à medida que se avança em ciência. Qual seria a diferença
entre um robô construído com pele sintética, órgãos internos fabricados a
partir de células-tronco e um clone? Próteses como o implante coclear,
marca-passo, lentes de contato, aparelho auditivo, perna robótica, etc. já
tornam o ser humano um quase-ciborgue.
[34] A literatura está
repleta de narrativas de ciborgues que se rebelam e representam uma ameaça. Veja
também filmes como RoboCop, Star Trek,
Star Wars, Blade Runner, The Terminator, etc.
[35] O clone é um produto natural ou artificial? Já
mencionamos o dilema natural x artificial
em uma nota acima. A posição que aqui se defende é que esta dúvida é
decorrência de um vício metafísico de querer separar coisas que não se deixam
separar. A própria noção de artificial ou
artefato traz esta questão embutida,
porque o artificial é aquilo que é produzido pelo homem. Mas este é um produto
da natureza. Teríamos, portanto, um produto da natureza tentando negar esta
última pois diferença é negação (neste sentido veja nota sobre criatura/criador no início deste
trabalho). Teríamos o ser humano tentando superar através do artificial aquilo que ele é, ou seja, o natural tentaria se superar através do artificial.